ИЗТОЧНИК: РАДIО „СВОБОДА“
ПРЕВОД ОТ РУСКИ: ПАВЕЛ НИКОЛОВ
Границите на цифровия свят се разширяват, а заедно с развитието на възможностите на изкуствения интелект расте и безпокойството относно неговото използване за създаването и разпространението на фалшиви новини. Даже в текстова форма дезинформацията и борбата с нея се превръщат в истинско предизвикателство днес, но какво да правим, когато предмет на манипулация могат да станат измислени видеообръщения на държавни лидери, които призовават публично, например, за започване на бойни действия?
Повечето хора са свикнали вече с многото форми на манипулативни изображения: приложение на смартфона ще ви помогне за броени минути да измените който е да е детайл от някоя снимка или, например, да смените лицето си с който и да е човек, включително политик, и да започнете да говорите от негово име. Но тези изображения (и клипове) обикновено се разпознават лесно, че не са реални, най-малко заради несъвършеното изображение.
Но възможностите на изкуствения интелект са достигнали вече равнище, при което има възможност да се генерират извънредно реалистични снимки и клипове на хора, чиято автентичност е трудно да проверят дори самите те.
„Често са ни казвали да не вярваме на всичко, което четем, но скоро ще трябва да се съмняваме и във всичко, което виждаме и чуваме“ - пише издание „The Guardian“. Експертите предупреждават: скоро изкуственият интелект ще може да преправя качествено не само снимките, но и аудиото, което ще усложни съществено борбата с фалшивите новини и дезинформацията.
Проблематика на фалшивото видео
Американската корпорация „Nvidia“ демонстрира още през октомври миналата година способността на нейния изкуствен интелект да създава „тревожно реалистични образи на несъществуващи хора“, както пише изданието „Futurism“. По-нататък този изкуствен интелект се научи да манипулира и видеоизображения, превръщайки деня в нощ, зимата в лято или слънчевия ден в дъждовен.
Днес „Nvidia“ инвестира много парични средства за изследване на възможностите на изкуствения интелект. Група изследователи от корпорацията е разработила система, способна да създава изображения на лица въз основа на анализ на хиляди снимки на известни хора и да намира сходни черти, обясняват Кейд Мец и Кейт Колинс в статия за „The New York Times“. Тази система може да генерира изключително реалистични и точни изображения на животни, растения и много други обекти, които са много трудно различими от реалните.
Освен това, докато една невронна мрежа създава нови лица, друга се опитва да изясни дали тези изображения са истински или преправени: „Едната система работи всъщност колкото може по-добре, за да надхитри другата, която прави всичко възможно, за да не бъде надхитрена“ - обясняват авторите.
И ако първоначалната цел на изследователите е била да подобрят компютърните интерфейсове и видеоигрите, във времето, когато фалшивите новини са сериозен проблем, въвеждането на подобни технологии вероятно ще усложни извънредно възможностите да се отличи истината от фалшификата - технологиите само ще задълбочат проблема с дезинформацията.
Въпросът е в това, че подобни „таланти“ на изкуствения интелект са достъпни не само за изследователите от големите корпорации. Както съобщава изданието „The Independent“, преди известно време потребителят на социална мрежа Reddit използвал възможностите на изкуствения интелект, за да замени висококачествено лицето на порноактриса с лицето на актрисата Гал Гадот, изпълнителка на главната роля във филма „Жената чудо“. Алгоритъмът позволил „да се препокрие“ лицето на актрисата на видео, така че било доста трудно да се разпознае фалшификата. И тук се появява определен проблем: „алгоритъмът не се интересува от съгласието, конфиденциалността или законността“ при подобни случаи, се казва в статията.
Както съобщава вестник „The Daily Mail“, това не е първият случай. Изданието обръща внимание, че „любителското видео има тревожни последици, показвайки как свободно достъпните ресурси могат да бъдат използвани за създаването на фалшиви филми за няколко дена или даже няколко часа“.
„Гласовият фотошоп“, който може да предизвика война
„Най-голямата загуба, предизвикана от изкуствения интелект, ще бъде пълното унищожаване на доверието във всичко, което виждате или чувате“ - обяснява в статия за „Wired“ Уйлям Уеслър. Той обръща особено внимание на проблематиката със създаването чрез изкуствения интелект не само на фалшиви снимки и видео, но и на аудио.
Проектът Adobe Voco разработва в момента програма, която вече успяха да нарекат „гласов фотошоп“: тя ще заменя „звуковите вълни с пиксели, за да създаде нещо, което звучи естествено. Компанията залага на това, че ако имаме достатъчно количество записи на речта на един човек, за да се промени неговият глас, ще може да бъде направено малко повече отколкото с обикновеното „копи-пейст“ - обяснява Уеслър. Въпреки очакваните доходи от технологията, тя може да има крайно негативни последици и дори да доведе до война, отбелязва авторът. Замяната на гласа може да се използва нашироко, за да се излъжат или объркат хората: „Представете си просто последиците от фалшифицирания глас на световен лидер, който прави войнствени заявления, подкрепени от преправено видео. Ще могат ли през 2018 година гражданите или военните генерали да определят, че това е фалшификат?“ - пита Уеслър.
Професор Хени Фарид, експерт по разкриването на фалшиви снимки и клипове, е особено обезпокоен от това „колко бързо се разпространява вирусният контент и колко бавен е процесът на проверка. Фарид си представя едно близко бъдеще, в което убедителен фалшив видеоклип с президента на САЩ Доналд Тръмп, даващ команда за пълно ядрено ликвидиране на Северна Корея, се превръща във вирус и предизвиква паника, както във „Война на световете“, но в епохата на изкуствения интелект“ - пише изданието „Wired“.
Изкуственият интелект знае как да ви накара да плачете
Нещо повече, изкуственият интелект ще може не просто да манипулира аудио- и видеоизображенията, но и ще знае как най-добре да предизвика у хората силни емоции. Както съобщава консултантската компания „McKinsey&Company“, изследователи решили да предоставят на невронна мрежа да разгледа хиляди кратки филмчета, за да открие какви именно моменти в тях са особено емоционални. След това показали решенията на изкуствения интелект на истински хора, които потвърдили резултатите на машината.
Това свидетелства, че скоро с помощта на изкуствения интелект компаниите ще произвеждат контент, който ще манипулира човешките емоции по-добре от това, което може да измисли някой режисьор. И сред изследователите има вече опасения, че същата методология ще започнат да използват за своите медийните корпорации и държавите.
Експертите са съгласни, че вероятно нищо не ще може да спре вълните на контента, създаван от изкуствения интелект, който ще се използва и за политически цели. Според Сандра Ъпсън в статия за „Wired“ с развитието си изкуственият интелект „все повече ще имитира човешките действия. В края на краищата той няма друг избор, освен да стане съвсем като хората: склонен към добро и зло в еднаква степен“.
Няма коментари:
Публикуване на коментар
Анонимни потребители не могат да коментират. Простащини от всякакъв род ги режа като зрели круши! На коментари отговарям рядко поради липса на време за влизане във виртуален разговор, а не от неучтивост. Благодаря за разбирането.