Идва ли края на фотографската истина?

Идва ли края на фотографската истина?

Можем да наречем тази история "История на две селфита".

Малко след като двама членове на индийския отбор по борба бяха арестувани в Ню Делхи, докато протестираха срещу предполагаем сексуален тормоз от президента на националната федерация по борба, две почти идентични снимки на дуото започнаха да циркулират онлайн.

И двете снимки показват двете жени в полицейски микробус сред полицаи и други членове на екипа им. На едната от снимките те изглеждат мрачни, а на другата - радостни, сякаш арестът им не е нищо повече от игра, пише Politico.

В продължение на часове снимката на усмихнатите боркини се разпространяваше в социалните медии и беше препубликувана и от поддръжници на президента на федерацията, въпреки че журналисти, проверяващи факти, доказаха, че тя е фалшива. По-късно беше направен и анализ, сравняващ усмивките им с по-ранни снимки, който доказа, че тази снимка не е истинска. Усмивките им са били добавени най-вероятно от безплатен софтуер като FaceApp, който използва изкуствен интелект за цифрово манипулиране на изображения.

Истории като тази показват бъдеще, в което на практика на нищо не може да се вярва, че е такова, каквото изглежда, посочва медията. Генерирани от AI изображения, видео и аудио вече се използват в предизборни кампании. Те включват фалшиви снимки на бившия президент на САЩ Доналд Тръмп, прегръщащ и целуващ главния съветник на страната за COVID Антъни Фаучи; видео от Полша, в което се смесват реални кадри на десния премиер Матеуш Моравицки с генерирани от AI клипове на неговия глас; фалшив запис на лидера на британската Лейбъристка партия Кийр Стармър, който припада.

Въпреки че всички тези изображения бързо са развенчани, те няма да са последните фалшиви, а тези, които идват, ще бъдат все по-трудни за идентифициране като такива. С подобряването на AI инструментите реалното ще стане неразличимо от измисленото, което ще подхранва политическата дезинформация ще подкопава усилията за удостоверяване на всякакви действия. Изразът "снимкови доказателства" рискува да се превърне в реликва от древна епоха.

До известна степен рискът от AI не е нищо ново. Манипулираните изображения са стари като самата фотография. Първият фалшификат датира от 1840 г.: Иполит Баярд е френски калайджия, който твърди, с известна заслуга, че е изобретил фотографията. В знак на протест срещу липсата на официално признание за подвига му той създава картина, която уж показва собствения му труп. Заглавието на изображението е "Автопортрет на удавен човек".

Друга предцифрова измама включва снимки от 1917 г. на малки феи с вежди, които заблуждават създателя на Шерлок Холмс Артър Конан Дойл. Съветският диктатор Йосиф Сталин пък има склонността да изтрива опозорени служители от черно-бели фотографии.

Съвсем наскоро инструменти като Adobe Photoshop и филтри в приложенията за социални медии демократизираха визуалните трикове. Това, което AI прави, е да ги изведе на друго ниво.

Генератори на изображения като Midjourney, DALL-E 3 и Stable Diffusion предлагат три нови неща. Достъпност: Не си правете труда да изучавате Photoshop; просто напишете няколко реда и изчакайте десет секунди. Качество: AI вече създава убедителни изображения на пресилени обекти и тепърва ще се подобрява. Мащаб: Пригответе се за наводнения от фалшиви изображения, произведени в индустриален мащаб.

Експертите по дезинформация в по-голямата си част са спокойни относно риска AI изображенията да заблудят широки слоеве от обществеността. Разбира се, мнозина бяха заблудени от кадър на папата в пухкаво бяло сако или замъглено изображение на брадатия Джулиан Асандж в затворническата му килия. Това обаче бяха изображения с нисък залог. Туит през май за извиващ се черен дим, издигащ се от Пентагона, за кратко стана вирусен, но бързо беше развенчан.

"Изкуственият интелект намалява драстично бариерите за навлизане и позволява по-убедителни и по-креативни употреби на измама", коментира Карл Милър, изследовател от Центъра за анализ на социалните медии към британския мозъчен тръст Demos. Според него обаче това е просто още спам. "Вече има високо ниво на скептицизъм сред обществеността по отношение на разтърсващи света изображения, които идват от ненадеждни или неизвестни места", допълва той.

Истинската опасност вероятно е обратната страна на проблема: публика, която все повече се обучава да не вярва на собствените си очи. Снимките от март на бившия президент на САЩ Доналд Тръмп бяха фалшиви, но какво да кажем за кадрите на руския военачалник на групата наемници "Вагнер" Евгений Пригожин с перуки и фалшиви бради? (Оказва се, че тези снимки вероятно са автентични.)

"Има толкова много репортажи около фалшиви новини и около AI, че това създава атмосфера, в която легитимността на много неща може да бъде поставена под съмнение", коментира Бенджамин Стрик, директор разследвания в организацията с нестопанска цел Center for Information Resilience и опитен практик в разузнаването на данни с отворен код.

За да се справят с някои от проблемите, причинени от изображения, генерирани от изкуствен интелект, компаниите, включително Intel и създателят на DALL-E 3 и ChatGPT - OpenAI, създадоха базирани на изкуствен интелект инструменти за откриване на медии, създадени от изкуствен интелект. Някои разработчици са започнали да поставят на свои изображения водни знаци - скрити или очевидни, за да ги идентифицират като синтетични.

Детекторите обаче не са съвършени и като се има предвид сегашното темпо на иновациите, усилията за подобряването им вероятно ще прилича на безкрайна игра на котка и мишка.

Техническите корпорации и медийните организации също обединиха сили чрез инициативи като Коалицията за произход и автентичност на съдържанието (C2PA), в която организации като Microsoft, Adobe, BBC и New York Times се опитват да намерят начини за маркиране на автентични изображения с криптирана информация. В скрипта се съдържат история, авторство и всички модификации, които може да са направени по изображенията.

"Зададохме си въпроса: Можем ли да имаме технологии, които ще вземат всеки фотон, уловен от камера, и ще се уверят, че той съответства на това, което се показва на потребителите - и ще улавят всички промени?", коментира Ерик Хорвиц, главен научен директор на Microsoft, който ръководи Project Origin, един от партньорите в коалицията.

Според неотдавнашен доклад на Кралското общество, научната академия на Обединеното кралство, рискът е приемането на тези системи от реномирани медии да се тълкува като създаване на "картели на знанието", претендиращи за монопол върху истината. Такова развитие гарантирано ще има обратен ефект в днешната поляризирана политическа среда, посочват от организацията.

Хорвиц се надява, че инструментите за удостоверяване също ще станат достъпни за по-малки групи или самостоятелни подкастери, тъй като технологичните и фотографските компании ги подготвят за включване в софтуер и устройства. Това обаче ще отнеме време.

Като се има предвид изобилието от AI изображения, бъдещето на доказателствата вероятно ще бъде все по-малко цифрово, като материалите в мрежата ще се нуждаят от потвърждение на място, т.е. става дума за връщане на журналистиката към нейните корени.

Междувременно има признаци, че ерозията на доверието е вече в ход. Грег Фостър-Райс, доцент по фотография в Колумбийския колеж в Чикаго и член на работната група за изкуствен интелект в своя университет, забелязва какво се случва сред неговите студенти от поколението Z: те се връщат към аналоговите практики заради по-автентичното преживяване.

Споделете:

Присъединете се
към 12 257 читатели

ENTERPRISE е прецизно таргетирано B2B печатно издание за практически бизнес и интелигентно управление.