fallback

Фалшивите снимки, генерирани от изкуствен интелект, скоро ще залеят социалните мрежи

Дигиталните платформи все още не правят достатъчно, за да защитят потребителите от това да бъдат подведени

10:36 | 24.03.23 г. 3

Във вторник в Париж популярен потребител на Twitter публикува три изображения на френския президент Еманюел Макрон, спринтиращ между полицията за борба с безредиците и протестиращите, заобиколен от кълба дим. Изображенията, които са гледани повече от 3 млн. пъти, са фалшиви. Но за всеки, който не следи развитието на захранваните от изкуствен интелект генератори на изображения, това не е толкова очевидно. Освен това профилът „No Context French“ не е добавил описание на кадрите. И както се оказва, някои хора вярват, че става дума за истински снимки, пише Парми Олсън в коментар за Bloomberg.

 

pic.twitter.com/0W7PGEHgSj

— No Context French ?? (@nocontextfre) March 21, 2023

 

Колега на Олсън споделя, че поне двама негови приятели в Лондон, работещи в различни професионални сфери, случайно са попаднали на изображенията и са помислили, че става дума за реални снимки от бурните протести срещу пенсионната реформа във Франция тази седмица. Един от тях е споделил изображението в групов чат, преди да разбере, че е фалшиво.

Социалните мрежи от години се подготвят за този момент. Те предупредиха за фалшивите видеа (т.нар. дълбоки фалшификати – от англ. deep fake) и знаят, че всеки, който има софтуер за редактиране, може да манипулира и да постави политици в спорни фалшиви снимки. Но неотдавнашният бум на инструменти за генериране на изображения, зад които стоят т.нар. модели за генеративен изкуствен интелект, поставят платформи като Twitter, Facebook и TikTok в безпрецедентна ситуация.

Това, което отнема 30 минути или час, за да бъде създадено със софтуер от типа на Photoshop, сега може да бъде направено за максимум 5 минути с инструмент като Midjourney (безплатно за първите 25 изображения) или Stable Diffusion (напълно безплатно). И двата инструмента нямат ограничения за генериране на изображения с известни личности.

Миналата година Олсън използва Stable Diffusion, за да създаде „снимки“ на Доналд Тръмп, който играе голф с Ким Чен Ун, но нито една от тях не изглежда особено убедителна. Шест месеца по-късно генераторите на изображения направиха крачка напред. Последната версия на инструмента на Midjourney може да създаде снимки, които трудно може да се разбере дали са реални.

Човекът зад „No Context French” казва, че е ползвал Midjourney за своите фалшиви кадри на Макрон. На въпрос защо изображенията не са отбелязани като фалшиви, той отговаря, че всеки може просто да „увеличи мащаба и да прочете коментарите, за да разбере, че тези изображения не са истински“.

Той не се трогва особено от факта, че някои хора са повярвали на изображенията. „Знаем, че тези кадри не са реални заради всичките им дефекти“, допълват авторите, преди да изпратят приближени части от кадрите, показващи недостатъците им. Много хора обаче не гледат такива подробности, особено на малкия екран на смартфона.

Елиът Хигинс, съосновател на групата за разследваща журналистика Bellingcat, възприе подобна позиция, когато публикува в Twitter генерирани от него фалшиви снимки в понеделник, на които се вижда как арестуват Доналд Тръмп, след като по-рано той написа в социалните мрежи, че очаква да бъде задържан. Изображенията са разгледани над 5 млн. пъти и не са отбелязани като фалшиви. По-късно Хигинс каза, че му е забранено да ползва Midjourney.

 

Making pictures of Trump getting arrested while waiting for Trump's arrest. pic.twitter.com/4D2QQfUpLZ

— Eliot Higgins (@EliotHiggins) March 20, 2023

 

Всяка новина е актив, следете Investor.bg и в Google News Showcase. Последна актуализация: 10:49 | 24.03.23 г.
fallback
Още от Новини и анализи виж още