Във вторник в Париж популярен потребител на Twitter публикува три изображения на френския президент Еманюел Макрон, спринтиращ между полицията за борба с безредиците и протестиращите, заобиколен от кълба дим. Изображенията, които са гледани повече от 3 млн. пъти, са фалшиви. Но за всеки, който не следи развитието на захранваните от изкуствен интелект генератори на изображения, това не е толкова очевидно. Освен това профилът „No Context French“ не е добавил описание на кадрите. И както се оказва, някои хора вярват, че става дума за истински снимки, пише Парми Олсън в коментар за Bloomberg.
— No Context French ?? (@nocontextfre) March 21, 2023
Колега на Олсън споделя, че поне двама негови приятели в Лондон, работещи в различни професионални сфери, случайно са попаднали на изображенията и са помислили, че става дума за реални снимки от бурните протести срещу пенсионната реформа във Франция тази седмица. Един от тях е споделил изображението в групов чат, преди да разбере, че е фалшиво.
Социалните мрежи от години се подготвят за този момент. Те предупредиха за фалшивите видеа (т.нар. дълбоки фалшификати – от англ. deep fake) и знаят, че всеки, който има софтуер за редактиране, може да манипулира и да постави политици в спорни фалшиви снимки. Но неотдавнашният бум на инструменти за генериране на изображения, зад които стоят т.нар. модели за генеративен изкуствен интелект, поставят платформи като Twitter, Facebook и TikTok в безпрецедентна ситуация.
Това, което отнема 30 минути или час, за да бъде създадено със софтуер от типа на Photoshop, сега може да бъде направено за максимум 5 минути с инструмент като Midjourney (безплатно за първите 25 изображения) или Stable Diffusion (напълно безплатно). И двата инструмента нямат ограничения за генериране на изображения с известни личности.
Миналата година Олсън използва Stable Diffusion, за да създаде „снимки“ на Доналд Тръмп, който играе голф с Ким Чен Ун, но нито една от тях не изглежда особено убедителна. Шест месеца по-късно генераторите на изображения направиха крачка напред. Последната версия на инструмента на Midjourney може да създаде снимки, които трудно може да се разбере дали са реални.
Човекът зад „No Context French” казва, че е ползвал Midjourney за своите фалшиви кадри на Макрон. На въпрос защо изображенията не са отбелязани като фалшиви, той отговаря, че всеки може просто да „увеличи мащаба и да прочете коментарите, за да разбере, че тези изображения не са истински“.
Той не се трогва особено от факта, че някои хора са повярвали на изображенията. „Знаем, че тези кадри не са реални заради всичките им дефекти“, допълват авторите, преди да изпратят приближени части от кадрите, показващи недостатъците им. Много хора обаче не гледат такива подробности, особено на малкия екран на смартфона.
Елиът Хигинс, съосновател на групата за разследваща журналистика Bellingcat, възприе подобна позиция, когато публикува в Twitter генерирани от него фалшиви снимки в понеделник, на които се вижда как арестуват Доналд Тръмп, след като по-рано той написа в социалните мрежи, че очаква да бъде задържан. Изображенията са разгледани над 5 млн. пъти и не са отбелязани като фалшиви. По-късно Хигинс каза, че му е забранено да ползва Midjourney.
Making pictures of Trump getting arrested while waiting for Trump's arrest. pic.twitter.com/4D2QQfUpLZ
— Eliot Higgins (@EliotHiggins) March 20, 2023


ИАМА: Дипломатите да уточнят как танкерът Kairos е докаран в български води
300 бойци от 21 държави се включиха във финалния SENSHI лагер за годината
Костадинов зове за бойкот на Евровизия
Турнир по акробатичен рокендрол се провежда днес във Варна
Проливните дъждове предизвикаха нови наводнения край Царево
Факторингът е трамплин за малкия бизнес при въвеждането на еврото
SpaceX ще предложи акции на вътрешни лица при рекордна оценка
Империята на китайските пристанища, част 5
Как чуждестранните автомобилни гиганти могат да се закрепят на китайския пазар
Империята на китайските пристанища, част 4
Топ 10 на най-устойчивите на ръжда коли на старо
Кога са изобретени електрическите прозорци
Новото AUDI E7X изобщо не прилича на... Audi
Мercedes реши близкото бъдеще на G-Class
Как влияят на мощността диаметърът на цилиндрите и ходът на буталата
HR експерт: Бонусите са ключов инструмент за мотивация на служителите
Фермерският протест: Отново спряха движението през ГКПП "Кулата" на ТИР-ове
Мицкоски работи за "Сръбски свят", а не за независима РСМ
В кадър: Никулден във Варна с военен ритуал, молебен и курбан
Здравко от "Ритон" е в болница, дуетът отлага участия и концерт
преди 2 години До: zelka007 e някои са избрали само 1-2. Мисълта ми е, че реалните снимки на хора в инстаграм и подобни сайтове са доста малко. Примерно видеа създадени с изкуствен интелект се разбират по движенията, нещо ако мине пред лице, също така никога не се показват пръсти. Докато повечето филтри работят върху нещо статично и е в пъти по-лесно да направиш "фалшива" снимка, макар че и там някои се забелязват лесно - остри контури, неправилна сянка и тн. отговор Сигнализирай за неуместен коментар
преди 2 години До: мрънмрън... половината ?! отговор Сигнализирай за неуместен коментар
преди 2 години Скоро? Има хиляди видеа с известни, които се въртят в мрежата и са фейк. Повечето са сравнително лесни за разпознаване. А снимките на хора, те и сега не са реални, половината са цъкнали всеки възможен филтър. отговор Сигнализирай за неуместен коментар