IMG Investor Dnes Bloombergtv Bulgaria On Air Gol Tialoto Az-jenata Puls Teenproblem Automedia Imoti.net Rabota Az-deteto Blog Start Posoka Boec

Фалшивите снимки, генерирани от изкуствен интелект, скоро ще залеят социалните мрежи

Дигиталните платформи все още не правят достатъчно, за да защитят потребителите от това да бъдат подведени

10:36 | 24.03.23 г. 3
Снимка: Tiffany Hagler-Geard/Bloomberg
Снимка: Tiffany Hagler-Geard/Bloomberg

Във вторник в Париж популярен потребител на Twitter публикува три изображения на френския президент Еманюел Макрон, спринтиращ между полицията за борба с безредиците и протестиращите, заобиколен от кълба дим. Изображенията, които са гледани повече от 3 млн. пъти, са фалшиви. Но за всеки, който не следи развитието на захранваните от изкуствен интелект генератори на изображения, това не е толкова очевидно. Освен това профилът „No Context French“ не е добавил описание на кадрите. И както се оказва, някои хора вярват, че става дума за истински снимки, пише Парми Олсън в коментар за Bloomberg.

 

 

Колега на Олсън споделя, че поне двама негови приятели в Лондон, работещи в различни професионални сфери, случайно са попаднали на изображенията и са помислили, че става дума за реални снимки от бурните протести срещу пенсионната реформа във Франция тази седмица. Един от тях е споделил изображението в групов чат, преди да разбере, че е фалшиво.

Социалните мрежи от години се подготвят за този момент. Те предупредиха за фалшивите видеа (т.нар. дълбоки фалшификати – от англ. deep fake) и знаят, че всеки, който има софтуер за редактиране, може да манипулира и да постави политици в спорни фалшиви снимки. Но неотдавнашният бум на инструменти за генериране на изображения, зад които стоят т.нар. модели за генеративен изкуствен интелект, поставят платформи като Twitter, Facebook и TikTok в безпрецедентна ситуация.

Това, което отнема 30 минути или час, за да бъде създадено със софтуер от типа на Photoshop, сега може да бъде направено за максимум 5 минути с инструмент като Midjourney (безплатно за първите 25 изображения) или Stable Diffusion (напълно безплатно). И двата инструмента нямат ограничения за генериране на изображения с известни личности.

Миналата година Олсън използва Stable Diffusion, за да създаде „снимки“ на Доналд Тръмп, който играе голф с Ким Чен Ун, но нито една от тях не изглежда особено убедителна. Шест месеца по-късно генераторите на изображения направиха крачка напред. Последната версия на инструмента на Midjourney може да създаде снимки, които трудно може да се разбере дали са реални.

Човекът зад „No Context French” казва, че е ползвал Midjourney за своите фалшиви кадри на Макрон. На въпрос защо изображенията не са отбелязани като фалшиви, той отговаря, че всеки може просто да „увеличи мащаба и да прочете коментарите, за да разбере, че тези изображения не са истински“.

Той не се трогва особено от факта, че някои хора са повярвали на изображенията. „Знаем, че тези кадри не са реални заради всичките им дефекти“, допълват авторите, преди да изпратят приближени части от кадрите, показващи недостатъците им. Много хора обаче не гледат такива подробности, особено на малкия екран на смартфона.

Елиът Хигинс, съосновател на групата за разследваща журналистика Bellingcat, възприе подобна позиция, когато публикува в Twitter генерирани от него фалшиви снимки в понеделник, на които се вижда как арестуват Доналд Тръмп, след като по-рано той написа в социалните мрежи, че очаква да бъде задържан. Изображенията са разгледани над 5 млн. пъти и не са отбелязани като фалшиви. По-късно Хигинс каза, че му е забранено да ползва Midjourney.

 

 

Последна актуализация: 10:49 | 24.03.23 г.
Специални проекти виж още
Още от Новини и анализи виж още

Коментари

3
rate up comment 2 rate down comment 0
мрънмрън
преди 1 година
До: zelka007 e някои са избрали само 1-2. Мисълта ми е, че реалните снимки на хора в инстаграм и подобни сайтове са доста малко. Примерно видеа създадени с изкуствен интелект се разбират по движенията, нещо ако мине пред лице, също така никога не се показват пръсти. Докато повечето филтри работят върху нещо статично и е в пъти по-лесно да направиш "фалшива" снимка, макар че и там някои се забелязват лесно - остри контури, неправилна сянка и тн.
отговор Сигнализирай за неуместен коментар
2
rate up comment 0 rate down comment 3
zelka007
преди 1 година
До: мрънмрън... половината ?!
отговор Сигнализирай за неуместен коментар
1
rate up comment 5 rate down comment 0
мрънмрън
преди 1 година
Скоро? Има хиляди видеа с известни, които се въртят в мрежата и са фейк. Повечето са сравнително лесни за разпознаване. А снимките на хора, те и сега не са реални, половината са цъкнали всеки възможен филтър.
отговор Сигнализирай за неуместен коментар
Финанси виж още