Една от по-фините и коварни заплахи от изкуствения интелект (АІ) и свързаните с него технологии е способността му да манипулира спомените, пише американската журналистка Ф. Д. Флам в материал за Bloomberg.
Психологът Елизабет Лофтъс е прекарала последните 50 години в това да покаже това колко лесно хората могат да бъдат манипулирани да си спомнят неща, които никога не са се случили – особено в ръцете на прокурори и полицаи, разпитващи свидетели.
Сега Лофтъс, професор в Калифорнийския университет в Ървайн, обединява сили с изследователи от Масачузетския технологичен институт (MIT), за да проучи как изкуственият интелект може да манипулира това, което мислим, че помним. Тази манипулация се случва дори когато субектите знаят, че гледат генериран от изкуствен интелект текст и изображения. Констатациите показват, че изкуственият интелект може да усили способността на хората да възприемат фалшиви спомени.
В популярна серия от експерименти, започнали през 70-те години на миналия век, Лофтъс показа нагледно, че с правилните подсказки психолозите могат да вградят спомени у хората, че са се губили в търговски център като деца или че им е прилошало от яйца или ягодов сладолед по време на пикник. Последното дори отблъсква хората от желанието им да консумират тези храни. Въпреки доказателствата все още не можем да се отърсим от идеята, че паметта е като запис на събитие на касета – и че погрешното възприемане на събитията от собствения ни ум ни прави уязвими.
„Хората, които поддържат този модел за паметта като лента на касета, изглежда не оценяват това, че паметта е конструктивен процес“, коментира Лофтъс, според която мозъкът ни изгражда спомени от частици, придобити по различно време. Интуитивно схващаме забравянето като загуба или избледняване на спомени, но не и добавянето на фалшиви подробности.
Лофтъс също така изучава потенциала за създаване на хаос в ума чрез т. нар. push polls, при които социолози вграждат дезинформация в зададения от тях въпрос. Например: „Какво бихте си помислили за Джо Байдън, ако знаехте, че е осъден за укриване на данъци?“. Лофтъс намира за много плашеща мисълта колко ефективно АІ би могъл да извършва такъв вид измама в голям мащаб.
Манипулирането на паметта, отбелязва Пат Патаранутапорн, изследовател към Медийната лаборатория на MIT, е много по-различен процес от заблуждаването на хората с дийпфейк съдържание. Не е нужно да създавате сложен фалшив източник на уебсайта на New York Times например – просто трябва да убедите хората, че са чели нещо там в миналото. „Хората обикновено не поставят под въпрос собствената си памет“, казва той.
Патаранутапорн е водещ автор в три експеримента с човешката памет, първият от които показва как разпитващи чатботове могат да променят показанията на свидетели, просто като вграждат предположения във въпросите си – разширение с изкуствен интелект на по-ранната работа на Лофтъс върху разпитите на хора.
В това проучване на участниците им е бил показан видеозаписи на въоръжен грабеж. След това на някои са били задавани подвеждащи въпроси, като например: „Имаше ли охранителна камера близо до мястото, където крадците паркираха колата?“ Около една трета от тези участници по-късно са си спомнили, че са видели крадците да пристигат с кола. Не е имало кола. Фалшивият спомен се е запазил дори седмица по-късно.
Участниците са били разделени на три групи: на едната не са били задавани подвеждащи въпроси, на другата са били зададени в писмена форма, а третата ги получава от чатбот с изкуствен интелект. Групата с чатботове е формирала 1,7 пъти повече фалшиви спомени от тези, които са получили подвеждаща информация в писмена форма.
Друго проучване е показало, че недобросъвестни АІ обобщения или чатботове с изкуствен интелект могат лесно да вмъкнат фалшиви спомени в история, която хората четат. Още по-тревожно е, каза Патаранутапорн, че участниците, които са получили подвеждащи обобщения на информация или са водили чатове с изкуствен интелект, също така са запазили по-малко от истинската информация от прочетеното – и са имали и по-малко доверие в истинската информация, която са си спомнили.
Третото проучване показва как АІ може да създава фалшиви спомени, използвайки изображения и видео. Изследователите са разделили 200 доброволци на четири групи. Участниците във всяка група е трябвало да разгледат набор от 24 изображения – някои са били типични изображения, които могат да се видят в новинарски сайтове, докато други са лични, като сватбени снимки, които биха могли да бъдат публикувани в социалните мрежи.
При второто им разглеждане, няколко минути по-късно, на всяка група е била показана различна версия на изображенията. Едната група са разгледали отново същите (непроменени) изображения. Втора група е получила версии, променени от изкуствен интелект. Трета група е разгледала модифицирани от изкуствен интелект изображения, конвертирани в кратки, генерирани от изкуствен интелект видеоклипове. Последната група е гледала изцяло генерирани от изкуствен интелект изображения, които са били трансформирани в генерирани от изкуствен интелект видеоклипове.
Дори групата, която е разгледала отново оригиналните изображения, е имала фалшиви спомени – не е изненадващо, като се има предвид колко е трудно човек да си спомни 24 различни снимки. Но участниците, изложени на манипулация с изкуствен интелект под каквато и да е форма, съобщават за значително повече фалшиви спомени. Групата с най-висок процент на изкривяване на паметта е тази, която е гледала генерирани от изкуствен интелект видеоклипове, базирани на генерирани от изкуствен интелект изображения.
По-младите хора са били малко по-склонни да си създават фалшиви спомени, отколкото по-възрастните. И нивата на образование не изглежда да са повлияли на податливостта. Забележително е, че фалшивите спомени не са разчитали на заблудата на участниците да мислят, че генерираното от АІ съдържание е реално – в началото им е било казано, че ще видят създадено от изкуствен интелект съдържание.
В експеримента с изображенията някои от промените са включвали изменение във фона – добавяне на военно присъствие към публично събиране или промяна на времето. Изображенията са запазили повечето от характеристиките на оригинала. За да има реално въздействие, дезинформацията трябва да включва история, която е поне 60% вярна.
Това последно изследване би трябвало да стимулира по-задълбочени дискусии за влиянието на технологиите върху нашето разбиране за реалността, което може да надхвърли простото разпространение на дезинформация. Алгоритмите в социалните медии също така насърчават хората да възприемат маргинални идеи и конспиративни теории, като създават фалшиво впечатление за популярност и влияние.
АІ чатботовете ще имат още по-трудно доловими и неочаквани ефекти върху нас. Всички ние трябва да сме отворени към това да променяме мнението си под влиянието на нови факти и силни аргументи – и да сме предпазливи за опити мнението ни да бъде променено чрез изкривяване на това, което виждаме, чувстваме или помним.


Във Военноморския музей представят най-новите си експонати, дарени през 2025 г.
Облачно време на много места в страната днес
Хороскоп за 6 декември 2025
Един район във Варна остава без вода днес
Без ток във Варна на 5 декември 2025
Луксозните марки и автомобилите помрачават прогнозите за Франция и Германия
Коалицията на Мерц е на ръба при решаващо гласуване за пенсионната реформа
Warner Bros. започва преговори за сключване на ексклузивна сделка с Netflix
Моди разстила червен килим за Путин, въпреки натиска от САЩ
Дьоре от Hensold: Очаквам стоманено десетилетие
Нова технология на Mercedes прави задните спирачки безсмислени
REST - една малко известна екстра в стари Audi-та и VW-та
Най-готините коли на шампиони във Формула 1
Новата суперкола на Toyota – V8 с 640 к.с. и алуминиево шаси
Китайски електромобил се разцепи при странна катастрофа
Премиер, вицепремиер и министър на блицконтрол в НС
Борисов за протеста пред дома му: Ще дойде време да ходят пред техните къщи
Внукът на Мохамед Али ще подгрява Кобрата в Дубай
Червен код в Гърция, бурята "Байрон" настъпва здраво
ГДБОП и ДАНС разбиха група за ДДС измами, завлекли хазната с милиони
преди 3 месеца До: гъбко Говориш малко като Селс с общи приказки и на око... значи кво се разбира, че е инструмент (но не ясно за какво), неясно е защото е достъпен само за малцина можещи професионалисти (а как могат и от къде, пак неясно :):)) .. и ще ми е ефтино, това дето още незнам кво е! :D Добре, завий ми два АИ за вкъщи, навих се! отговор Сигнализирай за неуместен коментар
преди 3 месеца До: khao ... Материалът в действителност е точно за това , да демонстрира колко добър и успешен инструмент са невроните мрежи в ръцете на знаещи и можещи професионалисти !! Универсален инструмент , с приложение според необходимостта !! ... :))) отговор Сигнализирай за неуместен коментар
преди 3 месеца До: khao ... Да , има известна доза преекспониране , факт !! Но невроните мрежи предлагат страхотна комбинативност , непостижима допреди няколко години , и то като цена в порядъци по-ефффтино !! Порядъци !! Ако знаеш какво търсиш на изхода , и подадеш правилните задачи на входа , получаваш резултаТИ на цена 1/1000 , а в някои случаи и на 1/100000 , от това което си плащал преди . Страхотен инструмент са !! Да , не е интелект в никакъв случай , но "обучените" мрежи са голяма сила !! ... :))) отговор Сигнализирай за неуместен коментар
преди 3 месеца До: гъбко то цялата сага с АИ е една лъжа... :) отговор Сигнализирай за неуместен коментар
преди 3 месеца Малко е подвеждащо (лъжливо?) твърдението на афффтора (журналистка Ф. Д. Флам) , видиш ли AI(невронна мрежа) лъже и подвежда . Значи в материалът иде реч , че AI(невронната мрежа) използвана в експериментите е подучена от експериментаторите да снася неверна информация , с която да въвежда в заблуждение от ново (по-високо) ниво , и то с много добра успеваемост . Сиреч , AI(невронните мрежи) са добри инструменти за подвеждане и манипулиране на общодостъпни данни и факти ... :))) отговор Сигнализирай за неуместен коментар