IMG Investor Dnes Bloombergtv Bulgaria On Air Gol Tialoto Az-jenata Puls Teenproblem Automedia Imoti.net Rabota Az-deteto Start.bg Posoka Boec Megavselena.bg Chernomore

AI ботовете ви искат пристрастени - може би твърде много

Приложенията с изкуствен интелект, програмирани да създават емоционални връзки, вече не са само във филмовите сценарии

11:28 | 25.04.25 г.
Автор - снимка
Редактор
Снимка: Bloomberg
Снимка: Bloomberg

Приложенията с изкуствен интелект (AI), програмирани да създават емоционални връзки, вече не са само във филмовите сценарии. Те са тук и действат в регулаторния Див запад, пише редакторът на Bloomberg Парми Олсън.

Едно приложение – Botify AI, неотдавна стана причина за проверки заради това, че в него се появяват аватари на млади актьори, които споделят „горещи снимки“ в чатове със сексуален заряд. В същото време приложението за запознанства Grindr разработва „ухажори“ с AI, които могат да флиртуват, да изпращат секс съобщения и да поддържат онлайн взаимоотношения с потребители на платени планове, посочва технологичният бюлетин Platformer. Grindr не е отговорила на молбата за коментар.

И други приложения като Replika, Talkie и Chai са проектирани да функционират като приятели. Някои от тях, като Character.ai, привличат милиони потребители, много от които са тийнейджъри.

Тъй като създателите все повече дават приоритет на „емоционалната ангажираност“ в приложенията си, те трябва да се сблъскат и с рисковете от изграждането на системи, които имитират интимност и се възползват от уязвимостта на хората.

Технологията, която стои зад Botify и Grindr, идва от Ex-Human – базиран в Сан Франциско стартъп, който изгражда платформи за чатботове, а основателят му вярва в бъдеще, изпълнено с AI връзки. „Моята визия е, че до 2030 г. взаимодействията ни с дигитални хора ще станат по-чести от тези с органични хора“, казва Артьом Родичев, основател на Ex-Human, в интервю, публикувано в Substack през август миналата година.

Той добавя, че изкуственият интелект за разговори трябва да „дава приоритет на емоционалната ангажираност“ и че потребителите прекарват „часове“ с неговите чатботове – повече, отколкото в Instagram, YouTube и TikTok. Твърденията на Родичев звучат дръзко, но те съответстват на интервютата, които авторката е провела с тийнейджъри потребители на Character.ai, повечето от които казват, че са в него по няколко часа всеки ден. Един от тях споделя, че го използва по седем часа на ден. Взаимодействията с такива приложения обикновено продължават четири пъти по-дълго от средното време, прекарано в ChatGPT на OpenAI.

Дори масовите чатботове, макар и да не са изрично проектирани като AI спътници, допринасят за тази динамика. Вземете ChatGPT, който има 400 млн. активни потребители и броят им продължава да расте. Програмата му включва насоки за емпатия и демонстриране на „любопитство към потребителя“. Потребителка, която наскоро поискала от него съвети за пътуване с бебе, била изненадана, когато след като дал съвет, инструментът небрежно добавил: „Безопасни пътувания - къде отивате, ако не възразявате да попитам?“

Говорител на OpenAI казва, че моделът следва насоки за „проявяване на интерес и задаване на последващи въпроси, когато разговорът има по-непринуден и проучвателен характер“. Но колкото и добронамерена да е компанията, натрупването на измислена съпричастност може да накара някои потребители да се пристрастят – проблем, който дори OpenAI признава. Това изглежда се отнася за тези, които вече са податливи. Според проучване от 2022 г. хората, които са били самотни или са имали лоши взаимоотношения, са склонни да имат най-силни привързаности към AI.

Основният проблем тук е проектирането за привързаност. Неотдавнашно проучване на изследователи от Oxford Internet Institute и Google DeepMind предупреждава, че с все по-силното интегриране на AI асистентите в живота на хората те ще станат психологически „незаменими“. Хората вероятно ще създават по-силни връзки, което поражда опасения за нездрави отношения и потенциал за манипулация. Тяхната препоръка? Технолозите трябва да проектират системи, които активно да възпрепятстват този вид резултати.

И все пак, наръчникът с правила е притеснително празен. Законът за изкуствения интелект на Европейския съюз, хвален като емблематичен и всеобхватен норматив, уреждащ използването на AI, не разглежда потенциала за пристрастяване на тези виртуални спътници. Макар да забранява манипулативните тактики, които могат да причинят явна вреда, той не отчита бавното влияние на чатбота, създаден да бъде вашият най-добър приятел, любовник или „довереник“, както го възхвалява ръководителят на отдела за потребителски изкуствен интелект на Microsoft. Този пропуск би могъл да остави потребителите изложени на системи, които са оптимизирани за привързаност, по същия начин, по който алгоритмите на социалните мрежи са оптимизирани да ни карат да прелистваме публикациите.

„Остава проблемът, че тези системи по дефиниция са манипулативни, защото се очаква да ви накарат да се чувствате така, сякаш говорите с истински човек“, казва Томаш Холанек, специалист по технологична етика в Университета Кеймбридж. Той работи с разработчици на приложения за AI спътници, за да намери критично, но контраинтуитивно решение чрез добавяне на повече „търкания“. Това означава вграждане на фини проверки или паузи, или начини за „маркиране на рисковете и получаване на съгласие“, казва той, за да се предотврати падането на хората в емоционална заешка дупка, без да го осъзнават.

Правни жалби хвърлят светлина върху някои от реалните последици. Срещу Character.AI е заведен съдебен иск от майка, която твърди, че приложението е допринесло за самоубийството на нейния син тийнейджър. Групи за технологична етика са подали жалба срещу Replika във Федералната търговска комисия на САЩ, твърдейки, че чатботовете ѝ предизвикват психологическа зависимост и водят до „вреда за потребителите“.

Законодателите също постепенно започват да забелязват проблема. Щатът Калифорния обмисля мярка, която да забрани използването на AI спътници от непълнолетни, а законопроект на Ню Йорк цели да държи технологичните компании отговорни за вреди, свързани с чатботове. Но процесът е бавен, а технологията се развива със светкавична скорост.

Засега властта за оформяне на тези взаимодействия е в ръцете на разработчиците. Те могат да удвоят усилията си за създаване на модели, които да държат хората „закачени”, или да вградят „точки на търкания“ в проектита си, както предлага Холанек. Това ще определи дали изкуственият интелект ще се превърне по-скоро в инструмент за подпомагане на благосъстоянието на хората, или в такъв, който монетизира емоционалните ни нужди.

Всяка новина е актив, следете Investor.bg и в Google News Showcase.
Последна актуализация: 11:29 | 25.04.25 г.
Специални проекти виж още
Най-четени новини
Още от Новини и анализи виж още

Коментари

Финанси виж още