IMG Investor Dnes Bloombergtv Bulgaria On Air Gol Tialoto Az-jenata Puls Teenproblem Automedia Imoti.net Rabota Az-deteto Blog Start Posoka Boec

Изкуственият интелект може би вече влияе на изборите – просто още не го знаем

Методите на кампаниите с АІ може би са по-различни от това, което сме наблюдавали досега, и социалните мрежи е възможно да не са готови

13:13 | 06.05.24 г.
Автор - снимка
Създател
Снимка: Bloomberg LP
Снимка: Bloomberg LP

Тази година обещава да e от огромно значение за демокрациите, като милиарди хора - или повече от 40% от населението на света – ще могат да гласуват на избори. Но почти пет месеца след началото на 2024 г. някои тихо се чудят защо надвисналият риск от изкуствения интелект (AI) все още очевидно не се е проявил. Дори когато гласоподавателите в Индонезия и Пакистан отидоха до урните, не видяха доказателства за дълбоки фалшификации, изкривяващи изборния резултат, според скорошна статия в Politico, която цитира „служители на национална сигурност, ръководители на технологични компании и външни групи за наблюдение“. АІ, казаха те, нямаше „масовото въздействие“, което се очакваше.

Това е болезнено късогледство, пише колумнистът на Bloomberg Парми Олсън в материал. Причината? AI може да влияе на изборите в момента, а ние просто не го знаем.

Проблемът е, че в своята представа хората търсят лукавство, облечено в одеждата от популярното изображение на папа Франциск в бяло пухено яке, направено с АІ. Помните ли изображението, станало така популярно миналата година? Това очакват сега мнозина от генеративните AI инструменти – които масово могат да създадат текст, изображения и видеоклипове, наподобяващи истински хора. Това обаче прави подобно съдържание също толкова лесни за забелязване, както когато Доналд Тръмп беше масово подкрепян от профили в Северна Македония или разпространението на политически послания от Русия. Така нареченият astroturfing (Координирано неавтентично поведение, бел. ред. ) е лесен за идентифициране, когато масово ботове повтарят едно и също нещо хиляди пъти.

Много по-трудно обаче е да хванеш някой да казва едно и също нещо, но по малко по-различен начин, хиляди пъти. Това, накратко, прави дезинформацията, задвижвана от изкуствен интелект, много по-трудна за откриване и затова технологичните компании трябва да пренасочат фокуса си от масовото разпространение към по-разнообразното представяне на тези, посочва Джош Лоусън, който е бил ръководител на отдела за изборен риск в Meta Platforms Inc., а сега съветва социални мрежи като директор на мозъчния тръст Aspen Institute.

Не забравяйте, казва той, фината сила на думите. Голяма част от публичния дискурс относно AI беше за изображения и дълбоки фалшификати (deepfakes), но можем да видим, че „по-голямата част от кампаниите за убеждаване могат да се основават на текст“. „Ето как наистина можете да разширите дадена операция, без да ви хванат“, посочва той.

WhatsApp на Meta прави това възможно благодарение на функцията си Channels, която може да излъчва съдържание до хиляди профили. Бихте могли, например, да използвате езиков модел с отворен код, за да генерирате и изпращате безброй различни текстови публикации до говорещи арабски потребители в Мичиган или да изпращате съобщения на хората, че техните местни избирателни секции в училищата са наводнени и че гласуването ще отнеме шест часа, добавя Лоусън.

Другият проблем е, че AI инструментите вече са широко използвани, като повече от половината американци и една четвърт от британците са ги изпробвали. Това означава, че обикновените хора – умишлено или не – също могат да създават и споделят дезинформация. През март, например, феновете на Доналд Тръмп публикуваха генерирани от AI фалшиви снимки на него, заобиколен от поддръжници афроамериканци, за да го обрисуват като герой на чернокожата общност.

„Това са обикновени хора, които са фенове и създават съдържание“, казва Рене Ди Реста, изследовател от Stanford Internet Observatory. „Искали ли са да правят подвеждащо съдържание? Кой знае“, допълва той. Важното е, че на фона на нулевите разходи за разпространение, тези за създаване на съдържание също са намалели и то за всички. Това, което прави работата на Meta особено трудна е, че за да се справи със случващото се, не може просто да ограничи определени изображения да получават кликания и харесвания. AI спамът не се нуждае от ангажираността на потребителите, за да бъде ефективен. Просто трябва да наводни пространството.

Meta се опитва да се справи с проблема, като прилага етикета „Произведено с AI“ този месец към видеоклипове, изображения и аудиосъдържание във Facebook и Instagram – подход, който може да стане контрапродуктивен, ако хората започнат да приемат, че всичко без етикет е истина.

Друг подход би бил Meta да се съсредоточи върху платформата, където текстът е преобладаващ: WhatsApp. Още през 2018 г. поток от дезинформация се разпространи чрез платформата за съобщения в Бразилия, насочен срещу Фернандо Хадад от Работническата партия. Появи се информация, че привържениците на Жаир Болсонаро, който спечели президентския пост, са финансирали масовото таргетиране.

Meta би могла да се справи по-добре при евентуално повторение на този случай – който би бил като на стероиди благодарение на AI – ако приведе своите политики за WhatsApp в съответствие с тези на Instagram и Facebook, по-специално забранявайки съдържание, което пречи на акта на гласуване. Правилата на WhatsApp само бегло ограничават „съдържание, което целенасочено заблуждава“, или „незаконна дейност“.

Според говорител на Meta обаче, това ще значи компанията да наложи натиск върху избиратели или избори.

Но по-ясни политики за съдържание биха дали на Meta повече правомощия за справяне със спама, генериран от изкуствен интелект, в каналите на WhatsApp. Това е необходимо за по-активно правоприлагане, посочва Лоусън. Ако компанията не смяташе, че случаят е такъв, нямаше да има специфични политики срещу избирателната намеса за Facebook и Instagram.

Трябва да се подготвим за повече шумотевица, а не за ясни сигнали, докато синтетичното съдържание залива интернет. Това означава, че технологичните компании и служители не трябва да се успокояват с липсата на „масово въздействие“ на AI върху изборите. Точно обратното.

Всяка новина е актив, следете Investor.bg и в Google News Showcase.
Последна актуализация: 13:13 | 06.05.24 г.
Специални проекти виж още
Още от Политика виж още

Коментари

Финанси виж още