IMG Investor Dnes Bloombergtv Bulgaria On Air Gol Tialoto Az-jenata Puls Teenproblem Automedia Imoti.net Rabota Az-deteto Start.bg Posoka Boec Megavselena.bg Chernomore

Критиците на изкуствения интелект на Alphabet задават грешните въпроси

Регулацията на сигурността на системите за изкуствен интелект може да бъде отведена на ново и по-смислено ниво

07:47 | 12.06.25 г.
Снимка: Bloomberg
Снимка: Bloomberg

Малка група от акционери в Alphabet наскоро странно се е сближила, искайки компанията да обърне повече внимание на рисковете, свързани с изкуствения интелект (AI), пише редакторът на Bloomberg Парми Олсън в коментар.

Националният правен и политически център (NLPC) например бе обезпокоен от въздействието на изкуствения интелект върху правата за поверителност. Inspire Investing – акционер, който подкрепя „библейски отговорно инвестиране“ и понякога е насочен към т.нар. „будни корпоративни политики“ – се оплака, че изкуственият интелект на Google може неволно да подкопае човешките права и да подхрани дискриминацията.

Потенциалните вреди на технологиите върху хората отдавна са свързваща сила в целия политически спектър, обединявайки републиканци и демократи, за да критикуват социалните мрежи за подхранването на кризата с психичното здраве. Но по същия начин, по който тези усилия до голяма степен се проявиха като политически театър, така се проявяват и тези последни критики към изкуствения интелект.

Фактът, че по-широкият спектър от акционери в Alphabet отхвърли предложенията по настояване на компанията, няма особено значение, тъй като те биха направили малко, за да помогнат за предотвратяване на опасностите, свързани с изкуствения интелект. Причината – триото искаше Alphabet да продължи сама да оценява собствените си домашни.

NLPC призова Google да докладва дали краде данни на хора, за да обучава своите AI системи. Inspire поиска оценка на предубежденията на изкуствения интелект във връзка с религиозни и политически възгледи, а SHARE настоя компанията да направи проучване за въздействието на рекламите, генерирани от изкуствен интелект, върху правата на човека, сочи изявление на Alphabet от 2025 г.

Alphabet заяви, че нищо от това не е необходимо, тъй като провежда адекватни изследвания на рисковете. „Редовно публикуваме AI Responsibility доклади, които предоставят подробна информация за нашите политики, практики и процеси за разработване на развити системи с изкуствен интелект“, гласи изявление на компанията.

Със сигурност би било добре вниманието да се насочи към това дали Google злоупотребява с лични данни, наред с другите предложения, но всички те са лишени от съдържание, тъй като се призовава подобни разкрития да бъдат поръчвани от самата Alphabet, а не от независими регулатори или изследователи. Това прави въпросните предложения на акционерите да изглеждат по-скоро като излишен активизъм, отколкото като усилие за предизвикване на смислена промяна, не на последно място, защото някои групи като NLPC подадоха подобни предложения в няколко други технологични компании наскоро.

Силициевата долина отдавна е усвоила изкуството на това, което може да наречете „пране“ на прозрачността, пускайки лъскави доклади като този на Meta Platforms за поведение, включващо омраза, във Facebook, или тези от Uber Technologies за статистика за безопасност, които не са одитирани от трета страна.

Липсата на закони, изискващи разкриване на информация, означава, че компаниите пазят решенията относно модерирането на съдържание, дизайна на алгоритмите им, а сега и дизайна на AI моделите им, непрозрачни, но посочват подробните си доклади винаги, когато власти и граждански групи ги притискат с въпроси.

Когато главният изпълнителен директор на OpenAI Сам Алтман беше попитан за рисковете за безопасността на изкуствения интелект по време на показанията си пред Сената през май 2023 г., той по подобен начин говори за проведените от компанията изследвания, както и за „независимите одити на ефективността на моделите по различни показатели от независими експерти“. Но ключов елемент на AI моделите са данните, с които са обучени – нещо, което OpenAI от години пази в тайна.

Ако регулаторите или изследователите имаха достъп до тези данни, те биха могли по-добре да проверяват технологията на OpenAI за пропуски в сигурността, за пристрастия или нарушения на авторските права. Компанията посочи търговските тайни като причина да държи тази информация само за себе си, но отговорността е също толкова вероятна причина.

Ако акционерите на Alphabet искаха да поемат по трудния път на настояване за реална промяна, те биха поискали външен надзор - независими технически одитори, например от една от четирите големи счетоводни фирми или академични институции, които да оценяват системите на компанията преди внедряването им. Meta започна да работи в тази посока преди няколко години, като нае Ernst & Young да одитира част от отчетите за прозрачност за Facebook, но може да стигне много по-далеч.

Триото акционери активисти на Alphabet е сравнително малко и затова може би няма нужните лостове, за да повлияе финансово на годишно общо събрание. Но техните гласове - и по-специално на NLPC, предвид консервативните ѝ наклонности - биха могли да имат по-голяма тежест, ако настояват за някои от тези регулаторни идеи през други политически канали. Например биха могли да лобират властите да създадат нещо като Агенцията по храните и лекарствата, но за изкуствен интелект, принуждавайки компаниите да отговарят на определени стандарти, преди да пуснат технологиите си за масово ползване. Дотогава целият този двупартиен консенсус се заглушава в система, която винаги ще предпочита статуквото.

Всяка новина е актив, следете Investor.bg и в Google News Showcase.
Последна актуализация: 07:47 | 12.06.25 г.
Най-четени новини
Още от Новини и анализи виж още

Коментари

Финанси виж още