И въпреки че мнозина, като лидера на мнозинството в Сената Чък Шумър, са решени да се справят с проблемите на изкуствения интелект по двупартиен начин, факт е, че Конгресът е поляризиран, президентските избори са следващата година, а властите се занимават и с други големи проблеми, като повишаване на тавана на дълга.
Предложеният от Шумър план изисква независими експерти да тестват нови технологии с ИИ преди пускането им. Той също така призовава за прозрачност и предоставяне на данни на правителството, от които то се нуждае, за да се избегне нанасянето на вреди.
Правителствено микроуправление
Подходът, базиран на риска, означава, че изкуственият интелект, използват за диагностициране на рак например, ще бъде подложен на щателни проверки от Администрацията по храните и лекарствата, докато ИИ за развлечение, няма да бъде регулиран. Европейският съюз вече се насочва към приемането на подобни правила.
Но фокусът върху риска изглежда недостатъчен за сенатора демократ Майкъл Бенет, който представи законопроект, призоваващ за създаването на правителствена работна група за ИИ. По думите му той се застъпва за „основан на ценности подход“ за приоритизиране на личния живот, гражданските свободи и права.
Базираните на риска правила може да са твърде строги и да не уловят опасности като използването на ИИ за препоръчване на видеоклипове, които насърчават идеята за превъзходството на бялата раса, допълва сътрудник на Бенет.
Властите също така са обсъдили как най-добре да гарантират, че изкуственият интелект не се използва за расова дискриминация, например при решаването кой да получи ипотека с ниска лихва, коментира източник, който следи дискусиите в Конгреса и е пожелал да остане анонимен.
В OpenAI също се обмисля по-широк надзор.
Калън О‘Кийф, изследовател в OpenAI, през април предложи създаването на агенция, която да наложи на компаниите да получават лицензи, преди да обучават мощни модели с изкуствен интелект или да управляват центровете за данни, които помагат на технологията. Според О‘Кийф агенцията може да бъде наречена Служба по безопасност на изкуствения интелект и сигурност на инфраструктурата (OASIS).
Попитан за предложението, главният технологичен директор на OpenAI Мира Мурато коментира, че един надежден орган може да „държи разработчиците отговорни“ за стандартите за безопасност. Но по-важно от механиката е съгласието „какви са стандартите, какви са рисковете, които се опитвате да предотвратите“.
Някои републиканци обаче може да се противопоставят на каквато и да била регулация на изкуствения интелект.
„Трябва да внимаваме регулаторните предложения за изкуствен интелект да не се превърнат в механизъм за държавно микроуправление на компютърен код като търсачки и алгоритми“, коментира сенатор републиканец пред Ройтерс.


Община Варна награди най-изявените доброволци за 2025 година
Тръгна петиция против отдаването на кортовете в "Чайка" на частни клубове
Хороскоп за 7 декември 2025
МААЕ: Защитният саркофаг на АЕЦ "Чернобил" е повреден
Виц на деня - 7 декември
Европа е изправена пред най-трудния момент в опитите си да избегне разрив със САЩ
Украйна и САЩ с „рамково споразумение“, но преговорите продължават
Дейвид Бут: Хората не вярват особено на алгоритмите
Дейвид Бут: Трендът е към услуги срещу такса, вместо комисионна
Дейвид Бут: Някои щати изискват да се инвестира извън Китай
Новото AUDI E7X изобщо не прилича на... Audi
Мercedes реши близкото бъдеще на G-Class
Как влияят на мощността диаметърът на цилиндрите и ходът на буталата
Бизнесмен организира погребение за късметлийската си кола
Уникална Toyota Mega Cruiser от 1996 година отива на търг
Ген. Атанасов: Ако този вот на недоверие не мине, ще се усилят протестите
Мирослав Великов победи в "Игри на волята", грабна чек за 100 000 лв.
Вашингтон и Киев отчитат напредък след срещите в Маями
Осъдиха българския шофьор, карал в насрещното в Гърция
Най-големият син на Болсонаро ще се кандидатира за президент на Бразилия