Миналата седмица Париж беше домакин на представители от повече от 100 държави, които обсъдиха бъдещето на изкуствения интелект (AI). Резултатът беше неясно споразумение, подписано от 60 от тях, което не стори почти нищо, за да направи технологията по-безопасна, пише Парми Олсън в коментар за Bloomberg.
Уликата беше в името. Международната поредица от срещи, създадена в Обединеното кралство като „AI Safety Summit” през 2023 г., стана известна като AI Action Summit, когато се пренесе в Париж. Президентът Еманюел Макрон я използва като трамплин, за да обяви инвестиция от 109 млрд. евро в изкуствен интелект и да представи пред света френските технологии.
Човек трябваше да се вгледа изключително внимателно, за да открие нещо, свързано с безопасността, във всички банални фрази, които се размениха. Последното изявление от 799 думи се фокусира повече върху икономическите възможности на AI, отколкото върху мерките за напредък, които бяха установени на предишните срещи на върха във Великобритания и Южна Корея.
Въпреки че срещите в Блечли Парк и Сеул осигуриха конкретни ангажименти от големи компании за изкуствен интелект да тестват своите системи с новосъздадена международна мрежа от институти за безопаност, изявлението в Париж призовава за мъгляви цели като превръщането на AI в „достоен за доверие“.
Удивителното е, че това все пак успя да прозвучи твърде тежко за Съединените щати, чийто вицепрезидент Джей Ди Ванс се оплака от това как „прекомерното регулиране на сектора на изкуствения интелект може да убие една трансформираща се индустрия, точно когато тя започва да се развива“.
Първо, споразумението едва ли беше прекомерно. И второ, AI индустрията в САЩ не просто започва развитието си. Компаниите там налагат стандарти, като Nvidia, която държи монопола върху чиповете за обучение и разсъждения, а Microsoft и Alphabet контролират голяма част от облачната инфраструктура и най-популярните модели с изкуствен интелект.
Но САЩ все пак отказаха да подпишат споразумението, вероятно поради нарастващата параноя относно Китай. Миналия месец китайският стартъп DeepSeek се изстреля на върха на класациите за приложения с AI модел, който беше толкова добър, колкото и най-новата версия на ChatGPT, но създаването му е било по-евтино. Моделът също така е безплатен за ползване и копиране от всеки, което можете да сте сигурни, че инженерите от Силициевата долина правят точно сега.
Дори по-странното, Великобритания също отказа да подпише изявлението, изглежда поради обратната причина. „Смятаме, че декларацията не предоставя достатъчно практическа яснота относно глобалното управление“, коментира говорител на правителството.
Това звучи по-разумно. Едно напомняне: AI се развива с безпрецедентни темпове и неговите системи са напът да вземат решения с високи залози относно здравеопазването, правоприлагането и финансите без ясни предпазни ограничения. Двусмислените обещания са „крачка назад за международното и техническото сътрудничество“, казва Макс Тегмарк, професор по физика в Масачузетския технологичен институт и съосновател на Future of Life Institute, който е един от водещите гласове, застъпващи се за мерките за безопасност на AI.
Срещата на върха трябваше поне да разгледа опасенията за сигурността, повдигнати от Международния доклад за безопасността на AI от миналия месец, подписан от над 150 експерти, казва той. Освен това трябва да превърне „доброволните ангажименти“ от срещите на високо равнище в Блечли Парк и Сеул в изисквания към компаниите за изкуствен интелект да провеждат тестове за безопасност, преди да внедрят нови системи пред обществеността, а след това трябва да споделят резултатите.
Също така би било добре да се определи краен срок за създаване на обвързващи международни закони, както и по-ясни прагове за момента, в който системите с изкуствен интелект достигнат определени нива на способност (като разсъждения и скорост например), за да предизвикат допълнителни одити.
Не трябва да чакаме да се случи бедствие, преди правителствата да се събудят за рисковете от такава трансформираща технология. Нека не повтаряме забавения отговор на безопасността на автомобилите например, където бяха необходими хиляди смъртни случаи, преди предпазните колани да станат задължителни през 60-те години.
Наскоро Джофри Фаулър от Washington Post сподели история, която подчертава как нещата могат да се объркат. Писателят оставя нова версия на ChatGPT под формата на агент сама на компютъра му с достъп до кредитната му карта. След като го моли да намери най-евтините яйца, ботът отива в Instacart и купува дузина на висока цена, трупайки разходи за продукта и бакшиш за 31 долара.
Това може да не е толкова лошо, колкото изкуственият интелект да всее хаос в електропреносните мрежи или финансовите пазари, но примерът показва, че подобни грешки в тези системи имат цена и могат да се появят от нищото.
Правителствата трябва да бъдат по-смели в ролята си на проактивни регулатори и да говорят за стандартите, правата и защитата. Може да не им спечели много точки сред бизнеса във и извън технологичната индустрия, но е много по-добре, отколкото да стоят настрана, докато не се случи бедствие. Следващата среща на върха в Кигали, Руанда, трябва да установи по-конкретен надзор, преди грешките на изкуствения интелект да прераснат от неразрешени покупки на хранителни стоки до нещо по-лошо, категоричен е Парми Олсън.