IMG Investor Dnes Bloombergtv Bulgaria On Air Gol Tialoto Az-jenata Puls Teenproblem Automedia Imoti.net Rabota Az-deteto Start.bg Posoka Boec Megavselena.bg Chernomore

Законът за AI в Европа се нуждае от умна пауза, а не от пълно спиране

Части от закона не са развити добре и това може да създаде проблеми, пише Парми Олсън за Bloomberg

16:00 | 13.07.25 г.
Автор - снимка
Създател
Автор - снимка
Редактор
Снимка: Bloomberg
Снимка: Bloomberg

В арсенала на всеки, който се опитва да промени курса на изкуствения интелект (AI), има един сходен инструмент – паузата, пише Парми Олсън за Bloomberg.

Преди две години Илон Мъск и други технологични лидери публикуваха отворено писмо, призоваващо технологичните компании да отложат разработването на изкуствен интелект с шест месеца, за да защитят по-добре човечеството. Сега целта се е променила. На фона на нарастващия страх да не изостанат в надпреварата за изграждане на компютри, по-умни от хората, група европейски корпоративни лидери насочват оръжието на „паузата“ към Европейския съюз (ЕС) - самопровъзгласилия се световен полицай на изкуствения интелект.

Подобно на онези, които искаха да обуздаят изкуствения интелект преди две години, това е смело предложение, което пропуска нюанси от това, което се опитва да адресира. Пълната пауза във въвеждането на правилата за AI няма да помогне на Европа да настигне САЩ и Китай, както твърдят сега повече от 45 компании. Желанието им игнорира по-фундаментален проблем около финансирането, от който технологичните стартъпи в региона отчаяно се нуждаят, за да се разраснат и да се конкурират с по-големите играчи от Силициевата долина. Идеята, че Европа трябва да избира между това да бъде иноватор и регулатор, е наратив, успешно разпространяван от лобисти на големите технологични компании, които биха спечелили най-вече от по-лек регулаторен подход.

Но това не означава, че самият Закон за изкуствения интелект не може да се наложи на пауза, макар и в по-тесен вариант на това, за което фирми като ASML Holding, Airbus и Mistral AI призоваха в писмото си за „спиране на часовника“, публикувано в четвъртък. В него те призовават председателя на Европейската комисия Урсула фон дер Лайен да отложи влизането в сила на правилата, които те наричат ​​„неясни, припокриващи се и все по-сложни“.

В това отношение те са прави, но само за частта от 180-страничния закон, която беше набързо добавена в последните преговори, за да се обърне внимание на „общоприетите“ AI модели като ChatGPT. Законът в първоначалния си вид е изготвен през 2021 г., почти две години преди ChatGPT да предизвика бумa на генеративния изкуствения интелект. Този закон имаше за цел да регулира високорискови системи, използвани за диагностициране на заболявания, предоставяне на финансови съвети или контрол на критична инфраструктура. Тези видове приложения са ясно дефинирани в закона - от използването на изкуствен интелект за определяне на допустимостта на дадено лице за здравни обезщетения до контрол на водоснабдяването. Преди да бъде внедрен такъв изкуствен интелект, законът изисква той да бъде внимателно проверен както от създателите на технологията, така и от компаниите, които я внедряват.

Ако една болница иска да внедри AI система за диагностициране на медицински състояния, това би се считало за „високорисков изкуствен интелект“ съгласно закона. Доставчикът на изкуствен интелект не само ще бъде задължен да тества своя модел за точност и отклонения, но и самата болница трябва да има хора, които да наблюдават системата, за да следят нейната точност във времето. Това са разумни и ясни изисквания.

Но правилата не са толкова ясни в по-новия раздел за системите с изкуствен интелект с общо предназначение, съставен през 2023 г. в отговор на генеративни модели с изкуствен интелект като ChatGPT и генератора на изображения Midjourney. Когато тези продукти се появиха на пазара, AI внезапно започна да изпълнява безкраен набор от задачи и Брюксел се справи с това, като направи правилата си по-широки и, за съжаление, по-неясни.

Проблемите започват на страница 83 от закона, в раздела, който твърди, че определя точката, в която система с общо предназначение като ChatGPT представлява системен риск: когато е обучена с повече от 10 на 25-а степен операции с плаваща запетая (FLOP), което означава, че компютрите, изпълняващи обучението, са извършили поне 10 000 000 000 000 000 000 000 000 изчисления по време на процеса.

Законът не обяснява защо това число е значимо или какво го прави толкова опасно. Освен това изследователи от Масачузетския технологичен институт са показали, че по-малките модели, обучени с висококачествени данни, могат да се конкурират с възможностите на много по-големите.

Междувременно такива технически прагове не се използват за определяне на това какво означават „изкуствен интелект с общо предназначение“ или „възможности с голямо въздействие“, което ги оставя отворени за тълкуване и разочароващо двусмислени за компаниите.

„Това са дълбоки научни проблеми“, казва Петър Цанков, главен изпълнителен директор на LatticeFlow AI, която насочва компаниите при спазване на разпоредби като Закона за изкуствения интелект. „Бенчмарковете са непълни.“

Брюксел не трябва да спира целия си Закон за изкуствения интелект. Трябва да се придържа към графика, за да започне да прилага правилата за високорискови системи с изкуствен интелект в здравеопазването и критичната инфраструктура, когато те влязат в сила през август 2026 г. Но правилата за „общия“ изкуствен интелект влизат в сила много по-рано - след три седмици - и те се нуждаят от време за усъвършенстване. Цанков препоръчва още две години, за да бъдат оправени.

Европейският Закон за изкуствения интелект може да създаде така необходимата прозрачност в AI индустрията и, ако бъде въведен следващия месец, компании като OpenAI ще бъдат принудени да споделят секретни подробности за своите данни и процеси на обучение. Това би било благословия за независимите изследователи в областта на етиката, които се опитват да проучат колко вреден може да бъде изкуственият интелект в области като психичното здраве. Но ползите биха били краткотрайни, ако неясните правила позволяват на компаниите да се бавят или да намират правни пробойни.

Внимателното спиране на най-двусмислените части от закона би помогнало на Брюксел да избегне правния хаос и да гарантира, че когато правилата бъдат въведени, те ще работят.

Всяка новина е актив, следете Investor.bg и в Google News Showcase.
Последна актуализация: 15:25 | 13.07.25 г.
Специални проекти виж още
Най-четени новини
Още от Новини и анализи виж още

Коментари

Финанси виж още