IMG Investor Dnes Bloombergtv Bulgaria On Air Gol Tialoto Az-jenata Puls Teenproblem Automedia Imoti.net Rabota Az-deteto Start.bg Posoka Boec Megavselena.bg Chernomore

Практиките за безопасност на AI компаниите не отговарят на световните стандарти

Надпреварата в изкуствения интелект не показва признаци на отслабване, като големите компании инвестират в него стотици милиарди долари

22:00 | 03.12.25 г.
Снимка: Pixabay.com
Снимка: Pixabay.com

Практиките за безопасност на големите компании за изкуствен интелект като Anthropic, OpenAI, xAI и Meta са „далеч от нововъзникващите глобални стандарти“, сочи новото издание на индекса за безопасност на изкуствения интелект на Future of Life Institute, публикуван в сряда и цитиран от Ройтерс.

Институтът съобщи, че оценката на безопасността, направена от независим експертен панел, е установила, че докато компаниите са заети с надпреварата за разработване на суперинтелигентност, никоя от тях не разполага с надеждна стратегия за контрол на такива усъвършенствани системи.

Проучването е публикувано на фона на засилените обществени опасения относно социалното въздействие на системи, по-умни от човека, които са способни на разсъждаване и логическо мислене, след няколко случая на самоубийство и самонаранявания, които бяха свързани с чатботове с изкуствен интелект.

„Въпреки неотдавнашния шум около хакерските атаки, подхранвани от изкуствен интелект, и AI, който подтиква хората към психози и самонараняване, американските компании за изкуствен интелект остават по-слабо регулирани от ресторантите и продължават да лобират срещу задължителните стандарти за безопасност“, казва Макс Тегмарк, преподавател в Масачузетския технологичен институт и президент на Future of Life.

Надпреварата в областта на изкуствения интелект също не показва признаци на забавяне, като големите технологични компании инвестират стотици милиарди долари в модернизиране и разширяване на усилията си в областта на машинното обучение.

Future of Life Institute е неправителствена организация, която изразява притеснение относно рисковете, които интелигентните машини представляват за човечеството. Основана през 2014 г., тя беше подкрепена в началото от главния изпълнителен директор на Tesla Илон Мъск.

През октомври група, включваща учените Джефри Хинтън и Йошуа Бенгио, призова за забрана на разработването на свръхинтелигентен изкуствен интелект, докато обществото не го поиска и науката не проправи безопасен път напред.

XAI заяви, че „традиционните медии лъжат“ в нещо, което изглеждаше като автоматичен отговор, а Anthropic, OpenAI, Google DeepMind, Meta, Z.ai, DeepSeek и Alibaba Cloud не са отговорили веднага на искането за коментар относно проучването.

Всяка новина е актив, следете Investor.bg и в Google News Showcase.
Последна актуализация: 19:51 | 03.12.25 г.
Най-четени новини
Още от Новини и анализи виж още

Коментари

Финанси виж още