Практиките за безопасност на големите компании за изкуствен интелект като Anthropic, OpenAI, xAI и Meta са „далеч от нововъзникващите глобални стандарти“, сочи новото издание на индекса за безопасност на изкуствения интелект на Future of Life Institute, публикуван в сряда и цитиран от Ройтерс.
Институтът съобщи, че оценката на безопасността, направена от независим експертен панел, е установила, че докато компаниите са заети с надпреварата за разработване на суперинтелигентност, никоя от тях не разполага с надеждна стратегия за контрол на такива усъвършенствани системи.
Проучването е публикувано на фона на засилените обществени опасения относно социалното въздействие на системи, по-умни от човека, които са способни на разсъждаване и логическо мислене, след няколко случая на самоубийство и самонаранявания, които бяха свързани с чатботове с изкуствен интелект.
„Въпреки неотдавнашния шум около хакерските атаки, подхранвани от изкуствен интелект, и AI, който подтиква хората към психози и самонараняване, американските компании за изкуствен интелект остават по-слабо регулирани от ресторантите и продължават да лобират срещу задължителните стандарти за безопасност“, казва Макс Тегмарк, преподавател в Масачузетския технологичен институт и президент на Future of Life.
Надпреварата в областта на изкуствения интелект също не показва признаци на забавяне, като големите технологични компании инвестират стотици милиарди долари в модернизиране и разширяване на усилията си в областта на машинното обучение.
Future of Life Institute е неправителствена организация, която изразява притеснение относно рисковете, които интелигентните машини представляват за човечеството. Основана през 2014 г., тя беше подкрепена в началото от главния изпълнителен директор на Tesla Илон Мъск.
През октомври група, включваща учените Джефри Хинтън и Йошуа Бенгио, призова за забрана на разработването на свръхинтелигентен изкуствен интелект, докато обществото не го поиска и науката не проправи безопасен път напред.
XAI заяви, че „традиционните медии лъжат“ в нещо, което изглеждаше като автоматичен отговор, а Anthropic, OpenAI, Google DeepMind, Meta, Z.ai, DeepSeek и Alibaba Cloud не са отговорили веднага на искането за коментар относно проучването.


Грешни изчисления: Ще дойде ли краят на света по-рано от очакваното?
Полицията: Децата трябва да са видими и внимателни, слушалки и телефони нямат място на пътя
"Евронюз": С Радев може да има значителни промени във външната политика на България
Как една селска кметица се бори с измамите, свързани с еврото?
Автомонтьор посочва три причини за смяна на колата
Златото: Сами сте си виновни, ако игнорирате посланието
Венецуелският петрол се завръща в Карибите с подкрепата на САЩ
Великобритания отчита най-много съкращения на работни места от 2020 г. насам
Корабоплаването най-накрая се връща към нормалното
Roche вярва, че пазарът на хапчета против затлъстяване ще стане хетерогенен
Panda 4x4 се завръща на пазара
Porsche показа Macan в стил на моторница
Защо не трябва да използвате повторно гарнитурата на главата
Гражданска отговорност 2026: Новите правила, които всеки шофьор трябва да знае
Автомобилните трендове за 2026 - носталгия, екрани и опасна тенденция
7-годишно момиченце спаси баща си, който паднал по стълбите
11-годишен уби баща си, защото му взел Nintendo Switch-а
Венера влезе във Водолей, какво чака зодиите?
Купувачи търсят жилища край големите градове