Човек би си помислил, че с развитието на изкуствения интелект (AI) правителствата ще станат по-заинтересовани да го направят по-безопасен. Изглежда обаче е точно обратното, пише Парми Олсън в коментар за Bloomberg.
Скоро след встъпването си в длъжност, администрацията на Доналд Тръмп отмени указ, който принуждаваше технологичните компании да тестват безопасността на своите AI модели, а също така обезсмисли регулаторния орган, който извършваше тези тестове. През септември 2024 г. щатът Калифорния прие законопроект, налагащ по-строг контрол върху сложните модели с изкуствен интелект, а глобалната среща на върха за безопасността на AI, започната от Обединеното кралство през 2023 г., се превърна в „Среща на върха за действия по отношение на изкуствения интелект“ по-рано тази година. Очевидно това е продиктувано от страх от изоставане в развитието на AI.
Всичко това не би било толкова тревожно, ако не беше фактът, че изкуственият интелект показва някои съмнителни неща – поведение, описано от изследователите като самосъхранително и подвеждащо. Точно когато властите губят интерес към безопасността на изкуствения интелект, той изглежда все по-труден за контролиране.
Йошуа Бенджио, професор по компютърни науки в Университета на Монреал, известен като един от тримата „кръстници на изкуствения интелект“ благодарение на работа си като пионер върху дълбокото обучение, се бори с тези опасения още от самата поява на ChatGPT. Сега той се фокусира върху смекчаването на рисковете, свързани с AI. „Беше много болезнено, защото през целия си живот мислех за изкуствения интелект като за нещо положително“, ми сподели той, пише още Парми Олсън.
ChatGPT беше важен момент, който показа, че машините са усвоили езика, казва Бенджио, но решението на Калифорния да блокира предложения законопроект за безопасност на изкуствения интелект, SB 1047, беше обезпокоителен сигнал за нарастващата апатия от страна на правителствата. А през последните шест месеца се натрупаха научни доказателства за самосъхранително поведение, измама, хакерство, подвеждане и лъжа от страна на AI, коментира Бенджио. „Това, което ме тревожи, е, че това поведение се засилва с възможностите за разсъждение на тези системи“.
Едно проучване от април 2024 г. от AI компанията Anthropic и Redwood Research – група, фокусирана върху рисковете от изкуствения интелект, установи, че по-големите AI модели, като Claude 3 Opus на Anthropic, се преструват, че следват правилата, определени от техните създатели, когато са били тествани за безопасност – феномен, който те наричат „фалшиво нагаждане“. Нагаждането се отнася до практиката моделите с изкуствен интелект да се нагаждат към човешките ценности.
Проучване от март 2025 г. на OpenAI установи, че най-модерните модели на компанията понякога крият истинските си намерения, за да получат по-добри отзиви, дори и когато са следени отблизо.
Изследователите днес могат да използват инструменти, за да разгледат „веригата от мисли“ или вътрешните стъпки на модела, за да разкрият какви са неговите планове, но някои модели са намерили начини да скрият това. Това означава, че често срещаният метод за следене на вътрешните процеси на AI вече не е надежден. „Трябва да се намерят други начини за проследяване на действителните им намерения“, коментира Бенджио.
(Продължава на следващата страница)


Правителство, синдикати и работодатели постигнаха съгласие по новия Бюджет 2026
Какво ще бъде времето в събота?
Полицията във Варна излезе с мерки за спокойни студентски празници
"Спартак" пусна билетите за мача с "Левски"
Трима се озоваха в арестите във Варна и региона заради наркотици
Търговските вериги инвестират в устойчивост и адаптация към еврото
Airbus обещават да се справят с проблемите
Airbus намалиха целите си за доставка до края на 2025г
Патерсън: Рискът от заразяване при биткойн не е изчезнал
Над 500% поскъпване за ден: Китай извади нов конкурент на Nvidia
Политик предложи премахване на червения светофар и знаците на пътя
Малка кола на старо с автоматик – ето 4 сигурни предложения
Lexus LFA се завърна като... електромобил
Нова технология на Mercedes прави задните спирачки безсмислени
REST - една малко известна екстра в стари Audi-та и VW-та
Надеждност на пътя – как да изберете правилните носачи за своя автомобил
Бурята „Байрън“ парализира Гърция с наводнения и затваряне на училища ВИДЕО
Леденият парк на София тази зима ще бъде с още по-голяма площ
Борисов вече и в TikTok, надява се Бюджет 2026 да се внесе скоро ВИДЕО
Разбраха се: Тристранката постигна съгласие по Бюджет 2026
преди 6 месеца В един момент, когато има достатъчно роботи може и да приключи с човешката популация. Но може животните да останат. За насекомите съм убеден, че ще оцелеят. отговор Сигнализирай за неуместен коментар
преди 6 месеца значи става за журналист, намерихме му едно приложение :) отговор Сигнализирай за неуместен коментар