Поглеждайки назад, Фицджералд посочва: „Това беше аномалия в траекторията на Силициевата долина“.
Оттогава например OpenAI си планира с поддоставчика в сферата на отбраната Anduril Industries и предлага своите продукти на американската армия. (Едва миналата година OpenAI забрани на всички да изпозлват нейните модели за „разработване на оръжия“). Anthropic, която се представя на първо място като лаборатория за изкуствен интелект, също си партнира с Palantir Technologies през ноември 2024 г., за да продаде своята услуга за изкуствен интелект Claude на подизпълнители в отбраната.
Самата Google прекара години в борба по създаване на подходящ надзор на работата си. През 2019 г. тя разпусна противоречивия борд по етика, след което година по-късно уволни двама от най-известните си директори по етика на AI. Компанията се е отклонила толкова далеч от първоначалните си цели, че вече не може да ги види. Същото се случва и с останалите в Силициевата долина, които не трябваше да бъдат оставени да се регулират сами.
И все пак, с малко късмет, обратният завой на Google ще окаже по-голям натиск върху правителствените лидери следващата седмица да създадат правно обвързващи разпоредби за разработване на AI за военни цели, преди надпреварата и политическият натиск да ги направят по-трудни за налагане.
Правилата могат да бъдат прости. Задължително трябва да има човек, който да наблюдава всички военни системи с изкуствен интелект. Да се забранят напълно автономните оръжия, които могат да избират цели, без те да са одобрени предварително от човек. Също така трябва да има начин такива AI системи да могат да бъдат одитирани.
Едно разумно предложение за политика в тази посока идва от Future of Life Institute – мозъчен тръст, някога финансиран от Илон Мъск, а в момента управляван от физика Макс Тегмарк от Масачузетския технологичен институт. Той призовава за многостепенна система, при която националните власти се отнасят към военните AI системи като към ядрени съоръжения, призовавайки за недвусмислени доказателства за тяхната безопасност.
Правителствата, които се събират в Париж, трябва да обмислят и създаването на международен орган, който да налага тези стандарти за безопасност, подобно на надзора на Международната агенция за атомна енергия върху ядрените технологии. Той трябва да може да налага санкции на компании (и държави), които нарушават тези стандарти.
Завоят в политиката на Google е предупреждение. Дори и най-силните корпоративни ценности могат да се сринат под натиска на свърхгорещ пазар и администрация, на която просто не казвате „не“. Ерата на саморегулирането от типа „не прави зло“ приключи, но все още има шанс да се въведат обвързащи правила, за да се предотвратят най-опасните рискове от ползването на AI. Автоматизираната война със сигурност е един от тях.


Черно море с благородна кауза за мача с Арда
Затварят основни улици заради мача Спартак - Левски днес във Варна
Хороскоп за 8 декември 2025
Скъпотия! Храните у нас продължават да поскъпват стремглаво преди еврото
7 декември е обявен за Международен ден на гражданската авиация
В Испания и Италия банките са двигател на дълго чакан възход на акциите
Може да видим връщане под 4000 долара за тройунция при златото
С новия дълг не се увеличава производителността, а пада върху младите
България с рекорден ръст на онлайн продажбите за Черния петък в Европа
Кой ще замести Хасет в Белия дом, ако стане шеф на Фед
Kia показа дизайна на бъдещето си
Toyota се завръща във Ф1
BMW превъртя играта: Тествахме новото iX3
Най-бързата кола на XX век беше продадена за над 25 милиона долара
Какви са основните проблеми на 1.2 TSI на Volkswagen
Гръцкият имотен пазар губи инерция: чуждите инвестиции рязко спадат
Облачно, но без валежи в планините: подходящи условия за зимен туризъм
Александър Джартов: Бедствено положение е обявено за Ардино
Китайски изтребители насочиха радар за управление на огъня към японски самолети
Как "човекът на Тръмп" в НАСА ще изправари Китай в космоса?