Поглеждайки назад, Фицджералд посочва: „Това беше аномалия в траекторията на Силициевата долина“.
Оттогава например OpenAI си планира с поддоставчика в сферата на отбраната Anduril Industries и предлага своите продукти на американската армия. (Едва миналата година OpenAI забрани на всички да изпозлват нейните модели за „разработване на оръжия“). Anthropic, която се представя на първо място като лаборатория за изкуствен интелект, също си партнира с Palantir Technologies през ноември 2024 г., за да продаде своята услуга за изкуствен интелект Claude на подизпълнители в отбраната.
Самата Google прекара години в борба по създаване на подходящ надзор на работата си. През 2019 г. тя разпусна противоречивия борд по етика, след което година по-късно уволни двама от най-известните си директори по етика на AI. Компанията се е отклонила толкова далеч от първоначалните си цели, че вече не може да ги види. Същото се случва и с останалите в Силициевата долина, които не трябваше да бъдат оставени да се регулират сами.
И все пак, с малко късмет, обратният завой на Google ще окаже по-голям натиск върху правителствените лидери следващата седмица да създадат правно обвързващи разпоредби за разработване на AI за военни цели, преди надпреварата и политическият натиск да ги направят по-трудни за налагане.
Правилата могат да бъдат прости. Задължително трябва да има човек, който да наблюдава всички военни системи с изкуствен интелект. Да се забранят напълно автономните оръжия, които могат да избират цели, без те да са одобрени предварително от човек. Също така трябва да има начин такива AI системи да могат да бъдат одитирани.
Едно разумно предложение за политика в тази посока идва от Future of Life Institute – мозъчен тръст, някога финансиран от Илон Мъск, а в момента управляван от физика Макс Тегмарк от Масачузетския технологичен институт. Той призовава за многостепенна система, при която националните власти се отнасят към военните AI системи като към ядрени съоръжения, призовавайки за недвусмислени доказателства за тяхната безопасност.
Правителствата, които се събират в Париж, трябва да обмислят и създаването на международен орган, който да налага тези стандарти за безопасност, подобно на надзора на Международната агенция за атомна енергия върху ядрените технологии. Той трябва да може да налага санкции на компании (и държави), които нарушават тези стандарти.
Завоят в политиката на Google е предупреждение. Дори и най-силните корпоративни ценности могат да се сринат под натиска на свърхгорещ пазар и администрация, на която просто не казвате „не“. Ерата на саморегулирането от типа „не прави зло“ приключи, но все още има шанс да се въведат обвързащи правила, за да се предотвратят най-опасните рискове от ползването на AI. Автоматизираната война със сигурност е един от тях.