Ерата „не прави зло“ на Google вече е зад гърба ѝ. След като замени мотото „Не бъди зла“ през 2018 г. с по-мекото „Прави правилното нещо“, ръководството на компанията Alphabet сега отмени една от най-важните етични позиции на фирмата относно използването на нейния изкуствен интелект (AI) от военните, пише Парми Олсън за Bloomberg.
Тази седмица компанията изтри ангажимента си да не използва AI за оръжия или наблюдение – обещание, което беше в сила от 2018 г. Нейните принципи за „отговорен AI” вече не включват въпросното обещание, а лидерът на изкуствения интелект на компания Демис Хасабис написа в блога ѝ обяснение на промяната, обяснявайки я като неизбежен напредък, а не като някакъв вид компромис.
„AI става толкова широко разпространен, колкото мобилните телефони“, пише Хасабис. „Той еволюира бързо“.
И все пак идеята, че етичните принципи също трябва да се „развиват“ с пазара, е погрешна. Да, ние живеем във все по-сложен геополитически пейзаж, както го описва Хасабис, но изоставянето на етичен кодекс, що се касае до войната, може да доведе до последици, които излизат извън контрол.
Ако пренесете изкуствения интелект на бойното поле, можете да получите автоматизирани системи, които си отговарят една на друга със скоростта на машина, без време за дипломация. Войната може да стане по-смъртоносна, тъй като конфликтите могат да експалират, преди хората да имат време да се намесят. А идеята за „чиста“ автоматизирана битка може да тласне повече военни лидери към действие, въпреки че системите с изкуствен интелект допускат много грешки и биха могли да причинят смъртта на цивилни граждани.
Автоматизираното вземане на решения е истинският проблем тук. За разлика от предишната технология, която направи армията по-ефективна или мощна, системите с изкуствен интелект могат фундаментално да променят кой (или какво) взема решението да отнеме човешки живот.
Също така е тревожно, че от всички именно Хасабис подписва внимателно формулираната от Google обосновка на решението. Той "пееше съвсем различна песен" през 2018 г., когато компанията установи своите принципи за AI и се присъедини към над 2400 души в сферата, които поставиха имената си под обещание да не работят върху автономни оръжия.
По-малко от десетилетие по-късно това обещание не се брои особено. Уилям Фицджералд, бивш член на политическия екип на Google и съосновател на Worker Agency – компания за политики и комуникации, казва, че години наред Google е била под силен натиск да се заеме с военни договори.
Той припомня, че бившият заместник-министър на отбраната на САЩ Патрик Шанахан посети Сънивейл, Калифорния, централата на облачния бизнес на Google през 2017 г., докато служителите в отдела изграждаха инфраструктурата, необходима за работа по строго секретни военни проекти с Пентагона. Надеждата за договори беше голяма.
Фицджералд помогна да се спре това. Той съорганизира протести на компанията срещу Project Maven – сделка, която Google сключи с министерството на отбраната за развитието на AI за анализ на кадри от дронове. Тогава служителите на гиганта се страхуваха, че това може да доведе до автоматизирано прицелване. Около 4000 служители подписаха петиция, в която се казваше, че „Google не трябва да се занимава с война“, а около дузина напуснаха в знак на протест. В крайна сметка Google отстъпи и не поднови договора.