fallback

Изкуственият интелект за военни цели може да помогне както на добрите, така и на лошите

Ракетите с прецизно насочване могат да се използват за намаляване на цивилните жертви или точно за обратното

21:57 | 22.02.23 г. 8
Автор - снимка
Създател

Сложете изкуствения интелект в едно изречение с войната и умът ще извика рояци дронове-убийци, бръмчащи над бойните полета, които повалят вражеските войници като в някой футуристичен филм на ужасите. Но реалността на войната в Украйна подчерта как системите с машинно самообучение вече трансформират воденето на битката по далеч по-малко ярки, но много важни начини, улеснявайки обработката на данни и други „бек офис“ функции, и накланяйки военното предимство към Киев, пише за Financial Times Джон Торнхил, основател на Sifted, спонсорирана от FT медия, отразяваща европейските стартъпи.

Украинците показаха как една умна и смела армия, въоръжена с интелигентен софтуер, може да се бие успешно с много по-голям враг, който е прекалено зависим от хардуера. Но новите технологии обаче повдигат и нови въпроси за това доколко критичните способности в областта на националната сигурност трябва да бъдат възлагани на частни компании, които до голяма степен не носят отговорност за използването на технологията.

В Украйна американски компании като Microsoft, Starlink и Palantir бяха ключови за украинските военни усилия. Microsoft предостави повече от 100 милиона долара технологична помощ на Киев за укрепване на дигиталната инфраструктура на страната и за защита на данните в облака. Starlink, сателитната интернет компания, управлявана от SpaceX на Илон Мъск, осигури безопасни комуникации за фронтовите сили на Украйна. А компанията за данни Palantir помогна за оптимизирането на цифровата „верига за удари“ на Украйна, като предостави приложима разузнавателна информация, извлечена от сателитни изображения, сензори на бойното поле и други отворени източници.

Алекс Карп, главен изпълнителен директор на Palantir, е ясен относно уроците, които трябва да бъдат научени. Ако влезете в битка, използвайки технология от старата школа, ще бъдете в „огромно неизгодно положение“ срещу противник, който използва цифрово насочване и изкуствен интелект (AI), ми каза той на конференцията REAIM в Хага наскоро. „Страната, която спечели AI битките на бъдещето, ще определя международния ред.“

Присъстващите на отговорната конференция за AI, организирана от холандското и южнокорейското правителства, като цяло приветстваха ролята, която технологията играе в подпомагането на Украйна да се защити срещу бруталната инвазия на Русия. Те също така виждат AI като критичен мултипликатор на силата за поддържане отбраната на демократичните общества срещу други автократични съперници, като Китай например. Но по-широкото безпокойство от масовото възприемане на смъртоносни AI системи беше осезаемо. Имаше усещане, че воденето на война бързо навлиза в радикално нова територия и нямаме пътна карта към бъдещето.

Един от усложняващите фактори е безпрецедентната роля, която играят компаниите от частния сектор. Карп от Palantir твърди, че неговата компания напълно приема, че избраните политици и офицерите винаги трябва да контролират използването на технологията. Но той признава, че това не е универсален възглед в Силициевата долина. Този момент беше подчертан от решението на Мъск да намали достъпа на Украйна до мрежата на Starlink поради страх от ескалация на конфликта, предизвиквайки ожесточен спор с Киев. „Мъск вече има своя собствена отбранителна политика“, каза един участник в конференцията.

Един от по-широките принципи относно AI, който е лесен за формулиране и почти невъзможен за прилагане, е, че хората винаги трябва да контролират машините. Никога не трябва да се позволява на алгоритмите сами да вземат решения за живот и смърт. Но не е ясно как хората винаги остават „в схемата“, когато AI системите се използват широко със светкавична скорост по време на война. Въпреки това правителствата трябва да настояват за приети норми, които да рамкират използването на военен AI, дори ако не успяват да постигнат съгласие за обвързващи международни договори.

Както Агнес Каламард, генералният секретар на Amnesty International, твърди, способността на AI системите да помагат на офицерите да вземат по-надеждни и точни решения не прави непременно решенията им правилни. Например, ракетите с прецизно насочване могат да се използват за намаляване на цивилните жертви или точно за обратното: да се насочват към болници или медицински персонал, както направиха руснаците в Сирия и Украйна. „Надеждността не означава спазване на международното право. Прецизността не означава съответствие с него“, каза тя на конференцията. "Войните са мръсни".

Смъртоносните автономни оръжейни системи могат да дадат власт както на добрите, които посещават отговорни AI конференции, така и на лошите. Демокрациите с морални претенции могат да страдат от това, което Стюърт Расъл, професор по компютърни науки в Калифорнийския университет в Бъркли, нарича „заблуда на единственото приложение“. Както при опитите за ограничаване използването на биологични, химически и ядрени оръжия, правителствата трябва да заключат, че е в техен колективен личен интерес да ограничат ужасните неща, които могат да причинят на другите, така че тези ужасни неща да не бъдат причинени и на самите тях.

Всяка новина е актив, следете Investor.bg и в Google News Showcase. Последна актуализация: 21:28 | 22.02.23 г.
fallback
Още от Софтуер виж още