IMG Investor Dnes Bloombergtv Bulgaria On Air Gol Tialoto Az-jenata Puls Teenproblem Automedia Imoti.net Rabota Az-deteto Start.bg Posoka Boec Megavselena.bg Chernomore

Преговорите на Anthropic с Пентагона буксуват заради AI наблюдение и оръжия

Anthropic иска да въведе предпазни мерки, за да попречи на използването на Claude за масово наблюдение на американците или за разработване на оръжия

08:57 | 17.02.26 г.
Автор - снимка
Редактор
Снимка: Bloomberg
Снимка: Bloomberg

Преговорите на Anthropic за удължаване на договор с Пентагона са блокирани поради допълнителните защитни мерки, които компанията за изкуствен интелект иска да въведе за инструмента си Claude, съобщава Bloomberg, позовавайки се на запознат източник.

Anthropic иска да въведе предпазни мерки, за да попречи на използването на Claude за масово наблюдение на американците или за разработване на оръжия, които могат да бъдат ползвани без участието на човек, твърди източникът, пожелал да остане анонимен, тъй като преговорите са конфиденциални. Пентагонът иска да може да използва Claude, стига внедряването му да не нарушава закона. Axios съобщи по-рано за несъгласието.

Използването на изкуствен интелект за разработване на оръжия и събиране на лични данни представляват нарастващ риск за мощните модели. Anthropic, която се позиционира като по-отговорна AI компания, стремяща се да избегне катастрофални щети от технологията, създаде Claude Gov специално за апарата на националната сигурност на САЩ и има за цел да обслужва правителствени клиенти в рамките на собствените си етични граници.

Claude Gov има подобрени възможности за обработка и интерпретиране на класифицирани материали и разузнавателна информация, както и за разбиране на данни за киберсигурност.

„Anthropic се ангажира да използва авангарден изкуствен интелект в подкрепа на националната сигурност на САЩ“, заяви говорител, добавяйки, че компанията води „продуктивни разговори в дух на добра воля“ с Министерството на отбраната „за това как да продължи тази работа и да разреши тези сложни въпроси“.

„Отношенията на Министерството на отбраната с Anthropic се преразглеждат“, каза в изявление по електронната поща говорителят на Пентагона Шон Парнел. „Нашата държава изисква от партньорите да са готови да помогнат на нашите войници да спечелят всяка битка. В крайна сметка става въпрос за войските ни и безопасността на американския народ“, допълни още.

Много представители на Министерството на отбраната смятат Anthropic за риск за веригата на доставки и институцията може да изисква от доставчиците да удостоверят, че не използват моделите на компанията, посочва високопоставен представител на Министерството на отбраната.

Спорът между Anthropic и Пентагона относно границите на използването на AI може да бъде от полза за други компании.

Според представителя производителите на други модели, включително ChatGPT на OpenAI, Google Gemini на Alphabet и Grok на xAI, работят с Пентагона, за да се уверят, че платформите им могат да се използват законно.

Anthropic спечели двугодишен договор с Пентагона миналата година, който включваше прототип на моделите Claude Gov и Claude for Enterprise. Преговорите с Anthropic може да дадат тон на разговорите с OpenAI, Google и xAI, които все още не се използват за класифицирана работа, заяви Axios, цитирайки неидентифицирани източници, запознати с дискусиите.

Представител на OpenAI е отказал да коментира и се е позовал на публикация в блог, в която се описва персонализираният инструмент GenAI.mil на компанията за Пентагона и други демократични страни. Представители на Google и на Х не са предоставили коментар.

Всяка новина е актив, следете Investor.bg и в Google News Showcase.
Последна актуализация: 08:57 | 17.02.26 г.
Специални проекти виж още
Най-четени новини
Още от Новини и анализи виж още

Коментари

Финанси виж още