IMG Investor Dnes Bloombergtv Bulgaria On Air Gol Tialoto Az-jenata Puls Teenproblem Automedia Imoti.net Rabota Az-deteto Start.bg Posoka Boec Megavselena.bg Chernomore

OpenAI премина червената линия, която Anthropic отказа да пресече

OpenAI приема Пентагона на доверие по отношение на интерпретацията му за това кое е законно и етично - Anthropic не го прави. Поне засега

15:34 | 06.03.26 г. 4
Сам Алтман. Снимка: Bloomberg
Сам Алтман. Снимка: Bloomberg

След като обяви внезапна и изненадваща сделка с Пентагона, съоснователят на OpenAI Сам Алтман побърза да покаже през миналия уикенд, че е спечелил значителни отстъпки от военните лидери, пише редакторът на Bloomberg Дейв Лий.

Това обаче не е вярно. Независимо дали от наивност, или от безразличие, Алтман бързо прескочи етичните и практични червени линии, които конкурентът на компанията му Anthropic не беше готов да пресече.

Ясната разлика между двете компании се свежда до следното: OpenAI приема Пентагона на доверие по отношение на интерпретацията му за това кое е законно и етично, когато става въпрос за масовото наблюдение на американците. Anthropic не го прави. 

По отношение на използването на AI за автономно отнемане на човешки животи OpenAI заяви, че е удовлетворена, че като не внедрява технологията си в „крайности“ – например в дронове – нейният изкуствен интелект няма да бъде отговорен за директни решения на живот и смърт. Anthropic не е съгласна с това заключение.

Тук не става въпрос за т.нар. “woke” идеология на Силициевата долина, както се предполага. Според източник, запознат с преговорите между производителя на модела Claude AI и Пентагона, ръководството на Anthropic ясно е заявило, че компанията е отворена, дори може да се каже, че е нетърпелива, да разработи AI, който да може да управлява автономни оръжия за война. Червената линия, според този източник, е, че според вътрешните тестове на компанията моделите ѝ все още не са готови за тази задача. Anthropic смята, че съхраняването на изкуствения интелект в облака не променя този извод, тъй като решението за убиване все още може да бъде взето далеч от физическото бойно поле.

По отношение на наблюдението компанията се е почувствала притисната от последните изисквания на Пентагона да може да използва изкуствения ѝ интелект за анализ на масиви от данни, събрани за американци (както първо съобщи The Atlantic).

Конкурентните позиции на двата стартъпа сега носят на OpenAI държавен договор за най-малко 200 млн. долара. Anthropic, от друга страна, е изправена пред наказание, което заплашва цялата ѝ дейност, ако заплахите на властите се сбъднат с пълна сила. „Никой подизпълнител, доставчик или партньор, който работи с американската армия, не може да извършва търговска дейност с Anthropic“, написа министърът на отбраната Пийт Хегсет в съобщението си, че ще обяви компанията за „риск за веригата на доставки“ – определение, което никога досега не е било прилагано за американска компания. Anthropic заяви, че ще оспори това в съда.

Съперничеството между OpenAI и Anthropic е това, което ще определи този зараждащ се (предполагаемо) етап на AI бума. Anthropic е основана от Дарио и Даниела Амодей, които са брат и сестра, и петима други бивши служители на OpenAI, които напуснаха компанията на Алтман по етични съображения. В много отношения Anthropic беше за OpenAI това, което е Lyft за Uber – компания с по-благоприятна репутация, но в крайна сметка правеща почти същото.

Напоследък обаче разделителната линия започна да се затвърждава. Anthropic се изказа в подкрепа на правото на щатите да приемат свои собствени закони за изкуствения интелект в условията на пълна липса на лидерство в Конгреса. OpenAI не направи същото. Двете компании имаха сблъск по повод въвеждането на реклами в отговорите на чатботовете, като Алтман се обиди, че е бил осмиван в рекламите на Anthropic по време на Супербоул. На срещата на върха за изкуствения интелект в Индия миналия месец Алтман и Дарио Амодей, който е главен изпълнителен директор на Anthropic, стояха неудобно един до друг, отказвайки да се присъединят към веригата от ръце, организирана от министър-председателя на страната Нарендра Моди.

Събитията от последните няколко дни означават, че границата между OpenAI и Anthropic сега свети в яркочервено. След като Anthropic се оказа обект на атаките на Пентагона – един служител обвини Амодей, че има „божествен комплекс“ – изглеждаше сякаш компанията е намерила съюзник в лицето на Алтман, който миналата седмица заяви, че споделя червените линии на Anthropic. По-късно се разбра, че в същото време стартъпът му е водил спешни преговори, за да заеме мястото на Anthropic. „Основната причина за бързането беше опитът да се успокоят нещата в момент, в който изглеждаше, че ситуацията може да стане изключително напрегната“, написа Алтман в X.

Той добави: „Уверен съм в способността на нашия екип да изгради безопасна система с всичките си инструменти – включително предвид политически и правни въпроси, но и много технически слоеве.“

Anthropic вече има такава и няма да е лесно да я отдели от класифицираните системи на разузнавателната общност — ако се стигне дотам. Казаха ми, пише авторът, че все още не е издадена официална правна заповед за прекъсване на отношенията и Anthropic все още се надява на решение. Към момента моделите Claude на Anthropic, съгласно условията на съществуващия договор, все още са достъпни за повече от 100 хил. потребители в строго секретни правителствени мрежи, които ги използват, казва запознат с договора източник. Подчертавайки какво е заложено на карта, Wall Street Journal съобщи през уикенда, че Claude е бил използван, за да помогне на САЩ в атаката срещу Иран.

Замяната му с технологията на OpenAI не би била просто преминаване от един модел към друг, както много от нас правят, когато решават дали да използват ChatGPT, Claude или Gemini. Най-важното е, че ще бъде изключително сложно да се прехвърлят модели, проектирани да работят на един вид архитектура, като например център за данни, използващ графични процесори на Nvidia, към такива, които работят на персонализирани AI чипове на Amazon.com.

Договорът на Anthropic с Пентагона е първият по рода си в рамките на класифицираните мрежи и това не е случайно. За целите на Пентагона технологията на Anthropic се смята за най-добрата. В момент, когато САЩ се притесняват, че Китай разработва авангарден изкуствен интелект за военни цели, изглежда контрапродуктивно Пентагонът доброволно да изгони най-добрата американска технология от собствения си арсенал. Би било направо безразсъдно да се попречи и на американските компании да я използват.

Затова и не беше никак изненадващо, когато вчера (5 март) стана известно, че Anthropic е подновила преговорите с Пентагона относно начина, по който моделите ѝ с изкуствен интелект се използват от американската армия. Ако двете страни постигнат ново споразумение, това ще позволи на военните да възобновят използването на AI на Anthropic, като същевременно се намали рискът Пентагонът официално да включи компанията в черния списък.

Всяка новина е актив, следете Investor.bg и в Google News Showcase.
Последна актуализация: 15:36 | 06.03.26 г.
Специални проекти виж още
Най-четени новини
Още от Новини и анализи виж още

Коментари

4
rate up comment 6 rate down comment 5
Aлexaндpo
преди 1 месец
Кухххото, кво да го обиждаш повече остави го да си вярва, това му е хоби.
отговор Сигнализирай за неуместен коментар
3
rate up comment 3 rate down comment 8
khao
преди 1 месец
фейка, кво да го обиждаш повече... :)
отговор Сигнализирай за неуместен коментар
2
rate up comment 12 rate down comment 4
Aлexaндpo
преди 1 месец
Той не е минал на другия бряг, той си стои тук и се прави на велик, червените линии са само декор за неговото представление и няма да го спрат, защото той решава кое е преминаване и кое е театър. Очаквайте морал и етика от обратняците, да, разбира се, те са новите морални стожери, готови да поучават между две лъжи и да раздават съвети от удобната си позиция на лицемерие. Той ще вдига пръст и ще поучава, докато всъщност е най-големият псевдо светец в стаята. Хахахаха
отговор Сигнализирай за неуместен коментар
1
rate up comment 9 rate down comment 10
khao
преди 1 месец
тоя е минал на другия бряг, та една червена линия ли няма да мине! НЕ чакайте морал или етика от обратняци....
отговор Сигнализирай за неуместен коментар
Финанси виж още