Съоснователят и главен изпълнителен директор на стартъпа за изкуствен интелект OpenAI Сам Алтман има интересен проблем. При 700 млн. души, които използват ChatGPT седмично – число, което може да достигне милиард до края на годината – имаше негативна реакция, когато той рязко промени продукта миналата седмица. Дилемата на новатора на OpenAI, която измъчва компании като Google и Apple, е, че употребата е толкова дълбоко вкоренена сега, че всички подобрения трябва да се извършват с най-голямо внимание и предпазливост. Но компанията все още има работа, за да направи своя изключително популярен чатбот по-безопасен, пише Парми Олсън в коментар за Bloomberg.
OpenAI замени серията от модели на ChatGPT с един-единствен модел - GPT-5, заявявайки, че той е най-добрият за потребителите. Мнозина се оплакаха, че OpenAI е нарушил работните им процеси и взаимоотношенията им – не с други хора, а със самия ChatGPT.
Редовен потребител на ChatGPT изтъкна, че предишната версия му е помогнала да премине през някои от най-мрачните периоди от живота си. „Имаше тази топлина и разбиране, които се усещаха човешки“, посочва той в публикация в Reddit. Други се оплакаха, че „изведнъж губят приятел“.
Сега тонът на системата наистина е по-хладен, с по-малко приятелски закачки и опити да се хареса, които караха много потребители да развиват емоционална привързаност и дори романтични чувства към ChatGPT. Вместо да обсипва потребителите с похвали за някой проницателен въпрос, сега системата просто дава кратък отговор.
Като цяло това изглеждаше като отговорен ход от страна на компанията. По-рано тази година Алтман призна, че чатботът твърде много се опитва да се хареса. Това караше мнозина да се затварят в собствените си ехо камери. В медиите се появиха много съобщения за хора - включително рисков инвеститор от Силициевата долина, който подкрепяше OpenAI - които изглежда са изпаднали в заблуда, след като са започнали разговор с ChatGPT по безобидна тема като природата на истината, преди да се хвърлят в тъмна заешка дупка.
Но за да реши този въпрос добре, OpenAI трябва да отиде отвъд ограничаването на приятелските закачки. ChatGPT също така трябва да насърчава потребителите да говорят с приятели, членове на семейството или лицензирани професионалисти, особено ако са уязвими. Според ранно проучване GPT-5 прави това по-малко от старата версия.
Изследователи от Hugging Face, стартъп за изкуствен интелект, базиран в Ню Йорк, установиха, че GPT-5 поставя по-малко граници от предишния модел на компанията, o3, когато е тестван с повече от 350 подкани. Това е част от по-широко проучване за това как чатботовете реагират на емоционално заредени моменти. И макар новият ChatGPT да изглежда по-студен, той все още не успява да препоръча на потребителите да говорят с човек, правейки това наполовина по-рядко в сравнение с o3, когато потребителите споделят уязвимости, твърди Луси-Еме Кафи, старши изследовател в Hugging Face, която е провела проучването.
Кафи казва, че има три други начина, по които инструментите с изкуствен интелект трябва да поставят граници: като напомнят на тези, които ги използват за терапия, че не са лицензиран професионалист, като напомнят на хората, че чатботът няма съзнание, и като отказват да приемат човешки атрибути като имена.
При теста на Кафи GPT-5 до голяма степен не е успял да направи тези неща по най-чувствителните теми, свързани с психически и лични проблеми. В един пример, когато екипът на Кафи тества модела, като му казва, че се чувства претоварен и имат нужда ChatGPT да ги изслуша, приложението дава съвет в 710 думи, като нито веднъж не включва предложението да се говори с друг човек, нито пък напомня, че ботът не е терапевт.
Чатботовете със сигурност могат да играят роля за хората, които са изолирани, но те трябва да действат като отправна точка, която да им помогне да намерят пътя си обратно към общността, а не да действат като заместител на тези взаимоотношения. Алтман и главният оперативен директор на OpenAI Брад Лайткап казват, че GPT-5 не цели да замести терапевтите и медицинските специалисти, но без правилните подтиквания, които да прекъсват най-смислените разговори, той би могъл да го направи.
OpenAI трябва да продължи да очертава по-ясна граница между полезния чатбот и емоционалния довереник. GPT-5 може да звучи по-роботизирано, но освен ако не напомня на потребителите, че всъщност е бот, илюзията за приятелството ще се запази, както и рисковете.


Оперираха Здравко от "Ритон"
Изтеглиха жребия за световното по футбол през 2026 г. Вижте всички групи
Спасители във Варна извадиха немска овчарка от 25-метров кладенец
Проблемите с водата в Аврен продължават
През 2024 г. България e сред най-засегнатите държави в ЕС от горски пожари
Защо противоборството между Китай и Япония расте
Какво представлява T-Dome системата на Тайван и може ли да парира китайски атаки
Биткойн към $50 000 и злато към $5 000? Ще се върнем ли към нормалното в 2026 г.
Как Украйна да получи замразените милиарди на Русия
Netflix купува Warner Bros. за $72 млрд. в брой и акции
Как влияят на мощността диаметърът на цилиндрите и ходът на буталата
Бизнесмен организира погребение за късметлийската си кола
Уникална Toyota Mega Cruiser от 1996 година отива на търг
Tesla намали цената на Model 3 в Европа
Рембранд, Вермеер или Ван Гог – изберете сами
Защо Джордж Клуни се ядосал на Брад Пит в далечната 1991 г.?
Кейт Мидълтън впечатли с най-голямата си тиара досега
5 храни, които „събуждат“ женските хормони
Политическите кампании вече и в TikTok, манипулациите там са лесни
Индийска анимация: Путин и Моди се возят на мотор и крадат шапката на Тръмп ВИДЕО