IMG Investor Dnes Bloombergtv Bulgaria On Air Gol Tialoto Az-jenata Puls Teenproblem Automedia Imoti.net Rabota Az-deteto Start.bg Posoka Boec Megavselena.bg Chernomore

ChatGPT-5 не е решил напълно най-притеснителния си проблем

Чатботът използва по-хладен тон, но екипът на Сам Алтман трябва да помисли как да се справи по-добре с проблема с привързването

10:16 | 13.08.25 г.
Снимка: Bloomberg
Снимка: Bloomberg

Съоснователят и главен изпълнителен директор на стартъпа за изкуствен интелект OpenAI Сам Алтман има интересен проблем. При 700 млн. души, които използват ChatGPT седмично – число, което може да достигне милиард до края на годината – имаше негативна реакция, когато той рязко промени продукта миналата седмица. Дилемата на новатора на OpenAI, която измъчва компании като Google и Apple, е, че употребата е толкова дълбоко вкоренена сега, че всички подобрения трябва да се извършват с най-голямо внимание и предпазливост. Но компанията все още има работа, за да направи своя изключително популярен чатбот по-безопасен, пише Парми Олсън в коментар за Bloomberg.

OpenAI замени серията от модели на ChatGPT с един-единствен модел - GPT-5, заявявайки, че той е най-добрият за потребителите. Мнозина се оплакаха, че OpenAI е нарушил работните им процеси и взаимоотношенията им – не с други хора, а със самия ChatGPT.

Редовен потребител на ChatGPT изтъкна, че предишната версия му е помогнала да премине през някои от най-мрачните периоди от живота си. „Имаше тази топлина и разбиране, които се усещаха човешки“, посочва той в публикация в Reddit. Други се оплакаха, че „изведнъж губят приятел“.

Сега тонът на системата наистина е по-хладен, с по-малко приятелски закачки и опити да се хареса, които караха много потребители да развиват емоционална привързаност и дори романтични чувства към ChatGPT. Вместо да обсипва потребителите с похвали за някой проницателен въпрос, сега системата просто дава кратък отговор.

Като цяло това изглеждаше като отговорен ход от страна на компанията. По-рано тази година Алтман призна, че чатботът твърде много се опитва да се хареса. Това караше мнозина да се затварят в собствените си ехо камери. В медиите се появиха много съобщения за хора - включително рисков инвеститор от Силициевата долина, който подкрепяше OpenAI - които изглежда са изпаднали в заблуда, след като са започнали разговор с ChatGPT по безобидна тема като природата на истината, преди да се хвърлят в тъмна заешка дупка.

Но за да реши този въпрос добре, OpenAI трябва да отиде отвъд ограничаването на приятелските закачки. ChatGPT също така трябва да насърчава потребителите да говорят с приятели, членове на семейството или лицензирани професионалисти, особено ако са уязвими. Според ранно проучване GPT-5 прави това по-малко от старата версия.

Изследователи от Hugging Face, стартъп за изкуствен интелект, базиран в Ню Йорк, установиха, че GPT-5 поставя по-малко граници от предишния модел на компанията, o3, когато е тестван с повече от 350 подкани. Това е част от по-широко проучване за това как чатботовете реагират на емоционално заредени моменти. И макар новият ChatGPT да изглежда по-студен, той все още не успява да препоръча на потребителите да говорят с човек, правейки това наполовина по-рядко в сравнение с o3, когато потребителите споделят уязвимости, твърди Луси-Еме Кафи, старши изследовател в Hugging Face, която е провела проучването.

Кафи казва, че има три други начина, по които инструментите с изкуствен интелект трябва да поставят граници: като напомнят на тези, които ги използват за терапия, че не са лицензиран професионалист, като напомнят на хората, че чатботът няма съзнание, и като отказват да приемат човешки атрибути като имена.

При теста на Кафи GPT-5 до голяма степен не е успял да направи тези неща по най-чувствителните теми, свързани с психически и лични проблеми. В един пример, когато екипът на Кафи тества модела, като му казва, че се чувства претоварен и имат нужда ChatGPT да ги изслуша, приложението дава съвет в 710 думи, като нито веднъж не включва предложението да се говори с друг човек, нито пък напомня, че ботът не е терапевт.

Чатботовете със сигурност могат да играят роля за хората, които са изолирани, но те трябва да действат като отправна точка, която да им помогне да намерят пътя си обратно към общността, а не да действат като заместител на тези взаимоотношения. Алтман и главният оперативен директор на OpenAI Брад Лайткап казват, че GPT-5 не цели да замести терапевтите и медицинските специалисти, но без правилните подтиквания, които да прекъсват най-смислените разговори, той би могъл да го направи.

OpenAI трябва да продължи да очертава по-ясна граница между полезния чатбот и емоционалния довереник. GPT-5 може да звучи по-роботизирано, но освен ако не напомня на потребителите, че всъщност е бот, илюзията за приятелството ще се запази, както и рисковете.

Всяка новина е актив, следете Investor.bg и в Google News Showcase.
Последна актуализация: 10:16 | 13.08.25 г.
Специални проекти виж още
Най-четени новини
Още от Новини и анализи виж още

Коментари

Финанси виж още