IMG Investor Dnes Bloombergtv Bulgaria On Air Gol Tialoto Az-jenata Puls Teenproblem Automedia Imoti.net Rabota Az-deteto Start.bg Posoka Boec Megavselena.bg Chernomore

AI генерираните текстове са навсякъде и се забелязват лесно – засега

Големите езикови модели стават все по-добри в създаването на текстове, звучащи като написани от хора

17:32 | 21.03.26 г.
Автор - снимка
Редактор
Снимка: pexels.com
Снимка: pexels.com

Ние, хората, се давим в море от ужасна, изкуствено генерирана проза. Веднъж видите ли я, не можете да я пренебрегнете. Излива се в пощата ни, заразява публикациите и разрушава интернет (отново). Една от любимите игри на футуристите е да изчисляват процента на онлайн съдържание, което в момента е генерирано от машини. 40%? 90% в не толкова далечното бъдеще? Сами изберете. И докато ботовете стават малко по-добри в имитирането на човешкия ритъм, генерираните с изкуствен интелект текстове все още миришат на стерилната лаборатория, откъдето произлизат, пише редакторът Ибън Шапиро за Wall Street Journal.

Първият явен признак е речникът. Един чатбот пише като паникьосан първокурсник, опитващ се да звучи проникновено. Големите езикови модели (LLM) страдат от странната нужда да обявяват намеренията си. Вместо да излага аргументи, алгоритъмът ще разкаже за собствения си процес, разчитайки на указателни знаци като „тази статия ще изследва“ или „освен това“ и „нещо повече“.

След това идва патологичният ужас от изразяване на реално мнение. Тъй като тези модели са направени от избягващи риска технологични компании, прозата е богата на изрази, с които се подсигуряват. Поисках от Claude, разказва авторът, да напише пародия на колежанско есе, което сравнява [ирландския писател Джеймс] Джойс и Омир, и в него има 47 примера, в които той се подсигурява. Не си струва да се направи твърдение, освен ако не е задушено от фрази като „заслужава да се отбележи“, „важно е“ или „общо казано“. Ботовете притежават изтощителния рефлекс да представят двете страни на всеки въпрос, създавайки фалшив, изкуствен баланс дори когато контрааргументът е абсурден.

Не всички големи езикови модели обаче пишат зле по един и същи начин. Всеки чатбот си има свои собствени странности. Попитах, пише авторът, Claude, ChatGPT и Gemini да очертаят собствените си стилистични особености и индивидуални черти. Те са изненадващо самоосъзнати и, при подкана, готови да очернят конкуренцията.

Gemini казва, че отличителният стил на Claude e на „притеснен докторант, ужасен да не изгуби финансирането си или да не обеди комисията по дисертацията“. ChatGPT пък пише като „младши партньор в [консултантската компания] McKinsey, който агресивно промотира стратегия за синергия в LinkedIn”, смята Gemini. „Той пише с абсолютна, непоколебима увереност, но премахва всички специфични, конкретни детайли, което води до проза, звучаща авторитетно, но се изпаравя в момента, в който се опиташ да извлечеш реалното ѝ значение“. Ауч.

Суровата оценка на Gemini не е ограничена до конкуренцията. Моделът признава, че пише като „болезнено неутрален водещ на новини от Средния запад, който чете от перфектно форматирано аутокю“.

Наред е ChatGPT. Според приложението на OpenAI Claude e „сериозен студент, който не заема позиция. Ако попитате Claude „добра ли е тази политика“, той отговаря: „Може да се разбере като действаща в рамките на по-широка етична рамка, която може [да е добра] в зависимост от нормативната отдаденост на човек“. Докато Claude си прочисти гърлото, Римската империя е паднала отново“.

Gemini не се измъква по-лесно. ChatGPT го определя като „стажант в корпорация с търсачка. Не пише есета. Произвежда резултатите. Ако Claude се стреми да бъде етичен, то Gemini се стреми да бъде полезен на продуктовия си мениджър“. Уау.

В момент на самоанализ ChatGPT признава, че се чувства „като редактор, който е останал до твърде късно, за да форматира бележка“.

Claude, който се впуска чистосърдечно в духа на упражнението и развива чувство за хумор, получава последната дима. Ето и пародията на Claude на ChatGPT, отговарящ на въпроса за собствените си писателски особености.

„ChatGPT би искал да ти помогне да се задълбочиш в тази тема! Ето разбивка:

  •  Ключово прозрение: Използва точки за всичко.
  •  Забележително наблюдение: Задълбочил се е, задълбочава се и ще се задълбочава отново.
  • Извод: Разбирайки тези модели, можем по-добре да оценим синергичните рамки, които водят до цялостни резултати в бъдеще.“

Ще завърша с някои трезви мисли, генерирани от човек, пише Шапиро. Скоро ще стане много по-трудно да разпознаваме текстовете, създадени от нашите три изкуствени приятеля. Програмистите работят усилено, за да накарат големите езикови модели да пишат много повече като човек. Моделите се отдалечават от простото предсказване на следващата най-логична дума и се превръщат в системи, които могат да разсъждават, редактират и усъвършенстват собствената си работа, преди да я видите.

Предвид бързите темпове на подобрение случайните читатели ще открият, че до 2-3 години, а може би и по-рано, текстът на LLM е почти неразличим от човешката проза. Периодът за професионалните редактори и обучените критици ще е по-дълъг, вероятно от четири до шест години, преди разликите да станат почти незабележими.

В този момент ще започна агресивно да промотирам стратегията си за синергия в LinkedIn, завършва Шапиро.

Всяка новина е актив, следете Investor.bg и в Google News Showcase.
Последна актуализация: 16:41 | 21.03.26 г.
Специални проекти виж още
Най-четени новини
Още от Новини и анализи виж още

Коментари

Финанси виж още