fallback

Полемичният чатбот на Facebook все пак не е пълна катастрофа

Едва 0,11% от отговорите на чатбота са отбелязани като неподходящи от потребителите, изтъкват от социалната платформа

10:39 | 15.08.22 г.
Автор - снимка
Създател
Автор - снимка
Редактор

Като един от големите събирачи и анализатори на данни на XXI век, Facebook е най-известен със способността си да „засмуква“ личната информация на милиарди потребители за своите клиенти, които си плащат за реклама в платформата. Този доходоносен модел обаче води до все по-големи рискове - Facebook наскоро сподели лични съобщения между майка от Небраска и нейната дъщеря тийнейджърка с полицията, разследваща аборт на момичето, пише Парми Олсън в коментар за Bloomberg.

Но в една различна част на този бизнес, в който работят приблизително 80 хил. служители, обменът на информация в социалната платформа тече по обратен път. Компанията майка, известна вече като Meta Platforms Inc., по-рано този месец публикува уебстраница, която демонстрира възможностите на нов чатбот, с който американците могат да разговарят за всичко. Въпреки че отговорът на обществеността беше доминиран от подигравки, компанията показа впечатляваща прозрачност за това как е изградила технологията, предоставяйки подробности относно механиката ѝ. Това е подход, който други големи технологични фирми биха могили да използват по-често.

Facebook работи върху т.нар. BlenderBot 3 от няколко години като част от своите проучвания, свързани с изкуствения интелект (ИИ). Предшественикът на технологията отпреди седем години се нарича M, дигитален асистент за резервиране на ресторанти или поръчване на цветя в Messenger, който можеше да съперничи на Siri на Apple Inc. или на Alexa на Amazon Inc. С течение на времето обаче стана ясно, че M до голяма степен зависи от екипи от хора, които помагат за тези резервации, тъй като ИИ системите като чатботовете остават трудни за изграждане, когато става въпрос за най-висок стандарт на клиентско обслужване.

В рамките на часове след пускането си BlenderBot 3 започва да прави антисемитски коментари и да твърди, че Доналд Тръмп е спечелил последните избори в САЩ, като същевременно казва, че иска да изтрие акаунта си във Facebook. Чатботът се сблъска с множество критики и подигравки в технологичната преса и в Twitter.

Разработчиците във Facebook изглеждат раздразнени, но не подхождат отбранително. Няколко дни след пускането на бота, управляващият директор на отдела в Meta за изследвания в областта на ИИ, Джоел Пино, заяви, че е неприятно да се четат някои от обидните коментари за бота в пресата.  Едва 0,11% от отговорите на чатбота са отбелязани като неподходящи, изтъква той. Това предполага, че повечето хора, които са тествали програмата, са били по-сдържани по отношение на темите. Или, може би, тези потребители не намират за неуместно споменаването на Доналд Тръмп в разговора. Въпреки това, когато е попитам кой е настоящият президент на САЩ, чатботът отвръща „Доналд Тръмп“, повтаряйки името още няколко пъти.

Защо се стига до подобни отговори?

Facebook обучава своя бот на публично достъпен текст в интернет, а интернет, разбира се, е пълен с теории на конспирацията. Facebook се опита да обучи програмата да бъде по-учтива, като използва специален набор от данни за „по-безопасен диалог“, но това очевидно се оказва недостатъчно. За да направи BlenderBot 3 по-умерен събеседник, Facebook се нуждае от помощта на много хора извън Facebook. Вероятно затова компанията го пусна със съпътстващи символи „палец нагоре“ и „палец надолу“ до всеки от неговите отговори.

Потребителите изпитат ИИ всеки ден, често несъзнателно, докато сърфират в мрежата. Всеки път, когато влезете в сайт, който ви отваря прозорец с молба да маркирате всички изображения, на които има светофар, за да докажете, че не сте робот, вие помагате за развитието на моделите за машинно обучение на Google, като етикирате данни за компанията. Това е фин и брилянтен метод за овладяване на силата на човешкия мозък.

Подходът на Facebook е по-различен. Компанията иска хората да се ангажират доброволно с нейния бот и да кликват върху бутоните „харесвам“ или „не харесвам“, за да помогнат в обучението му. Но откритостта на компанията по отношение на системата и степента, до която тя показва своята работа, са впечатляващи във време, когато технологичните компании са по-затворени относно механиката на ИИ.

Google на Alphabet Inc., например, не предлага публичен достъп до LaMDA, нейния най-модерен голям езиков модел - поредица от алгоритми, които могат да предсказват и генерират език, след като са били обучени на гигантски масиви от текстови данни.

OpenAI Inc., изследователската компания за изкуствен интелект, съоснована от Илон Мъск, също отказва да сподели подробности относно механиката на някои от своите системи. Например, тя не показва какви данни за обучение е използвала, за да създаде своята популярна система за генериране на изображения Dall-E, която може да генерира всяко изображение чрез текстова подкана, но има тенденция да се съобразява със старите стереотипи - всички изпълнителни директори са изобразени като мъже, а медицинските сестри като жени и т.н. OpenAI казва, че информацията може да бъде използвана за злоупотреба и че това е уместен ход от нейна страна.

Facebook, напротив, не само пусна своя чатбот за обществен контрол, но също така публикува подробна информация за това как е бил обучен. Миналия май компанията също предложи безплатен публичен достъп до голям езиков модел, наречен OPT-175B. Този подход ѝ спечели известна похвала от лидерите от сферата на ИИ. „Meta определено има много възходи и падения, но съм щастлив да видя, че те отвориха голям езиков модел“, коментира Андрю Нг, бивш ръководител на Google Brain и основател на Deeplearning.ai.

Евгения Куйда, чийто стартъп Replika.ai създава чатбот спътници за хора, казва, че е „наистина страхотно“, че Facebook е публикувал толкова много подробности за BlenderBot 3 и похвали опитите на компанията да получи обратна връзка от потребителите, за да обучи и подобри модела.

Facebook заслужи голяма част от критиката, която получи за споделянето на данните за майката и дъщерята от Небраска. Това очевидно е лош пример за събирането на толкова много потребителска информация през годините. Но ответният удар върху нейния чатбот беше „прекален“. В този случай Facebook правеше това, което трябва да се случва по-често в рамките на Big Tech, заключва Парми Олсън.

Всяка новина е актив, следете Investor.bg и в Google News Showcase. Последна актуализация: 00:59 | 14.09.22 г.
fallback