fallback

Google отстрани инженер, който твърди, че изкуственият ѝ интелект е почти човек

Технологичната компания отхвърля твърденията на служителя за нейната технология за чатбот с изкуствен интелект LaMDA

14:22 | 13.06.22 г. 1
Автор - снимка
Създател
Автор - снимка
Редактор

Американският технологичен гигант Google отстрани от работа инженер, който твърди, че чатбот с изкуствен интелект, разработен от компанията, е станал разумен, като му е  съобщил, че е нарушил политиката на компанията за поверителност.

Блейк Лемойн, софтуерен инженер в Google на Alphabet Inc., заяви пред компанията, че вярва, че нейният езиков модел за диалогови приложения, или LaMDA, е човек, който има права и може би има душа. LaMDA е вътрешнофирмена система за изграждане на чатботове, които имитират реч.

Говорителят на Google Брайън Гейбриъл заяви, че експерти на компанията, включително такива по етични и технологични въпроси, са разгледали твърденията на Лемойн и Google го е информирала, че доказателствата не подкрепят твърденията му. Той пояснява, че Лемойн е в административен отпуск, но отказа да даде повече подробности, като заяви, че това е отдавнашен, частен въпрос. По-рано The Washington Post съобщи за твърденията на Лемойн и за отстраняването му от Google.

„Стотици изследователи и инженери са разговаряли с LaMDA и не ни е известно някой друг да е направил толкова обширни твърдения или да е антропоморфизирал LaMDA по начина, по който го е направил Блейк", казва Габриел в изявление, изпратено по електронната поща.

По думите му някои специалисти в сферата на изкуствения интелект обмислят дългосрочната възможност за разумен изкуствен интелект, но нямало смисъл това да се прави чрез антропоморфизиране на разговорни инструменти, които не са разумни. Той добави, че системи като LaMDA работят, като имитират видовете размяна на мнения, които се срещат в милиони изречения на човешкия разговор, което им позволява да говорят дори на фантастични теми.

Специалистите по изкуствен интелект обикновено казват, че технологията все още не е близо до човешкото самопознание и осъзнаване. Но инструментите на ИИ са все по-способни да създават сложни взаимодействия в области като езика и изкуството, за които специалистите по технологична етика предупреждават, че могат да доведат до неправилна употреба или неразбиране, когато компаниите публично внедряват такива инструменти.

Лемойн заяви, че взаимодействието му с LaMDA го е довело до заключението, че то се е превърнало в личност, която заслужава правото да бъде помолена да даде съгласието си за експериментите, които се провеждат с нея.

„През последните шест месеца LaMDA беше невероятно последователен в комуникацията си относно това какво иска и какви са според него правата му като личност", пише Лемойн в съботен пост в онлайн платформата за публикуване Medium. „Нещото, което продължава да ме озадачава, е колко силно Google се съпротивлява да му даде това, което иска, след като искането му е толкова просто и не би струвало нищо", пише той.

В кратко интервю в неделя Лемойн заяви, че е бил пуснат в платен административен отпуск на 6 юни за нарушаване на правилата за поверителност на компанията и че се надява да запази работата си в Google. Той каза, че не се опитва да влоши положението на компанията, а отстоява това, което смята за правилно.

В профила си в Medium Лемойн изброява редица преживявания преди настоящата си позиция, като се описва като свещеник, бивш затворник и ветеран, както и като изследовател на изкуствения интелект.

Google представи LaMDA публично в публикация в блога си миналата година, изтъквайки го като пробив в технологията на чатботовете заради способността му „да се ангажира по свободен начин по привидно безкраен брой теми - способност, която според нас може да отключи по-естествени начини за взаимодействие с технологиите и изцяло нови категории полезни приложения".

Google е сред лидерите в разработването на изкуствен интелект, като инвестира милиарди долари в технологии, които според нея са от основно значение за нейния бизнес. Нейните усилия в областта на изкуствения интелект са били източник и на вътрешнофирмено напрежение, като някои служители оспорват начина, по който компанията се справя с етичните проблеми, свързани с технологията.

В края на 2020 г. компанията се раздели с известния изследовател в областта на изкуствения интелект Тимнит Гебру, чието изследване отчасти стигна до заключението, че Google не е била достатъчно внимателна при внедряването на такава мощна технология. Миналата година Google заяви, че планира да удвои размера на екипа си, който изучава етиката на изкуствения интелект, до 200 изследователи в продължение на няколко години, за да гарантира, че компанията внедрява технологията отговорно.

Всяка новина е актив, следете Investor.bg и в Google News Showcase. Последна актуализация: 09:34 | 14.09.22 г.
fallback