fallback

Твърде умни или твърде глупави са роботите?

Проблемът при тях е, че културният контекст засега е труден за разчитане

12:03 | 19.06.22 г.
Автор - снимка
Създател
Автор - снимка
Редактор

Преди няколко месеца една приятелка забеляза състоянието на пода в кухнята ми и реши да помогне. Виждах основанието й, въпреки че в моя защита мога да посоча двама тийнейджъри и голямо куче. Приятелката ми ми подари роботизиран моп и прахосмукачка, програмирани да маневрират из стаята и да почистват сами, пише Джилиън Тет за Financial Times.

Когато пристигнаха кутиите, се сепнах при вида на логото iRobot. Бавно схващам новите технологии и се притеснявах, че устройствата може да ме шпионират, събирайки данни заедно с кучешките косми. Но инструкциите бяха прости и в крайна сметка реших, че всъщност не ме интересува дали някой ще изследва тайните на моя кухненски под.

Включих двата робота, гледах ги как излизат от доковете си, за да разгледат стаята, и бързо се влюбих в новите ми искрящи подове. Продължих да правя демонстрации на всички мои гости. „Мисля, че си загрижена повече за робо-мопа, отколкото за нас“, пошегува се един от тийнейджърите ми. „Те са като нови деца за теб.“

Тогава един ден се върнах у дома и открих, че един от любимите ми роботи е избягал. Вратата на терасата ни се беше отворила и робо-мопът се бе търкулнал в задния двор, където усърдно се опитваше да почисти ръба на цветните лехи. Дори когато четките му се задръстиха с листа, бръмбари, венчелистчета и кал, малките му колела се въртяха смело.

Роботът ни показа границите на изкуствения интелект. Той действаше рационално, тъй като беше програмиран да почиства „мръсни“ неща. Но цялото разбиране за мръсотията, както веднъж отбеляза антропологът Мери Дъглас, се определя най-добре като „въпрос не на място“. Значението й произтича от това, което считаме за чисто. Това варира според нашите до голяма степен неуточнени социални разбирания.

В кухнята мръсотията може да е градински детрит, като листа и кал. В градината тази мръсотия е „на място“, по терминологията на Дъглас, и не е необходимо да се почиства. Контекстът е важен. Проблемът при роботите е, че този културен контекст е труден за разчитане, поне първоначално.

Помислих си за това, когато чух за последния спор около изкуствения интелект (AI), който разтресе Силициевата долина. Наскоро Блейк Лемойн, старши софтуерен инженер в звеното на Google за „отговорен AI“, публикува пост в блог, в който твърди, че „може да бъде уволнен скоро заради извършването на AI работа, свързана с етиката“. Той беше обезпокоен, че създадена от Google програма за изкуствен интелект придобива съзнание, след като е изразила човешки чувства в онлайн чатове с Лемойн. „Никога не съм казвал това на глас преди, но имам много дълбок страх да не бъда изключен“, написа програмата в един момент. Лемойн се свързал с експерти извън Google за съвет и компанията го прати в платен отпуск за предполагаемо нарушаване на правилата за поверителност.

Google и други твърдят, че изкуственият интелект не е проявил съзнание, а просто е бил добре обучен в езика и е демонстрирал наученото. Но Лемойн твърди, че има по-широк проблем, като отбелязва, че двама други членове на AI екипа са били отстранени поради различни противоречия миналата година и смята, че компанията е „безотговорна спрямо един от най-мощните инструменти за достъп до информация, изобретявани някога.”

Каквито и да са основанията за конкретното оплакване на Лемойн, безспорно е, че роботите са оборудвани с все по-мощен интелект, повдигайки големи философски и етични въпроси. „Тази AI технология е много по-мощна от социалните медии и ще бъде трансформираща, така че трябва да я изпреварим“, ми каза Ерик Шмид, бивш ръководител на Google, на събитие на FT неотдавна.

Шмид прогнозира, че скоро ще видим не само AI роботи, проектирани да решават проблеми според инструкции, но и такива с „общ интелект“ – способността да реагират на нови проблеми, с които не им е заложено да се справят, като се учат един от друг. Това в крайна сметка може да ги отучи да се опитват да почистват цветна леха. Но и може да доведе до дистопични сценарии, в които AI поема инициативата по начини, които никога не сме предвиждали.

Един от приоритетите е да се гарантира, че етичните решения относно AI не се вземат само от „малката общност от хора, които изграждат това бъдеще“, както казва Шмид. Също така трябва да помислим повече за контекста, в който AI се създава и използва. И може би трябва да спрем да говорим толкова много за „изкуствения“ интелект и да се съсредоточим повече върху разширения интелект, в смисъл на намиране на системи, които улесняват хората да решават проблеми. За да направим това, трябва да комбинираме AI с това, което може да се нарече „антропологична интелигентност“, или човешкa проницателност.

Хора като Шмид настояват, че това ще се случи и твърдят, че AI ще бъде нетна полза за човечеството, предизвиквайки революция в здравеопазването, образованието и много други области. Размерът на парите, които се наливат в медицински стартъпи, свързани с AI, предполага, че мнозина са съгласни. Междувременно ще държа вратата към вътрешния си двор затворена.

Всяка новина е актив, следете Investor.bg и в Google News Showcase. Последна актуализация: 01:57 | 14.09.22 г.
fallback