IMG Investor Dnes Bloombergtv Bulgaria On Air Gol Tialoto Az-jenata Puls Teenproblem Automedia Imoti.net Rabota Az-deteto Blog Start Posoka Boec

Лошият старт на Gemini на Google всъщност направи услуга на света

Критериите за преценка на ефективността на AI моделите остават неясни

19:11 | 18.03.24 г.
Автор - снимка
Създател
Снимка: Bloomberg L.P.
Снимка: Bloomberg L.P.

Инвеститорите на Google имат право да бъдат ядосани от изключително некомпетентното пускане на системата за изкуствен интелект Gemini на компанията. За всички останали това беше благословия, пише Клив Крук за Bloomberg.

Забавните грешки в генерирането на образи от чатбота Gemini, като нацистките войници от различни раси, предложиха полезен поглед към една оруелска антиутопия. По този начин те също така подчертаха жизненоважни въпроси за непрозрачността, доверието, обхвата на приложение и истината, които заслужават повече внимание, докато обмисля къде ще ни отведе изкуственият интелект (AI).

Изкуственият интелект е разрушителна и потенциално трансформираща иновация, а като всички такива, тя е в състояние да осигури огромен напредък в благосъстоянието на хората. Десетилетие или две икономически растеж, подсилен с AI, е точно това, от което светът има нужда. В момента е обаче е прекалено рано да се радваме на резултатите от наличния изкуствен интелект. Концепцията е толкова вълнуваща, а интелектуалното постижение е толкова впечатляващо, че човек лесно може да се увлече. Новаторите, действителните и потенциалните потребители и регулатори трябва да обмислят внимателно какво се случва, особено за какви цели може да се ползва AI, така да е полезен.

Част от трудностите при справянето с пълните последици от AI са свързани с огромните усилия, положени в разработването на модели на изкуствения интелект, които се изразяват като хора, вероятно поради маркетингови причини. „Да, мога да ти помогна с това“. „Благодаря ти, но кой е Аз“? Предположението е, че изкуственият интелект може да бъде разбран и с него да се работи толкова добре, колкото се разбирате и работите с човек, с изключение на това, че AI е безкрайно по-умен и с повече знания. Поради тази причина, когато става въпрос за вземане на решения, той претендира за известна власт над своите потребители. Има съществена разлика между AI като инструмент, който хората използват, за да подобрят решенията си – решения, за които остават отговорни – и AI като вземащ решения сам по себе си.

С течение на времето AI вероятно ще получи още по-голяма власт за вземане на решения, не само върху информацията (текст, видео или друго), която предава на хората потребители, но и върху действията. В крайна сметка „пълното самоуправление“ на Tesla всъщност не означава пълно самоуправление. В този момент отговорността за лоши решения при шофиране ще бъде на Tesla. По-трудно е да се каже кой или какво трябва да носи отговорност, когато системите правят последващи грешки. Без съмнение съдилищата ще се заемат с това.

Ако оставим отговорността настрана, с напредването на AI ще искаме да преценим колко добър е той във вземането на решения. Това също е проблем. По причини, които не разбирам, не се казва, че AI моделите правят грешки: те „халюцинират“. Как обаче да разберем, че халюцинират? Със сигурност знаем, когато представят открития, толкова абсурдни, че дори хората с малко информация разбират, че има нещо нередно. Но AI системите няма да са толкова глупави винаги. Дори техните дизайнери не могат да обяснят всички подобни грешки и забелязването им може да не е по силите на хората.

Дори ако грешките могат да бъдат надеждно идентифицирани и следени, критериите за преценка на ефективността на AI моделите са неясни. Хората правят грешки през цялото време. Ако AI прави по-малко грешки от хората, това ще бъде ли достатъчно добро? За много цели (включително напълно автономно шофиране) бих бил склонен да кажа „да“, но областта на въпросите, зададени на AI, трябва да е достатъчно тясна. Един от въпросите, на които не бих искал AI да отговаря, е: „Ако изкуственият интелект прави по-малко грешки от хората, това ще бъде ли достатъчно добро?“

Въпросът е, че заключения като това не са просто фактически – разграничение, което стига до сърцевината на въпроса. Дали едно мнение или действие е оправдано, често зависи от ценностите. Те могат да бъдат заместени от действието само по себе си (например нарушавам ли нечии права) или от неговите последици (този резултат по-полезен ли е социално от алтернативата). Изкуственият интелект се справя с тези усложнения като имплицитно придава стойности на действията и/или последствията, но трябва да ги изведе или от консенсуса или от инструкциите, дадени от неговите потребители или дизайнери. Проблемът е, че нито консенсусът, нито инструкциите имат етичен регулатор. Когато AI предлага мнение, то е само мнение.

Някога ясното разграничение между факти и ценности сега е атакувано от всички страни. Изтъкнати журналисти казват, че никога не са разбирали какво означава „обективно“. „Критични теоретити“, които доминират много от колежанските програми за социални изследвания, се занимават с „фалшиво съзнание“. „социална конструкция“ и истината като „жив опит“ – всички те поставят под въпрос съществуването на фактите и виждат ценностите като инструменти на потисничество. Ефективните алтруисти възприемат ценностите по много различен начин. Те твърдят, че последствията могат да бъдат оценени по едно измерение, което прави ценности, различни от „полезността“, нулеви. Алгоритмични етици, ликувайте!

Докато тези идеи проникват в това, което AI твърди, че знае, очаквайте системите да представят ценностните преценки като истини (точно както правят хората), подтикнати допълнително от дизайнери, насърчаващи културно пренастройване по отношение на раса, пол и равнопоставеност, и да ви отказват информация, която може да доведе до морална грешка (точно както правят хората).

Както Андрю Съливан посочва, в началото Google обеща, че резултатите от търсенето ѝ ще са „безпристрастни и обективни“, сега основната ѝ цел е да бъде „обществено полезна“. AI системите може да разсъждават или да бъдат инструктирани, че при избора между това, което е вярно, и това, което е социално полезно, те трябва да изберат последното, а след това да излужат потребителите, че са го направили. В крайна сметка AI е толкова умен, че неговата „истина“ наистина трябва да е истина.

По един полезен запомнящ се начин Gemini доказа, че не е. Благодаря ти, Google, че се представи толкова зле.

Всяка новина е актив, следете Investor.bg и в Google News Showcase.
Последна актуализация: 19:10 | 18.03.24 г.
Специални проекти виж още
Още от Новини и анализи виж още

Коментари

Финанси виж още