Инвеститорите на Google имат право да бъдат ядосани от изключително некомпетентното пускане на системата за изкуствен интелект Gemini на компанията. За всички останали това беше благословия, пише Клив Крук за Bloomberg.
Забавните грешки в генерирането на образи от чатбота Gemini, като нацистките войници от различни раси, предложиха полезен поглед към една оруелска антиутопия. По този начин те също така подчертаха жизненоважни въпроси за непрозрачността, доверието, обхвата на приложение и истината, които заслужават повече внимание, докато обмисля къде ще ни отведе изкуственият интелект (AI).
Изкуственият интелект е разрушителна и потенциално трансформираща иновация, а като всички такива, тя е в състояние да осигури огромен напредък в благосъстоянието на хората. Десетилетие или две икономически растеж, подсилен с AI, е точно това, от което светът има нужда. В момента е обаче е прекалено рано да се радваме на резултатите от наличния изкуствен интелект. Концепцията е толкова вълнуваща, а интелектуалното постижение е толкова впечатляващо, че човек лесно може да се увлече. Новаторите, действителните и потенциалните потребители и регулатори трябва да обмислят внимателно какво се случва, особено за какви цели може да се ползва AI, така да е полезен.
Част от трудностите при справянето с пълните последици от AI са свързани с огромните усилия, положени в разработването на модели на изкуствения интелект, които се изразяват като хора, вероятно поради маркетингови причини. „Да, мога да ти помогна с това“. „Благодаря ти, но кой е Аз“? Предположението е, че изкуственият интелект може да бъде разбран и с него да се работи толкова добре, колкото се разбирате и работите с човек, с изключение на това, че AI е безкрайно по-умен и с повече знания. Поради тази причина, когато става въпрос за вземане на решения, той претендира за известна власт над своите потребители. Има съществена разлика между AI като инструмент, който хората използват, за да подобрят решенията си – решения, за които остават отговорни – и AI като вземащ решения сам по себе си.
С течение на времето AI вероятно ще получи още по-голяма власт за вземане на решения, не само върху информацията (текст, видео или друго), която предава на хората потребители, но и върху действията. В крайна сметка „пълното самоуправление“ на Tesla всъщност не означава пълно самоуправление. В този момент отговорността за лоши решения при шофиране ще бъде на Tesla. По-трудно е да се каже кой или какво трябва да носи отговорност, когато системите правят последващи грешки. Без съмнение съдилищата ще се заемат с това.
Ако оставим отговорността настрана, с напредването на AI ще искаме да преценим колко добър е той във вземането на решения. Това също е проблем. По причини, които не разбирам, не се казва, че AI моделите правят грешки: те „халюцинират“. Как обаче да разберем, че халюцинират? Със сигурност знаем, когато представят открития, толкова абсурдни, че дори хората с малко информация разбират, че има нещо нередно. Но AI системите няма да са толкова глупави винаги. Дори техните дизайнери не могат да обяснят всички подобни грешки и забелязването им може да не е по силите на хората.
Дори ако грешките могат да бъдат надеждно идентифицирани и следени, критериите за преценка на ефективността на AI моделите са неясни. Хората правят грешки през цялото време. Ако AI прави по-малко грешки от хората, това ще бъде ли достатъчно добро? За много цели (включително напълно автономно шофиране) бих бил склонен да кажа „да“, но областта на въпросите, зададени на AI, трябва да е достатъчно тясна. Един от въпросите, на които не бих искал AI да отговаря, е: „Ако изкуственият интелект прави по-малко грешки от хората, това ще бъде ли достатъчно добро?“
Въпросът е, че заключения като това не са просто фактически – разграничение, което стига до сърцевината на въпроса. Дали едно мнение или действие е оправдано, често зависи от ценностите. Те могат да бъдат заместени от действието само по себе си (например нарушавам ли нечии права) или от неговите последици (този резултат по-полезен ли е социално от алтернативата). Изкуственият интелект се справя с тези усложнения като имплицитно придава стойности на действията и/или последствията, но трябва да ги изведе или от консенсуса или от инструкциите, дадени от неговите потребители или дизайнери. Проблемът е, че нито консенсусът, нито инструкциите имат етичен регулатор. Когато AI предлага мнение, то е само мнение.
Някога ясното разграничение между факти и ценности сега е атакувано от всички страни. Изтъкнати журналисти казват, че никога не са разбирали какво означава „обективно“. „Критични теоретити“, които доминират много от колежанските програми за социални изследвания, се занимават с „фалшиво съзнание“. „социална конструкция“ и истината като „жив опит“ – всички те поставят под въпрос съществуването на фактите и виждат ценностите като инструменти на потисничество. Ефективните алтруисти възприемат ценностите по много различен начин. Те твърдят, че последствията могат да бъдат оценени по едно измерение, което прави ценности, различни от „полезността“, нулеви. Алгоритмични етици, ликувайте!
Докато тези идеи проникват в това, което AI твърди, че знае, очаквайте системите да представят ценностните преценки като истини (точно както правят хората), подтикнати допълнително от дизайнери, насърчаващи културно пренастройване по отношение на раса, пол и равнопоставеност, и да ви отказват информация, която може да доведе до морална грешка (точно както правят хората).
Както Андрю Съливан посочва, в началото Google обеща, че резултатите от търсенето ѝ ще са „безпристрастни и обективни“, сега основната ѝ цел е да бъде „обществено полезна“. AI системите може да разсъждават или да бъдат инструктирани, че при избора между това, което е вярно, и това, което е социално полезно, те трябва да изберат последното, а след това да излужат потребителите, че са го направили. В крайна сметка AI е толкова умен, че неговата „истина“ наистина трябва да е истина.
По един полезен запомнящ се начин Gemini доказа, че не е. Благодаря ти, Google, че се представи толкова зле.


Радев: Въпрос на време е българските продукти да изчезнат напълно от трапезата
„Черноморски туристически празник“ събира варненци на 30 и 31 май
Държавата дава безвъзмездно на Община Варна терен за детска градина
Явор Гечев: Мерките не ограничават цените, а изчистват пазарните изкривявания
Varna Channel Cup 2026 събира ветроходния елит във Варна
Борса с човешко лице: Как пазарите в Румъния и Полша станаха най-големите в ЦИЕ
Могат ли САЩ и Китай да намерят ново взаимодействие?
АИКБ: Малките фирми ще са най-засегнати от новите изисквания
IPSOS: Няма очевиден кандидат за премиер в парламента, освен Стармър
IPSOS: Големият въпрос е жизнения стандарт на британците
Обслужване на AMG One с пробег 185 км излезе колкото нов SUV
Subaru отива на съд заради фабричен дефект
Революция в прегледите - ЕС взима мерки срещу старите автомобили
Chery се връща към това, от което VW се отказа
Всяка десета кола e манипулирана – внимавайте с тези модели
Катастрофа на "Цариградско шосе" в София, има задръстване СНИМКИ
Kaizen Gaming обедини 237 доброволци за участие в екологични и обществени инициативи
Бивш шеф на ЦРУ: Контролирайки Ормузкия проток, Иран ни държи заложници
На косъм: Откриха бомба под кола в село Говедарци
В НС: Приеха на първо четене промените в съдебната власт