IMG Investor Dnes Bloombergtv Bulgaria On Air Gol Tialoto Az-jenata Puls Teenproblem Automedia Imoti.net Rabota Az-deteto Blog Start Posoka Boec

Изкуственият интелект с отворен код е опасен

Проблемът е, че може да попадне в злонамерени ръце

17:07 | 08.07.23 г.
Автор - снимка
Създател
Автор - снимка
Редактор
Снимка: Bloomberg
Снимка: Bloomberg

В разгара на пандемията от коронавируса някои загрижени американски служители лансираха нова идея: защо да не се публикуват подробностите за известните зоонотични (предавани от животни на хора – бел. ред.) вирусни заплахи онлайн, за да се даде възможност на учените по света да предскажат какви варианти могат още да се появят; и евентуално да измислят ваксини.

Това звучеше привлекателно на теория, пише колумниста за САЩ на Financial Times Джилиън Тет. Covid показа цената на пренебрегването на пандемиите. Той също така разкри удивителните пробиви, които могат да бъдат направени, когато правителствата най-накрая хвърлят ресурси за бързо намиране на ваксини, допълва още тя.

Пълните блокади на икономиката и хората разкриха нещо друго - на учените преди им беше трудно да обсъждат, когато са физически разделени или работят в различни институции, но по време на пандемията те се научиха да организират срещи чрез видео разговори, които позволиха трансгранични и преломни иновации. И така, част от инициативата Deep Vzn, разклонение на проекта Global Virome, беше това, че платформа за вируси с отворен код може да предизвика глобални дебати, особено в развиващите се пазари, които често са бивали изолирани от тях.

Дотук много вдъхновяващо, коментира Джилиън Тет. Но когато Американската агенция за международно развитие (USAID) лансира идеята за Deep Vzn, някои учени забелязаха проблем: оповестяването на подробности за вируси онлайн може да позволи на "лоши" хора да възпроизведат смъртоносни болести и дори да ги влошат. „Естествено е да искаме да разбираме заплахите. Но... ние не изследваме нови и по-лесни пътища за създаване на ядрени оръжия; пандемиите не са по-различни“, написа в Twitter Кевин Есвелт, експерт по биотехнологии в Масачусетския технологичен институт (MIT), който помогна за пионерния проект за геномно инженерство Crispr.

„Дори ако предварителното идентифициране на пандемични вируси може да ни позволи да предотвратим всички естествени пандемии, това неизбежно ще даде на десетки хиляди индивиди […] силата да разпалят повече пандемии“, добави той.

След множество оплаквания, USAID замрази идеята на Deep Vzn за отворен код. „Ние приемаме безопасността невероятно сериозно […] и в този случай, след консултация с нашите колеги от администрацията и с Конгреса, ние започнахме цялостен процес на преглед“, каза говорител на институцията, отбелязвайки, че: „Въпросните изследвания не продължиха.“

Две години по-късно това може да изглежда просто като историческа незначителност, но не е, пише още Тет в коментара си за FT. Някои наблюдатели се страхуват от завръщането на „прогностичните изследвания“. Наскоро в Конгреса на САЩ беше обявена тревога за рисковете. В по-широк план Deep Vzn предлага някои полезни уроци за изкуствения интелект (AI), докато дебатите  около него не стихват. От една страна това показва защо се нуждаем от повече учени, участващи в политиката и правенето на политики – и те да работят с хора извън научните среди.

Това изглежда очевидно. Но една шокираща подробност за Конгреса е, че само малък брой от членовете са минали някакво научно или инженерно обучение, в рязък контраст със страни като Германия или Китай. По-лошото е, че някои стават все по-враждебни към науката през последните години. Бившият президент Доналд Тръмп е такъв пример.

През 2016 г. беше създаден орган за кампании, наречен 314 Action, за да подкрепи учени, които искат да се кандидатират за публични длъжности. Той вече постигна известен успех, като на уебсайта му се твърди, че: „През 2018 г. изиграхме ключова роля за промяната в състава на Камарата на представителите на Конгреса, като избрахме девет кандидати с техническо образование“. Органът също така ще подкрепи про-научните кандидати в изборите през следващата година. Но има още дълъг път, а бързото развитие на технологии като AI е причина за тревога.

Вторият урок е, че властите трябва да се отнасят внимателно към идеята за прозрачност – не само с патогените, но и с AI, отбелязва Джилиън Тет. Досега някои западни AI експерти избираха да публикуват своите авангардни изследвания върху платформи с отворен код, за да популяризират каузата на науката и да спечелят признаниe. Но както биотехнологичните експерти осъзнаха, че публикуването на подробности за патогените може да бъде рисковано, така и тези експерти се събуждат за заплахата, която представляват AI инструментите, ако попаднат в злонамерени ръце.

Дилемата е, че запазването на частния характер на AI изследванията също повдига големи обществени въпроси, смята анализаторът. За нея западните институции с необходимите ресурси за AI изследвания са предимно технологичните гиганти. Но малко избиратели искат да им оставят едноличния контрол върху AI изследванията или решенията кога те да бъдат публикувани.

Това води до трети ключов урок: загрижените граждани трябва да извисяват глас. Това е трудно, като се има предвид силата на технологичните компании и правителствата. Но Роб Рийд, технологичен инвеститор и подкастър, който помогна за разпалването на протести срещу Deep Vzn, посочва, че кампанията му е като цяло ръководена от „само група загрижени американски аутсайдери с натоварен живот“, които се чувстват принудени и упълномощени да бият тревога. „Този протест никога не би могъл да се случи в авторитарна страна“, добавя той. Така е. И това показва, че само защото технологиите напредват с ужасяваща скорост, не трябва да се поддаваме на безпомощност или пасивно невежество.

Всяка новина е актив, следете Investor.bg и в Google News Showcase.
Последна актуализация: 16:47 | 08.07.23 г.
Специални проекти виж още
Още от Новини и анализи виж още

Коментари

Финанси виж още