IMG Investor Dnes Bloombergtv Bulgaria On Air Gol Tialoto Az-jenata Puls Teenproblem Automedia Imoti.net Rabota Az-deteto Blog Start Posoka Boec

Социалните мрежи не могат да продължат да крият проблемите си в черната кутия

Регулаторите търсят все повече начини да разшифроват алгоритмите, ползвани от големите платформи

17:17 | 01.08.22 г.
<p>
	<em>Снимка: Bloomberg LP</em></p>

Снимка: Bloomberg LP

Има достатъчно добра причина за разкриване на тайните на гигантите, които притежават социални мрежи. През последното десетилетие правителствата наблюдаваха безпомощно как техните демократични процеси бяха нарушени от дезинформация и реч на омразата в сайтове като Facebook на Meta Platforms, YouTube на Alphabet и Twitter. Сега някои правителства се подготвят за възмездие, пише Парми Олсън в коментар за Bloomberg.

Европа и Великобритания подготвят закони, които в следващите две години ще овладеят проблемното съдържание, което социалните мрежи позволиха да стане популярно. Имаше много скептицизъм относно способността им да надникнат зад кулисите на компании като Facebook. В края на краищата на регулаторите им липсва техническа експертиза, работната сила и заплатите, с които т.нар. Big Tech (технологичните гиганти) се хвалят. Системите с изкуствен интелект, които тези фирми използват, са изключително трудни за дешифриране.

Но скептиците трябва да бъдат отворени. Разработват се нови техники, които ще направят изследването на тези системи по-лесно. Т.нар. проблем на черната кутия на изкуствения интелект не е толкова непроницаема, колкото мнозина си мислят.

Изкуственият интелект стои зад повечето от действията, които виждаме във Facebook и YouTube, и по-специално системите за препоръки, които избират кои публикации да влязат в списъците с новини или какви видеоклипове трябва да гледате след това, с идеята да продължите да скролвате. Милиони единици от данни се използват за обучение на софтуера за изкуствен интелект, което му позволява да прави прогнози, донякъде подобни на човешките. Трудната част за инженерите е да разберат как изкуственият интелект взема решение на първо място. Оттук идва и концепцията за черната кутия.

Представете си картинка на лисица и друга на куче. Вероятно в рамките на няколко милисекунди можете да разберете кое животно е лисица и кое е куче. Но можете ли да обясните откъде го знаете? Повечето хора биха се затруднили да формулират какво точно в носа, ушите или формата на главата им казва кое е правилно и кое не. Но те знаят със сигурност коя снимка им показва лисица.

Подобен парадокс засяга моделите на машинно обучение. Често те дават верния отговор, но дизайнерите често не могат да обяснят как. Това не ги прави напълно неразгадаеми. Появява се малка, но развиваща се индустрия, която следи как работят тези системи. Тяхната най-популярна задача: подобряване на представянето на моделите с изкуствен интелект. Компаниите, които ги използват, също искат да се уверят, че изкуственият интелект не взима пристрастни решения, например когато разглежда кандидатури за работа или отпуска заеми.

Ето пример за това как работи един от тези стартъпи. Финансова фирма наскоро е използвала израелския стартъп Aporia, за да провери дали кампания за привличане на студенти работи. Aporia, която ползва както хора, така и софтуер, е установила, че системата с изкуствения интелект всъщност допуска грешки, като отпуска заеми на някои млади хора, на които не бива, или задържа ненужно заеми на други. Когато Aporia разгледала по-внимателно, установила защо: студентите са били включени в под 1% от данните, с които е обучаван изкуственият интелект.

Последна актуализация: 10:29 | 14.09.22 г.
Специални проекти виж още
Още от Анализи виж още

Коментари

Финанси виж още