IMG Investor Dnes Bloombergtv Bulgaria On Air Gol Tialoto Az-jenata Puls Teenproblem Automedia Imoti.net Rabota Az-deteto Blog Start Posoka Boec

Наблюдението чрез изкуствен интелект на работното място невинаги е умно

Служителите трябва да имат правото да знаят кога се използва той, как работи, и да могат да оспорват резултатите му

09:10 | 15.05.21 г. 1
Автор - снимка
Създател
Автор - снимка
Редактор
<p>
	<em>Снимка: Bloomberg</em></p>

Снимка: Bloomberg

Пандемията принуди работодателите добре да се замислят колко се доверяват на персонала си. Миналата година огромен брой компании трябваше да въведат дистанционна работа в мащаб, за който иначе никога не биха помислили. Мнозина бяха приятно изненадани. Те откриха, че могат да разчитат на служителите да продължават да вършат работата си без да се отпускат. Всъщност проучванията сочат, че работниците от вкъщи отработват повече часове от всякога, пише Сара О’Конър за Financial Times.

Но други работодатели не го приеха толкова леко. Уплашени от мисълта да загубят погледа си върху персонала, те панически закупиха софтуер за наблюдение, голяма част от който претендира, че използва изкуствен интелект (AI), за да контролира евентуални забежки на служителите и да измерва производителността.

В момента има процъфтяващ пазар на облачни системи, които обещават да държат домашните работници на линия. Някои, като Controlio, предлагат „невидим режим“, който прави системата „напълно неразпознаваема за потребителя - без икони в лентата или процеси в диспечера на задачите“. (От Controlio ми казаха, че предлагат и „синхронизиран с GDPR режим“, който ограничава събирането на данни и има опция за предупреждение на служителите, че са обект на наблюдение, посочва О’Конър.)

Тъй като изкуственият интелект навлиза бързо и тихомълком в домовете на хората, публикуваните наскоро от ЕС проектоправила за това как той трябва да се използва при редица различни обстоятелства бяха навременни. Според предложените правила AI, използван за „набиране и подбор на лица, за вземане на решения за повишения и уволнения, и за разпределяне на задачи, наблюдение или оценка на лица в трудови отношения“, трябва да се класифицира като „висок риск“. Доставчиците на AI системи „с висок риск“ ще трябва да се подчинят на определени задължения, като например да предоставят ясна информация за това как работи софтуерът, като използват висококачествени масиви от данни и позволявайки човешки надзор.

Брюксел е прав да описва изкуствения интелект на работното място като рисков. Често има голям дисбаланс на правомощията между работодател и служител, особено на работните места без колективно договаряне. Ако искате да получите или да запазите работата си, може да се наложи са се съгласите с неща, с които иначе не бихте се чувствали комфортно.

Това, което се случва на работното място, може също да окаже голямо влияние върху останалата част от живота ви и обратно. Когато говорих със служителка в американски кол център, който беше наблюдаван от AI, тя не можеше да разбере защо алгоритъмът я оценява зле, след като преките й началници винаги са й давали добри оценки. Тя подозираше, че изкуственият интелект е затруднен от акцента й, но нямаше как да го докаже. Оценките са се отразили на нейните бонуси, които са голяма част от месечното й заплащане.

Размиването на границата между работата и дома е друга причина да се разглежда AI на работното място като потенциално проблемен. Международната федерация UNI Global Union установи рязко увеличение в служителите на кол центрове, работещи от вкъщи и наблюдавани от уебкамери с AI например.

Това не означава, че всичкият изкуствен интелект на работното място е проблем. Мениджърите често вземат предубедени решения. AI може да им помогне за по-добро наемане на разнообразна работна сила и повишения по заслуги. Но служителите трябва да имат правото да знаят кога се използва AI, как работи той, и да могат да оспорват резултатите му. „Компютърът казва не“ не върши работа, когато става въпрос за препитанието ви.

Повече прозрачност може също да помогне за ограничаване на разпространението на онова, което Валерио де Стефано, професор по трудово право в Белгия, нарича „фалшив изкуствен интелект” - продуктите на пазара, за които се твърди, че използват AI, но всъщност не са нищо подобно. Изобилие от така наречени AI системи твърдят, че изчисляват индивидуални „оценки за производителността“ на служителите, но реалните измерители са примитивни, като например колко често човек изпраща имейли (лично аз гледам на това като на противопоказател за истинската производителност, споделя О’Конър). Служителите не трябва да се използват като опитни зайчета за псевдонаучни оценки, които често заместват правилното управление.

Но подготвяните сега регламенти на ЕС може да не са на нивото на това предизвикателство. Първоначално тежестта ще падне върху доставчиците на системите за изкуствен интелект, които трябва да оценят съответствието им с правилата. Междувременно от държавите членки ще се очаква да определят национален орган, който да „контролира прилагането и изпълнението“ и да осигурява „надзор на пазара“. „Никой не казва, че оценката на работното място е напълно безполезна, но може да не е достатъчна“, коментира Де Стефано. Той също така твърди, че европейските правилата не трябва да се превръщат в нов таван за регулациите в региона, тъй като страни като Франция и Германия вече са отишли ​​по-далеч, за да ограничат някои видове наблюдение.

ЕС е прав да се тревожи как да предпази работниците от рисковете, породени от умните машини, но още по-важно е да ги защити от глупавите.

Всяка новина е актив, следете Investor.bg и в Google News Showcase.
Последна актуализация: 22:15 | 12.09.22 г.
Специални проекти виж още

Коментари

1
rate up comment 1 rate down comment 0
redcretin
преди 2 години
Да заповядат, ще ми плащат без да работя докато съм жив - след едно дело само.
отговор Сигнализирай за неуместен коментар
Финанси виж още