Регистрация

e-mail:

Потребителско име:

Парола:

Потвърди парола:

Код:

 съгласен съм с условията за ползване
 Ежедневен нюзлетър
 Седмичен нюзлетър

Социални мрежи

Провалът на Facebook, YouTube и Twitter при атентата в Нова Зеландия

Видеото е широко достъпно онлайн, а случаят отново повдига дискусията за това как може да бъде намалена злоупотребата чрез платформите

Когато през 2016 г. Зукърбърг представи функцията за видео на живо на Facebook, услугата беше доминирана от безвредни видеоклипове, включително бебешки клипове и хора, които се подстригват. Не отне много време обаче, преди потребителите да започнат да публикуват полицейски стрелби, убийства и самоубийства. Компанията внедри технологии и назначи служители, за да спомогнат те за намирането и премахването на обидно или заплашително съдържание. През миналата година Facebook заяви, че работи по чипове, предназначени за по-ефективно анализиране и филтриране на видео съдържанието на живо.

„След като се установи, че съдържанието е незаконно, екстремистко или е в нарушение на условията ни за ползване, няма абсолютно никаква причина в относително кратък период от време това съдържание да не може да бъде премахнато автоматично в момента на качване", казва Хани Фарид, старши съветник по Проекта за борба с екстремизма и професор по компютърни науки в Калифорнийския университет в Бъркли. „Имахме технологията да го правим от години“, пояснява той пред Bloomberg.

„Зукърбърг отказва да се справи с основния проблем на Facebook Live, който е, че просто няма отговорен начин за модериране на истински стрийминг на живо", казва Мери Ан Франкс, професор по право в Университета в Маями. „От самото начало Facebook знае, че услугата му за стрийминг имат потенциала да насърчават и разширяват най-лошото от човечеството и трябва да се изправи срещу факта, че има кръв на ръцете си“.

Facebook има 15 000 служители и подизпълнители, които пресяват постовете, за да свалят обидно съдържание. Зукърбърг казва, че алгоритмите за изкуствен интелект, които компанията вече използва, за да идентифицира голота или терористично съдържание, в крайна сметка ще се справят с по-голямата част от това сортиране. Но в момента дори най-сложните софтуери за изкуствен интелект изпитват затруднения в категории, в които контекстът е от значение.

„Речта на омразата е една от тези области", заяви в интервю през юни 2018 г. Моника Бикерт, ръководител на Facebook по глобалното управление на политиките.

Във Великобритания министърът на вътрешните работи Саджид Давид заяви в Twitter, че YouTube и други платформи трябва да направят повече, за да спрат насилствения екстремизъм.

Говорителка на Facebook заяви, че компанията е премахнала видеото, след като полицията в Нова Зеландия я е сигнализирала и е изтрила акаунтите във Facebook и Instagram, принадлежащи на предполагаемия стрелец, Брентън Тарант, който е обвинен в убийствата.

Twitter Inc. заяви, че е спрял профила на Тарант и работи за премахване на видеоклипа от платформата. Говорител на YouTube, част от Google на Alphabet Inc., заяви, че концернът е премахнал хиляди видеоклипове, свързани с инцидента, и че „шокиращото, насилствено и графично съдържание няма място на нашите платформи“.

По статията работи: Бойчо Попов

Последни новини

Още по темата

 
Спонсорирано съдържание

Коментари (3)

0
 
3
 
3
abdul до: ABBA
преди 1 година
Няма профилна снимка
и мюфтийства на лизинг хаха :-)
1
 
2
 
2
ABBA до: abdul
преди 1 година
Е то това е и целта на занятието.

Начиная от 70-те години, когато янките започнаха да спонсоритат
радикални ислямски проповедници и теолози.
Факт
1
 
9
 
1
преди 1 година
Няма профилна снимка
Facebook, twitter, youtube, както и оръжието, с което са избити са просто инструменти.
Ако не са те ще са други.
Ако проблема, са подтиска, то той се засилва.
Очевидно се подтискат симптоми, а не се лекува проблем, което очаквано води до засилването му.

Още от Социални мрежи
Тръмп ще блокира TikTok и WeChat в САЩ тази неделя