Някои в областта твърдят, че има парадоксална полза за компаниите с изкуствен интелект да наблягат на x-риска от системите, защото това създава усещането, че тяхната технология е изключително сложна.
„Очевидно е, че тези момчета се възползват от шума, който все още се подхранва“, каза Даниел Шьонбергер, бивш адвокат на Google, който работи върху списъка ѝ с AI принципи през 2018 г., а сега е във Web3 Foundation. Той коментира, че политиците трябва да се съсредоточат повече върху краткосрочните рискове - като изкуствен интелект, който прави по-евтино провеждането на кампании за разпространение на невярна и подвеждаща информация или концентрирането на повече власт в Силициевата долина.
„Съществува риск от доминиране, от това Big Tech да се превърне в Big AI“, казва Шьонбергер.
Лидерите на компании за изкуствен интелект, притеснени от екзистенциалните рискове, казват, че опасенията им са истински, а не са нещо измислено. „Да кажем: „О, правителствата са безнадеждни, така че призивът за регулиране е някакъв вид 4D шахматен ход“ – просто не мислим така. Това е екзистенциален риск“, каза през юни Алтман от OpenAI.
Очакващите апокалипсис не казват, че изкуственият интелект непременно ще се въздигне като Скайнет във филмите за Терминатор, за да унищожи хората. Някои се притесняват, че системите с изкуствен интелект могат да се окажат със скрити стремежи за търсене на власт, неволно да навредят на хората, докато изпълняват нашите нареждания, или просто да изпреварят хората и да поемат контрола върху съдбата ни. Проучванията в тази общност се фокусират до голяма степен върху това, което се нарича привеждане в съответствие – как да се уверим, че утрешните компютърни умове имат цели, синхронизирани с нашите.
Напротив, специалистите по етиката и справедливостта на AI са загрижени за това как инструментите, случайно или умишлено, експлоатират работници и задълбочават неравенствата за милиони хора. Те искат технологичните компании и регулаторите да прилагат стандарти за обучение и техники за намаляване на тази заплаха.
Разнообразието на работната сила е особено спорен въпрос. Специалистите по етиката на AI показаха как системите, обучени с исторически данни, могат да вложат стара дискриминация в бъдещи ключови решения, включително за финансиране за жилище, наеми или наказателни присъди. Изследванията също така показват, че генеративните AI системи могат да създават изображения, белязани от предубеждения. Те също така твърдят, че липсата на разнообразие сред изследователите на AI може да ги заслепи за въздействието, което технологията може да има върху цветнокожите и жените.
Конфликтът предизвиква искри от години. През 2015 г. някои академици и учени се събраха да обсъдят рисковете от изкуствения интелект в кулоарите на конференция, която се проведе в кампуса на Google. Едната страна се изправи срещу привържениците на екзистенциалния риск, твърдейки, че фокусът трябва да бъде върху днешните вреди, включително пристрастията.
Онези, които се опасяват от заличаването на човечеството, отвърнаха, че бъдещето на хората е в баланса, а никой не трябва да се притеснява за това, че изкуственият интелект води до разлика от четвърт пункт върху ипотека, коментира Стивън Вебер, професор в Калифорнийския университет в Бъркли.
„Почти си помислих, че ще се стигне до физическа саморазправа на академична среща“, припомня си Вебер.
Има и усилия за преодоляване на разделението. Някои изследователи, занимаващи се с етика, казват, че не отхвърлят напълно екзистенциалния риск, но просто смятат, че той трябва да бъде решен като част от по-добре дефинирани проблеми, които съществуват днес. Някои от по-крайните твърдят, че пътят към катастрофата може да дойде от опасения, подчертани от общността на етиците, като например индустриализирана дезинформация, която сваля правителства или започва войни. И двете страни се интересуват от възможността да пробият черната кутия на начина, по който изкуственият интелект мисли.


Тъжна вест! Почина един от най-големите архитекти в историята
Какво време ни очаква в неделя?
Внимание! Чакат ни мощни магнитни бури в следващите дни
Желязков посети Монетния двор, за да види лично как се секат българските евромонети (СНИМКИ)
"Toха" взе приз за цялостно представяне на кулинарния фес за Никулден във Варна (СНИМКИ)
Жизнено важната търговия на Русия с петрол в Индия е в упадък, но не и изчезнала
Глобата от 140 милиона долара на Мъск показва, че ЕС губи самообладание
ChatGPT спечели правото си да се саморегулира. Това може да се развие зле
Германия ускорява мерките срещу дронове - зачестяват инцидентите на летищата
Биткойн опциите показват, че трейдърите се подготвят за крипто зима
Най-бързата кола на XX век беше продадена за над 25 милиона долара
Какви са основните проблеми на 1.2 TSI на Volkswagen
Топ 10 на най-устойчивите на ръжда коли на старо
Кога са изобретени електрическите прозорци
Новото AUDI E7X изобщо не прилича на... Audi
Божидар Божанов: По всичко изглежда, че провокаторите са действали с МВР
Разходите за заплати нарастват с около един милиард евро
Румен Петков: Омразата тръгва от парламента
Желязков: Българските евромонети ще са законно платежно средство от 1 януари
„Арда“ надви „Локомотив“ на „Лаута”
преди 2 години И друг път съм го писал: каквато и заплаха да е изкуственият интелект, бледнее пред заплахата от естествената простотия.. отговор Сигнализирай за неуместен коментар
преди 2 години "такива системи могат да придобият свръхчовешки интелект"...дайте да изчакаме...първо да придобият какъвто и да е интелект? Това, че интернет търсачката е станала много мощна и може да компилира резултатите бързо и адекватно, не значи "интелект"... Та ако ще да ти дава резултатите от първо лице. отговор Сигнализирай за неуместен коментар