fallback

Елън Мъск вижда истинска заплаха за човечеството в изкуствения интелект

Според основателя на Tesla подобен свръхинтелект може да има апокалиптични последици

16:19 | 08.08.14 г. 4
Автор - снимка
Създател
Автор - снимка
Редактор

Основателят на Tesla и Space-X Елън Мъск изрази притеснението си, че човечеството може да е застрашено от нов злодей – изкуствения интелект, който може да стане значително по-умен от хората, а това може да доведе до катастрофални резултати, пише Quartz.

В Twitter Мъск препоръча на своите последователи да прочетат книгата „Суперинтелигентност: Пътища, опасности, стратегии“ на шведския философ Ник Бостром. В съобщението си Мъск посочва, че човечеството трябва да изключително внимателно, когато става дума за изкуствен интелект.

Worth reading Superintelligence by Bostrom. We need to be super careful with AI. Potentially more dangerous than nukes.

— Elon Musk (@elonmusk) August 3, 2014

Книгата на Бостром разглежда перспективата за изкуствен суперинтелект, който на практика може да бъде създаден през следващите няколко десетилетия. Според теоретиците, стига  изкуственият интелект бързо ще надмине човешкия.

Какво ще се случи след това? Последствията от толкова радикално по своята същност нещо са трудни за предсказване. Но това не пречи на философите, футуристите, учените и писателите да търсят възможните резултати. Предположенията им често звучат като научна фантастика и може би именно от това се страхува самият Елън Мъск.

Изкуствените интелекти могат да бъдат създадени с най-добри намерения – за провеждането на научни изследвания, насочени към лечението на рак например. Но когато техния интелект надмине човешкия, целенасоченото преследване на изпълнението на целта би могло да има апокалиптични последици. 

По думите на Даниел Дюи, изследовател от Future Humanity Institute, един изкуствен интелект може да иска да направи редица неща, за да постигне целта си. Проблемът е, че той не осъзнава кое е добре за човека.

„Изкуственият интелект не те обича, но не те и мрази, но ти си направен от атоми, които той може да използва за нещо друго“, коментира теоретикът в сферата на изкуствения интелект Елийзър Юдковски от Machine Intelligence Research Institute. „Един изкуствен интелект може да мисли, че човешкото щастие е биохимичен феномен. Може да смята, че пълнейки кръвта ви с несмъртоносни дози хероин е най-добрият начин да постигне това“, посочва Рос Андерсън от Aeon.

Какво би се случило, ако изкуственият интелект се насочи към „защитата на човешкия живот“. Нищо лошо, освен ако свръхинтелигентния и необременен от човешките представи за добро и зло интелект не реши, че най-добрият начин да защити човека е да го задържи и да го постави в стая с контролиран климат. Така човекът няма да може да навреди на себе си или другите. Човешкият живот ще е в безопасност, но в това няма да е голяма утеха.

Тези ужасни сценарии са само последствията от доброжелателния изкуствен интелект или в най-лошия случай – този, който е безразличен към нуждите и желанията на човечеството. Въпросът е какво ще се случи, ако има злонамерен изкуствен интелект, който не само иска да навреди на човека, но е и склонен да наказва.

През последните години повечето коментари на Мъск, вдъхновени от научната фантастика, се въртят около колонизирането на Марс, но последният, който той направи през юни тази година, е свързан със страха му от бъдещето на „Терминатора“. Според технологичния магнат това е наистина сериозен проблем, пише Mashable.

Що се отнася до това дали неговите опасения имат почва, все още не можем да бъдем сигурни, но Мъск вдига залозите като инвестира в компанията за проучване на изкуствения интелект Vicarious.

И макар околните да не говорят толкова за този проблем, мнозина в технологичния свят са подкрепят инвестиционния подход на Мъск към суперинтелигентните машини. Сред другите инвеститори във Vicarious са основателят на Facebook Марк Зукърбърг и главният изпълнителен директор на Amazon Джеф Безос. 

Всяка новина е актив, следете Investor.bg и в Google News Showcase. Последна актуализация: 12:43 | 13.09.22 г.
fallback