IMG Investor Dnes Bloombergtv Bulgaria On Air Gol Tialoto Az-jenata Puls Teenproblem Automedia Imoti.net Rabota Az-deteto Blog Start Posoka Boec Megavselena.bg

Г. Шарков: Прекалената регулация на изкуствения интелект може да убие иновациите

Човекът трябва да бъде в ядрото на всяка регулация, смята експертът

22:31 | 03.12.20 г. 1
<p>
	<em>Снимка: Bloomberg TV Bulgaria</em></p>

Снимка: Bloomberg TV Bulgaria

Роботът и по-широките отражения на изкуствения интелект трябва да бъдат интелегентен помощник на човека, дори и негов партньор. Прекалената регулация в този сектор рискува да убие всички иновации в тази насока. Това коментира Георги Шарков, ръководител на Лаборатория по киберсигурност в "София Тех парк" и съветник към Министерство на отбраната,  в предаването "Светът е бизнес" по Bloomberg TV Bulgaria

"Не случайно казвам, шегувайки се, че не виждаме автономни превозни средства по улиците на Европа, тъй като законодателството не ги позволява. Подобни автомобили, макар и прототипи, има в САЩ и те дори са европейско производство на марки като BMW и Volkswagen"

По думите на Георги Шарков етичните норми около изкуствения интелект трябва да бъдат базирани отчасти на трите принципа на американския писател на научно-фантастични романи Айзък Азимов, които макар и плод на фантастиката, са достатъчно поучителни.

"Човекът винаги трябва да бъде в средата или в ядрото на всяка регулация и бъдещата разбработка на тази технология. Въпросът не е само роботът да изпълнява заповедите на неговия оператор, а по-скоро всичко, което извършва да бъде съобразено с безопасността, целите и ползите на човечеството."

На въпрос относно военното приложение на тази технология гостът коментира, че се е работи в тази насока още преди пандемията, но изкуственият интелект опира само до идентифициране и анализиране на заплахата - решението за удар се взима от човешко лице

"Дадена страна може да има 30 военни робота или дрона, но отговорното лице е този, който оторизира удара"

В заключение Георги Шарков поясни, че сме близо до достигането на така наречената "точка на сингулярност" - моментът, когато компютърът ще задмине интелектурално човека.

"Този момент в нашата история не трябва да се възприема като заплаха, а точно обратното - продължение на битието ни ... както с устройствата и лаптопите, с които боравим, работим и общуваме всеки ден. Когато се съберат всички аспекти на изкуствения интелект от физическата автономност, ергономия на движението до разпознавате на реч и образи, то тогава ние сме достигнали този етап от нашата история". 

Целия разговор може да видите във видеото на сайта на Bloomberg TV Bulgaria. 

Всички гости на предаването "Светът е бизнес" може да видите тук.

Всяка новина е актив, следете Investor.bg и в Google News Showcase.
Последна актуализация: 00:12 | 14.09.22 г.
Специални проекти виж още
Най-четени новини
Още от Bloomberg TV виж още

Коментари

1
rate up comment 0 rate down comment 0
Shadow1
преди 4 години
Може да се регулира само софтуера който се прави с добри цели, а ние от него няма какво да се боим. Този който се прави с лоши цели не може никак да се регулира въпреки че точно той е опасния, колкото правенето на вируси в момента е урегулирано толкова и злонамерения изкуствения интелект ще е след години, което за мен обезсмисля статията.
отговор Сигнализирай за неуместен коментар
Финанси виж още