Роботът и по-широките отражения на изкуствения интелект трябва да бъдат интелегентен помощник на човека, дори и негов партньор. Прекалената регулация в този сектор рискува да убие всички иновации в тази насока. Това коментира Георги Шарков, ръководител на Лаборатория по киберсигурност в "София Тех парк" и съветник към Министерство на отбраната, в предаването "Светът е бизнес" по Bloomberg TV Bulgaria.
"Не случайно казвам, шегувайки се, че не виждаме автономни превозни средства по улиците на Европа, тъй като законодателството не ги позволява. Подобни автомобили, макар и прототипи, има в САЩ и те дори са европейско производство на марки като BMW и Volkswagen"
По думите на Георги Шарков етичните норми около изкуствения интелект трябва да бъдат базирани отчасти на трите принципа на американския писател на научно-фантастични романи Айзък Азимов, които макар и плод на фантастиката, са достатъчно поучителни.
"Човекът винаги трябва да бъде в средата или в ядрото на всяка регулация и бъдещата разбработка на тази технология. Въпросът не е само роботът да изпълнява заповедите на неговия оператор, а по-скоро всичко, което извършва да бъде съобразено с безопасността, целите и ползите на човечеството."
На въпрос относно военното приложение на тази технология гостът коментира, че се е работи в тази насока още преди пандемията, но изкуственият интелект опира само до идентифициране и анализиране на заплахата - решението за удар се взима от човешко лице
"Дадена страна може да има 30 военни робота или дрона, но отговорното лице е този, който оторизира удара"
В заключение Георги Шарков поясни, че сме близо до достигането на така наречената "точка на сингулярност" - моментът, когато компютърът ще задмине интелектурално човека.
"Този момент в нашата история не трябва да се възприема като заплаха, а точно обратното - продължение на битието ни ... както с устройствата и лаптопите, с които боравим, работим и общуваме всеки ден. Когато се съберат всички аспекти на изкуствения интелект от физическата автономност, ергономия на движението до разпознавате на реч и образи, то тогава ние сме достигнали този етап от нашата история".
Целия разговор може да видите във видеото на сайта на Bloomberg TV Bulgaria.
Всички гости на предаването "Светът е бизнес" може да видите тук.
преди 4 години Може да се регулира само софтуера който се прави с добри цели, а ние от него няма какво да се боим. Този който се прави с лоши цели не може никак да се регулира въпреки че точно той е опасния, колкото правенето на вируси в момента е урегулирано толкова и злонамерения изкуствения интелект ще е след години, което за мен обезсмисля статията. отговор Сигнализирай за неуместен коментар