IMG Investor Dnes Bloombergtv Bulgaria On Air Gol Tialoto Az-jenata Puls Teenproblem Automedia Imoti.net Rabota Az-deteto Blog Start Posoka Boec

Изкуственият интелект - нов инструмент за хакерски атаки и дезинформация

Популярната технология може бъде обучена със зловредни бази от данни и да служи за създаване на фишинг имейли например

08:57 | 06.08.23 г.
Автор - снимка
Създател
Автор - снимка
Редактор
Снимка: Pexels.com
Снимка: Pexels.com

Хакери и пропагандисти използват изкуствен интелект (AI), за да създават злонамерен софтуер, да изготвят убедителни фишинг имейли и да разпространяват дезинформация онлайн, твърди висш служител по киберсигурност на Канада пред Ройтерс. Това е ранно доказателство, че технологичната революция, която се случва в Силициевата долина, се възприема и от киберпрестъпниците.

Ръководителят на Канадския център за киберсигурност Сами Хури сподели преди време в интервю, че неговата агенция е установила, че изкуствен интелект се използва във фишинг имейли или за създаване на конкретни типове имейли, в зловреден код и в дезинформация“. Хури не разкрива подробности или доказателства, но твърдението му, че киберпрестъпниците вече използват AI допълва цялата загриженост относно използването на новъзникващата технология от измамници.

През последните месеци няколко групи за наблюдение на киберпространството публикуваха доклади, предупреждаващи за хипотетичните рискове от AI, особено бързо развиващите се програми, познати като големи езикови модели (LLM), които черпят от огромни масиви от текст, за да създават убедително звучащи диалози, документи и други.

През март Европол публикува доклад, в който се казва, че модели като ChatGPT на OpenAI са направили възможно „имитирането на организация или отделен човек по изключително реалистичен начин, дори само с основни познания по английски език“. През същия месец Британският национален център за киберсигурност написа в блога си, че има риск престъпниците „да използват големи езикови модели, за да им помагат при кибератаки, надхвърлящи настоящите им възможности“.

Експерти по киберсигурност демонстрираха различни възможности за потенциално злонамерена употреба, а сега някои казват, че започват да виждат предполагаемо генерирано от AI съдържание. Миналата седмица бивш хакер заяви, че е открил LLM, обучен със злонамерени материали, и го е помолил да създаде убедителен опит да подмами някого да направи паричен превод.

Езиковият модел е написал имейл с три абзаца, в който моли потенциалната жертва за помощ за плащането на спешна фактура.

„Разбирам, че това може да е кратко предизвестие“, гласи имейлът, „но това плащане е изключително важно и трябва да бъде извършено в следващите 24 часа“.

Хури казва, че макар използването на изкуствен интелект за създаване на злонамерен код все още е в зората си, нараства тревогата, че AI моделите се развиват толкова бързо, че ще е трудно да се овладее техният злонамерен потенциал, преди да бъдат пуснати свободно.

„Кой знае какво се задава“, коментира той.

Всяка новина е актив, следете Investor.bg и в Google News Showcase.
Последна актуализация: 08:40 | 06.08.23 г.
Специални проекти виж още
Още от Новини и анализи виж още

Коментари

Финанси виж още