IMG Investor Dnes Bloombergtv Bulgaria On Air Gol Tialoto Az-jenata Puls Teenproblem Automedia Imoti.net Rabota Az-deteto Blog Start Posoka Boec

Безопасно ли е да споделяме лична информация с чатботове?

Проблемите с поверителността излизат на преден план с навлизането на изкуствения интелект

09:27 | 20.01.24 г.
Автор - снимка
Създател
Снимка: Pexels.com
Снимка: Pexels.com

Представете си, че сте поставили бележките си от среща с вашия рентгенолог в чатбот с изкуствен интелект и сте го помолили да ги обобщи. По-късно непознат подканва същия чатбот с генеративен изкуствен интелект (AI) да го информира във връзка с опасенията му за рак, а част от вашия предполагаемо личен разговор се предлага на този потребител като част от неговия разговор.

Притесненията относно подобни потенциални нарушения на поверителността са много важни за редица хора в наши дни, докато популярността на чатботовете с генеративен AI нараства. Големият въпрос тук е: безопасно ли е да споделяте лична информация с тези чатботове?

Краткият отговор е, че винаги има риск информацията, която споделяте, да бъде предложена на друг по някакъв начин, но има начини да ограничите този риск, пише Хайди Мичъл за The Wall Street Journal.

За да разберете притесненията, е полезно да помислите как са „обучени“ тези инструменти – как те първоначално се захранват с огромни количества информация от интернет и други източници, като могат да продължат да събират информация от взаимодействието си с потребителите, за да станат потенциално по-умни и по-точни.

В резултат на това, когато попитате чатбота някакъв въпрос, неговият отговор е базиран отчасти на информация, която включва материали, датиращи много преди да има правила относно използването на интернет данни и поверителността. Още по-новият изходен материал е пълен с лична информация на хората, която е разпръсната из мрежата.

Това оставя много възможности личната информация да бъде прехвърлена в материали, с които се обучават чатботове с генеративен изкуствен интелект – информация, която може невеолно да се появи в нечий друг разговор с чатбот или да бъде умишлено хакната или разкрита от зложелатели чрез хитри подкани и въпроси.

„Знаем, че те са били обучени с огромно количество информация, която може, а вероятно и съдържа, чувствителна информация“, коментира Рамая Кришнан, директор на факултета на Block Center for Technology and Society и декан на Heinz College of Information Systems and Public Politics в Университета Карнеги Мелън.

Кришнан казва, че един от основните проблеми е, че никой не е правил независим одит, за да види какви данни за обучение се използват. „Много от доказателства идват от учени, които хакват системите и показват, че личната информация е в данните за обучение“, казва той. „Със сигурност знам за атаки, които доказват, че има някои чувствителни данни в моделите за обучение“.

Професорът допълва, че след като инструментът за изкуствен интелект бъде внедрен, той обикновено продължава да се обучава от взаимодействията с потребителите, като усвоява и съхранява всяка информация, която те му подават.

Освен това в някои случаи служители четат някои разговори, които потребителите водят с чатботове. Това се прави отчасти за улавяне и предотвратяване на неподходящо поведение и за подпомагане точността и контрола на качеството на моделите, споделят експерти, както и за решаване коя подгрупа от разговори компаниите искат AI да ползва за обучение.

Случват се неща

Притесненията за поверителността не са само на теория. Има докладвани случаи, когато поверителността на информация е била неволно разкрита на потребителите. Миналия март OpenAI разкри уязвимост, която е позволила на някои потребители на ChatGPT да видят заглавията на чужди чатове в услугата и също така за кратко е могла да излага данни, свързани с плащанията на някои потребители, включително имейл адреси и последните четири цифри на кредитните карти. Това беше в резултат на грешка в софтуер с отворен код (което означава, че е достъпен безплатно за преглед и промяна от всеки), който е ползван в обучението на инструмента.

Чатботовете също са уязвими за умишлени атаки. Например някои изследователи наскоро откриха лесни начини да заобиколят ограниченията и да разкрият лична информация, събрана от големи езикови модели, в това число имейли.

Последна актуализация: 09:27 | 20.01.24 г.
Специални проекти виж още
Още от Новини и анализи виж още

Коментари

Финанси виж още