IMG Investor Dnes Bloombergtv Bulgaria On Air Gol Tialoto Az-jenata Puls Teenproblem Automedia Imoti.net Rabota Az-deteto Start.bg Posoka Boec Megavselena.bg Chernomore

Безопасно ли е да качвате снимките си в ботове с изкуствен интелект?

Потребителите на изкуствен интелект предполагат определено ниво на поверителност. Това може да бъде опасно предположение.

16:48 | 04.09.25 г.
Снимка: unsplash.com
Снимка: unsplash.com

Хората все по-често се обръщат към чатботове с изкуствен интелект (AI) не само с писмени запитвания, но и с визуални – качват снимки, за да идентифицират обрив, да разпознаят растение в задния двор или да редактират снимка за LinkedIn.

Но с все по-честото използване на изображения в общуването с изкуствен интелект, експерти по защита на личните данни предупреждават, че потребителите може да споделят повече, отколкото осъзнават, пише Wall Street Journal

AI компаниите често представят качването на изображения като временни данни. Какво се случва с тези изображения след края на общуването обаче, може да бъде много по-неясно. Качването на изображения в AI крие рискове поради технически уязвимости, непоследователни и неясни политики на AI компаниите и неизвестни начини на използването им в бъдеще.

„Важно е да избягвате да качвате снимки, които искате да сте сигурни, че никой освен вас няма да види“, казва Джейкъб Хофман-Андрюс, старши технолог в Electronic Frontier Foundation, група за защита на цифровите права. Но реалността е, че твърде много потребители на изкуствен интелект (точно като потребителите на интернет) приемат, че имат определено ниво на поверителност, което всъщност може да не съществува.

Повече от това, което виждате

Хофман-Андрюс казва, че потребителите трябва да мислят за AI чатботовете като за друго място, където се съхраняват вашите изображения, подобно на iCloud или Google Photos, но с допълнителни рискове. Най-основният от тези рискове е сигурността. Подобно на другите места, AI чатботовете могат да бъдат хакнати, а потребителските акаунти – да бъдат компрометирани.

Но не е само това. Самите AI компании имат достъп до потребителски данни и изображения. За да оценят ефективността на своите AI модели, компаниите редовно преглеждат извадка от взаимодействия с потребителите, включително такива с качени снимки. Това се нарича „надзор от човек в цикъла“. Това означава, че дори ако потребител изтрие разговор с чатбот, този чат и всички негови визуални и други елементи може вече да са били маркирани за преглед от човек.

Това може да изглежда безобидно, ако качвате, да речем, снимка на градинско растение или близък план на ръката си с обрив. Проблемът е, че изображенията разкриват много повече информация, отколкото потребителите имат намерение да споделят. Те съдържат вградени метаданни, които включват подробности като мястото и времето, когато е направена снимката.

В същото време снимките с висока разделителна способност, съдържащи фонов пейзаж, могат да уловят четливи изображения на документи или кредитни карти, които се намират на бюро или тезгях. В снимката може да има и идентифициращи подробности за домове и работни места или биометрични данни на други хора.

Резултатът е, че ако AI компаниите не премахнат метаданните от качените изображения, те се оказват с богатство от данни за вашите навици, местоположения и други неща – информация, която компанията може да използва за подобряване на своите AI модели, казва Дженифър Кинг, изследовател по политиките за поверителност и неприкосновеност на данните в Института за изкуствен интелект, ориентиран към човека, към Станфордския университет.

Това означава, че в някои случаи потребителите на чатботове несъзнателно предоставят безплатни данни за обучение на AI компаниите – нещо, с което може би не биха се съгласили, ако имаха избор.

Каква е политиката?

Всички тези метаданни и друга идентифицираща информация съществуват наред с непоследователни политики относно начина, по който компаниите боравят със самите изображения.

Проучването сред AI разработчиците, проведено от Кинг, установява различни подходи. Microsoft не обучава моделите си, използвайки изображения, въведени в своя AI асистент Copilot. Според проучването Anthropic – производителят на AI моделите Claude, също не го прави. OpenAI, създателят на ChatGPT, обаче обучава своите, използвайки всички данни, освен ако потребителите не се откажат. Представители на Microsoft и OpenAI са потвърдили тези подходи. Представител на Anthropic казва, че компанията е актуализирала политиката си, за да изисква от потребителите да решават дали данните им могат да бъдат използвани за обучение и усъвършенстване на системите.

Изследването на Кинг също така установява, че потребителите на Meta AI в САЩ нямат възможност да се откажат. Представител на Meta Platforms не е потвърдил резултатите от изследването на Кинг и посочва центъра за поверителност на Facebook за политиката на Meta относно използването на информация за генеративни AI модели и функции.

Докато снимка от почивка или рецепта може да се слее с огромното количество данни, които тези AI системи обработват, някои изображения имат по-голям риск да бъдат запомнени от системите и по този начин да се появят в резултатите на чатбота в разпознаваема форма. Хофман-Андрюс от Electronic Frontier Foundation посочва две категории: изображения, които се появяват хиляди пъти онлайн, като известната фотография „Афганистанско момиче“, която много от ранните AI системи могат да възпроизведат перфектно; и изображения с много отличителни характеристики, които ги правят статистически изключения.

За типичните потребители на AI е малко вероятно AI системите да възпроизвеждат точно техните лични снимки, казва Хофман-Андрюс. Но AI системата не се нуждае от перфектно възпроизвеждане, за да създаде проблем с поверителността. Тя може да генерира изображение, което е достатъчно близко, за да бъде разпознаваемо – такова, което включва същото отличително родилно петно, видимо медицинско състояние или комбинация от характеристики, които биха могли да направят това възпроизвеждане разпознаваемо за другите.

Други изображения, които са изложени на риск да бъдат запомнени от AI системи, са тези, които се използват за генериране на аниме герои, застаряване на лицата на хора или създаване на професионални портретни снимки. Причината е, че тези приложения обикновено изискват ясни, висококачествени изображения на лицето на човек – уникално изображение с биометрични данни.

Дори за потребители, които се грижат за поверителността си, объркващи настройки по подразбиране или неясни интерфейси също могат да доведат до нежелано разкриване на изображения. Когато Meta пусна своето AI чатбот приложение по-рано тази година например, потребителите откриха, че някои разговори – заедно с качени снимки и истински имена – се публикуват в публичен фийд, видим за всеки, който използва приложението. Представител на Meta казва, че е имало многоетапен процес и потребителите са могли да премахнат споделянето на чатове по всяко време.

Нежелана употреба

Дългосрочният риск е, че качваните днес изображения могат в крайна сметка да бъдат използвани по начини, които не съответстват на първоначалната цел, казва Сара Майърс Уест, съдиректор на AI Now Institute, който проучва въздействието на изкуствения интелект върху обществото.

Microsoft, Anthropic, Meta и OpenAI заявяват, че не позволяват разпространението на данните от трети страни.

Според Уест макар компаниите да не продават данни на трети страни, те често запазват качените изображения. А потребителите не могат да предвидят как ще бъдат използвани тези изображения с развитието на възможностите на изкуствения интелект и бизнес стратегиите.

„Всичко, което качвате, ще има живот, който далеч надхвърля момента, в който използвате системата“, казва тя.

Всяка новина е актив, следете Investor.bg и в Google News Showcase.
Последна актуализация: 16:48 | 04.09.25 г.
Най-четени новини
Още от Новини и анализи виж още

Коментари

Финанси виж още