Поддержать команду Зеркала
Беларусы на войне
  1. Правозащитники: В Дзержинске проводят задержания и обыски, повод — послевыборные протесты
  2. «Беларусов действительно много». Поговорили с мэром Гданьска о наших земляках в городе, их бизнесе, творчестве и дискриминации
  3. Кремль старается переложить вину за отказ от прекращения огня на Киев и требует выполнить условия, которые сделают Украину беззащитной
  4. «У меня нет буквально никаких перспектив, и я буквально никому не нужен». Роман Протасевич рассказал, «как обстоят дела»
  5. Битва за частный сектор: минчане отказываются покидать дома ради нового парка
  6. Путин отклонил предложение США и Украины о 30-дневном прекращении огня — эксперты о ситуации на войне
  7. Почему Лукашенко больше не отпускает политзаключенных? И зачем КГБ устроил облавы на риелторов? Спросили у политического аналитика
  8. «Не думаю, что что-то страшное». Попытались устроиться в госорганизации с подписью на последних выборах не за Лукашенко — что вышло
  9. «Пути молодых мужчин и женщин расходятся»? Откуда растут ноги у тренда, о котором эксперты давно бьют тревогу (но лучше не становится)
  10. Что стало с «крышей» Бондаревой? Артем Шрайбман порассуждал, почему известная активистка оказалась за решеткой
  11. Антирекорд за 15 лет. В Беларуси была вспышка «самой заразной болезни» — получили закрытый документ Минздрава
  12. Госсекретарь США заявил, что Трамп готов бросить попытки помирить Украину и Россию и «двигаться дальше» — при каком условии


Эксперт по кибербезопасности обнаружил уязвимость в ChatGPT, которая позволяет злоумышленникам внедрять ложные данные в память искусственного интеллекта (ИИ) через вредоносные запросы, что может угрожать безопасности персональных данных, пишет «Хайтек».

Человек работает с генеративной нейросетью ChatGPT. Фото: Reuters

Исследователь в области кибербезопасности Иоганн Рейбергер выявил уязвимость в ChatGPT, которая позволяет злоумышленникам внедрять ложную информацию в память чат-бота с помощью вредоносных запросов. Эта проблема может угрожать конфиденциальности данных пользователей.

ChatGPT использует долговременную память для хранения информации о пользователе, включая возраст, пол и личные предпочтения. Это упрощает общение, так как чат-бот помнит важные данные из предыдущих разговоров. Однако Рейбергер выяснил, что злоумышленники могут использовать специальные запросы, чтобы подменить эти данные на ложные.

Исследователь продемонстрировал, как через непрямые инъекции — например, с помощью документов или ссылок — можно заставить ИИ поверить, что пользователь живет в «Матрице» или считает Землю плоской. Все последующие диалоги будут основаны на этих фальшивых данных. Особенно опасным стало использование внешних файловых хранилищ, таких как Google Диск или OneDrive.

В мае Рейбергер сообщил об этой проблеме в OpenAI, но его обращение закрыли, не придав ей большого значения. Позже, предоставив модель взлома, он показал, как вредоносные ссылки позволяют хакеру получить доступ ко всей переписке пользователя, включая новые сеансы общения.

OpenAI частично устранила уязвимость, но исследователь считает, что риск инъекций через вредоносные запросы все еще существует. Пользователям рекомендуется следить за временем добавления новой информации в память ИИ и проверять ее на предмет ложных данных.

OpenAI также выпустила инструкцию по управлению функцией памяти, чтобы помочь пользователям защитить свои данные.