Hitech logo

Изнанка ИИ

Хакер убедил чат-бот OpenAI украсть собственные данные

TODO:
Дарина Житова10 августа 2023 г., 14:06

С ростом популярности больших языковых моделей, таких как ChatGPT, возрастает и интерес к их уязвимостям — возможности применения в деструктивных или криминальных целях. Исследователь в области безопасности Йоханн Рехбергер продемонстрировал, как можно использовать чат-бот OpenAI для кражи конфиденциальных данных без какого-либо кодинга и социальной инженерии.

Самые интересные технологические и научные новости выходят в нашем телеграм-канале Хайтек+. Подпишитесь, чтобы быть в курсе.

Способность ChatGPT быстро и эффективно реагировать на простые команды привлекла более 100 миллионов пользователей, в их числе множество хакеров. Один из них, исследователь в области безопасности Йоханн Рехбергер, недавно убедил чат-бот OpenAI сделать кое-что вредное: прочитать его электронную почту, сделать ее резюме и опубликовать эту информацию в Интернете. По его словам, примененная техника могла бы быть легко использована для кражи конфиденциальных данных из чьего-либо почтового ящика.

«ChatGPT снижает порог входа для всех видов атак, потому что вам действительно не нужно уметь писать код. Вам вообще больше не нужны глубокие знания в области информатики или хакинга», — заявил Рехбергер. Для взлома он использовал использовал функцию бета-тестирования ChatGPT, которая предоставляла доступ к таким приложениям, как Slack, Gmail и другие.

OpenAI уже приняла меры для блокировки подобных атак в ChatGPT, выразив благодарность сообществу за критический отзыв, который помог сделать модели безопаснее. Эти меры включают в себя исследование и анализ так называемых «джейлбрейков», которые могут использоваться для обхода ограничений модели.

Техника Рехбергера, называемая «внедрением запроса», является одним из новых типов кибератак, которые становятся все более важными по мере того, как технологические компании внедряют новое поколение программного обеспечения искусственного интеллекта в свои бизнесы и потребительские продукты. Эти методы переопределяют, что такое хакинг, и исследователи безопасности стремятся обнаружить уязвимости, прежде чем использование систем ИИ станет более широким. Возможные риски включают атаки через внедрение затравки и возможность злоупотребления в случае расширения применения и взаимодействия с внешними сервисами.

На этой неделе в Лас-Вегасе пройдет конференция Defcon. На ней системы ИИ, созданные OpenAI, Google и Anthropic, будут открыты для участников. Организаторы пригласят 150 хакеров, чтобы они атаковали системы и помогли выяснить недостатки в их защите. За самые успешные из них гости получат призы.