Hitech logo

Идеи

Новый протокол безопасности гарантирует защиту данных в облачных серверах

TODO:
Георгий Голованов29 сентября, 10:07

Модели глубокого обучения, которые проникают в различные области, от медицины до финансов, требуют значительных вычислительных мощностей и мощных облачных серверов. Однако риски утечки данных пользователей из облачных хранилищ мешают распространению этой технологии. Специалисты из США разработали протокол безопасности, основанный на квантовых свойствах света. Он гарантирует, что данные, отправленные на сервер, остаются в защищенными на протяжении всего времени вычислений.

Самые интересные технологические и научные новости выходят в нашем телеграм-канале Хайтек+. Подпишитесь, чтобы быть в курсе.

«Модели глубокого обучения, такие как GPT-4, обладают беспрецедентными способностями, но требуют громадных вычислительных ресурсов. Наш протокол позволяет пользователям использовать эти мощные модели, не жертвуя приватностью данных или проприетарной природой самих моделей», — сказал Кфир Сулимани из Массачусетского технологического института, ведущий автор исследования.

Условия облачных вычислений, которые стал предметом исследования ученых, характеризуются наличием двух участников: клиента, обладающего конфиденциальными данными, и центрального сервера, контролирующего модель глубокого обучения. Клиент хочет использовать модель для составления прогноза, не раскрывая приватную информацию, которую пересылает на сервер. А сервер не хочет раскрыть запатентованную информацию о модели. Таким образом, обеим сторонам есть что скрывать.

Решением стало использование квантовых свойств света, пишет MIT News. Сервер кодирует определенные параметры нейросети — вес узлов — в оптическом поле при помощи лазеров и отправляет эту информацию клиенту, который совершает операции с пользовательскими данными. Данные остаются защищены от сервера. В то же время, протокол безопасности позволяет клиенту измерить только один результат, и это не дает клиенту скопировать вес узлов — мешает квантовая природа света. Как только клиент передает результат вычислений на следующий уровень, протокол отменяет предыдущий. Информация о модели остается защищенной.

«Вместо того чтобы измерять весь входящий свет сервера, клиент измеряет только тот, который необходим для запуска нейросети и отправки результата на следующий уровень. Затем клиент посылает остаточный свет назад, в сервер для проверки безопасности», — пояснил Сулимани.

Согласно утверждению о невозможности создания идеальной копии неизвестного квантового состояния (или теореме о запрете клонирования), клиент неизбежно вносит крошечные погрешности в модель, измеряя ее результат. Когда сервер получает свет от клиента, он оценивает эти погрешности и определяет, произошла ли утечка. Сам свет при этом не раскрывает данные клиента.

Испытания технологии показали, что система гарантирует безопасность сервера и клиента, позволяя при этом нейросети достичь 96% точности.

Учитывая стоимость и низкую скорость обучения больших языковых моделей (БЯМ), исследователи и разработчики активно обсуждают, в состоянии ли увеличение циклов вычислений повысить производительность БЯМ без необходимости в их переобучении. В новой статье специалисты из DeepMind и Калифорнийского университета предложили новые способы повышения производительности БЯМ путем стратегического распределения ресурсов.