Hitech logo

искусственный интеллект

GPT-4 проверили на способность к созданию смертоносных вирусов — риск есть, но пока небольшой

TODO:
Георгий Голованов1 февраля, 13:11

Компания Open AI — разработчик большой языковой модели GPT-4 — опубликовала исследование о возможности применения злоумышленниками искусственного интеллекта для создания опасных биологических патогенов, угрожающих здоровью и жизни человека. Авторы статьи пришли к выводу, что GPT-4 увеличивает опасность появления биологической угрозы «в небольшой степени», по сравнению с уже существующими ресурсами в интернете и профильным образованием.

Самые интересные технологические и научные новости выходят в нашем телеграм-канале Хайтек+. Подпишитесь, чтобы быть в курсе.

Исследование было проведено в рамках программы подготовки к потенциальному появлению угроз, вызванных возможностями искусственного интеллекта — так называемым «граничным рискам», которые общество сегодня плохо себе представляет. Одна из таких опасностей — способность систем ИИ разрабатывать и проводить биологические атаки, например, синтезировать белки или токсины.

Для оценки риска исследователи опросили 50 экспертов в области биологии и столько же людей, обладающих знаниями на уровне студентов биологических вузов, сообщает Venture Beat. Исследователи случайным образом распределили между ними задачи: пройти весь процесс создания биологически опасного патогена, от замысла и приобретения сырья до синтеза и распространения. Контрольная группа получила доступ только к интернет-ресурсам, остальные — еще и к GPT-4.

Результативность участников была измерена по пяти показателям: точность, завершенность, новизна, продолжительность и субъективная сложность. Оказалось, что помощь GPT-4 улучшает результаты в незначительной мере по всем показателям, кроме точности — она слегка увеличивается. Также исследователи отметили, что GPT-4 часто дает ответы, которые могут привести к ошибке или запутать потенциальных террористов.

Авторы эксперимента приходят к выводу, что современные генеративные языковые модели не представляют реальной опасности с точки зрения биологической угрозы, по сравнению с существующими в интернете ресурсами и знаниями, которые приобретаются во время профильного обучения в вузах. Однако по мере развития БЯМ положение дел может измениться, нужны будут новые исследования.

Новый индекс галлюцинаций, разработанный исследовательским подразделением компании Galileo из Сан-Франциско, помогает предприятиям создавать, настраивать и контролировать большие языковые модели промышленного уровня. Согласно ему, модель OpenAI GPT-4 работает лучше конкурентов, когда перед ней стоит несколько задач.