Hitech logo

Искусственный интеллект

OpenAI выдаст ограниченный доступ к ИИ-генератору фейковых новостей

TODO:
Георгий Голованов25 февраля 2019 г., 12:45

Алгоритм для создания текстовых фейков, разработанный некоммерческой организацией OpenAI, навлек на нее критику специалистов. В первую очередь, из-за того, что авторы не предоставили к нему доступ, опасаясь, что их изобретение будут использовать во вред.

Самые интересные технологические и научные новости выходят в нашем телеграм-канале Хайтек+. Подпишитесь, чтобы быть в курсе.

На прошлой неделе OpenAI рассказала о GPT-2 — алгоритме генерации неотличимых от настоящих текстов, который быстро стал противоречивым. Обучившись на 40 ГБ текстов, найденных в интернете, GPT-2 быстро добился превосходных результатов в области естественного языка: понимал контекст высказывания, отлично переводил тексты, выдерживал заданный стиль.

Однако разработчики не выложили всю модель в открытый доступ из опасения, что эту технологию будут применять со злым умыслом, например, для создания фейковых новостей. В итоге научная общественность не имеет возможности подтвердить или повторить результаты.

Франсуа Шолле, специалист по глубокому обучению в Google и автор книги «Глубокое обучение на Phyton», назвал выпуск GPT-2 безответственной, паникерской пиар-тактикой и рекламным трюком.

Другие указывают, что для некоммерческой организации вроде OpenAI закрывать доступ к своей работе крайне странно независимо от направления исследования.

Выдающиеся достижения ИИ в области постижения тонкостей человеческого языка заслуживают внимания, но своеобразие GPT-2 не в этом. Система затрагивает важный вопрос, который беспокоит многих в сообществе разработчиков машинного обучения: следует ли давать свободный доступ к ИИ, который можно использовать во зло?

Об этом поговорили участники передачи This Week in ML & AI, на которую были приглашены ученые из OpenAI — Аманда Аскелл и Майлз Брандейдж. Они объяснили осторожную позицию OpenAI неуверенность в направлениях использования модели.

И заверили, что организация рассмотрит возможность ограниченного доступа для избранных исследователей и компаний.

Анима Анандкумар, директор по машинному обучению в Nvidia, назвала подход OpenAI контрпродуктивным и вредящим студентам и ученым, которые не имеют доступа к ресурсам. По ее мнению, ограничение доступа ничем не поможет, так как существует масса открытых источников, и при необходимости каждый может воспользоваться идеей, которая была опубликована в статье или в блоге.

Возможно, сотрудники OpenAI ведут себя так из опасения навлечь гнев Конгресса США. В прошлом году законодатели выразили серьезное беспокойство распространением технологии создания фальшивых видео и просили разведывательное управление предоставить полный отчет о ее возможностях.