На прошлой неделе OpenAI рассказала о GPT-2 — алгоритме генерации неотличимых от настоящих текстов, который быстро стал противоречивым. Обучившись на 40 ГБ текстов, найденных в интернете, GPT-2 быстро добился превосходных результатов в области естественного языка: понимал контекст высказывания, отлично переводил тексты, выдерживал заданный стиль.
Однако разработчики не выложили всю модель в открытый доступ из опасения, что эту технологию будут применять со злым умыслом, например, для создания фейковых новостей. В итоге научная общественность не имеет возможности подтвердить или повторить результаты.
Франсуа Шолле, специалист по глубокому обучению в Google и автор книги «Глубокое обучение на Phyton», назвал выпуск GPT-2 безответственной, паникерской пиар-тактикой и рекламным трюком.
Другие указывают, что для некоммерческой организации вроде OpenAI закрывать доступ к своей работе крайне странно независимо от направления исследования.
Выдающиеся достижения ИИ в области постижения тонкостей человеческого языка заслуживают внимания, но своеобразие GPT-2 не в этом. Система затрагивает важный вопрос, который беспокоит многих в сообществе разработчиков машинного обучения: следует ли давать свободный доступ к ИИ, который можно использовать во зло?
Об этом поговорили участники передачи This Week in ML & AI, на которую были приглашены ученые из OpenAI — Аманда Аскелл и Майлз Брандейдж. Они объяснили осторожную позицию OpenAI неуверенность в направлениях использования модели.
И заверили, что организация рассмотрит возможность ограниченного доступа для избранных исследователей и компаний.
Анима Анандкумар, директор по машинному обучению в Nvidia, назвала подход OpenAI контрпродуктивным и вредящим студентам и ученым, которые не имеют доступа к ресурсам. По ее мнению, ограничение доступа ничем не поможет, так как существует масса открытых источников, и при необходимости каждый может воспользоваться идеей, которая была опубликована в статье или в блоге.
Возможно, сотрудники OpenAI ведут себя так из опасения навлечь гнев Конгресса США. В прошлом году законодатели выразили серьезное беспокойство распространением технологии создания фальшивых видео и просили разведывательное управление предоставить полный отчет о ее возможностях.