«Компьютерный сверхразум надо научить человеческим глупостям»
Logo
Cover

Искусственный интеллект надо дополнить искусственной глупостью — тогда алгоритмы станут более человечным. Главное предназначение новой компоненты машинного обучения — уберечь человечество от уничтожения компьютерным сверхразумом.

Войны роботов и уничтожение человечества — одни из самых распространенных страхов, связанных с внедрением искусственного интеллекта. «Терминатор», «Матрица» и множество других фильмов и книг приучают людей к мысли о том, что однажды ИИ может решить сохранить планету, истребив конкурирующий разумный вид — людей.

Для этого, впрочем, сначала предстоит появиться такому сверхразуму — который в англоязычной литературе называют «Artificial general intelligence». Сейчас ИИ-алгоритмы учатся работать быстрее и скрупулезнее людей, выполняя определенные задачи. В отличие от нынешних программ, AGI должен быть осознанным и быть лучше человека во многих испытаниях.

Next Web задается вопросом о том, как развивать такой всемогущий ИИ без риска быть однажды уничтоженными. При этом необходимо учитывать, что ограничить его производительность с помощью «железа» или правил поведения — ненадежное решение. Если ИИ не сможет взломать себя сам, то вполне может уговорить на это кого-либо из людей.

Исследователи Михаэль Трацци и Роман Ямпольский предлагают обратить на благо человечества концепцию «искусственной глупости» (ИГ).

Они указывают, что эта черта делает современные алгоритмы более человечными — взять хотя бы прошедшего тест Тьюринга чатбота Eugene Goostman. Создавшие его программисты из России и Украины представили бота 13-летним мальчиком, что объясняло и орфографические ошибки, и узкий кругозор — в итоге сыграв на руку программе.

Если сейчас «искусственная глупость» делает алгоритмы более естественными, в будущем это может спасти весь наш вид от истребления.

Трацци и Ямпольский рассматривают перспективный путь внедрения ИГ в компьютерный сверхразум. По их мнению, в процессе обучения AGI должен развить в себе нечто похожее на человеческие когнитивные искажения — например, склонность снова и снова повторять определенные ошибки при вынесении решений.

Еще одним возможным выходом может стать наделение ИИ любопытством. Эксперимент лаборатории OpenAI свидетельствует, что пытающийся получить новые впечатления алгоритм скатывается от обучения новым навыкам к просмотру ТВ.