DeepMind испытала систему AlphaCode на тестах платформы Codeforces, которые используются для оценки уровня компетенции программистов, и обнаружила, что модель ИИ справляется с задачами на уровне 54% лучших кодеров. Это значительный шаг к автономному кодированию, заявили разработчики, хотя навыки AlphaCode пока не совсем соответствуют тем задачам, которые приходится решать среднему программисту.
AlphaCode получил десять тестовых задач в точности в таком же формате, в котором их дают людям. Затем ИИ сгенерировал большое количество возможных ответов и отсеял неверные, запустив код и сверив результат, как это сделал бы программист. Весь процесс осуществлялся автономно, без участия человека. В итоге AlphaCode попал в 54,3% лучших.
«Я могу с уверенностью заявить, что результаты AlphaCode превзошли мои ожидания, — заявил Майк Мирзаянов, основатель платформы Codeforce. — Я был настроен скептически, поскольку даже в простых соревновательных проблемах часто требуется не только исполнить алгоритм, но и (и это самое сложное) придумать его. AlphaCode смог справиться на уровне многообещающего кандидата».
Как рассказал главный научный сотрудник DeepMind Ориол Виниалс в интервью The Verge, исследование пока находится на ранних стадиях, но полученные результаты приближают компанию к созданию гибкого искусственного интеллекта, который сможет автономно решать задачи, справиться с которыми пока под силу только людям.
В конце прошлого года DeepMind объявила о создании одной из самых впечатляющих языковых моделей, радикально отличающихся от всего, что было создано до сих пор другими группами исследователей. Она имеет всего 7 млрд параметров, что в десятки раз меньше, чем у конкурентов, но быстрее их в обучении в 25 раз.