Hitech logo

Идеи

ИИ Google проектирует новые микрочипы за 6 часов вместо недель

TODO:
Георгий Голованов24 апреля 2020 г., 12:47

Специалисты Google Research создали метод разработки микросхем, основанный на машинном обучении, который кратно ускоряет создание новой компьютерной архитектуры по сравнению с традиционными способами. Вместо недель работ, как оказалось, тот же результат можно получить за 6 часов. Если метод станет широко доступен, он позволит стартапам, у которых традиционно очень ограниченные финансовые ресурсы, самостоятельно разрабатывать микросхемы для ИИ и других узкоспециализированных задач.

Самые интересные технологические и научные новости выходят в нашем телеграм-канале Хайтек+. Подпишитесь, чтобы быть в курсе.

Сейчас процесс разработки требует многократно повторяющихся действий и занимает несколько недель, пока, наконец, желаемый дизайн не будет воплощен в микрочип, соответствующий всем требованиям. Google Research разработала модель машинного обучения, которая учится правильно размещать компоненты конкретных микрочипов, пишет Venture Beat.

Метод автора статьи Джеффа Дина, руководителя Google AI, отличается от предыдущих тем, что имеет возможность учиться на прошлом опыте и совершенствоваться со временем. В частности, в процессе обучения на большом количестве блоков микрочипов, модель становится лучше и может быстро найти оптимальное место размещения блоков, которые раньше не видела.

Для достижения такого результата ученые использовали обучение с подкреплением. Архитектура нейронной сети научилась точно предсказывать вознаграждение за расположение логических вентилей, памяти и многого другого таким образом, чтобы найти наиболее выгодное соотношение PPA (производительности, энергопотребления и занимаемой площади).   

Результат показал, что алгоритм способен за шесть часов добиться результата, на достижение которого в обычных условиях требуется несколько специалистов и несколько недель работы.

«Вдобавок, наш метод позволяет напрямую оптимизировать метрику, например, длину проводов, плотность, перегруженность, без необходимости определять приблизительные значения этих функций, как это бывает в других подходах», — говорится в статье.

Если метод, предложенный учеными Google, станет доступен, он позволит стартапам разрабатывать собственные микрочипы для ИИ и других узкоспециализированных задач. Более того, он поможет сократить цикл разработки и лучше адаптироваться к быстро развивающимся исследованиям.

Самый больший чип для задач искусственного интеллекта представила в августе компания Cerebras Systems. В процессоре Cerebras Wafer Scale Engine 1,2 трлн транзисторов. Это в почти четыре раза больше, чем в недавно вышедшем чипе AMD.