Анима Анандкумар, Nvidia
Анандкумар, которая раньше занимала должность главного научного сотрудника AWS, присоединилась к команде Nvidia в 2018. По ее мнению, в ближайшие месяцы мы увидим прогресс в итеративных алгоритмах, методах самоконтроля и самообучения моделей — другими словами, в ИИ, которые совершенствуются через самообучение на неразмеченных данных.
В 2020 сообществу разработчиков ИИ придется разрабатывать модели, предназначенные для узкоспециальных задач и работать в тандеме с экспертами в этих отраслях промышленности.
Кроме того, исследователям нужно обратить особое внимание на проблему приватности данных, и не только в области распознавания лиц. Эта тема получила наибольшее освещение, потому что в ней нарушения заметнее всего, но другие методы ИИ также требуют внимания.
2019 был годом языковых моделей, сказала Анандкумар. Пока ИИ не может вести полноценный диалог с человеком, но в 2020 мы увидим больше прогресса в этом направлении.
Дарио Гил, IBM
Гил возглавляет группу ученых, активно консультирующих Белый Дом и другие организации по всему миру. В 2019, считает он, самым значительным прорывом стали генеративные модели и рост качества машинного языка.
В новом году продолжат развиваться системы обучения с сокращенно-прецизионной архитектурой. «По большому счету, обучение сетей глубокого обучения все еще ведется неэффективно при нынешней архитектуре графических процессоров, — считает Гил. — Так что очень важно фундаментально переосмыслить это. Мы должны улучшить вычислительную эффективность ИИ, чтобы он смог больше».
Он надеется, что в 2020 исследователи создадут точный метод измерения ценности модели, которую планируют использовать на практике. Смещение фокуса внимания с точности ИИ на разработку проверенных систем должно стать главным трендом нового года.
Джефф Дин, Google
Дин двадцать лет проработал в компании, принимал участие в разработке множества алгоритмов и уже почти два года руководит подразделением Google AI. В 2020 он ожидает увидеть прогресс в мультимодальном обучении — ИИ, который учится на различных медиа — и в многозадачном обучении, то есть сетях, созданных для выполнения множества задач одновременно.
Языковая модель BERT, появившаяся в 2018, еще не исчерпала свой потенциал роста. Сейчас она и другие модели, построенные на ней, хорошо работают с сотнями слов контекста, но 10 000 им пока не по плечу. Это одно из интересных направлений, считает Дин.
Недавно Джефф Дин выступал на конференции NeurIPS в Ванкувере. Там он рассказал о своем видении развития машинного обучения и чего ждать от ИИ в следующем году.