— Какие аспекты искусственного интеллекта сейчас наиболее развиты?
— Если брать узкоспециализированные области, типа распознавания лиц, то они наиболее точные. Но все зависит от определенного кейса. Даже с лицами может быть много проблем. Например, использовать распознавание лиц в аэропортах, чтобы отслеживать террористов, довольно сложно. Потому что в таком потоке появляются миллионы лиц, а вы ищете маленькую группу конкретных людей. Даже если технология сама по себе достаточно точна, каждый раз, когда она распознает якобы террориста, скорее всего, это ложная тревога. Это происходит потому, что большая часть людей, которых видит система — не террористы (негативные примеры), а значит, ложные тревоги будут преобладать в любом случае.
Например, нейросеть Google распознавала афроамериканцев как горилл. Компании должны осознавать, что, когда они внедряют такие технологии, могут быть ошибки: когда вы в лаборатории тестируете технологии, это не означает, что в реальности будет так же.
Чтобы избежать проблем при использовании глубокого обучения, на мой взгляд, нужно собирать правильную информацию, и как можно больше. Чем больше данных ты наберешь, тем лучше. Почему технология не работала в случае с Google? Потому что данные, на которых они тренировали модель, не соответствовали той информации, которую будут использовать конечные пользователи. То есть, если система не получила достаточно релевантных изображений афроамериканцев и других представителей различных расовых типов, то на выходе она не будет хорошо их распознавать.
— Какие еще проблемы в этой области вы видите?
— Многие системы распознавания лиц были натренированы на так называемых законсервированных наборах данных. Но распознавание в жизни намного сложнее.
Для того, чтобы решить эту проблему, на мой взгляд, нужно создать физических роботов, которые не только воспринимают изображения, которые были для них подготовлены, но смогут двигаться и взаимодействовать с внешним миром и принимать самостоятельные решения.
Тогда им не нужен будет постоянный контроль со стороны человека — учителя, который будет определять картинки за ИИ. Сейчас у нас нет выверенных методов подобного обучения. Другие проблемы связаны с тем, как создать алгоритмы, способные к рассуждениям со здравым смыслом, подобно человеку.
— Достаточно ли сейчас данных для адекватного обучения ИИ?
— Мне кажется, нет. Но тут все зависит от того, какие цели вы преследуете. Если вы просто хотите построить систему, которая распознает рукописные цифры, то, конечно, данных вам хватит.
Но если ваша цель — создать нейросеть, которая распознает практически все объекты в мире, например, может описывать то, что видит, подобно пятилетнему ребенку, то, конечно, данных вам не хватит.
Никто не знает, сколько данных будет достаточно. Когда исследователи ИИ спорят о том, что сейчас ИИ-технологии еще далеки от человеческого интеллекта, они опираются на то, сколько примеров нужно человеку. Но сама нейросеть намного глупее человека просто потому, что ей нужно больше примеров для обучения.
— Знаем ли мы о нашем интеллекте достаточно, чтобы уже создавать на его основе искусственный?
— Я считаю, что да. Возьмем, к примеру, аналогию с самолетами. Чтобы строить самолеты, не нужно понимать, как летают птицы, нужно лишь знать базовые принципы аэродинамики. Самолеты ведь сейчас летают не по тому же принципу, что и птицы.
В случае с разработкой ИИ то же самое: если вы понимаете базовые принципы обучения, то можете создать систему, которая учится, ведет себя разумно в определенной среде и может решать какие-то задачи, и необязательно будет делать это подобно человеку.
— Продолжая разговор о распознавании лиц. Многие считают, что это принесет больше вреда, чем пользы, так как позволит государству следит за гражданами. Что вы думаете на этот счет?
— Беспокойство, безусловно, оправдано. Раньше я считала, что как ученый должна отвечать, что это не моя работа думать об этих нюансах (смеется). Пусть общество решает этот вопрос. Сначала мы должны улучшить технологию и внедрить ее как можно в большее количество сценариев, и по ходу уже решать все этические и социальные проблемы и сложности. Вы слышали о Deepfake? Это технология, которая позволяет накладывать лицо одного человека на тело другого, например, на каком-то видео. Выглядит, конечно, очень футуристично. Но ее распространение вызвало большой резонанс. Например, технология может использоваться в грязных политических кампаниях: можно сделать так, что какой-то политик скажет что-то, чего в действительности не говорил. Можно кого-то шантажировать, накладывая лицо знаменитого актера на тело порноактера. И ведь никто не думал, что когда-нибудь это станет проблемой. Такие фейковые видео, например, политиков, могут очень сильно влиять на общество.
Никто не предскажет, как люди будут злоупотреблять той или иной новой технологией. Кто в этом плане опаснее — государство или частная компания? Нет ответа на этот вопрос. Государство хотя бы имеет негласную обязанность перед гражданами быть открытым и прозрачным, но что касается частных компаний… Раньше мне казалось, что это не моя забота, но, конечно, мы должны учитывать все риски.
— С какими сложностями вы сталкиваетесь в своей работе как ученый?
— Моя специализация — это визуальное распознавание и язык. Проблема с языком состоит в самой сущности языка, поэтому очень сложно набрать в этой области достаточно данных. Если ты дашь человеку картинку и попросишь его ее описать, то каждый опишет ее совершенно по-разному. Из-за этого практически невозможно собрать необходимое количество данных по языку. С визуализацией сложность не в объектах, а в их комбинациях. Вы сидите за столом — тут и чашка, и ложка, и смартфон и так далее. Человеку очень легко представить любую комбинацию предметов, которая ранее не встречалась, а алгоритмам — нет.
Мы работаем над компьютерной системой, которая сможет иметь такую же гибкость мышления, как человек.
Если я вижу что-то новое в привычной картине, чего я ранее не видела, я как человек все равно могу распознать этот предмет и описать его. Мы хотим, чтобы система имела ту же возможность распознавать вещи вне привычного контекста.
— Разделяете ли вы опасения, например, Стивена Хокинга и Илона Маска, которые высказывались об опасности создания полноценного ИИ, способности которого позволят ему уничтожить человечество?
— Я не слишком беспокоюсь об этом. У человечества есть более глобальные проблемы, которые надо решить еще до того, как ИИ успеет нас истребить.
На самом деле, не нужны сверхсложные технологии, чтобы принести вред планете, уже сейчас мы наблюдаем глобальные климатические и экономические изменения. Я считаю, что есть много проблем которые могут дестабилизировать общество задолго до того, как будет создан суперинтеллект. Можно дать людям любые безобидные технологии — и не исключено, что они могут использовать их во вред. Поэтому мы, как общество, должны отслеживать, чтобы технологии, которые есть сейчас, не были использованы во зло.
Если честно, я вообще скептична насчет того, что человечество способно создать сверхсовершенный ИИ. Но нет и каких-то научных оснований считать, что это невозможно. Если вы посмотрите на историю ИИ, то в 1950–1960-е гг., основатели индустрии были очень оптимистичны, рассуждая о будущем отрасли: компьютеры обыграют человека в шахматы, будут писать стихи, быстро переводить с одного языка на другой и так далее. Конечно, что-то из этого уже есть, но произошло это не так быстро, как тогда думалось ученым: мы помним, что компьютер обыграл человека в шахматы не в 1960-х, а только в 1990-х. Поэтому ученые склонны переоценивать текущие проблемы в индустрии. Но в наши дни прогресс стал более активным, поэтому сейчас гораздо легче ускорить развитие инноваций. Например, компьютер уже обыгрывает человека в го, и это случилось быстрее, чем все ожидали. Но надо иметь в виду, что го — всего лишь игра, и довольно простая. Решать повседневные задачи — намного сложнее, чем играть в го.
Рассуждение на основе здравого смысла все еще недостижимо для современного ИИ, сейчас машины не могут поддержать даже простой разговор.
Некоторые чатботы прошли тест Тюринга, но я бы не считала это каким-то достижением и показателем разумности. У теста Тюринга есть свои проблемы — он ограничен концепцией (судья должен определить, с кем он разговаривает — с машиной или живым человеком; если машине успешно удастся «притвориться» человеком, то, значит, тест пройден — прим. ред.). Людей очень легко обмануть: зачастую мы мыслим иррационально, у нас есть свои предубеждения и прочее, то есть ты можешь с помощью определенных уловок ввести человека в заблуждение и пройти тест.
— Почему ученые были так оптимистичны, говоря о развитии ИИ?
— У ИИ были свои взлеты и падения. В самом начале пути, в 1960-х, исследователи были очень оптимистичны — это было до того, как были сформулированы многие теории в этой области, например, теория сложности вычислений. Исследователи тогда еще не подозревали, как сложно будет масштабировать некоторые вещи: если ты сейчас можешь решить какие-то базовые задачи, не значит, что ты сможешь решить и другие, пусть они и лишь на немного окажутся сложнее. По моему мнению, ученые недооценивали некоторые сложности с алгоритмами, с их масштабированием, вычислениями, особенно в таких областях, как формирование рассуждений. К тому же, вычислительная мощность компьютеров также была ограничена, много времени должно было пройти, чтобы мы, наконец, смогли нарастить достаточно мощностей.
Еще люди недостаточно ценят важность обучения с помощью информации. Современный ИИ сильно зависим от обучения. Поэтому для решения нынешних проблем мы должны понять, насколько сложны задачи, которые перед нами стоят, и сколько данных для их решения нужно. И можем ли мы вообще позволить себе такое количество данных в вычислениях или, может, мы вообще не имеем механизмов нужных для обучения? Как я уже говорила ранее, людям не нужно столько информации, чтобы учиться, сколько машинам, и, возможно, мы сейчас используем совсем не те алгоритмы.
С другой стороны, нам нужно время. Иногда мне кажется, что все то, что мы делаем, это эволюция другим путем. Возможно, ИИ нужно то же количество времени, что ушло у нашего вида на развитие.
— Вы — академический ученый. В чем отличие вашего подхода от того, чем занимаются исследователи, работающие на коммерческие компании?
— У компаний типа Facebook, Google, достаточно вычислительных мощностей. И это одно из их отличий от научного мира. Мы, как ученые, довольно ограничены в ресурсах. И все из-за того, что у нас совсем другое финансирование по сравнению с корпорациями. Университетам очень сложно конкурировать с компаниями. Сложно находить новых профессоров.
Наши студенты, защитившие PhD, не хотят делать академическую карьеру, а уходят в компании, они хотят работать в той же Facebook.
Также отличается мотивация. Цель компаний — зарабатывать деньги. Все, что делают исследователи внутри компании, должно впоследствии работать на нее. Это, с одной стороны, и их преимущество, с другой — недостаток. Например, зачастую корпорации имеют доступ к каким-то данным, которых нет у ученых — непубличным. То есть их системы могут тренироваться на закрытой информации. Но тут другая деталь: если они используют непубличные данные, значит, они и не раскрывают, как они их используют. Конечно, они могут делиться своими открытиями. Престижные лаборатории по исследованию ИИ очень гордятся своей открытостью и стараются публиковать свои исследования. А если ты публикуешь исследования, то также должен показать, как твои системы работают на публичной информации. Но внутри, конечно, они используют приватные данные. Ян Лекун из Facebook, например, считает открытость — одним из своих важных принципов. Таким образом, по его мнению, компании могут привлекать лучшие умы. Лучшие специалисты в этой области, как правило, всегда хотят поделиться своими знаниями с коллегами, обществом.
— Сейчас все говорят об искусственном интеллекте, машинном зрении, нейросетях, это стало трендом. Как вы думаете, хайп позитивно влияет на отрасль или наоборот?
— В основном это хорошо, но есть свои минусы. Конечно, очень здорово работать в области, о которой все говорят, рассказывать о ее успехах. Раньше мне лично было очень тяжело объяснить друзьям, над чем я работаю, потому что не было практического применения технологии.
Хайп очень способствуют популяризации технологии. Например, в разработку ИИ приходят очень умные студенты, у них есть большой интерес. Мне как профессору это нравится.
Но зачастую университеты не выдерживают спроса желающих учиться на разработчика ИИ. У нас, в Университете Иллинойса, очень много желающих, классы переполнены, просто недостаточно мест для всех.
— Какая новая технология произведет такой же «вау-эффект»?
— Даже ученые не знают, что станет следующим прорывом. Я уверена, что в ближайшие годы мы увидим больше открытий в области ИИ, но точно не могу сказать, каких именно.
Сейчас исследователи активно работают над созданием фотореалистичных изображений, качественных 3D-аватаров и другого контента для AR/VR. Перспективны такие направления, как робототехника, где роботы все лучше справляются с моторными функциями, подобно человеку — складывать одежду, загружать посудомоечную машину и проч. И, конечно, большие перспективы у разработки беспилотных автомобилей.