Logo
Cover

Искусственный интеллект обладает громадным потенциалом, но этим термином опасно злоупотребляют, считает Закари Липтон, специалист по искусственному интеллекту из Университета Карнеги — Меллона.

Ажиотаж вокруг искусственного интеллекта напоминает тем, кто родился достаточно давно, пузырь доткомов. Как и тогда, миллиарды долларов вкладываются в ИИ-стартапы и проекты. Проблема в том, говорит Липтон, что перспективы омрачаются оппортунистами, которые делают необоснованные заявления о возможностях этой технологии. MIT Technology Review опубликовал выдержки из выступления ученого на конференции EmTech.

«Становится все сложнее отличить настоящий прогресс от пустой болтовни», — говорит ученый.

Технология ИИ, также известная как глубокое обучение, доказала, что может выполнять задачи по распознаванию изображений и голоса, и теперь применяется повсюду, от беспилотных автомобилей до медицинских приложений. Но у нее есть и существенные ограничения. Многие модели глубокого обучения работают только после обработки большого объема данных, которые с трудом адаптируются к быстро меняющемуся миру.

Также Липтон подчеркнул, что у провозвестников ИИ есть тенденция приписывать этой технологии способности, равные человеческим. Опасность в том, что пузырь ИИ заставляет людей слишком доверять алгоритмам, управляющим их транспортом или ставящим диагнозы.

«Законодатели не читают научную литературу, — предостерегает Липтон, — но читают заманчивые заголовки, которые постоянно появляются». Виноваты и СМИ, которые недостаточно качественно выполняют свою работу и не отделяют реальные достижения от пиара.

О вреде больших данных для разработчиков ИИ говорил на августовской конференции Transform 2018 Амир Хосровшахи, технический директор ИИ-подразделения Intel. Они притупляют мозги инженеров, которым становится лень писать эффективные алгоритмы. Основная задача отрасли сейчас — научиться оптимизировать ИИ.