Гонка языковых моделей
В 2023 году появилось много генеративных языковых моделей, основанных на алгоритмах глубокого обучения. Все началось с ChatGPT. Первоначальная версия чат-бота OpenAI вышла на технологическую сцену в ноябре 2022 года. Чуть больше года спустя ChatGPT насчитывает более 180 млн пользователей, получает 10 млн ежедневных запросов и может похвастаться более чем 2 млн платных клиентов.
В 2023 году OpenAI разработала усовершенствованную генеративную языковую модель GPT-4, которая может похвастаться более чем 1,8 трлн параметров, что в 10 раз больше, чем у GPT-3.5. Это делает ее одной из крупнейших языковых моделей, когда-либо созданных.
Почти все IT-гиганты в уходящем году представили свои LLM и чат-ботов. Вот некоторые из них:
С языковыми моделями все еще связано множество проблем, например, дезинформация под видом правды и «галлюцинации». Есть вопросы и к обучающим данным. Например, The New York Times утверждает, что OpenAI и Microsoft обучали своих чат-ботов на миллионах её статей. Это лишило их заработка на подписках, рекламе и просмотрах. Издание подало в суд на обе компании за нарушение авторских прав.
В 2024 году ожидается выход языковой модели следующего поколения от компании OpenAI. По слухам, GPT-5 сможет достичь уровня общего искусственного интеллекта (AGI) по ряду важных показателей. К каким последствиям это приведет — неизвестно.
Мультимедийный ИИ
Прогресс в области ИИ привел к развитию мультимодальности. Нейросети теперь умеют работать не только с текстом, но и с изображениями, видео и аудио.
В 2023 году были представлены новые модели для генерации изображений, такие как DALL-E 3, Stable Diffusion XL, Midjourney v5, «Шедеврум», Kandinsky 2.2 и Kandinsky 3.0 и многие другие. Изображения, сгенерированные искусственным интеллектом, становятся реалистичнее. Так, многие приняли фото с папой Римским Франциском в белом пуховике, сгенерированное Midjourney, за реальное. Еще одна проблема — авторские права. Художники подали иск против компаний, создающих изображения с использованием искусственного интеллекта. Они считают, что ИИ копирует их работы.
Появились первые нейросети для создания видео — Pika 1.0, Gen-2, российские Kandinsky Video и «Шедеврум». Искусственному интеллекту сложнее генерировать видео, чем статичные изображения. Поэтому ИИ-видео часто короткие, а иногда — довольно пугающие. Не так давно был анонсирован новостной канал, вести который будет целая команда цифровых сотрудников. В представленном видеоролике ИИ-ведущие почти неотличимы от реальных.
ИИ-пионеры в музыкальной сфере — Lyria, Stable Audio и MusicLM. С начала 2023 года регулярно появляются ИИ-каверы популярных песен, имитирующие голоса и манеру исполнения разных музыкантов. Создатели таких треков не согласовывают свою деятельность с музыкантами, не берут у них разрешение и не платят за использование их голоса и текстов. В 2023 году Google и Universal Music начали переговоры о лицензировании мелодий и голосов артистов для песен, созданных искусственным интеллектом. А DeepMind, создатель Lyria, использует SynthID для нанесения «водяных знаков» на созданные ИИ музыкальные материалы.
Системы ИИ научились воспроизводить человеческий голос даже по короткому отрывку записи с ним. Например, Meta (компания признана экстремистской и запрещена в РФ) выпустила бесплатную программу для клонирования голоса, Audiobox. ПО хорошо имитирует голоса людей и разные звуки, например, лай собак или пение птиц. Microsoft представила ИИ-модель Vall-E, которая преобразует текст в речь и может за считанные секунды скопировать любой голос, в том числе, его тональность и акустику. Алгоритм используется компанией в озвучке аудиокниг, но, очевидно, что он может стать инструментом для мошенников. Кроме того, в начале года российские дикторы беспокоились, что ИИ отнимет у них работу. Уже существуют инструменты, которые защищают запись голоса от копирования алгоритмами ИИ путем добавления в запись неслышимых человеческим ухом искажений.
Зато искусственный интеллект помог Полу Маккартни и Ринго Старру превратить старое демо Джона Леннона в «новую» песню Beatles.
Страх перед ИИ и регулирование
В 2023 году искусственный интеллект привлек много внимания общественности и правительств стран. Весной СМИ обсуждали письмо, подписанное Илоном Маском и 1300 экспертами, в котором они призывали приостановить разработку масштабных ИИ-систем хотя бы на полгода из-за «значительных рисков для общества и человечества». Несмотря на это, разработки продолжались, а Маск благополучно выпустил собственного чат-бота.
В OpenAI предложили не останавливать исследования, а создать аналог Агентства по атомной энергии для контроля над ИИ. Группа из 350 лидеров отрасли, включая руководство OpenAI и DeepMind, подписалась под коротким письмом: «Снижение риска исчезновения из-за ИИ должно быть глобальным приоритетом наряду с другими рисками общественного масштаба, такими как пандемии и ядерная война».
Вскоре дискуссия вышла на правительственный уровень. Впервые в истории Совбез ООН провёл заседание, посвящённое ИИ. В сенате США состоялись слушания, на которых выступили Билл Гейтс, Марк Цукерберг и Илон Маск. Маск назвал ИИ угрозой человечеству, а Гейтс — спасением.
Летом в Китае был принят первый законодательный акт, регулирующий создание и функционирование генеративного искусственного интеллекта на государственном уровне. Осенью США ввели правила, обязывающие разработчиков мощных ИИ-систем информировать органы власти о результатах тестирования на безопасность.
В ЕС приняли проект «Закона об искусственном интеллекте». Создатели систем искусственного интеллекта, включая чат-бота ChatGPT, будут обязаны раскрывать больше информации о данных, используемых для создания ИИ-моделей. Некоторые требования разработчики считают невыполнимыми.
Отнимет ли ИИ работу
Взрыв интереса к генеративному ИИ и чат-ботам вызвал опасения по поводу сокращения рабочих мест, подобные тем, которые возникли при внедрении подвижного конвейера в начале XX века и компьютеров в 1950-е годы. По данным Goldman Sachs, в результате автоматизации, которую могут обеспечить ChatGPT и другие инструменты искусственного интеллекта, во всем мире может быть потеряно до 300 млн рабочих мест с полной занятостью. Это целых 18% мировой рабочей силы.
Согласно отчету, опубликованному Всемирным экономическим форумом в Женеве, в течение всего пяти следующих лет почти четверть всех рабочих мест в развитых странах окажутся под влиянием внедрения ИИ, оцифровки и других экономических изменений.
Но есть и оптимистичные прогнозы. В ООН считают, что генеративный искусственный интеллект не возьмет на себя работу большинства людей полностью, а вместо этого автоматизирует часть их обязанностей, освобождая сотрудников для выполнения других задач.
Голливуд VS искусственный интеллект
Потерять рабочие места из-за ИИ побоялись деятели киноиндустрии. Сценаристы бастовали с мая, а в середине июля к ним присоединились актеры. Обе гильдии выдвигали схожие требования: повышение выплат за повторные показы работ на стриминговых платформах, а также защита контрактов в контексте использования искусственного интеллекта. Сценаристы обеспокоены тем, что искусственный интеллект сможет писать сценарии лучше, а актеры боятся, что технология будет использовать их образы без согласия. Забастовки привели к прекращению производства большинства сериалов, а множество крупных кинопроизводств заморозилось.
В сентябре сценаристы добились компромисса. Они согласились с использованием искусственного интеллекта при написании сценариев, но только под контролем и с согласием автора-человека.
Увольнение Сэма Альтмана
Сэм Альтман, генеральный директор OpenAI, стал звездой индустрии искусственного интеллекта. Однако в один ноябрьский день все рухнуло. Его бесцеремонно уволили из OpenAI — к огромному удивлению его самого и мира в целом. Совет директоров обвинил его в недостаточной прозрачности в общении, что, по их мнению, помешало ему выполнять свои обязанности.
Центральной фигурой в этих событиях стал Илья Суцкевер, главный научный сотрудник и сооснователь OpenAI. Между Альтманом и советом директоров возникли серьезные разногласия относительно стратегии развития и коммерциализации ИИ, а также управления потенциальными рисками. Суцкевер и другие члены совета директоров выразили беспокойство о скорости разработки и внедрения технологий, которые, по их мнению, могут мешать безопасности и этическим принципам работы компании.
Верхушку OpenAI трясло несколько дней. В конце концов, под давлением инвесторов и угрозой увольнения почти всех сотрудников совету директоров пришлось пойти на попятную и пригласить Сэма Альтмана вернуться в кресло гендиректора. Взамен трех членов совета директоров, включая раскаявшегося инициатора переворота Илью Суцкевера, попросили уйти в отставку.
После этих событий Илон Маск, некогда входивший в совет директоров, заявил, что потенциальная опасность искусственного интеллекта настолько велика, что OpenAI, самая мощная на данный момент компания в области ИИ в мире, должна раскрыть причину увольнения Альтмана.