Hitech logo

Идеи

Прогнозы в области ИИ на 2024 год: нас ждут беспорядки на выборах по всему миру

TODO:
Дарина Житова27 декабря 2023 г., 14:39

Издание Venturebeat попросило экспертов в области ИИ поделиться своим видением развития отрасли в 2024 году. Ожидания в меру оптимистичные: конкуренция разработчиков усилится, модели с открытым кодом догонят GPT-4, компании будут использовать новые наборы данных, ИИ начнет активно и массово влиять на мнение избирателей и наведет беспорядок на выборах по всему миру.

Самые интересные технологические и научные новости выходят в нашем телеграм-канале Хайтек+. Подпишитесь, чтобы быть в курсе.

В 2023 году мир накрыло цунами ИИ-технологий, о которых футурологи не могли даже мечтать. После выпуска ChatGPT от OpenAI в ноябре 2022 года, чат-боты и нейросети становились всё более продвинутыми. Появились законы, контролирующие эту сферу, громкие судебные разбирательства и потребность в большом количестве ресурсов — электричестве, микрочипах и картах памяти. Теперь эксперты подводят итоги года и прогнозируют, что стоит ожидать от ИИ в 2024 году.

OpenAI против Anthropic

Этот стартап наступает разработчику ChatGPT на пятки. В 2021 году его основали сестра и брат Даниэла и Дарио Амодеи, которые раньше работали в OpenAI и занимали высокие посты. Они знают многие секреты главного конкурента, плюсы и минусы самого популярного чат-бота и какие продукты Альтман планирует представить в будущем. Впервые Амодеи представили ИИ-помощника Claude, который может соперничать с ChatGPT, в марте 2023 года, когда OpenAI анонсировала выход GPT-4. Недавно в Anthropic изобрели метод, который позволяет снизить предвзятость больших языковых моделей и повысить точность ответов. Обновлённый чат-бот Claude 2.1 может обрабатывать до 200 000 контекстных токенов, что примерно соответствует 150 000 словам или 500 страницам текста​. Такое не под силу даже GPT-4.

Эксперты ожидают, что в следующем году проекты будут бороться за аудиторию, талантливых сотрудников и щедрых инвесторов. Anthropic предстоит раунд финансирования, в рамках которого стартап получит $750 миллионов от Menlo Ventures. В OpenAI уступать не намерены: компания хочет привлечь еще не менее десяти миллиардов долларов и получить общую оценку $100 миллиардов.

Модели с открытым исходным кодом догонят GPT-4

В начале декабря французский стартап Mistral AI вывел на рынок новый продукт — большую языковую модель Mixtral8×7B, которая превосходит GPT-3,5 в большинстве тестов. Генеральный директор Артур Менш заявил по французскому национальному радио, что выпустит модель с открытым исходным кодом уровня GPT-4 в 2024 году.

По слухам, похожие планы есть у Meta (организация признана экстремистской и запрещена в РФ) — компания готовит выпуск Llama 3, которая будет равна GPT-4. Это произойдёт в первой половине 2024 года. Кроме открытого кода, у модели есть другая особенность — ее разработчики тщательно собирают обратную связь от программистов, экспертов и пользователей. В итоге клиенты смогут указывать компании, что добавить в обновление нейросети и какие функции они хотят видеть.

Влияние ИИ на выборы

Политологи ожидают, что искусственный интеллект будет приводить политиков к успеху и назначать президентов. Итан Буэно де Мескита из Чикагского университета говорит: «2024 станет годом выборов ИИ, как 2016 и 2020 были годами выборов в социальных сетях (информация из них больше всего влияла на мнение избирателей). Общество будет наблюдать, как технологии влияют на политику».

Натан Ламберт, исследователь из Института ИИ Аллена, считает, что дипфейки и чат-боты превратят президентские выборы в США в полный беспорядок. СМИ не всегда могут отличить правду от правдоподобной лжи, поэтому будут транслировать недостоверную информацию. Люди будут злоупотреблять ИИ, чтобы бороться с конкурентами. В то же время появится больше законов, регулирующих технологии и распространение их продуктов.

Новые наборы данных

Материалы, на которых обучают модели ИИ, все больше привлекают внимание общественности. Из-за них нейросети создают дипфейки, генерируют вредоносный контент, дают неправильные ответы и нарушают авторское право. Недавно в LAION, базе изображений для обучения генеративных ИИ, нашли 3600 фото детской порнографии. Разработчики даже не знали, что их модели обучались на изображениях сексуального насилия — вредный контент не заметили среди 6,9 миллиардов картинок. Сейчас базу закрыли, а вредный контент удаляют, но случай заставил разработчиков ИИ задуматься о безопасности наборов данных, которые они используют.

OpenAI создает новые датасеты и ведёт переговоры со сторонними компаниями, чтобы закупить у них базы данных.

Эффективный альтруизм против эффективного акселерационизма

Эти два движения отражают подходы к развитию ИИ и будущему этой технологии. Эффективный альтруизм (ЕА)стремится развивать искусственный интеллект, но считается с гипотетически возможными проблемами в этой области, такими как восстание машин. В рамках такого подхода компании тратят огромные деньги на обеспечение безопасности ИИ и разработку средств его контроля. Модели ИИ воспринимают как непредсказуемые и способные нанести вред человечеству, если их не сдерживать.

Эффективный Акселерационизм (e/acc) — философское движение, которое выступает за развитие технологий любой ценой. Его сторонники считают ИИ однозначным благом, а его повсеместное использование — единственным этически приемлемым выбором. Они не верят, что искусственный разум может навредить людям и просят отменить все меры, сдерживающие его эволюцию.

Приверженцы обоих течений есть среди разработчиков, ученых, инвесторов и политиков. В 2023 году в СМИ уже попадали их ожесточенные дебаты. В 2024 эксперты ожидают, что таких споров станет больше и за ними будет следить больше людей. ИИ станет предметом международного правового регулирования. Кроме этих двух подходов, появятся и новые, которые будут выступать за «третий путь» ИИ.