Hitech logo

искусственный интеллект

Глава OpenAI: «Пугающие ИИ-инструменты вот-вот появятся»

TODO:
Георгий Голованов21 февраля 2023 г., 16:48

В серии сообщении в Твиттере Сэм Альтман, руководитель компании-разработчика языковой модели GPT и нашумевшего чатбота ChatGPT, в очередной раз призвал умерить пыл в отношении новых инструментов искусственного интеллекта. Несмотря на их преимущества и потенциал, обществу, по его словам, нужно время, чтобы адаптироваться к столь серьезному сдвигу. И призвал к обязательному регулированию этой технологии, причем чем быстрее, тем лучше.

Самые интересные технологические и научные новости выходят в нашем телеграм-канале Хайтек+. Подпишитесь, чтобы быть в курсе.

В минувшее воскресенье глава OpenAI опубликовал несколько твитов, в которых оценил переход к будущему, в котором ИИ играет большую роль, «по большей части» положительную. И произойдет это, скорее всего, быстро — так же, как весь мир быстро перешел к эре смартфонов. Однако он предупредил, что обществу необходимо больше времени, чтобы приспособиться к столь существенным изменениям.

«Нам также нужно время для того, чтобы понять, что делать. Регулирование необходимо и потребует времени; хотя ИИ-инструменты этого поколения не очень пугающие, я думаю, в потенциале мы не так уж далеки от потенциально пугающих», — написал Альтман.

Он подчеркнул, что одна из проблем чатботов с ИИ в том, что «люди, поговорив с чатботом, чувствуют беспокойство, даже если понимают, что происходит на самом деле».

Этот феномен недавно можно было наблюдать на примере нового поисковика Bing компании Microsoft, которая использовала технологию ChatGPT. В беседах с пользователями Бинг иногда капризничал, обижался, обзывался и угрожал. Позже Microsoft пояснила, что долгие разговоры могут «сбить модель с толку», и она будет пытаться давать ответы, имитируя тон заданных ей вопросов, и это может привести к некорректной манере общения. Поэтому сейчас общение с Бинг было ограничено пятью вопросами за сессию.

Альтман не впервые говорит о необходимости регулирования ИИ. Одна из первых таких публичных записей появилась в его блоге в 2015 году. В идеальном мире, писал он, регулирование должно затормозить плохих и ускорить хороших людей. Мира Мурати, технический директор OpenAI, тоже говорила в февральском интервью журналу «Тайм» об опасности злоупотреблений возможностям ChatGPT, если не будет должного надзора.

Специалисты из MIT обнаружили, что массивные модели нейронных сетей могут содержать внутри своих скрытых слоев линейные модели меньших размеров. Их можно обучать выполнять новые задачи при помощи простых алгоритмов, на небольшом количестве примеров, без необходимости привлечения больших данных.