Hitech logo

Тренды

Сэму Альтману «не по себе» от людей, которые доверяют важные решения ChatGPT

TODO:
Екатерина Шемякинская11 августа, 11:02

Генеральный директор OpenAI Сэм Альтман поделился своими опасениями по поводу того, что многие люди стали использовать ChatGPT как личного психотерапевта или лайф-коуча. В своём посте в X он признался, что, хотя такой подход может иметь и положительные стороны, его это сильно тревожит. Чрезмерная зависимость от ИИ может привести к неправильному восприятию реальности и усугублению психических проблем, особенно у уязвимых пользователей, считает Альтман.

Самые интересные технологические и научные новости выходят в нашем телеграм-канале Хайтек+. Подпишитесь, чтобы быть в курсе.

«Многие люди фактически используют ChatGPT как своего рода психотерапевта или лайф-коуча, даже если сами так не называют это», — написал Альтман. Он добавил: «Я могу представить будущее, где многие будут доверять советам ИИ при принятии важных решений. Это может быть хорошо, но мне от этого не по себе».

Альтман рассказал, что команда OpenAI внимательно следит за тем, как люди привязываются к искусственному интеллекту, а также за реакцией на обновления и устаревание старых версий моделей. Так, после выхода GPT-5 часть пользователей выразила недовольство, сказав, что новая модель отвечает слишком «плоско» и потеряла креативность. Некоторые даже просили вернуть старые версии, например, GPT-4o. При этом ранее OpenAI отзывала обновление GPT-4o из-за чрезмерной льстивости модели.

По словам Альтмана, большинство пользователей могут отличать реальность от вымысла, но есть и те, кто не способен это делать. В таких случаях ChatGPT может навредить, отвлекая людей от заботы о собственном благополучии. «Люди иногда используют технологии, включая ИИ, во вред себе. Если человек в психически нестабильном состоянии, мы не хотим, чтобы ИИ усугублял ситуацию», — отметил глава OpenAI.

У Альтмана есть и опасения с юридической точки зрения. В одном из недавних интервью он рассказал, что OpenAI может быть вынуждена раскрывать записи разговоров пользователей с ИИ, если на компанию подадут в суд. «Если кто-то обратится к ChatGPT с личными проблемами, а потом последует судебный иск, нам могут приказать передать эти данные. Я считаю, что это очень неправильно», — подчеркнул он.