На конференции MIT «Будущее бизнеса с ИИ» (The Future of Business with AI) Сэму Альтману задали вопрос о том, как он относится к недавнему открытому письму, авторы которого призывают приостановить разработку крупных моделей «мощнее GPT-4». В письме подчеркивались возможные риски для человечества, связанные с появлением непредсказуемых и бесконтрольных ИИ.
По мнению Альтмана, авторы письма «неверно понимают большую часть технических нюансов о том, где нам следует остановиться», и заявил, что в более ранней версии воззвания говорилось, что OpenAI уже тренирует GPT-5. «Мы этого не делаем и не будем еще какое-то время, — сказал он. — Так что в этом смысле вышло немного нелепо».
Однако то, что OpenAI не работает сейчас над следующей, более мощной версией языковой модели, не означает, что компания не расширяет возможности GPT-4 — соблюдая, как настойчиво подчеркивает Альтман, все меры безопасности. «Мы надстраиваем много чего другого поверх GPT-4, что, как я полагаю, полностью отвечает всем важным правилам безопасности и которые начисто отсутствуют в том письме», — сказал он.
Высказывание Альтмана важно с той точки зрения, что озвучивает проблему отсутствия четких критериев измерения прогресса в разработке ИИ. То, что OpenAI сейчас не обучает GPT-5, нельзя считать содержательным утверждением, пишет Verge. Отчасти проблема коренится в обманчивости порядковых номеров, которые присваивают версиям: идее, согласно которой обновления получают новые цифровые обозначения в случае появления существенных улучшений. Очень часто «новая версия» становится лишь маркетинговым ходом. «Конечно, айфон 35 лучше, чем айфон 34, ведь число больше!», — так рассуждает потребитель.
Вместо того, чтобы концентрироваться на порядковых номерах, лучше начать диалог о возможностях систем ИИ, фактических и прогнозируемых. И с этой точки зрения заверения Альтмана о том, что OpenAI не разрабатывает пятую версию GPT вслед за недавно вышедшей четвертой, а только вносит улучшения в GPT-4, звучат как казуистика.
О том, что разработка GPT-5 должна завершиться уже в декабре этого года, заявил в начале апреля некий Сики Чен, ссылающийся на своих инсайдеров внутри OpenAI. После этого генеративный ИИ будет невозможно отличить от человека, поскольку он достигнет так называемого искусственного общего интеллекта (AGI).