Альтман начал с заявления о том, что предсказать последствия развития генеративного ИИ на занятость практически невозможно. Хотя автоматизация уже вытесняет многие профессии, особенно в сфере поддержки клиентов, он подчеркнул: «Никто не знает, что произойдёт дальше… Это слишком сложная система…». Он пояснил, что уже наблюдает случаи, где целые классы профессий исчезают, в особенности техническая поддержка: «Вы звоните — AI отвечает, как супер‑умный, способный человек: без ожидания, без перенаправлений, быстро и безошибочно». Но при этом появятся и новые профессии, требующие навыков работы с ИИ.
Когда разговор коснулся медицины, Альтман четко обозначил границы применения ИИ. Он отметил, что ChatGPT «в большинстве случаев является лучшим диагностом, чем многие врачи в мире», но добавил, что он предпочтет, чтобы врач-человек оставался в системе: «Может, я динозавр…, но я точно не хочу доверять свою судьбу ChatGPT без участия врача». То есть важен баланс: выдающиеся способности ИИ признаются, но его функциональность должна оставаться вспомогательной.
Эти слова Альтмана отзвучали на фоне недавнего заявления Microsoft о том, что новая медицинская ИИ‑система способна диагностировать сложные заболевания с точностью, превышающей врачебную в четыре раза, при этом ее стоимость на 20% дешевле. Глава медицинского подразделения Microsoft Мустафа Сулейман назвал систему «настоящим шагом к медицинскому суперинтеллекту».
Тем не менее, тревога по поводу ИИ в медицине продолжает расти. Критические исследования показывают, что незначительные ошибки в запросах, такие как опечатки или лишние пробелы, могут привести к тому, что ИИ отговорит пользователя обращаться к врачу — степень ошибки при таких вводах вырастает на 7–9%. Что ещё тревожнее: в недавнем эксперименте с участием 300 человек участники приравнивали AI-ответы к врачебным и при этом были склонны доверять неточным ИИ-рекомендациям, что повышает риски неправильного лечения.
Польза ИИ в медицине очевидна. Например, случай, когда ChatGPT помог диагностировать заболевание, которое врачи не могли определить в течение 18 месяцев, указывают на реальное значение искусственного интеллекта в качестве «второго мнения». Однако ИИ-системам с максимальной точностью диагностики не хватает пока понимания персональных нюансов пациента, которые может обеспечить пока только врач-человек. Это в первую очередь эмпатия, внимательное выслушивание, моральное суждение.
Альтман также выразил обеспокоенность тем, как молодёжь использует ИИ. Он рассказал, что некоторые юные пользователи настолько эмоционально зависят от ChatGPT, что не принимают решений без совета нейросети. По словам Альтмана, это «не здорово» и несёт риск ослабления критического мышления. Исследования Microsoft подтверждают: чрезмерная зависимость от ИИ может фактически делать пользователя «глупее», угнетая способность к аналитическому размышлению.