Генеративные ИИ-системы работают на основе нейронных сетей — компьютерных моделей, которые обучаются на огромных данных, имитируя принципы работы мозга. За последние десять лет разработчики улучшили их производительность за счет масштабирования размеров, например, увеличивая объем обучающих данных и количество «параметров» модели.
Ассоциация по продвижению искусственного интеллекта (AAAI) провела опрос, в котором участвовали 475 членов организации, 67% из которых — ученые. Среди них 84% считают, что одних нейросетей недостаточно для создания общего искусственного интеллекта. AGI определяется как система, способная «соответствовать или превосходить человека во всех когнитивных задачах». Но четкого критерия, по которому можно будет судить о достижении AGI, пока нет.
Отчет AAAI отмечает, что помимо нейронных сетей существует много других направлений ИИ, которые требуют изучения, и призывает активнее поддерживать эти методы. Среди них — символический ИИ, который использует логические правила вместо анализа больших данных.
Более 60% опрошенных уверены, что человеческий уровень мышления будет достигнут только при сочетании нейронных сетей с символическим ИИ. Аналитики подчеркивают: нейронные сети останутся, но для прогресса их нужно комбинировать с другими подходами.
Опрос выявил обеспокоенность по поводу бесконтрольного развития AGI, если он появится. Более 75% респондентов считают, что создание ИИ с «приемлемым балансом рисков и пользы» важнее, чем погоня за AGI. Только 23% назвали AGI главным приоритетом. Около 30% поддержали идею приостановки исследований общего ИИ до тех пор, пока не будут разработаны методы полного контроля над такими системами, чтобы гарантировать их безопасность и пользу для человечества. Однако большинство экспертов выступают против приостановки и считают такой вариант маловероятным.
Большинство ИИ-компаний сейчас разрабатывают «агентов» — системы, способные выполнять сложные, открытые задачи, например, бронировать билеты или писать и внедрять код. Однако мнения разделились: стоит ли польза от «агентификации» ИИ-моделей затрат на их усложнение, рост вычислительной мощности и энергопотребления.
Агенты также несут новые угрозы безопасности. Это иллюстрирует опыт Барта Селмана, специалиста по компьютерным наукам из Корнеллского университета, соавтора отчета AAAI. Селман использует агента для помощи в математике и программировании, но признает, что не всегда понимает действия ИИ. «Есть риск, что он получит доступ к моему Amazon Cloud и начнет запускать эксперименты без моего ведома, по сути, тратя мои деньги», — отмечает он.
Во многих аспектах остается неопределенность, например, нет четкого определения «рассуждения». На вопрос о том, когда автономный ИИ-ученый совершит открытие, достойное Нобелевской премии, самым популярным ответом стало: «Понятия не имею».