Hitech logo

Тренды

Научное сообщество не верит в создание общего ИИ на основе нейросетей

TODO:
Екатерина Шемякинская5 марта, 13:28

Большинство исследователей ИИ не верит, что нынешний подход к развитию технологий приведет к созданию общего искусственного интеллекта (AGI). Согласно опросу, 84% экспертов считают, что одних нейронных сетей для этого недостаточно, а более 60% уверены, что AGI потребует сочетания разных методов, включая символический ИИ. При этом только 23% опрошенных считают разработку AGI главным приоритетом, а треть поддерживает приостановку таких исследований до появления надежных мер контроля. Эксперты также предупреждают о рисках «агентификации» ИИ, которая может привести к росту затрат и угроз безопасности.

Самые интересные технологические и научные новости выходят в нашем телеграм-канале Хайтек+. Подпишитесь, чтобы быть в курсе.

Генеративные ИИ-системы работают на основе нейронных сетей — компьютерных моделей, которые обучаются на огромных данных, имитируя принципы работы мозга. За последние десять лет разработчики улучшили их производительность за счет масштабирования размеров, например, увеличивая объем обучающих данных и количество «параметров» модели.

Ассоциация по продвижению искусственного интеллекта (AAAI) провела опрос, в котором участвовали 475 членов организации, 67% из которых — ученые. Среди них 84% считают, что одних нейросетей недостаточно для создания общего искусственного интеллекта. AGI определяется как система, способная «соответствовать или превосходить человека во всех когнитивных задачах». Но четкого критерия, по которому можно будет судить о достижении AGI, пока нет.

Отчет AAAI отмечает, что помимо нейронных сетей существует много других направлений ИИ, которые требуют изучения, и призывает активнее поддерживать эти методы. Среди них — символический ИИ, который использует логические правила вместо анализа больших данных.

Более 60% опрошенных уверены, что человеческий уровень мышления будет достигнут только при сочетании нейронных сетей с символическим ИИ. Аналитики подчеркивают: нейронные сети останутся, но для прогресса их нужно комбинировать с другими подходами.

Опрос выявил обеспокоенность по поводу бесконтрольного развития AGI, если он появится. Более 75% респондентов считают, что создание ИИ с «приемлемым балансом рисков и пользы» важнее, чем погоня за AGI. Только 23% назвали AGI главным приоритетом. Около 30% поддержали идею приостановки исследований общего ИИ до тех пор, пока не будут разработаны методы полного контроля над такими системами, чтобы гарантировать их безопасность и пользу для человечества. Однако большинство экспертов выступают против приостановки и считают такой вариант маловероятным.

Большинство ИИ-компаний сейчас разрабатывают «агентов» — системы, способные выполнять сложные, открытые задачи, например, бронировать билеты или писать и внедрять код. Однако мнения разделились: стоит ли польза от «агентификации» ИИ-моделей затрат на их усложнение, рост вычислительной мощности и энергопотребления.

Агенты также несут новые угрозы безопасности. Это иллюстрирует опыт Барта Селмана, специалиста по компьютерным наукам из Корнеллского университета, соавтора отчета AAAI. Селман использует агента для помощи в математике и программировании, но признает, что не всегда понимает действия ИИ. «Есть риск, что он получит доступ к моему Amazon Cloud и начнет запускать эксперименты без моего ведома, по сути, тратя мои деньги», — отмечает он.

Во многих аспектах остается неопределенность, например, нет четкого определения «рассуждения». На вопрос о том, когда автономный ИИ-ученый совершит открытие, достойное Нобелевской премии, самым популярным ответом стало: «Понятия не имею».