Когда ИИ дают набор данных, он анализирует их и создает модель. Природа этой модели зависит от поставленной перед алгоритмом задачи. К примеру, если нужно научить ИИ распознавать котиков на картинках, ему нужно предоставить тысячи фотографий кошек, чтобы он обобщил характерные черты этого животного.
Примерно таким же образом ученые создают теории на основе набора практических данных, за одним важным исключением. В примере с котами видно, что ИИ получает уже отобранные людьми данные. Ему бы пришлось гораздо сложнее, если бы на фотографиях помимо кошек были другие детали, скажем, растения.
Научить ИИ вычленять нужные для создания теории данные оказалось непросто. Однако, двум физикам Массачусетского технологического института — Ву Тайлину и Максу Тегмарку — это удалось, сообщает Motherboard.
Для этого они наделили алгоритм машинного обучения четырьмя основным стратегиями, которые используют ученые, чтобы генерировать теории.
Это стратегии «разделяй и властвуй» (создавай множество теорий, каждая из которых согласуется только с частью данных); бритва Оккама (используй самую простую из возможных теорий); объединяющая (сочетай теории) и «бесконечного обучения» (применяй теории для решения будущих проблем).
После того как эти стратегии были внесены в программный код алгоритма, Ву и Тегмарк «скормили» ему базы данных по серии все более сложных виртуальных вселенных со странными физическими законами и дали задание разобраться в них. В частности, целью ИИ было максимально точно предсказать движение объекта в двух измерениях выдуманной вселенной. Для этого машине пришлось создать физические теории для каждого из миров.
«ИИ-физику» пришлось иметь дело с 40 различными мирами, и он смог выдвинуть верные теории в 90% случаев.
Более того, по сравнению с обычными алгоритмами машинного обучения ИИ, снабженный научным аппаратом, совершал ошибки прогнозирования в миллиард раз реже.
Эта работа может иметь важные последствия для науки, в частности, для понимания огромных массивов данных, например, климатического моделирования или экономики. В конце концов, будущий Ньютон или Эйнштейн может оказаться компьютерным кодом.