Машинное обучение обычно требует огромного объема данных. Для того чтобы научить модель узнавать на картинке лошадь, ей нужно показать тысячи изображений этого животного. Для этого ИИ нужны огромные вычислительные мощности — в отличие от человека, которому достаточно показать пример пару раз, чтобы он смог отличать его от других на протяжении всей жизни.
Более того, детям иногда даже не нужны никакие примеры, чтобы идентифицировать объект. Покажите им фотографию носорога и лошади и объясните, что единорог — это нечто среднее, и они смогут распознать мифическое животное на картинке, ни разу его не видев, пишет Technology Review.
В новом исследовании специалистов из Университета Уотерлу (Канада) авторы утверждают, что их модели способны на то же самое: процесс, который они назвали обучением за «менее одной попытки» (less than one-shot, LO-shot). Другими словами, модель может точно распознать больше объектов, чем количество примеров, на которых была обучена.
Исследователи продемонстрировали свою идею на примере набора данных для компьютерного зрения MINIST, который состоит из 60 000 изображений написанных от руки цифр от 0 до 9. Они взяли за основу процесс «дистилляции», разработанный в MIT, когда огромные массивы данных сокращаются до нескольких изображений. Канадские ученые пошли еще дальше и предложили обучать ИИ на изображениях с несколькими цифрами сразу, с нанесенными гибридными метками.
К примеру, цифра 3 во многом похожа на 8, но совсем не похожа на 7, объяснил Илья Сучолуцкий, главный автор статьи. Вместо того чтобы говорить машине: это цифра 3, ученые говорят: это изображение на 60% цифра 3, на 30% — 8 и на 10% — 0.
Изучив границы возможностей похода LO-shot, исследователи обнаружили, что их, в сущности, нет. Если аккуратно создавать гибридные метки, даже два примера теоретически позволят закодировать любое количество категорий — «тысячу классов, десять тысяч классов, миллион классов», — утверждает Сучолуцкий.
Исследователи из Калифорнии разрабатывают новую схему, которая поможет искусственному интеллекту учиться за счет положительного подкрепления — в точности как это делает человеческих мозг. Для этого они используют нейроморфные схемы.