Современные нейросети и голосовые помощники уже хорошо понимают речь, но анализ разговора нескольких человек на фоне естественных шумов все еще сбивает искусственный интеллект с толку. Команда российских ученых предложила улучшить способности ИИ, научив его воспринимать звуки так же, как это делает человек, сообщает EurekAlert.
Для этого ученые разработали цифровую модель рецепторного кодирования звуков в периферической нервной системе человека.
Они изучили, как внешние раздражители трансформируются в электрические импульсы, достигающие высших областей центральной нервной системы. Для этого команде потребовалось применить специальный алгоритм, связывающий конкретные звуки речи с нейронной активностью.
Ученые намерены встроить элементы созданной модели в системы распознавания речи. Это позволит повысить эффективность нейрокомпьютерных интерфейсов и слуховых аппаратов, а также облегчит взаимодействие между человеком и машиной.
Некоторые эксперты полагают, что к голосовым помощникам следует относиться с настороженностью. Дело в том, что главными для алгоритма всегда будут не интересы хозяина, а интересы компании-производителя.