Новая научная работа раскрывает, как разные области мозга улавливают множество акустических элементов. Чтобы расшифровать песню, нейробиологи из Калифорнийского университета в Беркли проанализировали активность мозга, записанную электродами, имплантированными в мозг 29 человек, страдающих эпилепсией. Находясь в больнице под наблюдением, люди слушали рок-песню 1979 года, а ученые следили за их мозговой активностью.
Нервные клетки людей, особенно в слуховых областях, реагировали на прослушивание песни, а электроды обнаруживали не только нервные сигналы, связанные со словами, но также ритм, гармонию и другие музыкальные аспекты. С помощью этих данных исследователи разработали компьютерную модель для реконструкции звуков на основе активности мозга и обнаружили, что они могут воспроизводить звуки, напоминающие песню.
На различные элементы музыки реагируют разные части мозга. Например, активность в одной области внутри верхней височной извилины (superior temporal gyrus, STG), расположенной в нижней части центра каждой половины мозга, усиливалась при определенных звуках, например, гитары. Другая область внутри STG увеличивала и поддерживала свою активность при использовании вокала.
Исследователи также подтвердили, что правое полушарие мозга лучше настроено на музыку, чем левое. STG на правом полушарии мозга, а не на левом имеет решающее значение в расшифровке музыки. Когда исследователи удалили информацию из этой области мозга в компьютерной модели, это снизило точность реконструкции песни.
Продолжение исследования музыкального восприятия осложняется тем, что области мозга, обрабатывающие музыку, трудно доступны без инвазивных методов. Ученые задаются вопросом о широком применении компьютерной модели, обученной только на одной песне — работает ли это на других типах звуков, таких как лай собаки или звонок телефона.
В ближайшей перспективе включение более музыкальных элементов речи, включая высоту и тембр, в устройства мозг-компьютер могло бы помочь людям с повреждениями мозга, параличом и другими состояниями общаться. Интерфейсы, которые используются в настоящее время, могут декодировать слова, но сгенерированные предложения звучат роботизированно, подобно тому, как звучал Стивен Хокинг, когда он использовал устройство для генерации речи.