https://frosthead.com

Нейробиологи превратили мозговые волны в устную речь

Одна и та же технология, которая работает с вашим болтливым мобильным помощником, может однажды обеспечить голос тем, кто потерял способность говорить. Как сообщает Рене Рейнтс для Fortune, неврологи из Колумбийского университета недавно достигли значительного прогресса в достижении этой футуристической цели, впервые успешно преобразовав мозговые волны в понятную речь.

Исследования группы, опубликованные в научных отчетах, включают в себя несколько нетрадиционный подход. Вместо того, чтобы напрямую отслеживать мысли для создания речи, исследователи записали неврологические паттерны, генерируемые подопытными, слушающими, как говорят другие. Эти мозговые волны подавались в вокодер - алгоритм искусственного интеллекта, который синтезирует речь - и затем преобразовывались в понятные, хотя и звучащие роботом, речи, отражающие фразы, слышимые участниками.

«Наши голоса помогают связать нас с нашими друзьями, семьей и окружающим миром, поэтому потеря силы голоса из-за травмы или болезни настолько разрушительна», - говорит автор исследования Нима Месгарани, инженер из программы по нейробиологии в Колумбии. заявление. «С сегодняшним исследованием у нас есть потенциальный способ восстановить эту власть. Мы показали, что при правильной технологии мысли этих людей могут быть расшифрованы и понятны любому слушателю ».

Стоит отметить, по словам Джорджа Дворского из Gizmodo, что ученые еще не выяснили, как напрямую перевести внутренние слова, также известные как воображаемая речь, в слова. В этом идеальном сценарии люди, использующие речевые технологии, просто представят, что они хотят сказать, а затем подождут, пока искусственная голосовая система вербализует эти мысли.

Покойный британский физик Стивен Хокинг использовал элементарную версию технологии синтеза речи, чтобы общаться с другими. Как пишет Нина Годлевски для Newsweek, Хокингу был поставлен диагноз «боковой амиотрофический склероз» (БАС) в возрасте 21 года. Болезнь двигательных нейронов в конечном итоге потребовала его речевые способности, заставив его использовать ручной кликер для запуска речи.

Когда Хокинг потерял свои руки, он переключился на систему, основанную на движениях лица; Дворцкий из Gizmodo далее объясняет, что ученый использовал щечный переключатель, подключенный к его очкам, чтобы выбирать слова, произносимые синтезатором голоса.

Продвинутая итерация этой технологии не использовала бы посредника, позволяя пользователям воспроизводить речь без помощи компьютера или системы, чувствительной к движению.

Сравнительно, отмечает Эйвери Томпсон для журнала «Популярная механика», исследование, проведенное командой Columbia, направлено на перевод «подслушанной речи». Исследователи набрали пять пациентов с эпилепсией, которые должны были пройти операцию на головном мозге, и попросили их выслушать множество произнесенных слов - например, запись кого-либо считая от нуля до девяти - будучи подключенным к устройствам нейронного мониторинга.

Волны мозга, захваченные этими инструментами, были введены в вокодер, который синтезировал речь с помощью нейронной сети, обученной, по словам Кристин Хаузер из Futurism, «очистить» вывод и сделать звуки понятными.

Затем ученые попросили 11 других участников прослушать речь с поддержкой ИИ. Примечательно, что соавтор исследования Месгарани отмечает в заявлении Колумбии, что эти люди были способны «понимать и повторять» звуки примерно в 75% случаев - «хорошо и за пределами» показателей, наблюдаемых в любых предыдущих экспериментах. (Вы можете сами оценить записи здесь.)

В интервью Gizmodo 's Dvorsky Месгарани говорит, что он и его коллеги надеются синтезировать более сложные фразы в ближайшем будущем. Исследователи также хотят записывать сигналы мозга, генерируемые испытуемыми, которые думают или воображают акт говорения, а не просто слушают, как говорят другие. Наконец, добавляет Месгарани в своем заявлении, команда стремится однажды превратить технологию в имплант, способный переводить мысли владельца прямо в слова.

Потенциальные ограничения нового исследования включают его небольшой размер выборки и, по словам нейробиолога Университета Ньюкасла Эндрю Джексона, который не принимал участия в исследовании, тот факт, что нейронные сети необходимо вводить в огромное количество мозговых сигналов от каждого нового участника. чтобы синтезировать речь за пределами чисел от нуля до девяти.

«В будущем будет интересно посмотреть, насколько хорошо обученные декодеры для одного человека распространяются на других людей», - говорит Джексон Gizmodo . «Это немного похоже на системы раннего распознавания речи, которые должны были индивидуально обучаться пользователем, в отличие от современных технологий, таких как Siri и Alexa, которые могут воспринимать голос любого человека, опять же с использованием нейронных сетей. Только время покажет, смогут ли эти технологии однажды сделать то же самое для сигналов мозга ».

Нейробиологи превратили мозговые волны в устную речь