https://frosthead.com

Новый интерфейс позволяет обезьянам управлять двумя виртуальными руками в одиночку

Интерфейсы мозг-машина когда-то были предметом научной фантастики. Но технология, которая обеспечивает прямую связь между мозгом человека или животного и внешним устройством или другим мозгом, прошла долгий путь за последнее десятилетие.

Ученые разработали интерфейсы, которые позволяют парализованным людям печатать буквы на экране, позволяют одному человеку двигать рукой другого со своими мыслями и даже позволяют двум крысам обмениваться мыслями - в данном случае, знаниями о том, как решить конкретную задачу. задача - когда они находятся в лабораториях за тысячи миль друг от друга.

Теперь команда во главе с Мигелем Николелисом из Университета Дьюка (ученый, стоящий за крысиной схемой обмена мышлением, среди прочих интерфейсов мозг-машина) создала новую установку, которая позволяет обезьянам управлять двумя виртуальными руками, просто думая о движении своих реальных рук., Они надеются, что технология, раскрытая в статье, опубликованной сегодня в Science Translational Medicine, может когда-нибудь привести к подобным интерфейсам, которые позволят парализованным людям перемещать роботизированные руки и ноги.

Ранее команда Николелис и другие создавали интерфейсы, которые позволяли обезьянам и людям перемещать одну руку аналогичным образом, но это первая технология, которая позволяет животному одновременно перемещать несколько конечностей. «Бимануальные движения в нашей повседневной деятельности - от набора текста на клавиатуре до открывания банки - очень важны», - сказала Николис в своем заявлении для прессы. «Будущие интерфейсы мозг-машина, нацеленные на восстановление подвижности у людей, должны будут включать в себя несколько конечностей, чтобы значительно помочь сильно парализованным пациентам».

Как и предыдущие интерфейсы группы, новая технология опирается на ультратонкие электроды, которые хирургическим путем внедряются в кору головного мозга мозга обезьян, область мозга, которая контролирует произвольные движения, среди других функций. Но в отличие от многих других интерфейсов мозг-машина, в которых используются электроды, которые контролируют активность мозга всего лишь нескольких нейронов, команда Николелис зафиксировала активность почти в 500 клетках головного мозга, распределенных по целому ряду областей коры у двух макак-резусов, которые были подопытными для эта учеба.

Затем в течение нескольких недель они неоднократно выставляли обезьян перед монитором, где они видели пару виртуальных рук с точки зрения первого лица. Первоначально они управляли каждой рукой с помощью джойстиков и выполнили задание, в котором они должны были двигать руками, чтобы скрыть движущиеся фигуры, чтобы получить награду (вкус сока).

Когда это произошло, электроды регистрировали активность мозга у обезьян, которая коррелировала с различными движениями рук, и алгоритмы анализировали ее, чтобы определить, какие конкретные закономерности в активации нейронов были связаны с какими видами движений рук - влево или вправо, а также вперед или назад.,

В конце концов, как только алгоритм мог точно предсказать предполагаемое движение руки обезьяны на основе паттернов мозга, установка была изменена так, что джойстики больше не контролировали виртуальные руки - мысли обезьян, как записано электродами, вместо этого контролировали. С точки зрения обезьян, ничего не изменилось, так как перед ними все еще были выставлены джойстики, а контроль был основан на паттернах мозга (в частности, на изображении их собственных движений рук), которые они производили в любом случае.

Однако через две недели обе обезьяны поняли, что им не нужно фактически двигать руками и манипулировать джойстиками для перемещения виртуальных рук - им нужно было только думать об этом. Со временем им становилось все лучше и лучше управлять виртуальными руками через этот интерфейс «машина-мозг», и в итоге они делали это так же эффективно, как двигали джойстики.

Будущие достижения в этом виде интерфейса могут быть чрезвычайно ценными для людей, которые потеряли контроль над своими собственными конечностями из-за паралича или других причин. Поскольку высокотехнологичные бионические конечности продолжают развиваться, эти типы интерфейсов могут в конечном итоге стать способом, которым они будут использоваться ежедневно. Например, человек с травмой спинного мозга мог бы научиться эффективно представлять движение двух рук, чтобы алгоритм мог интерпретировать структуры его или ее мозга, чтобы двигать двумя роботизированными руками желаемым образом.

Но интерфейсы «мозг-машина» могут также когда-нибудь обслуживать гораздо более широкую аудиторию: пользователей смартфонов, компьютеров и других потребительских технологий. Уже сейчас компании разработали гарнитуры, которые контролируют ваши мозговые волны, чтобы вы могли перемещать персонажа в видеоигре, просто думая об этом, по сути используя свой мозг в качестве джойстика. В конце концов, некоторые инженеры предполагают, что интерфейсы «мозг-машина» могут позволить нам манипулировать планшетами и управлять носимой технологией, такой как Google Glass, не говоря ни слова или касаясь экрана.

Новый интерфейс позволяет обезьянам управлять двумя виртуальными руками в одиночку