homuncul

Ощупывать мозгом

Исключительно важная работа по трансляции тактильных ощущений опубликована на днях в Nature.

Мигель Николелис (Miguel Nicolelis), нейрофизиолог, возглавляющий Center for Neuroengineering, не перестает удивлять очередными достижениями. Лаборатория Николелиса специализируется на интерфейсах мозг-компьютер (ИМК). В начале 2000-х они наделали шуму, когда имплантировали электроды в моторную кору макаки и научили ее управлять объектом на экране с помощью джойстика. Аврора (так звали обезьяну) левой рукой двигала джойстик, а соответствующие сигналы от ее мозга шли на процессор, преобразующий эти сигналы в движения манипулятора, находившегося в другом месте. Манипулятор точно воспроизводил движения руки макаки. Тем самым проверялась работа ИМК.

Однажды экспериментаторы решили отключить джойстик, чтобы виртуальный объект на экране управлялся непосредственно сигналами от мозга Авроры (о чем она, само собой, не подозревала). Однако затем произошло то, что заставило всех присутствующих застыть на месте. В какой-то момент Аврора поняла, что двигать джойстик нет необходимости: она убрала с него руку и продолжала перемещать курсор на экране исключительно силой мысли. Можете посмотреть, как это было: видео. По признаниям ученых, в тот момент они ощутили, что присутствуют при рождении новой эры в развитии нейро-машинных технологий.

Позднее, в 2008 г., группа Николелиса провела успешный эксперимент, в котором другая обезьяна (кстати, двоюродная сестра Авроры) посредством активности мозга в течение трех минут контролировала движения шагающего робота, находившегося за тысячи километров от нее (в Японии): видео.

В том же году в Университете Питтсбурга макака научилась управлять механическим манипулятором с несколькими степенями свободы, который реагировал на команды, посылаемые мозгом. Эти кадры обошли весь мир: видео.

И вот началось новое десятилетие, и Николелис сделал следующий шаг вперед. Он добился того, чтобы сигналы шли не только от мозга в компьютер (на «выход»), но и в обратном направлении (на «вход»). Обезьяна теперь не просто управляет движением виртуальной руки, но и получает от нее обратную связь. В частности, таким способом мозг животного смог различать «текстуры» визуально неотличимых объектов. Что фактически равносильно осязанию. Без участия тела. И снова лучше один раз увидеть: видео.

Соответственно, теперь это следует называть «интерфейс мозг-машина-мозг». И что характерно, прогресс в этом направлении ускоряется. Реальные аватары уже показались на горизонте. Николелис написал небольшую заметку в Scientific American, где описывает далекие перспективы таких технологий (Mind Out of Body). Для более вдумчивого чтения у него в этом году вышла книга Beyond Boundaries, где вопрос раскрыт во всей полноте. С фрагментами можно ознакомиться здесь.


O’Doherty, J. E. et al. (2011) Active tactile exploration using a brain–machine–brain interface.Nature [Abstract]

Свежий номер журнала Progress in Brain Research целиком посвящен технологиям ИМК и возможным социальным последствиям: ссылка. Там, к слову, есть и статья Николелиса.

Это круто, конечно — спору тут нет. Но, если взглянуть в ретроспективе, то макаки с вживленными в мозг электродами были еще в 60-х. Вероятно, основное достижение и новизна здесь практические: из теории и предыдущих экспериментов известно, что вызывать ощущения, раздражая определенные области коры, можно.

Здесь было бы интересно взглянуть на технологические проблемы, пока еще препятствующие применения этих пятидесятилетних наработок на людях. Не можно, конечно, упрекать доктора в гипервентилции — если бы я такое сделал, я бы не так еще прыгал на его месте — но интересно, почему до сих пор разъем в черепушке не является обычным способом, например, вернуть человеку зрение. Слуховые аппараты уже во всю применяются (cochlear implants), но они подключаются к слуховому нерву. А аппаратов, подключаемых непосредственно к мозгу, кроме единичных экспериментов — так и нет. Интересно бы понять, что пока мешает этому?
(Anonymous)
50 лет назад был один, ну два вживленных электродов, довольно толстых, с не самой большой точностью. Теперь на площади в 1 см. их сотни, а будет тысячи.С микропроцессорным управлением.
А через десять лет — миллионы! А через двадцать пять — миллиарды! С квантово-позитронным управлением!
Хороший вопрос. Возможно, зрение - более сложный и комплексный процесс, задействующий множество различных зон? Теоретически можно было бы подключить электроды не к зрительной коре, а, допустим, к путям, идущим непосредственно от сетчатки, но я не представляю сейчас, как это сделать практически.

Зато взгляните, что уже научились делать:
In one paralyzed and mute subject implanted for over 5 years with a double electrode in the speech motor cortex, the single units allowed recognition of over half the 39 English language phonemes detected using a variety of decoding methods.
http://www.sciencedirect.com/science/article/pii/B9780444538154000200

Довольно впечатляюще, на мой взгляд.
В том то и загадка, что впечатляющего очень много. Вот слепой и видит, и машину даже водит: http://www.wired.com/wired/archive/10.09/vision_pr.html. 2002 год. А серийного протеза так и нет. (Добелл, правда, неожиданно умер в 2004). И это далеко не единственный эксперимент, насколько я знаю. А вот нейроинтерфейса работающего так и нет. Вот бы понять, что за проблемы в этой области не дают этого сделать.
Ну так чего гадать. Лучше всего, наверное, с этим вопросом обратиться к самому Николелису. Или к его сотруднику, Михаилу Лебедеву: lebedev@neuro.duke.edu.

Мне-то кажется, что для серийного производства технологии еще не готовы - слишком дорого и отладки требует, хотя бы на макаках. Вы ведь понимаете, что вживленные электроды должны держаться и работать годами (а лучше десятилетиями). Если случится что и пациент отдаст концы, разработчикам мало не покажется. Хотя я, разумеется, могу быть не прав, и причина где-то в другом месте находится.
ну вобще-то Argus II получил официальное одобрение от EU-шных бюрократов. то есть это уже вполне промышленное решение - можно ставить. и, насколько мне известно, есть еще пара таких же на подходе. но матрицы у них, конечно, все еще мизерные. и развиваться такие штуки будут не быстро. с получением более менее вменяемых результататов в районе 20 годов. инвазивные технологии слишком инвазивны.
«Аргус» — это имплантант сетчатки. А я о кортикальных говорю, о которых тут речь.