homuncul

Прорывные нейротехнологии -- у военных

Программа N3 агентства DARPA, объявленная в 2018 году, определенно заслуживает пристального внимания. Как со стороны ученых в области нейронаук, так и со стороны тех, кто хочет (или по должности обязан) знать, какие технологии и возможности будут доступны в горизонте 10-15 лет.

Программа звучит как «Нехирургическая нейротехнология следующего поколения». Цель -- разработка неинвазивных ИМК высокого разрешения, которые обеспечат быстрое, эффективное и интуитивное взаимодействие солдат с военными системами. Если предыдущие программы DARPA были направлены на создание интерфейсов для восстановления раненых, то N3 заточена на применение нейронных интерфейсов в бою.

Как заявляет DARPA, они работают над усилением партнерства людей с компьютерными системами, чтобы идти в ногу с ожидаемой скоростью и сложностью будущих военных миссий. Крайне важно, чтобы военнослужащие могли в режиме реального времени и интуитивно взаимодействовать с интеллектуальными полуавтономными и автономными агентами, что невозможно при использовании обычных интерфейсов.

Абзац выше -- это, по сути, цитата.

Технологически задача состоит в том, чтобы неинвазивно, без хирургических операций, связываться с нервной тканью через череп, сохраняя при этом высокое пространственное и временное разрешение; причем как для записи, так и для стимуляции активности клеток.

Т.е. это должен быть двунаправленный интерфейс, позволяющий считывать сигнал из мозга и отправлять его в мозг. Категорий сигналов -- от шести и более в каждом направлении. Размер устройства -- в пределах 125 куб. см. И главное, оно устойчиво к движениям. Интерфейсы, что сегодня используют в медицине или научных исследованиях, нужно долго калибровать, а затем человек почти неподвижно сидит перед монитором.

Программа включает два типа технологий: неинвазивную и “слегка” инвазивную. Последняя допускает доставку вирусов, молекул, наночастиц и т.п., которые вводятся в мозг инъекцией, таблеткой или в виде спрея. Они усиливают или преобразуют сигнал от клеток таким образом, чтобы его могло считать внешнее устройство. В этом случае требование -- прибор должен регистрировать активность на уровне отдельных нейронов.

В DARPA считают, во-первых, что понадобятся новые решения в области физики рассеяния и ослабления сигналов при их прохождении через кожу, череп и ткань мозга; во-вторых, предлагают искать новые признаки активности нейронов, напр., оптические, акустические, магнитные. Отдельно прописано, что текущие методы, требующие громоздкого оборудования, типа МЭГ или МРТ, не будут рассматриваться. Улучшения в съеме ЭЭГ -- не предлагать.

В целом звучит довольно лихо для ближайших лет, но раз такая программа сформулирована, то, вероятно, некоторые идеи и технологические заделы уже имеются. Это жутко интригует.
Если хотя бы бегло ознакомиться с планом N3, трудно отделаться от двух мыслей. Первая -- изречение Черчилля о том, что генералы всегда готовятся к прошлой войне, не актуально. Во всяком случае, в Пентагоне. Вторая мысль -- военная сфера по-прежнему остается ключевым драйвером научно-технического развития, и об этом стоит помнить всем тем, кто воспевает прогресс.

Данное впечатление усилится, если обратить внимание на еще одну программу DARPA, также заявленную в 2018 году: AI Next. Она посвящена разработке ИИ технологий «третьей волны», которая предполагает, что интеллектуальные системы приобретают знания через генеративные контекстуальные и объяснительные модели. В том числе такой ИИ сможет объяснять свои решения.

DARPA предвидит будущее, в котором машины -- это больше, чем просто инструменты, которые выполняют запрограммированные человеком правила или же обобщают из наборов данных, собранных человеком. Скорее, машины, созданные DARPA, будут функционировать больше как коллеги, чем как инструменты. С этой целью исследования и разработки DARPA в области человеко-машинного симбиоза ставят своей целью партнерство с машинами.

Абзац выше -- тоже цитата. Он в точности следует логике, которую изложил Ликлайдер в 1960-м году и о чем я писал подробнее в лонгриде не так давно.

Там я утверждаю, что в недалеком времени цивилизация будет строиться на широком использовании искусственного интеллекта и интерфейсов мозг-компьютер. В DARPA именно так и считают, оттого бросают серьезные ресурсы (AI Next стоит $ 2 млрд.) на то, чтобы в таком мире не потерять лидерство. Разработки идут в рамках военного бюджета, но очевидно, что будут и прочие применения, ибо доминирование обеспечивается не только военными средствами.

То, что две эти программы запускаются параллельно, не случайность. Это осмысленный шаг, поскольку эффективное взаимодействие человека и машин требует как более мощного и гибкого ИИ, так и более быстрых и естественных способов связи с ним.

Полвека назад в DARPA положили начало интернету. Похоже, все идет к тому, что рождение “нейронета” произойдет там же.

Первых получателей грантов по N3 обещают объявить в начале 2019-го.
Не все сразу. Скорость набора неуклонно растет. (вот Facebook обещает 100 в минуту в ближайшее время, но я не верю).
А нужно 300+ и одновременно какая-то замена мышке. До нормального потребительского продукта, облегчающего и ускоряющего взаимодействие с техникой нам еще сколько? 5-10 лет?
Для мышки есть отслеживание взгляда. Вполне рабочая технология. Я не пользуюсь, потому что нет поддержки моей рабочей ОС, и монитор больше по диагонали, чем то на что расчитан тот девайс который у меня есть. Но вполне верю что это можно сделать вполне юзабельным.

Зачем вводить текст силой мысли если есть клавиатура, я не очень понимаю. Я даже не очень представляю как это будет работать без очень хорошего ИИ который будет фильтровать хаос внутреннего диалога.
Айтрекинг хорошая штука, но как быть с необходимыми разновидностями действий: клики разными клавишами, двойные клики, "перетягивание" и т.п.? Подмигивать как-то по-хитрому что ли?

Вводить текст "силой мысли", по идее, быстрее и удобнее. ИИ тут не нужен вовсе, вы почему-то решили что нейроинтерфейс будет читать мысли человека, но это совершенно не так. Активность мозга, представляющего себе какое-либо действие мало отличается от активности при реальном выполнении действия. Добавляем к этому феномен т.н. "кортикального гомункула" и нейропластичность и получаем возможность формирования мозгом проекционных зон под задачи взаимодействия с нейроинтерфесом (НИ), точно так же, как эти зоны формируются (или растут и усложняются) при любом обучении сложным навыкам, таким как игра на музыкальных инструментах. Самый элементарный вариант: НИ сканирует некоторую зону коры мозга, а вы представляете что отдаете ему команду "печатай букву Ф", после этого на клавиатуре нажимаете Ф. По паре десятков повторений такой калибровки на каждую букву и программа запомнит, так сказать, сигнатуру активности мозга по каждому символу и в "рабочем" режиме будет печатать этот символ при распознавании соответствующей сигнатуры. Ничего сложного.

Edited at 2018-10-09 01:40 pm (UTC)
> клики разными клавишами, двойные клики, "перетягивание" и т.п.?

На клавиатуре выделить разные клавиши. Перетягивание действительно эргономично организовать сложно. Но если делать интерфейс не под мышку, а под eye tracking то можно обойтись без перетягивания. Я работаю с трекболом с которым перетягивание тоже в общем то неудобно делать, и не страдаю вообще. Но у меня оконый менеджер сам располагает окна поэтому мне крайне редко что то нужно перетягивать.

> ИИ тут не нужен вовсе,

Мне нужен. Мне он нужен даже для полной клавиатуры и десктопа, не то что нейроинтерфейса. Мне нужен соавтор/редактор/критик который понимает меня с полуслова, и помогает формулировать мысли, в четкие отлитые в гранит фразы, ориентируясь на дрожание моей левой икры.

> Подмигивать как-то по-хитрому что ли?

Нет взгляд указывает только область экрана, а в интерфейсе заточенном под взгляд а не под "клики" взгляд указывает объект интереса с которым будет проходить манипуляция, манипуляция осуществляется руками. Взаимодействовать с объектами взглядом - неэргономично, а вот показывать взглядом - вполне.

> Активность мозга, представляющего себе какое-либо действие мало отличается от активности при реальном выполнении действия.

Т.е. я должен представлять себе как я нажимаю на клавиши клавиатуры ? Почему мне тогда просто не нажимать эти клавиши и не считывать имеющиеся сигналы с руки. Такие проекты есть, и они достаточно неудобны из-за отсутсвия фидбека для пальцев при нажитии кнопок.

Есть TAP

> НИ сканирует некоторую зону коры мозга, а вы представляете что отдаете ему команду "печатай букву Ф", после этого на клавиатуре нажимаете Ф.

Это уже делают, но это очень и очень медленно. Руками быстрее. Любой интерфейс для ввода текста должен работать быстрее как минимум речи человека.

Другой вопрос что если будет возможность писать в отдельные нейроны, то люди просто смогут вспоминать любую интересующую их информацию. А тексты устраивающего человека будут сами появляться перед внутренним взором. Если кто то еще будет парится текстами к тому времени конечно.
Клавиатура + айтрекинг ничем не лучше клавиатуры и мышки, но при этом требует кардинальной переработки интерфейсов всего и вся и длительной адаптации пользователей. Смысл? К тому же очевидно, что такая схема не выдержит конкуренции с нормальными НИ, так что будущего у нее нет.

Вопрос не в том, что лично вам нужно, а в том, какой НИ наиболее реален на текущем уровне технологий и при этом будет востребован пользователями. Для нормального НИ никакой ИИ не нужен.

Представлять что-либо все же проще и быстрее, чем выполнять действия. К тому же, представлять вы можете все что угодно, вовсе не обязательно представлять работу с клавиатурой. А еще можно снимать сигналы с мизинца на левой ноге. Но зачем?

Руками быстрее с имеющимися сейчас технологиями НИ, с их развитием все изменится. Руки не могут работать быстрее, чем работает нервная система.