Мозговые интерфейсы

(Начало в №49)

Итак, как же можно управлять компьютером исключительно силой мысли? Оказывается, очень даже легко. Собственно, проблемой управления внешними устройствами при помощи одного только мозга начали заниматься очень давно. Еще в 1967 Эдмонд Деван (Edmond Dewan) проводил эксперименты по считыванию управляющих сигналов с мозга с помощью электроэнцефалографа. Испытуемые научились до определенной степени контролировать амплитуду мозгового альфа-ритма и таким образом передавали отдельные буквы при помощи азбуки Морзе. Первым словом, переданным таким образом на телетайп, было слово "кибернетика". Определенно, назвать мозговым или нервным интерфейсом созданное Деваном устройство нельзя, но оно продемонстрировало возможность осмысленного управления внешним устройством при помощи одной только мысли. Вскоре после этого, в 70-х годах, американское оборонное агентство DARPA (известный рассадник новых технологий) начало исследования по применению техники мысленного контроля для управления боевыми самолетами. Речь тут шла даже не об управлении, а о мониторинге ментального состояния пилота и подстройке самолета под это состояние. Однако через некоторое время работа была остановлена, поскольку тогдашняя электроника не позволяла достичь сколько-нибудь приемлемого практического результата.


Вывод

А теперь посмотрим, насколько успешно удается выводить мозговые сигналы "наружу" и целенаправленно использовать их для управления техникой. Самая, пожалуй, свежая новость на этом фронте - эксперименты с обезьянами в Университете Дьюка (Duke University). Суть экспериментов такая - в двигательные центры мозга обезьяны были вживлены электроды (около 100), регистрирующие его активность. Затем обезьянам была задана относительно простая задачка: при помощи джойстика навести на экране компьютера курсор на заданную точку и потом, сжимая джойстик (он был оборудован датчиком давления), увеличить курсор до заданного размера. Все мозговые импульсы во время выполнения этих заданий записывались и анализировались. За удачное выполнение задания обезьяну награждали глотком вкусного сока. А затем началось самое интересное - джойстик отключили, а передвижения курсора управлялись только мозгом обезьяны. Причем через некоторое время обезьяна это поняла и перестала обращать внимание на джойстик и вообще пользоваться рукой. Курсор она при этом наводила вполне успешно.

Этот эксперимент проводился еще в 2000 году. Основной его целью было сопоставить мозговые сигналы видимым движениям руки и суметь затем точно интерпретировать одну только мозговую активность в предполагаемое движение (причем, в реальном режиме времени). Сейчас эта работа получила свое логическое продолжение. Между компьютером, обрабатывающим мозговые сигналы, и дисплеем была включена механическая рука-манипулятор. Таким образом, обезьяна управляла манипулятором, который затем управлял курсором. Этот опыт прошел вполне успешно, причем обезьяна довольно быстро приспособилась к запаздыванию, которое вызывала инерция руки, и практически стала воспринимать механизм как продолжение своего тела. Ознакомиться с результатами этого исследования можно по адресу www.plosbiology.org/pips/plbi-01-02-carmena.pdf.

 

Кстати, аналогичный эксперимент с человеком был проведен еще в 1997 году в Университете Элмори. Там имплантировали электроды в двигательные центры нескольких полностью парализованных пациентов (в том числе потерявших способность говорить). Пациенты со временем научились передвигать курсор по экрану компьютера и таким образом общаться с врачами (например, выбирая на экране одну из простых фраз). Имплантант передавал информацию по радио, а питание получал через индукционную катушку прямо через череп - то есть никаких разъемов и проводов. Почитать об этом проекте можно здесь: www.emory.edu/WHSC/HSNEWS/releases/feb99/022399brain.html.

Однако, несмотря на успехи вышеописанной методики, большинство других исследователей все-таки предпочитает не влезать в голову пациенту до такой степени. Поэтому для считывания сигналов, в основном, используется электроэнцефалограмма с последующей обработкой. Например, исследователи из Швейцарского института Dalle Molle и испанского Центра биомедицинских исследований создали прототип кресла-каталки, управляемого силой мысли. Прототип представляет собой колесный робот, связанный с оператором посредством шапочки с электродами и обрабатывающий сигналы компьютера. Для управления используются сигналы электрической активности мозга (аналогично электроэнцефалограмме), так что никакого хирургического вмешательства и вживления электродов не требуется. Как выяснилось, за пару дней операторы научились генерировать вполне стабильные "состояния ума", четко распознаваемые системой и интерпретируемые роботом как команды "вперед", "влево" и "вправо".

Имеется и масса других аналогичных разработок, благо, для работы с энцефалограммами не требуются сложные операции на мозге. Правда, и сложность интерпретации сигналов заметно выше. Кстати, ежегодно даже проводится конкурс на наиболее работоспособный алгоритм обработки ЭЭГ на предмет выделения из нее требуемой информации. Почитать о нем можно здесь: ida.first.fhg.de/~blanker/competition.

Еще один интересный пример применения ЭЭГ продемонстрирован в институте биомедицинской инженерии в Граце (www-dpmi.tu-graz.ac.at). Там "чтение мыслей" при помощи ЭЭГ совместили с электростимуляцией мышц. В результате парализованный пациент смог до определенной степени восстановить контроль над своей рукой.

Пару слов насчет электростимуляции. Как известно, лапка лягушки сокращается под действием электрического тока. А если этот ток подавать с умом, то можно вызывать вполне контролируемый отклик мышц, до некоторой степени симулирующий их естественную работу.

Впрочем, использование ЭГГ уже давно вышло из чисто исследовательской стадии. Сейчас на рынке имеются, как минимум, три коммерческих устройства, позволяющих сопрягать энцефалограф и компьютер. Первой такую штуку под названием Interactive Brainwave Visual Analyser начала выпускать фирма IBVA (www.ibva.com) еще в 1991 году. Устройство предназначалось, в первую очередь, для людей творческих, поэтому сопутствующий софт был, в основном, сосредоточен на манипуляциях с графикой и звуком (сигналы можно было выводить в формате MIDI). Впрочем, можно было применять это устройство и для управления компьютером (хотя на это создатели, похоже, как раз не упирали) и для всяких достаточно нетривиальных вещей вроде технологий быстрого обучения (чтобы отслеживать состояние мозга в процессе и не терять концентрации) или решения конфликтов (сила воли вместо банального мордобоя).

Несколько позже появилось еще одно похожее устройство ввода, которое я опишу подробнее (поскольку все разработки очень похожи друг на друга и по устройству, и по способу функционирования). Итак, компания Brain Actuated Technologies (www.brainfingers.com) выпустила на рынок девайс под названием Cyberlink Interface. Cyberlink Interface берет управляющие сигналы с трех датчиков, размещенных на лбу пользователя (на модной головной повязке, как и у IBVA). Лоб выбран потому, что с кожи хорошо снимать биопотенциалы, вызванные работой мозга и связанной с ней активностью лицевых мышц. Всего таких сигналов снимается 14 - десять непрерывных (похожих на получаемые при электроэнцефалографии) и четыре дискретных (отслеживаются движения глаз влево/вправо и мускульная активность лица). Соответственно, можно получить вполне приличный набор средств управления курсором и подачи команд (настройку можно произвести на уровне драйвера, аналогичного драйверу мыши в Windows). С датчиков сигналы попадают в управляющий блок, где разделяются по частотам, обрабатываются DSP, и затем уже выделенные сигналы передаются по последовательному порту в компьютер, где интерпретируются драйвером. Представители фирмы утверждают, что во время испытаний люди, знакомые с таким интерфейсом, могли меньше чем за 4 секунды точно навести курсор на случайным образом появляющийся на экране квадрат размером 32х32 пиксела. Не мышь, конечно, но тоже неплохо. А вот скорость реакции в задачах, требующих нажатия кнопки мыши, у пользователей Cyberlink на 15% превосходила обычных "мышинистов". Предназначено это устройство, как видите, в первую очередь, для управления компьютером в качестве устройства ввода и нацелено на тех, кто не может работать с компьютером нормально. Стоит это устройство около $2000.

Итого, что же мы имеем. Технология прямого взаимодействия с компьютером пока что находится практически в зачаточном состоянии, однако активно развивается. Хотелось бы надеяться, что это развитие приведет к ощутимым результатам в ближайшие 10-20 лет. Тем более, что предпосылки для этого есть. Проблемы с обработкой сигналов более-менее решились с появлением мощных компьютеров. Миниатюризация электроники и развитие беспроводных интерфейсов вполне способны решить и проблемы с мобильностью таких устройств. Есть надежда, что успехи нанотехнологий и микромеханических устройств, наконец, позволят создать совершенно новое поколение электродов и технологий имплантации (например, самособирающиеся прямо в мозгу датчики). А там уже недалеко и до настоящих киборгов.

Константин АФАНАСЬЕВ

Версия для печатиВерсия для печати

Номер: 

50 за 2003 год

Рубрика: 

Новые технологии
Заметили ошибку? Выделите ее мышкой и нажмите Ctrl+Enter!
 

Комментарии

Аватар пользователя Самурай
Статья мне понравилась. может ли кто-то мне подсказать, способны ли устройства биологически обратной связи достоверно зафиксировать утомление, раздражение, агрессию, сексуальное возбуждение. Если это возможно, то какой принцип работы разделения разных видов нервного возбуждения?
Аватар пользователя Фархад
Полагаю это возможно в принципе. Принцип разделения простой - геометрический, т.е. по участкам. Точность съемки сигнала типа ЭЭГ конечно невысокая. Томографы (fMRI) уже вчера умели это делать с пространственным разрешением в несколько миллиметров и временным порядка десятков миллисекунд.

Что касается типа психо-физических и когнитивных процессов, то тут все гораздо сложнее. Но это уже другой вопрос.