Нейрофизиологи из США научились “подслушивать“ мысли человека
Американские биологи создали нейрочип, способный считывать сигналы из центра слуха мозга в режиме реального времени и расшифровывать то, что слышит или говорит его обладатель. Эта технология вернет дар речи парализованным и немым людям, пишут ученые в журнале Nature Communications.
«Мы показали, что мы можем напрямую считывать сигналы с поверхности коры мозга для того, чтобы расшифровывать то, что воспринимает или произносит тот или иной человек, не тратя на это много времени. Это большой шаг к созданию нейропротезов, которые вернут дар речи тем людям, которые сейчас его лишены», — заявил Джош Чартье (Josh Chartier) из университета Калифорнии в Сан-Франциско (США).
В последние 10 лет нейрофизиологам удалось совершить настоящий прорыв в области создания нейроинтерфейсов — набора микрочипов, особых электродов и компьютерных программ, позволяющих подключать к мозгу человека и животных кибер-конечности, искусственные глаза и даже те органы чувств, аналогов которых нет в природе — тепловизоры и рентгеновизоры.
{banner_news_show}
К примеру, в марте 2013 года бразильские и американские ученые смогли объединить мозг двух крыс, живущих в тысячах километров друг от друга, в своеобразную «локальную сеть», или, как назвали эту конструкцию сами ученые, «органический компьютер», и научить их обмениваться информацией.
Позже они создали аналогичный «коллективный разум», объединив мозг трех обезьян, а два года назад другие исследователи смогли заменить поврежденную часть гиппокампа, центра памяти в мозге мышей, и избавить их от «синдрома сурка», неспособности запоминать новую информацию.
Подобные успехи, как отмечает Чартье, заставили многих ученых задуматься над тем, можно ли напрямую считать мысли из центров речи мозга и озвучить их. Как показала практика, решение этой задачи оказалась намного сложнее, чем подключение новых рук и ног к телу парализованного пациента.
Весной этого года Чартье и его коллеги смогли решить ее благодаря тому, что они не пытались расшифровать сигналы мозга и напрямую «считать» слова и буквы, а предположили, что наши центры речи кодируют не конкретные звуки, а наборы инструкций для мускулов рта, гортани языка и голосовых связок. Это позволило им впервые «честно» считать мысли из мозга нескольких эпилептиков.
Добившись подобных успехов, калифорнийские нейрофизиологи попытались применить ту же методику для того, чтобы считывать не только мысли из центра речи добровольцев, но и из тех областей мозга, которые отвечают за обработку информации из органов слуха.
Заручившись поддержкой трех пациентов, в чей центр слуха были имплантированы электроды, ученые начали следить за активностью этой части коры мозга в тот момент времени, когда добровольцы слышали вопросы Чартье и его коллег или отвечали на них.
Записывая эти сигналы и сопоставляя их друг с другом, нейрофизиологи создали алгоритм, «расшифровывающий» команды мозга в понятный для компьютера язык. В отличие от прошлой версии этой программы, новое детище калифорнийских нейрофизиологов может не только озвучивать «подслушанные» мысли добровольцев, но и преобразовать их в текст, сопоставляя вопросы и ответы.
Пока эта система имеет достаточно небольшой «словарь», но при этом она может работать в режиме реального времени и совершает ошибки заметно реже, чем другие системы аналогичного рода. В среднем, она корректно считывает примерно три из четырех слов, слогов и звуков в предложении, чего достаточно для общения.
Дальнейшая «тренировка» алгоритма, как надеется Чартье, позволит использовать этот нейроинтерфейс для свободного общения с паралитиками, жертвами инсультов или немыми людьми, лишившимися способности говорить из-за травм черепа или голосовых связок.
«Мы показали, что мы можем напрямую считывать сигналы с поверхности коры мозга для того, чтобы расшифровывать то, что воспринимает или произносит тот или иной человек, не тратя на это много времени. Это большой шаг к созданию нейропротезов, которые вернут дар речи тем людям, которые сейчас его лишены», — заявил Джош Чартье (Josh Chartier) из университета Калифорнии в Сан-Франциско (США).
В последние 10 лет нейрофизиологам удалось совершить настоящий прорыв в области создания нейроинтерфейсов — набора микрочипов, особых электродов и компьютерных программ, позволяющих подключать к мозгу человека и животных кибер-конечности, искусственные глаза и даже те органы чувств, аналогов которых нет в природе — тепловизоры и рентгеновизоры.
{banner_news_show}
К примеру, в марте 2013 года бразильские и американские ученые смогли объединить мозг двух крыс, живущих в тысячах километров друг от друга, в своеобразную «локальную сеть», или, как назвали эту конструкцию сами ученые, «органический компьютер», и научить их обмениваться информацией.
Позже они создали аналогичный «коллективный разум», объединив мозг трех обезьян, а два года назад другие исследователи смогли заменить поврежденную часть гиппокампа, центра памяти в мозге мышей, и избавить их от «синдрома сурка», неспособности запоминать новую информацию.
Подобные успехи, как отмечает Чартье, заставили многих ученых задуматься над тем, можно ли напрямую считать мысли из центров речи мозга и озвучить их. Как показала практика, решение этой задачи оказалась намного сложнее, чем подключение новых рук и ног к телу парализованного пациента.
Весной этого года Чартье и его коллеги смогли решить ее благодаря тому, что они не пытались расшифровать сигналы мозга и напрямую «считать» слова и буквы, а предположили, что наши центры речи кодируют не конкретные звуки, а наборы инструкций для мускулов рта, гортани языка и голосовых связок. Это позволило им впервые «честно» считать мысли из мозга нескольких эпилептиков.
Добившись подобных успехов, калифорнийские нейрофизиологи попытались применить ту же методику для того, чтобы считывать не только мысли из центра речи добровольцев, но и из тех областей мозга, которые отвечают за обработку информации из органов слуха.
Заручившись поддержкой трех пациентов, в чей центр слуха были имплантированы электроды, ученые начали следить за активностью этой части коры мозга в тот момент времени, когда добровольцы слышали вопросы Чартье и его коллег или отвечали на них.
Записывая эти сигналы и сопоставляя их друг с другом, нейрофизиологи создали алгоритм, «расшифровывающий» команды мозга в понятный для компьютера язык. В отличие от прошлой версии этой программы, новое детище калифорнийских нейрофизиологов может не только озвучивать «подслушанные» мысли добровольцев, но и преобразовать их в текст, сопоставляя вопросы и ответы.
Пока эта система имеет достаточно небольшой «словарь», но при этом она может работать в режиме реального времени и совершает ошибки заметно реже, чем другие системы аналогичного рода. В среднем, она корректно считывает примерно три из четырех слов, слогов и звуков в предложении, чего достаточно для общения.
Дальнейшая «тренировка» алгоритма, как надеется Чартье, позволит использовать этот нейроинтерфейс для свободного общения с паралитиками, жертвами инсультов или немыми людьми, лишившимися способности говорить из-за травм черепа или голосовых связок.