Чтение мыслей недавно приблизилось к реальности: ученые разработали искусственный интеллект, который может превращать деятельность мозга в текст.
Хотя в настоящее время система работает с нейронными паттернами, обнаруженными, когда кто-то говорит вслух, эксперты говорят, что в конечном итоге она может помочь в общении пациентам, которые не могут говорить или печатать, например, глухонемым или с нарушениями опорно-двигательного аппарата.
«Мы еще не сделали это, но думаем, что проект может стать основой речевого протеза», — сказал д-р Джозеф Макин, соавтор исследования из Калифорнийского университета в Сан-Франциско.
В своей статье для журнала Nature Neuroscience Макин и его коллеги рассказывают о том, как они разработали свою систему, наняв 4-х участников, которым имплантировали электроды в мозг для мониторинга эпилептических припадков.
Этих участников попросили прочитать вслух 50 различных предложений несколько раз, включая такие как: «Тина Тернер — поп-певица» и «Эти воры украли 30 драгоценных камней». Команда отслеживала их нервную активность, пока пациенты разговаривали.
Затем эта информация были передана в алгоритм машинного обучения, тип системы искусственного интеллекта, которая преобразовывает данные о деятельности мозга для каждого произносимого предложения в строку чисел.
Чтобы удостовериться, что числа относятся только к аспектам речи, система сравнила звуки, предсказанные на основе небольших фрагментов данных о деятельности мозга, с фактическим записанным звуком. Затем строка чисел была введена во вторую часть системы, которая преобразовала ее в последовательность слов.
Сначала система выдавала бессмысленные предложения. Но когда ИИ сравнил каждую последовательность слов с предложениями, которые фактически были прочитаны вслух, то текст улучшился. Алгоритм ИИ узнал как цепочка чисел связана со словами и какие слова имеют тенденцию следовать друг за другом.
Затем команда проверила систему, генерируя письменный текст только из мозговой активности во время речи.
Система не была идеальной. Среди ошибок были такие: «Эти музыканты изумительно музицируют», что ИИ интерпретировал как «Шпинат был знаменитым певцом», а «Рулон проволоки лежал у стены» превратилось в «У Робина будет желтая лилия».
Тем не менее, команда обнаружила, что точность новой системы была намного выше, чем предыдущие подходы. В то время как точность варьировалась от человека к человеку, для одного участника в среднем требовалось исправление только 3% каждого предложения — выше, чем 5% ошибок в слове для профессиональных людей, транскрибирующих информацию. Но, как подчеркивает команда, в отличие от последнего, алгоритм обрабатывает лишь небольшое количество предложений.
«Если вы попытаетесь выйти за пределы [50 использованных предложений], декодирование станет намного хуже», — сказал Макин, добавив, что система, вероятно, полагается на комбинацию изучения конкретных предложений, идентификации слов по активности мозга и распознавания общих закономерностей на английском языке.
Команда также обнаружила, что обучение алгоритму по данным одного участника означает, что от конечного пользователя требуется меньше данных для обучения — что могло бы сделать обучение менее обременительным процессом для пациентов.
Доктор Кристиан Херфф, эксперт в этой области из Университета Маастрихта, который не участвовал в исследовании, сказал, что исследование было захватывающим, потому что система использовала менее 40 минут обучающих данных для каждого участника и ограниченный набор предложений, а не миллионы часов как обычно требуется.
«Тем самым они достигают уровня точности, которого до сих пор не достигнуто», — сказал он.
Тем не менее, эксперт отметил, что система еще не использовалась для многих пациентов с серьезными нарушениями, так как она основывалась на активности мозга, записанной людьми, произносящими вслух предложение.
«Конечно, это фантастическое исследование, но эти люди могут просто пользоваться «OK Google», — сказал он. «Это не является переводом мысли в речь».
Херфф сказал, что людям пока не следует беспокоиться о том, что другие читают их мысли: для этого необходимо имплантировать мозговые электроды, в то время как воображаемая речь очень отличается от внутреннего голоса.
Но доктор Махназ Арванех, эксперт по интерфейсам мозг-машин в университете Шеффилда, сказала, что сейчас важно рассмотреть этические вопросы. «Мы все еще очень далеки от того, чтобы машины читали наши мысли», — говорит она. «Но это не значит, что мы не должны думать об этом и не должны рассматривать это как потенциальную возможность».
По материалам: The Guardian