CATEGORY

論文紹介

機械学習で進化するMI-EEG解析──脳波×AIの最新研究まとめ

頭の中で手を握る動作を思い描く──それだけでも、脳は小さな信号を発しています。その微細な脳波を正しく読み取ることで、人は「考え」を機械に伝えることができるかもしれません。 このような仕組みはMotor Imagery EEG(MI-EEG)と呼ばれ、いま世界中の研究者たちが開発競争を繰り広げている分野です。 今回は、MI-EEGの技術の広がりと、その歩みを追った2024年発表の論文 「Enhancing motor imagery EEG signal decoding through machine learning: A systematic review of recent progress」をもとに、近年注目されている機械学習と脳波技術の融合によって、どのように「考えるだけで伝わる世界」が実現に近づいているのかを、わかりやすくお届けします。 MI-EEGの仕組みと課題 MI-EEGとは、ある特定の運動を思い浮かべたときに脳波に現れる、特有の変化=パターンを読み取り、「右手を動かそうとしている」「足を動かそうとしている」といった想像内容を解読する技術です。 この脳波のパターンは、脳の運動をつかさどる領域(運動野)の活動によって生じます。たとえば右手の動きを想像すると、左脳の特定のエリアが反応し、そこに特徴的な脳波の変化が表れます。この変化を検出することで、思い描いた動作を推定し、機器の操作などに応用することができるのです。 ところが、こうしたEEG信号は非常に微弱で、まばたきや筋肉の動きなどのノイズに埋もれやすく、個人差も大きいという厄介な性質があります。そのため、従来の非侵襲的なBCI(Brain-Computer Interface)では、せいぜい「はい・いいえ」といった単純な意思しか読み取れないという限界がありました。 さらに、脳波の出方には人それぞれ違いがあるため、脳波を判別するモデルは利用者ごとに一から調整し直す必要があり、これも実用化における大きな壁のひとつとなっていました。 加えて、脳波は波の強さ(振幅)やリズム(周波数)といった特徴が、時間や体調によって変化する非定常な信号です。必要な脳の信号よりもノイズが目立ってしまうことも多く、信号対雑音比(SNR)が低いという特性も、安定した解析を難しくしていました。 MI-EEG解析における機械学習・深層学習の進化 こうした課題を打破しつつあるのが、近年の機械学習(ML)、とりわけ深層学習(ディープラーニング, DL)の技術です。実は、BCI分野では以前から機械学習によって脳波のパターンを分類する研究が行われてきました。しかしその多くは、EEGデータをモデルで扱うために、「どの周波数帯に注目すべきか」「どの脳の部位が反応しているか」といった特徴を見極めて選び出す作業(特徴抽出)や、それをもとに分類モデルを動かすための細かなパラメータ設定が欠かせませんでした。 これらの工程には、豊富な知識と経験が必要で、システム構築には多くの時間と手間がかかっていたのです。 しかし2017年頃から、状況が大きく変わり始めました。BCI Competition IVやPhysioNetなど、複数の被験者による運動想起タスクの脳波を収録した、大規模なオープンデータセットが次々と公開され、これを活用して高性能な深層学習モデルが脳波解析に本格的に導入されるようになったのです¹。 深層学習の強みは、生の時系列データから自動で意味のある特徴を学習できることにあります。従来は専門家が行っていた周波数帯の選択や空間フィルタの調整といった作業を、モデルが自ら学びながら処理してくれるようになりました。 この技術によって、MI-EEGのように複雑でノイズの多い信号でも、より柔軟かつ高精度に脳波を読み取ることが可能になってきました。 ¹ Hossain, K. M., Islam, M. A., Hossain, S., Nijholt, A., & Ahad, M. A. R. (2023). Status of deep learning for EEG-based brain–computer interface applications. Heliyon, 9(3), e14029. 主な深層学習モデルとMI-EEGへの応用 具体的に、近年のMI-EEGデコーディングで活躍している深層学習モデルや手法には、以下のようなものがあります。 CNN(Convolutional Neural Network:畳み込みニューラルネットワーク) 脳波には、「どの場所の電極で信号が強く出ているか」といった空間的な分布や、「どの周波数の信号が目立つか」といった周波数の特徴が含まれています。こうした情報を自動で見つけ出せるのが、CNNという深層学習モデルです。 このモデルは、もともとは画像認識の分野で活躍してきたモデルで、画像の中から形や模様を見分けるのと同じように、脳波の形や波のリズムを見つけ出せるのが特徴です。 実際、従来用いられていたCSP(共通空間パターン)+LDA(線形判別分析)といった機械学習アプローチに比べ、 CNNベースのモデルは、より柔軟に複雑な脳波パターンを扱うことができ、特にうまく脳波で意思を伝えられなかった被験者でも、分類精度が向上したという報告もあります²。 ² Hameed, I., Khan, D. M., Ahmed, S. M., Aftab, S. S., & Fazal, H. (2022). Classification of motor imagery EEG using deep learning increases performance in inefficient BCI users. PLOS ONE, 17(7), e0268880. RNN(Recurrent Neural Network:再帰型ニューラルネットワーク) 脳波のように「時間とともに変化するデータ」を扱う場面では、RNNという深層学習モデルが使われます。RNNは、過去の情報を記憶しながら現在の情報を処理できるのが特徴です。 たとえば、ある動作を思い描いたとき、脳波には一瞬だけでなく、時間の流れに沿って特徴的な変化が現れます。RNNはこのような時系列のパターンを捉えるのが得意で、「いつ、どんな変化があったか」といった情報を生かして分類を行うことができます。 このおかげで、静止画のような断片ではなく、時間の流れに沿った変化として信号を読み取れるようになり、より安定した分類が可能になりました。 転移学習(Transfer Learning) 転移学習では、あらかじめ多くの脳波データを使って学習させたモデル(ベースモデル)を使い、それを新しい利用者やタスクに合わせて、少ないデータで効率よく調整することができます。 たとえば、「右手を動かす想像」といった共通の脳波パターンをすでに学習済みのモデルがあれば、新しい人の脳波を少しだけ読み込むだけで、その人専用のモデルをすばやく作ることができるのです。 これにより、大量のデータを用意したり、毎回ゼロから学習し直したりする負担を大幅に減らすことができ、特にデータが取りにくい医療・福祉現場などでの活用にも期待が高まっています。 このように機械学習、とりわけ深層学習の導入によって、MI-EEG信号の解読精度は飛躍的に向上しました。実験室レベルでは、頭に装着した電極から得られる脳波だけで「右手」「左手」「両足」など複数種類の運動想像をかなりの精度で分類できるようになってきています。 たとえば、EEGNetというモデルは、とてもコンパクトな構造のCNNとして設計されており、データ量が限られている場面でも、高い精度で動作することが特徴です³。少ない学習データでも安定して使えるように工夫されていて、実際に多くの研究で活用が広がっています。 ³Lawhern, V. J., Solon, A. J., Waytowich, N. R., Gordon, S. M., Hung, C. P., & Lance, B. J. (2018). EEGNet: A Compact Convolutional Network for EEG-based Brain-Computer Interfaces. Journal of Neural Engineering, 15(5), 056013. MI-EEG技術を社会に届けるために乗り越えるべきこと 深層学習によってMI-EEGの解析精度は大きく向上しましたが、それを活用した応用システム(MI-BCI)として実用化するには、まだ乗り越えるべき課題も残されています。 たとえば、装着が簡便な簡易EEGデバイスでは、高性能な研究用システムと比べると信号品質が高くないため、日常利用にはノイズ対策が重要になってきます。またアルゴリズム面では、ユーザーが長時間使っても都度再学習しなくて済むような、高い汎用性や継続的学習の仕組みが求められています。 幸いなことに、こうした課題に対しても研究は進んでおり、脳波データを増強するデータ拡張手法や、異なる個人間でモデルを融通するドメイン適応技術、他の生体信号と組み合わせたハイブリッドBCIなど、様々なアプローチが提案されています。まさに人間の脳と機械をつなぐ架け橋として、MI-EEG技術は機械学習との融合によって日々アップデートされているのです。 近い将来、例えばリハビリテーションの現場で患者さんが頭で思い描くだけでロボットスーツを動かし、運動機能回復を助ける――そんな光景が当たり前になるかもしれません。ニューロテック最前線のMI-EEG×機械学習の進化から、これからも目が離せません。 🧠 編集後記|BrainTech Magazineより MI-EEGと深層学習の組み合わせは、これまで読み取りが難しかった脳の信号をより正確に扱える技術へと押し上げています。 実用化にはまだいくつかのハードルがありますが、個人ごとの違いやノイズの多さを乗り越えるための工夫も進み、MI-EEGは実際に使える技術へと着実に近づいています。 BrainTech Magazineでは、こうした研究の進展とその社会実装への動きを、これからも丁寧に伝えていきます。 📝本記事で紹介した研究論文 Hameed, I., Khan, D. M., Ahmed, S. M., Aftab, S. S., & Fazal, H. (2023). Enhancing motor imagery EEG signal decoding through machine learning: A systematic review of recent progress. Biomedical Signal Processing and Control, 84, 104960.

音楽を聴いた「喜び」や「安心」が脳波でわかる?──脳が感じる音楽の“気持ち”を読み解く

「音楽を聴くと心が踊る!」そんな経験、きっと誰にでもありますよね。でも、どうして音楽がこれほどまでに私たちの感情を揺さぶるのでしょうか? その謎に、脳波(EEG)を使って迫ろうとする最新のブレインテック研究が登場しました。2024年にIEEEで発表された注目の研究では、音楽を聴いているときの脳波から、その人の感情を4つのカテゴリーに分類するというチャレンジが行われています。 今回は、音楽と脳の意外なつながり、そしてこの研究から見えてくる新しい可能性について、わかりやすくご紹介します。 音楽を聴いているとき、脳では何が起きているのか? 今回紹介するのは、2024年にIEEEで発表された最新研究「EEG-Music Emotion Recognition: Challenge Overview」です。この研究では、音楽を聴いているときの脳波(EEG)に注目し、そこから「喜び」「安心」「悲しみ」「怒り」といった感情を推定することにチャレンジしています。 脳波とは、頭の表面から記録できる微弱な電気信号で、私たちの脳が活動している証のようなものです。音楽を聴いているとき、脳はこの信号を通してさまざまな反応を見せてくれます。 また、音楽は人の感情を強く動かす刺激として知られており、実際に「楽しい」「切ない」「緊張する」など、聴いているだけで気持ちが大きく揺れ動くこともあります。こうした感情の動きが、脳波のパターンにも現れるのではないか――そんな仮説のもと、研究チームは脳波から感情を読み取ることに挑戦しました。 このアプローチは、今までの「表情や心拍から感情を推測する」という方法とは一味違います。というのも、脳波は脳内で直接起こっている活動を捉えるため、音楽による微細な感情の変化もより直接的に反映されるからです。もちろん、脳波自体は非常に微弱でノイズも多く、解析は簡単ではありませんが、ディープラーニングをはじめとする最新の機械学習技術によって、そうした複雑なパターンの解明も少しずつ可能になりつつあります。 好きな曲 vs 初めての曲、脳はどう反応する? この研究では、20代〜30代の被験者34人が参加し、音楽を聴いているときの脳波を記録しました。使われた曲は16曲で、半分は被験者が選んだ“お気に入りの曲”、もう半分は他の人が選んだ“初めて聴く曲”です。慣れた音楽と新しい音楽で脳の反応がどう変わるかも調べています。 音楽を聴いた後には、「どんな気持ちになったか?」を、感情マップ(ジュネーブ感情ホイール)を使って自己申告してもらいました。この回答が、AIにとっての感情の正解になります。 つまり、本人がどう感じたかをラベルとして使うことで、「この脳波は安心のとき」「これは怒りのとき」といったデータをAIに学習させることができます。これが「教師あり学習」と呼ばれる方法です。 これを使って解析した結果、脳波は人によって違いはあるものの、特定の感情に共通する傾向があることが確認されました。 感情の読み取りは本当にできるの? この研究の目的は、脳波から「今、どのような感情を感じているのか?」という問いに答えられるようにすることです。しかし、現時点での精度は約30%程度で、4つの感情カテゴリーの中からランダムに選んだ場合の正答率(25%)をやや上回る水準にとどまっています。 出典:S. Calcagno, S. Carnemolla, I. Kavasidis, S. Palazzo, D. Giordano and C. Spampinato, "EEG-Music Emotion Recognition: Challenge Overview," ICASSP 2025 - 2025 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), Hyderabad, India, 2025, pp. 1-3, doi: 10.1109/ICASSP49660.2025.10888506. とはいえ、これはあくまでもスタート地点です。研究チームはこの結果をもとに、精度をさらに高めるための新たな手法の開発やデータの充実に取り組んでいます。ブレインテックの分野は日々進化しており、次のステップでは、より精度の高い成果が期待されます。 あなたの脳に合わせた音楽療法の実現可能性 注目すべきは、この技術が単なる実験に留まらず、実用面での応用が期待されている点です。たとえば、音楽療法の分野では、患者が音楽を聴いているときの脳波をリアルタイムで解析し、最適な治療法を提案することが可能になるかもしれません。 うつ病や不安障害の治療現場では、音楽を使ったセラピーの効果を脳波で見える化することで、患者ごとに合った曲の選定や、セラピー中の状態把握に役立てられる可能性があります。 また、介護や認知症ケアの現場でも、音楽による感情反応を脳波で捉えることで、患者の状態を見守りながら心を落ち着かせる音楽環境をつくるといった応用も期待されます。将来的には、ウェアラブル脳波計と連動した音楽プレーヤーが登場し、そのときの精神状態に合わせてリラックスできる音楽を自動選曲してくれるようなシステムも考えられます。 🧠 編集後記|BrainTech Magazineより 音楽は私たちの心を大きく揺さぶります。その感動の裏側には、まだ未知の脳波パターンが隠れているかもしれません。IEEEで発表された今回の研究は、そんな“脳が感じる音楽”を読み解こうとする第一歩です。 精度はまだ発展途上ですが、ブレインテックの進化により、音楽療法やメンタルヘルスの分野での応用も現実味を帯びてきています。 この記事が、脳と音楽のつながりに興味を持つきっかけになれば嬉しいです。今後もブレインテックの面白い話題をお届けしていきますので、お楽しみに! 📝本記事で紹介した研究論文 Calcagno, S., Carnemolla, S., Kavasidis, I., Palazzo, S., Giordano, D., & Spampinato, C. (2024). EEG-Music Emotion Recognition: Challenge Overview. 2024 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP).IEEE. https://ieeexplore.ieee.org/document/10888506

AIが命を救う意思決定を支援する時代──脳波×AIで重症脳損傷治療を

集中治療室で命をつなぐカギとなるのが、脳の状態を見守る「脳波モニタリング」です。近年、この分野にAI(人工知能)が加わり、重症の脳損傷患者のケアが大きく進化しつつあります。 そして、AIがリアルタイムで脳波を解析し、最適な治療を提案する──そんな医療の未来が、すでに現場に届き始めています。 今回は、2025年に発表された最新論文「Using artificial intelligence to optimize anti-seizure treatment and EEG-guided decisions in severe brain injury」をもとに、AIがどのように脳波を読み解き、命を支える医療判断に活かされているのかを紹介します。 見た目では判断できない「脳内の異常」を捉えるAI 脳卒中や外傷などで重度の脳損傷を負い、集中治療室に入っている患者の中には、意識がないように見えても、実際には脳内で危険な発作が進行していることがあります。このような外からは気づきにくい発作を見逃さないために、医療現場では脳波(EEG)のモニタリングが行われています。 特にけいれんを伴わない「非けいれん性発作」は、見た目ではわからず、医師の目をすり抜けてしまうこともあります。連続的に脳波を記録する「cEEG(連続脳波モニタリング)」は、そうした見えない異常を検出するための重要な手段ですが、膨大なデータを一つひとつ人の目で確認するのは現実的ではないため、AIがこの解析で活躍し始めています。 AIは、膨大な脳波データの中から発作の兆候をとらえ、異常を自動で検出します。 たとえば、ある解析方法では、脳波の変化をヒートマップのように色で視覚化します。下図のように、発作が起きている時間帯には、赤やオレンジが帯状に広がり、「炎のようなパターン」として現れます。 出典:Zade Akras, Jin Jing, M. Brandon Westover, Sahar F. Zafar.Using artificial intelligence to optimize anti-seizure treatment and EEG-guided decisions in severe brain injury こうした視覚的な表示によって、医療従事者は数分で1日分の脳波を確認できるようになり、発作の見逃しを減らすだけでなく、専門医以外のスタッフでも初期の異常に気づけるようになることが期待されています。 治療のさじ加減もAIがサポート 抗てんかん薬や鎮静薬は、重症脳損傷の治療において欠かせないものですが、薬が効きすぎると意識の低下や副作用を招き、反対に薬が効かなければ発作が止まりません。このさじ加減は患者ごとに異なるため、個別に調整する必要があります。 本研究では、脳波の反応や薬物の作用をAIが解析することで、「この患者にはどの薬を、どのくらいの量で使うべきか」を医師に提案するという手法が紹介されています。 さらに、脳波の中でも「バースト抑制」と呼ばれる鎮静状態の深さに着目し、AIがそれをリアルタイムで評価することで、過剰な鎮静を避けながら治療を続けるための判断材料も提供されます。このように、AIはデータをもとに治療の最適なポイントをその人ごとに導き出すパートナーとして活躍する可能性があります。 医師の判断を支える、もう一人の目としてのAI AIによる脳波解析は、すでに医療の現場で実用化が進んでいます。見えない発作を捉え、最適な治療を提案し、回復の可能性を探る――それはまさに、「AIが命を救う意思決定を支援する時代」の到来です。 これからの医療において、AIは単なるツールではなく、患者と医療チームをつなぐ新たなパートナーとして期待されています。 🧠 編集後記|BrainTech Magazineより 医療の現場にAIが入ってくると聞くと、どこかSFのように感じるかもしれません。 でも、脳波データを24時間見守り、発作の兆しを即座に伝えてくれるAIは、すでに現場のチームの一員として動き始めています。 人とAIが協力して命を守る、そんな新しい医療のかたちにこれからも注目です。 📝本記事で紹介した研究論文Zade Akras, Jin Jing, M. Brandon Westover, Sahar F. Zafar.Using artificial intelligence to optimize anti-seizure treatment and EEG-guided decisions in severe brain injury Clinical Neurophysiology Practice, Volume 10, 2025. https://www.sciencedirect.com/science/article/pii/S1878747925000029

脳波であなたの好きな音楽がわかる?感情を読むAIが進化中

日々耳にするお気に入りの音楽。実はその一曲一曲が、私たちの気分や感情にさまざまな影響を与えています。明るいメロディに元気づけられたり、切ない旋律に心が動かされた経験は誰しもあるでしょう。 こうした音楽が引き起こす感情を、脳波(EEG)から読み取る研究が今、注目を集めています。 今回はICASSP 2025で発表された論文「Multimodal Fusion for EEG Emotion Recognition in Music」を取り上げ、大規模言語モデル(LLM)やマルチタスク学習を用いて、従来を大きく上回る感情認識を実現した最新研究をご紹介します。 音楽を聴いたときの「気持ち」を脳波で読み取る難しさ 音楽を聴いて感じる気持ちを脳波から読み取る研究は、近年少しずつ進んできましたが、このような研究の中で大きなハードルとなるのが、「音楽の感じ方に個人差がある」という点です。 同じ曲を聴いても、人によって感じる気持ちが違いますし、それに伴う脳波の反応も変わってきます。このばらつきが、AIが感情を正しく読み取るうえで障壁となってきました。 これまでの多くの研究では、さまざまな人の脳波データをひとつにまとめてAIに学ばせるという方法が取られてきました。しかしこの方法では、誰が聴いたかという違いが考慮されないため、個人差を無視したままAIが学習してしまうという課題がありました。 そこで本研究では、感情を読み取るだけでなく、聴き手が誰なのかを識別するタスクも同時にAIに学ばせる手法が採用されました。このように複数の目的を同時に学ばせることで、AIは人ごとの特徴を踏まえたうえで、より正確に感情を読み取れるようになります。 さらに本研究では、感情を「うれしい」「悲しい」といった単純な分類ではなく、「どれくらい明るい気分か(Valence)」と「どれくらい興奮しているか(Arousal)」という2つの軸に分けて数値で表すことで、より細やかな感情の変化まで見えるようになりました。 音楽の印象を手がかりに、AIが感情を読み解く 脳波だけで感情を読み取ろうとすると、人によって反応が違うため、どうしても限界があります。そこで今回の研究では、脳波だけでなく、音楽そのものの情報も一緒にAIに学ばせるという新しいアプローチがとられました。 人が音楽を聴いて感情を動かされるとき、そのきっかけはメロディやリズム、テンポ、音の明るさや暗さといった曲の特徴です。つまり、「どんな音楽か」と「脳がどう反応したか」を合わせて見ることで、感情の変化をより正確にとらえることができるのです。 さらにこの研究では、音楽の感情的な特徴を読み取るために、大規模言語モデル(LLM)が活用されました。LLMとは、ChatGPTのようなAIの一種で、大量の言語情報をもとに意味を理解することができます。このモデルを使うことで、「この曲は明るくてエネルギッシュ」「この曲は静かで物悲しい」といった音楽の雰囲気や印象をAIが言葉から読み取り、その特徴を数値として扱うことができるようになります。 こうして得られた音楽の特徴と、聴いたときの脳波の変化の両方をAIが一緒に学ぶことで、どちらか一方だけでは読み取りきれなかった感情の手がかりをつかむことができるようになりました。 出典:Huang, S., Jin, Z., Li, D., Han, J., & Tao, X. (2025). Multimodal Fusion for EEG Emotion Recognition in Music with a Multi-Task Learning Framework. 2025 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP) ベースラインを大きく上回る精度向上 こうした工夫により、今回の研究では従来の手法を大きく上回る精度で感情を推定することに成功しました。 音楽の印象と脳波のデータを組み合わせ、さらに聴き手の情報まで取り入れたことで、AIはより正確に「その人が音楽を聴いてどう感じたか」を読み取れるようになったのです。 また、感情を2つの軸で表すことにより、「なんとなく楽しい」「少し不安」といった曖昧な気持ちも、数値として扱うことが可能になりました。 AIはそうした微妙な感情の揺れまで捉えられるようになり、結果として精度の向上につながりました。 今回の結果は、単に技術的なブレイクスルーというだけでなく、人の“心の動き”を読み取るAIの進化を感じさせるものでもあります。 音楽という主観的で感覚的なものを、客観的な脳波と融合しながら扱えるようになったことは、今後のブレインテックの広がりにとっても大きな意味を持つでしょう。 出典:Huang, S., Jin, Z., Li, D., Han, J., & Tao, X. (2025). Multimodal Fusion for EEG Emotion Recognition in Music with a Multi-Task Learning Framework. 2025 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP) 脳波が拓くパーソナライズ音楽推薦の未来 こうした技術は、単なる感情の分析にとどまらず、私たちの日常に活かされる可能性を秘めています。とくに注目されているのが、音楽推薦システムへの応用です。 これまでも、「この曲が好きそう」「前に聴いたジャンルからおすすめ」といったレコメンド機能は存在していましたが、そこには“そのときの気分”という要素までは反映されていませんでした。 今回の研究のように、脳波を通してリアルタイムで感情を読み取れるようになれば、今の自分にぴったりの音楽を自動で選んでくれる世界が見えてきます。 たとえば、疲れているときにはリラックスできる曲を、集中したいときにはテンポのいい曲を提案するような、状況や気分に合わせた音楽体験が可能になるのです。 さらに将来的には、ストレス状態の検出やメンタルヘルスへの応用も期待されています。脳波によって感情の変化を客観的にモニタリングできれば、「最近落ち込みがちだな」といった心のサインを早期に察知し、音楽を通じてやさしく気分を整えるような介入も夢ではありません。 脳と音楽とAIがつながることで、「今の気分にぴったりな音楽」を自動で選んでくれるような体験――そんな未来が、少しずつ現実になってきています。 🧠 編集後記|BrainTech Magazineより 「この曲、今の気分にぴったり」と感じたこと、きっと誰にでもあるはずです。 その“気分”が脳波とAIで読み取れるようになってきているなんて、ちょっとワクワクしますよね。 今回ご紹介した研究は、話題の大規模言語モデルやマルチタスク学習といった最新技術を巧みに活用し、個人差の壁を越えながら、より自然で柔軟な感情理解に挑んだ点が非常に印象的でした。 今後、音楽推薦やメンタルヘルスといった分野での応用が進めば、「今の自分に寄り添う音楽体験」が、誰にとってもあたりまえのものになるかもしれません。 BrainTech Magazineでは、こうした脳科学とテクノロジーの交差点から生まれる最前線の研究を、今後もわかりやすくお届けしていきます。 Huang, S., Jin, Z., Li, D., Han, J., & Tao, X. (2025). Multimodal Fusion for EEG Emotion Recognition in Music with a Multi-Task Learning Framework. 2025 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP).  https://ieeexplore.ieee.org/abstract/document/10890727?casa_token=2MWCAW46z80AAAAA:4r31MKmOZvOeICqzC3AKOapdGgO9fRHibb28bmmh3XwbrvD_Uk24huPs0ANwAQeA1oAVe6himA

脳波で文章が書ける時代へ──最新AIが「思考」をテキストに変換

「頭の中で考えただけでメールが送れる」 そんなSFのような世界が、ついに現実味を帯びてきました。最新のブレインテック研究では、非侵襲の脳波(EEG)データから自然な文章を復元するAIモデルが開発され、注目を集めています。 脳波から“文章”を読み解く:非侵襲BCIのブレイクスルー 脳波から人の意思を読み取る「ブレイン・コンピュータ・インタフェース(BCI)」の研究は、これまでにも義手の制御や簡単な選択肢の選別といった形で応用されてきました。しかし、「文章」を再構成する試みは、まさに次元が異なるチャレンジです。 従来の非侵襲的なBCIでは、脳波の信号が微弱でノイズも多く、せいぜい「はい・いいえ」レベルの意思しか識別できませんでした。文章のような連続的かつ複雑な情報を読み取るには、高度なアルゴリズムと深層学習の力が不可欠だったのです。 注目の研究:HGRUとMRAMによる「脳波から文章生成」 2025年1月に学術誌『Engineering Applications of Artificial Intelligence』に掲載された論文「Decoding text from electroencephalography signals: A novel Hierarchical Gated Recurrent Unit with Masked Residual Attention Mechanism」では、中国・電子科技大学の研究チーム(Qiupu Chenら)が、脳波(EEG)から自然な文章を直接生成するAIモデルを発表しました。 このモデルの何より驚くべき点は、単なる脳波のラベリングではなく、脳活動から直接「文章そのもの」を出力する点にあります。まさに“頭で考えたこと”が、画面に文字として現れる時代の到来を感じさせます。 どうやって脳波が「文章」になるのか? このモデルは、複数の時間スケールで脳波データを処理する「階層型GRU構造」を採用しています。これにより、文章の意味を理解するうえで重要な、文脈や過去の情報を保持しながら、整った文として出力することが可能になります。 さらに、脳波データの中から特に意味のある信号に注目するために、「アテンション機構」と呼ばれる仕組みが使われています。これはAIが入力データの中で“どこを見るべきか”を判断する技術で、ノイズを抑えつつ、重要な部分にしっかりと焦点を当てる役割を果たします。 そして出力されるテキストは、あらかじめ言語の構造を学習しているAI(例:BARTなど)とも連携されており、自然な文法や語順で表現されます。 つまり、脳波を読み取るだけでなく、それを“言語として訳す”ところまでを一気に担う、まさに脳波の翻訳者のようなシステムなのです。 どこまで“思考”を再現できるのか? もちろん、現時点では完全な「心の読解」はできません。とはいえ今回の研究では、非侵襲で得られる脳波データから、意味の通る文章を構成できるレベルにまで精度が向上しており、これは非常に大きな進展といえます。 従来のようにあらかじめ決められた選択肢を識別するだけでなく、より柔軟で自然な表現の再構成が可能になったことで、脳波によるコミュニケーションのあり方そのものに新たな可能性が生まれました。 話せない人の“声”になるテクノロジー この技術が進化すれば、話すことができないALS患者や脳卒中患者が、自分の意思を「文章」で伝える手段になる可能性があります。さらに、脳に電極を埋め込むことなく、EEGキャップを使うだけで実現できる未来が近づいているのです。 また、将来的には、ARやVR空間での“思考だけで操作するUI”としての応用も期待されており、「脳波でLINEを送る」「手を使わずにドキュメントを書く」といった未来も、そう遠くないかもしれません。 研究の意義:脳とAIの共進化 この研究は、脳科学とAI技術の融合が、いかに強力な可能性を秘めているかを象徴しています。今後も、脳波解析技術の精度向上、大規模データによるモデルの汎用化、そしてリアルタイム処理の実現などが進めば、“思考と機械”をつなぐインターフェースとしてのBCIは、私たちの生活を大きく変える存在になるでしょう。 🧠 編集後記|BrainTech Magazineより 今回ご紹介した研究は、非侵襲で自然文を復元するというブレインテックの最前線を示すものです。SFで描かれた「思考で操作する世界」は、いま現実になりつつあります。VIEでは、こうした最先端の技術と社会実装の橋渡しを目指して、今後も注目研究を随時ご紹介していきます。 📝本記事で紹介した研究論文 Chen, Q. et al. (2025). Decoding text from electroencephalography signals: A novel Hierarchical Gated Recurrent Unit with Masked Residual Attention Mechanism. Engineering Applications of Artificial Intelligence, Volume 129, January 2025. https://www.sciencedirect.com/science/article/abs/pii/S0952197624017731

1 2 3

Ready to work together?

CONTACT

ニューロテクノロジーで新たな可能性を
一緒に探求しませんか?

ウェアラブル脳波計測デバイスや、
ニューロミュージックに関心をお持ちの方、
そして共同研究や事業提携にご興味のある
企業様、研究機関様からの
お問い合わせをお待ちしております。