CATEGORY

論文紹介

AIが命を救う意思決定を支援する時代──脳波×AIで重症脳損傷治療を

集中治療室で命をつなぐカギとなるのが、脳の状態を見守る「脳波モニタリング」です。近年、この分野にAI(人工知能)が加わり、重症の脳損傷患者のケアが大きく進化しつつあります。 そして、AIがリアルタイムで脳波を解析し、最適な治療を提案する──そんな医療の未来が、すでに現場に届き始めています。 今回は、2025年に発表された最新論文「Using artificial intelligence to optimize anti-seizure treatment and EEG-guided decisions in severe brain injury」をもとに、AIがどのように脳波を読み解き、命を支える医療判断に活かされているのかを紹介します。 見た目では判断できない「脳内の異常」を捉えるAI 脳卒中や外傷などで重度の脳損傷を負い、集中治療室に入っている患者の中には、意識がないように見えても、実際には脳内で危険な発作が進行していることがあります。このような外からは気づきにくい発作を見逃さないために、医療現場では脳波(EEG)のモニタリングが行われています。 特にけいれんを伴わない「非けいれん性発作」は、見た目ではわからず、医師の目をすり抜けてしまうこともあります。連続的に脳波を記録する「cEEG(連続脳波モニタリング)」は、そうした見えない異常を検出するための重要な手段ですが、膨大なデータを一つひとつ人の目で確認するのは現実的ではないため、AIがこの解析で活躍し始めています。 AIは、膨大な脳波データの中から発作の兆候をとらえ、異常を自動で検出します。 たとえば、ある解析方法では、脳波の変化をヒートマップのように色で視覚化します。下図のように、発作が起きている時間帯には、赤やオレンジが帯状に広がり、「炎のようなパターン」として現れます。 出典:Zade Akras, Jin Jing, M. Brandon Westover, Sahar F. Zafar.Using artificial intelligence to optimize anti-seizure treatment and EEG-guided decisions in severe brain injury こうした視覚的な表示によって、医療従事者は数分で1日分の脳波を確認できるようになり、発作の見逃しを減らすだけでなく、専門医以外のスタッフでも初期の異常に気づけるようになることが期待されています。 治療のさじ加減もAIがサポート 抗てんかん薬や鎮静薬は、重症脳損傷の治療において欠かせないものですが、薬が効きすぎると意識の低下や副作用を招き、反対に薬が効かなければ発作が止まりません。このさじ加減は患者ごとに異なるため、個別に調整する必要があります。 本研究では、脳波の反応や薬物の作用をAIが解析することで、「この患者にはどの薬を、どのくらいの量で使うべきか」を医師に提案するという手法が紹介されています。 さらに、脳波の中でも「バースト抑制」と呼ばれる鎮静状態の深さに着目し、AIがそれをリアルタイムで評価することで、過剰な鎮静を避けながら治療を続けるための判断材料も提供されます。このように、AIはデータをもとに治療の最適なポイントをその人ごとに導き出すパートナーとして活躍する可能性があります。 医師の判断を支える、もう一人の目としてのAI AIによる脳波解析は、すでに医療の現場で実用化が進んでいます。見えない発作を捉え、最適な治療を提案し、回復の可能性を探る――それはまさに、「AIが命を救う意思決定を支援する時代」の到来です。 これからの医療において、AIは単なるツールではなく、患者と医療チームをつなぐ新たなパートナーとして期待されています。 🧠 編集後記|BrainTech Magazineより 医療の現場にAIが入ってくると聞くと、どこかSFのように感じるかもしれません。 でも、脳波データを24時間見守り、発作の兆しを即座に伝えてくれるAIは、すでに現場のチームの一員として動き始めています。 人とAIが協力して命を守る、そんな新しい医療のかたちにこれからも注目です。 📝本記事で紹介した研究論文Zade Akras, Jin Jing, M. Brandon Westover, Sahar F. Zafar.Using artificial intelligence to optimize anti-seizure treatment and EEG-guided decisions in severe brain injury Clinical Neurophysiology Practice, Volume 10, 2025. https://www.sciencedirect.com/science/article/pii/S1878747925000029

脳波であなたの好きな音楽がわかる?感情を読むAIが進化中

日々耳にするお気に入りの音楽。実はその一曲一曲が、私たちの気分や感情にさまざまな影響を与えています。明るいメロディに元気づけられたり、切ない旋律に心が動かされた経験は誰しもあるでしょう。 こうした音楽が引き起こす感情を、脳波(EEG)から読み取る研究が今、注目を集めています。 今回はICASSP 2025で発表された論文「Multimodal Fusion for EEG Emotion Recognition in Music」を取り上げ、大規模言語モデル(LLM)やマルチタスク学習を用いて、従来を大きく上回る感情認識を実現した最新研究をご紹介します。 音楽を聴いたときの「気持ち」を脳波で読み取る難しさ 音楽を聴いて感じる気持ちを脳波から読み取る研究は、近年少しずつ進んできましたが、このような研究の中で大きなハードルとなるのが、「音楽の感じ方に個人差がある」という点です。 同じ曲を聴いても、人によって感じる気持ちが違いますし、それに伴う脳波の反応も変わってきます。このばらつきが、AIが感情を正しく読み取るうえで障壁となってきました。 これまでの多くの研究では、さまざまな人の脳波データをひとつにまとめてAIに学ばせるという方法が取られてきました。しかしこの方法では、誰が聴いたかという違いが考慮されないため、個人差を無視したままAIが学習してしまうという課題がありました。 そこで本研究では、感情を読み取るだけでなく、聴き手が誰なのかを識別するタスクも同時にAIに学ばせる手法が採用されました。このように複数の目的を同時に学ばせることで、AIは人ごとの特徴を踏まえたうえで、より正確に感情を読み取れるようになります。 さらに本研究では、感情を「うれしい」「悲しい」といった単純な分類ではなく、「どれくらい明るい気分か(Valence)」と「どれくらい興奮しているか(Arousal)」という2つの軸に分けて数値で表すことで、より細やかな感情の変化まで見えるようになりました。 音楽の印象を手がかりに、AIが感情を読み解く 脳波だけで感情を読み取ろうとすると、人によって反応が違うため、どうしても限界があります。そこで今回の研究では、脳波だけでなく、音楽そのものの情報も一緒にAIに学ばせるという新しいアプローチがとられました。 人が音楽を聴いて感情を動かされるとき、そのきっかけはメロディやリズム、テンポ、音の明るさや暗さといった曲の特徴です。つまり、「どんな音楽か」と「脳がどう反応したか」を合わせて見ることで、感情の変化をより正確にとらえることができるのです。 さらにこの研究では、音楽の感情的な特徴を読み取るために、大規模言語モデル(LLM)が活用されました。LLMとは、ChatGPTのようなAIの一種で、大量の言語情報をもとに意味を理解することができます。このモデルを使うことで、「この曲は明るくてエネルギッシュ」「この曲は静かで物悲しい」といった音楽の雰囲気や印象をAIが言葉から読み取り、その特徴を数値として扱うことができるようになります。 こうして得られた音楽の特徴と、聴いたときの脳波の変化の両方をAIが一緒に学ぶことで、どちらか一方だけでは読み取りきれなかった感情の手がかりをつかむことができるようになりました。 出典:Huang, S., Jin, Z., Li, D., Han, J., & Tao, X. (2025). Multimodal Fusion for EEG Emotion Recognition in Music with a Multi-Task Learning Framework. 2025 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP) ベースラインを大きく上回る精度向上 こうした工夫により、今回の研究では従来の手法を大きく上回る精度で感情を推定することに成功しました。 音楽の印象と脳波のデータを組み合わせ、さらに聴き手の情報まで取り入れたことで、AIはより正確に「その人が音楽を聴いてどう感じたか」を読み取れるようになったのです。 また、感情を2つの軸で表すことにより、「なんとなく楽しい」「少し不安」といった曖昧な気持ちも、数値として扱うことが可能になりました。 AIはそうした微妙な感情の揺れまで捉えられるようになり、結果として精度の向上につながりました。 今回の結果は、単に技術的なブレイクスルーというだけでなく、人の“心の動き”を読み取るAIの進化を感じさせるものでもあります。 音楽という主観的で感覚的なものを、客観的な脳波と融合しながら扱えるようになったことは、今後のブレインテックの広がりにとっても大きな意味を持つでしょう。 出典:Huang, S., Jin, Z., Li, D., Han, J., & Tao, X. (2025). Multimodal Fusion for EEG Emotion Recognition in Music with a Multi-Task Learning Framework. 2025 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP) 脳波が拓くパーソナライズ音楽推薦の未来 こうした技術は、単なる感情の分析にとどまらず、私たちの日常に活かされる可能性を秘めています。とくに注目されているのが、音楽推薦システムへの応用です。 これまでも、「この曲が好きそう」「前に聴いたジャンルからおすすめ」といったレコメンド機能は存在していましたが、そこには“そのときの気分”という要素までは反映されていませんでした。 今回の研究のように、脳波を通してリアルタイムで感情を読み取れるようになれば、今の自分にぴったりの音楽を自動で選んでくれる世界が見えてきます。 たとえば、疲れているときにはリラックスできる曲を、集中したいときにはテンポのいい曲を提案するような、状況や気分に合わせた音楽体験が可能になるのです。 さらに将来的には、ストレス状態の検出やメンタルヘルスへの応用も期待されています。脳波によって感情の変化を客観的にモニタリングできれば、「最近落ち込みがちだな」といった心のサインを早期に察知し、音楽を通じてやさしく気分を整えるような介入も夢ではありません。 脳と音楽とAIがつながることで、「今の気分にぴったりな音楽」を自動で選んでくれるような体験――そんな未来が、少しずつ現実になってきています。 🧠 編集後記|BrainTech Magazineより 「この曲、今の気分にぴったり」と感じたこと、きっと誰にでもあるはずです。 その“気分”が脳波とAIで読み取れるようになってきているなんて、ちょっとワクワクしますよね。 今回ご紹介した研究は、話題の大規模言語モデルやマルチタスク学習といった最新技術を巧みに活用し、個人差の壁を越えながら、より自然で柔軟な感情理解に挑んだ点が非常に印象的でした。 今後、音楽推薦やメンタルヘルスといった分野での応用が進めば、「今の自分に寄り添う音楽体験」が、誰にとってもあたりまえのものになるかもしれません。 BrainTech Magazineでは、こうした脳科学とテクノロジーの交差点から生まれる最前線の研究を、今後もわかりやすくお届けしていきます。 Huang, S., Jin, Z., Li, D., Han, J., & Tao, X. (2025). Multimodal Fusion for EEG Emotion Recognition in Music with a Multi-Task Learning Framework. 2025 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP).  https://ieeexplore.ieee.org/abstract/document/10890727?casa_token=2MWCAW46z80AAAAA:4r31MKmOZvOeICqzC3AKOapdGgO9fRHibb28bmmh3XwbrvD_Uk24huPs0ANwAQeA1oAVe6himA

脳波で文章が書ける時代へ──最新AIが「思考」をテキストに変換

「頭の中で考えただけでメールが送れる」 そんなSFのような世界が、ついに現実味を帯びてきました。最新のブレインテック研究では、非侵襲の脳波(EEG)データから自然な文章を復元するAIモデルが開発され、注目を集めています。 脳波から“文章”を読み解く:非侵襲BCIのブレイクスルー 脳波から人の意思を読み取る「ブレイン・コンピュータ・インタフェース(BCI)」の研究は、これまでにも義手の制御や簡単な選択肢の選別といった形で応用されてきました。しかし、「文章」を再構成する試みは、まさに次元が異なるチャレンジです。 従来の非侵襲的なBCIでは、脳波の信号が微弱でノイズも多く、せいぜい「はい・いいえ」レベルの意思しか識別できませんでした。文章のような連続的かつ複雑な情報を読み取るには、高度なアルゴリズムと深層学習の力が不可欠だったのです。 注目の研究:HGRUとMRAMによる「脳波から文章生成」 2025年1月に学術誌『Engineering Applications of Artificial Intelligence』に掲載された論文「Decoding text from electroencephalography signals: A novel Hierarchical Gated Recurrent Unit with Masked Residual Attention Mechanism」では、中国・電子科技大学の研究チーム(Qiupu Chenら)が、脳波(EEG)から自然な文章を直接生成するAIモデルを発表しました。 このモデルの何より驚くべき点は、単なる脳波のラベリングではなく、脳活動から直接「文章そのもの」を出力する点にあります。まさに“頭で考えたこと”が、画面に文字として現れる時代の到来を感じさせます。 どうやって脳波が「文章」になるのか? このモデルは、複数の時間スケールで脳波データを処理する「階層型GRU構造」を採用しています。これにより、文章の意味を理解するうえで重要な、文脈や過去の情報を保持しながら、整った文として出力することが可能になります。 さらに、脳波データの中から特に意味のある信号に注目するために、「アテンション機構」と呼ばれる仕組みが使われています。これはAIが入力データの中で“どこを見るべきか”を判断する技術で、ノイズを抑えつつ、重要な部分にしっかりと焦点を当てる役割を果たします。 そして出力されるテキストは、あらかじめ言語の構造を学習しているAI(例:BARTなど)とも連携されており、自然な文法や語順で表現されます。 つまり、脳波を読み取るだけでなく、それを“言語として訳す”ところまでを一気に担う、まさに脳波の翻訳者のようなシステムなのです。 どこまで“思考”を再現できるのか? もちろん、現時点では完全な「心の読解」はできません。とはいえ今回の研究では、非侵襲で得られる脳波データから、意味の通る文章を構成できるレベルにまで精度が向上しており、これは非常に大きな進展といえます。 従来のようにあらかじめ決められた選択肢を識別するだけでなく、より柔軟で自然な表現の再構成が可能になったことで、脳波によるコミュニケーションのあり方そのものに新たな可能性が生まれました。 話せない人の“声”になるテクノロジー この技術が進化すれば、話すことができないALS患者や脳卒中患者が、自分の意思を「文章」で伝える手段になる可能性があります。さらに、脳に電極を埋め込むことなく、EEGキャップを使うだけで実現できる未来が近づいているのです。 また、将来的には、ARやVR空間での“思考だけで操作するUI”としての応用も期待されており、「脳波でLINEを送る」「手を使わずにドキュメントを書く」といった未来も、そう遠くないかもしれません。 研究の意義:脳とAIの共進化 この研究は、脳科学とAI技術の融合が、いかに強力な可能性を秘めているかを象徴しています。今後も、脳波解析技術の精度向上、大規模データによるモデルの汎用化、そしてリアルタイム処理の実現などが進めば、“思考と機械”をつなぐインターフェースとしてのBCIは、私たちの生活を大きく変える存在になるでしょう。 🧠 編集後記|BrainTech Magazineより 今回ご紹介した研究は、非侵襲で自然文を復元するというブレインテックの最前線を示すものです。SFで描かれた「思考で操作する世界」は、いま現実になりつつあります。VIEでは、こうした最先端の技術と社会実装の橋渡しを目指して、今後も注目研究を随時ご紹介していきます。 📝本記事で紹介した研究論文 Chen, Q. et al. (2025). Decoding text from electroencephalography signals: A novel Hierarchical Gated Recurrent Unit with Masked Residual Attention Mechanism. Engineering Applications of Artificial Intelligence, Volume 129, January 2025. https://www.sciencedirect.com/science/article/abs/pii/S0952197624017731

1 2 3

Ready to work together?

CONTACT

ニューロテクノロジーで新たな可能性を
一緒に探求しませんか?

ウェアラブル脳波計測デバイスや、
ニューロミュージックに関心をお持ちの方、
そして共同研究や事業提携にご興味のある
企業様、研究機関様からの
お問い合わせをお待ちしております。