CATEGORY

論文紹介

社会的メタ認知の正体──他人の理解を脳はどう見抜くのか?

人と一緒に何かに取り組むとき、ふと「この人、今どのくらい理解してるんだろう?」「自分でやった方が早いかも」と思ったこと、ありませんか? 実は、こうした「相手の能力や理解度を推測する」という行動には、私たちの脳が持つ意外な仕組みが関係していることが、最新の研究で明らかになってきました。さらにそれは、私たちが自分自身のことをどう認識しているか──つまり内省(メタ認知)と深く関係しているのです。 今回は、理化学研究所らの研究チームが発表した論文『Asymmetric projection of introspection reveals a behavioral and neural mechanism for interindividual social coordination』(Nature Communications, 2024年)をもとに、人間同士の「協力のメカニズム」に迫ります。 自分を他人に投影する?「社会的メタ認知」という仕組み この研究では、他者の能力をどう推測するかという脳の働きを、2つの視点から捉え直しています。 1つは、これまでの社会心理学でも知られていた「社会的認知」──つまり相手の過去の行動や一般知識をもとに能力を推定する方法です。たとえば「この人はエキスパートだから難しい課題もこなせるだろう」といった、いわば経験則のようなものです。 もう1つが、本研究の鍵となる概念である「社会的メタ認知(social meta-cognition)」です。これは、自分自身の認知や判断を内省し、それを「相手にも当てはめて」能力を推測するというプロセスです。たとえば「自分ならこの問題、ちょっと難しいけど解けるかも。だから、あの人もできるかもしれない」と想像するような感覚のことを指します。私たちは無意識に、こうした「自分の感覚を相手に投影する」ことで、他者を理解しようとしているのです。 実験:意思決定は「相手の肩書」に影響される? 研究チームは、実験参加者に「自分より成績の悪い人(ビギナー)」と「自分より成績の良い人(エキスパート)」を相手に、協力タスクに取り組んでもらいました。 このタスクは「ランダムドット運動方向判断」と呼ばれるもので、画面上でランダムに動く点の集団を見せられ、そのうち何パーセントかが同じ方向に動いている中で「その共通方向がどちらか」を当てるという課題です。 参加者は毎回、以下のような判断を迫られます: 自分が解答する問題と、他者が解答する問題の2つが画面に表示される(どちらの問題も難易度が異なる)。 参加者はどちらの問題に挑戦するかを選択する(自分で解く or 他人に任せる)。 選択した問題に正解すれば報酬が得られる。 重要なのは、「相手に任せるか、自分で解くか」を問題の難易度と、相手の能力の見積もりから判断しなければならない点です。 相手の実力は、事前に収集されたデータに基づいてプログラムされたビギナー/エキスパートの仮想人物であり、参加者にはそのプロフィールが示されます。参加者は、他者の成績を過去の試行から学習しつつ、毎回最も報酬が得られそうな選択をするよう求められます。 すると驚くべきことに、ビギナーと組んだときの方が、参加者が自分で解くか相手に任せるかという判断の選択精度が高かったのです。逆に、エキスパートと組むと誤った判断が増えてしまいました。これは、自分のメタ認知(内省)を他者に投影することが有効なのは、「自分と同等か、それ以下の相手」に限られるという仮説を裏付けるものでした。自分よりはるかに優秀な人の行動は、自分の経験だけではうまく予測できない──そんな脳の「限界」が見えてきたのです。 出典:Miyamoto, K., Harbison, C., Tanaka, S. et al. Asymmetric projection of introspection reveals a behavioural and neural mechanism for interindividual social coordination. Nat Commun 16, 295 (2025). https://doi.org/10.1038/s41467-024-55202-0 脳の中では何が起きているのか? このメカニズムをさらに掘り下げるため、研究チームはfMRI(機能的磁気共鳴画像法)を使って、タスク中の脳活動も測定しました。 すると、ビギナーと組んだときには前頭葉の一部(エリア47)が活性化していたのに対し、エキスパートと組んだときには側頭頭頂接合部(TPJ)という別の領域が活性化していることが分かりました。この結果からエリア47とTPJは以下のような機能をもっていることが判明しました。 エリア47:自分の内省を他人に投影するときに使われる領域(社会的メタ認知) TPJ:相手の知識や経験など「既知の情報」に基づいて判断する領域(社会的認知) 出典:Miyamoto, K., Harbison, C., Tanaka, S. et al. Asymmetric projection of introspection reveals a behavioural and neural mechanism for interindividual social coordination. Nat Commun 16, 295 (2025). https://doi.org/10.1038/s41467-024-55202-0 さらに、エリア47に対してTMS(経頭蓋磁気刺激)を用いて一時的に機能を抑えると、ビギナーとの協力時の判断精度が下がることも分かりました。つまり、エリア47が社会的メタ認知にとって不可欠な領域であることが裏付けられたのです。 協力のズレは認知のズレ? この研究が示すのは、人間の協調行動には「相手をどう見るか」という非常に繊細な認知プロセスが関わっているということです。 しかも、相手の実力が自分より高すぎると、かえって状況を正しく判断できなくなる 見誤ってしまう可能性があります。これはチームビルディングや教育、さらにはAIとの協働においても重要な示唆になるでしょう。 「自分だったらこう考えるはず」と思って相手にも同じような思考を当てはめることで、私たちはスムーズに協力しやすくなります。しかし 、それが通用しない相手に出会ったとき、どうすれば良いのでしょうか? ──そのような場面では、私たち自身が持っている「ものの見方」を、柔軟に広げていく必要があるということかもしれません。 脳は、自分を通して他人を理解する鏡でもあります。 その鏡が少し歪むだけで、人との信頼や協力のかたちが大きく変わってしまうのです。 🧠 編集後記|BrainTech Magazineより 現代は複雑化した社会であり、異なるバックグラウンドやスキルを持つ人同士が協力し合う場面が増えています。そんな中、本研究は他者の心を理解し、協調するための脳の巧妙な仕組みを垣間見せてくれました。自分自身を鏡にして相手を映し出すように推し量る──この不思議な心の働きは、人間社会の円滑な営みに一役買っているようです。 📝 本記事で紹介した研究論文 Miyamoto, K., Harbison, C., Tanaka, S. et al. Asymmetric projection of introspection reveals a behavioural and neural mechanism for interindividual social coordination. Nat Commun 16, 295 (2025). https://doi.org/10.1038/s41467-024-55202-0

たった10分の瞑想で脳が変わる?EEGがとらえた、脳深部のリアルな変化

瞑想は古くから心の安定やストレス軽減に効果があるとされ、近年では科学的な研究も進んできました。不安や抑うつの軽減など、メンタルヘルスへのポジティブな影響が報告されており、その効果の裏には脳の活動の変化が関係していることも示唆されています。 では、実際に瞑想中の脳では何が起きているのでしょうか?最新の研究では、感情や記憶に関わる脳深部領域の活動に注目し、瞑想が脳に与えるリアルな変化を明らかにしています。 瞑想は脳に何をもたらすのか? 「瞑想すると脳が良い方向に変化するらしい」とは聞くものの、具体的に脳の中で何が起きているのかは、まだ十分に解明されていません。特に、感情や記憶をつかさどる脳の深部(大脳辺縁系と呼ばれる領域、例:扁桃体・海馬)での神経活動については、不明な点が多く残されていました。なぜなら通常の脳波計測(頭に電極をつける頭皮上のEEG)では、そうした深部の信号をとらえるのが難しいからです。 こうした背景のもと、米国マウントサイナイ医科大学などの研究チームが2025年に発表したのが、「瞑想が扁桃体と海馬の脳活動に与える影響」を直接観察した研究です(Maher et al., 2025)。この研究では最新のニューロテック(ブレインテック)を活用し、脳深部の電気活動をリアルタイムで記録することに成功しました。 埋め込みデバイスで脳深部を測る新アプローチ 深部の脳活動を測定するために、研究チームが活用したのが応答性神経刺激システム(RNSデバイス)と呼ばれる埋め込み型医療機器です。RNSデバイスは本来、難治性てんかんの発作を検知して脳に電気刺激を送るために、頭蓋内に埋め込まれる医療機器です。加えてこの装置には、脳の深部の活動(頭蓋内脳波:iEEG)を長期間にわたって記録・保存できる機能も備わっています。 今回の研究では、薬剤抵抗性てんかん(薬による治療では発作のコントロールが難しいタイプのてんかん)を持つ患者さん8名に、すでにRNSデバイスが治療目的で埋め込まれている状況を活かし、その記録機能を研究に応用しました。このアプローチにより、人が瞑想している最中の扁桃体・海馬の活動を直接モニターできたのです。 出典:Maher et al., 2025 従来の頭皮上脳波(EEG)では信号が頭蓋骨で減衰しノイズも多いため、深部の細かな活動までは捉えられません。一方、頭の中に電極があるRNSでは高品質な深部脳波データが取得できます。さらにRNSなら埋め込み式なので、瞑想中も参加者が自由に動ける(リラックスした姿勢で瞑想できる)という利点もあります。この装置の利点を活かし、研究チームはこれまで技術的に困難とされてきた扁桃体・海馬の神経活動の計測に取り組みました。 実験の方法:瞑想中のリアルな脳波を記録 対象となった8名はいずれも成人のてんかん患者ですが、瞑想経験はほとんどないビギナーでした。参加者はまず、5分間の音声によるリラクゼーション誘導を実施し、瞑想前の基準状態(ベースライン)を計測しました。その後、音声ガイド付きで10分間の慈悲の瞑想(LKM)を行ってもらいました。 慈悲の瞑想(Loving-Kindness Meditation ; LKM)とは、自分自身や他者の幸福を祈る思考に意識を集中させるタイプの瞑想法です。怒りや不安といったネガティブな感情を和らげ、思いやりやつながりの感覚を育む効果があるとされており、近年ではストレス軽減や感情を整えるための手段として世界中で注目を集めています。 この瞑想セッション終了後、参加者には「どれだけ深く瞑想状態に入れたか」を自己評価してもらいました。 実験は、病院内の一室を落ち着いた雰囲気に整えるなど、参加者が安心して瞑想に集中できるよう工夫された環境で行われました。こうして記録された瞑想中の脳波データを、瞑想前のリラックス状態(ベースライン)と比較することで、瞑想が脳にどのような変化をもたらすのかを調べました。 出典:Maher et al., 2025 研究の結果:感情と記憶に関わる領域で観察された2つの変化 解析の結果、瞑想開始前と比較して脳波の周波数構成に明らかな変化が見られました。具体的には、扁桃体と海馬において高周波ガンマ波(γ波:この研究では30〜55Hzと定義)の活動が有意に増加した一方で、中周波数帯の「ベータ波」(β波:13〜30Hz帯)については、短い時間だけリズムを刻む「ベータバースト」と呼ばれる活動の持続時間が短くなり、全体的にこの帯域の脳活動が落ち着いていたことが明らかになりました。 このガンマ波増強&ベータ波抑制のパターンは、扁桃体と海馬の両領域で共通して観測されています。興味深いのは、これらの脳の領域が不安やうつなどの気分障害と深く関係していることです。さらに、今回注目されたベータ波やガンマ波も、こうした心の状態と関連する脳波として知られています。たとえば、ストレスや不安の強いときにはベータ波が高まりやすく、逆に幸福感や前向きな気持ちを抱いているときにはガンマ波が増えるという報告もあります。 なお今回注目されたのは、ガンマ波やベータ波といった「特定のリズム(=周期的な成分)」の変化でした。一方で、脳波全体の背景的な活動(非周期的成分)は、瞑想の前後でほとんど変化が見られなかったと報告されています。これは、瞑想中の脳では、全体の活動ベースラインが大きく変わるのではなく、特定の脳波リズムが選択的に変化していたことを示唆しています。 出典:Maher et al., 2025 考察:見えてきた瞑想の意義と新たな可能性 「たった一度の短い瞑想でも、脳の深部にこれほどの変化が生まれる」――この事実は、瞑想が持つ可能性をあらためて感じさせます。扁桃体・海馬といった領域は本来、意識的に制御しにくい部分ですが、瞑想という非侵襲で誰でも実践可能な行為によって、その活動パターンを変えられるかもしれないのです。 これは言い換えれば、瞑想が脳のニューロモデュレーション(神経調節)手段となり得ることを示しています。しかも瞑想は、薬や特別な機器を使わない安全で手軽な方法です。そのため、もしうまく取り入れることができれば、記憶力や感情のコントロールをサポートする、低コストで実践しやすいアプローチとして注目されるかもしれません。 期待される一方で、まだ明らかでない点も 一方で、この研究には注意すべき点もあります。第一に被験者が8名と少人数であり、全員がてんかん患者という特殊なグループだったため、健常者や一般集団にそのまま当てはまるかは慎重な評価が必要です。 第二に、観察したのは一回限りの短期的な効果であり、瞑想を継続的に練習した場合に脳活動がどう変化していくか、あるいは今回の効果が持続するのかまでは分からないという点です。さらに、今回は音声ガイドに従った誘導瞑想でしたが、自己流の瞑想や他の種類の瞑想(マインドフルネス呼吸瞑想など)でも同様の効果が得られるのかは不明です。 これらの点を踏まえ、研究チームも「今回の研究はあくまで基礎的な第一歩」であり、更なる検証が必要と述べています。 おわりに:誰かに話したくなる研究のポイント 瞑想と一口に言っても様々な流派がありますが、今回の研究から得られた学びをいくつかまとめてみましょう。 初心者の短時間瞑想でも脳深部が変化する: たった10分程度の瞑想でも、扁桃体と海馬という脳の奥深くの領域で脳波パターンの変化が観測されました。これは「経験がなくても脳は応えてくれる」という希望を感じるポイントです。 ガンマ波アップ&ベータ波ダウン:ポジティブな情動や集中との関連が報告されている高周波のガンマ波が増え、ストレスや不安との関連が指摘される中周波数帯の「ベータ波」が減少する方向に変わりました。この波形パターンは、今回の研究結果から、瞑想が気分を安定させる効果をもたらす可能性を示唆していると解釈できます。 脳内デバイスで明らかになった新事実:埋め込み型のRNSデバイスによる頭蓋内記録という最新技術のおかげで、これまで計測が難しかった脳深部のリアルな活動を捉えることができました。 日常に活かせる瞑想の可能性:瞑想をうまく生活に取り入れれば、記憶力アップやストレス対処など日常生活の質向上につながるかもしれません。 専門的な脳科学のトピックでありながら、「なるほど、瞑想って脳にも良さそうだ」と思わせてくれる今回の研究。 忙しさやストレスに追われる日常の中で、自分と静かに向き合う瞑想という行為が、実は脳のコンディションを整えるフィットネスになっているのかもしれません。 今回紹介した論文📖 Maher, C., Tortolero, L., Jun, S., Alagapan, S., Wang, Y., Zhang, Y., ... & Saez, I. (2025). Intracranial substrates of meditation-induced neuromodulation in the amygdala and hippocampus. Proceedings of the National Academy of Sciences, 121(28), e2401618121.  https://www.pnas.org/doi/10.1073/pnas.2409423122

脳信号を“声”に変えるストリーミング技術――麻痺で声を失った人に自然な会話を再び

私たちが普段何気なく交わしている会話は、実は極めて高速でスムーズなやりとりです。しかし、病気や事故で話すことができなくなった人たちにとって、「伝える」ことはとても大きな課題です。視線や文字入力を使った支援機器では、1分間に数語しか伝えられないことも珍しくありません。これは会話のテンポを大きく崩し、コミュニケーションに不自由さを感じる原因になります。 こうした課題に対し、脳の活動から直接言葉を生み出す「ブレイン・コンピュータ・インターフェース(Brain Computer Interface, BCI)」という技術が注目されています。特に、脳の信号をもとに声そのものを再現する「スピーチ・ニューロプロステーシス(speech neuroprosthesis)」は、日常会話を取り戻す手段として期待が高まっています。 研究の概要:脳信号からリアルタイムで音声を合成 2025年4月、カリフォルニア大学バークレー校とサンフランシスコ校の研究チームは、重度の発話障害を持つ女性の脳信号をもとに、彼女の「かつての声」でリアルタイムに音声を合成する技術を発表しました。この技術は、脳の信号を読み取り、AIがリアルタイムで解読し、スピーカーから声が発せられる仕組みです。 この技術は、「考えた言葉」を脳の信号としてとらえ、そこから音声を生成します。特徴的なのは、以前録音された本人の声を使い、まさに「その人らしい声」で話せるようにした点です。これは単なる情報伝達以上に、本人にとっての大きな安心感や自己表現につながります。 技術の仕組み:ECoGとAIでかつての声を再現 この技術は大きく分けて以下に紹介する3つのステップによって実現されました。 1. 脳からの信号を取得 出典:UC Berkeley Engineering, Brain-to-voice neuroprosthesis restores naturalistic speech 研究チームはまず、脳幹卒中により、声を一切出せない重度の発話麻痺を抱える被験者の頭に脳の表面を流れる電気信号であるECoG(Electrocorticogra)を計測する装置を埋め込みました。本実験で用いられた装置は253の微小な電極から構成されています。 この電極は発話を司る脳の部位(感覚運動野)の表面に配置され、被験者が「話そう」と頭で指令を出した瞬間の微弱な脳信号をリアルタイムに記録します。ECoGは、頭皮上から計測するEEG(脳波)よりノイズが少なく高精度な信号が得られるため、BCI研究で期待される手法です。 2. AIが解読 次に、この膨大な脳信号データを音声に翻訳するAIを構築します。ここで活躍するのがRNN-T(Recurrent Neural Network Transducer)という深層学習モデルです。RNN-Tはもともと音声認識で用いられる技術で、音声波形に代表される時系列データの入力から対応する文字列をリアルタイムに出力するのに適しています。 モデルを学習させるためのデータを集めるために、被験者にコンピュータ画面に表示された文章を頭の中で発声してもらい、その際に発声する脳内の電気信号を記録するというプロセスを累計23000回以上行いました。このトレーニングにより、モデルは「特定の脳信号パターンが現れたら特定の単語(文字列)が意図されている」という対応関係を学習していきます。 3. 声を合成 研究者たちは、被験者が発話麻痺を抱える前のホームビデオ音声などを集めて、個人別のテキスト読み上げモデルを作成しました。そして前述のRNN-Tが解読した「テキスト」に、この本人の声の読み上げAIを適用することで、最終的にスピーカーから流れる音声が被験者本人の声色になるよう工夫したのです。 出典:Littlejohn KT, Cho CJ, Liu JR, Silva AB, Yu B, Anderson VR, Kurtz-Miott CM, Brosler S, Kashyap AP, Hallinan IP, Shah A, Tu-Chan A, Ganguly K, Moses DA, Chang EF, Anumanchipalli GK. A streaming brain-to-voice neuroprosthesis to restore naturalistic communication. Nat Neurosci. 2025 Apr;28(4):902-912. doi: 10.1038/s41593-025-01905-6. Epub 2025 Mar 31. PMID: 40164740. 実験結果:速さと正確さに驚きの進化 実験の結果、このシステムはハイスピードで低遅延かつ滑らかな発話を再現できることが示されました。特に注目すべき数字は「毎分の単語数(WPM)」です。被験者は1,000語以上の大語彙セットにおいて毎分47.5語のペースで音声を出力できました。さらに、介護生活における会話で頻出する50語程度に語彙を絞れば毎分90.9語に達し、これは人間の普通の会話スピード(毎分約130語)に迫る水準です。以前1の音声解読BCI記録であった毎分15語・50語彙という値と比べると、新手法の高速ぶりが際立ちます。 また従来の発話支援BCIでは、ユーザが「発話しよう」と思ってから実際に音が出るまで数秒のラグがあるのが当たり前でした。しかしこのシステムでは、発話の脳信号の立ち上がりから1秒以内には最初の音がスピーカーから出始めることが確認されました。処理自体もほぼリアルタイムで進行し、システム全体として約0.3秒程度の遅れしか生じないとのことです。これは人間同士の会話で生じる一呼吸ほどの間隔に過ぎず、対話の自然さを損なわないレベルと言えるでしょう。 さらに、この解読モデルは訓練データにない新しい単語や文にも柔軟でした。学習時に登場しなかった語)を試しても、モデルはそれらを正しく発音できたのです。これはAIが単に訓練データを丸暗記したのではなく、言語の音の組み合わせ規則をきちんと学習している証拠だと考えられます。 おわりに ── 失われた声を取り戻す未来へ この技術の一番の価値は、単に声を出せるようになるということではありません。「自分の意思をリアルタイムに伝えられる」ことで、会話のテンポが戻り、他者との関係も自然になります。そして何より、自分の声で話すことができるという経験は、自己表現や尊厳の回復にもつながると考えられます。 もし、話せなくなっても、再び「自分の声」で語りかけられる未来があるとしたら――。この技術は、そんな希望の第一歩となるかもしれません。 🧠 編集後記|BrainTech Magazineより 脳からの信号を読み取り、言葉として再構成する──かつて困難とされてきた課題に、非侵襲の手法で挑んだ今回の研究は、今後のBCI開発に向けた貴重な一歩となりました。まだ実用化には距離があるものの、これまで見えにくかった脳とテクノロジーの接点が、確かに輪郭を持ちはじめています。 📝 本記事で紹介した研究論文Littlejohn KT, Cho CJ, Liu JR, Silva AB, Yu B, Anderson VR, Kurtz-Miott CM, Brosler S, Kashyap AP, Hallinan IP, Shah A, Tu-Chan A, Ganguly K, Moses DA, Chang EF, Anumanchipalli GK. A streaming brain-to-voice neuroprosthesis to restore naturalistic communication. Nat Neurosci. 2025 Apr;28(4):902-912. doi: 10.1038/s41593-025-01905-6. Epub 2025 Mar 31. PMID: 40164740.

脳でタイピング?Meta最新研究が示す非侵襲BCIの可能性

スマートフォンを操作せずに、考えたことがそのまま文字になるとしたら────まるでSFのような話ですが、近年この夢に一歩近づく研究が登場しています。Facebook改めMeta社では、2017年頃から「脳でタイピングする」技術開発に意欲を見せてきました1。 そしてついに2025年、Metaの研究チームは非侵襲型ブレイン・コンピュータ・インターフェース(BCI)で、脳活動からテキストを解読することに成功したと発表しました2。これは、脳に電極を埋め込むことなく、脳波などの信号を使って、頭の中で思い浮かべた文章を読み取ろうとする技術です。 この技術は、コミュニケーションが困難な人々への支援につながる可能性があるほか、将来的には誰もが使える「パーソナルBCI」としての応用も期待されています。この記事では、そんな注目の研究成果をわかりやすくご紹介します。 研究の概要:非侵襲BCIで脳活動から文字を入力 Meta社の研究論文『Brain-to-Text Decoding: A Non-invasive Approach via Typing』では、Brain2Qwertyと名付けられたAIモデルを使い、脳活動から直接テキストを生成する実験が報告されています。この方法の最大の特徴は「非侵襲的」であることです。 従来、BCIで高精度に脳信号を解読するには、脳に電極を埋め込む手術が必要でした。しかし本研究では、頭皮上の電極で脳の電気信号を計測するEEG(Electroencephalography、脳波計測)や、頭部を覆う装置で脳磁場を測定するMEG(Magnetoencephalography、脳磁気計測)といった、非侵襲的な計測だけで脳内の「タイピング信号」を読み取っています。 実験には35人の健康なボランティアが参加しました。被験者にはまず、画面に表示されたスペイン語の短い文(5〜8語程度)を覚えてもらい、その文をキーボードで入力してもらいます。ただし、入力中は画面に文字が表示されず、自分が何を打っているのかは見えない状態でした。この間の脳活動(EEGやMEG)を記録し、そのデータからAIが入力しようとしている文をどこまで正確に読み取れるかを検証しました。 MEGとEEGでの解読結果──「考えた文章」をどこまで再現できたか? 実験の結果、脳磁気計測(MEG)を使った場合、AIモデル「Brain2Qwerty」は平均で文字の誤り率32%という結果になりました。つまり、全体の約68%の文字を正しく読み取ることができたのです。 さらに、誤り率が19%=約8割の文字を正しく解読できた参加者もおり、そのレベルでは、AIが学習していない新しい文章でも、正確に再現できたと報告されています。 出典:Lévy, J., López-Cózar, C., Sharifian, F., et al. (2025). Brain-to-Text Decoding: A Non-invasive Approach via Typing. arXiv preprint. 、一方、脳波(EEG)だけを使った場合は、文字の誤り率が約30%にとどまり、約70%の文字を正しく読み取ることができました。これは、MEGの精度には及ばないものの、非侵襲BCIとしては非常に高い成果であり、今後の研究の大きな一歩となります。 技術の仕組み:EEGとAIで「タイピングの意思」を読み解く どうやって脳波から文字を当てることができるのか? 一見すると、どのような仕組みでそんなことができるのか、不思議に思う方もいるかもしれません。Brain2Qwertyのポイントは、脳が文字をタイプするときに生じるパターンをAIが学習し、それをもとに入力された文章を推測するしくみにあります。 人がキーボードで文を入力するとき、脳内では「次にどのキーを押すか」といった運動の指令や、思い浮かべた文章を整理し、言葉にするような認知的な処理が行われています。研究チームは、これらの脳信号のわずかな変化を捉えるため、前述のEEGやMEGで0.5秒ごとの脳活動を切り出して解析しました。この信号データを解読するAIモデルがBrain2Qwertyの正体なのです。 Brain2Qwertyの内部は、最新のディープラーニング技術を駆使した3つのモジュールから成ります: 畳み込みニューラルネットワーク(CNN)モジュール :脳波の生データから特徴を抽出し、0.5秒(500ミリ秒)単位の短い時間窓で信号パターンを捉え、脳活動の微細な変化をとらえます。 トランスフォーマーモジュール :タイピング中の脳活動の時間的な変化を分析し、「どの文字が入力されているか」を予測する役割を担います。前後の文脈も同時に捉えられるため、文章全体の流れをふまえた精度の高い予測が可能です。 言語モデルモジュール :スペイン語の文章データで事前学習された文字レベルの言語モデルで、AIが予測した文字列を補正します。直近の9文字分の文脈から次の文字の確率を計算し、トランスフォーマーの予測結果と組み合わせて、自然な文章に整えま。いわば自動スペルチェックのような働きで、脳信号由来の誤認識を言語的な観点から修正してくれます。 このように脳信号処理+深層学習+言語の知識を統合することで、Brain2Qwertyは被験者が頭の中で思い浮かべ、タイピングしている文章を解読することができるのです。 出典:Lévy, J., López-Cózar, C., Sharifian, F., et al. (2025). Brain-to-Text Decoding: A Non-invasive Approach via Typing. arXiv preprint. 面白いことに、研究チームの分析によれば、解読は純粋に指の動き(運動信号)だけに依存しているわけではなく、キーボード配列の影響やタイピングミスといった、頭の中で考えていることや判断のクセも含まれている可能性もあることが分かりました。つまり、脳内で文章を組み立て、キーを押す一連のプロセス全体をモデルが学習しており、単なる運動読み取り以上のことが起きているようなのです。 非侵襲BCIがもたらすコミュニケーション支援 この研究が注目される理由の一つは、言葉や身体を失った人々の新たなコミュニケーション手段につながる可能性です。近年、脳卒中や神経変性疾患で話す力を失った人に対して、脳内に電極を埋め込む侵襲型BCIを使い、文字や音声でのコミュニケーションを取り戻す研究が進んでいます。 たとえば、2021年には脳にセンサーを埋め込んで、頭の中で思い描いた文字を読み取り、1分間に約90文字も入力できたという研究が報告されています3。また2023年には、脳の表面に埋め込んだ皮質電極を通じて、考えた言葉をそのまま音声に変換し、ほぼ普通に話せるレベルの精度で「声を出す」ことに成功した研究も発表されています4。 しかし、こうした最先端のコミュニケーション補助は、センサーや電極を脳に埋め込む手術が必要であり、大きなリスクとコストを伴います。 そこで期待されるのが、非侵襲BCIによるコミュニケーション支援です。今回のMetaの成果は、自動補完や反復による訂正ができれば、80%近い文字精度でも意味の通る文章を伝えることは可能です。実際、外科手術は難しい高齢のALS(筋萎縮性側索硬化症)患者や重度の麻痺患者にとって、脳に傷をつけないコミュニケーションBCIは、人生を変える可能性を秘めています。 今回のBrain2Qwertyはまだ研究段階ですが、将来的にこれを応用した装置が開発されれば、声や動きが失われた人々に再び言葉を取り戻す手段を提供できるかもしれません。 🧠 編集後記|BrainTech Magazineより 脳からの信号を読み取り、言葉として再構成する──かつて困難とされてきた課題に、非侵襲の手法で挑んだ今回の研究は、今後のBCI開発に向けた貴重な一歩となりました。まだ実用化には距離があるものの、これまで見えにくかった脳とテクノロジーの接点が、確かに輪郭を持ちはじめています。 📝 本記事で紹介した研究論文 Lévy, J., López-Cózar, C., Sharifian, F., et al. (2025). Brain-to-Text Decoding: A Non-invasive Approach via Typing. arXiv preprint.

機械学習で進化するMI-EEG解析──脳波×AIの最新研究まとめ

頭の中で手を握る動作を思い描く──それだけでも、脳は小さな信号を発しています。その微細な脳波を正しく読み取ることで、人は「考え」を機械に伝えることができるかもしれません。 このような仕組みはMotor Imagery EEG(MI-EEG)と呼ばれ、いま世界中の研究者たちが開発競争を繰り広げている分野です。 今回は、MI-EEGの技術の広がりと、その歩みを追った2024年発表の論文 「Enhancing motor imagery EEG signal decoding through machine learning: A systematic review of recent progress」をもとに、近年注目されている機械学習と脳波技術の融合によって、どのように「考えるだけで伝わる世界」が実現に近づいているのかを、わかりやすくお届けします。 MI-EEGの仕組みと課題 MI-EEGとは、ある特定の運動を思い浮かべたときに脳波に現れる、特有の変化=パターンを読み取り、「右手を動かそうとしている」「足を動かそうとしている」といった想像内容を解読する技術です。 この脳波のパターンは、脳の運動をつかさどる領域(運動野)の活動によって生じます。たとえば右手の動きを想像すると、左脳の特定のエリアが反応し、そこに特徴的な脳波の変化が表れます。この変化を検出することで、思い描いた動作を推定し、機器の操作などに応用することができるのです。 ところが、こうしたEEG信号は非常に微弱で、まばたきや筋肉の動きなどのノイズに埋もれやすく、個人差も大きいという厄介な性質があります。そのため、従来の非侵襲的なBCI(Brain-Computer Interface)では、せいぜい「はい・いいえ」といった単純な意思しか読み取れないという限界がありました。 さらに、脳波の出方には人それぞれ違いがあるため、脳波を判別するモデルは利用者ごとに一から調整し直す必要があり、これも実用化における大きな壁のひとつとなっていました。 加えて、脳波は波の強さ(振幅)やリズム(周波数)といった特徴が、時間や体調によって変化する非定常な信号です。必要な脳の信号よりもノイズが目立ってしまうことも多く、信号対雑音比(SNR)が低いという特性も、安定した解析を難しくしていました。 MI-EEG解析における機械学習・深層学習の進化 こうした課題を打破しつつあるのが、近年の機械学習(ML)、とりわけ深層学習(ディープラーニング, DL)の技術です。実は、BCI分野では以前から機械学習によって脳波のパターンを分類する研究が行われてきました。しかしその多くは、EEGデータをモデルで扱うために、「どの周波数帯に注目すべきか」「どの脳の部位が反応しているか」といった特徴を見極めて選び出す作業(特徴抽出)や、それをもとに分類モデルを動かすための細かなパラメータ設定が欠かせませんでした。 これらの工程には、豊富な知識と経験が必要で、システム構築には多くの時間と手間がかかっていたのです。 しかし2017年頃から、状況が大きく変わり始めました。BCI Competition IVやPhysioNetなど、複数の被験者による運動想起タスクの脳波を収録した、大規模なオープンデータセットが次々と公開され、これを活用して高性能な深層学習モデルが脳波解析に本格的に導入されるようになったのです¹。 深層学習の強みは、生の時系列データから自動で意味のある特徴を学習できることにあります。従来は専門家が行っていた周波数帯の選択や空間フィルタの調整といった作業を、モデルが自ら学びながら処理してくれるようになりました。 この技術によって、MI-EEGのように複雑でノイズの多い信号でも、より柔軟かつ高精度に脳波を読み取ることが可能になってきました。 ¹ Hossain, K. M., Islam, M. A., Hossain, S., Nijholt, A., & Ahad, M. A. R. (2023). Status of deep learning for EEG-based brain–computer interface applications. Heliyon, 9(3), e14029. 主な深層学習モデルとMI-EEGへの応用 具体的に、近年のMI-EEGデコーディングで活躍している深層学習モデルや手法には、以下のようなものがあります。 CNN(Convolutional Neural Network:畳み込みニューラルネットワーク) 脳波には、「どの場所の電極で信号が強く出ているか」といった空間的な分布や、「どの周波数の信号が目立つか」といった周波数の特徴が含まれています。こうした情報を自動で見つけ出せるのが、CNNという深層学習モデルです。 このモデルは、もともとは画像認識の分野で活躍してきたモデルで、画像の中から形や模様を見分けるのと同じように、脳波の形や波のリズムを見つけ出せるのが特徴です。 実際、従来用いられていたCSP(共通空間パターン)+LDA(線形判別分析)といった機械学習アプローチに比べ、 CNNベースのモデルは、より柔軟に複雑な脳波パターンを扱うことができ、特にうまく脳波で意思を伝えられなかった被験者でも、分類精度が向上したという報告もあります²。 ² Hameed, I., Khan, D. M., Ahmed, S. M., Aftab, S. S., & Fazal, H. (2022). Classification of motor imagery EEG using deep learning increases performance in inefficient BCI users. PLOS ONE, 17(7), e0268880. RNN(Recurrent Neural Network:再帰型ニューラルネットワーク) 脳波のように「時間とともに変化するデータ」を扱う場面では、RNNという深層学習モデルが使われます。RNNは、過去の情報を記憶しながら現在の情報を処理できるのが特徴です。 たとえば、ある動作を思い描いたとき、脳波には一瞬だけでなく、時間の流れに沿って特徴的な変化が現れます。RNNはこのような時系列のパターンを捉えるのが得意で、「いつ、どんな変化があったか」といった情報を生かして分類を行うことができます。 このおかげで、静止画のような断片ではなく、時間の流れに沿った変化として信号を読み取れるようになり、より安定した分類が可能になりました。 転移学習(Transfer Learning) 転移学習では、あらかじめ多くの脳波データを使って学習させたモデル(ベースモデル)を使い、それを新しい利用者やタスクに合わせて、少ないデータで効率よく調整することができます。 たとえば、「右手を動かす想像」といった共通の脳波パターンをすでに学習済みのモデルがあれば、新しい人の脳波を少しだけ読み込むだけで、その人専用のモデルをすばやく作ることができるのです。 これにより、大量のデータを用意したり、毎回ゼロから学習し直したりする負担を大幅に減らすことができ、特にデータが取りにくい医療・福祉現場などでの活用にも期待が高まっています。 このように機械学習、とりわけ深層学習の導入によって、MI-EEG信号の解読精度は飛躍的に向上しました。実験室レベルでは、頭に装着した電極から得られる脳波だけで「右手」「左手」「両足」など複数種類の運動想像をかなりの精度で分類できるようになってきています。 たとえば、EEGNetというモデルは、とてもコンパクトな構造のCNNとして設計されており、データ量が限られている場面でも、高い精度で動作することが特徴です³。少ない学習データでも安定して使えるように工夫されていて、実際に多くの研究で活用が広がっています。 ³Lawhern, V. J., Solon, A. J., Waytowich, N. R., Gordon, S. M., Hung, C. P., & Lance, B. J. (2018). EEGNet: A Compact Convolutional Network for EEG-based Brain-Computer Interfaces. Journal of Neural Engineering, 15(5), 056013. MI-EEG技術を社会に届けるために乗り越えるべきこと 深層学習によってMI-EEGの解析精度は大きく向上しましたが、それを活用した応用システム(MI-BCI)として実用化するには、まだ乗り越えるべき課題も残されています。 たとえば、装着が簡便な簡易EEGデバイスでは、高性能な研究用システムと比べると信号品質が高くないため、日常利用にはノイズ対策が重要になってきます。またアルゴリズム面では、ユーザーが長時間使っても都度再学習しなくて済むような、高い汎用性や継続的学習の仕組みが求められています。 幸いなことに、こうした課題に対しても研究は進んでおり、脳波データを増強するデータ拡張手法や、異なる個人間でモデルを融通するドメイン適応技術、他の生体信号と組み合わせたハイブリッドBCIなど、様々なアプローチが提案されています。まさに人間の脳と機械をつなぐ架け橋として、MI-EEG技術は機械学習との融合によって日々アップデートされているのです。 近い将来、例えばリハビリテーションの現場で患者さんが頭で思い描くだけでロボットスーツを動かし、運動機能回復を助ける――そんな光景が当たり前になるかもしれません。ニューロテック最前線のMI-EEG×機械学習の進化から、これからも目が離せません。 🧠 編集後記|BrainTech Magazineより MI-EEGと深層学習の組み合わせは、これまで読み取りが難しかった脳の信号をより正確に扱える技術へと押し上げています。 実用化にはまだいくつかのハードルがありますが、個人ごとの違いやノイズの多さを乗り越えるための工夫も進み、MI-EEGは実際に使える技術へと着実に近づいています。 BrainTech Magazineでは、こうした研究の進展とその社会実装への動きを、これからも丁寧に伝えていきます。 📝本記事で紹介した研究論文 Hameed, I., Khan, D. M., Ahmed, S. M., Aftab, S. S., & Fazal, H. (2023). Enhancing motor imagery EEG signal decoding through machine learning: A systematic review of recent progress. Biomedical Signal Processing and Control, 84, 104960.

音楽を聴いた「喜び」や「安心」が脳波でわかる?──脳が感じる音楽の“気持ち”を読み解く

「音楽を聴くと心が踊る!」そんな経験、きっと誰にでもありますよね。でも、どうして音楽がこれほどまでに私たちの感情を揺さぶるのでしょうか? その謎に、脳波(EEG)を使って迫ろうとする最新のブレインテック研究が登場しました。2024年にIEEEで発表された注目の研究では、音楽を聴いているときの脳波から、その人の感情を4つのカテゴリーに分類するというチャレンジが行われています。 今回は、音楽と脳の意外なつながり、そしてこの研究から見えてくる新しい可能性について、わかりやすくご紹介します。 音楽を聴いているとき、脳では何が起きているのか? 今回紹介するのは、2024年にIEEEで発表された最新研究「EEG-Music Emotion Recognition: Challenge Overview」です。この研究では、音楽を聴いているときの脳波(EEG)に注目し、そこから「喜び」「安心」「悲しみ」「怒り」といった感情を推定することにチャレンジしています。 脳波とは、頭の表面から記録できる微弱な電気信号で、私たちの脳が活動している証のようなものです。音楽を聴いているとき、脳はこの信号を通してさまざまな反応を見せてくれます。 また、音楽は人の感情を強く動かす刺激として知られており、実際に「楽しい」「切ない」「緊張する」など、聴いているだけで気持ちが大きく揺れ動くこともあります。こうした感情の動きが、脳波のパターンにも現れるのではないか――そんな仮説のもと、研究チームは脳波から感情を読み取ることに挑戦しました。 このアプローチは、今までの「表情や心拍から感情を推測する」という方法とは一味違います。というのも、脳波は脳内で直接起こっている活動を捉えるため、音楽による微細な感情の変化もより直接的に反映されるからです。もちろん、脳波自体は非常に微弱でノイズも多く、解析は簡単ではありませんが、ディープラーニングをはじめとする最新の機械学習技術によって、そうした複雑なパターンの解明も少しずつ可能になりつつあります。 好きな曲 vs 初めての曲、脳はどう反応する? この研究では、20代〜30代の被験者34人が参加し、音楽を聴いているときの脳波を記録しました。使われた曲は16曲で、半分は被験者が選んだ“お気に入りの曲”、もう半分は他の人が選んだ“初めて聴く曲”です。慣れた音楽と新しい音楽で脳の反応がどう変わるかも調べています。 音楽を聴いた後には、「どんな気持ちになったか?」を、感情マップ(ジュネーブ感情ホイール)を使って自己申告してもらいました。この回答が、AIにとっての感情の正解になります。 つまり、本人がどう感じたかをラベルとして使うことで、「この脳波は安心のとき」「これは怒りのとき」といったデータをAIに学習させることができます。これが「教師あり学習」と呼ばれる方法です。 これを使って解析した結果、脳波は人によって違いはあるものの、特定の感情に共通する傾向があることが確認されました。 感情の読み取りは本当にできるの? この研究の目的は、脳波から「今、どのような感情を感じているのか?」という問いに答えられるようにすることです。しかし、現時点での精度は約30%程度で、4つの感情カテゴリーの中からランダムに選んだ場合の正答率(25%)をやや上回る水準にとどまっています。 出典:S. Calcagno, S. Carnemolla, I. Kavasidis, S. Palazzo, D. Giordano and C. Spampinato, "EEG-Music Emotion Recognition: Challenge Overview," ICASSP 2025 - 2025 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), Hyderabad, India, 2025, pp. 1-3, doi: 10.1109/ICASSP49660.2025.10888506. とはいえ、これはあくまでもスタート地点です。研究チームはこの結果をもとに、精度をさらに高めるための新たな手法の開発やデータの充実に取り組んでいます。ブレインテックの分野は日々進化しており、次のステップでは、より精度の高い成果が期待されます。 あなたの脳に合わせた音楽療法の実現可能性 注目すべきは、この技術が単なる実験に留まらず、実用面での応用が期待されている点です。たとえば、音楽療法の分野では、患者が音楽を聴いているときの脳波をリアルタイムで解析し、最適な治療法を提案することが可能になるかもしれません。 うつ病や不安障害の治療現場では、音楽を使ったセラピーの効果を脳波で見える化することで、患者ごとに合った曲の選定や、セラピー中の状態把握に役立てられる可能性があります。 また、介護や認知症ケアの現場でも、音楽による感情反応を脳波で捉えることで、患者の状態を見守りながら心を落ち着かせる音楽環境をつくるといった応用も期待されます。将来的には、ウェアラブル脳波計と連動した音楽プレーヤーが登場し、そのときの精神状態に合わせてリラックスできる音楽を自動選曲してくれるようなシステムも考えられます。 🧠 編集後記|BrainTech Magazineより 音楽は私たちの心を大きく揺さぶります。その感動の裏側には、まだ未知の脳波パターンが隠れているかもしれません。IEEEで発表された今回の研究は、そんな“脳が感じる音楽”を読み解こうとする第一歩です。 精度はまだ発展途上ですが、ブレインテックの進化により、音楽療法やメンタルヘルスの分野での応用も現実味を帯びてきています。 この記事が、脳と音楽のつながりに興味を持つきっかけになれば嬉しいです。今後もブレインテックの面白い話題をお届けしていきますので、お楽しみに! 📝本記事で紹介した研究論文 Calcagno, S., Carnemolla, S., Kavasidis, I., Palazzo, S., Giordano, D., & Spampinato, C. (2024). EEG-Music Emotion Recognition: Challenge Overview. 2024 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP).IEEE. https://ieeexplore.ieee.org/document/10888506

1 2 3

Ready to work together?

CONTACT

ニューロテクノロジーで新たな可能性を
一緒に探求しませんか?

ウェアラブル脳波計測デバイスや、
ニューロミュージックに関心をお持ちの方、
そして共同研究や事業提携にご興味のある
企業様、研究機関様からの
お問い合わせをお待ちしております。