TAG

ブレインテック

変化する国内外のウェルビーイング市場環境

働き方や価値観の多様化を背景に、ウェルビーイング市場は世界的に成長を加速させています。従来、心と体の健康を指す概念だったウェルビーイングは、いまや経営戦略や産業創出の中心的テーマとなりつつあります。その背景には、メンタルヘルス問題の深刻化や高齢化社会の進行、そして脳科学やニューロテクノロジーの進展があります。 本稿では、ウェルビーイング市場の変化と今後の展望について、ニューロテックに着目した視点からご紹介します。 脳科学×メンタルヘルス──「見える化」から始まるウェルビーイング支援 パンデミックを契機に、世界中でメンタルヘルスケアの重要性が改めて注目されるようになりました。働き方の変化や社会不安の高まりにより、孤独感の増加、ストレスの蓄積、意欲の低下といった問題が表面化し、ビジネスパーソンの生産性や企業の持続可能性にも影響を及ぼしています。こうした背景のもと、ウェルビーイングを支援する市場は国内外で急速に拡大しており、なかでも注目されているのが、脳科学の知見を活用した新しいアプローチです。 たとえば、脳波をリアルタイムで計測し、ストレスや集中度を可視化する技術は、近年急速に実用化が進んでいます。こうした脳波計測デバイスは、瞑想やマインドフルネスの効果測定や、集中状態の分析などに活用され、企業の健康経営の一環としても導入が進んでいます。さらに、AIを用いた脳波解析により、「どのような環境でパフォーマンスが上がるか」や「どの音楽がリラックスに貢献するか」といった個別最適化のアプローチも登場しています。こうした科学的アプローチは、従業員の主観に頼らずに、こころの状態を客観的に把握できる手段として期待されています。 認知機能ケアが日常へ──生活に溶け込む脳科学 また、近年では、認知機能を維持・改善するための技術にも脳科学が応用されるようになり、その広がりが注目されています。特に高齢化が進む日本においては、認知症予防や脳の健康管理が社会的な課題となっており、その解決手段としてニューロテクノロジーが注目されています。 その代表例が、ニューロフィードバックやデジタルセラピー(DTx)といった分野です。ニューロフィードバックは、脳波をフィードバックしながらトレーニングを行うことで、集中力や記憶力の改善、さらにはADHDやうつ病の緩和にも効果があるとされ、米国ではすでに一部がFDA認可を受けています。これに追随する形で、日本国内でも医療機関との連携や、保険適用を見据えた研究開発が活発化しています。 また、近年ではVRやAR、AI技術と連携した認知リハビリテーションも登場し、没入感のある環境で脳を刺激する手法が注目されています。このように、脳科学を活用したウェルビーイング支援の取り組みは、医療・介護の分野にとどまらず、教育現場や職場での学習支援、さらにはスポーツのパフォーマンス向上など、さまざまな領域へと広がりを見せています。 成長を続けるウェルビーイング市場と今後のビジネス機会 ウェルビーイング市場は、グローバルで見ても高成長を続ける分野です。Global Wellness Instituteの2024年の報告によると、世界のウェルビーイング関連市場は、2023年時点で6.3兆ドルに達しており、2028年には9兆ドルに拡大する見通しです(年平均成長率7.3%)1。なかでも、脳科学やAIとの融合によるソリューションは、他分野への波及効果も大きく、業界横断的な広がりを見せています。 出典:Global Wellness Institute たとえば、GoogleやAppleといったテック企業では、すでにウェルビーイング関連機能の開発に注力しており、スマートウォッチやヘルスケアアプリを通じて、ストレス、睡眠、集中度といった「脳と心」に関わる指標を、日常的に収集・分析できる時代が訪れています。 企業にとっては、こうしたデータを活用し、従業員のパフォーマンスを最大化する職場環境や、カスタマイズされた健康支援プログラムの設計が可能となります。実際に一部のグローバル企業では、眼電位や身体動作センサー、心拍データなどを活用して、「集中できる会議の時間帯の把握」や「リラックスできる空間デザイン」の実証が進んでおり、これは日本企業にとっても新たな競争力強化のヒントになるでしょう。 まとめ:ウェルビーイングを経営と社会の中心に ウェルビーイング市場は今後も、脳科学とテクノロジーを軸とした「見える化」と「最適化」によって進化を遂げていくことが予想されます。特に「脳」にアプローチすることは、私たちの行動・感情・判断の源に直接働きかける方法であり、医療だけでなく教育、働き方、まちづくりなど、あらゆる領域に影響を与える可能性を秘めています。 企業としては、単なる福利厚生やストレス対策ではなく、「科学に基づくウェルビーイング経営」をいかに早期に取り入れられるかが、これからの差別化要因となるでしょう。 ウェルビーイングと脳科学の接点を理解し、次の一手を見据えること、それこそが、持続可能で創造的な未来を築く第一歩になるのではないでしょうか。

自分の“好き”に従い研究の道へ:『恋愛の脳科学』研究者・藤崎健二さんの背景と原点

今回は、京都大学大学院で「恋愛の脳科学」の研究に取り組まれている藤崎さんにお話を伺いました。インタビューの前半では、藤崎さんの研究に至るまでの背景やこれまでの研究成果などについて詳しくご紹介していますので、ぜひあわせてご覧ください。 https://mag.viestyle.co.jp/interview05/ インタビューの後半では、藤崎さんのパーソナルストーリーに焦点を当て、幼少期の生活や現在の趣味、研究に関するエピソードなどについて伺いました。 研究者プロフィール 氏名:藤崎 健二(ふじさき けんじ)所属:京都大学大学院 文学研究科 博士後期課程研究室:阿部研究室研究分野:恋愛、対人認知、fMRI 就職か進学かーー背中を押したのは自身の経験と一冊の本 ── まずは改めて簡単に自己紹介をお願いします。 現在は京都大学大学院文学研究科に所属し、研究に取り組んでいます。学部時代は慶應義塾大学理工学部で、脳波や心拍などの生理指標の解析に取り組んでいました。その後、恋愛関係の維持や構築を支える脳の仕組みについて深く研究したいと思い、大学院から京都大学に進学しました。 ── 大学院への進学はいつから考え始めましたか? 大学3回生の冬頃から、大学院への進学を考え始めました。元々は大学卒業後に就職するつもりでしたが、就職活動を進める中で、自分の心の声に従って好きなことや楽しいと思えることを仕事にしたいと思うようになりました。そんなとき、学部時代に図書館で偶然手に取ったのが『人はなぜ恋に落ちるのか?: 恋と愛情と性欲の脳科学』という一冊でした。恋愛の脳研究を専門にする第一人者の研究に触れたことで、昔から関心のあった「恋愛のしくみ」について本格的に研究したいという気持ちが強まり、大学院進学を決めました。 ── 始めは研究者になることは考えていなかったのですね。研究テーマの根幹となる、恋愛のメカニズムへの関心はどういった経緯でもつようになったのでしょうか。 自分自身の恋愛経験が大きかったと思います。これまでの人生の中で、特定の相手に強く惹かれる経験を通じて、恋愛がもたらす多幸感や心の揺れ動きは、日常で経験する感情とは質的に異なる、非常に特別なものだと実感しました。そうした体験から、なぜ恋愛はこれほどまでに人の感情や行動に強く影響を与えるのか、その背景にある脳の働きについて関心を持つようになりました。 ── ご自身の経験が研究へのモチベーションだったのですね。元々考えていた進路を変更する上で、苦労されたことはありますか? 周りの友人のほとんどが大手企業の就職を目指す中で、別の道を選ぶのは不安もあり、勇気が要る決断でした。そんな中、幸いにも同じように研究の道を志す先輩方が身近にいて、その存在が自分の背中を押してくれました。 人生のモットーはイチロー選手への憧れから ── 子供のころは脳科学以外にどのようなことに興味を持っていましたか? 小さい頃から、生き物に強い興味がありました。幼稚園の頃は昆虫が好きで、「昆虫博士」と呼ばれていたこともあります。小学生になると犬を家に迎え、高校時代には海外の爬虫類などを飼育していました。今でもいろんな動物が好きですが、犬が1番愛おしいです。 ── 様々な生き物に関心をもち続けた半生だったのですね。子供のころからの興味が現在まで続いているとのことですが、他にも今の自分に影響を与えた出来事や影響を受けた人物はいますか? はい、元メジャーリーガーのイチロー選手から大きな影響を受けました。小学校から中学3年生まで野球を続けていたこともあり、当時からイチロー選手は馴染みのある存在でした。あるとき、読書感想文のために彼に関する本を読んだことをきっかけに、その生き方や考え方に深く共感し、自分も彼のように信念を持って道を切り開いていける人になりたいと思うようになりました。 ── 具体的にはイチロー選手のどのような姿に影響を受けたのでしょうか? 好きなことを徹底して追求する姿勢に、強く影響を受けました。イチロー選手が野球という好きなことに出会い、誰よりも打ち込んできたからこそ、あれだけの成果を残せたのだと思っています。その姿勢は、「好きなことや楽しいと感じられることを大切にしたい」という、私自身の価値観の原点となっており、大学院進学を決める上でも大きな指針になりました。 また、直面する課題に対して原因の仮説を立て、検証し、改善へとつなげていくというイチロー選手の姿勢にも強く惹かれました。単に努力するのではなく、常に思考を巡らせながら自分を高めていくその在り方に、深い知性と探究心を感じました。 とはいえ、「修学旅行でも握力トレーニングを終えるまでは友達と遊ばなかった」という彼のストイックさについては尊敬しつつも、自分にはまだ難しいと思ってしまいます(笑) 研究は楽しい!ーーこれからの研究者に伝えたいこと ── 普段はどのように過ごされているのですか? 研究活動が生活のほとんどを占めています。その他には、研究室のリサーチアシスタント業務や、学部時代にアルバイトとして勤めていた会社からの委託業務などに取り組んでいます。 ── 研究やその関連活動が生活の一部となっているのですね。息抜きとして何か取り組んでいることはありますか? 今は料理にハマっています。昔から美味しい料理が好きで、学部時代は服と食べ物にバイト代を費やしていました。しかし、3年前に東京から京都に引っ越したことで美味しいお店と出会う頻度が減ってしまったので、節約も兼ねて自分で料理をするようになりました。最近はお肉やチーズの燻製料理にハマっています。 ── 最後に、これから同じ領域に挑戦してみたい学生や若い研究者に向けて、メッセージをお願いします。 研究に興味がある方には、「研究は楽しい!」ということをお伝えしたいです。アカデミアには自分の興味関心を探究できる世界が広がっており、大変なことも多いですが、この道を選んで本当に良かったと思っています。 少しでも関心がある方は、ぜひ勇気を出して、実際に研究をしている方の話を聞いてみることをおすすめします。近い分野でご活躍されている研究者の方々とは、研究に関する議論を深めたり、将来的に共同研究を行うなどのかたちでつながりを持てれば幸いです。 NeuroTech Magazineでは、ブレインテック関連の記事を中心にウェルビーイングや若手研究者へのインタビュー記事を投稿しています。また、インタビューに協力していただける研究者を随時募集しています。 応募はこちらから → info@vie.style

機械学習で進化するMI-EEG解析──脳波×AIの最新研究まとめ

頭の中で手を握る動作を思い描く──それだけでも、脳は小さな信号を発しています。その微細な脳波を正しく読み取ることで、人は「考え」を機械に伝えることができるかもしれません。 このような仕組みはMotor Imagery EEG(MI-EEG)と呼ばれ、いま世界中の研究者たちが開発競争を繰り広げている分野です。 今回は、MI-EEGの技術の広がりと、その歩みを追った2024年発表の論文 「Enhancing motor imagery EEG signal decoding through machine learning: A systematic review of recent progress」をもとに、近年注目されている機械学習と脳波技術の融合によって、どのように「考えるだけで伝わる世界」が実現に近づいているのかを、わかりやすくお届けします。 MI-EEGの仕組みと課題 MI-EEGとは、ある特定の運動を思い浮かべたときに脳波に現れる、特有の変化=パターンを読み取り、「右手を動かそうとしている」「足を動かそうとしている」といった想像内容を解読する技術です。 この脳波のパターンは、脳の運動をつかさどる領域(運動野)の活動によって生じます。たとえば右手の動きを想像すると、左脳の特定のエリアが反応し、そこに特徴的な脳波の変化が表れます。この変化を検出することで、思い描いた動作を推定し、機器の操作などに応用することができるのです。 ところが、こうしたEEG信号は非常に微弱で、まばたきや筋肉の動きなどのノイズに埋もれやすく、個人差も大きいという厄介な性質があります。そのため、従来の非侵襲的なBCI(Brain-Computer Interface)では、せいぜい「はい・いいえ」といった単純な意思しか読み取れないという限界がありました。 さらに、脳波の出方には人それぞれ違いがあるため、脳波を判別するモデルは利用者ごとに一から調整し直す必要があり、これも実用化における大きな壁のひとつとなっていました。 加えて、脳波は波の強さ(振幅)やリズム(周波数)といった特徴が、時間や体調によって変化する非定常な信号です。必要な脳の信号よりもノイズが目立ってしまうことも多く、信号対雑音比(SNR)が低いという特性も、安定した解析を難しくしていました。 MI-EEG解析における機械学習・深層学習の進化 こうした課題を打破しつつあるのが、近年の機械学習(ML)、とりわけ深層学習(ディープラーニング, DL)の技術です。実は、BCI分野では以前から機械学習によって脳波のパターンを分類する研究が行われてきました。しかしその多くは、EEGデータをモデルで扱うために、「どの周波数帯に注目すべきか」「どの脳の部位が反応しているか」といった特徴を見極めて選び出す作業(特徴抽出)や、それをもとに分類モデルを動かすための細かなパラメータ設定が欠かせませんでした。 これらの工程には、豊富な知識と経験が必要で、システム構築には多くの時間と手間がかかっていたのです。 しかし2017年頃から、状況が大きく変わり始めました。BCI Competition IVやPhysioNetなど、複数の被験者による運動想起タスクの脳波を収録した、大規模なオープンデータセットが次々と公開され、これを活用して高性能な深層学習モデルが脳波解析に本格的に導入されるようになったのです¹。 深層学習の強みは、生の時系列データから自動で意味のある特徴を学習できることにあります。従来は専門家が行っていた周波数帯の選択や空間フィルタの調整といった作業を、モデルが自ら学びながら処理してくれるようになりました。 この技術によって、MI-EEGのように複雑でノイズの多い信号でも、より柔軟かつ高精度に脳波を読み取ることが可能になってきました。 ¹ Hossain, K. M., Islam, M. A., Hossain, S., Nijholt, A., & Ahad, M. A. R. (2023). Status of deep learning for EEG-based brain–computer interface applications. Heliyon, 9(3), e14029. 主な深層学習モデルとMI-EEGへの応用 具体的に、近年のMI-EEGデコーディングで活躍している深層学習モデルや手法には、以下のようなものがあります。 CNN(Convolutional Neural Network:畳み込みニューラルネットワーク) 脳波には、「どの場所の電極で信号が強く出ているか」といった空間的な分布や、「どの周波数の信号が目立つか」といった周波数の特徴が含まれています。こうした情報を自動で見つけ出せるのが、CNNという深層学習モデルです。 このモデルは、もともとは画像認識の分野で活躍してきたモデルで、画像の中から形や模様を見分けるのと同じように、脳波の形や波のリズムを見つけ出せるのが特徴です。 実際、従来用いられていたCSP(共通空間パターン)+LDA(線形判別分析)といった機械学習アプローチに比べ、 CNNベースのモデルは、より柔軟に複雑な脳波パターンを扱うことができ、特にうまく脳波で意思を伝えられなかった被験者でも、分類精度が向上したという報告もあります²。 ² Hameed, I., Khan, D. M., Ahmed, S. M., Aftab, S. S., & Fazal, H. (2022). Classification of motor imagery EEG using deep learning increases performance in inefficient BCI users. PLOS ONE, 17(7), e0268880. RNN(Recurrent Neural Network:再帰型ニューラルネットワーク) 脳波のように「時間とともに変化するデータ」を扱う場面では、RNNという深層学習モデルが使われます。RNNは、過去の情報を記憶しながら現在の情報を処理できるのが特徴です。 たとえば、ある動作を思い描いたとき、脳波には一瞬だけでなく、時間の流れに沿って特徴的な変化が現れます。RNNはこのような時系列のパターンを捉えるのが得意で、「いつ、どんな変化があったか」といった情報を生かして分類を行うことができます。 このおかげで、静止画のような断片ではなく、時間の流れに沿った変化として信号を読み取れるようになり、より安定した分類が可能になりました。 転移学習(Transfer Learning) 転移学習では、あらかじめ多くの脳波データを使って学習させたモデル(ベースモデル)を使い、それを新しい利用者やタスクに合わせて、少ないデータで効率よく調整することができます。 たとえば、「右手を動かす想像」といった共通の脳波パターンをすでに学習済みのモデルがあれば、新しい人の脳波を少しだけ読み込むだけで、その人専用のモデルをすばやく作ることができるのです。 これにより、大量のデータを用意したり、毎回ゼロから学習し直したりする負担を大幅に減らすことができ、特にデータが取りにくい医療・福祉現場などでの活用にも期待が高まっています。 このように機械学習、とりわけ深層学習の導入によって、MI-EEG信号の解読精度は飛躍的に向上しました。実験室レベルでは、頭に装着した電極から得られる脳波だけで「右手」「左手」「両足」など複数種類の運動想像をかなりの精度で分類できるようになってきています。 たとえば、EEGNetというモデルは、とてもコンパクトな構造のCNNとして設計されており、データ量が限られている場面でも、高い精度で動作することが特徴です³。少ない学習データでも安定して使えるように工夫されていて、実際に多くの研究で活用が広がっています。 ³Lawhern, V. J., Solon, A. J., Waytowich, N. R., Gordon, S. M., Hung, C. P., & Lance, B. J. (2018). EEGNet: A Compact Convolutional Network for EEG-based Brain-Computer Interfaces. Journal of Neural Engineering, 15(5), 056013. MI-EEG技術を社会に届けるために乗り越えるべきこと 深層学習によってMI-EEGの解析精度は大きく向上しましたが、それを活用した応用システム(MI-BCI)として実用化するには、まだ乗り越えるべき課題も残されています。 たとえば、装着が簡便な簡易EEGデバイスでは、高性能な研究用システムと比べると信号品質が高くないため、日常利用にはノイズ対策が重要になってきます。またアルゴリズム面では、ユーザーが長時間使っても都度再学習しなくて済むような、高い汎用性や継続的学習の仕組みが求められています。 幸いなことに、こうした課題に対しても研究は進んでおり、脳波データを増強するデータ拡張手法や、異なる個人間でモデルを融通するドメイン適応技術、他の生体信号と組み合わせたハイブリッドBCIなど、様々なアプローチが提案されています。まさに人間の脳と機械をつなぐ架け橋として、MI-EEG技術は機械学習との融合によって日々アップデートされているのです。 近い将来、例えばリハビリテーションの現場で患者さんが頭で思い描くだけでロボットスーツを動かし、運動機能回復を助ける――そんな光景が当たり前になるかもしれません。ニューロテック最前線のMI-EEG×機械学習の進化から、これからも目が離せません。 🧠 編集後記|BrainTech Magazineより MI-EEGと深層学習の組み合わせは、これまで読み取りが難しかった脳の信号をより正確に扱える技術へと押し上げています。 実用化にはまだいくつかのハードルがありますが、個人ごとの違いやノイズの多さを乗り越えるための工夫も進み、MI-EEGは実際に使える技術へと着実に近づいています。 BrainTech Magazineでは、こうした研究の進展とその社会実装への動きを、これからも丁寧に伝えていきます。 📝本記事で紹介した研究論文 Hameed, I., Khan, D. M., Ahmed, S. M., Aftab, S. S., & Fazal, H. (2023). Enhancing motor imagery EEG signal decoding through machine learning: A systematic review of recent progress. Biomedical Signal Processing and Control, 84, 104960.

音楽を聴いた「喜び」や「安心」が脳波でわかる?──脳が感じる音楽の“気持ち”を読み解く

「音楽を聴くと心が踊る!」そんな経験、きっと誰にでもありますよね。でも、どうして音楽がこれほどまでに私たちの感情を揺さぶるのでしょうか? その謎に、脳波(EEG)を使って迫ろうとする最新のブレインテック研究が登場しました。2024年にIEEEで発表された注目の研究では、音楽を聴いているときの脳波から、その人の感情を4つのカテゴリーに分類するというチャレンジが行われています。 今回は、音楽と脳の意外なつながり、そしてこの研究から見えてくる新しい可能性について、わかりやすくご紹介します。 音楽を聴いているとき、脳では何が起きているのか? 今回紹介するのは、2024年にIEEEで発表された最新研究「EEG-Music Emotion Recognition: Challenge Overview」です。この研究では、音楽を聴いているときの脳波(EEG)に注目し、そこから「喜び」「安心」「悲しみ」「怒り」といった感情を推定することにチャレンジしています。 脳波とは、頭の表面から記録できる微弱な電気信号で、私たちの脳が活動している証のようなものです。音楽を聴いているとき、脳はこの信号を通してさまざまな反応を見せてくれます。 また、音楽は人の感情を強く動かす刺激として知られており、実際に「楽しい」「切ない」「緊張する」など、聴いているだけで気持ちが大きく揺れ動くこともあります。こうした感情の動きが、脳波のパターンにも現れるのではないか――そんな仮説のもと、研究チームは脳波から感情を読み取ることに挑戦しました。 このアプローチは、今までの「表情や心拍から感情を推測する」という方法とは一味違います。というのも、脳波は脳内で直接起こっている活動を捉えるため、音楽による微細な感情の変化もより直接的に反映されるからです。もちろん、脳波自体は非常に微弱でノイズも多く、解析は簡単ではありませんが、ディープラーニングをはじめとする最新の機械学習技術によって、そうした複雑なパターンの解明も少しずつ可能になりつつあります。 好きな曲 vs 初めての曲、脳はどう反応する? この研究では、20代〜30代の被験者34人が参加し、音楽を聴いているときの脳波を記録しました。使われた曲は16曲で、半分は被験者が選んだ“お気に入りの曲”、もう半分は他の人が選んだ“初めて聴く曲”です。慣れた音楽と新しい音楽で脳の反応がどう変わるかも調べています。 音楽を聴いた後には、「どんな気持ちになったか?」を、感情マップ(ジュネーブ感情ホイール)を使って自己申告してもらいました。この回答が、AIにとっての感情の正解になります。 つまり、本人がどう感じたかをラベルとして使うことで、「この脳波は安心のとき」「これは怒りのとき」といったデータをAIに学習させることができます。これが「教師あり学習」と呼ばれる方法です。 これを使って解析した結果、脳波は人によって違いはあるものの、特定の感情に共通する傾向があることが確認されました。 感情の読み取りは本当にできるの? この研究の目的は、脳波から「今、どのような感情を感じているのか?」という問いに答えられるようにすることです。しかし、現時点での精度は約30%程度で、4つの感情カテゴリーの中からランダムに選んだ場合の正答率(25%)をやや上回る水準にとどまっています。 出典:S. Calcagno, S. Carnemolla, I. Kavasidis, S. Palazzo, D. Giordano and C. Spampinato, "EEG-Music Emotion Recognition: Challenge Overview," ICASSP 2025 - 2025 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), Hyderabad, India, 2025, pp. 1-3, doi: 10.1109/ICASSP49660.2025.10888506. とはいえ、これはあくまでもスタート地点です。研究チームはこの結果をもとに、精度をさらに高めるための新たな手法の開発やデータの充実に取り組んでいます。ブレインテックの分野は日々進化しており、次のステップでは、より精度の高い成果が期待されます。 あなたの脳に合わせた音楽療法の実現可能性 注目すべきは、この技術が単なる実験に留まらず、実用面での応用が期待されている点です。たとえば、音楽療法の分野では、患者が音楽を聴いているときの脳波をリアルタイムで解析し、最適な治療法を提案することが可能になるかもしれません。 うつ病や不安障害の治療現場では、音楽を使ったセラピーの効果を脳波で見える化することで、患者ごとに合った曲の選定や、セラピー中の状態把握に役立てられる可能性があります。 また、介護や認知症ケアの現場でも、音楽による感情反応を脳波で捉えることで、患者の状態を見守りながら心を落ち着かせる音楽環境をつくるといった応用も期待されます。将来的には、ウェアラブル脳波計と連動した音楽プレーヤーが登場し、そのときの精神状態に合わせてリラックスできる音楽を自動選曲してくれるようなシステムも考えられます。 🧠 編集後記|BrainTech Magazineより 音楽は私たちの心を大きく揺さぶります。その感動の裏側には、まだ未知の脳波パターンが隠れているかもしれません。IEEEで発表された今回の研究は、そんな“脳が感じる音楽”を読み解こうとする第一歩です。 精度はまだ発展途上ですが、ブレインテックの進化により、音楽療法やメンタルヘルスの分野での応用も現実味を帯びてきています。 この記事が、脳と音楽のつながりに興味を持つきっかけになれば嬉しいです。今後もブレインテックの面白い話題をお届けしていきますので、お楽しみに! 📝本記事で紹介した研究論文 Calcagno, S., Carnemolla, S., Kavasidis, I., Palazzo, S., Giordano, D., & Spampinato, C. (2024). EEG-Music Emotion Recognition: Challenge Overview. 2024 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP).IEEE. https://ieeexplore.ieee.org/document/10888506

脳波であなたの好きな音楽がわかる?感情を読むAIが進化中

日々耳にするお気に入りの音楽。実はその一曲一曲が、私たちの気分や感情にさまざまな影響を与えています。明るいメロディに元気づけられたり、切ない旋律に心が動かされた経験は誰しもあるでしょう。 こうした音楽が引き起こす感情を、脳波(EEG)から読み取る研究が今、注目を集めています。 今回はICASSP 2025で発表された論文「Multimodal Fusion for EEG Emotion Recognition in Music」を取り上げ、大規模言語モデル(LLM)やマルチタスク学習を用いて、従来を大きく上回る感情認識を実現した最新研究をご紹介します。 音楽を聴いたときの「気持ち」を脳波で読み取る難しさ 音楽を聴いて感じる気持ちを脳波から読み取る研究は、近年少しずつ進んできましたが、このような研究の中で大きなハードルとなるのが、「音楽の感じ方に個人差がある」という点です。 同じ曲を聴いても、人によって感じる気持ちが違いますし、それに伴う脳波の反応も変わってきます。このばらつきが、AIが感情を正しく読み取るうえで障壁となってきました。 これまでの多くの研究では、さまざまな人の脳波データをひとつにまとめてAIに学ばせるという方法が取られてきました。しかしこの方法では、誰が聴いたかという違いが考慮されないため、個人差を無視したままAIが学習してしまうという課題がありました。 そこで本研究では、感情を読み取るだけでなく、聴き手が誰なのかを識別するタスクも同時にAIに学ばせる手法が採用されました。このように複数の目的を同時に学ばせることで、AIは人ごとの特徴を踏まえたうえで、より正確に感情を読み取れるようになります。 さらに本研究では、感情を「うれしい」「悲しい」といった単純な分類ではなく、「どれくらい明るい気分か(Valence)」と「どれくらい興奮しているか(Arousal)」という2つの軸に分けて数値で表すことで、より細やかな感情の変化まで見えるようになりました。 音楽の印象を手がかりに、AIが感情を読み解く 脳波だけで感情を読み取ろうとすると、人によって反応が違うため、どうしても限界があります。そこで今回の研究では、脳波だけでなく、音楽そのものの情報も一緒にAIに学ばせるという新しいアプローチがとられました。 人が音楽を聴いて感情を動かされるとき、そのきっかけはメロディやリズム、テンポ、音の明るさや暗さといった曲の特徴です。つまり、「どんな音楽か」と「脳がどう反応したか」を合わせて見ることで、感情の変化をより正確にとらえることができるのです。 さらにこの研究では、音楽の感情的な特徴を読み取るために、大規模言語モデル(LLM)が活用されました。LLMとは、ChatGPTのようなAIの一種で、大量の言語情報をもとに意味を理解することができます。このモデルを使うことで、「この曲は明るくてエネルギッシュ」「この曲は静かで物悲しい」といった音楽の雰囲気や印象をAIが言葉から読み取り、その特徴を数値として扱うことができるようになります。 こうして得られた音楽の特徴と、聴いたときの脳波の変化の両方をAIが一緒に学ぶことで、どちらか一方だけでは読み取りきれなかった感情の手がかりをつかむことができるようになりました。 出典:Huang, S., Jin, Z., Li, D., Han, J., & Tao, X. (2025). Multimodal Fusion for EEG Emotion Recognition in Music with a Multi-Task Learning Framework. 2025 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP) ベースラインを大きく上回る精度向上 こうした工夫により、今回の研究では従来の手法を大きく上回る精度で感情を推定することに成功しました。 音楽の印象と脳波のデータを組み合わせ、さらに聴き手の情報まで取り入れたことで、AIはより正確に「その人が音楽を聴いてどう感じたか」を読み取れるようになったのです。 また、感情を2つの軸で表すことにより、「なんとなく楽しい」「少し不安」といった曖昧な気持ちも、数値として扱うことが可能になりました。 AIはそうした微妙な感情の揺れまで捉えられるようになり、結果として精度の向上につながりました。 今回の結果は、単に技術的なブレイクスルーというだけでなく、人の“心の動き”を読み取るAIの進化を感じさせるものでもあります。 音楽という主観的で感覚的なものを、客観的な脳波と融合しながら扱えるようになったことは、今後のブレインテックの広がりにとっても大きな意味を持つでしょう。 出典:Huang, S., Jin, Z., Li, D., Han, J., & Tao, X. (2025). Multimodal Fusion for EEG Emotion Recognition in Music with a Multi-Task Learning Framework. 2025 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP) 脳波が拓くパーソナライズ音楽推薦の未来 こうした技術は、単なる感情の分析にとどまらず、私たちの日常に活かされる可能性を秘めています。とくに注目されているのが、音楽推薦システムへの応用です。 これまでも、「この曲が好きそう」「前に聴いたジャンルからおすすめ」といったレコメンド機能は存在していましたが、そこには“そのときの気分”という要素までは反映されていませんでした。 今回の研究のように、脳波を通してリアルタイムで感情を読み取れるようになれば、今の自分にぴったりの音楽を自動で選んでくれる世界が見えてきます。 たとえば、疲れているときにはリラックスできる曲を、集中したいときにはテンポのいい曲を提案するような、状況や気分に合わせた音楽体験が可能になるのです。 さらに将来的には、ストレス状態の検出やメンタルヘルスへの応用も期待されています。脳波によって感情の変化を客観的にモニタリングできれば、「最近落ち込みがちだな」といった心のサインを早期に察知し、音楽を通じてやさしく気分を整えるような介入も夢ではありません。 脳と音楽とAIがつながることで、「今の気分にぴったりな音楽」を自動で選んでくれるような体験――そんな未来が、少しずつ現実になってきています。 🧠 編集後記|BrainTech Magazineより 「この曲、今の気分にぴったり」と感じたこと、きっと誰にでもあるはずです。 その“気分”が脳波とAIで読み取れるようになってきているなんて、ちょっとワクワクしますよね。 今回ご紹介した研究は、話題の大規模言語モデルやマルチタスク学習といった最新技術を巧みに活用し、個人差の壁を越えながら、より自然で柔軟な感情理解に挑んだ点が非常に印象的でした。 今後、音楽推薦やメンタルヘルスといった分野での応用が進めば、「今の自分に寄り添う音楽体験」が、誰にとってもあたりまえのものになるかもしれません。 BrainTech Magazineでは、こうした脳科学とテクノロジーの交差点から生まれる最前線の研究を、今後もわかりやすくお届けしていきます。 Huang, S., Jin, Z., Li, D., Han, J., & Tao, X. (2025). Multimodal Fusion for EEG Emotion Recognition in Music with a Multi-Task Learning Framework. 2025 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP).  https://ieeexplore.ieee.org/abstract/document/10890727?casa_token=2MWCAW46z80AAAAA:4r31MKmOZvOeICqzC3AKOapdGgO9fRHibb28bmmh3XwbrvD_Uk24huPs0ANwAQeA1oAVe6himA

脳波で文章が書ける時代へ──最新AIが「思考」をテキストに変換

「頭の中で考えただけでメールが送れる」 そんなSFのような世界が、ついに現実味を帯びてきました。最新のブレインテック研究では、非侵襲の脳波(EEG)データから自然な文章を復元するAIモデルが開発され、注目を集めています。 脳波から“文章”を読み解く:非侵襲BCIのブレイクスルー 脳波から人の意思を読み取る「ブレイン・コンピュータ・インタフェース(BCI)」の研究は、これまでにも義手の制御や簡単な選択肢の選別といった形で応用されてきました。しかし、「文章」を再構成する試みは、まさに次元が異なるチャレンジです。 従来の非侵襲的なBCIでは、脳波の信号が微弱でノイズも多く、せいぜい「はい・いいえ」レベルの意思しか識別できませんでした。文章のような連続的かつ複雑な情報を読み取るには、高度なアルゴリズムと深層学習の力が不可欠だったのです。 注目の研究:HGRUとMRAMによる「脳波から文章生成」 2025年1月に学術誌『Engineering Applications of Artificial Intelligence』に掲載された論文「Decoding text from electroencephalography signals: A novel Hierarchical Gated Recurrent Unit with Masked Residual Attention Mechanism」では、中国・電子科技大学の研究チーム(Qiupu Chenら)が、脳波(EEG)から自然な文章を直接生成するAIモデルを発表しました。 このモデルの何より驚くべき点は、単なる脳波のラベリングではなく、脳活動から直接「文章そのもの」を出力する点にあります。まさに“頭で考えたこと”が、画面に文字として現れる時代の到来を感じさせます。 どうやって脳波が「文章」になるのか? このモデルは、複数の時間スケールで脳波データを処理する「階層型GRU構造」を採用しています。これにより、文章の意味を理解するうえで重要な、文脈や過去の情報を保持しながら、整った文として出力することが可能になります。 さらに、脳波データの中から特に意味のある信号に注目するために、「アテンション機構」と呼ばれる仕組みが使われています。これはAIが入力データの中で“どこを見るべきか”を判断する技術で、ノイズを抑えつつ、重要な部分にしっかりと焦点を当てる役割を果たします。 そして出力されるテキストは、あらかじめ言語の構造を学習しているAI(例:BARTなど)とも連携されており、自然な文法や語順で表現されます。 つまり、脳波を読み取るだけでなく、それを“言語として訳す”ところまでを一気に担う、まさに脳波の翻訳者のようなシステムなのです。 どこまで“思考”を再現できるのか? もちろん、現時点では完全な「心の読解」はできません。とはいえ今回の研究では、非侵襲で得られる脳波データから、意味の通る文章を構成できるレベルにまで精度が向上しており、これは非常に大きな進展といえます。 従来のようにあらかじめ決められた選択肢を識別するだけでなく、より柔軟で自然な表現の再構成が可能になったことで、脳波によるコミュニケーションのあり方そのものに新たな可能性が生まれました。 話せない人の“声”になるテクノロジー この技術が進化すれば、話すことができないALS患者や脳卒中患者が、自分の意思を「文章」で伝える手段になる可能性があります。さらに、脳に電極を埋め込むことなく、EEGキャップを使うだけで実現できる未来が近づいているのです。 また、将来的には、ARやVR空間での“思考だけで操作するUI”としての応用も期待されており、「脳波でLINEを送る」「手を使わずにドキュメントを書く」といった未来も、そう遠くないかもしれません。 研究の意義:脳とAIの共進化 この研究は、脳科学とAI技術の融合が、いかに強力な可能性を秘めているかを象徴しています。今後も、脳波解析技術の精度向上、大規模データによるモデルの汎用化、そしてリアルタイム処理の実現などが進めば、“思考と機械”をつなぐインターフェースとしてのBCIは、私たちの生活を大きく変える存在になるでしょう。 🧠 編集後記|BrainTech Magazineより 今回ご紹介した研究は、非侵襲で自然文を復元するというブレインテックの最前線を示すものです。SFで描かれた「思考で操作する世界」は、いま現実になりつつあります。VIEでは、こうした最先端の技術と社会実装の橋渡しを目指して、今後も注目研究を随時ご紹介していきます。 📝本記事で紹介した研究論文 Chen, Q. et al. (2025). Decoding text from electroencephalography signals: A novel Hierarchical Gated Recurrent Unit with Masked Residual Attention Mechanism. Engineering Applications of Artificial Intelligence, Volume 129, January 2025. https://www.sciencedirect.com/science/article/abs/pii/S0952197624017731

1 2 3 4 5 6

Ready to work together?

CONTACT

ニューロテクノロジーで新たな可能性を
一緒に探求しませんか?

ウェアラブル脳波計測デバイスや、
ニューロミュージックに関心をお持ちの方、
そして共同研究や事業提携にご興味のある
企業様、研究機関様からの
お問い合わせをお待ちしております。