TAG

ブレインテック

ニューロテック(ニューロテクノロジー)とは?ブレインテックとの違いや国内の最新動向を解説

私たちの脳が今どんな状態にあるのか――集中しているのか、疲れているのか、リラックスしているのか。そうした「脳の活動状態」を、脳波や神経活動などのデータを取得・解析することで正確に捉え、社会に活かすのがニューロテックです。 ニューロテックは、脳波や神経活動などのデータを取得・解析し、医療、教育、マーケティングなどさまざまな分野で活用されている注目の技術です。本記事では、ニューロテックとは何か、その基本的な仕組みや日本国内での動向、関連するテクノロジーとの連携までを幅広くわかりやすく解説します。 ニューロテック(ニューロテクノロジー)とは? ニューロテック(ニューロテクノロジー)とは、脳の活動を測定し、そのデータをもとに人の状態を分析・活用する技術の総称です。 人間の脳では、思考や感情、判断などのさまざまな働きが、電気的な信号として神経細胞の間を行き来しています。ニューロテックは、脳波や脳の血流、神経の反応といった情報をセンサーなどで取得し、それを解析することで、脳の状態を「見える化」したり、脳の情報を使って外部機器を制御したりすることを可能にします。 このような技術は、医療やメンタルヘルスの分野はもちろん、教育、スポーツ、マーケティング、UX設計など多くの領域で活用が進んでいます。 ニューロテックの基本的なしくみ ニューロテックの核となるのは、「脳の活動を測定し、それをデータとして活用する」という考え方です。先述した通り、人間の脳では、思考や感情が生まれるときに、神経細胞のあいだで微弱な電気信号がやりとりされています。こうした信号は、たとえば脳波や神経の反応といった形で体の外から捉えることができます。 この信号をセンサーなどの装置で取得し、コンピューターで解析することで、脳の状態を「見える化」したり、その情報を使って外部の機器を操作したりすることが可能になります。 このような仕組みの原点は、古くは20世紀初頭の脳波(EEG)発見にまで遡ります。そして、脳の信号を使って外部機器を操作するブレイン・コンピュータ・インターフェース(BCI)の概念や初期の研究が、1970年代に本格的に探求され始めました。 当時は、主に医療やリハビリの現場での活用が中心でした。たとえば、身体の自由がきかない人が、脳の信号を使ってコンピューターや車椅子を操作する、といった応用が模索されてきました。 それから数十年のあいだに、AIやウェアラブルデバイス、クラウド技術の発展により、脳のデータをより手軽に、より正確に、多様な分野でニューロテックを扱えるようになってきました。 ブレインテックとの関係性について 「ニューロテック」という言葉は、最近では「ブレインテック」と呼ばれることもあります。一般的には、「ブレインテック」が脳科学とテクノロジーを組み合わせた技術全般を指す広範な総称として使われる傾向が強く、その中に脳活動の計測や解析といった「ニューロテック」の要素が含まれると理解されています。 より細かく見ると、 ニューロテック:脳から得られる信号をどのようにセンシングし、データ化し、実用的な形に変換するかといった、脳神経科学に基づいた技術的アプローチを中心に取り扱う分野 ブレインテック:ニューロテックを応用した製品やビジネスのことを指す場面が多く、より実用的・産業的な文脈で使われる傾向がある たとえば、脳波を測定するヘッドセットはニューロテックの成果であり、それを活用してメンタルトレーニングサービスを提供する企業は、ブレインテック業界の一部と言えるでしょう。 ブレインテックについてより詳しく知りたい方はこちらもご覧ください: https://mag.viestyle.co.jp/braintech/#toc3 なぜ今、ニューロテックが注目されているのか ニューロテックは決して新しい概念ではありませんが、ここ数年で急速に注目度が高まっています。その背景には、技術面の飛躍的な進化と、社会課題に対する新しいアプローチへの期待という2つの大きな要因があります。 AIやBCIの進化 ニューロテックの発展を支えている大きな要因のひとつが、人工知能(AI)やブレイン・コンピュータ・インターフェース(BCI)といった周辺技術の進化です。 以前は、脳波を読み取るだけでも高度な専門機器や知識が必要でしたが、現在では小型で低コストな脳波センサーや、高性能な信号処理アルゴリズムが登場し、一般向け製品やサービスにも応用される段階に入りつつあります。 特にAIの進歩により、脳から取得したデータをリアルタイムに解析し、「集中しているか」「ストレスを感じているか」といった人の内面状態を高精度で推定できるようになってきたことは、ニューロテックの実用性を大きく押し上げています。 これにより、医療や教育だけでなく、マーケティングやUX設計など、より広範なビジネス領域への展開が可能になっています。 高齢化社会とメンタルヘルス ニューロテックが社会的にも注目されている背景には、高齢化やメンタルヘルスといった現代的な課題があります。 たとえば、認知症の早期発見や予防、うつ症状の兆候検出など、脳の状態をデータとして把握できることは、従来の問診や観察に頼っていた医療にとって大きな進化となり得ます。 また、働き方の多様化やストレスの増加といった現代のビジネス環境においても、従業員の集中力や疲労レベルを可視化して働き方を最適化するなど、ニューロテックの導入は実践的な課題解決につながる手段として期待されています。 これらの社会的ニーズに応える形で、今後もニューロテックの重要性はさらに高まっていくと考えられます。 日本におけるニューロテックの現状と企業の取り組み ニューロテック分野は世界的に注目を集めていますが、日本国内でもその研究や実用化に向けた動きが徐々に活発になっています。特にここ数年は、スタートアップを中心に脳波や神経データを活用した製品やサービスの開発が進んでおり、大学や自治体、企業との連携によって社会実装に向けた取り組みも広がっています。 ここでは、国内でニューロテックに取り組む企業の事例と、国・大学・民間が連携する支援体制の動向について見ていきましょう。 国内企業によるニューロテックの取り組み 日本国内では、AIや脳科学を専門とする企業が中心となり、ニューロテック技術の研究・開発を進めています。代表的な企業のひとつが株式会社アラヤです。アラヤは、独自開発のNeuroAI技術を活用し、脳科学や生体センシングに基づいたニューロテック領域の研究開発を推進しています。脳波やMRIによる脳データの取得だけでなく、心拍・呼吸・発汗などの生理的データも組み合わせて解析し、企業や研究機関の製品開発等を支援しています。 もうひとつ注目すべき企業が株式会社NeU(ニュー)です。NeUは東北大学と日立ハイテクのジョイントベンチャーとして設立され、NeUの取り組みは、研究や開発の初期段階にとどまらず、製品デザインやユーザーインターフェース(UI)の評価、広告クリエイティブの効果測定といった実用フェーズにまで広がっています。 そのほかにも、脳波を使ったメンタルトレーニングアプリを開発するスタートアップや、睡眠や感情状態をモニタリングできるデバイスを開発する企業など、多様なプレイヤーが現れつつあります。 参考: アラヤHP NeU HP 産官学が連携するニューロテック推進の動き 日本におけるニューロテックの研究・開発は、企業による取り組みに加えて、国の制度や研究機関による支援のもと、産官学連携によって進められています。 たとえば、内閣府の「ムーンショット型研究開発制度」では、ブレイン・マシン・インターフェース(BMI)に関する脳科学研究が推進されています。ムーンショット目標1では、脳波などを用いた非侵襲型BMI技術の開発に取り組んでおり、運動機能に着目した脳機能アルゴリズムの開発などが行われています。 また、日本医療研究開発機構(AMED)も、医療分野における脳科学研究を支援しています。たとえば、AMED設立後の2015年からは「脳とこころの健康に関する研究開発」として、2018年からの「戦略的国際脳科学研究推進プロジェクト」などを通じて、ニューロテックの研究・開発が行われてきました。 このように、日本国内では多様な機関や制度が連携し、ニューロテックの基盤となる脳科学研究の推進が進められています。 参考: 内閣府HP「ムーンショット目標」 日本医療研究開発機構「脳科学研究戦略推進プログラム(脳プロ)」 ニューロテックとAI・XR・IoTの連携 ニューロテックは、他の先端技術と組み合わせることで、その可能性をさらに広げています。特に、人工知能(AI)、拡張現実(XR)、モノのインターネット(IoT)との融合は、医療、教育、産業など多岐にわたる分野で新たな応用を生み出しています。 AIとの融合がもたらす可能性 AIは、ニューロテックの分野で重要な役割を果たしています。たとえば、脳波や神経活動のデータをAIが解析することで、認知機能の状態を評価したり、神経疾患の診断や治療法の開発に貢献することが可能です。 また、AIを活用したブレイン・コンピュータ・インターフェース(BCI)は、ユーザーの脳信号をリアルタイムで解析し、外部デバイスの制御を可能にするなど、リハビリテーションや支援技術の分野でも活用が進んでいます。 XRやIoTとの相乗効果 XR(拡張現実)とIoT(モノのインターネット)も、ニューロテックとの連携により新たな可能性を示しています。XR技術を活用することで、ユーザーは仮想空間での体験を通じて脳活動を刺激し、学習やトレーニングの効果を高めることができます。また、IoTデバイスと連携することで、脳波データや生体情報をリアルタイムで収集・解析し、個人の状態に応じたフィードバックを提供することが可能になります。 これらの技術の融合により、ニューロテックはより実用的で効果的なソリューションを提供できるようになっており、今後の発展が期待されています。 BCI / BMIについてより詳しく知りたい方は、以下の記事もご覧ください: https://mag.viestyle.co.jp/brain-machine-interface/ ニューロマーケティングへの応用 ニューロテックは、医療や教育だけでなく、マーケティング分野でも注目されています。その代表的な応用が「ニューロマーケティング」です。 ニューロマーケティングとは、脳波や視線、表情などの生体データをもとに、消費者の無意識の反応を解析し、広告やパッケージ、店頭レイアウトの改善などに活かす手法のことです。 脳の状態を客観的に測定できるニューロテックの特性は、従来のアンケートやインタビューでは拾いきれなかった「本音」を可視化するうえで、大きな価値を発揮しています。 ニューロマーケティングについてより詳しく知りたい方は、こちらの記事をご覧ください: https://mag.viestyle.co.jp/neuromarketing/ これからの時代におけるニューロテックの役割 ニューロテックは、脳の状態をリアルタイムで「見える化」し、その情報をさまざまな分野に応用する技術です。医療や教育、マーケティングから、日常生活の質の向上まで、その可能性は広がり続けています。 技術的には、AIやBCI、XR、IoTとの連携が進み、脳とテクノロジーがより深くつながる社会が現実のものとなりつつあります。また、日本国内でも企業・大学・行政が連携し、社会実装に向けた取り組みが加速しています。 脳の理解と活用を深めるニューロテックは、単なるテクノロジーではなく、人間のあり方や社会の構造そのものを変えていく鍵になるかもしれません。今後の進展に注目が集まります。

変化する国内外のウェルビーイング市場環境

働き方や価値観の多様化を背景に、ウェルビーイング市場は世界的に成長を加速させています。従来、心と体の健康を指す概念だったウェルビーイングは、いまや経営戦略や産業創出の中心的テーマとなりつつあります。その背景には、メンタルヘルス問題の深刻化や高齢化社会の進行、そして脳科学やニューロテクノロジーの進展があります。 本稿では、ウェルビーイング市場の変化と今後の展望について、ニューロテックに着目した視点からご紹介します。 脳科学×メンタルヘルス──「見える化」から始まるウェルビーイング支援 パンデミックを契機に、世界中でメンタルヘルスケアの重要性が改めて注目されるようになりました。働き方の変化や社会不安の高まりにより、孤独感の増加、ストレスの蓄積、意欲の低下といった問題が表面化し、ビジネスパーソンの生産性や企業の持続可能性にも影響を及ぼしています。こうした背景のもと、ウェルビーイングを支援する市場は国内外で急速に拡大しており、なかでも注目されているのが、脳科学の知見を活用した新しいアプローチです。 たとえば、脳波をリアルタイムで計測し、ストレスや集中度を可視化する技術は、近年急速に実用化が進んでいます。こうした脳波計測デバイスは、瞑想やマインドフルネスの効果測定や、集中状態の分析などに活用され、企業の健康経営の一環としても導入が進んでいます。さらに、AIを用いた脳波解析により、「どのような環境でパフォーマンスが上がるか」や「どの音楽がリラックスに貢献するか」といった個別最適化のアプローチも登場しています。こうした科学的アプローチは、従業員の主観に頼らずに、こころの状態を客観的に把握できる手段として期待されています。 認知機能ケアが日常へ──生活に溶け込む脳科学 また、近年では、認知機能を維持・改善するための技術にも脳科学が応用されるようになり、その広がりが注目されています。特に高齢化が進む日本においては、認知症予防や脳の健康管理が社会的な課題となっており、その解決手段としてニューロテクノロジーが注目されています。 その代表例が、ニューロフィードバックやデジタルセラピー(DTx)といった分野です。ニューロフィードバックは、脳波をフィードバックしながらトレーニングを行うことで、集中力や記憶力の改善、さらにはADHDやうつ病の緩和にも効果があるとされ、米国ではすでに一部がFDA認可を受けています。これに追随する形で、日本国内でも医療機関との連携や、保険適用を見据えた研究開発が活発化しています。 また、近年ではVRやAR、AI技術と連携した認知リハビリテーションも登場し、没入感のある環境で脳を刺激する手法が注目されています。このように、脳科学を活用したウェルビーイング支援の取り組みは、医療・介護の分野にとどまらず、教育現場や職場での学習支援、さらにはスポーツのパフォーマンス向上など、さまざまな領域へと広がりを見せています。 成長を続けるウェルビーイング市場と今後のビジネス機会 ウェルビーイング市場は、グローバルで見ても高成長を続ける分野です。Global Wellness Instituteの2024年の報告によると、世界のウェルビーイング関連市場は、2023年時点で6.3兆ドルに達しており、2028年には9兆ドルに拡大する見通しです(年平均成長率7.3%)1。なかでも、脳科学やAIとの融合によるソリューションは、他分野への波及効果も大きく、業界横断的な広がりを見せています。 出典:Global Wellness Institute たとえば、GoogleやAppleといったテック企業では、すでにウェルビーイング関連機能の開発に注力しており、スマートウォッチやヘルスケアアプリを通じて、ストレス、睡眠、集中度といった「脳と心」に関わる指標を、日常的に収集・分析できる時代が訪れています。 企業にとっては、こうしたデータを活用し、従業員のパフォーマンスを最大化する職場環境や、カスタマイズされた健康支援プログラムの設計が可能となります。実際に一部のグローバル企業では、眼電位や身体動作センサー、心拍データなどを活用して、「集中できる会議の時間帯の把握」や「リラックスできる空間デザイン」の実証が進んでおり、これは日本企業にとっても新たな競争力強化のヒントになるでしょう。 まとめ:ウェルビーイングを経営と社会の中心に ウェルビーイング市場は今後も、脳科学とテクノロジーを軸とした「見える化」と「最適化」によって進化を遂げていくことが予想されます。特に「脳」にアプローチすることは、私たちの行動・感情・判断の源に直接働きかける方法であり、医療だけでなく教育、働き方、まちづくりなど、あらゆる領域に影響を与える可能性を秘めています。 企業としては、単なる福利厚生やストレス対策ではなく、「科学に基づくウェルビーイング経営」をいかに早期に取り入れられるかが、これからの差別化要因となるでしょう。 ウェルビーイングと脳科学の接点を理解し、次の一手を見据えること、それこそが、持続可能で創造的な未来を築く第一歩になるのではないでしょうか。

自分の“好き”に従い研究の道へ:『恋愛の脳科学』研究者・藤崎健二さんの背景と原点

今回は、京都大学大学院で「恋愛の脳科学」の研究に取り組まれている藤崎さんにお話を伺いました。インタビューの前半では、藤崎さんの研究に至るまでの背景やこれまでの研究成果などについて詳しくご紹介していますので、ぜひあわせてご覧ください。 https://mag.viestyle.co.jp/interview05/ インタビューの後半では、藤崎さんのパーソナルストーリーに焦点を当て、幼少期の生活や現在の趣味、研究に関するエピソードなどについて伺いました。 研究者プロフィール 氏名:藤崎 健二(ふじさき けんじ)所属:京都大学大学院 文学研究科 博士後期課程研究室:阿部研究室研究分野:恋愛、対人認知、fMRI 就職か進学かーー背中を押したのは自身の経験と一冊の本 ── まずは改めて簡単に自己紹介をお願いします。 現在は京都大学大学院文学研究科に所属し、研究に取り組んでいます。学部時代は慶應義塾大学理工学部で、脳波や心拍などの生理指標の解析に取り組んでいました。その後、恋愛関係の維持や構築を支える脳の仕組みについて深く研究したいと思い、大学院から京都大学に進学しました。 ── 大学院への進学はいつから考え始めましたか? 大学3回生の冬頃から、大学院への進学を考え始めました。元々は大学卒業後に就職するつもりでしたが、就職活動を進める中で、自分の心の声に従って好きなことや楽しいと思えることを仕事にしたいと思うようになりました。そんなとき、学部時代に図書館で偶然手に取ったのが『人はなぜ恋に落ちるのか?: 恋と愛情と性欲の脳科学』という一冊でした。恋愛の脳研究を専門にする第一人者の研究に触れたことで、昔から関心のあった「恋愛のしくみ」について本格的に研究したいという気持ちが強まり、大学院進学を決めました。 ── 始めは研究者になることは考えていなかったのですね。研究テーマの根幹となる、恋愛のメカニズムへの関心はどういった経緯でもつようになったのでしょうか。 自分自身の恋愛経験が大きかったと思います。これまでの人生の中で、特定の相手に強く惹かれる経験を通じて、恋愛がもたらす多幸感や心の揺れ動きは、日常で経験する感情とは質的に異なる、非常に特別なものだと実感しました。そうした体験から、なぜ恋愛はこれほどまでに人の感情や行動に強く影響を与えるのか、その背景にある脳の働きについて関心を持つようになりました。 ── ご自身の経験が研究へのモチベーションだったのですね。元々考えていた進路を変更する上で、苦労されたことはありますか? 周りの友人のほとんどが大手企業の就職を目指す中で、別の道を選ぶのは不安もあり、勇気が要る決断でした。そんな中、幸いにも同じように研究の道を志す先輩方が身近にいて、その存在が自分の背中を押してくれました。 人生のモットーはイチロー選手への憧れから ── 子供のころは脳科学以外にどのようなことに興味を持っていましたか? 小さい頃から、生き物に強い興味がありました。幼稚園の頃は昆虫が好きで、「昆虫博士」と呼ばれていたこともあります。小学生になると犬を家に迎え、高校時代には海外の爬虫類などを飼育していました。今でもいろんな動物が好きですが、犬が1番愛おしいです。 ── 様々な生き物に関心をもち続けた半生だったのですね。子供のころからの興味が現在まで続いているとのことですが、他にも今の自分に影響を与えた出来事や影響を受けた人物はいますか? はい、元メジャーリーガーのイチロー選手から大きな影響を受けました。小学校から中学3年生まで野球を続けていたこともあり、当時からイチロー選手は馴染みのある存在でした。あるとき、読書感想文のために彼に関する本を読んだことをきっかけに、その生き方や考え方に深く共感し、自分も彼のように信念を持って道を切り開いていける人になりたいと思うようになりました。 ── 具体的にはイチロー選手のどのような姿に影響を受けたのでしょうか? 好きなことを徹底して追求する姿勢に、強く影響を受けました。イチロー選手が野球という好きなことに出会い、誰よりも打ち込んできたからこそ、あれだけの成果を残せたのだと思っています。その姿勢は、「好きなことや楽しいと感じられることを大切にしたい」という、私自身の価値観の原点となっており、大学院進学を決める上でも大きな指針になりました。 また、直面する課題に対して原因の仮説を立て、検証し、改善へとつなげていくというイチロー選手の姿勢にも強く惹かれました。単に努力するのではなく、常に思考を巡らせながら自分を高めていくその在り方に、深い知性と探究心を感じました。 とはいえ、「修学旅行でも握力トレーニングを終えるまでは友達と遊ばなかった」という彼のストイックさについては尊敬しつつも、自分にはまだ難しいと思ってしまいます(笑) 研究は楽しい!ーーこれからの研究者に伝えたいこと ── 普段はどのように過ごされているのですか? 研究活動が生活のほとんどを占めています。その他には、研究室のリサーチアシスタント業務や、学部時代にアルバイトとして勤めていた会社からの委託業務などに取り組んでいます。 ── 研究やその関連活動が生活の一部となっているのですね。息抜きとして何か取り組んでいることはありますか? 今は料理にハマっています。昔から美味しい料理が好きで、学部時代は服と食べ物にバイト代を費やしていました。しかし、3年前に東京から京都に引っ越したことで美味しいお店と出会う頻度が減ってしまったので、節約も兼ねて自分で料理をするようになりました。最近はお肉やチーズの燻製料理にハマっています。 ── 最後に、これから同じ領域に挑戦してみたい学生や若い研究者に向けて、メッセージをお願いします。 研究に興味がある方には、「研究は楽しい!」ということをお伝えしたいです。アカデミアには自分の興味関心を探究できる世界が広がっており、大変なことも多いですが、この道を選んで本当に良かったと思っています。 少しでも関心がある方は、ぜひ勇気を出して、実際に研究をしている方の話を聞いてみることをおすすめします。近い分野でご活躍されている研究者の方々とは、研究に関する議論を深めたり、将来的に共同研究を行うなどのかたちでつながりを持てれば幸いです。 NeuroTech Magazineでは、ブレインテック関連の記事を中心にウェルビーイングや若手研究者へのインタビュー記事を投稿しています。また、インタビューに協力していただける研究者を随時募集しています。 応募はこちらから → info@vie.style

機械学習で進化するMI-EEG解析──脳波×AIの最新研究まとめ

頭の中で手を握る動作を思い描く──それだけでも、脳は小さな信号を発しています。その微細な脳波を正しく読み取ることで、人は「考え」を機械に伝えることができるかもしれません。 このような仕組みはMotor Imagery EEG(MI-EEG)と呼ばれ、いま世界中の研究者たちが開発競争を繰り広げている分野です。 今回は、MI-EEGの技術の広がりと、その歩みを追った2024年発表の論文 「Enhancing motor imagery EEG signal decoding through machine learning: A systematic review of recent progress」をもとに、近年注目されている機械学習と脳波技術の融合によって、どのように「考えるだけで伝わる世界」が実現に近づいているのかを、わかりやすくお届けします。 MI-EEGの仕組みと課題 MI-EEGとは、ある特定の運動を思い浮かべたときに脳波に現れる、特有の変化=パターンを読み取り、「右手を動かそうとしている」「足を動かそうとしている」といった想像内容を解読する技術です。 この脳波のパターンは、脳の運動をつかさどる領域(運動野)の活動によって生じます。たとえば右手の動きを想像すると、左脳の特定のエリアが反応し、そこに特徴的な脳波の変化が表れます。この変化を検出することで、思い描いた動作を推定し、機器の操作などに応用することができるのです。 ところが、こうしたEEG信号は非常に微弱で、まばたきや筋肉の動きなどのノイズに埋もれやすく、個人差も大きいという厄介な性質があります。そのため、従来の非侵襲的なBCI(Brain-Computer Interface)では、せいぜい「はい・いいえ」といった単純な意思しか読み取れないという限界がありました。 さらに、脳波の出方には人それぞれ違いがあるため、脳波を判別するモデルは利用者ごとに一から調整し直す必要があり、これも実用化における大きな壁のひとつとなっていました。 加えて、脳波は波の強さ(振幅)やリズム(周波数)といった特徴が、時間や体調によって変化する非定常な信号です。必要な脳の信号よりもノイズが目立ってしまうことも多く、信号対雑音比(SNR)が低いという特性も、安定した解析を難しくしていました。 MI-EEG解析における機械学習・深層学習の進化 こうした課題を打破しつつあるのが、近年の機械学習(ML)、とりわけ深層学習(ディープラーニング, DL)の技術です。実は、BCI分野では以前から機械学習によって脳波のパターンを分類する研究が行われてきました。しかしその多くは、EEGデータをモデルで扱うために、「どの周波数帯に注目すべきか」「どの脳の部位が反応しているか」といった特徴を見極めて選び出す作業(特徴抽出)や、それをもとに分類モデルを動かすための細かなパラメータ設定が欠かせませんでした。 これらの工程には、豊富な知識と経験が必要で、システム構築には多くの時間と手間がかかっていたのです。 しかし2017年頃から、状況が大きく変わり始めました。BCI Competition IVやPhysioNetなど、複数の被験者による運動想起タスクの脳波を収録した、大規模なオープンデータセットが次々と公開され、これを活用して高性能な深層学習モデルが脳波解析に本格的に導入されるようになったのです¹。 深層学習の強みは、生の時系列データから自動で意味のある特徴を学習できることにあります。従来は専門家が行っていた周波数帯の選択や空間フィルタの調整といった作業を、モデルが自ら学びながら処理してくれるようになりました。 この技術によって、MI-EEGのように複雑でノイズの多い信号でも、より柔軟かつ高精度に脳波を読み取ることが可能になってきました。 ¹ Hossain, K. M., Islam, M. A., Hossain, S., Nijholt, A., & Ahad, M. A. R. (2023). Status of deep learning for EEG-based brain–computer interface applications. Heliyon, 9(3), e14029. 主な深層学習モデルとMI-EEGへの応用 具体的に、近年のMI-EEGデコーディングで活躍している深層学習モデルや手法には、以下のようなものがあります。 CNN(Convolutional Neural Network:畳み込みニューラルネットワーク) 脳波には、「どの場所の電極で信号が強く出ているか」といった空間的な分布や、「どの周波数の信号が目立つか」といった周波数の特徴が含まれています。こうした情報を自動で見つけ出せるのが、CNNという深層学習モデルです。 このモデルは、もともとは画像認識の分野で活躍してきたモデルで、画像の中から形や模様を見分けるのと同じように、脳波の形や波のリズムを見つけ出せるのが特徴です。 実際、従来用いられていたCSP(共通空間パターン)+LDA(線形判別分析)といった機械学習アプローチに比べ、 CNNベースのモデルは、より柔軟に複雑な脳波パターンを扱うことができ、特にうまく脳波で意思を伝えられなかった被験者でも、分類精度が向上したという報告もあります²。 ² Hameed, I., Khan, D. M., Ahmed, S. M., Aftab, S. S., & Fazal, H. (2022). Classification of motor imagery EEG using deep learning increases performance in inefficient BCI users. PLOS ONE, 17(7), e0268880. RNN(Recurrent Neural Network:再帰型ニューラルネットワーク) 脳波のように「時間とともに変化するデータ」を扱う場面では、RNNという深層学習モデルが使われます。RNNは、過去の情報を記憶しながら現在の情報を処理できるのが特徴です。 たとえば、ある動作を思い描いたとき、脳波には一瞬だけでなく、時間の流れに沿って特徴的な変化が現れます。RNNはこのような時系列のパターンを捉えるのが得意で、「いつ、どんな変化があったか」といった情報を生かして分類を行うことができます。 このおかげで、静止画のような断片ではなく、時間の流れに沿った変化として信号を読み取れるようになり、より安定した分類が可能になりました。 転移学習(Transfer Learning) 転移学習では、あらかじめ多くの脳波データを使って学習させたモデル(ベースモデル)を使い、それを新しい利用者やタスクに合わせて、少ないデータで効率よく調整することができます。 たとえば、「右手を動かす想像」といった共通の脳波パターンをすでに学習済みのモデルがあれば、新しい人の脳波を少しだけ読み込むだけで、その人専用のモデルをすばやく作ることができるのです。 これにより、大量のデータを用意したり、毎回ゼロから学習し直したりする負担を大幅に減らすことができ、特にデータが取りにくい医療・福祉現場などでの活用にも期待が高まっています。 このように機械学習、とりわけ深層学習の導入によって、MI-EEG信号の解読精度は飛躍的に向上しました。実験室レベルでは、頭に装着した電極から得られる脳波だけで「右手」「左手」「両足」など複数種類の運動想像をかなりの精度で分類できるようになってきています。 たとえば、EEGNetというモデルは、とてもコンパクトな構造のCNNとして設計されており、データ量が限られている場面でも、高い精度で動作することが特徴です³。少ない学習データでも安定して使えるように工夫されていて、実際に多くの研究で活用が広がっています。 ³Lawhern, V. J., Solon, A. J., Waytowich, N. R., Gordon, S. M., Hung, C. P., & Lance, B. J. (2018). EEGNet: A Compact Convolutional Network for EEG-based Brain-Computer Interfaces. Journal of Neural Engineering, 15(5), 056013. MI-EEG技術を社会に届けるために乗り越えるべきこと 深層学習によってMI-EEGの解析精度は大きく向上しましたが、それを活用した応用システム(MI-BCI)として実用化するには、まだ乗り越えるべき課題も残されています。 たとえば、装着が簡便な簡易EEGデバイスでは、高性能な研究用システムと比べると信号品質が高くないため、日常利用にはノイズ対策が重要になってきます。またアルゴリズム面では、ユーザーが長時間使っても都度再学習しなくて済むような、高い汎用性や継続的学習の仕組みが求められています。 幸いなことに、こうした課題に対しても研究は進んでおり、脳波データを増強するデータ拡張手法や、異なる個人間でモデルを融通するドメイン適応技術、他の生体信号と組み合わせたハイブリッドBCIなど、様々なアプローチが提案されています。まさに人間の脳と機械をつなぐ架け橋として、MI-EEG技術は機械学習との融合によって日々アップデートされているのです。 近い将来、例えばリハビリテーションの現場で患者さんが頭で思い描くだけでロボットスーツを動かし、運動機能回復を助ける――そんな光景が当たり前になるかもしれません。ニューロテック最前線のMI-EEG×機械学習の進化から、これからも目が離せません。 🧠 編集後記|BrainTech Magazineより MI-EEGと深層学習の組み合わせは、これまで読み取りが難しかった脳の信号をより正確に扱える技術へと押し上げています。 実用化にはまだいくつかのハードルがありますが、個人ごとの違いやノイズの多さを乗り越えるための工夫も進み、MI-EEGは実際に使える技術へと着実に近づいています。 BrainTech Magazineでは、こうした研究の進展とその社会実装への動きを、これからも丁寧に伝えていきます。 📝本記事で紹介した研究論文 Hameed, I., Khan, D. M., Ahmed, S. M., Aftab, S. S., & Fazal, H. (2023). Enhancing motor imagery EEG signal decoding through machine learning: A systematic review of recent progress. Biomedical Signal Processing and Control, 84, 104960.

音楽を聴いた「喜び」や「安心」が脳波でわかる?──脳が感じる音楽の“気持ち”を読み解く

「音楽を聴くと心が踊る!」そんな経験、きっと誰にでもありますよね。でも、どうして音楽がこれほどまでに私たちの感情を揺さぶるのでしょうか? その謎に、脳波(EEG)を使って迫ろうとする最新のブレインテック研究が登場しました。2024年にIEEEで発表された注目の研究では、音楽を聴いているときの脳波から、その人の感情を4つのカテゴリーに分類するというチャレンジが行われています。 今回は、音楽と脳の意外なつながり、そしてこの研究から見えてくる新しい可能性について、わかりやすくご紹介します。 音楽を聴いているとき、脳では何が起きているのか? 今回紹介するのは、2024年にIEEEで発表された最新研究「EEG-Music Emotion Recognition: Challenge Overview」です。この研究では、音楽を聴いているときの脳波(EEG)に注目し、そこから「喜び」「安心」「悲しみ」「怒り」といった感情を推定することにチャレンジしています。 脳波とは、頭の表面から記録できる微弱な電気信号で、私たちの脳が活動している証のようなものです。音楽を聴いているとき、脳はこの信号を通してさまざまな反応を見せてくれます。 また、音楽は人の感情を強く動かす刺激として知られており、実際に「楽しい」「切ない」「緊張する」など、聴いているだけで気持ちが大きく揺れ動くこともあります。こうした感情の動きが、脳波のパターンにも現れるのではないか――そんな仮説のもと、研究チームは脳波から感情を読み取ることに挑戦しました。 このアプローチは、今までの「表情や心拍から感情を推測する」という方法とは一味違います。というのも、脳波は脳内で直接起こっている活動を捉えるため、音楽による微細な感情の変化もより直接的に反映されるからです。もちろん、脳波自体は非常に微弱でノイズも多く、解析は簡単ではありませんが、ディープラーニングをはじめとする最新の機械学習技術によって、そうした複雑なパターンの解明も少しずつ可能になりつつあります。 好きな曲 vs 初めての曲、脳はどう反応する? この研究では、20代〜30代の被験者34人が参加し、音楽を聴いているときの脳波を記録しました。使われた曲は16曲で、半分は被験者が選んだ“お気に入りの曲”、もう半分は他の人が選んだ“初めて聴く曲”です。慣れた音楽と新しい音楽で脳の反応がどう変わるかも調べています。 音楽を聴いた後には、「どんな気持ちになったか?」を、感情マップ(ジュネーブ感情ホイール)を使って自己申告してもらいました。この回答が、AIにとっての感情の正解になります。 つまり、本人がどう感じたかをラベルとして使うことで、「この脳波は安心のとき」「これは怒りのとき」といったデータをAIに学習させることができます。これが「教師あり学習」と呼ばれる方法です。 これを使って解析した結果、脳波は人によって違いはあるものの、特定の感情に共通する傾向があることが確認されました。 感情の読み取りは本当にできるの? この研究の目的は、脳波から「今、どのような感情を感じているのか?」という問いに答えられるようにすることです。しかし、現時点での精度は約30%程度で、4つの感情カテゴリーの中からランダムに選んだ場合の正答率(25%)をやや上回る水準にとどまっています。 出典:S. Calcagno, S. Carnemolla, I. Kavasidis, S. Palazzo, D. Giordano and C. Spampinato, "EEG-Music Emotion Recognition: Challenge Overview," ICASSP 2025 - 2025 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), Hyderabad, India, 2025, pp. 1-3, doi: 10.1109/ICASSP49660.2025.10888506. とはいえ、これはあくまでもスタート地点です。研究チームはこの結果をもとに、精度をさらに高めるための新たな手法の開発やデータの充実に取り組んでいます。ブレインテックの分野は日々進化しており、次のステップでは、より精度の高い成果が期待されます。 あなたの脳に合わせた音楽療法の実現可能性 注目すべきは、この技術が単なる実験に留まらず、実用面での応用が期待されている点です。たとえば、音楽療法の分野では、患者が音楽を聴いているときの脳波をリアルタイムで解析し、最適な治療法を提案することが可能になるかもしれません。 うつ病や不安障害の治療現場では、音楽を使ったセラピーの効果を脳波で見える化することで、患者ごとに合った曲の選定や、セラピー中の状態把握に役立てられる可能性があります。 また、介護や認知症ケアの現場でも、音楽による感情反応を脳波で捉えることで、患者の状態を見守りながら心を落ち着かせる音楽環境をつくるといった応用も期待されます。将来的には、ウェアラブル脳波計と連動した音楽プレーヤーが登場し、そのときの精神状態に合わせてリラックスできる音楽を自動選曲してくれるようなシステムも考えられます。 🧠 編集後記|BrainTech Magazineより 音楽は私たちの心を大きく揺さぶります。その感動の裏側には、まだ未知の脳波パターンが隠れているかもしれません。IEEEで発表された今回の研究は、そんな“脳が感じる音楽”を読み解こうとする第一歩です。 精度はまだ発展途上ですが、ブレインテックの進化により、音楽療法やメンタルヘルスの分野での応用も現実味を帯びてきています。 この記事が、脳と音楽のつながりに興味を持つきっかけになれば嬉しいです。今後もブレインテックの面白い話題をお届けしていきますので、お楽しみに! 📝本記事で紹介した研究論文 Calcagno, S., Carnemolla, S., Kavasidis, I., Palazzo, S., Giordano, D., & Spampinato, C. (2024). EEG-Music Emotion Recognition: Challenge Overview. 2024 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP).IEEE. https://ieeexplore.ieee.org/document/10888506

脳波であなたの好きな音楽がわかる?感情を読むAIが進化中

日々耳にするお気に入りの音楽。実はその一曲一曲が、私たちの気分や感情にさまざまな影響を与えています。明るいメロディに元気づけられたり、切ない旋律に心が動かされた経験は誰しもあるでしょう。 こうした音楽が引き起こす感情を、脳波(EEG)から読み取る研究が今、注目を集めています。 今回はICASSP 2025で発表された論文「Multimodal Fusion for EEG Emotion Recognition in Music」を取り上げ、大規模言語モデル(LLM)やマルチタスク学習を用いて、従来を大きく上回る感情認識を実現した最新研究をご紹介します。 音楽を聴いたときの「気持ち」を脳波で読み取る難しさ 音楽を聴いて感じる気持ちを脳波から読み取る研究は、近年少しずつ進んできましたが、このような研究の中で大きなハードルとなるのが、「音楽の感じ方に個人差がある」という点です。 同じ曲を聴いても、人によって感じる気持ちが違いますし、それに伴う脳波の反応も変わってきます。このばらつきが、AIが感情を正しく読み取るうえで障壁となってきました。 これまでの多くの研究では、さまざまな人の脳波データをひとつにまとめてAIに学ばせるという方法が取られてきました。しかしこの方法では、誰が聴いたかという違いが考慮されないため、個人差を無視したままAIが学習してしまうという課題がありました。 そこで本研究では、感情を読み取るだけでなく、聴き手が誰なのかを識別するタスクも同時にAIに学ばせる手法が採用されました。このように複数の目的を同時に学ばせることで、AIは人ごとの特徴を踏まえたうえで、より正確に感情を読み取れるようになります。 さらに本研究では、感情を「うれしい」「悲しい」といった単純な分類ではなく、「どれくらい明るい気分か(Valence)」と「どれくらい興奮しているか(Arousal)」という2つの軸に分けて数値で表すことで、より細やかな感情の変化まで見えるようになりました。 音楽の印象を手がかりに、AIが感情を読み解く 脳波だけで感情を読み取ろうとすると、人によって反応が違うため、どうしても限界があります。そこで今回の研究では、脳波だけでなく、音楽そのものの情報も一緒にAIに学ばせるという新しいアプローチがとられました。 人が音楽を聴いて感情を動かされるとき、そのきっかけはメロディやリズム、テンポ、音の明るさや暗さといった曲の特徴です。つまり、「どんな音楽か」と「脳がどう反応したか」を合わせて見ることで、感情の変化をより正確にとらえることができるのです。 さらにこの研究では、音楽の感情的な特徴を読み取るために、大規模言語モデル(LLM)が活用されました。LLMとは、ChatGPTのようなAIの一種で、大量の言語情報をもとに意味を理解することができます。このモデルを使うことで、「この曲は明るくてエネルギッシュ」「この曲は静かで物悲しい」といった音楽の雰囲気や印象をAIが言葉から読み取り、その特徴を数値として扱うことができるようになります。 こうして得られた音楽の特徴と、聴いたときの脳波の変化の両方をAIが一緒に学ぶことで、どちらか一方だけでは読み取りきれなかった感情の手がかりをつかむことができるようになりました。 出典:Huang, S., Jin, Z., Li, D., Han, J., & Tao, X. (2025). Multimodal Fusion for EEG Emotion Recognition in Music with a Multi-Task Learning Framework. 2025 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP) ベースラインを大きく上回る精度向上 こうした工夫により、今回の研究では従来の手法を大きく上回る精度で感情を推定することに成功しました。 音楽の印象と脳波のデータを組み合わせ、さらに聴き手の情報まで取り入れたことで、AIはより正確に「その人が音楽を聴いてどう感じたか」を読み取れるようになったのです。 また、感情を2つの軸で表すことにより、「なんとなく楽しい」「少し不安」といった曖昧な気持ちも、数値として扱うことが可能になりました。 AIはそうした微妙な感情の揺れまで捉えられるようになり、結果として精度の向上につながりました。 今回の結果は、単に技術的なブレイクスルーというだけでなく、人の“心の動き”を読み取るAIの進化を感じさせるものでもあります。 音楽という主観的で感覚的なものを、客観的な脳波と融合しながら扱えるようになったことは、今後のブレインテックの広がりにとっても大きな意味を持つでしょう。 出典:Huang, S., Jin, Z., Li, D., Han, J., & Tao, X. (2025). Multimodal Fusion for EEG Emotion Recognition in Music with a Multi-Task Learning Framework. 2025 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP) 脳波が拓くパーソナライズ音楽推薦の未来 こうした技術は、単なる感情の分析にとどまらず、私たちの日常に活かされる可能性を秘めています。とくに注目されているのが、音楽推薦システムへの応用です。 これまでも、「この曲が好きそう」「前に聴いたジャンルからおすすめ」といったレコメンド機能は存在していましたが、そこには“そのときの気分”という要素までは反映されていませんでした。 今回の研究のように、脳波を通してリアルタイムで感情を読み取れるようになれば、今の自分にぴったりの音楽を自動で選んでくれる世界が見えてきます。 たとえば、疲れているときにはリラックスできる曲を、集中したいときにはテンポのいい曲を提案するような、状況や気分に合わせた音楽体験が可能になるのです。 さらに将来的には、ストレス状態の検出やメンタルヘルスへの応用も期待されています。脳波によって感情の変化を客観的にモニタリングできれば、「最近落ち込みがちだな」といった心のサインを早期に察知し、音楽を通じてやさしく気分を整えるような介入も夢ではありません。 脳と音楽とAIがつながることで、「今の気分にぴったりな音楽」を自動で選んでくれるような体験――そんな未来が、少しずつ現実になってきています。 🧠 編集後記|BrainTech Magazineより 「この曲、今の気分にぴったり」と感じたこと、きっと誰にでもあるはずです。 その“気分”が脳波とAIで読み取れるようになってきているなんて、ちょっとワクワクしますよね。 今回ご紹介した研究は、話題の大規模言語モデルやマルチタスク学習といった最新技術を巧みに活用し、個人差の壁を越えながら、より自然で柔軟な感情理解に挑んだ点が非常に印象的でした。 今後、音楽推薦やメンタルヘルスといった分野での応用が進めば、「今の自分に寄り添う音楽体験」が、誰にとってもあたりまえのものになるかもしれません。 BrainTech Magazineでは、こうした脳科学とテクノロジーの交差点から生まれる最前線の研究を、今後もわかりやすくお届けしていきます。 Huang, S., Jin, Z., Li, D., Han, J., & Tao, X. (2025). Multimodal Fusion for EEG Emotion Recognition in Music with a Multi-Task Learning Framework. 2025 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP).  https://ieeexplore.ieee.org/abstract/document/10890727?casa_token=2MWCAW46z80AAAAA:4r31MKmOZvOeICqzC3AKOapdGgO9fRHibb28bmmh3XwbrvD_Uk24huPs0ANwAQeA1oAVe6himA

1 2 3 4 5 6

Ready to work together?

CONTACT

ニューロテクノロジーで新たな可能性を
一緒に探求しませんか?

ウェアラブル脳波計測デバイスや、
ニューロミュージックに関心をお持ちの方、
そして共同研究や事業提携にご興味のある
企業様、研究機関様からの
お問い合わせをお待ちしております。