CATEGORY

コラム

音楽を聴いた「喜び」や「安心」が脳波でわかる?──脳が感じる音楽の“気持ち”を読み解く

「音楽を聴くと心が踊る!」そんな経験、きっと誰にでもありますよね。でも、どうして音楽がこれほどまでに私たちの感情を揺さぶるのでしょうか? その謎に、脳波(EEG)を使って迫ろうとする最新のブレインテック研究が登場しました。2024年にIEEEで発表された注目の研究では、音楽を聴いているときの脳波から、その人の感情を4つのカテゴリーに分類するというチャレンジが行われています。 今回は、音楽と脳の意外なつながり、そしてこの研究から見えてくる新しい可能性について、わかりやすくご紹介します。 音楽を聴いているとき、脳では何が起きているのか? 今回紹介するのは、2024年にIEEEで発表された最新研究「EEG-Music Emotion Recognition: Challenge Overview」です。この研究では、音楽を聴いているときの脳波(EEG)に注目し、そこから「喜び」「安心」「悲しみ」「怒り」といった感情を推定することにチャレンジしています。 脳波とは、頭の表面から記録できる微弱な電気信号で、私たちの脳が活動している証のようなものです。音楽を聴いているとき、脳はこの信号を通してさまざまな反応を見せてくれます。 また、音楽は人の感情を強く動かす刺激として知られており、実際に「楽しい」「切ない」「緊張する」など、聴いているだけで気持ちが大きく揺れ動くこともあります。こうした感情の動きが、脳波のパターンにも現れるのではないか――そんな仮説のもと、研究チームは脳波から感情を読み取ることに挑戦しました。 このアプローチは、今までの「表情や心拍から感情を推測する」という方法とは一味違います。というのも、脳波は脳内で直接起こっている活動を捉えるため、音楽による微細な感情の変化もより直接的に反映されるからです。もちろん、脳波自体は非常に微弱でノイズも多く、解析は簡単ではありませんが、ディープラーニングをはじめとする最新の機械学習技術によって、そうした複雑なパターンの解明も少しずつ可能になりつつあります。 好きな曲 vs 初めての曲、脳はどう反応する? この研究では、20代〜30代の被験者34人が参加し、音楽を聴いているときの脳波を記録しました。使われた曲は16曲で、半分は被験者が選んだ“お気に入りの曲”、もう半分は他の人が選んだ“初めて聴く曲”です。慣れた音楽と新しい音楽で脳の反応がどう変わるかも調べています。 音楽を聴いた後には、「どんな気持ちになったか?」を、感情マップ(ジュネーブ感情ホイール)を使って自己申告してもらいました。この回答が、AIにとっての感情の正解になります。 つまり、本人がどう感じたかをラベルとして使うことで、「この脳波は安心のとき」「これは怒りのとき」といったデータをAIに学習させることができます。これが「教師あり学習」と呼ばれる方法です。 これを使って解析した結果、脳波は人によって違いはあるものの、特定の感情に共通する傾向があることが確認されました。 感情の読み取りは本当にできるの? この研究の目的は、脳波から「今、どのような感情を感じているのか?」という問いに答えられるようにすることです。しかし、現時点での精度は約30%程度で、4つの感情カテゴリーの中からランダムに選んだ場合の正答率(25%)をやや上回る水準にとどまっています。 出典:S. Calcagno, S. Carnemolla, I. Kavasidis, S. Palazzo, D. Giordano and C. Spampinato, "EEG-Music Emotion Recognition: Challenge Overview," ICASSP 2025 - 2025 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), Hyderabad, India, 2025, pp. 1-3, doi: 10.1109/ICASSP49660.2025.10888506. とはいえ、これはあくまでもスタート地点です。研究チームはこの結果をもとに、精度をさらに高めるための新たな手法の開発やデータの充実に取り組んでいます。ブレインテックの分野は日々進化しており、次のステップでは、より精度の高い成果が期待されます。 あなたの脳に合わせた音楽療法の実現可能性 注目すべきは、この技術が単なる実験に留まらず、実用面での応用が期待されている点です。たとえば、音楽療法の分野では、患者が音楽を聴いているときの脳波をリアルタイムで解析し、最適な治療法を提案することが可能になるかもしれません。 うつ病や不安障害の治療現場では、音楽を使ったセラピーの効果を脳波で見える化することで、患者ごとに合った曲の選定や、セラピー中の状態把握に役立てられる可能性があります。 また、介護や認知症ケアの現場でも、音楽による感情反応を脳波で捉えることで、患者の状態を見守りながら心を落ち着かせる音楽環境をつくるといった応用も期待されます。将来的には、ウェアラブル脳波計と連動した音楽プレーヤーが登場し、そのときの精神状態に合わせてリラックスできる音楽を自動選曲してくれるようなシステムも考えられます。 🧠 編集後記|BrainTech Magazineより 音楽は私たちの心を大きく揺さぶります。その感動の裏側には、まだ未知の脳波パターンが隠れているかもしれません。IEEEで発表された今回の研究は、そんな“脳が感じる音楽”を読み解こうとする第一歩です。 精度はまだ発展途上ですが、ブレインテックの進化により、音楽療法やメンタルヘルスの分野での応用も現実味を帯びてきています。 この記事が、脳と音楽のつながりに興味を持つきっかけになれば嬉しいです。今後もブレインテックの面白い話題をお届けしていきますので、お楽しみに! 📝本記事で紹介した研究論文 Calcagno, S., Carnemolla, S., Kavasidis, I., Palazzo, S., Giordano, D., & Spampinato, C. (2024). EEG-Music Emotion Recognition: Challenge Overview. 2024 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP).IEEE. https://ieeexplore.ieee.org/document/10888506

AIが命を救う意思決定を支援する時代──脳波×AIで重症脳損傷治療を

集中治療室で命をつなぐカギとなるのが、脳の状態を見守る「脳波モニタリング」です。近年、この分野にAI(人工知能)が加わり、重症の脳損傷患者のケアが大きく進化しつつあります。 そして、AIがリアルタイムで脳波を解析し、最適な治療を提案する──そんな医療の未来が、すでに現場に届き始めています。 今回は、2025年に発表された最新論文「Using artificial intelligence to optimize anti-seizure treatment and EEG-guided decisions in severe brain injury」をもとに、AIがどのように脳波を読み解き、命を支える医療判断に活かされているのかを紹介します。 見た目では判断できない「脳内の異常」を捉えるAI 脳卒中や外傷などで重度の脳損傷を負い、集中治療室に入っている患者の中には、意識がないように見えても、実際には脳内で危険な発作が進行していることがあります。このような外からは気づきにくい発作を見逃さないために、医療現場では脳波(EEG)のモニタリングが行われています。 特にけいれんを伴わない「非けいれん性発作」は、見た目ではわからず、医師の目をすり抜けてしまうこともあります。連続的に脳波を記録する「cEEG(連続脳波モニタリング)」は、そうした見えない異常を検出するための重要な手段ですが、膨大なデータを一つひとつ人の目で確認するのは現実的ではないため、AIがこの解析で活躍し始めています。 AIは、膨大な脳波データの中から発作の兆候をとらえ、異常を自動で検出します。 たとえば、ある解析方法では、脳波の変化をヒートマップのように色で視覚化します。下図のように、発作が起きている時間帯には、赤やオレンジが帯状に広がり、「炎のようなパターン」として現れます。 出典:Zade Akras, Jin Jing, M. Brandon Westover, Sahar F. Zafar.Using artificial intelligence to optimize anti-seizure treatment and EEG-guided decisions in severe brain injury こうした視覚的な表示によって、医療従事者は数分で1日分の脳波を確認できるようになり、発作の見逃しを減らすだけでなく、専門医以外のスタッフでも初期の異常に気づけるようになることが期待されています。 治療のさじ加減もAIがサポート 抗てんかん薬や鎮静薬は、重症脳損傷の治療において欠かせないものですが、薬が効きすぎると意識の低下や副作用を招き、反対に薬が効かなければ発作が止まりません。このさじ加減は患者ごとに異なるため、個別に調整する必要があります。 本研究では、脳波の反応や薬物の作用をAIが解析することで、「この患者にはどの薬を、どのくらいの量で使うべきか」を医師に提案するという手法が紹介されています。 さらに、脳波の中でも「バースト抑制」と呼ばれる鎮静状態の深さに着目し、AIがそれをリアルタイムで評価することで、過剰な鎮静を避けながら治療を続けるための判断材料も提供されます。このように、AIはデータをもとに治療の最適なポイントをその人ごとに導き出すパートナーとして活躍する可能性があります。 医師の判断を支える、もう一人の目としてのAI AIによる脳波解析は、すでに医療の現場で実用化が進んでいます。見えない発作を捉え、最適な治療を提案し、回復の可能性を探る――それはまさに、「AIが命を救う意思決定を支援する時代」の到来です。 これからの医療において、AIは単なるツールではなく、患者と医療チームをつなぐ新たなパートナーとして期待されています。 🧠 編集後記|BrainTech Magazineより 医療の現場にAIが入ってくると聞くと、どこかSFのように感じるかもしれません。 でも、脳波データを24時間見守り、発作の兆しを即座に伝えてくれるAIは、すでに現場のチームの一員として動き始めています。 人とAIが協力して命を守る、そんな新しい医療のかたちにこれからも注目です。 📝本記事で紹介した研究論文Zade Akras, Jin Jing, M. Brandon Westover, Sahar F. Zafar.Using artificial intelligence to optimize anti-seizure treatment and EEG-guided decisions in severe brain injury Clinical Neurophysiology Practice, Volume 10, 2025. https://www.sciencedirect.com/science/article/pii/S1878747925000029

脳波であなたの好きな音楽がわかる?感情を読むAIが進化中

日々耳にするお気に入りの音楽。実はその一曲一曲が、私たちの気分や感情にさまざまな影響を与えています。明るいメロディに元気づけられたり、切ない旋律に心が動かされた経験は誰しもあるでしょう。 こうした音楽が引き起こす感情を、脳波(EEG)から読み取る研究が今、注目を集めています。 今回はICASSP 2025で発表された論文「Multimodal Fusion for EEG Emotion Recognition in Music」を取り上げ、大規模言語モデル(LLM)やマルチタスク学習を用いて、従来を大きく上回る感情認識を実現した最新研究をご紹介します。 音楽を聴いたときの「気持ち」を脳波で読み取る難しさ 音楽を聴いて感じる気持ちを脳波から読み取る研究は、近年少しずつ進んできましたが、このような研究の中で大きなハードルとなるのが、「音楽の感じ方に個人差がある」という点です。 同じ曲を聴いても、人によって感じる気持ちが違いますし、それに伴う脳波の反応も変わってきます。このばらつきが、AIが感情を正しく読み取るうえで障壁となってきました。 これまでの多くの研究では、さまざまな人の脳波データをひとつにまとめてAIに学ばせるという方法が取られてきました。しかしこの方法では、誰が聴いたかという違いが考慮されないため、個人差を無視したままAIが学習してしまうという課題がありました。 そこで本研究では、感情を読み取るだけでなく、聴き手が誰なのかを識別するタスクも同時にAIに学ばせる手法が採用されました。このように複数の目的を同時に学ばせることで、AIは人ごとの特徴を踏まえたうえで、より正確に感情を読み取れるようになります。 さらに本研究では、感情を「うれしい」「悲しい」といった単純な分類ではなく、「どれくらい明るい気分か(Valence)」と「どれくらい興奮しているか(Arousal)」という2つの軸に分けて数値で表すことで、より細やかな感情の変化まで見えるようになりました。 音楽の印象を手がかりに、AIが感情を読み解く 脳波だけで感情を読み取ろうとすると、人によって反応が違うため、どうしても限界があります。そこで今回の研究では、脳波だけでなく、音楽そのものの情報も一緒にAIに学ばせるという新しいアプローチがとられました。 人が音楽を聴いて感情を動かされるとき、そのきっかけはメロディやリズム、テンポ、音の明るさや暗さといった曲の特徴です。つまり、「どんな音楽か」と「脳がどう反応したか」を合わせて見ることで、感情の変化をより正確にとらえることができるのです。 さらにこの研究では、音楽の感情的な特徴を読み取るために、大規模言語モデル(LLM)が活用されました。LLMとは、ChatGPTのようなAIの一種で、大量の言語情報をもとに意味を理解することができます。このモデルを使うことで、「この曲は明るくてエネルギッシュ」「この曲は静かで物悲しい」といった音楽の雰囲気や印象をAIが言葉から読み取り、その特徴を数値として扱うことができるようになります。 こうして得られた音楽の特徴と、聴いたときの脳波の変化の両方をAIが一緒に学ぶことで、どちらか一方だけでは読み取りきれなかった感情の手がかりをつかむことができるようになりました。 出典:Huang, S., Jin, Z., Li, D., Han, J., & Tao, X. (2025). Multimodal Fusion for EEG Emotion Recognition in Music with a Multi-Task Learning Framework. 2025 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP) ベースラインを大きく上回る精度向上 こうした工夫により、今回の研究では従来の手法を大きく上回る精度で感情を推定することに成功しました。 音楽の印象と脳波のデータを組み合わせ、さらに聴き手の情報まで取り入れたことで、AIはより正確に「その人が音楽を聴いてどう感じたか」を読み取れるようになったのです。 また、感情を2つの軸で表すことにより、「なんとなく楽しい」「少し不安」といった曖昧な気持ちも、数値として扱うことが可能になりました。 AIはそうした微妙な感情の揺れまで捉えられるようになり、結果として精度の向上につながりました。 今回の結果は、単に技術的なブレイクスルーというだけでなく、人の“心の動き”を読み取るAIの進化を感じさせるものでもあります。 音楽という主観的で感覚的なものを、客観的な脳波と融合しながら扱えるようになったことは、今後のブレインテックの広がりにとっても大きな意味を持つでしょう。 出典:Huang, S., Jin, Z., Li, D., Han, J., & Tao, X. (2025). Multimodal Fusion for EEG Emotion Recognition in Music with a Multi-Task Learning Framework. 2025 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP) 脳波が拓くパーソナライズ音楽推薦の未来 こうした技術は、単なる感情の分析にとどまらず、私たちの日常に活かされる可能性を秘めています。とくに注目されているのが、音楽推薦システムへの応用です。 これまでも、「この曲が好きそう」「前に聴いたジャンルからおすすめ」といったレコメンド機能は存在していましたが、そこには“そのときの気分”という要素までは反映されていませんでした。 今回の研究のように、脳波を通してリアルタイムで感情を読み取れるようになれば、今の自分にぴったりの音楽を自動で選んでくれる世界が見えてきます。 たとえば、疲れているときにはリラックスできる曲を、集中したいときにはテンポのいい曲を提案するような、状況や気分に合わせた音楽体験が可能になるのです。 さらに将来的には、ストレス状態の検出やメンタルヘルスへの応用も期待されています。脳波によって感情の変化を客観的にモニタリングできれば、「最近落ち込みがちだな」といった心のサインを早期に察知し、音楽を通じてやさしく気分を整えるような介入も夢ではありません。 脳と音楽とAIがつながることで、「今の気分にぴったりな音楽」を自動で選んでくれるような体験――そんな未来が、少しずつ現実になってきています。 🧠 編集後記|BrainTech Magazineより 「この曲、今の気分にぴったり」と感じたこと、きっと誰にでもあるはずです。 その“気分”が脳波とAIで読み取れるようになってきているなんて、ちょっとワクワクしますよね。 今回ご紹介した研究は、話題の大規模言語モデルやマルチタスク学習といった最新技術を巧みに活用し、個人差の壁を越えながら、より自然で柔軟な感情理解に挑んだ点が非常に印象的でした。 今後、音楽推薦やメンタルヘルスといった分野での応用が進めば、「今の自分に寄り添う音楽体験」が、誰にとってもあたりまえのものになるかもしれません。 BrainTech Magazineでは、こうした脳科学とテクノロジーの交差点から生まれる最前線の研究を、今後もわかりやすくお届けしていきます。 Huang, S., Jin, Z., Li, D., Han, J., & Tao, X. (2025). Multimodal Fusion for EEG Emotion Recognition in Music with a Multi-Task Learning Framework. 2025 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP).  https://ieeexplore.ieee.org/abstract/document/10890727?casa_token=2MWCAW46z80AAAAA:4r31MKmOZvOeICqzC3AKOapdGgO9fRHibb28bmmh3XwbrvD_Uk24huPs0ANwAQeA1oAVe6himA

脳波で文章が書ける時代へ──最新AIが「思考」をテキストに変換

「頭の中で考えただけでメールが送れる」 そんなSFのような世界が、ついに現実味を帯びてきました。最新のブレインテック研究では、非侵襲の脳波(EEG)データから自然な文章を復元するAIモデルが開発され、注目を集めています。 脳波から“文章”を読み解く:非侵襲BCIのブレイクスルー 脳波から人の意思を読み取る「ブレイン・コンピュータ・インタフェース(BCI)」の研究は、これまでにも義手の制御や簡単な選択肢の選別といった形で応用されてきました。しかし、「文章」を再構成する試みは、まさに次元が異なるチャレンジです。 従来の非侵襲的なBCIでは、脳波の信号が微弱でノイズも多く、せいぜい「はい・いいえ」レベルの意思しか識別できませんでした。文章のような連続的かつ複雑な情報を読み取るには、高度なアルゴリズムと深層学習の力が不可欠だったのです。 注目の研究:HGRUとMRAMによる「脳波から文章生成」 2025年1月に学術誌『Engineering Applications of Artificial Intelligence』に掲載された論文「Decoding text from electroencephalography signals: A novel Hierarchical Gated Recurrent Unit with Masked Residual Attention Mechanism」では、中国・電子科技大学の研究チーム(Qiupu Chenら)が、脳波(EEG)から自然な文章を直接生成するAIモデルを発表しました。 このモデルの何より驚くべき点は、単なる脳波のラベリングではなく、脳活動から直接「文章そのもの」を出力する点にあります。まさに“頭で考えたこと”が、画面に文字として現れる時代の到来を感じさせます。 どうやって脳波が「文章」になるのか? このモデルは、複数の時間スケールで脳波データを処理する「階層型GRU構造」を採用しています。これにより、文章の意味を理解するうえで重要な、文脈や過去の情報を保持しながら、整った文として出力することが可能になります。 さらに、脳波データの中から特に意味のある信号に注目するために、「アテンション機構」と呼ばれる仕組みが使われています。これはAIが入力データの中で“どこを見るべきか”を判断する技術で、ノイズを抑えつつ、重要な部分にしっかりと焦点を当てる役割を果たします。 そして出力されるテキストは、あらかじめ言語の構造を学習しているAI(例:BARTなど)とも連携されており、自然な文法や語順で表現されます。 つまり、脳波を読み取るだけでなく、それを“言語として訳す”ところまでを一気に担う、まさに脳波の翻訳者のようなシステムなのです。 どこまで“思考”を再現できるのか? もちろん、現時点では完全な「心の読解」はできません。とはいえ今回の研究では、非侵襲で得られる脳波データから、意味の通る文章を構成できるレベルにまで精度が向上しており、これは非常に大きな進展といえます。 従来のようにあらかじめ決められた選択肢を識別するだけでなく、より柔軟で自然な表現の再構成が可能になったことで、脳波によるコミュニケーションのあり方そのものに新たな可能性が生まれました。 話せない人の“声”になるテクノロジー この技術が進化すれば、話すことができないALS患者や脳卒中患者が、自分の意思を「文章」で伝える手段になる可能性があります。さらに、脳に電極を埋め込むことなく、EEGキャップを使うだけで実現できる未来が近づいているのです。 また、将来的には、ARやVR空間での“思考だけで操作するUI”としての応用も期待されており、「脳波でLINEを送る」「手を使わずにドキュメントを書く」といった未来も、そう遠くないかもしれません。 研究の意義:脳とAIの共進化 この研究は、脳科学とAI技術の融合が、いかに強力な可能性を秘めているかを象徴しています。今後も、脳波解析技術の精度向上、大規模データによるモデルの汎用化、そしてリアルタイム処理の実現などが進めば、“思考と機械”をつなぐインターフェースとしてのBCIは、私たちの生活を大きく変える存在になるでしょう。 🧠 編集後記|BrainTech Magazineより 今回ご紹介した研究は、非侵襲で自然文を復元するというブレインテックの最前線を示すものです。SFで描かれた「思考で操作する世界」は、いま現実になりつつあります。VIEでは、こうした最先端の技術と社会実装の橋渡しを目指して、今後も注目研究を随時ご紹介していきます。 📝本記事で紹介した研究論文 Chen, Q. et al. (2025). Decoding text from electroencephalography signals: A novel Hierarchical Gated Recurrent Unit with Masked Residual Attention Mechanism. Engineering Applications of Artificial Intelligence, Volume 129, January 2025. https://www.sciencedirect.com/science/article/abs/pii/S0952197624017731

「意思」は本当に存在するの?

占いなどので、「好きな方を選んでください」と急に言われることがあります。 その際、なんとなく「じゃあ、こっちで」と選ぶことが多いですが、その選択は本当に自分の意志によるものなのでしょうか。それとも、筋肉の反射のように、深く考えずに無意識に選んでしまっているのでしょうか。 脳科学の世界では、自分の意思で行動を決定することを「自由意志」と呼びます。「自分で選んだ」と感じることで、占いの結果にも納得しやすくなるのかもしれません。今回は、この「自由意志」をテーマに考えてみましょう。 前回のコラムはこちらです。 https://mag.viestyle.co.jp/columm33/ 人の意思は簡単に操れるもの? 私たちは日々、自分の意思で選択をしていると思っています。しかし、その選択は本当に「自由意志」によるものなのでしょうか?人間の運動には、自分で意識的に動かす「随意運動」と、心臓の鼓動のように無意識に行われる「不随意運動」があります。現代社会は、随意運動が個人の意思によるものだという前提で成り立っており、法律もその考えに基づいています。 しかし、もし脳の「運動野」を刺激することで、選択が左右されるとしたらどうでしょう?たとえば、誰かがあなたの脳を操作し、あなたが気づかぬうちに特定のカードを選ばせることができた場合、それは本当に「自分の意思で選んだ」と言えるのでしょうか? 近年の研究では、脳の特定領域を刺激することで感情や行動を変化を引き起こす可能性が示されています。つまり、「脳が心を動かしている」ということです。もし心が脳を動かすことができるなら、それは自由意志の証明になります。しかし、脳の働きが先にあり、その結果として「自分で決めた」と感じているだけなら、自由意志は幻想にすぎないのかもしれません。 果たして、私たちは本当に自由に選択しているのでしょうか?それとも、脳の活動に支配されているだけなのでしょうか?自由意志の正体を考えることは、人間の本質を探ることにもつながります。 心が脳を動かすのか、脳が心を動かすのか 自由意志の研究で知られるベンジャミン・リベットは、1960年代にハンス・ヘルムート・コルンフーバーとリューダー・ディークによって初めて報告された「運動準備電位(Bereitschaftspotential)」を利用した実験を行いました。リベットは被験者に「自分の意思で自由なタイミングで指を動かす」よう指示し、専用の時計装置を使って「動かしたい」と感じた瞬間を記録させました。 この結果、被験者が「指を動かしたい」と意識する約0.2秒前に筋肉が動き出していたのです。これは直感的に納得できるものです。しかし、驚くべきことに、被験者が「指を動かしたい」と感じる350ミリ秒前(0.35秒前)には、すでに脳の運動野で「これから指を動かすぞ!」という準備の活動が始まっていたのです。つまり、脳が先に運動の準備を始め、その後に「自分の意思」が生まれ、最終的に指が動くという順番だったのです※。 この実験からわかるのは、自由意志は脳の活動の結果として生じるものであり、決して意識が先にあるわけではないということです。「自分で決めた」と感じる瞬間には、すでに脳が行動を決定しているのです。もし自由意志が実態のない精神現象にすぎないのだとすれば、私たちは本当に「自分の意思」で行動していると言えるのでしょうか? ※出典:https://pubmed.ncbi.nlm.nih.gov/6640273/, 2025年3月3日参照 意志の存在がなくなったら社会はどうなる? もし「自由意志が存在しない」と認められたら、私たちの社会はどのように変化するのでしょうか。法律は「個人が自分の意思で行動する」ことを前提に作られています。もし「包丁で人を刺したのは自分の意思ではない」となれば、責任の所在が曖昧になり、復讐法のような原始的なルールが復活するかもしれません。しかし、科学や社会、法整備は時代とともに進化し、自由意志に対する考え方も変わっていくでしょう。 たとえば、かつて同性愛は「自分の意思で選んだもの」とされ、治療の対象と見なされていました。しかし、現在では「個性やパーソナリティの一部」として受け入れられるようになっています。自由意志に関する議論も、同じように倫理的な視点から変化していく可能性があります。ただし、それが「犯罪者を許すべき」という結論にはならないでしょう。社会秩序を維持するためには、何らかの責任の概念が必要だからです。 また、私たちの「意思」は、遺伝や環境によって大きく影響を受けています。育った家庭、友人関係、教育、経験の積み重ねによって、脳の活動パターンが形作られ、それが「自分の選択」のように感じられるのです。たとえば、推しのアイドルを好きになるのも、もしかすると親の影響や過去の経験が影響しているかもしれません。このように、私たちの行動や好みは、意識しないうちに環境によって方向づけられているのです。 では、自由意志がないとすると、私たちは単なる機械的な存在なのでしょうか?決定論という考え方では、もしすべての物理的条件がわかれば、未来は完全に予測できるとされています。ピエール=シモン・ラプラスは「もし宇宙のすべての状態を知ることができる存在がいれば、未来を完全に予測できる」と提唱しました。これは「ラプラスの悪魔」と呼ばれ、自由意志を否定する考え方の代表例です。 しかし、現代の量子物理学では「不確定性原理」が存在し、分子レベルでは未来を完全に予測することは不可能とされています。さらに、脳の活動は常に変化し続けるため、未来の行動も完全には決まっていません。つまり、私たちの選択は完全に決定されたものではなく、環境や偶然の要素によって変化するのです。 数秒先の未来ならある程度予測できるかもしれませんが、5年後、10年後に自分がどうなっているかは誰にもわかりません。遺伝や環境の影響はあるものの、それを超えて変わることも可能です。自由意志が完全に幻想とは言い切れず、私たちは環境の影響を受けながらも、未来を形作っていく存在なのかもしれません。 まとめ  自由意志が本当に存在するのか、それとも脳の活動の結果として生じる幻想なのか――この問いに明確な答えを出すことは、今の科学ではまだ難しいかもしれません。リベットの実験や脳刺激の研究が示すように、私たちが「自分の意志で決めた」と思う前に、すでに脳の活動は始まっています。しかし、それが「すべてが決まっている」という決定論的な世界観を意味するわけではありません。 私たちの行動や選択は、遺伝や環境、経験の積み重ねによって大きく左右されますが、それでも未来は完全に決定されているわけではなく、常に変化し続けています。社会が自由意志を前提に成り立っている以上、責任や倫理の概念は重要であり、それらを無視することは現実的ではありません。 結局のところ、「自由意志があるかどうか」という問いよりも、「私たちはどのように選択し、どう生きるのか」という視点のほうが、より本質的なのかもしれません。環境に影響を受けながらも、私たちは考え、学び、変わることができる存在です。その中で、自分なりの意志を持ち、より良い未来を作っていくことこそが、自由意志の有無を超えた、人間らしさなのではないでしょうか。 🎙ポッドキャスト番組情報 日常生活の素朴な悩みや疑問を脳科学の視点で解明していく番組です。横丁のようにあらゆるジャンルの疑問を取り上げ、脳科学と組み合わせてゆるっと深掘りしていき、お酒のツマミになるような話を聴くことができます。 番組名:ニューロ横丁〜酒のツマミになる脳の話〜 パーソナリティー:茨木 拓也(VIE 株式会社 最高脳科学責任者)/平野 清花 https://open.spotify.com/episode/2Olivqiv5EQPrJFulHQCsi?si=5Af4VYueRjG4XSMCTXEHxw 次回 次回のコラムでは、こっくりさんを例に『脳の伝達ミス』についてご紹介します。 https://mag.viestyle.co.jp/columm35/

怒っているときに冷静さを取り戻す方法とは?

怒っている相手と会話をするとき、「今のこの人は少し冷静さを欠いているな」と感じたことはありませんか?感情が高ぶっている相手と円滑にコミュニケーションを取るには、どのような点に気を付ければよいのでしょうか。 今回は「感情」をテーマに、怒っている相手との対話をスムーズに進めるためのポイントを紹介します。 前回のコラムはこちらです。 https://mag.viestyle.co.jp/columm32/ 感情を出し過ぎてしまわないために注意すべきこと 「怒り」や「苛立ち」といった感情は、過剰に表出するとトラブルの原因になります。怒りが爆発したり、泣き続けたり、ひどく落ち込んだりする状態は、これまで紹介してきた鬱やPMSの症状とも共通する部分があります。一方で、感情を全く表に出さないのも問題です。では、適度に感情を表現するために、人はどのように向き合っていけばよいのでしょうか。 感情のコントロールを見直す方法の一つに、「パースペクティブ(視点)の入れ替え」があります。たとえば、過去に経験した印象的な喧嘩を振り返り、自分が当時腹を立てた相手の立場になりきって、誰かとその場面を再現してみるのです。そうすることで、「あの人はこういう気持ちで私にあの言葉を投げかけたのか」と共感できる部分が見えてくるかもしれません。逆に、「やはり当時の私は正当な理由で怒っていたのだ」と、自分の感情を肯定できることもあるでしょう。 自分が傷ついたり、怒ったりした出来事に対して、一度相手の視点に立つことで、新たな気づきが得られます。「自分にも非があったかもしれない」「やはり自分は悪くなかった」といった形で、感情を整理し、消化することができるのです。視点を入れ替えるのは簡単ではありませんが、これを意識的に行うことで、より客観的に自分の感情を見つめ直すことができるでしょう。 感情が高ぶると、自分の視点だけで物事を判断しがちですが、意識的に視点を切り替えることで、物の見え方が変わり、人間関係の改善にもつながります。感情と上手に向き合うために、この「視点の入れ替え」を試してみてはいかがでしょうか。 適度な感情表現が必要な理由とは 一方で、感情をほとんど表に出さない人もいます。「この人は何を考えているんだろう?」と不安に感じることはありませんか?辛い時や苦しい時、あるいは楽しい時でさえ、感情を口にしない人を見ると、「もっと自分の気持ちを表現すればいいのに」と思うこともあるでしょう。 感情をあまり表に出さなくなる背景には、「感情を伝えても意味がない」と感じるような経験を積んできたことが関係しているのかもしれません。実際、感情を適切に言葉にする「ラベリング」の重要性が指摘されています。なるべく気持ちを言葉にすることが望ましいものの、怒りを爆発させてしまえば人間関係が悪化してしまうため、そのバランスが大切です。感情に課題を抱えている人は、大きく分けて「感情を出しすぎる」か「出さなさすぎる」かのどちらかに偏っていることが多いのです。 感情の表現が極端であることは、対人関係の構築にも影響を与えます。怒りをぶつけ続ける人とは距離を置きたくなりますし、逆に何を考えているのか分からない人とは、どう接すればいいのか戸惑ってしまいますよね。自分の感情を適切にコントロールしながら人と関わることで、よりスムーズな人間関係を築き、生きやすくなるのではないでしょうか。 まとめ 感情は、出しすぎても抑えすぎても対人関係に影響を与えます。怒りを爆発させれば人を遠ざけてしまい、逆に感情をまったく表に出さなければ、周囲は不安を感じてしまうでしょう。 大切なのは、自分の感情を適切に認識し、バランスよく表現することです。視点を入れ替えて相手の気持ちを想像したり、感情を言葉にして整理する習慣を身につけることで、より円滑なコミュニケーションが可能になります。感情と上手に向き合い、より良い人間関係を築いていきましょう。 🎙ポッドキャスト番組情報 日常生活の素朴な悩みや疑問を脳科学の視点で解明していく番組です。横丁のようにあらゆるジャンルの疑問を取り上げ、脳科学と組み合わせてゆるっと深掘りしていき、お酒のツマミになるような話を聴くことができます。 番組名:ニューロ横丁〜酒のツマミになる脳の話〜 パーソナリティー:茨木 拓也(VIE 株式会社 最高脳科学責任者)/平野 清花 https://open.spotify.com/episode/4lzBivr4eLuiUqrwgcPgrc?si=r3rz30QiS2mN-YbxaoOfOg 次回 次回のコラムでは、脳科学の視点から『自由意志』についてご紹介します。 https://mag.viestyle.co.jp/columm33/

1 2 3 4 5 9

Ready to work together?

CONTACT

ニューロテクノロジーで新たな可能性を
一緒に探求しませんか?

ウェアラブル脳波計測デバイスや、
ニューロミュージックに関心をお持ちの方、
そして共同研究や事業提携にご興味のある
企業様、研究機関様からの
お問い合わせをお待ちしております。