心拍数や呼吸の変化で人の感情を検知するMITの「EQ-Radio」

米国マサチューセッツ工科大学(MIT)コンピュータ科学・人工知能研究所(Computer Science and Artificial Intelligence Laboratory:CSAIL)は、人の感情を心拍数と呼吸の変化から測定するデバイス「EQ-Radio」を開発した。「うれしい」「哀しい」「怒っている」「興奮している」などの感情を87%の正確さで読みとれるという。

心拍数や呼吸の変化で人の感情を検知するMITの「EQ-Radio」
人の感情を87%の確率で読みとれるデバイス「EQ-Radio」

「EQ-Radio」は、人の身体で反射しデバイスに戻ってくる無線信号を送信。心拍数と呼吸の変化を検知する。このデータを分析して感情を読み取るという仕組みだ。ある被験者に対する初回の読み取りでも、70%の正確さで感情がわかるという。


心拍数や呼吸の変化で人の感情を検知するMITの「EQ-Radio」
「EQ-Radio」は、人の身体で反射しデバイスに戻ってくる無線信号を送信

心拍数や呼吸の変化で人の感情を検知するMITの「EQ-Radio」
心拍数と呼吸の変化を検知して、感情を読み取る

CSAILでは被験者に対して「楽しい」「哀しい」など4つの感情を意図的に引き起こし、それぞれの感情の際の心拍数や呼吸の変化を「EQ-Radio」に学習させる実験も実施している。学習後は被験者の感情を、実に87%の正確さで読み取れるようになるそうだ。

コンピューターや人口知能による人の感情の読み取りは他の研究所や企業も取り組んでおり、例えばマイクロソフトは表情から感情を読み取る「Emothin API」を開発している。だがCSAILによれば、表情から感情を読み取るアプローチには欠点があるという。笑顔の裏にはいらだちが隠されていることがあるし、ポーカーフェイスで勝ち札を隠していることもあるからだ。「EQ-Radio」は、表情に表れない感情をも読みとれると、CSAILは主張している。

心拍数や呼吸の変化で人の感情を検知するMITの「EQ-Radio」
顔の表情が、感情を表しているとは限らない?
(画像は、マイクロソフトの「Emothin API」Webサイトから)

CSAILはこの技術の応用範囲についても触れている。たとえば映画会社が「EQ-Radio」を試写会で利用すれば、どのシーンで鑑賞者が興奮したか、楽しいと感じたかが数値でわかるようになる。数値を元に、場合によっては映画を再編集することもできるようになるだろう。

心拍数や呼吸の変化で人の感情を検知するMITの「EQ-Radio」
退屈そうな表情の鑑賞者
でも実はワクワクしてる?

日本であれば、劇団の全国ツアーで使用すると面白いかもしれない。例えばある劇団が東北で公演をすると、観客からはほとんど反応がないことがあるという。だがそんな日であっても、終演後のアンケートでは良い結果が得られることがあるそうだ。これは東北の人が感情の表出が控えめであることから来ているという。反対に大阪では公演中の反応は大きいが、終わったあとロビーに出て観客の生の声を聴くと、「あまり面白くなかった」という感想が聞かれることがあるという。これは大阪の人独特の、演者さえも喜ばせようというサービス精神によるものだそうだ。このため、演出家や脚本家は芝居のどの部分に手を入れて良いのか、わからなくなることもあるのだとか。

とはいえ東北の人も大阪の人も、心拍数や呼吸は同じように変化するはず。「EQ-Radio」を会場に設置して上演中に観客の反応をリアルタイムで数値化すれば、それを元に脚本や演出に手をいれられるようになるだろう。

また、「EQ-Radio」はデートにも便利だろう。デート相手の反応を数値化して、楽しんでいるかどうか、リアルタイムでわかるようになるためだ。その他CSAILは、「EQ-Radio」により、ストレスによる不整脈をキャッチするなどの、医療目的での利用も考えられるとしている。

「EQ-Radio」は、2016年10月3日から開催されるモバイルコンピューティングの国際カンファレンス「MobiCom 2016」で発表される。

心拍数や呼吸の変化で人の感情を検知するMITの「EQ-Radio」