脳計測情報の代用としての発話音声と表情からの感情推定手法

URI http://harp.lib.hiroshima-u.ac.jp/hiroshima-cu/metadata/12575
File
Title
脳計測情報の代用としての発話音声と表情からの感情推定手法
Title Alternative
Emotion Estimating Method by Substituting Voice and Facial Expression for Decoded Neurofeedback
ノウケイソク ジョウホウ ノ ダイヨウ トシテノ ハツワ オンセイ ト ヒョウジョウ カラノ カンジョウ スイテイ シュホウ
Author
氏名 目良 和也
ヨミ メラ カズヤ
別名 MERA Kazuya
氏名 高亀 夏樹
ヨミ コウカメ ナツキ
別名 KOKAME Natsuki
氏名 見尾 和哉
ヨミ ミオ カズヤ
別名 MIO Kazuya
氏名 黒澤 義明
ヨミ クロサワ ヨシアキ
別名 KUROSAWA Yoshiaki
氏名 竹澤 寿幸
ヨミ タケザワ トシユキ
別名 TAKEZAWA Toshiyuki
Abstract

Emotion estimation method using Electroencephalogram (EEG) can estimate human’s emotion directly because it is not influenced by biases of expression and recognition process. However, it is difficult that all users put on the EEG headset at any time because it is so expensive and uncomfortable. Therefore, this paper propose a method to estimate emotion by substituting voice and facial expression for EEG. A Long short-term memory (LSTM) is utilized for machine learning method to deal with the transitions of facial expression and tone of voice. The acoustic features are the time-series variations of F0, voicing probability, and loudness calculated from a voice, and the facial expression features are the time-series variations of 12 kinds of facial parts. The experimental result indicated that the method just used facial expression features estimated the user’s emotions better than the other experimental conditions. The accuracies of valence, arousal, expectation were 0.621, 0.657, and0.578, respectively.

Description

2020年度(第34回) : 2020年6月9日-6月12日 : オンライン

Journal Title
人工知能学会全国大会論文集
Volume
34
Spage
1
Epage
3
Published Date
2020
Publisher
人工知能学会
NCID
AA11578981
DOI
Language
jpn
NIIType
Conference Paper
Text Version
出版社版
Rights
本著作物の著作権は人工知能学会に帰属します。本著作物は著作権者である人工知能学会の許可のもとに掲載するものです。ご利用に当たっては「著作権法」に従うことをお願いいたします。
Relation URL
Note

3O5-GS-13-05
本研究は国立研究開発法人科学技術振興機構(JST)の研究成果展開事業「センター・オブ・イノベーション(COI)プログラム」グラント番号JPMJCE1311の助成を受けたもの

Set
hiroshima-cu