FaceDrive

論⽂概要

装着型ロボットアーム(以下アーム)は⾝体活動において⼈々を⽀援でき、⾼負荷な作業や2 本以上の腕を使⽤したい場⾯において有⽤と考えられる。アーム操作には、操作者の意図を反映した制御⽅法が必要となる。本研究では、操作者がアームを随意に制御するために、顔の表情をアーム操作にマッピングする⼿法を提案する。光学センサによる表情認識とVR環境を⽤いて、アームの伸屈や物体把持動作にマッピングするのに適した表情を検討した。

特筆すべき研究成果

VR 環境を使⽤してアームの基本動作と表情の対応を機械学習するシステムを構築した。使⽤頻度の⾼い顔の部位と表情変化の調査では、伸屈・把持動作において⼝と⽬の開閉を⽤いた表情変化が多く使⽤されることと、アーム動作と表情変化を意味に基づいて関係付ける様⼦が観察された。⾝体以外の物体に対して⾝体所有感が⽣起するためには、実際の⾝体との意味的制約を受けることが知られており、本研究の結果と⼀致する。

今後の展望・応⽤+社会実装の可能性

実環境で本操作⼿法を⽤いる場合、対⼈的影響により操作に使⽤できる表情が影響を受けることが考えられるので、その検討は今後の課題である。⾝体以外の物体に対して⾝体所有感が⽣起するかどうかについては、主観データと⾏動データによって検証する必要がある。本研究では意識下における表情をアームの操作に⽤いたが、今後、潜在意識下で現れる表情を⽤いる可能性についても検討していきたい。

主要成果論⽂

Masaaki Fukuoka, Adrien Verhulst, Fumihiko Nakamura, Ryo Takizawa, Katsutoshi Masai, and Maki Sugimoto Proceedings of ICAT-EGVE 2019 – International Conference on Artificial Reality and Telexistence and Eurographics Symposium on Virtual Environments. pp. 17-24, 2019.9 DOI: https://doi.org/10.2312/egve.20191275.