Feel it
論⽂概要
本研究では顔への触覚提⽰と前庭感覚電気刺激を通してバーチャル環境のサードアームからのフィードバックを受け取りを実現した。バーチャル環境のアバターが質量を持った物体を保持した場合に,これを触覚と前庭感覚を通じてフィードバックするものである.顔への触覚提⽰は本研究で開発されたヘッドマウントディスプレイに取り付けられたロボットアームを⽤いて⾏われた。
特筆すべき研究成果
この研究は,JST からの海外との共同研究を推進するための追加⽀援予算によって実施されたものである.本研究の成果はSIGGRAPH Emerging Technolgoiesでデモ、ICAT-EGVE2021では論⽂として発表された。COVID-19 の影響により実演展⽰によるユーザーのフィードバックを得る機会には恵まれなかった。
今後の展望・応⽤+社会実装の可能性
本研究においてはバーチャル環境のアバターの⾝体に与えられた重さを,ユーザーに提⽰する研究であったが,テレイグジスタンスなどの遠隔環境においても同様のアプローチを取ることが可能であると考えられる.今後,遠隔環境のロボットのユーザーに対しても触覚や前庭感覚を通じたフィードバックを与えることによって,操作性や⾝体所有感の向上が⾒られるかについて検証を⾏いたい.本研究は今もなお続いていて近々発表される。
主要成果論⽂
Theophilus Teo, Fumihiko Nakamura, Maki Sugimoto, Adrien Verhulst, Gun A. Lee, Mark Nathan Billinghurst and Matt Adcock SIGGRAPH2020 Emerging Technologies, Article 2, 1–2, 2020.8 DOI: https://doi.org/10.1145/3388534.3407288.