EyeHacker

論⽂概要

体験者周辺のリアルタイム映像と録画映像とを,視線情報と映像の画像処理による情報に基づき,時間的・空間的に⾃動で混ぜ合わせるVR システムを提案した.注視点情報(何を⾒ている/いないか)を体験シナリオに即座に反映させることで,体験者にとっての主観的現実を,本⼈に気づかれることなく操作することができる.本発表では変化盲等を考慮した具体的な体験シナリオをいくつか実装し,その検証を⼼理実験⼿法により⾏った.

特筆すべき研究成果

仮想現実と物理現実が区別なく混ざり合う、という状況は今後ますます増えていくと予想される。本装置は、そのような混合が成⽴する知覚的・認知的要件、および成⽴した際に⽣起される体験を明らかにするための実験プラットフォームとして機能する。⼼理物理実験により明らかになったいくつかの成⽴要件については、バーチャルリアリティ学会2019にて詳細に発表した。

今後の展望・応⽤+社会実装の可能性

複合現実における認知特性をさらに詳細に調べる。また、仮想現実と物理現実が混ざった状態ならではの認知現象については、著者らによる先⾏研究「代替現実システム」と同じく、体験型研究としての展開が期待できる。

主要成果論⽂

Daichi Ito, Sohei Wakisaka, Atsushi Izumihara, Tomoya Yamaguchi, Atsushi Hiyama, and Masahiko Inami SIGGRAPH '20 ACM SIGGRAPH 2020 Emerging Technologies DOI: https://doi.org/10.1145/3305367.3327988