将来的には実用化も…

「触れる3D」で体感ゲーム誕生?

2012.09.08 SAT


『i3space(アイキューブスペース)』を使い、「地球」の立体映像を感触を確認しながら動かしている様子。この技術を使えば、ゲームや手術シミュレータにおいても、より直感的な操作が可能になるそうだ 写真提供/独立行政法人 産業技術総合研究所
映画にはじまり、テレビ、パソコンでも3D映像が楽しめるようになり、まさに「3D元年」となった2010年。飛び出す映像が当たり前になったいま、次はその映像を“さわれたらいいな”なんて思う人も多いはず。

そんななか、今年8月に産業技術総合研究所が、指先で3D立体映像の“感触”を確認しながら形状デザインが行えるシステム『i3space(アイキューブスペース)』を発表。ロボット・アームのような大がかりな装置ではなく、サイコロ状のクリップを指に装着するだけで、立体映像に“さわって、動かす”ことができるとか。これって、どんな仕組みなんですか?

「立体映像(物理モデル)に触れる際に、ユーザーの指の動きを6台のカメラで精確に観測します。その位置と動きより指から物理モデルに働く力を計算し、同時にその力による物理モデルの変形や動き、指に返ってくる力をシミュレート。これに合わせて指に装着したクリップが感触を提示するように振動することで、錯覚で“感触”が得られるのみならず実際に指が押し返されてしまうんです」(開発担当者)

それでは、今後どんな分野への応用が考えられますか?

「指で操作する教育・訓練シミュレータや遠隔操作に応用できます。例えば、宇宙ステーションの組み立て。現在は操縦者がジョイスティックでロボット・アームを操作していますが、今後は子どもが素手で積み木を組むように、接触や反力を確認しながら直感的に操作できるようになるかもしれません。手術シミュレータや、ゲームへの応用も期待されています」

R25世代が気になるのは「ゲームへの応用」。立体映像の“感触”が得られるなら、バーチャルな空間であんなことやこんなこともできちゃいそうですけど、例えば指だけではなく、手や腕、あるいは体全体で立体映像を体感することもできるようになりそうですか?

「手のひらや太ももに感触を伝えることは、すでに可能です。感度の差はあれ、振動が感じられる部位ならばどんな部分にも感触を伝えることはできると思われます。体全体に拡張するためには、インターフェースのシート化や簡単な装着方法、体中に配線や無線を張り巡らせるための技術が必要になり、実用化にはステップがありますが、技術的には不可能ではありません」

現実との差を限りなく小さくする、夢の体感ゲームが誕生する可能性は十分にありそう。さらなる技術革新に期待しましょう!(安藤大智/blueprint)

※この記事は2010年10月に取材・掲載した記事です

取材協力・関連リンク

関連キーワード

注目記事ピックアップ

 

編集部ピックアップPR

ブレイクフォト