kinectをつかったインターフェース関係の論文いくつか

Google Scholarなどで見つけた、
kinectを使ったインターフェース・インタラクションに関係する論文・文献の一部を挙げてみます。
(CG、geme tech などは除く。)
kinectSDK か OpenNi+NITE, openframeworks....のどれを使っているかも載せられたら載せる予定です。
ざっと訳して解釈しているので、そこらへんはご容赦ください。

__________________________


[取得できたもの]
Web GIS in practice X: a Microsoft Kinect natural user interface for Google Earth navigation
著者:Maged N Kamel Boulos, Bryan J Blanchard, Cory Walker, Julio Montero, Aalap Tripathy and Ricardo Gutierrez-Osuna
出典: International Journal of Health Geographics 2011

kinectGoogle earth を利用する"kinoogle",このような3Dで地球儀などのオブジェクトに対してPan and Zoomを行うアプリケーションでの操作において、どうアプローチするかを議論している。
(kinoogle)OpenNI+NITE



Robust Hand Gesture Recognition Based on Finger- Earth Mover’s Distance with a Commodity Depth Camera
著者:Zhou Ren,Junsong Yuan, Zhengyou Zhang
出典:MM’11, November 28–December 1, 2011, Scottsdale, Arizona

深度カメラを用いた手の形や指のジェスチャ(?)の認識についての研究。



MORAVIA(Motion Recognition And VIdeo Annotation): A Video-Annotation System Supporting Gesture Recognition
著者:Marco Careddu,Laura Carrus,Alessandro Soro,Samuel A. Iacolina,Riccardo Scateni,
出典:CHITALY’ 11, September 13-16, 2011, Alghero, Italy

動作認識とビデオアノテーション技術(動画に情報を付加する技術、例→http://www.youtube.com/watch?v=v_F9kBQmsZU)を組み合わせた研究。
kinectSDK以外、open source driversとは記述されている



Comparing Gesture Recognition Accuracy Using Color and Depth Information
著者:Paul Doliotis, Alexandra Stefan, Christopher McMurrough, David Eckhard, and Vassilis Athitsos
出典:PETRA 2011 Crete, Greece Copyright 2011 ACM ISBN

カメラ画像をもちいたDynamic Time Warping (DTW)、それと深度情報を組み合わせて手の位置を正確に判定する。
そして、ジェスチャに活かす、といったところでしょうか。
骨格情報などは用いていない。


[取得できなかったもの]
Upper Body Gesture Recognition for Human-Robot Interaction
著者:Chi-Min Oh, Md. Zahidul Islam, Jun-Sung Lee, Chil-Woo Lee and In-So Kweon
出典:LNCS 2011

abstractしか読んでないけど、ロボットにkinectのカメラくっつけて人を見つけたらジェスチャを認識する、といったものでしょうか。



[その他]
NAVI -A Proof-of-Concept of a Mobile Navigational Aid for Visually Impaired Based on the Microsoft Kinect
著者:Michael Zöllner, Stephan Huber, Hans-Christian Jetter, Harald Reiterer
出典:なし

建物内のモバイルナビゲーションっぽい。
研究報告かな。


Human Motion Reconstruction from Force Sensors
著者:Sehoon Ha, Yunfei Bai,C. Karen Liu
出典:Eurographics/ ACM SIGGRAPH Symposium on Computer Animation (2011)

モーションキャプチャ的な内容。ちょっと自分の研究範囲とは違うかな。