Kinect 勉強会 Vol.1 に参加してきました

RDDブログひさしぶりの小松です、

今日は、Kinect 勉強会に参加してきました

導入から丁寧に説明してもらえたので、だいぶ分かった気になりました

以下、自分のメモ。。
・最初のドライバはlibfreenect。賞金がついてオープンソースのドライバが開発された。
・今の主流はOpenNIのやつ。Macにも対応しているが、stableはwin/linux向けのもの。
・ C++/Python向けのバインディングが用意されている。
・深度画像と光学(RGB)画像が得られる。
・骨格トラッキングをすると、関節部分の座標と角度が取れる。
・primesense社のSDKというのも使えるらしい

・事例まとめ
http://www.openni.org/gallery
http://www.kinect-hacks.com/openni
・openFrameworks には、libfreenect / OpenNI のドライバが同梱されていてらくちん
・@hagino3000さんの発表スライドは、ハンドジェスチャーでページ送りしてた
・手が疲れるので途中でやめる
・画像処理はOpenCV使うとらくちん
・左右のカメラの視差で3D認識をしているんだと思っていたが、どうやら赤外線カメラで深度情報を取っているっぽい?
・@ndrugerさんの発表は、node.jpと、WebGLと、HMDを組み合わせてゲームを作る
・node.jsは、座標情報を右から左に流すだけのシンプルな物
・kinectからきた座標情報をTCPで送るコードも、OpenNIのサンプルコードに少し手を加えた程度の簡単なもの
・深度情報は、0-255の256段階、640×480の解像度
・深度は赤外線カメラで、映像はRGBカメラで撮影していて、カメラがついている位置が少し離れているためKinectに近づくと映像と、深度情報がずれる現象が起こる
・HMD楽しそうVR920 5万円ぐらいで、加速度センサ付きのHMDがかえるらしい。キネクト界隈でいろんな人が遊んでいるらしい。解像度はVGAぐらい

さて、あとは作るだけ!C++久しぶりに触ってみるのも、わくわくしますねー。

preload preload preload