日系Linux11月号 OpenCVでAndroid上のARアプリケーション作る記事の件

連載7回目で11月号で最終となる、ARアプリケーションのアルゴリズム の巻きでは、Androidを搭載した開発ボード(BeagleBoard)で画像認識(ジェスチャー認識)してリモコンをつくる開発工程を解説している。

ここで手の形状を認識するのに、肌色認識としてHSVのH(色相)をつかって手抽出してから、HoG(Histgram of Oriented Gradients)を使っている。HoGのヒストグラムを、グー、チョキ、パーのテンプレートのHogを直接距離を計算して近ければそれと判定する方法をとっている。

こんな認識フローもあるんだ、と。Hog作るときは、肌色抽出などしないで、グレー画像から作るのが一般的かと思っていた。肌色抽出後だと、うまく肌色抜ければ制度が出るだろうが、HoGは輪郭形状にシビアだと思われるので、肌色抽出が失敗すると痛いことになりそうだが、どうなんだろう。

あと、特徴量のHoGを直接、グー、チョキ、パーのテンプレートのHogと距離を計算するのもアリなのだなぁ。ここに機械学習を使わないのもシンプル。