アップルによるPrimeSenseの買収、GoogleTangoプロジェクト、クアルコムなど3Dセンサリング技術特許など、今モバイルデバイスは、GPSやジャイロセンサーだけでなく、3次元空間をスキャンし、人間のように空間を認識しようとしているようです。この技術のコアは、3Dマッピング技術と、3Dセンサリングによるジェスチャー認識技術と言えます。「アップル、3Dジェスチャー制御チップ開発のイスライル企業を3億5千万ドルで買収か?」でも紹介しましたが、今GoogleのTangoプロジェクトをはじめ各社3Dセンサリング技術について水面下で凌ぎを削っているようです。
ここで主要企業の動きをまとめてみます。
アップル社のPrimeSense社買収:Microsoft社Xboxと連携するKinectにも使われている3DセンサリングチップPrimeSense社のチップをまずはアップルTVで応用しようとしているようです。ジェスチャーの認識にとどまらず、空間スキャンなどにも使えるチップで、今後モバイルデバイスに搭載すべく省電力化もおこなっているそうです。((techcrunchより))
PrimeSenseチップが組み込まれたセンサーによる空間スキャンのデモムービー
グーグルタンゴプロジェクト:タンゴプロジェクトのスマートフォンは他のスマートフォン同様にコンパスとジャイロが搭載されているが、Googleが開発した新センサーシステムは周囲をスキャンして
1.Kinectのように動作やジジェスチャーを認識する。
2.また周囲をスキャンし3D空間マップを生成する
タンゴのシステムはLeap Motionのようなジェスチャー技術ベースのUIを開発するためのものではない。逆にスマートフォンが周囲の3D空間を認識し自分の位置が分かるようになった場合、デベロッパーがどのようなアプリを作り出せるかという点で可能性を探るようです。((techcrunchより))
超省電力のMyriad1チップを搭載したTangoプロジェクトのコンセプトビデオ
4メガピクセルのカメラの画像解析により3次元座標化。震度センサーやモーションキャプチャーカメラの複合技により3次元空間中のモバイルデバイスの状態と対象のどの部分にモバイルデバイスを向けているか認識可能なようです。
例えばマイクロソフトのKinectに搭載されているPrimeSenseチップだと1ワットの電力を消費するそうです。一方iPhoneのバッテリーは1500mAh程度だそうなので、PrimeSenseのようなチップが消費される電力は問題外だったようです。
Myriad1は数百ミリワットで稼働する省電力チップでスマートフォンに乗せることが可能になったそうです。アップル社によるイスラエル企業PrimeSense社の買収についても技術的にそうであるように、モバイル上における三次元センサリング技術については、その消費電力の問題からまだ数年先のことだと誰もが思っていたようですが、数百マイクロワットで1GMHものプロセッシングが可能となるプロセッサーの出現で実用化へ向けて現実味を帯びてきたようです。そういう意味では、PrimeSsene社のチップは現在省電力化奮闘中ということで、GoogleTangoプロジェクトはアップルより先行して実フィールド実験にはいったという感じのようですね。
高機能チップの省電力化技術が進むことで、スマートフォン上でも3Dセンサリング技術が当たり前のように搭載される流れが次の世代の端末の流れだと各メーカーは考えているようです。アップルもグーグルもアマゾンもモバイル端末における3Dセンサリング技術については現在試行錯誤しているようです。
「3Dセンサリング技術」、「3Dマッピング・ビジュアルプロセッシング技術」、これにマッピングされた空間に識別タグなどが組み込まれるとどうなるか?ということですが、GoogleMapならず現実世界の完全なバーチャルデータ化が可能となるわけです。
もちろんサーバーサイドですが、スマートウォンやウェアラブルデバイスは、現実世界に存在するすべてのオブジェクトに対し、例えば、グーグル社が進めているナレッジグラフのような構造化されたデータと関連付けできるようになるわけです。
「西暦2028年。ビックデータカンパニーが全てを支配するデータ箱庭社会なっている!?」で紹介したように、もはやバーチャル空間と現実世界は完全にデータにより構造化されることで、端末で識別できるようになるのかもしれません。
も一つ忘れてならい技術が空間を認識できるということは、その空間に対して、レーザー照射等により光粒子を反射できるようなサーフェスをプロジェクションマッピングできるようにもなるのではないかということです。つまり、そのサーフェスにモニター替わりにさまざまな画像やインターフェースを照射し、ジェスチャー認識により操作ができるようになるかもしれません。
空間を認識し、空間にスクリーンをプロジェクションし、それを操作できる。端末が今どこにいて、利用者の視線がどこに向いているのか(興味を持っているのか)が分かるということで、サーバーサイドのビックデータとやりとりすることで、もはや疑似AI的なやいとりが端末やウェアラブルデバイスをとおしてできるようになるわけです。
NHKで電脳コイルというアニメーションがやっていましたが、そのようなデバイスが10年以内に当たり前のように使われる時代がくるのかもしれません。当サイトでもたびたび紹介してきましたが、そのようなデバイスのコンセプトビデオを以下に並べてみました。このようなデバイスやサービスを早く使えるようになるといいですね。
過去の記事