ホーム > スクラップ >

次世代携帯端末戦争ははじまっている。3Dセンサリング技術で実現される近い未来のウェアラブル携帯

2014年03月10日 ネズミ1号:略称「T」
,


アップルによるPrimeSenseの買収、GoogleTangoプロジェクト、クアルコムなど3Dセンサリング技術特許など、今モバイルデバイスは、GPSやジャイロセンサーだけでなく、3次元空間をスキャンし、人間のように空間を認識しようとしているようです。この技術のコアは、3Dマッピング技術と、3Dセンサリングによるジェスチャー認識技術と言えます。「アップル、3Dジェスチャー制御チップ開発のイスライル企業を3億5千万ドルで買収か?」でも紹介しましたが、今GoogleのTangoプロジェクトをはじめ各社3Dセンサリング技術について水面下で凌ぎを削っているようです。


 

 

iPhoneが登場した時の感動を超える次世代デバイスは生まれるか?

ここで主要企業の動きをまとめてみます。

アップル社のPrimeSense社買収:Microsoft社Xboxと連携するKinectにも使われている3DセンサリングチップPrimeSense社のチップをまずはアップルTVで応用しようとしているようです。ジェスチャーの認識にとどまらず、空間スキャンなどにも使えるチップで、今後モバイルデバイスに搭載すべく省電力化もおこなっているそうです。((techcrunchより))

PrimeSenseチップが組み込まれたセンサーによる空間スキャンのデモムービー

グーグルタンゴプロジェクト:タンゴプロジェクトのスマートフォンは他のスマートフォン同様にコンパスとジャイロが搭載されているが、Googleが開発した新センサーシステムは周囲をスキャンして
1.Kinectのように動作やジジェスチャーを認識する。
2.また周囲をスキャンし3D空間マップを生成する
タンゴのシステムはLeap Motionのようなジェスチャー技術ベースのUIを開発するためのものではない。逆にスマートフォンが周囲の3D空間を認識し自分の位置が分かるようになった場合、デベロッパーがどのようなアプリを作り出せるかという点で可能性を探るようです。((techcrunchより))

超省電力のMyriad1チップを搭載したTangoプロジェクトのコンセプトビデオ

tango-sensor.png

tango-sensor2.png

4メガピクセルのカメラの画像解析により3次元座標化。震度センサーやモーションキャプチャーカメラの複合技により3次元空間中のモバイルデバイスの状態と対象のどの部分にモバイルデバイスを向けているか認識可能なようです。

モバイルデバイスへの当該技術の実装は今までは消費電力の問題で実装できなかった。

例えばマイクロソフトのKinectに搭載されているPrimeSenseチップだと1ワットの電力を消費するそうです。一方iPhoneのバッテリーは1500mAh程度だそうなので、PrimeSenseのようなチップが消費される電力は問題外だったようです。

省電力チップMyriad1により現実となったスマホ3Dセンシング

Myriad1は数百ミリワットで稼働する省電力チップでスマートフォンに乗せることが可能になったそうです。アップル社によるイスラエル企業PrimeSense社の買収についても技術的にそうであるように、モバイル上における三次元センサリング技術については、その消費電力の問題からまだ数年先のことだと誰もが思っていたようですが、数百マイクロワットで1GMHものプロセッシングが可能となるプロセッサーの出現で実用化へ向けて現実味を帯びてきたようです。そういう意味では、PrimeSsene社のチップは現在省電力化奮闘中ということで、GoogleTangoプロジェクトはアップルより先行して実フィールド実験にはいったという感じのようですね。

高機能チップの省電力化技術が進むことで、スマートフォン上でも3Dセンサリング技術が当たり前のように搭載される流れが次の世代の端末の流れだと各メーカーは考えているようです。アップルもグーグルもアマゾンもモバイル端末における3Dセンサリング技術については現在試行錯誤しているようです。

ポイントは、「空間認知」+「ジェスチャー認識」により実現するコンピューティングインターフェース

「3Dセンサリング技術」、「3Dマッピング・ビジュアルプロセッシング技術」、これにマッピングされた空間に識別タグなどが組み込まれるとどうなるか?ということですが、GoogleMapならず現実世界の完全なバーチャルデータ化が可能となるわけです。
もちろんサーバーサイドですが、スマートウォンやウェアラブルデバイスは、現実世界に存在するすべてのオブジェクトに対し、例えば、グーグル社が進めているナレッジグラフのような構造化されたデータと関連付けできるようになるわけです。
西暦2028年。ビックデータカンパニーが全てを支配するデータ箱庭社会なっている!?」で紹介したように、もはやバーチャル空間と現実世界は完全にデータにより構造化されることで、端末で識別できるようになるのかもしれません。

3Dセンサリング技術により実現する端末サービス

も一つ忘れてならい技術が空間を認識できるということは、その空間に対して、レーザー照射等により光粒子を反射できるようなサーフェスをプロジェクションマッピングできるようにもなるのではないかということです。つまり、そのサーフェスにモニター替わりにさまざまな画像やインターフェースを照射し、ジェスチャー認識により操作ができるようになるかもしれません。

空間を認識し、空間にスクリーンをプロジェクションし、それを操作できる。端末が今どこにいて、利用者の視線がどこに向いているのか(興味を持っているのか)が分かるということで、サーバーサイドのビックデータとやりとりすることで、もはや疑似AI的なやいとりが端末やウェアラブルデバイスをとおしてできるようになるわけです。

NHKで電脳コイルというアニメーションがやっていましたが、そのようなデバイスが10年以内に当たり前のように使われる時代がくるのかもしれません。当サイトでもたびたび紹介してきましたが、そのようなデバイスのコンセプトビデオを以下に並べてみました。このようなデバイスやサービスを早く使えるようになるといいですね。



2014年03月10日 ネズミ1号:略称「T」
,


前ページに戻る


,


おすすめ記事

その他の関連記事

 

おすすめ記事

記事カテゴリー

タグ

 

 

 

 

 

ブログランキング・にほんブログ村へ
にほんブログ村


人気ブログランキングへ

過去の記事