連載
» 2015年07月25日 07時30分 UPDATE

“ウェアラブル”の今:第38回 操作不要のZero UI 重要なのは「リモコン」と「プログラム」

ユーザーインタフェースがない、Zero UIの世界では、センサーとなるウェアラブルデバイスのような機器と、そこから得られる情報を元にさまざまな判断と動作を行うプログラムが重要になる。

[松村太郎,ITmedia]

 前回「Zero UI」について触れた。汎用型のスマートウォッチ系デバイスは、小さいながらもユーザーインタフェースが搭載されており、スマートフォンとZero UIが主体となるであろうIoTデバイスとの中間に位置する存在と位置づけられる。

 そういう意味で、ウェアラブルデバイスの初期となる現在は、「操作しない世界」あるいは「無意識に利用する世界」の前哨戦、リッチではないインタフェースではない世界へのよりもどしの時代だ。

リッチなスマートフォンのインターフェイス

 スマートフォンはインタフェース・リッチなデバイスと言える。操作をタッチパネルへ移行し、複数の指での操作やジェスチャーに対応した。最近では、画面の中央で指を動かすとスクロールだが、画面の端から中央に向かって同じように指を動かすとサブメニューが開く、といったように、同じ動作によっても意味合いが異なるジェスチャーまで登場している。

 加えて、加速度センサーをインタフェースに活用して、スマートフォン全体をハンドルや操縦桿のように利用するゲームがある。GPSやWi-FiやBluetoothは、何もしなくてもその場にいることをアプリに認識させることができるし、NFCによるタッチの有無を活用した操作も可能だ。

 今後、感圧タッチやカメラの活用など、スマートフォンへの新しいインタフェースの搭載や、既存のパーツのインタフェース活用などが進んでいくことになる。ここまで来ると、「直感的な操作」ながら、そもそも「その操作方法に気づくかどうか」という問題も出てくる。

ドローン操縦で体験するスマホの優秀なリモコン性

 そんなスマートフォンは、すでに優秀なリモコンだ。

 例えばParrotの「BeBop Drone」は、コンパクトで非常に安定性の高い4ローターのドローンだが、このドローンにはコントローラーが付属しておらず、同社が無料で配信しているアプリ「Free Flight 3」を用いてiPhoneやiPad、Androidなどのスマートフォン・タブレットで操縦する。

 BeBop Droneには1400万画素の魚眼カメラが搭載されており、アプリにその映像がリアルタイムで流れてくる。これを見ながら、ちょうどゲームコントローラーのようにスマートフォンを構え、右手の親指でコントロールボタンをタップしながら前後左右に傾ければ、その通りにドローンが操縦できる。

 左手の親指では十字キーが操作でき、上に動かせば上昇、下に動かせば下降、左右はそちらの向きへの回転だ。スマートフォンの傾きと十字キーを組み合わせれば、例えば「右に回転しながら前進上昇」といった動きを簡単に作り出すことができる。

 さすがに怖くて実機を見上げながらのコントロールに終始しているが、スマートフォンの画面にはリアルタイムの映像が流れているため、そちらだけに注目しながらの操縦も可能かもしれない。少なくとも、体育館のような広くて天井の高い室内でなら試せそうだ。

リモコンがないドローン

 さて、スマートフォンの優秀なリモコン性について、ドローンの操縦を例にして話してきたが、例えばこのドローンをちょうど良い高さで静止させて自分の方を向ければ、自撮りができる。スマホを思い切り伸ばした手で操作しなくても良いのだ。

 ただ、スマホでドローンを操縦しながら自撮りをする、というのもちょっと労力と結果が釣り合わないように思う。それなら、自動的に被写体を撮影してくれるドローンがあれば良いのではないか――。そんなアイデアから、カリフォルニア大学バークレイ校のRobotic Labでプロトタイプが作られた自撮り用ドローン「Lily」が製品化されようとしている。

Lily

 Lilyはカメラを搭載した防水小型ドローンで、センサーデバイスを身に着けた人を自動的に追随、もしくは先行しながら撮影してくれる機能を持つ。例えばスキーやスノーボード、ラフティング、ジョギングやサイクリングなどの風景を、操縦なしで上空から撮影できる仕組みだ。

 操作は、センサーデバイスを身につけて、ドローンを上空に放り投げるか、水面に着水させるだけだ。スポーツや活動中の自撮りという、自分が持っているカメラやスマホでは難しかった撮影を実現してくれるようになった。

 何かをしながら自撮りすることは、“操作しなければならない”から実現できなかったことの最たる例といえる。リモコンがスマホにまとまったり、その操作性が高かったりすることは当然の進化ではあるが、しかしリモコンが必要なままではできないことも存在しているのだ。

トリガーとプログラム

 前述のLilyのセンサーデバイスは、撮影者であり被写体である人が身に着ける、ウェアラブルデバイスといえる。誰を狙って撮影すれば良いのか、というドローンにとってのマーカーであり、その人の動きそのものがドローンの操作に影響することになる。

 Lilyには、センサーデバイスを狙って撮影しろ、というプログラムが存在しているため、そうした動作が可能になっている。リモコンをなくすためには、トリガーとなるウェアラブルデバイスと、それに反応して動作するプログラムの組み合わせが必要になる。

 例えばもしもLilyに「センサーを持っている人を映すな」というプログラムを与えれば、会場内でセンサーを避けた撮影を実現できるし、「1分に1回、10秒ずつ、センサーを持った人を映す」というプログラムを与えても良い。

 複数のセンサーを認識できるようになれば、サッカーの試合で、「基本的にはボールを追跡するが、プレーが止まったときは両チームのキャプテンを映す」といったカメラワークを指定することもできるだろう。

プログラムを意識しながらウェアラブル型リモコンを使う

 筆者が使っているApple Watchで重宝するのは、iPhoneやApple TVを操作するリモート機能だ。

 Apple Musicで、今聴いている曲にお気に入りをつけたいと思ったら、Apple Watchのグランスでミュージックを開いてハートマークをタップするだけでいい。リモコンを常に身に着けていることによる効能が現れているわけだ。

 もしもジェスチャーに機能を割り当てる、というプログラムができるようになれば、例えば「手首を3度返すと、今聴いている曲をお気に入りにする」といった動きだけで、やりたいことが実現できるようになる。

 さらに、運動状態を除外して心拍数が上がったらお気に入りにする、という人の「反応」をきっかけにしても良さそうだ。おそらくジェスチャーは意図的な範囲かもしれないが、心拍数は音楽以外の要因も考えられ、「誤解」をいかに回避するか、という検証が必要だとは思うが。

 このように、操作しない世界では、特定のシチュエーションであることすら、自動認識されるようになるかもしれない。技術的な実現の可否以上に、シナリオやパターンをいかにたくさん用意するか、あるいはパーソナライズするか、というライフスタイルや物語の世界が、プログラミングに必要になってくるだろう。

Copyright© 2016 ITmedia, Inc. All Rights Reserved.