現在発売あるいは開発されているウェアブル・ガジェット(ウェアラブル・コンピュータ)を紹介します。そしてそれらの使われ方を考察し、また新しい入力インタフェイスとして「噛み合わせインタフェイス」を提案します。
(2013年10月29日:SmartWatch2について追記しました。)
はじめに
CEATEC JAPAN 2013レポート第2弾としてウェアラブル・ガジェット(眼鏡や腕時計型の情報端末)について書きたいと思います。CEATECでは神戸大学の塚本昌彦先生(10年以上ウェアラブル・ガジェットを付けて生活している人)が「時計とめがね:どっちが本命か?」というタイトルで講演されました。たいへんわかりやすいセミナーでした。
これに触発され、Google先生にも教えを受けました。本稿ではそれらのガジェットを紹介し、利用法の考察、入力デバイスの提案をしたいと思います。
時計型ガジェット
まず時計型のガジェットを紹介します。
Galaxy Gear
http://www.samsung.com/jp/consumer/mobilephone/galaxy-gear/galaxy-gear/SM-V7000ZKAKDI
明日(2013年10月17日)発売されるサムソンの時計型ガジェットで、スマホ(GALAXY Note3)と連携します。
SmartWatch 2
http://www.sonymobile.co.jp/product/accessories/smartwatch2/
2013年10月25日に発売された、Sonyのスマホ(Xperia)と連携する時計型ガジェットです。
iWatch
http://matome.naver.jp/odai/2136073749793386501 (噂のまとめ記事)
Appleが作っていると噂されている時計型ガジェットです。あくまでもウワサです。2013年10月22日にAppleのプレゼンがあるそうなので、発表があるかもしれませんね。
眼鏡型ガジェット
次に眼鏡型ガジェットです。
Google Glass
http://www.google.com/glass/start/
恐らく現状で一番注目されているガジェット。ベータ版が限定で販売され、今年度末に一般販売すると目されています。
Recon JET
http://jet.reconinstruments.com/triathlon/
Reconはカナダの会社で、ホームページによると「コンシュマー向けヘッドアップディスプレイを世界で初めて立ち上げた」会社です。サングラスの下方にディスプレイを付けた形状です。Androidなのでいろいろ出来そうですが、自転車競技者向けに訴求しています。日本では2013年7月に予約開始、12月に出荷予定とのことです。
また同社はスキーのゴーグルに取り付ける「MOD live」という商品も出しています。
mirama
http://www.brilliantservice.co.jp/viking/
ITpro EXPO 2013にて、ブリリアントサービス代表取締役の杉本礼彦さんのお話を聞きました。ジェスチャ入力と全視野の半透過型ディスプレイが特徴です。Google Glassのとの違いについては「ARをするためには全視野が必要」という旨のことをおっしゃっていました。現段階のプロトタイプでは、モーションセンサ(赤外線投射+カメラ?)が大きいです。
Telepathy One
セカイカメラの井口尊仁さんが開発中のガジェット。詳細はわかりませんが、形状から網膜走査ディスプレイ(網膜をスクリーンに見立てたプロジェクタ)なんじゃないかと思います。Google Glassより「スタイリッシュ」との評があります。
インテリジェントグラス
http://www.gizmodo.jp/2013/10/_ceatec_17.html (紹介記事)
CEATECでDocomoさんがコンセプト展示していた眼鏡型ガジェットです。プロトタイプなのでデザインはさておき、技術提案は面白いですね。
ガジェットまとめ
各ガジェットを比較してみました。(iWatchはウワサなので除きます。)
ユーザー・インタフェイス | センサ | コンセプト (アプリ) |
|||
出力 | 入力 | ||||
腕時計 | Galaxy Gear (Product) |
1.6インチスクリーン | タッチパネル、音声 | カメラ、マイク | スマホ補助(通話、カメラ、メール・イベント等のアラート) |
SmartWatch2 (Product) |
1.6インチスクリーン | タッチパネル | マイク | スマホ補助(通話、メール等の表示、音楽プレーヤー) | |
メガネ | Google Glass (Product) |
片眼一部ディスプレイ 音声(骨伝導) |
音声、タッチ | カメラ、マイク | ライフログ、SNS、ナビ、検索 |
Recon JET (Product) |
片眼一部ディスプレイ | 光タッチパネル | マイク、GPS、加速度、ジャイロ、電子コンパス、気圧計、温度計 | スポーツ(自転車) 地図、心拍計、天気 |
|
mirama (Concept) |
両眼全視野ディスプレイ | ジェスチャ、傾き | カメラ、傾き | AR、ナビ | |
Telepathy One (Concept) |
片眼網膜走査ディスプレイ? | ジェスチャ | カメラ | SNS、コミュニケーション | |
インテリジェントグラス (Concept) |
両眼ディスプレイ? | 音声、ジェスチャ、バーチャルUI | 顔認識、動画、AR |
製品レベルのものは、さすがにコンセプトが固まっているように思えます。(特にスポーツに特化しているRecon JET。)またGoogleは、ムービーを見るとライフログやSNSがメインのように見えますが、バックエンドのGoogleの資産と組み合わせればいろいろと出来そうですね。
Galaxy Gearはスマホありきのコンセプトのためか、今一つ、といった感があります。ディスプレイもGoogle Glassが日本語換算で15×10文字くらいなのに比べ、Galaxy Gearは8×6文字です。(動画より推量。)SmartWatch2は細かい文字でメール本文も読めるようです。
アラートに関しても、腕時計型は「音や振動でアラートしてから画面を見る」という2アクション、眼鏡型は「視野の端にポップアップ」という1アクション。ということで、今のところ眼鏡型に分があるような気がします。(個人的感想です。)
Appleが腕時計型を作るとすると、果たしてどういったガジェットにするでしょうか。
利用法
開発者が提案するコンセプトなどから利用方法を考えてみます。ODNAのUIとしては様々なサービスに組み込まれる可能性が考えられます。しかしそれらは別稿に回すことにして、ここでは眼鏡型のシンプルな利用法を考えます。
塚本先生の実証実験
CEATECのセミナーでは、塚本先生が行った実証実験として以下の紹介がありました。
ライブ | 歌手に歌詞が見えるようにしたり、歌手の視線の映像が見えるようにしたり。(スライドに映ったのはサンプラザ中野さん。) |
MC | 原稿が見えるようにしたそうです。 |
歯科 | ドクターの映像(口の中)が患者(塚本先生)に見えるようにしたり、患者の代わりにプリセットの音声(「痛い」)を発したり。 |
E-fashion | ランウェイを歩くモデルさんが付けます。 |
SNS (Social Networking Service)
SNSとの親和性は高いでしょう。Telepathy Oneのコンセプトムービーはどう見ても屋外で中継する「ニコ生主」です。twitterやfacebook中毒の人も、視野にタイムラインが流れるのは快感なのではないでしょうか?
難点は音声入力で、SNSに投稿するのにブツブツ呟かなければならないことです。(文字通り「つぶやき」ですね。)自宅だと問題ありませんが、パブリック・スペースだと恥ずかしいです。
余談ですが、別セッションでの濱野智史さん(社会学者)のお話だと、調査したtwitterのヘビーユーザーは一日200-300ツイートしていたとのことです。
AR (Augmented Reality)
ARは両眼全視野眼鏡の専売です。普通に、ナビ、位置やマーカーに連動したポップアップ(情報、公告)、文字認識からの自動翻訳オーバーレイは考えられます。またDocomoさんは一歩進んだバーチャル・インタフェイスを提案しています。
私がざっと思いついたARアプリは以下です。
ブラタモリ | お散歩の途中に、ARで昔の風景が浮かび上がります。ライフログ(あるいはGoogle Street View)と組み合わせれば、今から街並みが記録できるので、将来は文字通りリアルな昔の街並みを見ることができるでしょう。 |
ラブプラス | ニンテンドーDSのバーチャル・ガールフレンドですが、さらに没入できそうです。(現実に帰れなくなるかもしれません。パブリック・スペースで音声・ジェスチャでバーチャル・デートしている人がたくさんいたら…) |
いずれにせよ、マーカーなしに正確にオーバーレイするには、位置情報、角度情報、高さ情報が必要です。位置情報と角度情報は現時点で利用可能なセンサがありますが、高さ情報がありません。足元からの高さがあればいいので、電波でも音波でも照射して地面との距離を測る必要があります。
(2013年10月17日追記:バーチャル・デートを既に実証実験している方がいらっしゃいました。すばらしい。)
スポーツ
まさにReconさんのコンセプトですが、眼鏡型、腕時計型ともスポーツとの親和性は高いです。(過去にはNIKE+iPhoneというのもありましたが。)ライフレコーダーの情報ともリンクでき、科学的なトレーニングや、健康を害する過度の運動に対してアラートを発することもできそうです。現在プロスポーツでは情報利用は当たり前かもしれませんが、個人利用も十分可能になります。
スキー、自転車のほかにも、ランニング、トレイル、ゴルフなど、あるいはフィットネスセンターに利用できそうです。(チームプレイのスポーツに導入したらレギュレーション問題になりそうです。)
業務での利用
HMDの業務利用については、ボーイング社が航空機の整備に利用している事例が有名かと思います。(2000年くらいからです。)膨大な整備マニュアルを持ち歩かなくとも、整備をしながら参照ができる仕組みです。
また塚本先生は麻酔科医とも実証実験を行ったと仰っていましたが、ウェアラブル・ガジェットは患者さんの生体情報や投薬のスタンダードを参照するのに利用できます。やはり2000年くらいの学会で、どなたか麻酔科医の先生が「未来の麻酔医の姿」としてイメージを提案されていました。
一般化すると、膨大な情報に囲まれ、立ち仕事している人のためのサービスに使えそうです。(司書さんとか?)
参考までに、ブラザー工業さんの業務用のHMDをご紹介しておきます。
入力インタフェイスの提言
現在の眼鏡型ガジェットの入力インタフェイスとしては、タッチ、音声、ジェスチャの3つが提案されています。しかし音声とジェスチャに関しては、「パブリック・スペースでは恥ずかしい」という欠点があります。すると眼鏡にタッチすることになりますが、いちいち手を挙げるのも面倒です。
これらに代わる入力として、眼球の動き、まばたき、脳波など思いつくと思いますが、私は「噛み合わせ」を提案します。
噛み合わせのセンサ
噛み合わせを検出するセンサとしては、音、筋電、こめかみの変位の3つを思いつきました。
最初に音に関しては、カチッと歯を噛み合わせる音を、ツルか鼻パッドに仕込んだ骨伝導マイクで拾います。骨伝導マイクは実用されていますし、また通常の音声入力と共存可能かもしれません。
次に筋電に関しては、ツルと鼻パッドに仕込んだ電極で噛み合わせの筋電を拾います。筋電は100μVp-pくらいなので、心電より拾いにくいですが、脳波よりは拾いやすいです。しかし現在のところ、接触インピーダンスを十分に小さくするのは難しいかもしれません。
最後にこめかみの変位です。眼鏡のツルの部分から光か音波をこめかみに向けて照射し、運動を検出します。あるいはツルの接触する部分でも動きがあるので、眼鏡のひずみ検出や圧力センサでもよいかもしれません。
信号処理
まず食事や会話の時に誤作動しないようにする必要があります。いずれのセンサを使うにしろ、これらのときの変化はゆっくりです。意識的にパルス的な噛み合わせをしてそれを検出すれば良さそうです。(音を利用する場合はいわずもがなです。)
シングル・クリック、ダブル・クリックくらいまでに処理をします。
UI
シングル・クリックでカーソルが進み、ダブル・クリックで決定、というようなインタフェイスにすれば、クイックホイールの代わりになりそうです。後は少ない噛み合わせですむように、サジェストを強化します。
その他の入力インタフェイス
入力センサがガジェット自身に内蔵されている必要はなく、離れていても構いません。
例えばRingという指輪型のジェスチャ入力デバイスが考えられています。特に顔の前でジェスチャする必要もなく、このようなデバイスで手を下げた状態で小さいジェスチャで入力できれば、恥ずかしくありません。
また腕時計型ガジェット自体を眼鏡型ガジェットの入力デバイスにするという手もあります。腕時計型ガジェットというより腕時計型ライフレコーダーの機能拡張でよいでしょう。指の筋肉は前腕にあるので、噛み合わせと同様に筋肉か腱の動きが検出できれば、バーチャル・キーボードができます。(浦沢直樹「MONSTER」のルンゲ警部になれます。)
まとめ
- 現在発売・開発されている、ウェアラブル・ガジェット(眼鏡、時計)を挙げ、比較しました。
- ARアプリとしてブラタモリ、ラブプラスなど考えました。
- また入力インタフェイスとして噛み合わせ入力を考えました。
噛み合わせ入力については、特許になりうるかも、とも思ったのですが、「あれは俺のアイデアだ。金持ちになり損ねた。」という酒飲み話になれば十分です。(この記事より前に出願がなければ、もう使いたい放題です。メーカーさんはどんどん使ってください。その際は酒でもおごってください。