- ニュース

写真:Drew Graham/Unsplash
「Appleは拡張現実(AR)に全力を注いでいる。しかし、それはどこへ向かうのだろうか?」これは、iPhoneのカメラと画面を通して仮想オブジェクトを現実世界に重ね合わせる、いわゆるビジュアルARのAppleの実験に対する、ごく一般的な見解だ。
しかし、Appleはすでに何百万人ものユーザーに、現実世界に完全に没入できるARオーバーレイを提供しています。ただし、画面は使用していません。AirPodsは拡張現実です。そして、Appleが誰にも告げずに世界にこっそりと導入した新しいコンピューティングパラダイムの一部でもあります。このパラダイムは現在、AirPods、iPhone、Apple Watch、そしてHomePodで構成されています。そして、その重要性はさほど高くなく、控えめな存在でもあります。
PAN: 究極のパーソナルコンピューティング
PAN(パーソナルエリアネットワーク)と呼ばれる概念が確立されています。Techopediaによると、この用語は「個々のユーザーの環境内(通常は10メートルまたは33フィート以内)における情報技術デバイスまたはガジェットの相互接続」を指します。これはBluetoothの通信範囲です。PANには、ノートパソコンを含むあらゆる種類のデバイスが含まれます。しかし今日は、iPhone、Apple Watch、AirPodsに焦点を当て、それらがApple ARにどのように適合するかについてお話ししたいと思います。
アップルPAN
多くの人がすでにこれら3つのAppleデバイスを日常的に組み合わせて使っています。頭脳(iPhone)はポケットやバッグに、サブスクリーンは手首に、スピーカーは耳に。この組み合わせでできることはiMacとそれほど変わりませんが、物理的な構成上、大きな違いが一つあります。PANはガラスとアルミニウムの箱の中に収まっておらず、あなたの周りの世界の一部なのです。
これはAppleの拡張現実(AR)であり、2つの要素が連携して実現しています。1つは、デバイスが周囲の世界を認識していることです。iPhoneとApple Watchはどちらもあなたの現在位置を正確に把握し、あなたがどの方向を向いているかを把握しています。さらに、あなたが騒がしい環境にいるのか、静かな環境にいるのかを把握しています(最新のwatchOSでノイズアプリがインストールされている最新のApple Watchを装着している場合)。これらのデバイスはインターネットに接続されているため、雨が降っているのか、暑いのか、渋滞に巻き込まれているのかなども把握できます。
Apple Watch は、心拍数、歩数、睡眠の質、一日中椅子に深く座っていたかどうかなども測定します。
Appleのアンビエントコンピューティング
もう一方の方向は、ユーザーに情報を提供するものです。Apple Watchを手に入れて以来、私はほとんどいつもスマートフォンをポケットに入れています。自転車に乗っているときは、片方のAirPodsで音声案内が聞けます(自転車に乗るときに2つ装着するのは危険すぎる気がします)。iOS 13では、Siriが着信メッセージを自動的に読み上げてくれます。地図の道順に従っているときは、Apple Watchがコード化された触覚タップで左折か右折かを教えてくれます。いつでも手首をチラッと見るだけで、必要なデータがすぐに確認できます。例えば地図の道順がまだよくわからないときは、iPhoneを取り出して使えばいいのです。
Appleは、デバイスを超ポータブル化し、それらを非常に深く接続することで、複数のデバイスがネットワークでつながれたというより、複数のパーツが集まった一つのデバイスのように動作するようにしました。こうしてAppleは、私たちをウェアラブルな全身コンピュータの中にひっそりと包み込みました。これは、携帯電話の登場によって人類の約半数が高性能なポケットコンピュータを持ち歩くようになったのと似ています1。
Apple AR: あらゆるタスクに対応するデバイス
最近は、写真を撮るとき、時計ではできないほど詳細なメッセージを書くとき、地下鉄やバスなどに乗っているときに何かを読んだりするときなどにしか iPhone を取り出さなくなりました。
本格的に読書や執筆、あるいはより綿密な写真編集をしたい時はiPadを使います。そして、いくつかのタスクに関しては、Macの方がまだ適しています。
Apple Watchもまさにこのシナリオに当てはまります。手首に装着するコンピューターは、特定の用途では優れており、他の用途では劣っています。Apple Watchで写真を編集したり、iPadで心拍数をモニターしたり、スーパーでMacBookを使ってApple Payで買い物をしたりするのは、おそらく望ましくないでしょう。これらのデバイスの性能が向上するにつれて、対応できるタスクの範囲は変化し、iPadは今や多くの人にとってMacBookの信頼できる代替品となっていますが、適性の優先順位は変わりません。
Apple Watchがより高性能になり、より独立性が高まるにつれて、より大きな画面や高性能なカメラを必要とする作業にのみiPhoneが必要になるかもしれません。AirPodsは最終的にはApple Watchの役割の一部を担うようになり、例えばインターネットから直接オーディオをストリーミングしたり、リマインダーやiMessageアプリのオーディオ版を操作したりできるようになるでしょう。そして、Appleは間違いなくApple PANに新しいデバイスを追加するでしょう。
その間、一部の機能は状況に応じてデバイス間で連携します。通知は最も関連性の高いデバイスに表示されます。Appleはこの部分のエクスペリエンスを非常にうまく実現しています。アラートや通知はほぼ常に適切な画面(または適切なスピーカー)に表示されます。
すると、大きな疑問が一つ浮かび上がります…
視覚的拡張現実は Apple AR 計画のどこに当てはまるのでしょうか?
AppleがビジュアルARに取り組んでいることは明らかです。基調講演のたびに、現実世界に物体を投影するゲームをフィーチャーした新しいデモが発表されます。そして、開発者がアプリに拡張現実(AR)をより簡単に組み込めるようにするツールスイートであるAppleのARKitは、ますます優れたものになっています。iPhoneとiPadは色、照明、影をリアルタイムでレンダリングできるため、投影された物体はまるで現実空間に存在するかのようです。
でも、なぜでしょう?確かに見た目は良いのですが、今のところ決定的な用途は見当たりません。Appleがメガネを作る可能性はあるかもしれません。でも、誰がそれを装着するでしょうか?腕時計ならまだしも、Apple Glassesはどうでしょう?それに、ARを実現するには、メガネにカメラが必要です。プライバシーの観点から、普及は難しいでしょう。
私にはそうは思えません。でも、他に何か特別な計画がない限り、Appleがなぜこれほど優れたARに注力しているのか、私には全く理解できません。現実世界に情報を投影するアンビエントビジュアルは、アンビエントコンピューティングの明確な次のステップですが、どのように機能するのでしょうか?Appleがここでどのように私たちを驚かせてくれるのか、楽しみです。もしかしたら、誰も思いつかないような、Apple独自の素晴らしいARアプリケーションが登場するかもしれません。
もしそれが、ポケモンが街中を走り回るだけの、単なるギミック的なARグラスなら、私は信じない。しかし、長年の経験から学んだことがあるとすれば、Appleは私たちを驚かせる術を知っているということだ。そして、もしARがAppleにとって見かけほど重要なら、私たちはさりげなくも驚くべき何かを目にすることになるでしょう。
- 世界中で77億の携帯電話加入契約があります。同じ情報源によると、36億人がインターネットに接続しています。推定50億人がモバイルデバイスを所有しており、そのうち約半数がスマートフォンと推定されています。↩