織井氏が「アンビエントコンピューティング(※)なくして、3つ(ハードウェア、ソフトウェア、AI)を融合させることはできない」と語ったように、Pixel 4、4 XLは、ユーザーが自然に使えるような工夫も盛り込まれた。「これらをつなぐ架け橋となるのが、Googleアシスタント」だ。発売時点では未対応だが、2モデルに合わせ、Googleアシスタントもアップデートされる予定。デザインがより、ユーザーインタフェースに溶け込んだ形になるのと同時に、端末のパフォーマンスを生かし、クラウドを使わず処理できる動作も増えるという。
確かに、アプリのアイコンがホーム画面にズラリと並び、ユーザーがそれを選んで操作するのは、織井氏が「スマートフォンが中心でその周りに皆さんがいる」と表現したように、決して自然な流れとはいえない。手に取って端末を握り、やりたいことや知りたいことを人に向かって話すのと同じようにスマートフォンを使えた方が、「自然な形で情報を届けることができる」(同)といえる。
電波法の整備が済んでおらず、提供が2020年春になってしまったモーションセンスも、アンビエントコンピューティングを実現するための要素の1つといえる。この機能がオンになると、Pixel 4、4 XLはユーザーの手が近づいたことを認識。先回りして顔認証を起動させておき、より素早く画面のロックを解除できるようになる。音楽再生やアラーム、通話などの各種操作にも利用可能で、端末を手に取れないときでも、自然な形で操作できる。
応用例がまだまだ少なく、主体的にスマートフォンを操作する場面で頻繁に利用するか? というと疑問符もつく。実際、同様のジェスチャー操作は過去、さまざまなスマートフォンが実験的に取り入れてきたが、精度がいまひとつだったことも災いして、本格的には普及していない。Googleのモーションセンスも、どこまで正確に思った通りの操作ができるのかは未知数だ。
一方で、Googleは音声だけでなく、空間の手の動きを検知して、ユーザー中心の操作体系を作り上げようとしていることをモーションセンスで明確化した。ハードウェアという器を作ったのは、ここにさまざまな機能を投入していく準備にも見える。
Pixel 4、4 XLに限った話ではないが、デザインにもこうしたGoogleのコンセプトは反映されている。目指したのは「手に取ることができるGoogleサービス」だ。結果として、「human(人)」「optimistic(楽観的)」「daring(大胆)」という3つのキーワードを導き出し、ハードウェアの数々はこの思想の下でデザインされた。
Pixel 4、4 XLも、「人間味があって楽観的で、かつ大胆というコンセプトに基づいて設計した」(インダストリアルデザイン ディレクター マックス・ヨシモト氏)という。柔らかな曲線を用いていたり、ガラスを使いながらもサラサラとしたマットな仕上げにしたりといったところは、人間を中心に据えたアンビエントコンピューティングの思想ともマッチする。
Copyright © ITmedia, Inc. All Rights Reserved.