コラム
» 2018年10月17日 17時00分 公開

iPhoneで広まる新時代のAIアプリを林信行が解説 (1/3)

手術中の出血量やバスケットボールのシュート角度など、これまで人が勘に頼っていた部分を数値として補完してくれる新しいアプリの登場が期待されている。「A12 bionic」と「CoreML」で世界はどう変わるのか。

[林信行,ITmedia]

 「良いテクノロジー」とは、あらかじめ全てをお膳立てするのではなく、シンプルで余白やのびしろが大きいものだと筆者は思う。その余白があるからこそ、それまで誰も想像していなかったような未来が生まれてくる。

 iPhoneは登場以来、見た目も標準機能もとりわけシンプルなのが特徴だ。だからこそ、本当に多種多様な革新的アプリを生み出し、家庭やオフィスはもちろん、農林水産業や製造業、サービス業、さらにはアートや教育の世界にまで大きな変化をもたらしてきた。

 年に1回のモデルチェンジも、その表層だけを見ると、動作が速くなってカメラがよくなっただけに見える。しかし、これはAppleが仕事をサボっているわけではなく、派手な変更の代わりに、細かい部分での洗練や、未来への進化の種をしっかりと植え付けることに力を割いているからだ。

 この秋登場したiPhone XSシリーズやiPhone XRも、より地球に優しい製造を行った上で、機械学習(広義でいうAI)の処理能力が9倍近く向上し、新世代のアプリを作りやすくしたことが最大の特徴だろう(AI時代に向けたこれからのiPhone――林信行の「iPhone XS」「iPhone XS Max」実機レビュー)。

 では、その新世代アプリとはどんなもので、iPhoneの使い方をどう変えてくれるのだろうか? Appleが選出した2つのアプリを通して、新世代アプリの可能性を少しだけ垣間見ていこう。

iPhoneが変えていく私たちの風景

 2013年に世界的話題となった下のInstagram写真を見るまでもなく、2007年にiPhoneが登場し、Androidが登場し、翌年、それが日本でも発売され、2010年にiPadが出ると、世界の風景は大きく変わった。

 今、最新テクノロジーが再び世の中を大きく変えようとしている。もっとも、見た目の違いでいえば、上の2枚の写真ほど劇的な変化はないかもしれない。風景的には、2013年の写真で掲げられたデバイスの画面が少しずつ大きくなっているくらいだろう。

 それでは一体何が変わるのか。それは彼らが掲げたスマホやタブレットの中にあるアプリの質や動作の根本が変わり、これまでとは段違いの「賢さ」が身につくということだ。

 昨今、Webやテレビで話題となってきた「AI(人工知能)」事例のほとんどは、機械学習(Machine Learning)という技術の成果を形にしたものである。AIという言葉があまりにも乱用されたため、最近、IBMやMicrosoftといった古株会社は「Cognitive(認識)」という言葉を使い始めているが、これは機械学習が、何かを認識することに用いられることが多いからだ。

 実際、近ごろ急速に精度が上がった音声認識や手書き文字認識、顔認識などは機械学習の代表的成果といえよう。実はみなさんが普段から何げなく使っているiPhoneも、カメラを何かに向けただけで、人の顔がどこにあるかを認識してできるだけ大勢に焦点が合うように調整してくれる。また、撮影した写真の中に、これまで撮影したことのある顔があれば、それを認識して「写真」アプリの「ピープル」という欄に自動的に仕分けしてくれる。

 さらには、それぞれの人の目鼻といった特徴点がどこにあるかを認識し、最新iOS 12ではMemojiの顔アニメーションで置き換えて見せたり、バーコードやQRコードを見つければ、即座にリンク先を通知で教えてくれたり、写真に四角形が写っていれば形がゆがんでいようともその形状を認識してくれる。

 最後に挙げた四角形の認識は、「メモ」アプリの「書類をスキャン」という機能で使われており、この機能を通して領収書などの書類をカメラで撮影すると、多少斜めから撮った写真でもスキャンした書類のようにきちんと補正して保存してくれる。

 iPhoneのハードウェアには、A11 bionicやA12 bionicといった機械学習が得意な新世代のチップが搭載されており、iPhoneのOSにはCoreMLというMachine Learning(機械学習)処理のための基盤が組み込まれている。このように、ハードウェアとソフトウェアの両面から設計された機械学習の仕組みを使って、今後は新世代の、いわば“AIアプリ”が続々と登場するはずだ。

語学学習アプリ「Memrise」

 例えば、「Memrise」という語学学習アプリは、CoreMLを使って、カメラを向けた先に写っている物体が何であるかを認識した上で、それを指定した言語に翻訳してくれる機能を新たに搭載している。部屋が多少、汚れていても気にせず、身の回りのものを撮影して、語学学習を楽しむことができる。

 ちなみに、これまでこうした画像認識などの処理は、一度、どこかにあるクラウドのサーバにデータを転送して処理する必要があったため、万が一、(カメラに映った)自宅の様子や恥ずかしい顔がのぞかれていたら、と心配する人もいたが、iPhoneにおける機械学習の処理は、特にことわりがなければ基本的に全てiPhoneの中だけで行われ、データが外に出ることはない。プライバシーの侵害を恐れず使えるのも特徴だ。

 それではここで、Appleが数あるCoreMLを使ったアプリの中から選出して、基調講演で紹介した「HomeCourt」と、6月のWWDCで開催されたApple Design Award 2018を受賞した「Triton Sponge」の2つを紹介しよう。

       1|2|3 次のページへ

Copyright © ITmedia, Inc. All Rights Reserved.

この記事が気に入ったら
ITmedia PC USER に「いいね!」しよう