「コロナ禍への対応」「機械学習の活用」「デバイス連携の深化」――3つのキーワードで見るAppleの新OS石野純也のMobile Eye(2/3 ページ)

» 2021年06月12日 06時00分 公開
[石野純也ITmedia]

機械学習をフル活用、デバイス上で完結する機能を多数搭載

 変化したライフスタイルに対応する新機能は目を引くが、Appleの戦略的により重要性が高いのは、機械学習を活用した機能の広がっていることだ。Appleは、自社開発のプロセッサをiPhoneやiPad、Macに搭載し、デバイス上での機械学習の処理能力を年々向上させている。特に「iPhone X」の登場以降、その傾向は顕著になった。とはいえ、単に処理能力が高いだけでは宝の持ち腐れになってしまう。土台である処理能力を生かし、どのような機能を実現できるかは重要なポイントだ。

 プロセッサと端末、さらにはOSやOSの上で動くソフトウェアまでを一気通貫で手掛けているAppleは、スペックにバラつきが大きいAndroidより、この点で優位に立ちやすい。ユーザーに対してメリットを提示しやすいのは、垂直統合の強みといえる。WWDCで発表された新しいOSを見ると、以前よりも機械学習の活用が進んでいる印象を受けた。その証拠に、iOS 15やiPadOS 15には、「オンデバイスインテリジェンス」を使った新機能の数々が搭載されている。

WWDC Neural Engineの採用により、機械学習の処理が端末上で完結するようになった。その性能は、年々向上している

 代表的なのは、オンデバイスでのSiriだ。もともと、Siriはクラウド上でユーザーの声を分析し、発話された内容をもとに回答を返していたが、iOS 15やiPadOS 15では、この処理を端末内部で完結できるようになる。メリットは、プライバシーの強化だ。クラウドで処理しているからといって、Appleがデータを保存したり、中身を見たりしているわけではないため、必要以上に不安視する必要はないが、端末内部で処理されれば安心感はより高まる。電波の状況が悪いときや、フライトモードに設定しているときに利用できるのも、利点の1つ。クラウドを介さないことでレスポンスの向上も期待できる。

WWDC ローカルで処理が完結するため、プライバシーが保たれる上に、スピードがネットワークに依存しなくなるのが特徴だ

 カメラで撮った文字を認識してテキストとして利用できる「ライブテキスト」も、機械学習をフル活用した機能だ。基調講演で、看板を撮った写真からそのままお店に電話する様子がコミカルな調子で披露されたように、翻訳やネット検索など、さまざまな機能と写真が有機的につながるのが、ライブテキストのメリットだ。残念ながらOS公開時には日本語には未対応だが、2020年のWWDCで発表されたiPadOS 14の「スクリブル」が2021年のiPadOS 15で対応するなど、新機能のローカライズは徐々に進められているため、ライブテキストも今後利用できるようになる可能性は高い。

WWDC
WWDC 写真からテキストを抽出できるライブテキスト。これも、端末上の機械学習で実現した機能の1つだ

 他にも、通知のサマリーを作成したり、FaceTimeでバックグラウンドのノイズをカットしたりと、iOS 15やiPadOS 15では、さまざまな場所に機械学習が活用されている。こうした機能をデバイス上で実現でき、かつ適用される端末の範囲が広いのは、Appleならでは。iPhone X発表時に、Appleフェロー(当時はワールドワイドマーケティング担当上級副社長)のフィル・シラー氏は「iPhoneの次の10年の始まり」と述べていたが、3年半が過ぎ、その全体像が徐々に明らかになってきていることがうかがえる。

WWDC
WWDC 通知のサマリーやFaceTimeのノイズキャンセリングにも、機械学習が活用されている

Copyright © ITmedia, Inc. All Rights Reserved.

アクセストップ10

2024年03月29日 更新
最新トピックスPR

過去記事カレンダー

2024年