検索
コラム

今年のiPhoneは「薄い」だけじゃない 実機に触れて分かった“Appleの戦略“と”隠れたAI”とは?(4/4 ページ)

今年も米Appleが新製品群を発表した。当然ながら、注目は薄型の「iPhone Air」だろう。だが、それ以外からもAppleの戦略は色々見えてくる。今回出たものを現地で触りつつ、「出なかったもの」も考えながら、今のAppleの戦略を分析してみたい。

Share
Tweet
LINE
Hatena
前のページへ |       

「AirPods」と「ライブ翻訳」の意味を整理する

 今回の発表で、Appleは「AI」の話をあまりしなかった。他のスマホメーカー、特に米Googleや韓国Samsungが「AI」推しであるのとは対照的と言える。

 「Siri」の「AI」による強化が延期されており、「Apple Intelligence」の変化をまだ語れないという、世知辛い事情はあるだろう。

 一方で、その状況を逆手に取りつつ、「まだAIでの遅れで慌てる時ではない」と言いたいのかもしれない。確かに、10人中10人とは言わないまでも、10人中5人がスマホを買い替えたくなるような「スマホにおけるAIのキラー機能」が見つかっているわけではない。

 そんな状況の中でアピールされたのが「AirPods Pro 3」を使った「ライブ翻訳」だ。


「iOS 26」との連携で「ライブ翻訳」に対応。日本語では年内利用可能になる予定

 この機能は、違う言語を話している人同士が、iPhoneのオンデバイス翻訳機能を使って話すためのもの。2人ともiPhoneと「AirPods」をつけていれば音声同士で、自分だけがつけている場合には「相手にiPhoneを見せて」翻訳をする。


2人がiPhoneと「AirPods」をつけていれば相互に「ライブ翻訳」

自分だけが「AirPods」をつけている場合、相手にはiPhoneを見せて翻訳結果を表示

 「AirPods Pro 3」発表の中で紹介されたものの、「AirPods Pro 3」に依存した機能ではなく、 「AirPods Pro 2」や「AirPods 4」でも使える。どちらかといえば、「iOS 26」の「Apple Intelligence」を使った機能なのだ。


「AirPods Pro 3」。実は「ライブ翻訳」自体は「AirPods Pro 3」でなければ使えない、というものではない

 なお、「ライブ翻訳」は9月の段階では日本語では使えないものの、年内には日本語対応のアップデートが行われる予定だという。

 では「AirPods」以外で使えるか......というとそうではないようだ。というのは、相手の声に翻訳音声を重ねるので、両方が「フルのボリューム」だと聞こえづらい。そこで、周囲の音を聞きつつ相手の声を少し小さくして、翻訳音声は聞きやすいボリュームを維持する仕組みになっている。要はテレビでよく見る「同時通訳」のイメージだ。

 イヤフォンのマイクから音を拾いつつ、そういう細かい制御をするには自社製品同士の連携の方がやりやすい。「製品連携」をウリとするAppleとしては、その部分もまた差別化要因としたいのだろう。

Copyright © ITmedia, Inc. All Rights Reserved.

前のページへ |       
ページトップに戻る