今回の発表で、Appleは「AI」の話をあまりしなかった。他のスマホメーカー、特に米Googleや韓国Samsungが「AI」推しであるのとは対照的と言える。
「Siri」の「AI」による強化が延期されており、「Apple Intelligence」の変化をまだ語れないという、世知辛い事情はあるだろう。
一方で、その状況を逆手に取りつつ、「まだAIでの遅れで慌てる時ではない」と言いたいのかもしれない。確かに、10人中10人とは言わないまでも、10人中5人がスマホを買い替えたくなるような「スマホにおけるAIのキラー機能」が見つかっているわけではない。
そんな状況の中でアピールされたのが「AirPods Pro 3」を使った「ライブ翻訳」だ。
この機能は、違う言語を話している人同士が、iPhoneのオンデバイス翻訳機能を使って話すためのもの。2人ともiPhoneと「AirPods」をつけていれば音声同士で、自分だけがつけている場合には「相手にiPhoneを見せて」翻訳をする。
「AirPods Pro 3」発表の中で紹介されたものの、「AirPods Pro 3」に依存した機能ではなく、 「AirPods Pro 2」や「AirPods 4」でも使える。どちらかといえば、「iOS 26」の「Apple Intelligence」を使った機能なのだ。
なお、「ライブ翻訳」は9月の段階では日本語では使えないものの、年内には日本語対応のアップデートが行われる予定だという。
では「AirPods」以外で使えるか......というとそうではないようだ。というのは、相手の声に翻訳音声を重ねるので、両方が「フルのボリューム」だと聞こえづらい。そこで、周囲の音を聞きつつ相手の声を少し小さくして、翻訳音声は聞きやすいボリュームを維持する仕組みになっている。要はテレビでよく見る「同時通訳」のイメージだ。
イヤフォンのマイクから音を拾いつつ、そういう細かい制御をするには自社製品同士の連携の方がやりやすい。「製品連携」をウリとするAppleとしては、その部分もまた差別化要因としたいのだろう。
「iPhone 16」シリーズ日本価格まとめ 前モデルと値段変わらず
「iPhone 16 Pro」発表 Maxは史上最大の6.9インチ、Proにも5倍ズーム搭載 4K120fps撮影も
ついに出たSE後継「iPhone 16e」 新廉価モデルと「16」「15」の違いは?
Appleを米司法省がiPhoneでの市場独占で提訴 Appleは「積極的に抗弁する」
そろそろ、忖度抜きで「iPhone 16e」の話をしようCopyright © ITmedia, Inc. All Rights Reserved.
Special
PR