iOS 26の新機能であり、翻訳処理はiPhoneの中のApple Intelligenceが行う。AirPodsと連動し、相手の声をAirPodsのマイクで聞き取ってiPhoneが翻訳している。新機種のAirPods Pro 3だけでなく、AirPods 4やAirPods Pro 2でも動作する。
AirPodsが必須となっている理由は、翻訳する相手の声を正確に取り込むため、AirPodsの備えるモーションセンサーを使っているからだ。頭の向きから正面を把握、その方向にいる人の声を中心に翻訳する。だから、複数人がいる場合であっても、顔をそちらに向けることで「その人の話を中心に翻訳」できる仕組みなのだ。単に音をやりとりするのではなく、そういう細かな制御をiPhoneとの間で行う関係から、AirPodsの利用が必須となっている。また、周囲の音を取り込む「外音取り込み」機能も必須。この制御が改善されているので、新機種のAirPods Pro 3ではもっとも体験が良くなる。
現状、ライブ翻訳は英語・スペイン語などでの対応が先行しており、日本語での対応は年内になる。
今回、Appleでの取材中、日本語でのライブ翻訳も体験できた。翻訳の精度は100%ではなく、人間の同時通訳の方がもちろんクオリティは高い。だが、ほとんどの会話を数秒以内のラグで翻訳できており、かなり有用な機能だと感じた。イメージとしては、テレビのニュースなどで流れる、相手の声に翻訳が重なるボイスオーバーという手法に近い。Apple Intelligence対応の機種であれば、これがソフトウエアのアップデートだけで実現でき、利用もずっと無料であるのは大きい。翻訳アプリなどを作っている企業にとっては、かなり強力なライバルになるだろう。
こうしたAI機能が増えていくなら、性能はもっと必要になる。そこで、発熱や動作時間のリスクを避けていくことも大切だ。
今回のiPhone発表では、AIの話はライブ翻訳くらいしか出てこなかった。しかし、実機とライブ翻訳の組み合わせを見ると、実は今年のiPhoneが相当にApple Intelligenceの活用を意識した製品であるのがわかる。
ハードの設計と準備には長い期間が必要だが、Appleはまさに今後を見越して、設計変更という準備を進めていたということだろう。
【追記:2025年9月18日午前0時】各種ベンチマーク結果を追記しました。
iPhone 17、日本版はSIMカードがささりません eSIMオンリーにSNSは「移行が不安」とざわつきも
今年のiPhoneは「薄い」だけじゃない 実機に触れて分かった“Appleの戦略“と”隠れたAI”とは?
「iPhone 17」以外に何が出た? Appleのオンラインイベントで発表されたハードウェアまとめ
日本でも公開された「Apple Intelligence」 キモは“要約”にあり オンデバイスAIだからできること
「Apple Intelligence」でChatGPTが使えるように iPhone・iPad・Macで、Siriから直接アクセスCopyright © ITmedia, Inc. All Rights Reserved.
Special
PR