ITmedia NEWS > 製品動向 >
ITmedia AI+ AI活用のいまが分かる

新型iPhone、4機種を先行レビュー ボディ、発熱、バッテリーなど試して分かった“共通の設計思想“とは(4/4 ページ)

» 2025年09月17日 21時00分 公開
[西田宗千佳ITmedia]
前のページへ 1|2|3|4       

「ライブ翻訳」は“使い物”になるのか?

 iOS 26の新機能であり、翻訳処理はiPhoneの中のApple Intelligenceが行う。AirPodsと連動し、相手の声をAirPodsのマイクで聞き取ってiPhoneが翻訳している。新機種のAirPods Pro 3だけでなく、AirPods 4やAirPods Pro 2でも動作する。

iOS 26で搭載される「ライブ翻訳」。現状では日本語には未対応だが、年内に追加予定
iOS 26で搭載される「ライブ翻訳」。現状では日本語には未対応だが、年内に追加予定

 AirPodsが必須となっている理由は、翻訳する相手の声を正確に取り込むため、AirPodsの備えるモーションセンサーを使っているからだ。頭の向きから正面を把握、その方向にいる人の声を中心に翻訳する。だから、複数人がいる場合であっても、顔をそちらに向けることで「その人の話を中心に翻訳」できる仕組みなのだ。単に音をやりとりするのではなく、そういう細かな制御をiPhoneとの間で行う関係から、AirPodsの利用が必須となっている。また、周囲の音を取り込む「外音取り込み」機能も必須。この制御が改善されているので、新機種のAirPods Pro 3ではもっとも体験が良くなる。

新製品「AirPods Pro 3」。AirPods Pro 2よりも音質が大幅に強化され、心拍数センサーも内蔵

 現状、ライブ翻訳は英語・スペイン語などでの対応が先行しており、日本語での対応は年内になる。

 今回、Appleでの取材中、日本語でのライブ翻訳も体験できた。翻訳の精度は100%ではなく、人間の同時通訳の方がもちろんクオリティは高い。だが、ほとんどの会話を数秒以内のラグで翻訳できており、かなり有用な機能だと感じた。イメージとしては、テレビのニュースなどで流れる、相手の声に翻訳が重なるボイスオーバーという手法に近い。Apple Intelligence対応の機種であれば、これがソフトウエアのアップデートだけで実現でき、利用もずっと無料であるのは大きい。翻訳アプリなどを作っている企業にとっては、かなり強力なライバルになるだろう。

 こうしたAI機能が増えていくなら、性能はもっと必要になる。そこで、発熱や動作時間のリスクを避けていくことも大切だ。

 今回のiPhone発表では、AIの話はライブ翻訳くらいしか出てこなかった。しかし、実機とライブ翻訳の組み合わせを見ると、実は今年のiPhoneが相当にApple Intelligenceの活用を意識した製品であるのがわかる。

 ハードの設計と準備には長い期間が必要だが、Appleはまさに今後を見越して、設計変更という準備を進めていたということだろう。

【追記:2025年9月18日午前0時】各種ベンチマーク結果を追記しました。

前のページへ 1|2|3|4       

Copyright © ITmedia, Inc. All Rights Reserved.

アイティメディアからのお知らせ

あなたにおすすめの記事PR