Appleの開発者向け会議「WWDC21」で新製品を期待していた人にとって、現地時間の6月7日に開催された基調講演は肩透かしだったかもしれない。なにしろハードウェアの新製品は1モデルも発表されなかったのだ。
もっとも、基調講演でのデモはあらかじめ録画・編集された映像ということもあり、実に緻密でAppleの戦略の力強さをあらためて感じさせるものだった。
ご存じの通り、WWDC(Worldwide Developers Conference)とはAppleが年末に向けてリリースする各OSの新バージョンに対して、開発者がアプリケーションを最適化するための情報やツールを提供するのが目的のイベントで、製品戦略を発表する場ではない。
しかし注意深く各OS(iOS、iPadOS、macOS、watchOS、tvOS)の改良点をチェックしてみると、そこにはAppleの緻密な戦略が浮かび上がってくる。
各OSの改良点について掘り下げるのはパブリックβ版が配布される来月を待つこととして、今回は一歩引いて全体を見渡してWWDC21の基調講演で発表された内容を振り返ってみよう。
今回のWWDC基調講演では、あらためてAppleが独自のSoC(System on a Chip)、つまりApple SiliconへとMacを含めて舵を切った理由について感じさせられることがあった。
今月、アプリのアップデートでハイレゾ、ロスレス、Dolby Atmosへの対応が始まるApple Musicだが、Dolby Atmosで作られた立体音響の楽曲を再生するため、Appleは自社(および子会社のBeats)で販売するイヤフォン、ヘッドフォンで立体音響を仮想的に再現する機能を提供している。
この仮想立体音響技術は「空間オーディオ」と呼ばれ、AirPods ProやAirPods Maxで映像作品を楽しむ際に利用できていたので体験済みの方も多いと思う。端末の方向を識別して立体的な音場が画面と遊離せずに楽しめるため、従来のどの仮想サラウンドシステムよりも自然な体験となるが、驚くべきは仮想立体音響の再現性の高さだ。
再現性の高さの源は、Apple Siliconに搭載されている信号処理機能である。iPhone向けに開発された大規模なSoCが持つ機能とソフトウェア技術を組み合わせて初めて実現できたというわけだ。
先日発売された24インチiMacは映像をDolby Atmosで再生する際に空間オーディオをサポートしているが、今回のWWDCではmacOSの次期バージョン「macOS Monterey」で他のM1搭載MacでもAirPods ProやAirPods Maxと組み合わせて空間オーディオを利用可能になることが明らかになった。
Intel Macでサポートできないのは、Apple Siliconの音響処理用DSP(Digital Signal Processor)の能力に空間オーディオ技術が依存していることを示すものだ。
これまでも内蔵マイクと内蔵カメラの信号処理でApple Siliconに組み込んだ機能を活用していたが、空間オーディオもその一部ということだろう。
そして、その空間オーディオを活用する手段として、映像作品のサラウンド体験だけではなく、音楽のミックスを立体的に行うコンテンツに広げることで、一気にApple Siliconを搭載する自社製品全体の商品性向上につなげてみせたわけだ。
もともと、ハードウェアとソフトウェア(主にOS)をすり合わせて価値を高めるという手法はAppleのお家芸でもあるが、最近はそこにサービスが加わっていた。そしてさらにそのすり合わせの範囲が、SoCの設計段階にまで及んでいることが明確になってきたのは興味深い。
このような事例は、Siriの音声認識や翻訳機能のオンデバイス処理をサポートするため、ローエンド製品も含めて現行機をA12 Bionic以上のSoCに統一したところからもみて取れる。
Copyright © ITmedia, Inc. All Rights Reserved.