「絵と音」から「視覚と聴覚」へ
AVFoundationはQuickTime/QTKitの後継といえる存在だが、それだけでは語れない。QuickTime/QTKitといえば「絵と音」だったが、AVFoundationは「+α」部分の存在感がより大きい。実際、iOS 3.xまでのAVFoundationはオーディオ専用APIに近い存在だったが、iOS 4以降急激にその機能を増やしている。
たとえば、カメラ関連機能もAVFoundationに含まれる。以前はUIKitに含まれるUIImagePickerControllerクラスを使い写真や動画を撮影していたものだが、iOS 4以降はAVFoundationに含まれるクラス(AVCaptureStillImageOutputなど)を使うアプリが増えた。撮影中の映像の上に別のビューを重ねるなど、拡張性ある処理が比較的容易に実現できるからだ。
音声合成機能もAVFoundationでサポートされる。iOS 7で追加された「AVSpeech Synthesizer」はTTS(Text To Speech)の一種で、文字列から音声を合成するほか、その制御と監視を行なう機能を提供する。まだ数は少なく、単語を区切る位置の検出や抑揚の付け方など改良の余地は残るが、今後音声合成機能を備えたアプリの数が増えることは確かだろう。
AVFoundationで強化される機能/分野に注目
Core Media系フレームワークの1つとして登場したAVFoundationだが、今後さらに機能が拡張され重要性を増すのでは、と筆者はみている。それはiOSデバイスとMacの両方にとって「絵と音」が引き続き重要であり、特に革新が求められる分野だからだ。
順当な機能としては、新しいビデオコーデックのサポートだろうか。当コラム第138回「高効率ビデオコーデックとApple製品の関係を読む」でも書いているが、Retinaディスプレイの採用など高精細化路線を先導するAppleのこと、H.264/AVCの約2倍という圧縮率を実現する「H.265/HEVC」のサポートは既定路線と思える。
カメラ周りの機能も要注目だ。Appleは高性能イメージセンサーの採用や光学式手ぶれ補正(先日特許申請が判明した)など、ハードウェアとしてのカメラの強化に余念ないが、撮影直後に写真を加工するなどソフトウェアレベルでの機能も強化している。実際、撮影と同時にフィルタ処理を行なうカメラアプリの多くは、AVFoundationのAVCaptureVideoDataOutputクラスを使用していると思われる。iOSらしさを感じさせる機能でもあり、そのフィルタのバリエーションを増やそうとすることも頷ける。
このように、AVFoundationは単純な「絵と音」から「視覚と聴覚に関連すること全般」へと対象範囲を広げつつある。iOSとOS Xのエクスペリエンスに直結する機能群であり、数ヵ月後のWWDC発表が予想される「iOS 8」でもその動向は注目だ。
この連載の記事
-
第187回
iPhone
NFCの世界を一変させる!? iOS 11「Core NFC」の提供開始が意味するもの -
第186回
iPhone
Appleと「4K HDR」 - iOS 11で写真/動画を変える「HEIF」と「HEVC」 -
第185回
iPhone
iPhone 7搭載の「A10 Fusion」「W1」は何を変えるか -
第184回
iPhone
オープンソース化された「PowerShell」をMacで使う -
第183回
iPhone
アップル製デバイス連携の鍵、「Continuity」とは? -
第182回
iPhone
DCI-P3準拠へと歩むiPhone/iPad - WWDC基調講演で秘められた新技術は、ここにある(2) -
第181回
iPhone
WWDC基調講演で秘められた新技術は、ここにある(1) -
第180回
iPhone
WWDC直前、買い替え前にマイMacのココをチェック -
第179回
iPhone
私がiTunesを使わなくなった5つの理由 -
第178回
iPhone
今あえてiPhone「Live Photos」を知る -
第177回
iPhone
「Windows Subsystem for Linux」はOS Xのライバルとなるか? - この連載の一覧へ