ポートレートモードつーのは、35mm版の一眼レフで例えるなら、85〜105mmあたりの、F値が1.4とか1.8の明るめのレンズを開放値あたりで使い、グチャッとした背景を大きくぼかすことによって被写体の表情などをより強く浮かび上がらせる、そんなポートレート撮影の技法を、スマホのカメラが瞬時にシミュレートして、そんな写真を作ってくれるという機能である。iPhone 13なら(てか、2眼以降のiPhoneや各社の多眼スマホの大半は)ポートレートモードを選び、プチっとシャッターボタンをタップすると、上のノーマル写真とともに、下のような加工済み写真が保存されるというわけだ。iPhone 13の場合、なんと過去のレンズを研究して仮想のポートレートレンズを設定し、その光学特性を演算で実現しているという手の混んだものらしく、ピントだけではなく、階調表現まで違うとかいう話もある。
じゃ、なんでダメなのか。相変わらず、というのは、iPhone 12などとの比較ではなく、以前使ってたHUAWEYのP10 Plusとの比較だ。
で、P10では複眼による測距、iPhone 13では、たぶんLiDARも使った測距でより正確に被写体との距離を測ってはいるのだろうけど、やってることは、被写体との距離がずれている部分を、ソフトウェアでボカしているわけだ。なので、髪の毛や、毛羽立ったようなセーターなど、エッジ付近にあったり、距離がうまくつかめない部分が、めっちゃ不自然になっちゃうんである。ギター撮ったら、勝手にペグがぼかされて消えちゃったこともある。つまり、そのうち、髪の毛の1本、モヘアのセーターの毛羽1本まで分解して測距できるようになったらともかく、いまの時点では、そもそもコンピュータの演算で、距離が違う部分をぼかす、という手法が、ちょっと無理なんだと思う。現時点でポートレートモードが使えるのは、スキンヘッドや引っ詰め髪など、とにかくエッジがクッキリで、同一ピント面の隙間に背景が見えない人物か。それでも腕を腰に当てて、腕の形の三角の向こうに背景が見えたら、へんちくりんになっちゃうかも。ってことは、ブツ撮りくらいにしか使えないかもなー。
ただ、iPhone 13から、なんと動画撮影でもポートレートモードが使えるようになった。動画なら、そういうエッジ部分の不自然さが、かなり目立たないかもしれない。こんど撮ってみなくちゃ。しかしもー。スマホとは思えない演算速度だよなあ。