さとうたくや / n-s-lab 2023/01/17 23:25

iPhone13Proを買ったはなし(全編公開)

https://twitter.com/n_s_lab_tokyo/status/1604265360856739840?s=20&t=6o9m8byP32ej2UE6ZxiLtw

というわけで、ついにiPhoneを買いました。
理由はいろいろだけど、
写真・映像系の制作ツールを増やしたいが、
新しいカメラを買うほどではないなと思ったところが大きい。
(あと今使ってる安物スマホがしょっちゅう電波途切れる)


せっかく買ったので
主にカメラ周りの機能を中心に、iPhone13の実力を僕なりに掘り下げて記録していきます。

写真撮影について

色んな人がいろんなレビューしているので焼き増しでしかないけれど
あらためていろいろ比較してみた。

https://twitter.com/n_s_lab_tokyo/status/1604850732423065600?s=20&t=6o9m8byP32ej2UE6ZxiLtw

https://twitter.com/n_s_lab_tokyo/status/1604850738290896899?s=20&t=6o9m8byP32ej2UE6ZxiLtw

iPhoneの画素数は12MPということで
いまどきのデジカメとしては少し少な目な印象はあり、
ぶっちゃけ僕としては「iPhoneはカメラが良いっていうけどそこまでじゃねぇな」
という感じでしたが

暗所撮影も比べてみるとその差は歴然で
不自然なノイズ処理とかも少なく、暗所でも無理せず撮影している感じがして
「なるほどこれは確かに扱いやすい」と思いました。

https://twitter.com/n_s_lab_tokyo/status/1604850740568412160?s=20&t=6o9m8byP32ej2UE6ZxiLtw

https://twitter.com/n_s_lab_tokyo/status/1604850745618337792?s=20&t=6o9m8byP32ej2UE6ZxiLtw

とにかく設定を気にせず自動でバシバシ取れるのと
端末のスペックを使った補正のセンスがいい。
超広角・広角・望遠とどのレンズでも画質が同じ12MPなので
その処理能力も使って画質への影響少な目にシームレスにズームができる。

iPhoneのカメラは画質が良いんじゃなくて、いい写真が簡単に撮れるカメラなのだ

比較のためミラーレスも出してみたが、
設定になれればミラーレス一眼のほうが確実に良い写真はとれる。

でもスキルは必要だよなぁと改めて思いました。
写真撮影に対するコスパが高いのがiPhone。


あと、ポートレートモード。
こう、一眼を使う人間にとっては、機械的にボケを作るお遊び機能みたいな印象あると思うんですが
ボケを作ることを目的とすると確かにそうなんだけど
iPhoneのポートレートモードは、Lidarを利用して深度マップが作られるのが非常に面白い。

https://twitter.com/n_s_lab_tokyo/status/1604853794768314368?s=20&t=6o9m8byP32ej2UE6ZxiLtw

これは同じ写真に対して、
あとから照明の位置を変えて2パターン出力した画像。

後から照明の位置を変えるというわけのわからないワードが飛び出しましたが
それを可能にするのが、Lidarで取得する深度情報ってことです。

iPhone 13 Pro にはLidarセンサーという
赤外線レーザーによる3Dスキャンの機能があります。

こんな感じに、写真に対して立体的な位置情報を付与してくれるので
後から「照明をこの辺に置いてみよう」とやったときに
立体的に影や照明の反射を再現することができるのです。

こんな感じの僕の自宅のマイクも


あっという間にライブハウスのマイクですよ。
(カラフルな照明をあてて、背景を暗くした)

Lidarセンサーとカメラを組み合わせた機材でないとこういう加工は難しいので、
iPhone以外だと本当に専門的な機材でないと再現できない技術ですね。

Lidarと3Dスキャン

Lidarがiphoneについた時からずっと気になってたんですが、
LidarセンサーがついているのがiPhone12以降のProシリーズだけなんですよね。
だから13Proを選んだわけです。

さっきの写真はその写真に対しての深度マップでしたが、
加速度計や移動量推量の計算を組み合わせることで
複数角度からスキャンすることで、3Dデータとして物体をスキャンできます。

これはスタジオでざっくりスキャンしたドラムセット。
(まだ慣れてないからシンバルとかで穴がある・・・)

こうしたデータは深度情報と実際の写真のテクスチャを合成して
色々処理を通して作る必要があるんですが

あとはスキャンしたポイントの色だけを記録した点描データというのがあって、
こちらはかなり簡単に作成できるので、広範囲の3Dデータを録る時とかは便利そうです。


これは新宿の思い出横丁を歩きながら点描スキャンしたデータ。


拡大するとこんな感じで点描されているのがわかりますが
大きな文字とかはかろうじて読めるくらいの解像感ですね。

こう、世界をデータ化するっていうのは
マトリックスとかSAOてきなSF世界の技術感があってわくわくしますよね!!

もうちょっと練習してきれいな3Dデータを作れるようになってみたいところ。

映像撮影

iPhoneに一番期待してたポイントでした。

iPhoneの動画撮影は近年の映画撮影や番組制作でも使われていると話題ですね。

iPhone12ではなく13Proにしたのもここが理由で、
13から「シネマティックモード」という、後からフォーカス位置を変更する機能が追加されたんです。
動画でこれが出来る筐体は多分iPhoneくらいで、iPhone13の目玉機能の一つだった記憶です。

https://twitter.com/n_s_lab_tokyo/status/1605192980939567104?s=20&t=lBjGe-d5fx61FR4H4nzCcw

ということで、撮影してみた動画がこれ。
ピントの移動全然してなくてわかりづらいですがw

実際触ってみると意外と面倒なのと、
普段の撮影でそんなにぼかした動画が必要になることないよねってことに気づきます。

被写体がある動画、友達や恋人を録ったり、PVを撮影するなら有用そうですね。


あとは、iPhoneは動画撮影時にHDR撮影が可能なんです。
4K60fpsHDRという凄まじい画質で動画が撮影できる機材です。

これって普通にビデオカメラでも10万円超えるような機材でしか
実現してない撮影スペックなんですよね。


……ではあるんですが
HDR動画の扱いは難しい。。。。

https://twitter.com/n_s_lab_tokyo/status/1604812428222820352?s=20&t=lBjGe-d5fx61FR4H4nzCcw

出だしで1時間つまずいた。
HDR動画をHDR動画として転送するには、この設定を切らないといけない。

ちなみに、iPhoneから直接YoutubeにアップロードしてもHDR動画にはならなかった

先ほどの設定を切ったうえで、
iPhoneから転送した動画をそのままアップロードすれば、
YoutubeはHDR動画としてエンコードしてくれます。

その後いろいろ試した結果としては

PremireProでProres422コーデックとして書き出した動画はまずHDRとしてYoutubeでエンコードされるが、ほぼ非圧縮なのでファイルサイズがデカすぎ。

というわけで圧縮コーデックでなんとかHDRにならないかいろいろ試した結果
以下のような設定でYoutubeにHDR動画をアップロードできました。


形式:HEVC(H265)
基本ビデオ設定
	最大深度に合わせてレンダリング:チェックを入れる
エンコード設定
	プロファイル:メイン10
    カラースペースを書き出し:Rec.2100HLG
    HDR10メタデータを含める:チェックを入れる
    カラープライマリ:Rec2020

そんな設定を駆使した
4K60fpsHDR撮影したライブ動画です。

https://youtu.be/6HmPzYJNkHc

HDR対応ディスプレイとブラウザで再生すると
画質設定にHDRオプションが出てくると思います。
(最近のiphoneならたぶん対応してます)


めちゃくちゃ画質が良い…!!

この記事が良かったらチップを贈って支援しましょう!

チップを贈るにはユーザー登録が必要です。チップについてはこちら

記事のタグから探す

月別アーカイブ

記事を検索