Appleがなぜ今 Dolby VisionカメラをiPhone 12に搭載するのか?

Appleがなぜ今 Dolby VisionカメラをiPhone 12に搭載するのか?

iMoreでRene Ritchie氏が、「なぜ今?」なのかを解説しています

数年前、AppleのWorld Wide Developer Conference (WWDC) で、Ritchie氏はDolbyの新しいVisionシステムを見に招かれました

そこでは、『スター・ウォーズ:最後のジェダイ』の予告編を4Kと1080pの両方で見せてくれました、4KはSDR(標準的なダイナミックレンジ)で、1080はHDR(ハイダイナミックレンジ)でした

1080p HDRは4K SDRをはるかに超えていました

有毒スペック症候群

AppleがiPhone XRを発表したときにも似たようなものを目にしたし、テクノロジーおたくが「2018年は1080pでさえない」と顔をしかめたときに、似たようなことを見ました、その後, おそらく, iPhone 11が2019年に同じディスプレイを維持したときに、さらに顔をしかめました

しかし、両方ともそれぞれの年に最も売れた携帯電話になりました、なぜでしょうか?

一般大衆や主流の消費者が愚かだからではなく、全体的に見て、彼らはどのテクノロジーおたくよりもずっと賢い

なぜなら、彼らはスーパーテクノロジーおたくと同じことを本質的に理解していたからです

非常に高密度にすることができますが、それが粗悪なピクセルであれば、時間と材料の浪費にしかなりません

量と質

Dolby Vision 00001 z
Appleは何年も前からこのことを理解しています

特定のサイズと距離で十分な密度に達すると、AppleはRetinaと呼んでいますが、人間の目は個々のピクセルを区別できないため、さらに詰め込むのは、無駄です

そこで、液晶ディスプレイのRetinaを2倍、OLEDを3倍にしてから、均一性、カラーマネージメント、広色域など、他の機能も追加しました

Dolbyもそれを理解していました、そこで、単にピクセルを増やすだけでなく、より良いピクセルを作ることにも取り組みました

この場合、密度が十分に高くなると、ダイナミックレンジにも取り組みました、どれだけ深くてインクのような黒を作ることができるか、明るくて細かい白を維持できるか、どれだけ広くそしてその間にあるすべての色、豊かな赤、生き生きとした緑を表示することができるのか

HDR10 対 Dolby Vision

Dolby Vision 00005 z
世の中にはいくつかのHDR規格があります

HDR 10がデフォルトです、これはオープンスタンダードであり、ボックスをチェックしたい人は誰でもサポートしているものです

HDR10の問題点は、映像全体を一度に最適化してしまうことです、つまり、一部のシーンが暗くなったり明るくなったりすると、特に著しく暗くなっている場合、HDR10はそのようなシーンに最適化してもうまくいかないということで、基本的に、より低い一般的なハイダイナミックレンジ分母が得られます

Dolby Visionはメタデータを動的にエンコードするので、シーンがシフトすると、メタデータもシフトします、その結果、ビデオだけでなく、ビデオ全体でより良い表現を得ることができます

これは、標準的なバッチフィルターを一度にすべての写真に適用するのではなく、一日の間に撮影したすべての写真を、それぞれの写真のニーズに合わせて個別に微調整するようなものです

なぜ今なのか?

Dolby Vision 00004 z
では、Dolby Visionがそんなに素晴らしいなら、なぜすべての人がDolby Visionを使わないのでしょうか?

まず、Dolbyからライセンスを取得しなければならず、それにはお金がかかります、そのため、一部の企業ではHDR10を使用しているか、より新しく、より優れた、自由にライセンスを取得できるHDR10+を使用しています

次に、それを計算する必要があります、これは、特別なカメラ、多くの場合、二重露光、およびそれをまとめて出力するための強力な編集リグを必要としていました

今、Appleは電話でそれを行っています、そして10ビットで、ほとんどのカメラは8ビットで記録します

ビデオを10ビットで録画する(RAWは通常12+ビットです)、これは動画のデータ量が増えることを意味するので、ホワイトバランスや露出、彩度を補正する必要がある場合は、より多くのデータを処理する必要があります

これだけ大量のデータを処理するのは至難の業ですが、iPhone 12はそれを処理することができます

A14 Bionic System-on-a-chip(SoC)のおかげで、カメラセンサーからすべてのデータを取り出して処理し、Dolby Visionメタデータを追加し、リアルタイムで保存することができます、リアルタイムにです!

Appleがそれを可能にするコンピューティングエンジンを持つのは初めてのことです

さらにAppleは、素材を編集したり、フィルタを適用したり、Dolby Visionのデータをその場で再計算したりできるようにしています

iPhone 12 対 iPhone 12 Pro

Dolby Vision 00003 z
残念ながら、AppleはすべてのDolby Visionサポートを平等に実装しているわけではありません

iPhone 12とiPhone 12 Proモデルのメモリの違いのせいか、前者はDolby Vision 4Kの30fpsに制限されており、後者はDolby Vision 4Kの60psに対応しています

つまり、驚くほど滑らかな動画を再生したり、後で編集するときにリタイムで、さらに信じられないほど滑らかな50%または40%のスローモーションを再生することができます

SDRの世界におけるHDR

しかし、これはまだ最先端のものであり、いくつかの欠点があります

Dolby Visionで撮影したゴージャスなビデオは、iPhoneやAndroidのHDRディスプレイでしか見ることができないかもしれません、良質のHDRテレビを持っていれば、そこでも映すことができるかもしれません

しかし、多くのサービスやデバイスでは、HDRコンテンツを非HDRディスプレイにレンダリングする際にまだ問題があります、例えば、HDR動画をYouTubeにアップロードして、誰かがそれをSDRで見ようとすると、結果は本当に悪いものになってしまいます

移行へのプッシュ

希望としては、これがAppleのもう一つのケースになることを期待しています、Appleの大規模なスケールでiMacでUSBを使ったり、iPhoneでマルチタッチをしたり、AirPodsを作り最先端のテクノロジーを前進させたように

その結果、誰もが、特にYouTubeは、簡単に高解像度を処理できるように、高ダイナミックレンジの処理方法を考え出すことになるでしょう

Dolby Visionのカメラを何十万人の人の手に渡ることによって、AppleがHDRをうまく機能させることを願っています

(Via iMore.)


LEAVE A REPLY

*
*
* (公開されません)