Googleとアップル「最新スマホでカメラが劇的に進化した」理由
それでも一眼レフに勝てない1つのこと2枚の写真の決定的な違い、わかりますか?
まずは、以下の2枚の写真をご覧いただきたい。
どちらもスマートフォンで、特別な工夫をせずに撮影したものだが、両者の画質には信じがたいほどの差が生まれている。

前者は2018年発売の「iPhone XS」によるもので、後者は2017年発売の「iPhone X」によるものである。
「なるほど、すごいセンサーに変わったんですね」
そう思う人もいるだろう。
だが、違うのだ。ちょっとした性能の差はあるものの、両者が使っているイメージセンサーやレンズに、ここまで劇的な表現の差を生み出す要素は含まれていない。
では、この1年間でいったい何が変わったのか?
ソフトウェアだ。それも、「俗にAIとよばれる」技術の成果によって、これほど明確な差が生じているのである。
このような写真の仕上がりの変化は、iPhoneだけで起きている現象ではない。むしろ、より劇的に、積極的に取り入れているのがGoogleだ。同社が11月に発売したスマートフォン「Pixel 3」も、AIによるカメラの画質向上を試みている。その成果も、やはり劇的だ(以下の写真参照)。

iPhone XSやPixel 3などの先進的なスマホの内部で、いったいどのような変化が生じているのだろう?
それは、「Computational Photography(演算前提の写真生成)」という発想の徹底である。
デジカメは、写真を「計算」で生み出す装置
カメラの基本的なしくみ自体は、みなさんよくご存じだろう。
レンズを通して光を集め、それを記録する。銀塩写真の時代には、フィルムなどが記録媒体として使用されていたが、デジタルカメラではその役割をセンサーが担う。
iPhone XSやPixel 3も、映像記録をセンサーが担う点では変わりないが、センサーが取り込んだ光の情報を「どう写真にするか」の部分が変わってきている。
前提となるのは、デジカメの写真は基本的に、センサーが得た映像をそのまま記録したもの「ではない」ということだ。どんなに高性能なセンサーでも、サイズや製造上の制約などもあって、完璧な情報を記録するのは難しい。ノイズが多数含まれていたり、発色に特殊な傾向をもつ被写体は少なくないからだ。
一眼レフカメラなどに使われる大型で高価なセンサーは比較的偏りが少ないものの、コンパクトデジタルカメラやスマートフォンに使われる小型センサーでは、どうしても制約が多くなる。そこで、どのデジカメでも、センサーから出たデータはまず、「イメージ・シグナル・プロセッサー(ISP)」などとよばれる演算装置で処理され、我々が目にする「映像」に加工されている。
じつは、このプロセス自体は、デジカメが誕生して以来、あまり変わっていない。意外に理解されていないが、デジカメによる写真とは、そもそも「計算処理された結果を見ている」のであって、生のデータを見ているわけではないのだ。
デジカメは本来的に「Computational Photography」であり、最近になってそうなったわけではない。たとえば「美白モード」などの演出的な加工をほどこすカメラは、10年以上前にいわゆる「プリクラ」的な機器で導入されたものだ。やがて女性向けのコンパクトデジカメなどでも増えていき、中国系企業の開発するスマホでは現在、標準機能になっている。カメラを使うスマホアプリにも、「美白モード」や目を少し大きく写すモードなどが搭載されており、「Computational Photography」は決して珍しいものではない。