山田祥平のRe:config.sys
見てきたようなウソをつくカメラ
2025年5月31日 06:23

ディスプレイに映し出された光景は肉眼で見たものとは違う。極端な話、真っ暗でも明るいとか……。なのにそれは「写真」と呼ばれ続けている。しかも今、その写真は、真を写したものではないというのが新しい当たり前となった。でも、それが写真の新しい付加価値だ。
ねつ造写真とコンピュテーショナルフォトグラフィ
「写真は真を写さない」と言われるようになって久しい。古くはPhotoshopのようなアプリによるレタッチ。それが修正というべきか修整というべきかといった議論も懐かしい。そして今は、望み通りの写真に仕立て上げる生成写真もすっかりお馴染みの存在となって受け入れられつつある。
写真は光景を「記録」するものか「記憶」するものかといった議論もあった。ありのままを残すのではなく、極端に言えば、こうあってほしかったという光景を残すことは記録ではなく人間都合が介入する記憶だというわけだ。
Googleが熱心に提唱しているコンピュテーショナルフォトグラフィは、従来の写真撮影プロセスを覆そうという試みだ。そこにあるものをなかったことにする「消しゴムマジック」や「編集マジック」などが有名だが、Pixel 9以降では「一緒に写る」といった機能も追加された。これは、そこにいる全員が入った写真を撮影するために、撮影者を交代することができる機能で、後から写った撮影者を違和感なく合成して集合写真を完成させるというものだ。まさに、計算によって生成される誰もが欲しがる写真だ。それを容易に撮影させる機能だといえるだろう。
そういえば、先日、シャープの新スマホ「AQUOS R10」の発表会でテキストの影除去のデモを見せてもらった。書類や書籍などをスマホ撮影する際に、自分の手や頭が被写体であるページ面に影を落としてしまっても、自動的にそれを除去するというものだ。
撮影後、自動的に処理されるものの、撮影前に画面に映し出されるページ面がリアルタイムに追従して除去されるわけではない。こっそりと影のない時の映像を撮影しておいてそれを合成しているのかどうか。詳細は内緒とのことで教えてもらえなかったのだが、この機能をオンにしておけば影のない写真が手に入るが、オフで撮影した写真の影をあとで除去することはできないという。そこはそこ、ねつ造写真の大量生産につながる処理は、とりあえず、回避しておこうということかもしれない。
レンズの付加価値いま昔
写真とレンズは切っても切れない関係にある。一眼レフの時代には、光学的にレンズがとらえた光景を、そのまま撮像素子に送るのが当たり前で、映像エンジンによるさまざまな加工は後処理だった。だから、レンズから受け取った情報としてのRAWデータがあれば、たいていの後処理ができた。今はスチルカメラであっても、得る情報がスチルとは限らない以上、後処理ではできないこともこなせなければならない。
かつてのクラッシックなフィルムカメラで得られる写真は交換レンズの付加価値によってのみ決まるといってもいい。そもそもフィルムの時代には、カメラそのものはただの箱にすぎなかった。だから得られる写真はレンズの付加価値で決まった。1秒間に何回シャッターが切れるかといった性能が云々といったことはあったかもしれないが、たかだか135フィルムの36枚撮りでは、その性能を最大限に生かすことは難しかったかもしれない。
また、自動的にシャッター速度と絞り値の組み合わせを弾き出して設定する自動露出も、カンでなんとかなったりする。ネガフィルムでの撮影なら、焼き付け時に露出が調整できる。まさに二度写真を撮影するチャンスが得られるのに等しい。だから数万円のカメラも数十万円のカメラも同じレンズを使えば撮れる写真は同じということになるわけだ。
では、そのレンズの付加価値とは何なのか。望遠レンズをつければ遠くのものを引き寄せることができる。マクロレンズを使えば近くのものをさらに拡大して眺めることができる。広角レンズは人間の視野を超えて広い範囲を映し出す。写真家は、こうしたレンズの付加価値を理解し、自分の意図通りの写真が撮れるレンズを選んでカメラに装着し、自分のタイミングでレリーズした。スナップの達人はファインダーさえのぞかなかったかもしれない。自分の間合いでどんな写真がどう撮れるかが分かっているからだ。
旅行で大活躍のフォルダブルスマホで使うGoogleレンズ
そして近頃のレンズは光学性能だけを価値基準としなくなった。むしろ、光学性能とはあまり関係ない付加価値が得られる。そのレンズを通して眺める光景は、光学レンズ素通しどころか、肉眼とも異なるものだ。ちょっと前の言い方をすれば、何らかの付加価値で「盛られて」いる。
たとえば、それは肉眼ではフランス語なのに、そのレンズを通してみたら日本語になっている。そのレンズを通せば、文字列を音読し視覚を補助する。日常的に遭遇する「これ何?」にもことごとく答えてくれる。検索とAIが手助けすることで、ものすごく広い範囲で人間の暮らしを支える存在になった。検索にもAIが介入する時代、かつての画像検索とはずいぶん違う。いわばスマートレンズである。
スマートレンズはGoogleレンズの存在が広く知られている。Googleレンズは同社のスマホGoogle Pixelシリーズはもちろん、ほかのAndroidスマホでもGoogle Playからダウンロードできるし、なんならiOSでもChromeブラウザやGoogleアプリから利用することができる。
個人的にGoogleレンズをよく使うのは美術館や博物館だ。特に外国の施設では作品の説明が書かれたパネルを翻訳させて重宝している。日本の美術館などでも作品の詳細を知りたい時には作品を画像検索したいのだが、たいてい係員が駆けつけてきて撮影禁止を告げられる。解説を読みたいだけだといっても聞き入れてもらえない。これはちょっと残念だ。
また、海外旅行時の食事では、メニューの翻訳にも欠かせない。英語ならなんとか理解できると思ってはいても、やはり、日本語のほうが分かりやすい。だいたい、なぜ、海外のレストランのメニューは、あんな小さな文字で長々と説明されているのだろう。しかもたいていのレストランは照明が暗すぎるので、メニューの文字がよく見えなかったりする。そんな時にもGoogleレンズは役にたつ。
こうしたシーンでGoogleレンズのようなスマートレンズを駆使するには、やはり、ちょっと大きめのディスプレイを持ったスマホがほしい。というのも、Googleレンズでとらえた光景がスマホのディスプレイに表示される際、一般的なスマホの画面サイズでは近視眼的でメニュー全体を俯瞰できず、画面で見ている翻訳後の文字列が、実物のメニューのどの部分に相当するのかが直感的にわかりにくいからだ。
こうした場面ではフォールドフォームファクタ、いわゆる2つ折りスマホが便利だと思う。携帯に不自由を感じず、拡げればある程度のサイズ感で表示ができるので、Googleレンズが付加した価値を実感しやすい。Googleマップを参照する場合も画面は広い方が使いやすく、たとえば旅行などでは利用シーンが増える一方だ。
写真は真を写さないどころか、スマートレンズを使ってAIとも協調して人間には見えない真を写し出す。それをウソつきだと思うかどうか。息をするようにウソをつく初期のAIに感じたうさんくささを感じることが少なくなってきた今、少し考えを改めようかと思う。