3年前にこのブログに書いたこのエントリー「apeirophobia: カメラの未来とか?」。これを以前に無意味に熱く語っていたのですが、それを聞いて覚えていたタロアウトさんから連絡を頂きました。(thanks!)
IDFでフォーカス範囲・位置を後からコントロールできるソフトウェア技術が披露
via:タロアウトさん
3年前のオデは
頭の中にあるイメージとしては1画素毎にレンズがついたカメラ(つまり500万画素だと500万個レンズがついたカメラw)で一気に撮影というバカみたいな代物。
とかものすごく馬鹿っぽいことを書いていますが、上記の技術は光跡の演算から距離を算出しているとのこと。(実はこの馬鹿っぽいのは昨年Adobeが発表していたりする(汗【インタビュー】アドビ副社長が語る、未来の写真)
詳細は記述されていないのでわからないけど、「レンズとセンサーの間に専用のマイクロレンズアレイを挟む必要がある」と書かれている部分から想像すると、おそらくtiltのような処理をその部分で行って、光の回折を変化させ、そこから光跡の演算をするんじゃなかろうかと・・。(ただその情報をどーいう形で1つのファイルに保存するのかはよくわからないですが。)いわゆる最近の測量とかで用いられている複数枚の平面写真から3Dを演算する仕組みに近いんじゃないかと思います。
カメラ内でそれぞれの基準点を制御できるのであれば、精度は微妙だけど距離算出は不可能ではないだろうし。その距離を用いて、画像の光跡解析を行いその距離にある像を復元するということなんじゃないかしら?と・・・。まぁ肝はこの「光跡解析を行いその距離にある像を復元」ですね。ここの演算はとても難しそうです。ぱっと思いつくところでは、具象として存在しないもの(分かりやすく言うとゴーストやフレア、あとは雲やら霧)をどう判定するのか?とか・・。
ただ3年前にも書きましたが、それって「カメラ」なのか?と・・。
撮影していて面白いのか?というのは正直分からないです。
でもピンボケ写真というものの排除を目指してカメラがAFという進化を遂げてきた過程を踏まえると、望まれていることなんでしょうね。
いつごろ実用になるんでしょう??
楽しみでもあり、不安でもあります。