こんにちは、海行です。

最近思ったのですが、何かアイデアを思いついた時に、それをイチから実装するのは中々大変です。
もし誰かが先に同じような事を思いついて、先に色々試して論文にしてくれていたとしたらどうでしょう?

先を越されてくやしー!というよりは、その論文を読めば自分でイチからやるより時間も手間も節約できて、ラッキー!ですよね。

しかし、自分のアイデアについてすでに誰か論文書いてないか、逆引きで探すのは結構大変です。
Google検索でもパッと出てこないし、そもそも検索に必要な適切なワードがわからなかったりします。

なので、残念ながら現状では世の中にどんな論文があるか網羅的に頭に入れておく必要があったりします。
仕方ないので、色んな論文のアブストラクト(要旨)をここにメモっていって、インデックスしてみようという試みです。

とりあえず最初はSIGGRAPH2016の論文をちょっとずつメモしていこうと思います。
専門家じゃないので誤解があったり、Google翻訳を使うので誤訳があったりするかもしれません。すいません。

SIGGRAPHの論文の情報は色んな所に散らばってますが、こちらのサイトでリンクをまとめてくださってます。感謝!

コンピューティングカメラ編

The Diffractive Achromat: Full-Spectrum Computational Imaging With Diffractive Optics
回折アクロマート:回折光学を用いたフルスペクトラム計算イメージング

こちらの研究では改良された回折レンズ(回折アクロマート)を開発し、また、それによって捉えられたデータから写真を再構築するアルゴリズムを開発されたそうです。
回折レンズを用いると、屈折レンズの場合と比較してカメラのサイズ、重量をコンパクトにすることが出来るので、今注目を集めているそうです。
しかし、従来の回折レンズでは撮影された写真の色の忠実度に問題がありました。
こちらの研究のアプローチによって、色の忠実度を改善することが出来たそうです。

論文リンク

Practical Multispectral Lighting Reproduction
実用的なマルチスペクトル照明の再現

こちらの研究では、まず360度色んな方向から沢山のカラーLEDで被写体を撮影できる(LEDスフィア)スタジオがあって、どこかロケで撮影した風景の映像に合わせてスタジオの照明環境をロケ撮影映像と同じように再現する方法を考案されたそうです。
仕組みとしては、ロケ撮影時に複数の方向を向いたカラーチャートも一緒に撮影しておいて、スタジオでの撮影時はカラーチャートがロケ撮影時と同じ色になるようにLED照明を調整する感じみたいです。

論文リンク

Computational Imaging With Multi-Camera Time-of-Flight Systems
複数台のタイムオブフライトカメラシステムによるイメージング計算

こちらの研究では、KinectV2のようなタイムオブフライトシステムのデプスカメラを3台同期させて動かせるシステムを開発されたそうです。
このシステムにより、複数カメラの間の波形干渉を分析する事で、色々なことが出来るようになるそうです。
例えば、3台で同時に捉えられた画像間のドップラー効果を分析する事で物体の速度を割り出して動きのあるシーンから散乱を除去したり、グローバルイルミネーションを光学的に調査する新たな方向性を模索するなど。

論文リンク

Occluded Imaging With Time-of-Flight Sensors
タイムオブフライトセンサーを使ったオクルーデッドイメージング

こちらの研究では、タイムオブフライトカメラがコーナーを検出できるか、および拡散、散乱を検出できるかを探求されています。
タイムオブフライトカメラの性能は2つの要因、カメラの変調周波数と壁の光沢の強さに依存すると結論付けられています。
理想的なランバート拡散の壁だと汎用タイムオブフライトカメラはメートルオーダーの分解能を実現しますが、ポスターボードなどの見えにくい壁だと分解能は大幅に低下するようです。

論文リンク(有料)