SIGGRAPH 2009 メモ (Aug.4)
Real-Time Global Illumination for Dynamic Scene
昨日のAdvances in Real-Time Renderingでは事前計算した伝搬データを格納する手法などが議論されていましたが、ここでは事前計算なしで動的シーンのグローバル イルミネーションをレンダリングする手法が紹介されていました。こちらは学者が話しているので、まだ実践には使えないMore Advancesというところでしょうか。グローバル イルミネーションも勉強しなくちゃと思い、本を買いました。
Introduction by Jan Kautz
リアルタイム グローバル イルミネーションの挑戦は、伝搬の複雑さ。
特に内部反射を解決するには、レンダリング、レンダリング式、ノイマン級数、シェーディング アルゴリズムを解決しなければならない。
スクリーン空間テクニック by Carsten Dachsbacher
- スクリーン空間テクニック
- 遅延シェーディング
- スクリーン空間アンビエント遮蔽
- スクリーン空間有向遮蔽
- 反射シャドウマップ (RSM)
- gathering vs shooting(仮想点光源)
- 階層的アプローチ
仮想点光源(VPL) by Jan Kautz
- インスタント ラジオシティ→スペキュラ サーフェイスは困難
- インクリメンタル インスタント ラジオシティ
- 不完全(Inperfect)シャドウマップ
-
- VPL
- 点ベースの深度マップ
- プル-プッシュによる穴埋め
- シェーディング
-
階層的有限要素法 by Carsten Dachsbacher
- 動的アンビエント遮蔽
- アクセス可能かどうかを計算
- 間接光への拡張
- ラジオシティ法
- 負のライティング
- GPUを用いたラジオシティ
Intel Media SDK overview
Exhibitor Tech Talkでしたが、かなり興味深い話でした。Intel Media SDK (Beta) は https://www.intel.com/software/mediasdk/ からダウンロードできるそうですが、まだ公開されていませんね。
ビデオをエンコード・デコードするには、CPU, DXVA, GPGPUなどそれぞれに異なるコードが必要ですし、それぞれの最適化はかなり面倒な作業です。Intel Media SDKは同一のコードで、CPUでも統合グラフィックス(G45以降)でも個別グラフィックス(Larrabee)でもエンコード・デコードを可能にするものです。
ソフトウェア開発者はそのDLLもカスタマイズできるので、たとえばCUDAで書いた(Intel以外のGPUで動作する)エンコーダーを使うようにもできるとのことでした。
また、Intel Media SDK は Intelの並列テクノロジーを基にしているので、Core i7のようなマルチコアCPUやLarrabeeのようなメニーコアGPUで効果を発揮するとのことです。
- デコード : H.264, Mpeg2, VC1
- エンコード:H264, Mpeg2
- D3D9サーフェイスを割り当てることができるので、アプリケーションはGPUでの別処理が可能。
- 非同期操作のための非同期パイプラインを持つ。
- DirectShow, Media Foundaton のサンプルが含まれる
Structured (Parallel) Patterns by Michael MaCool @ RapidMind Inc.
RapidMindは2004年に、University Waterloo Reserchからスピンアウトして設立された会社。CPU(x86, cell)、GPUを統一的に扱う並列ライブラリーとランタイムを開発・販売。
Computer Animation Festival (Evening Theater)
昨年からElectronic TheaterがなくなってAnimation Festivalの夜の部になりました。昨日からやっていますが、昨日は論文の総まくり(Fast Forward)があったので、今日参加しました。最初30分リアルタイムの時間があり、PS3やXbox 360のゲーム(マイクタイソン対ウィルライトのボクシング)や、創価大学の先生のMacによるデモもありました。そのあとは2時間ショートフィルムやILM, Pixar, Digital Domainなどの大きなプロダクションのメイキングなどが続きました。
その他
今日からジョブフェアと展示が始まりました。
日本の大学からもポスターにはたくさん参加しています。
今日買った本