日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

全局光照算法:IBL

發布時間:2023/12/31 编程问答 38 豆豆
生活随笔 收集整理的這篇文章主要介紹了 全局光照算法:IBL 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

1. 介紹

基于圖像的光照(Image based lighting, IBL)是一類光照技術的集合。其光源不是可分解的直接光源,而是將周圍環境整體視為一個大光源。現代渲染引擎中使用的IBL有四種常見類型:

  • 遠程光探頭,用于捕捉"無限遠"處的光照信息,可以忽略視差。遠程探頭通常包括天空, 遠處的景觀特征或建筑物等。它們可以由渲染引擎捕捉, 也可以高動態范圍圖像的形式從相機獲得.
  • 局部光探頭,用于從特定角度捕捉世界的某個區域。捕捉會投影到立方體或球體上, 具體取決于周圍的幾何體。局部探頭比遠程探頭更精確,在為材質添加局部反射時特別有用.
  • 平面反射,用于通過渲染鏡像場景來捕捉反射。此技術只適用于平面,如建筑地板,道路和水。
  • 屏幕空間反射,基于在深度緩沖區使用光線行進方法渲染的場景,來捕捉反射。SSR效果很好,但可能非常昂貴。

IBL 通常使用(取自現實世界或從3D場景生成的)環境立方體貼圖 (Cubemap) ,我們可以將立方體貼圖的每個像素視為光源,在渲染方程中直接使用它。這種方式可以有效地捕捉環境的全局光照,使物體更好地融入環境。

全景圖也有其它形式的記錄方法,例如Spherical Map(我們常見的 HDRI Map多用 Spherical Map 表示),其對于地平線的分辨率要高于正上方的天空,比較適合室外這種天空啥都沒有的環境

理論上,物體的每一個細分的表面都應該對應著自己獨有的一個半球體光照環境,而不是整個物體共享一個 Cubemap,但是這樣的話對于每個細分表面都算Cubemap,性能開銷還不如光線追蹤——所以使用此技術的一個前提是:周圍的物體足夠遠

1.1 積分方程的分解

先快速回顧一下基于Cook-Torrance BRDF的反射積分方程
Lo(p,wo)=∫Ωkdcπ+ksDFG4(w0?n)(wi?n)Li(p,wi)n?widwiL_o(p,w_o)=\int_{\Omega}{k_d\frac{c}{\pi}+k_s\frac{DFG}{4(w_0\cdot n)(w_i\cdot n)}L_i(p,w_i)n\cdot w_i}dw_i Lo?(p,wo?)=Ω?kd?πc?+ks?4(w0??n)(wi??n)DFG?Li?(p,wi?)n?wi?dwi?

以上公式應該都是很熟了,每個符號就無需解釋了

來自周圍環境的入射光都可能具有一些輻射度,使得解決積分變得不那么簡單。這為解決積分提出了兩個要求:

  • 給定任何方向向量 wiw_iwi? ,我們需要一些方法來獲取這個方向上場景的輻射度
  • 求解積分需要快速且實時

但實際上,第一點和第二點似乎是沖突的——因為如果真的在渲染時,考慮每個方向的輻射度,那就很難做到快速實時。為了以更有效的方式解決積分,我們需要對其大部分結果進行預計算。仔細研究反射方程,我們發現BRDF 的漫反射 kdk_dkd? 和鏡面 ksk_sks? 項是相互獨立的——可以將積分分成兩部分:
Lo(p,wo)=∫ΩkdcπLi(p,wi)n?widwi+∫ΩksDFG4(w0?n)(wi?n)Li(p,wi)n?widwiL_o(p,w_o)=\int_{\Omega}{k_d\frac{c}{\pi}L_i(p,w_i)n\cdot w_i}dw_i+\int_{\Omega}{k_s\frac{DFG}{4(w_0\cdot n)(w_i\cdot n)}L_i(p,w_i)n\cdot w_i}dw_i Lo?(p,wo?)=Ω?kd?πc?Li?(p,wi?)n?wi?dwi?+Ω?ks?4(w0??n)(wi??n)DFG?Li?(p,wi?)n?wi?dwi?

這樣,就可以分開研究漫反射鏡面反射

2. Diffuse IBL

仔細觀察漫反射積分,我們發現漫反射蘭伯特項是一個常數項,不依賴于任何積分變量。基于此,我們可以將常數項移出漫反射積分
Lo(p,wo)=kdcπ∫ΩLi(p,wi)n?widwiL_o(p,w_o)=k_d\frac{c}{\pi}\int_{\Omega}{L_i(p,w_i)n\cdot w_i}dw_i Lo?(p,wo?)=kd?πc?Ω?Li?(p,wi?)n?wi?dwi?

因為有上面的“周圍物體足夠遠”的假設,這里p也和積分變量沒什么關系了。但如果是室內場景,可以通過在場景中放置多個反射探針,來解決此問題——每個反射探針單獨預計算其周圍環境的輻照度圖。這樣,位置 p 處的輻照度(以及輻射度)是:最近的幾個反射探針之間的輻照度插值。

這時候積分只和入射方向有關 了,而Cubemap本身就可以記錄整個球面的入射角度,所以 Cubemap在這里很好的派上了用場。為了避免運行時做“積分”,我們可以在運行前預處理這張Cubemap

這個預計算的立方體貼圖,在每個采樣方向 wow_owo? 上存儲其積分結果,可以理解為:場景中所有能夠擊中面向 wow_owo? 的表面的間接漫反射光的預計算總和。這樣的立方體貼圖被稱為輻照度圖 Irradiance Map。

Irradiance Map:使用表面法線n作為索引,存儲的是輻照度值 irradiance,要求的分辨率極低。可以使用預過濾的高光環境貼圖的最低等級Mip來存儲。
Irradiance Map直接和光照掛鉤,所以這張圖存的時候一定要存線性空間,并且支持分量大于1的像素值。.hdr 或者 .exr 格式的圖像(radiance HDR)就可以做到這點。

2.1 立方體貼圖的卷積

如果只是使用上訴的cubeMap,那我們為了得到盡量正確的積分結果,還是要對半球的各個方向進行采樣。為了避免這一點,我們需要對cubemap進行預過濾,讓我們可以在實時運行時,通過一次采樣,得到所需的輻照度。

既然半球的朝向決定了我們捕捉輻照度的位置,我們可以預先計算每個可能的半球朝向的輻照度,這些半球朝向涵蓋了所有可能的出射方向 wow_owo?

真的對每一個可能方向去采樣,理論上根本做不完,也沒什么必要,所以這里肯定是用一種離散積分的方法,比如最簡單的黎曼積分。為了避免對難處理的立體角求積分,我們使用球坐標 θ\thetaθ?\phi? 來代替立體角 www——這時候積分方程就變成了:

Lo(p,?o,θo)=kdcπ∫?=02π∫θ=012πLi(p,?i,θi)cos(θ)sin(θ)d?dθL_o(p,?_o,θ_o)=k_d\frac{c}{π}∫^{2π}_{?=0}∫^{\frac{1}{2}π}_{θ=0}L_i(p,?_i,θ_i)cos(θ)sin(θ)d?dθ Lo?(p,?o?,θo?)=kd?πc??=02π?θ=021?π?Li?(p,?i?,θi?)cos(θ)sin(θ)d?dθ

當我們離散地對兩個球坐標軸進行采樣時,每個采樣近似代表了半球上的一小塊區域,如上圖所示。注意,由于球的一般性質,當采樣區域朝向中心頂部會聚時,天頂角 θ 變高,半球的離散采樣區域變小。為了平衡較小的區域貢獻度,我們使用 sinθ 來權衡區域貢獻度,這就是多出來的 sin 的作用。

將上訴公式轉換為黎曼和形式的離散版本

一般情況下,連續形式可按照如下方法,轉換成離散形式:

所以,參考離散版本,實際代碼如下(這里存取的是輻照度E,注意!):

vec3 irradiance = vec3(0.0); vec3 up = vec3(0.0, 1.0, 0.0); vec3 right = normalize(cross(up, normal)); up = normalize(cross(normal, right)); float sampleDelta = 0.025; float nrSamples = 0.0; for (float phi = 0.0; phi < 2.0 * PI; phi += sampleDelta) { for(float theta = 0.0; theta < 0.5 * PI; theta += sampleDelta) { // spherical to cartesian (in tangent space) vec3 tangentSample = vec3(sin(theta) * cos(phi), sin(theta) * sin(phi), cos(theta)); // tangent space to world space (for cubemap to use) vec3 sampleVec = tangentSample.x * right + tangentSample.y * up + tangentSample.z * N; irradiance += texture(environmentMap, sampleVec).rgb * cos(theta) * sin(theta); nrSamples++; } } irradiance = PI * irradiance * (1.0 / float(nrSamples));

這段程序可以在運行圖形應用程序之前就執行,然后存在硬盤上,程序執行直接讀;也可以動態生成,然后存在顯存上(和Mipmap 的生成差不多)。

2.2 應用

實際使用很簡單:

vec3 kS = fresnelSchlickRoughness(max(dot(N, V), 0.0), F0, roughness); vec3 kD = 1.0 - kS; vec3 irradiance = texture(irradianceMap, N).rgb; vec3 diffuse = irradiance * albedo; // 間接光照的漫反射部分 vec3 ambient = (kD * diffuse) * ao;

為什么上訴代碼中,是乘以albedo,而不是albedo/πalbedo/\pialbedo/π,原因見上訴:離散版本的推導

2.3 關于菲涅爾項

由于環境光來自半球內圍繞法線 N 的所有方向,因此沒有一個確定的半向量,來計算菲涅耳效應

為了模擬菲涅耳效應,我們用法線和視線之間的夾角計算菲涅耳系數。然而,之前我們是以受粗糙度影響的微表面半向量作為菲涅耳公式的輸入,但我們目前沒有考慮任何粗糙度,表面的反射率總是會相對較高。間接光和直射光遵循相同的屬性,因此我們期望較粗糙的表面在邊緣反射較弱。由于我們沒有考慮表面的粗糙度,間接菲涅耳反射在粗糙非金屬表面上看起來有點過強

可以通過在 Sébastien Lagarde 提出的 Fresnel-Schlick 方程中加入粗糙度項來緩解這個問題:

vec3 fresnelSchlickRoughness(float cosTheta, vec3 F0, float roughness) {return F0 + (max(vec3(1.0 - roughness), F0) - F0) * pow(1.0 - cosTheta, 5.0); }

此時的結果如下:

自己也寫過,照著learnOpenGL這個教程,但是找不到了,就直接照搬吧。

2.4 后續研究

考慮到運行時性能和效果,還可以做幾點增強:

  • 用 Irradiance Map算出 SH,提升性能。全局可以使用一個SH 模擬天光照明(例如UE4中的 SkyLight),也可以組建成網格,實現動態物體的 GI(Unity中的 Light Probe Group,UE 中的 ILC)。An Efficient Representation for Irradiance Environment Maps
  • 使用 Hammersley 隨機采樣(球面上的均勻采樣)實現 Importance Sampling,提升離線資產處理的性能。Hammersley Points on the Hemisphere

2.5 Irradiance Environment Maps

Irradiance Map 和 Light Map

當初第一次看RTR4時,看到十一章的第五節——Diffuse Global Illumination時,就特別疑惑,搞不清楚light map和后文諸如H基技術的區別。特別是關于法線的描述

這里給出一個不知道對不對的理解:

  • light map : 對于每一個物體的表面,以較低的分辨率預計算它的每個像素的光照情況,然后存儲在紋理中。這個時候如果把墻旋轉一個角度,那么如下所示的兩張圖都失效了。所以,light map更多用于

  • Irradiance Map:則是只預計算周圍環境的光照情況。

SH基礎

球諧函數在球域SSS上定義了一個正交基。使用如下參數化:??
s=(x,y,z)=(sin?θcos?(?),sin?θcos??,cos??)s=(x,y,z)=(\sin{\theta}\cos(\phi),\sin{\theta}\cos{\phi},\cos{\phi}) s=(x,y,z)=(sinθcos(?),sinθcos?,cos?)
基函數定義為:??
Ylm(θ,?)=Klmeim?Pl∣m∣(cos?θ),l∈N,?l≤m≤lY_l^m(\theta,\phi)=K_l^me^{im\phi}P_l^{|m|}(\cos{\theta}),l\in N,-l\leq m\leq l Ylm?(θ,?)=Klm?eim?Plm?(cosθ),lN?lml

其中,PlmP_l^mPlm?是相關的勒讓德多項式KlmK_l^mKlm?歸一化常數:??
Klm=(2l+1)4π(l?∣m∣)!(l+∣m∣)!K_l^m=\sqrt{\frac{(2l+1)}{4\pi}\frac{(l-|m|)!}{(l+|m|)!}} Klm?=4π(2l+1)?(l+m)!(l?m)!??
上述定義形成了一個復基complex basis,實值基是由簡單的變換給出的:??


lll的低值(稱為頻帶指數band index)表示球上的低頻基函數,頻帶lll的基函數在x,y,zx,y,zx,y,z上化為lll階多項式。可以用簡單的遞推公式進行計算。因為SH基是正交的,所以定義在S上的標量函數fff可以通過如下積分??,投影Projection得到系數:??
flm=∫f(s)ylm(s)dsf_l^m=\int{f(s)y_l^m(s)\mathrmozvdkddzhkzds} flm?=f(s)ylm?(s)ds
這些系數提供了n階重建Reconstruction函數:??
f ̄(s)=∑l=0n?1∑m=?llflmylm(s)\overline{f}(s)=\sum_{l=0}^{n-1}\sum_{m=-l}^{l}{f_l^my_l^m(s)} f?(s)=l=0n?1?m=?ll?flm?ylm?(s)
Properties: SH投影的一個重要性質是它的旋轉不變性,例如:給定g(s)=f(Q(s))g(s)=f(Q(s))g(s)=f(Q(s))QQQ是S上的一個任意的旋轉函數,則:??(這類似于一維傅里葉變換的位移不變性)
g ̄(s)=f ̄(Q(s))\overline{g}(s)=\overline{f}(Q(s)) g?(s)=f?(Q(s))
這個不變性意味著,當在一組旋轉的樣本處采樣f時,SH投影不會產生任何鋸齒。

SH基的正交性提供了一個有用的性質,即給定任意兩個球上的函數aaabbb,它們的投影滿足:??

換句話說,對帶限函數的乘積進行積分,可將其簡化為投影系數的點積和。

使用SH進行投影

如果我們使用3個頻帶的SH系數,也就是說,我們只需要計算得到9個LlmL_{lm}Llm?,而不是對每個像素進行積分。這些系數的計算方法如下:
Llm=∫θ=0π∫?=02πL(θ,?)Ylm(θ,?)sinθdθd?L_{lm}=\int_{\theta=0}^{\pi}\int_{\phi=0}^{2\pi}L(\theta,\phi)Y_{lm}(\theta,\phi)sin\theta d\theta d\phi Llm?=θ=0π??=02π?L(θ,?)Ylm?(θ,?)sinθdθd?

它的離散形式如下:
Llm=πN1?2πN2∑pixels(θ,?)envmap[pixel]?Ylm(θ,?)L_{lm}=\frac{\pi}{N1}\cdot \frac{2\pi}{N2}\sum_{pixels(\theta,\phi)}{envmap[pixel] \cdot Y_{lm}(\theta,\phi)} Llm?=N1π??N22π?pixels(θ,?)?envmap[pixel]?Ylm?(θ,?)
實際上,更加精確的公式,應該是實際考慮每個cubemap上的像素所代表的矩形區域投影到單位球面的面積:
Llm=∑pixels(θ,?)envmap[pixel]?Ylm(θ,?)ΔwiL_{lm}=\sum_{pixels(\theta,\phi)}{envmap[pixel] \cdot Y_{lm}(\theta,\phi)\Delta{w_i}} Llm?=pixels(θ,?)?envmap[pixel]?Ylm?(θ,?)Δwi?

最終我們得到9個SH系數(27個float)。

這里可以簡單講下為什么我們只需要這么點數據(27個float)就可以記錄光照情況:最大的原因就是我們的假設——光照環境無限遠,每個著色點 PiP_iPi? 對于光照貼圖來說,都是一樣的,這個時候,L(p,θ,?)L(p,\theta,\phi)L(p,θ,?) 就變成了 L(θ,?)L(\theta,\phi)L(θ,?),所以我們只需要在這個cube map(或者探針)的中心 P0P_0P0?,算一次投影結果,就可以推廣到其他著色點

重建

我們重建的光照度量是輻照度E,而對于E和L的SH系數有如下關系:
Elm=AlLlmE_{lm}=A_lL_{lm} Elm?=Al?Llm?
公式中的AlA_{l}Al?的定義如下:

這個 AlA_lAl? 的物理意義是什么?考慮diffuse項的計算,光照積分里面是 L?cosL\cdot cosL?cos,我們上面計算的只是 LLL,而沒有余弦項。所以 AlA_lAl? 應該是這個余弦項的SH系數 (根據SH基的正交性可以推斷出)。目前還有一個問題是,我們是要投影 ∫(n?w)dw\int (n\cdot w) dw(n?w)dw,而這個積分哪怕基于環境光無限遠的假設,除了(θ,?)(\theta,\phi)(θ,?),我們還要考慮 nnn,這意味著我們需要width?height?NUMSHwidth * height * {NUM_{SH}}width?height?NUMSH?個系數(其實就是三張紋理),這根本不節省帶寬。考慮球諧函數的旋轉不變性法線的各不相同,本質就是旋轉),我們可以對其進行簡化,最終得到 AlA_lAl?。具體推導可以見論文復現:A Non-Photorealistic Lighting Model For Automatic Technical Illustration

所以重建公式變成了:
E(θ,?)=∑l,mAlLlmYlm(θ,?)E(\theta,\phi)=\sum_{l,m}{A_l}L_{lm}Y_{lm}(\theta,\phi) E(θ,?)=l,m?Al?Llm?Ylm?(θ,?)
對于實際渲染,我們可以使用下列公式來計算E:

由于我們只考慮l≤2l\leq2l2,輻照度就是一個(歸一化)表面法線坐標的二次多項式。因此,對于nt=(x,y,z,1)n^t=(x,y,z,1)nt=(x,y,z,1),我們可以有:
E(n)=ntMnE(n)=n^tMn E(n)=ntMn
M是一個對稱的4x4矩陣。下面的方程對渲染特別有用,因為我們只需要一個矩陣-向量乘法一個點乘法來計算E:

總結

我們在Diffuse IBL的假設以及思想上,結合球諧函數,將環境貼圖的低頻光照信息投影到SH基上,這樣就可以極大節省帶寬,因為我們不需要存儲一張預過濾圖了,而是存儲幾十個vector就行了(以l=2l=2l=2為例,我們只需要存儲9個SH vector系數即可)

實時運行過程中,只需要以法線為索引,就可以快速重建輻照度E,下面是UE4的源碼

// filament根據預縮放的SH重建輻照度的GLSL代碼 vec3 irradianceSH(vec3 n) {// uniform vec3 sphericalHarmonics[9]// 我們只使用前兩個波段以獲得更好的性能return//另外, 由于使用 Kml 進行了預縮放, SH系數可視為顏色, //特別地sphericalHarmonics[0]直接就是平均輻照度.sphericalHarmonics[0]+ sphericalHarmonics[1] * (n.y)+ sphericalHarmonics[2] * (n.z)+ sphericalHarmonics[3] * (n.x)+ sphericalHarmonics[4] * (n.y * n.x)+ sphericalHarmonics[5] * (n.y * n.z)+ sphericalHarmonics[6] * (3.0 * n.z * n.z - 1.0)+ sphericalHarmonics[7] * (n.z * n.x)+ sphericalHarmonics[8] * (n.x * n.x - n.y * n.y); }

3. Specular IBL

將重點關注反射方程的鏡面部分
Lo(p,wo)=∫ΩksDFG4(w0?n)(wi?n)Li(p,wi)n?widwiL_o(p,w_o)=\int_{\Omega}{k_s\frac{DFG}{4(w_0\cdot n)(w_i\cdot n)}L_i(p,w_i)n\cdot w_i}dw_i Lo?(p,wo?)=Ω?ks?4(w0??n)(wi??n)DFG?Li?(p,wi?)n?wi?dwi?
很明顯,鏡面部分要復雜的多,不僅受入射光方向影響,還受視角影響。如果試圖解算所有入射光方向所有可能的視角方向的積分,二者組合數會極其龐大,實時計算太昂貴

進行預計算?但是這里的積分依賴于wiw_iwi?wow_owo?,我們無法用兩個方向向量采樣預計算的立方體圖。Epic Games提出了一個解決方案,他們預計算鏡面部分的卷積,為實時計算作了一些妥協,這種方案被稱為分割求和近似法(split sum approximation)——將預計算分成兩個單獨的部分求解,再將兩部分組合起來,得到預計算結果。分割求和近似法鏡面反射積分拆成兩個獨立的積分:
Lo(p,wo)=∫ΩLi(p,wi)dwi?∫Ωfr(p,wi,wo)n?widwiL_o(p_,w_o)=\int_{\Omega}{L_i(p,w_i)dw_i}*\int_{\Omega}f_r(p,w_i,w_o)n\cdot w_idw_i Lo?(p,?wo?)=Ω?Li?(p,wi?)dwi??Ω?fr?(p,wi?,wo?)n?wi?dwi?

3.1 第一部分:光照部分

Lo(p,wo)=∫ΩfrLi(p,wi)dwiL_o(p_,w_o)=\int_{\Omega_{f_r}}{L_i(p,w_i)dw_i} Lo?(p,?wo?)=Ωfr???Li?(p,wi?)dwi?

卷積的第一部分被稱為預濾波環境貼圖,它類似于輻照度圖,是預先計算的環境卷積貼圖,但這次考慮了粗糙度。這部分看起來和上面 Diffuse IBL非常接近,唯一不一樣的是:它的積分域從整個半球,變為了BRDF的覆蓋范圍,也就是Specular Lobe / BRDF Lobe。于是積分域就和 Lobe “撐起來的胖瘦程度”有關了。而Lobe和BRDF項的 Roughness有直接關系——越粗糙,高光越分散(極端情況就是diffuse了)。Roughness 是變量,因此需要得到一系列不同Roughness 所對應的Cubemap。

diffuse IBL中對粗糙度的考慮是菲涅爾項,但在求解積分的時候,并沒有考慮,和這里是不同的。

這里輪到Mipmapping來救場了:用不同的 mipmaps離散的表示不同的 Roughness,借助著 Trilinear Filtering 三線性紋理過濾,來插值得到真正 Roughness所對應的光照強度。在實時渲染中,可以預處理原始環境貼圖,得到的Mipmap 過的環境貼圖被稱為Pre-filtered Environment Map(預處理環境貼圖),如下圖所示(來自 LearnOpenGL):

雖然積分中沒有wow_owo?(視線向量)的身影,但采樣的球面積分域和出射角有關,我們還沒有考慮——一個lobe除了胖瘦程度,還有朝向!但正如之前所說,我們已經和Diffuse IBL一樣有了法線N作為索引,來采樣這個預濾波環境貼圖,不能在考慮第二個向量了,因此Epic Games假設視角方向V——也就是鏡面反射方向R——總是等于輸出采樣方向N,以作進一步近似。翻譯成代碼如下:

vec3 N = normalize(w_o); vec3 R = N; vec3 V = R;

顯然,這種近似會導致:在視線幾乎垂直于法線的掠射方向上,會無法獲得很好的掠射鏡面反射

3.2 光照部分的實現

一些基礎技術,這里直接給出實現,具體原理請百度。

低差異序列:Hammersley 序列

float RadicalInverse_VdC(uint bits) {bits = (bits << 16u) | (bits >> 16u);bits = ((bits & 0x55555555u) << 1u) | ((bits & 0xAAAAAAAAu) >> 1u);bits = ((bits & 0x33333333u) << 2u) | ((bits & 0xCCCCCCCCu) >> 2u);bits = ((bits & 0x0F0F0F0Fu) << 4u) | ((bits & 0xF0F0F0F0u) >> 4u);bits = ((bits & 0x00FF00FFu) << 8u) | ((bits & 0xFF00FF00u) >> 8u);return float(bits) * 2.3283064365386963e-10; // / 0x100000000 } // ---------------------------------------------------------------------------- vec2 Hammersley(uint i, uint N) {return vec2(float(i)/float(N), RadicalInverse_VdC(i)); }

GGX重要性采樣

有別于均勻或純隨機地(比如蒙特卡洛)在積分半球 Ω 產生采樣向量,我們的采樣會根據粗糙度,偏向微表面的半向量的宏觀反射方向。采樣過程將與我們之前看到的過程相似:

  • 開始一個大循環,生成一個隨機(低差異)序列值,用該序列值在切線空間中生成樣本向量
  • 樣本向量變換到世界空間,并對場景的輻射度采樣。
  • const uint SAMPLE_COUNT = 4096u; for(uint i = 0u; i < SAMPLE_COUNT; ++i) {vec2 Xi = Hammersley(i, SAMPLE_COUNT); }

    此外,要構建采樣向量,我們需要一些方法定向和偏移采樣向量,以使其朝向特定粗糙度的鏡面波瓣方向。我們可以如理論教程中所述使用 NDF,并將GGX NDF結合到 Epic Games 所述的球形采樣向量的處理中:

    vec3 ImportanceSampleGGX(vec2 Xi, vec3 N, float roughness) {float a = roughness*roughness;float phi = 2.0 * PI * Xi.x;float cosTheta = sqrt((1.0 - Xi.y) / (1.0 + (a*a - 1.0) * Xi.y));float sinTheta = sqrt(1.0 - cosTheta*cosTheta);// from spherical coordinates to cartesian coordinatesvec3 H;H.x = cos(phi) * sinTheta;H.y = sin(phi) * sinTheta;H.z = cosTheta;// from tangent-space vector to world-space sample vectorvec3 up = abs(N.z) < 0.999 ? vec3(0.0, 0.0, 1.0) : vec3(1.0, 0.0, 0.0);vec3 tangent = normalize(cross(up, N));vec3 bitangent = cross(N, tangent);vec3 sampleVec = tangent * H.x + bitangent * H.y + N * H.z;return normalize(sampleVec); }

    著色器

    #version 330 core out vec4 FragColor; in vec3 localPos;uniform samplerCube environmentMap; uniform float roughness;const float PI = 3.14159265359;float RadicalInverse_VdC(uint bits); vec2 Hammersley(uint i, uint N); vec3 ImportanceSampleGGX(vec2 Xi, vec3 N, float roughness);void main() { vec3 N = normalize(localPos); vec3 R = N;vec3 V = R;const uint SAMPLE_COUNT = 1024u;float totalWeight = 0.0; vec3 prefilteredColor = vec3(0.0); for(uint i = 0u; i < SAMPLE_COUNT; ++i){vec2 Xi = Hammersley(i, SAMPLE_COUNT);vec3 H = ImportanceSampleGGX(Xi, N, roughness);vec3 L = normalize(2.0 * dot(V, H) * H - V);float NdotL = max(dot(N, L), 0.0);if(NdotL > 0.0){prefilteredColor += texture(environmentMap, L).rgb * NdotL;totalWeight += NdotL;}}prefilteredColor = prefilteredColor / totalWeight;FragColor = vec4(prefilteredColor, 1.0); }

    當然,也可以使用Diffuse IBL中均勻采樣的方法,但這樣的效率太低。

    3.3 第二部分:BRDF 部分

    推導

    Lo(p,wo)=∫Ωfr(p,wi,wo)n?widwiL_o(p_,w_o)=\int_{\Omega}f_r(p,w_i,w_o)n\cdot w_idw_i Lo?(p,?wo?)=Ω?fr?(p,wi?,wo?)n?wi?dwi?
    這個方程要求我們在n?ωon\cdot ω_on?ωo?表面粗糙度菲涅爾系數 F0F_0F0? 上計算BRDF方程的卷積。這等同于在純白的環境光或者輻射度恒定為1.0的設置下,對鏡面BRDF求積分。對3個變量做卷積有點復雜,不過我們可以把F0F_0F0?移出鏡面BRDF方程

    F為菲涅耳方程。將菲涅耳分母移到 BRDF 下面可以得到如下等式:

    用 Fresnel-Schlick近似公式替換右邊的F 可以得到:

    讓我們用α=(1?wo?h)5\alpha = (1-w_o\cdot h)^5α=(1?wo??h)5,以便更輕松地求解F0F_0F0?

    然后我們將菲涅耳函數F分拆到兩個積分里:

    接下來,我們將α\alphaα替換回其原始形式,從而得到最終分割求和的BRDF方程

    公式中的兩個積分分別表示F0F_0F0?比例和偏差 。注意,這里的frf_rfr?中不計算F項。積分式子里面留下來了夾角(nnnwow_owo?)和粗糙度。我們將卷積后的結果存儲在2D查找紋理(Look Up Texture, LUT)中,這張紋理被稱為 BRDF 積分貼圖

    著色器

    BRDF卷積著色器2D 平面上執行計算,直接使用其2D紋理坐標作為卷積輸入(NdotV 和 roughness)。代碼與預濾波器的卷積代碼大體相似,不同之處在于,它現在根據 BRDF的幾何函數和 Fresnel-Schlick近似來處理采樣向量:

    vec2 IntegrateBRDF(float NdotV, float roughness) {vec3 V;V.x = sqrt(1.0 - NdotV*NdotV);V.y = 0.0;V.z = NdotV;float A = 0.0;float B = 0.0;vec3 N = vec3(0.0, 0.0, 1.0);const uint SAMPLE_COUNT = 1024u;for(uint i = 0u; i < SAMPLE_COUNT; ++i){vec2 Xi = Hammersley(i, SAMPLE_COUNT);vec3 H = ImportanceSampleGGX(Xi, N, roughness);vec3 L = normalize(2.0 * dot(V, H) * H - V);float NdotL = max(L.z, 0.0);float NdotH = max(H.z, 0.0);float VdotH = max(dot(V, H), 0.0);if(NdotL > 0.0){float G = GeometrySmith(N, V, L, roughness);// 我們就是基于NDF進行重要性采樣的// 所以這里除了F,實際上也不需要計算D項。// 所以fr只剩下了分母,和幾何項G。float G_Vis = (G * VdotH) / (NdotH * NdotV);float Fc = pow(1.0 - VdotH, 5.0);A += (1.0 - Fc) * G_Vis;B += Fc * G_Vis;}}A /= float(SAMPLE_COUNT);B /= float(SAMPLE_COUNT);return vec2(A, B); } // ---------------------------------------------------------------------------- void main() {vec2 integratedBRDF = IntegrateBRDF(TexCoords.x, TexCoords.y);FragColor = integratedBRDF; }

    如你所見,BRDF卷積部分是從數學到代碼的直接轉換。我們將角度θ\thetaθ和粗糙度作為輸入,以重要性采樣產生采樣向量,在整個幾何體上結合BRDF的菲涅耳項對向量進行處理,然后輸出每個樣本上F0F_0F0?系數和偏差,最后取平均值

    關于幾何項

    與IBL 一起使用時,BRDF的幾何項略有不同,因為k變量的含義稍有不同:

    由于BRDF卷積是鏡面IBL積分的一部分,因此我們要在 Schlick-GGX幾何函數中使用kIBLk_{IBL}kIBL?

    float GeometrySchlickGGX(float NdotV, float roughness) {float a = roughness;float k = (a * a) / 2.0;float nom = NdotV;float denom = NdotV * (1.0 - k) + k;return nom / denom; } // ---------------------------------------------------------------------------- float GeometrySmith(vec3 N, vec3 V, vec3 L, float roughness) {float NdotV = max(dot(N, V), 0.0);float NdotL = max(dot(N, L), 0.0);float ggx2 = GeometrySchlickGGX(NdotV, roughness);float ggx1 = GeometrySchlickGGX(NdotL, roughness);return ggx1 * ggx2; }

    請注意,雖然 k 還是從 a 計算出來的,但這里的 a 不是 roughness 的平方——如同最初對 a 的其他解釋那樣——在這里我們假裝平方過了。我不確定這樣處理是否與 Epic Games 或迪士尼原始論文不一致,但是直接將 roughness 賦給 a 得到的 BRDF 積分貼圖與 Epic Games 的版本完全一致。

    結果

    3.4 實時運行階段

    也是公式到代碼的直接復刻:

    vec3 F = FresnelSchlickRoughness(max(dot(N, V), 0.0), F0, roughness);vec3 kS = F; vec3 kD = 1.0 - kS; kD *= 1.0 - metallic; vec3 irradiance = texture(irradianceMap, N).rgb; vec3 diffuse = irradiance * albedo;const float MAX_REFLECTION_LOD = 4.0; vec3 prefilteredColor = textureLod(prefilterMap, R, roughness * MAX_REFLECTION_LOD).rgb; vec2 envBRDF = texture(brdfLUT, vec2(max(dot(N, V), 0.0), roughness)).rg; vec3 specular = prefilteredColor * (F * envBRDF.x + envBRDF.y);vec3 ambient = (kD * diffuse + specular) * ao;

    請注意,specular沒有乘以ksk_sks?,因為已經乘過了菲涅耳系數。 現在,在一系列粗糙度和金屬度各異的球上運行此代碼:

    參考

    [1] LearnOpenGLCN
    [2] Real Time Rendering 4th.
    [3] Filament白皮書
    [4] 學姐的筆記
    [5] Games202

    總結

    以上是生活随笔為你收集整理的全局光照算法:IBL的全部內容,希望文章能夠幫你解決所遇到的問題。

    如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。