1. 簡介
相機式飛時測距感測器透過量測主動發射光線的往返時間,提供了一種快速且便利的獲取三維環境資訊的方法。本文提出了一套全面的模擬程序,用於評估感測器效能、準確度,並理解實驗中觀察到的效應,主要聚焦於詳細的光學訊號模擬。
2. 飛時測距原理
飛時測距感測器透過量測光線從光源到物體再返回偵測器所需的時間,來計算每個像素的距離。
2.1 直接飛時測距 (D-ToF)
直接使用極短脈衝(奈秒級)量測往返時間。雖然概念上直觀,但正如 Jarabo 等人 (2017) 所指出的,由於需要高速電子元件(GHz 級),其訊噪比通常較低。距離 $d$ 的計算公式為 $d = \frac{c \cdot \Delta t}{2}$,其中 $c$ 為光速,$\Delta t$ 為量測到的時間。
2.2 基於相關性的飛時測距 (C-ToF/P-ToF)
這是商用感測器中的主流方法。它使用振幅調變連續波光源。量測發射與接收的調變訊號之間的相位差 $\phi$,並由此推導深度:$d = \frac{c \cdot \phi}{4\pi f_{mod}}$,其中 $f_{mod}$ 為調變頻率(通常在 MHz 範圍)。此技術透過每個像素的光子混合裝置及鎖相解調技術實作 (Schwarte et al., 1997; Lange, 2000)。
3. 提出的模擬程序
本研究的核心貢獻是一個基於光線追蹤的模擬框架,它使用光程長度作為深度計算的主要參數,超越了簡化的點對點模型。
3.1 基於光線追蹤的光程長度方法
此方法不僅模擬直接反射路徑,更追蹤光線通過複雜的光學路徑。單一光線的總光程長度由 $OPL = \int_{}^{} n(s) \, ds$ 給出,其中 $n$ 為沿路徑 $s$ 的折射率。此 OPL 與 C-ToF 系統中量測到的相位差直接相關。
3.2 於 Zemax OpticStudio 與 Python 中的實作
光學光線追蹤在 Zemax OpticStudio 中進行,以高保真度模擬鏡頭、光源與物體的交互作用。一個 Python 後端處理光線數據(路徑長度、強度、交互點),以模擬感測器的解調過程,並生成最終的深度圖與原始數據。
3.3 支援的光學效應
- 多重路徑干擾: 模擬光線在到達感測器前於物體間經歷多次反射的情況,這是實際 ToF 系統中的主要誤差來源。
- 半透明/體積物體: 考慮材料內的次表面散射與光傳輸。
- 鏡頭像差: 模擬影響每個像素上光線入射角與強度的失真、暗角及其他鏡頭缺陷。
- 擴展與多重光源: 允許超越單點光源的真實照明設置。
4. 技術細節與數學基礎
此模擬對 C-ToF 核心的相關性過程進行建模。對於調變頻率 $f_{mod}$,像素 $(i,j)$ 接收到的訊號會與參考訊號進行相關性運算。相位 $\phi_{i,j}$ 從相關性樣本中提取,通常使用四相位取樣法: $\phi_{i,j} = \arctan\left(\frac{Q_3 - Q_1}{Q_0 - Q_2}\right)$ 其中 $Q_0$ 至 $Q_3$ 分別為相位偏移 0°、90°、180° 和 270° 時的相關性值。模擬的 OPL 直接影響這些相關性值。
5. 實驗結果與展示
本文在一個簡單的 3D 測試場景上展示了此框架。主要成果包括:
- 與真實值比較: 模擬的深度圖在直接路徑上與幾何預期值高度吻合。
- MPI 偽影生成: 模擬成功生成了具有多重路徑干擾特徵的深度誤差模式,這些模式在角落處常表現為「鬼影」或扭曲的表面。
- 鏡頭效應視覺化: 模擬影像顯示了徑向失真與暗角,從而可以分析它們對整個視野中深度均勻性的影響。
此驗證證明了該程序在實體原型製作前,對於診斷和理解非理想效應的實用性。
6. 分析框架:核心洞見與評論
核心洞見
這項工作不僅僅是另一個模擬工具;它是在理想化光學設計與混亂的 ToF 感測現實之間的一座策略橋樑。透過倡導將光程長度作為基礎模擬變數,作者正確地指出,大多數 ToF 誤差並非電子雜訊,而是系統性的光學偽影——MPI、次表面散射、鏡頭像差——這些在訊號到達偵測器之前就已嵌入其中。這將優化焦點從純粹的電路設計轉移到整體的光電協同設計。
邏輯流程
其邏輯是穩健的:1) 承認現實世界的光傳輸是複雜的(多重反射、體積效應)。2) 認識到用於強度的標準光線追蹤(類似電腦圖學)對於基於相位的感測是不夠的。3) 因此,追蹤並加總每條光線路徑的光程長度,而不僅僅是強度。4) 使用這些物理上準確的 OPL 數據來驅動相關性/解調模型。這個流程比那些將光學效應作為後處理濾鏡添加到理想深度圖的方法,更貼近實際物理現象。
優勢與缺陷
優勢: 此方法最大的優勢在於其通用性。透過將光學模擬(Zemax)與感測器模型(Python)解耦,它可以適應不同的 ToF 類型(D-ToF、C-ToF),甚至如作者所述,適用於瞬態成像等新興技術。這比專有的、感測器特定的模擬器靈活得多。對複雜幾何形狀與材料的支援,對於感測器面臨挑戰性場景的汽車與機器人應用至關重要。
關鍵缺陷: 顯而易見的問題是計算成本。本文簡要提及了一個「簡單的 3D 測試場景」。在密集、多重反射場景中對數百萬條光線進行高保真度光線追蹤,對於迭代設計週期來說成本過高。雖然像 NVIDIA 的 OptiX 等工具已徹底改變了光線追蹤效能,但本文並未討論其整合。此外,該模型似乎主要在幾何光學範圍內運作。對於微型化的 ToF 感測器(例如在智慧型手機中),孔徑邊緣的繞射效應與波動光學可能變得顯著,這是一個類似於建模小像素影像感測器時所面臨的限制。
可行洞見
1. 對於 ToF 系統設計者: 在早期架構階段使用此方法。在確定鏡頭規格或照明模式之前,進行模擬以量化目標場景(例如汽車內裝)的 MPI 誤差預算。這可以推動對多頻率技術或先進演算法的需求,以對抗 MPI。
2. 對於演算法開發者: 此模擬器是生成大量、物理上準確的合成數據集的完美平台,用於訓練深度學習模型以消除 MPI 和其他偽影,類似於 CycleGAN 風格網路在電腦視覺中用於圖像到圖像轉換的方式。缺乏這種多樣化、帶有真實標籤的實際數據是一個主要瓶頸。
3. 未來工作的必要性: 學術界必須致力於建立一個標準化、開源的 ToF 模擬框架,在物理準確性與速度之間取得平衡——或許可以藉助神經輻射場或其他可微分渲染技術,來創建一個更快、可學習的 ToF 影像形成前向模型。
7. 應用展望與未來方向
此模擬框架為多項先進應用開闢了途徑:
- 自主系統: 針對汽車 LiDAR 和機器人導航,在極端邊緣案例(霧、大雨、鏡面表面)中預先驗證 ToF 感測器效能。
- 生物辨識與醫療保健: 利用 ToF 原理,模擬光線與人體組織的交互作用,用於生理監測(例如透過微振動監測心率)。
- 擴增/虛擬實境: 為頭戴式裝置設計微型化 ToF 感測器,以實現精準的手部追蹤與環境地圖構建,並模擬在不同光照與材質條件下的效能。
- 工業計量學: 為在高反射或雜亂環境中工作的檢測機器人提供高精度模擬。
未來研究應聚焦於整合波動光學、透過 GPU/雲端光線追蹤加速計算,並建立與電子雜訊模型(例如散粒雜訊、熱雜訊)的直接連結,以實現真正的端到端訊噪比預測。
8. 參考文獻
- Baumgart, M., Druml, N., & Consani, C. (2018). Procedure Enabling Simulation and In-Depth Analysis of Optical Effects in Camera-Based Time-of-Flight Sensors. The International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences, XLII-2, 83-90.
- Druml, N. et al. (2015). REAL3™ 3D Image Sensor. Infineon Technologies.
- Jarabo, A., et al. (2017). A Framework for Transient Rendering. ACM Computing Surveys.
- Lange, R. (2000). 3D Time-of-Flight Distance Measurement with Custom Solid-State Image Sensors in CMOS/CCD-Technology. PhD Thesis, University of Siegen.
- Remondino, F., & Stoppa, D. (Eds.). (2013). TOF Range-Imaging Cameras. Springer.
- Schwarte, R., et al. (1997). A New Electrooptical Mixing and Correlating Sensor: Facilities and Applications of the Photonic Mixer Device (PMD). Proc. SPIE.
- Zhu, J.-Y., et al. (2017). Unpaired Image-to-Image Translation using Cycle-Consistent Adversarial Networks. IEEE International Conference on Computer Vision (ICCV). (CycleGAN reference for synthetic data generation).
- NVIDIA OptiX Ray Tracing Engine. (n.d.). Retrieved from developer.nvidia.com/optix.