NVIDIA 在 GTC大會推出兩項與 VR 體驗相關的新 SDK ,分別是基於 OptiX 光線追蹤技術的 VRWorks Audio ,以及用於即時拼接多台相機產生 360 度影像的 360 Video SDK ,分別使 VR 體驗的聲音更擬真,以及能透過 8 具 4K 影像進行即時 360 影片拼接。
先前 NVIDIA 即談過將 OptiX 光線技術與材質模擬活用在聲音模擬的領域,也早已被用在如建設電影院的揚聲器布置模擬,而此次則是將這項技術納入 VRWorks 當中,使得 VR 體驗不再是使用預處理的音訊,而是透過基於 OptiX 光線追蹤,與場景的材質、物體形狀、距離等條件進行即時的聲音模擬,藉此產生更符合 VR 體驗內物理特性的精確聲音。此次發表的版本可由 GitHubs 取得,並包括一組用於整合至任何引擎或應用程式的 C-API,且已整合至 Epic 的 Unreal Engine 4 當中。
至於 360 Video SDK 目前為首個 Beta 版本,是藉由兩具 Quadro P6000 GPU 進行硬體加速,可將八具 4K 影像進行即時的 360 度影像輸出,直接完成高畫質 360 度影像的拍攝、拼接與串流,會場中搭配 Z CAM 的 V1 PRO VR 攝影機作為展示,將會場拍攝的影像即時傳送到體驗者的 VR 頭盔中。VRWorks 360 Video SDK for mono 現已推出公測 beta版,而 VRWorks 360 Video SDK for stereo 則將於近日內推出。