您現在的位置是:首頁 > 單機遊戲首頁單機遊戲

虛擬模擬互動沉浸式實驗室

簡介配置:全身動捕:Xsens MVN Animate pro慣性動作捕捉系統面部捕捉:Faceware 面部表情識別系統手部捕捉:Manus Prime Xsens專用VR手套2、實時視覺化互動模組(預算40萬)實時視覺化互動模組是透過投影顯

虛擬化學實驗室如何用

一、概述

虛擬現實技術是一種可以建立和體驗虛擬世界的計算機模擬系統,它利用高效能計算機生成一種模擬環境,是一種多源資訊融合的、互動式的三維動態視景和實體行為的系統模擬。虛擬現實透過實時三維計算機圖形技術、立體顯示技術、動作捕捉技術,以及觸覺/力反饋、立體聲、網路傳輸、語音輸入輸出等技術手段,給體驗者營造出一種高沉浸性與互動性的虛擬環境。

虛擬模擬互動沉浸式實驗室

透過虛擬現實在多維資訊空間上建立一個虛擬資訊環境,使使用者具有身臨其境的沉浸感,並在虛擬現實環境中實現互動,有助於使用者加深感受、啟發認知。虛擬現實在各行業中的應用,普遍具備了沉浸性、互動性、構想性這三個基本技術特性。目前,虛擬現實(VR)已廣泛地應用於遊戲、直播、影視、醫療、旅遊、醫療、教育、商業、工業、軍事等各行各業中,為這些行業提供前所未有的解決方案。虛擬現實透過其沉浸性、互動性及構想性的顯著特徵,正不斷的影響我們的生活。

虛擬模擬互動沉浸式實驗室

二、方案建設

本方案規劃為六大模組,專案預算在140萬(可根據實際預算調整模組)。

(1)3D人體動作捕捉模組

(2)實時視覺化互動模組

(3)觸覺回饋模組

(4)桌面級AR全息互動平臺模組

(5)頭戴式VR漫遊模組

(6)AR體驗互動模組

虛擬模擬互動沉浸式實驗室

三、模組應用系統分析

1、3D人體動作捕捉模組:(預算55萬)

為了獲得有真實感又能快速產出的動畫,必須透過動作捕捉系統將演員的動作直接匯入到動畫中,更準確的動作可結合動作捕捉系統能夠用自己的身體來操控虛擬角色,並且實時的看到最佳化的平順動作。專業臉部面部捕捉系統,透過體感互動裝置可以直接與3D動畫軟體與繪圖軟體做串流,實時錄製表情到動畫模型裡,快速製作動畫。

虛擬模擬互動沉浸式實驗室

Xsens MVN是一款便於操作、經濟實用的慣性動作捕捉系統。MVN獨特之處在於不受環境光線與空間距離的限制,純淨的動作捕捉資料不需要進行後處理即可錄製完成,非常適用於各種實時的表演應用。全新的MVN動作捕捉系統採用最新的慣性感測技術,硬體效能與軟體功能方面均獲得大幅的提升,徹底解決過去慣性動作捕捉系統在雙腳同時離地、跳躍、爬樓等動作會產生資料漂移現象的問題。

虛擬模擬互動沉浸式實驗室

Faceware是全球領先的單攝像機、無標記點的面部表情捕捉系統供應商,支援無線資料傳輸,相容任意影片源,實時預覽表情動畫,捕捉效果精細,人性化的軟體功能設計,迄今已為全球數百位專業使用者提供先進的無標記點式面部表情捕捉解決方案,廣泛應用於影視特效和AAA遊戲製作。

虛擬模擬互動沉浸式實驗室

本模組適用於3D人物動畫製作、電影/遊戲和廣告預覽、遊戲開發、訓練和模擬、虛擬現實、電影和視覺特效、電視廣告、現場娛樂表演,演唱會和路演等領域。

配置:

全身動捕:Xsens MVN Animate pro慣性動作捕捉系統

面部捕捉:Faceware 面部表情識別系統

手部捕捉:Manus Prime Xsens專用VR手套

虛擬模擬互動沉浸式實驗室

2、實時視覺化互動模組(預算40萬)

實時視覺化互動模組是透過投影顯示技術構建大螢幕模擬體驗的硬體環境,透過虛擬現實技術和實景影片技術為核心,把應用場景直接搬進課堂,讓體驗者猶如身臨其境的現場演練,並透過A。R。T互動系統與場景進行人機互動,形象的豐富視覺化教學。模組適用於虛擬現實、醫療、工業、動作捕捉、科研等諸多領域。

虛擬模擬互動沉浸式實驗室

顯示端:

單通道投影系統

互動端:

A。R。T。SMARTTRACK3小型空間追蹤系統

引擎端:

Unity 3D引擎+Middle VR外掛

內容端:

根據客戶所需內容進行開發

虛擬模擬互動沉浸式實驗室

3、觸覺回饋模組(

預算

15萬)

硬體裝置:Geomagic Touch X力反饋裝置

虛擬模擬互動沉浸式實驗室

力反饋是指在人機互動過程中,計算機對使用者的輸入做出響應,並透過力反饋裝置作用於使用者的過程。它是一種機械裝置表現出來的反作用力,將力反饋裝置與環境中物體互動的資訊轉化成使用者能夠感知的力的效果,如觸碰物體的阻力、舉起物體的重力和“觸控”物體表面的摩擦力。

虛擬模擬互動沉浸式實驗室

力反饋技術的引入,使互動體驗更加自然、真實。雖然傳統的滑鼠、鍵盤、觸控式螢幕等互動手段可以滿足使用者與環境中物體互動的需求,但是缺乏觸覺互動資訊的反饋。力反饋技術結合其他的VR技術,使使用者在互動過程中不僅能夠透過視、聽覺通道獲取資訊,還能夠透過觸覺通道感受模擬現實觸覺回饋互動的“觸感”。

4、桌面級AR全息互動平臺模組(

預算

12萬)

硬體基於Vox人機互動平臺

虛擬模擬互動沉浸式實驗室

Vox適用於桌面高精度AR互動場合,它提供大範圍高精度頭部光學追蹤系統,來捕捉操作者眼、手的位置,讓你更加從容地與3D虛擬世界進行互動。Voxel適配被動、主動、裸眼等多種立體顯示方式,使得使用者根據自己的習慣、需求任意調配符合自己的專屬環境。它提供開源的C++介面,適用於Unity3D、UE4等開發工具,使用者也可根據指令碼、檔案,自行修改程式內容。提供開源示例程式Demo,幫助快速上手開發應用軟體。

虛擬模擬互動沉浸式實驗室

Vox不僅提供優質的硬體,還提供多樣的軟體支援與服務。它提供多元的小學、初中、高中的理化生實驗課程,還提供完備且符合中國課標的課程評價內容,不僅滿足學校教學任務,還能有針對性的服務創客式教育。它符合專案式教學模式,提倡學生在過程中獲得知識,以學生為主體,提升學生自我創新的能力。

虛擬模擬互動沉浸式實驗室

5、頭戴式VR漫遊模組(預算12萬)

硬體基於HTC Vive

頭戴式顯示器

虛擬模擬互動沉浸式實驗室

HTC頭戴式顯示器是現階段國際較先進的空間定位虛擬現實眼鏡套裝(眼鏡+手柄+定位器),能夠保證在5*5區域內的完全位移與動作虛擬。HTC能完美解決觀看體驗過程中,有眩暈感的問題,讓使用者有更好的沉浸體驗。手柄控制器符合人體工程學原理,可以使您與虛擬世界進行互動。每個控制器的位置都會在空間中被追蹤,開發人員由此能夠模擬各種活動和互動。

虛擬模擬互動沉浸式實驗室

提供虛擬現實內容快速創作開發引擎(個人版)。使用者可透過平臺提供的模型資源素材庫快速獲取三維模型檔案,方便、高效地搭建虛擬場景內容,並能夠透過動畫編輯器製作豐富的互動內容,藉助互動編輯器完成場景互動邏輯的定製。支援PC端、頭盔端等多種主流虛擬現實顯示裝置進行互動操作。

虛擬模擬互動沉浸式實驗室

可提供3個VR資源,根據具體應用場景,搭配不同的資源,供學習、交流、研究使用。

6、AR體驗互動模組(預算6萬)

硬體基於微軟HoloLens AR頭戴式顯示器

虛擬模擬互動沉浸式實驗室

AR互動體驗模組採用動畫捕捉技術、AR互動技術、虛擬現實技術、三維立體空間匹配技術、視角矯正技術等相結合,實現將虛擬的場景、角色、物件等,完美的融合在真實的場景中,並能夠與虛擬場景中的角色進行互動。

在HoloLens AR頭顯中,微軟完全更新了使用者與全息影像的互動方式,利用新的TOF深度感測器,結合內建AI和語義理解,HoloLens可以讓你採用與現實世界的物體互動時所使用的同樣手勢來直接操控全息影像。除了顯示引擎的改進和更加直觀的操作全息影像,HoloLens還包含眼球跟蹤感測器,讓人們與全息影像的互動更加自然。

Top