張華對此表示很遺憾,因為他也沒有什麼辦法,也沒有更大的動力去改進了,綁定才能賣得更多不是麼?而且設備和人之間要通過腦電波同頻後才會達到完美效果,這種科學的借口張華會找啊,而且是多麼符合科學常識啊!
花了張華兩個月時間之久的頭盔終於擺在了他麵前,激活機器也順便做了出來,隻要清楚了方向,對張華這種行動黨來說就完全不費什麼勁。張華編了一個很簡短的體驗程序,隨即戴上體驗了起來。
結果讓張華從天堂跌到穀底,效果確實很好,張華先在電腦上事先用隨機算法做好的3D畫麵,在通過頭盔顯示時,靜態畫麵十分很清晰,很沉浸,細節十分清楚,但張華一動,問題就來了,圖像要卡半天才會出來,即使張華用的是因特爾最新的處理芯片也沒有用。出來後一看記錄,芯片全速運轉,但處理的數據量還是達不到頭盔視網膜級的顯示要求。要知道,普通的手機達到300PPI就可以稱作視網膜級別的,而這個距離是20-30厘米,人的視角差不多15度左右,正常人的視角完全可以達到120度以上,也意味著圖像處理能力得至少是以前的64倍以上,才能勉強達到視頻全息的要求,加之行動時對細節的計算要求比平麵時很多,這要求就更高了,更別說還要考慮到其它感覺在內。張華隻能去找了台又大又笨重性能強悍的圖像服務器,這樣才能勉強保證行走不卡頓,各種感覺傳遞也壓縮在難以察覺的誤差範圍之內。所以,便捷和便宜的頭盔暫時是沒戲了,隻能做成又大又笨重的艙了,張華算了算,主要成本居然是在處理器上麵,一台光成本價都得20萬,公司想盈利,不賣40萬是不行的,這極大地影響了公司市場前景。看樣子按科學路子走的虛擬現實儀器也是因為因特爾的原因沒有普及吧,誰叫他的處理器這麼不行?