研究生: |
王瑩婷 |
---|---|
論文名稱: |
使用OpenNI實現具備即時與互動式骨架追蹤的3D顯示系統 Real-Time 3D Display and User Interaction Using Skeleton Tracing in OpenNI |
指導教授: | 張鈞法 |
學位類別: |
碩士 Master |
系所名稱: |
資訊工程學系 Department of Computer Science and Information Engineering |
論文出版年: | 2013 |
畢業學年度: | 101 |
語文別: | 中文 |
論文頁數: | 35 |
中文關鍵詞: | OpenNI骨架追蹤 、體感互動 、3D顯示系統 、離軸透視投影 |
英文關鍵詞: | OpenNI skeleton tracking, User Interaction, 3D display, Head-coupled perspective |
論文種類: | 學術論文 |
相關次數: | 點閱:177 下載:12 |
分享至: |
查詢本校圖書館目錄 查詢臺灣博碩士論文知識加值系統 勘誤回報 |
大部份的軟體都必須透過硬體設備(鍵盤、滑鼠、搖桿…等)來互動,而近期像是微軟發展了kinect,以及華碩發展了Xtion系列,不需要手持任何裝置,透過紅外線的收發來偵測人體的輪廓、骨架,甚至是手勢。除此之外,體感機上也另有RGB camera以及兩個聲音訊號接收器,多方綜合起來分析場景會有更正確的結果,延伸性佳。
二來因為液晶螢幕(LCD)的更新頻率提升,螢幕更新頻率可到達120赫茲,是一般LCD的兩倍,甚至240hz。便可使用主動式的快門眼鏡,左右眼交叉顯示的模式來達成立體效果,讓兩眼各自還能維持60hz以上的頻率。除了能維持良好的動態效果,另外近年來也發展出3D lightboost技術,將螢幕的亮度提高為原先的兩倍,讓畫面在執行3D運算時不至於變暗(左眼顯示時遮蔽右眼,右眼顯示時遮蔽左眼,兩眼有一半的時間是處於被遮蔽狀態,導致亮度也會下降一半),硬體上的進步逐漸克服了早期在3D領域上的缺點。
隨著3D立體顯示的進步以及體感技術的發展,本研究發展出硬體設備成本較低以及符合即時互動的虛擬實境系統。以跨平台的遊戲引擎Unity,使用OpenNI(Open Natural Interaction)語言結合華碩開發出的體感機(ASUS Xtion Pro),以及支援NVIDIA 3D Vision的ASUS VG278螢幕和NVIDIA 3D vision 2眼鏡(3D shutter glasses),發展出兼顧真實與即時互動的系統。希望藉由這新的嘗試,能為虛擬實境、遊戲開發提供一個新的想法。
[1] Francone, J., & Nigay, L. (2011). Using the Userʼs Point of View for Interaction on Mobile Devices. Conference Proceedings of IHM’11, the 23th ACM International Conference of the Association Francophone d'Interaction Homme-Machine, ACM, New York, NY, USA
[2] Gateau, S. (2009). The In and Out: Making Games Play Right with Stereoscopic 3D Technologies. NVIDIA
[3] Gateau, S., & Nash, S. (2011). Implementing Stereoscopic 3D in Your Applications. NVIDIA
[4] Intel Corporation. (2013). Head-Coupled Perspective.
[5] Kooima, R. (2009). Generalized Perspective Projection. Website: http://csc.lsu.edu/~kooima/articles.html
[6] Li, I., Peek, E., Wunsche, B., Lutteroth, C. (2012). Enhancing 3D Application Using Stereoscopic 3D and Motion Parallax. Australasian User Interface Conference(AUIC 2012), Melbourne, Australia.
[7] Lee, J.C. (2008). Hacking the nintendo Wii remote. IEEE Pervasive Computing, Vol. 3, pp.39-45
[8] Lee, W. Y., Lee, Y. B., Wu, Y. K., Chuang, R. H., & Ouhyoung, M. (1997). 虛擬實境的核心技術與未來趨勢
[9] NVIDIA. (2010). NVIDIA 3D Vision Automatic - Best Practices Guide BPG-05394-001_v01.
[10] PrimeSense Inc. (2010). Prime Sensor™ NITE 1.3 Algorithms notes.
[11] Piérard, S., Pierlot, V., Lejeune, A., & Van Droogenbroeck, M. (2012). I-see-3D! An Interactive and Immersive System that dynamically adapts 2D projections to the location of a user’s eyes. International Conference on 3D Imaging (IC3D), Liege, Belgium.
網路資料
[12] Heresy space - OpenNI / Kinect 相關文章目錄 http://kheresy.wordpress.com/index_of_openni_and_kinect/
[13] Nvidia site: 3D vision and sound technology: https://developer.nvidia.com/3d-vision-and-surround-technology
[14] OpenNI site: http://www.openni.org/
[15] PrimeSense - NiTE(Natural Interaction Middleware). http://www.primesense.com
[16] Unity - Game Engine. http://unity3d.com/unity/
[17] Unity3D和OpenNI開發Kinect體感遊戲https://sites.google.com/site/moxingjiazi/han-shi-ku/unity/009unity3dheopennikaifakinecttiganyouxi
[18] Virtual reality. http://en.wikipedia.org/wiki/Virtual_reality