簡易檢索 / 詳目顯示

研究生: 王瑩婷
論文名稱: 使用OpenNI實現具備即時與互動式骨架追蹤的3D顯示系統
Real-Time 3D Display and User Interaction Using Skeleton Tracing in OpenNI
指導教授: 張鈞法
學位類別: 碩士
Master
系所名稱: 資訊工程學系
Department of Computer Science and Information Engineering
論文出版年: 2013
畢業學年度: 101
語文別: 中文
論文頁數: 35
中文關鍵詞: OpenNI骨架追蹤體感互動3D顯示系統離軸透視投影
英文關鍵詞: OpenNI skeleton tracking, User Interaction, 3D display, Head-coupled perspective
論文種類: 學術論文
相關次數: 點閱:177下載:12
分享至:
查詢本校圖書館目錄 查詢臺灣博碩士論文知識加值系統 勘誤回報
  • 大部份的軟體都必須透過硬體設備(鍵盤、滑鼠、搖桿…等)來互動,而近期像是微軟發展了kinect,以及華碩發展了Xtion系列,不需要手持任何裝置,透過紅外線的收發來偵測人體的輪廓、骨架,甚至是手勢。除此之外,體感機上也另有RGB camera以及兩個聲音訊號接收器,多方綜合起來分析場景會有更正確的結果,延伸性佳。
    二來因為液晶螢幕(LCD)的更新頻率提升,螢幕更新頻率可到達120赫茲,是一般LCD的兩倍,甚至240hz。便可使用主動式的快門眼鏡,左右眼交叉顯示的模式來達成立體效果,讓兩眼各自還能維持60hz以上的頻率。除了能維持良好的動態效果,另外近年來也發展出3D lightboost技術,將螢幕的亮度提高為原先的兩倍,讓畫面在執行3D運算時不至於變暗(左眼顯示時遮蔽右眼,右眼顯示時遮蔽左眼,兩眼有一半的時間是處於被遮蔽狀態,導致亮度也會下降一半),硬體上的進步逐漸克服了早期在3D領域上的缺點。
    隨著3D立體顯示的進步以及體感技術的發展,本研究發展出硬體設備成本較低以及符合即時互動的虛擬實境系統。以跨平台的遊戲引擎Unity,使用OpenNI(Open Natural Interaction)語言結合華碩開發出的體感機(ASUS Xtion Pro),以及支援NVIDIA 3D Vision的ASUS VG278螢幕和NVIDIA 3D vision 2眼鏡(3D shutter glasses),發展出兼顧真實與即時互動的系統。希望藉由這新的嘗試,能為虛擬實境、遊戲開發提供一個新的想法。

    圖目錄 iv 表格目錄 v 一、 緒論 1 1.1 背景 1 1.2 研究動機 1 二、 相關文獻與研究 3 2.1 頭部偵測(Head detection) 3 2.2 視野調整 3 三、 OpenNI概論 7 3.1 簡介 7 3.2 OpenNI 架構 7 四、 3D 立體顯示技術概論 9 4.1 立體視覺的構成 9 4.2 立體顯示技術 9 4.2.1 被動式3D眼鏡 9 4.2.2 主動式3D眼鏡 10 4.2.2 裸視3D 12 4.3 NVIDIA 3D Vision 12 4.3.1 立體感基礎觀念 13 4.3.2 NVIDIA 3D 繪圖流程 15 4.3.3 NVIDIA stereoscopic 3D 限制 17 五、 研究方法與實現OpenNI頭部追蹤 19 5.1 ASUS Xtion Pro Live體感裝置 19 5.3 實作細節 20 5.4 資料結構 24 5.5 其他設定 25 六、 實驗結果與討論 26 6.1 執行環境 26 6.2 執行畫面 27 (1) 相似三角形 28 (2) Off-axis perspective 29 6.3 結果討論 30 6.4 系統效能 31 七、 結論與未來方向 33 參考文獻 34

    [1] Francone, J., & Nigay, L. (2011). Using the Userʼs Point of View for Interaction on Mobile Devices. Conference Proceedings of IHM’11, the 23th ACM International Conference of the Association Francophone d'Interaction Homme-Machine, ACM, New York, NY, USA
    [2] Gateau, S. (2009). The In and Out: Making Games Play Right with Stereoscopic 3D Technologies. NVIDIA
    [3] Gateau, S., & Nash, S. (2011). Implementing Stereoscopic 3D in Your Applications. NVIDIA
    [4] Intel Corporation. (2013). Head-Coupled Perspective.
    [5] Kooima, R. (2009). Generalized Perspective Projection. Website: http://csc.lsu.edu/~kooima/articles.html
    [6] Li, I., Peek, E., Wunsche, B., Lutteroth, C. (2012). Enhancing 3D Application Using Stereoscopic 3D and Motion Parallax. Australasian User Interface Conference(AUIC 2012), Melbourne, Australia.
    [7] Lee, J.C. (2008). Hacking the nintendo Wii remote. IEEE Pervasive Computing, Vol. 3, pp.39-45
    [8] Lee, W. Y., Lee, Y. B., Wu, Y. K., Chuang, R. H., & Ouhyoung, M. (1997). 虛擬實境的核心技術與未來趨勢
    [9] NVIDIA. (2010). NVIDIA 3D Vision Automatic - Best Practices Guide BPG-05394-001_v01.
    [10] PrimeSense Inc. (2010). Prime Sensor™ NITE 1.3 Algorithms notes.
    [11] Piérard, S., Pierlot, V., Lejeune, A., & Van Droogenbroeck, M. (2012). I-see-3D! An Interactive and Immersive System that dynamically adapts 2D projections to the location of a user’s eyes. International Conference on 3D Imaging (IC3D), Liege, Belgium.


    網路資料
    [12] Heresy space - OpenNI / Kinect 相關文章目錄 http://kheresy.wordpress.com/index_of_openni_and_kinect/
    [13] Nvidia site: 3D vision and sound technology: https://developer.nvidia.com/3d-vision-and-surround-technology
    [14] OpenNI site: http://www.openni.org/
    [15] PrimeSense - NiTE(Natural Interaction Middleware). http://www.primesense.com
    [16] Unity - Game Engine. http://unity3d.com/unity/
    [17] Unity3D和OpenNI開發Kinect體感遊戲https://sites.google.com/site/moxingjiazi/han-shi-ku/unity/009unity3dheopennikaifakinecttiganyouxi
    [18] Virtual reality. http://en.wikipedia.org/wiki/Virtual_reality

    下載圖示
    QR CODE