簡易檢索 / 詳目顯示

研究生: 陳建亨
Chen, Chien-Heng
論文名稱: 國中九年級學生對相似形的選擇題型與非選擇題型之解題表現
指導教授: 楊凱琳
Yang, Kai-Lin
學位類別: 碩士
Master
系所名稱: 數學系
Department of Mathematics
論文出版年: 2015
畢業學年度: 103
語文別: 中文
論文頁數: 166
中文關鍵詞: 相似形題目類型測驗等化試題反應理論
論文種類: 學術論文
相關次數: 點閱:198下載:5
分享至:
查詢本校圖書館目錄 查詢臺灣博碩士論文知識加值系統 勘誤回報
  • 國外的研究指出選擇題能用電腦批改、方便計算各項統計數據,適合取代填空題,國內的國中教育會考或基本學力測驗亦沒有設計填空題。但是大學學測的填空題即轉化為畫卡的方式進行測驗,所以填空題的作答統計也能與選擇題一樣快速方便。研究發現學生在填空題能回答正確答案,但是卻不一定能說明正確原因,而計算說理題需要寫出演算過程,這樣的題型差異會不會對於不清楚概念卻熟悉算則的學生在解題表現上產生影響?本研究主要目的是了解不同題目類型的難度與鑑別度有何差異,以及國中九年級學生面對不同題型的解題表現。
    本研究採用共同題不等組設計並以同時校準法進行測驗等化,使用試題反應理論的二元化計分二參數對數型模式與部分計分模式,進行試題參數與學生能力參數的估計。以相似形的能力指標為測驗內容,設計題目敘述相同的選擇題、填空題與計算說理題,編製成有同樣題幹相互對應不同題型的三種試卷,並設計6題共同題,以進行測驗等化之用。
    研究結果顯示,平均難度與鑑別度估計值為選擇題小於填空題小於計算說理題,選擇題與填空題難度與鑑別度t檢定未達到顯著水準;計算說理題分別與選擇題、填空題難度和鑑別度t檢定皆達顯著水準。題目未依照題型提升難度與鑑別度的原因有:基礎概念不穩固、利用選項進行糾正反饋、學生未仔細閱讀題目、作答不完整、對題目的預期心理、評分標準的制定。三類題型中有743位學生(約64.6%)沒有表現在相同的排序層級,其中有14%的學生出現「選擇弱填空與計算說理強」(選擇排序較低,填空與計算說理排序較高)的現象。
    最後建議教師編製測驗時應採用多種題目,能讓不同優勢能力的學生發揮所長與磨練不足之處。並建議國內大型測驗應採用多種題目類型,才能較正確地評量受測者的能力,避免使用單一種題型測量受測者的能力時產生誤失。

    致謝……………………………………………………………………………………………i 摘要……………………………………………………………………………………………ii 目錄…………………………………………………………………………………………iii 表目錄…………………………………………………………………………………………v 圖目錄…………………………………………………………………………………………vi 第一章 緒論 第一節 研究動機…………………………………………………………………………1 第二節 研究目的…………………………………………………………………………4 第三節 研究問題…………………………………………………………………………5 第四節 名詞界定…………………………………………………………………………5 第二章 文獻探討 第一節 題目類型相關研究………………………………………………………………7 第二節 相似形相關研究…………………………………………………………………13 第三節 試題反應理論……………………………………………………………………20 第三章 研究方法 第一節 研究流程…………………………………………………………………………30 第二節 研究對象…………………………………………………………………………32 第三節 研究工具…………………………………………………………………………32 第四節 研究限制…………………………………………………………………………45 第四章 研究結果 第一節 試題特性分析……………………………………………………………………48 第二節 學生表現排序分析………………………………………………………………64 第五章 結論與建議 第一節 研究結論…………………………………………………………………………69 第二節 討論與建議………………………………………………………………………73 參考文獻 一、英文部分……………………………………………………………………………76 二、中文部分……………………………………………………………………………78 附錄 附錄一:專家效度審核表………………………………………………………………79 附錄二:施測試卷A卷………………………………………………………………107 附錄三:施測試卷B卷………………………………………………………………111 附錄四:施測試卷C卷………………………………………………………………115 附錄五:計算說理題評分表準………………………………………………………119 附錄六:學生能力估計值……………………………………………………………136 附錄七:ACER ConQuest參數估計指令……………………………………………165

    Adams, R., & Macaskill, G. (2012). Score Estimation and Generalised Partial Credit Models, from http://www.acer.edu.au/conquest/notes-tutorials
    Ajideh, P., & Mozaffarzadeh, S. (2012). C-test vs. Multiple-choice Cloze Test as Tests of Reading Comprehension in Iranian EFL Context: Learners' Perspective. English Language Teaching, 5(11). doi: 10.5539/elt.v5n11p143
    Andrich, D. (1978). A rating formulation for ordered response categories. Psychometrika, 43(4), 561-573. doi: 10.1007/bf02293814
    Berg, C. A., & Smith, P. (1994). Assessing Students’ Abilities to Construct and Interpret Line Graphs: Disparities between Multiple-Choice and Free-Response Instruments. Science Education, 78(6).
    Bloom, B. S. (1956). Taxonomy of educational objectives: the classification of educational goals. New York: Longmans, Green.
    Bock, R. D. (1972). Estimating item parameters and latent ability when responses are scored in two or more nominal categories. Psychometrika, 37(1), 29-51. doi: 10.1007/bf02291411
    Bridgeman, B. (1992). A Comparison of Quantitative Questions in Open-Ended and Multiple-Choice Formats. Journal of Educational Measurement, 29(3), 253-271. doi: 10.2307/1435138
    Cox, D. C. (2013). Similarity in Middle School Mathematics: At the Crossroads of Geometry and Number. Mathematical Thinking and Learning, 15(1), 3-23. doi: 10.1080/10986065.2013.738377
    Eduwem, J. D., & Umoinyang, I. E. (2014). Item Types and Upper Basic Education Students’ Performance in Mathematics in the Southern Senatorial District of Cross River State, Nigeria. Journal of Modern Education Review, 4(1), 57-73. doi: 10.15341/jmer(2155-7993)/01.04.2014/008
    Evens, H., & Houssart, J. (2004). Categorizing pupils’ written answers to a mathematics test question: ‘I know but I can’t explain’. Educational Research, 46(3).
    Hambleton, R. K., & Swaminathan, H. (1985). Item response theory: Principles and applications. Boston, MA: Kluwer-Nijhoff.
    Hancock, G. R. (1994). Cognitive Complexity and the Comparability of Multiple-Choice and Constructed-Response Test Formats. The Journal of Experimental Education, 62(2), 143-157. doi: 10.1080/00220973.1994.9943836
    Kolen, M. J., & Brennan, R. L. (2014). Test Equating, Scaling, and Linking : methods and practices (3 ed.): New York: Springer-Verlag.
    Lamon, S. J. (1993). Ratio and Proportion: Connecting Content and Children's Thinking. Journal for Research in Mathematics Education, 24(1), 41-61. doi: 10.2307/749385
    Livingston, S. A. (2004). Equating Test Scores(Without IRT): Educational Testing Service.
    Lord, F. M. (1974). Estimation of latent ability and item parameters when there are omitted responses. Psychometrika, 39(2), 247-264.
    Lord, F. M. (1980). Applications of Item Response Theory to Practical Testing Problems: Erlbaum Associates.
    Martinez, M. E. (1990). A COMPARISON OF MULTIPLE-CHOICE AND CONSTRUCTED FIGURAL RESPONSE ITEMS. ETS Research Report Series, 1990(2), i-26. doi: 10.1002/j.2333-8504.1990.tb01355.x
    Martinez, M. E. (1991). A Comparison of Multiple-Choice and Constructed Figural Response Items. Joural of Educational Measurement, 28(2), 131-145.
    McDonald, J. L. (1989). Cognitive Development and the Structuring of Geometric Content. Journal for Research in Mathematics Education, 20(1), 76-94.
    National Assessment Governing Board. (2003). Mathematics Framework for the 2003 National Assessment of Educational Progress: National Assessment of Governing Board.
    National Council of Teachers of Mathematics. (2000). Principles and Standards for School Mathematics from http://www.nctm.org/Standards-and-Positions/Principles-and-Standards/Geometry/
    Oosterhof, A. C., & Coats, P. K. (1984). Comparison of Difficulties and Reliabilities of Quantitative Word Problems in Completion and Multiple-Choice Item Formats. Applied Psychological Measurement, 8(3), 287-294. doi: 10.1177/014662168400800305
    Reckase, M. D. (1979). Unifactor Latent Trait Models Applied to Multifactor Tests: Results and Implications. Journal of Educational and Behavioral Statistics, 4(3), 207-230. doi: 10.3102/10769986004003207
    Samejima, F. (1997). Graded Response Model. In W. van der Linden & R. Hambleton (Eds.), Handbook of Modern Item Response Theory (pp. 85-100): Springer New York.
    Wolf, D. F. (1993). A Comparison of Assessment Tasks Used to Measure FL Reading Comprehension. The Modern Language Journal, 77(4), 473-489. doi: 10.1111/j.1540-4781.1993.tb01995.x
    Wu, M. L., Adams, R. J., Wilson, M. R., & Haldane, S. A. (2007). ACER ConQuest version 2.0 : generalised item response modelling software. Victoria: ACER Press.
    Sobel, M. A., & Maletsky, E. M. (1987). 數學教學方法(張靜嚳、念家興譯)(1996). 台北: 九章出版社.
    大學入學考試中心. (2013). 指定科目考試數學考科考試說明(適用99課綱), from http://www.ceec.edu.tw/99課綱考試說明/1000930/03-102指考數學考試說明_定稿_.pdf
    王文中, 呂金燮, 吳毓瑩, 張郁雯, & 張淑慧. (1999). 教育測驗與評量─教室學習觀點 (1 ed.): 五南.
    左台益, & 梁勇能. (2001). 國二學生空間能力與 van Hiele 幾何思考層次相關性研究 師大學報:科學教育類 (Vol. 46).
    余民寧. (2009). 試題反應理論(IRT)及其應用 (1 ed.): 心理出版社.
    吳宜靜. (2005). 八二年版國一學生縮圖與放大圖繪製之概念與表現. 碩士論文, 國立台南大學, 台南市.
    洪碧霞, & 吳裕益. (1996). 國民小學數學標準參照測驗編製計劃結案報告. 臺北市: 教育部社會教育司.
    國中教育會考. (2013). 數學科(含非選擇題題型)考試內容, from http://www.cap.ntnu.edu.tw/test_4_4.html
    國民中學學生基本學力測驗推動工作委員會. (2013), from http://www.bctest.ntnu.edu.tw/
    康木村, & 柳賢. (2004). 國中學生「相似形」迷思概念之研究 中華民國第二十屆科學教育學術研討會會議手冊.
    教育部. (2000). 90年暫行綱要, from http://teach.eje.edu.tw/9CC2/9cc_90.php
    教育部. (2006). 國民中小學九年一貫課程綱要, from http://teach.eje.edu.tw/9CC2/9cc_92.php
    教育部. (2012). 97年國民中小學九年一貫課程綱要, from http://teach.eje.edu.tw/9CC2/9cc_97.php
    郭生玉. (2004). 教育測驗與評量: 精華書局.
    郭伯臣, 吳慧珉, & 陳俊華. (2012). 試題反應理論在教育測驗上之應用 新竹縣教育研究集刊 (Vol. 12, pp. 5~40).
    陳建亨, & 楊凱琳. (2014). 題型對學生解題表現的影響- 以相似形內容為例 第30屆科學教育學術研討會(2014)論文彙編 (pp. 108-112).
    黃國展. (2003). 國三學生解相似形問題之歷程分析研究 數學系. 高雄市: 國立高雄師範大學.
    藍珮君. (2008). 華語文能力測驗垂直等化研究 台灣華語文教學年會暨研討會.

    下載圖示
    QR CODE