Evaluasi Kualitas Butir Soal Matematika Materi Matriks Kelas XI dengan Pendekatan Analisis Kuantitatif Menggunakan ANATES 4.1.0 dan SPSS 26
DOI:
https://doi.org/10.52436/1.jpti.1024Keywords:
analisis butir soal, ANATES, matriks, reliabilitas, SPSS, validitasAbstract
Analisis kualitas butir soal evaluasi pembelajaran matematika pada materi matriks kelas XI dilakukan dengan pendekatan kuantitatif deskriptif menggunakan software ANATES versi 4.1.0 dan IBM SPSS Statistics 26. Penelitian ini dilakukan untuk menilai sejauh mana butir soal yang dikembangkan telah memenuhi kriteria sebagai instrumen evaluasi pembelajaran yang baik. Instrumen terdiri dari 25 butir soal yang mencakup soal pilihan ganda, pilihan ganda kompleks, dan uraian, yang disusun berdasarkan indikator Kurikulum Merdeka. Subjek penelitian terdiri dari 18 siswa kelas XI SMA AQL Islamic School 2 Purwakarta. Proses analisis dilakukan dengan menilai lima aspek utama, yaitu validitas, reliabilitas, daya pembeda, tingkat kesukaran, dan efektivitas pengecoh. Hasil analisis menunjukkan bahwa sebagian besar butir soal memiliki validitas sedang hingga tinggi dan reliabilitas yang baik. Tingkat kesukaran soal bervariasi dari mudah hingga sukar, dengan daya pembeda dan efektivitas pengecoh yang beragam. Beberapa soal menunjukkan kelemahan, seperti pengecoh yang tidak berfungsi (non-fungsional) serta daya pembeda yang rendah, sehingga memerlukan revisi untuk meningkatkan kualitasnya. Temuan ini mengindikasikan bahwa sebagian besar soal telah memenuhi kriteria instrumen evaluasi yang baik, namun tetap diperlukan revisi pada beberapa butir untuk mencapai kualitas optimal. Disimpulkan bahwa analisis butir soal berbasis teknologi sangat penting dalam menjamin kualitas, keadilan, dan efektivitas asesmen, serta mendukung praktik evaluasi yang akuntabel dalam pembelajaran matematika di sekolah.
Downloads
References
S. Pastore, “Teacher assessment literacy: a systematic review,” Front. Educ., vol. 8, 2023, doi: 10.3389/feduc.2023.1217167.
S. Ahmadi, S. Ghaffary, and M. Shafaghi, “Examining Teacher Assessment Literacy and Instructional Improvement of Iranian High School Teachers on Various Fields of Study,” Int. J. Lang. Test., vol. 12, no. 1, pp. 1–25, 2022, doi: 10.22034/IJLT.2022.146981.
Z. Banitalebi, M. Estaji, and G. T. L. Brown, “Measuring teacher assessment literacy in digital environments: Development and validation of a scenario-based instrument,” Educ. Technol. Soc., vol. 28, no. 2, pp. 169–215, 2025, doi: 10.30191/ETS.202504_28(2).RP10.
C. DeLuca and D. A. Klinger, “Assessment literacy development: Identifying gaps in teacher education,” Assess. Educ. Princ. Policy Pract., vol. 27, no. 2, pp. 136–155, 2020, doi: 10.1080/0969594X.2019.1659431.
A. J. Nitko and S. M. Brookhart, Educational assessment of students, 7th ed. Pearson Education, 2014.
A. E. R. Association, A. P. Association, and N. C. on M. in Education, Standards for educational and psychological testing. Washington, DC: American Educational Research Association, 2014.
T. M. Haladyna and M. C. Rodriguez, Developing and validating test items, 3rd ed. Routledge, 2013.
D. P. Sahoo and R. Singh, “Item and distracter analysis of multiple choice questions (MCQs) from a preliminary examination of undergraduate medical students,” Int. J. Res. Med. Sci., vol. 5, no. 12, pp. 5351–5355, 2017, doi: 10.18203/2320-6012.ijrms20175453.
I. Burud, K. Nagandla, and P. Agarwal, “Impact of distractors in item analysis of multiple choice questions,” Int. J. Res. Med. Sci., vol. 7, no. 4, pp. 1136–1139, 2019, doi: 10.18203/2320-6012.ijrms20191313.
T. Puthiaparampil and M. Rahman, “How important is distractor efficiency for grading Best Answer Questions?,” BMC Med. Educ., vol. 21, no. 1, p. 29, 2021, doi: 10.1186/s12909-020-02463-0.
A. A. Rezigalla et al., “Item analysis: the impact of distractor efficiency on the difficulty index and discrimination power of multiple-choice items,” BMC Med. Educ., vol. 24, 2024, doi: 10.1186/s12909-024-05433-y.
G. R. Chauhan, B. R. Chauhan, J. V Vaza, and P. R. Chauhan, “Relations of the Number of Functioning Distractors With the Item Difficulty Index and the Item Discrimination Power in the Multiple Choice Questions,” Cureus, vol. 15, no. 7, 2023, doi: 10.7759/cureus.42492.
H. Retnawati et al., “A Systematic Review of the Use of Technology in Educational Assessment Practices: Lesson Learned and Direction for Future Studies,” Int. J. Robot. Control Syst., vol. 4, no. 4, pp. 1656–1693, 2024, doi: 10.31763/ijrcs.v4i3.1572.
A. L. F. Tilaar and Hasriyanti, “Analisis Butir Soal Semester Ganjil Mata Pelajaran Matematika pada Sekolah Menengah Pertama,” J. Pengukuran Psikol. dan Pendidik. Indones., vol. 8, no. 1, pp. 57–68, 2019, doi: 10.15408/jp3i.v8i1.13068.
B. Utomo, “Analisis Validitas Isi Butir Soal Sebagai Salah Satu Upaya,” J. Pendidik. Mat., vol. 2, no. 1, pp. 145–159, 2018.
Elviana, “Analisis Butir Soal Evaluasi Pembelajaran Pendidikan Agama Islam Menggunakan Program Anates,” J. MUDARRISUNA, vol. 10, no. 2, pp. 58–74, 2020, [Online]. Available: https://jurnal.ar-raniry.ac.id/index.php/mudarrisuna/article/view/7839.
Gunawan and L. Asria, “Analisis Butir Soal Penilaian Tengah Semester (PTS) Matematika Kelas XI Berdasarkan Teori Klasik,” MATH LOCUS J. Ris. dan Inov. Pendidik. Mat., vol. 4, no. 1, pp. 1–11, 2023, doi: 10.31002/mathlocus.v4i1.3177.
S. C. Ohiri and R. O. Okoye, “Application of Classical Test Theory As Linear Modeling To Test Item Development and Analysis,” Int. Res. J. Mod. Eng. Technol. Sci., vol. 5, no. 10, 2023, doi: 10.56726/irjmets45379.
M. Ansari, R. Sadaf, A. Akbar, S. Rehman, Z. R. Chaudhry, and S. Shakir, “Assessment of distractor efficiency of MCQS in item analysis.,” Prof. Med. J., vol. 29, no. 05, pp. 730–734, 2022, doi: 10.29309/tpmj/2022.29.05.6955.
M. Sajjad, S. Iltaf, and R. A. Khan, “Nonfunctional distractor analysis: An indicator for quality of multiple choice questions,” Pakistan J. Med. Sci., vol. 36, no. 5, pp. 982–986, 2020, doi: 10.12669/pjms.36.5.2439










