Call Number | T-1415 (softcopy T-1124) MAK PI-215 TR-CSUI- 87 Source Code-389 |
Collection Type | Tesis |
Title | Multi -Task Fine-Tuning Model Transformer dengan Skema Prefix-Prepend untuk Pembangkitan Pertanyaan Terpadu Berbasis Jawaban dalam Bahasa Indonesia |
Author | Halim Wildan Awalurahman; |
Publisher | Depok: Fasilkom UI, 2025 |
Subject | Question generation, Transformer |
Location | FASILKOM-UI; |
Nomor Panggil | ID Koleksi | Status |
---|---|---|
T-1415 (softcopy T-1124) MAK PI-215 TR-CSUI- 87 Source Code-389 | TERSEDIA |
Nama : Halim Wildan Awalurahman Program Studi : Ilmu Komputer Judul : Multi-Task Fine-Tuning Model Transformer dengan Skema Prefix-Prepend untuk Pembangkitan Pertanyaan Terpadu Berbasis Jawaban dalam Bahasa Indonesia Pembimbing : Prof. Dr. Indra Budi, S.Kom., M.Kom. Pembangkitan pertanyaan secara otomatis adalah salah satu solusi dari permasalahan pembuatan soal yang membutuhkan banyak waktu dan tenaga. Model state-of-the art dalam pembangkitan pertanyaan berbahasa Indonesia saat ini, menggunakan idT5, memiliki kelemahan yang meliputi kesalahan konteks, pemilihan kata tanya, dan target jawaban yang harus ditulis persis dengan yang ada di konteks atau disebut extractive. Penelitian ini bertujuan untuk mengatasi kelemahan tersebut sehingga meningkatkan performa model pada penelitian sebelumnya dengan skema fine-tuning yang diusulkan. Penelitian ini mengusulkan mekanisme fine-tuning dengan menggunakan format prefix-prepend untuk mengatasi keterbatasan model sebelumnya. Hasil dari penelitan ini menunjukkan bahwa skema prefix-prepend dapat mengatasi kelemahan model baseline dan meningkatkan performa model idT5 dalam pembangkitan pertanyaan. Model terbaik mendapatkan skor BLEU sebesar 27,81, ROUGE-L sebesar 57,38, dan BERT similarity sebesar 0,789.