Library Automation and Digital Archive
LONTAR
Fakultas Ilmu Komputer
Universitas Indonesia

Pencarian Sederhana

Find Similar Add to Favorite

Call Number T-1415 (softcopy T-1124) MAK PI-215 TR-CSUI- 87 Source Code-389
Collection Type Tesis
Title Multi -Task Fine-Tuning Model Transformer dengan Skema Prefix-Prepend untuk Pembangkitan Pertanyaan Terpadu Berbasis Jawaban dalam Bahasa Indonesia
Author Halim Wildan Awalurahman;
Publisher Depok: Fasilkom UI, 2025
Subject Question generation, Transformer
Location FASILKOM-UI;
Lokasi : Perpustakaan Fakultas Ilmu Komputer
Nomor Panggil ID Koleksi Status
T-1415 (softcopy T-1124) MAK PI-215 TR-CSUI- 87 Source Code-389 TERSEDIA
Tidak ada review pada koleksi ini: 55861
ABSTRAK

Nama : Halim Wildan Awalurahman Program Studi : Ilmu Komputer Judul : Multi-Task Fine-Tuning Model Transformer dengan Skema Prefix-Prepend untuk Pembangkitan Pertanyaan Terpadu Berbasis Jawaban dalam Bahasa Indonesia Pembimbing : Prof. Dr. Indra Budi, S.Kom., M.Kom. Pembangkitan pertanyaan secara otomatis adalah salah satu solusi dari permasalahan pembuatan soal yang membutuhkan banyak waktu dan tenaga. Model state-of-the art dalam pembangkitan pertanyaan berbahasa Indonesia saat ini, menggunakan idT5, memiliki kelemahan yang meliputi kesalahan konteks, pemilihan kata tanya, dan target jawaban yang harus ditulis persis dengan yang ada di konteks atau disebut extractive. Penelitian ini bertujuan untuk mengatasi kelemahan tersebut sehingga meningkatkan performa model pada penelitian sebelumnya dengan skema fine-tuning yang diusulkan. Penelitian ini mengusulkan mekanisme fine-tuning dengan menggunakan format prefix-prepend untuk mengatasi keterbatasan model sebelumnya. Hasil dari penelitan ini menunjukkan bahwa skema prefix-prepend dapat mengatasi kelemahan model baseline dan meningkatkan performa model idT5 dalam pembangkitan pertanyaan. Model terbaik mendapatkan skor BLEU sebesar 27,81, ROUGE-L sebesar 57,38, dan BERT similarity sebesar 0,789.