Bibliografi
Barcode
Pengarang
Ezra Pasha Ramadhansyah;
Cat. Karya
No. Induk
Pembimbing
Kata Kunci
temu-balik informasi, neural re-ranker, pencarian pertanyaan serupa
Pembimbing 3
Pembimbing 2
Syifa Nurhayati
Tahun buku
2024
Barcode RFID baru
11645962
Progam Studi
Ilmu Komputer
Tahun Angkatan
2020
Lokasi
FASILKOM-UI;
Tanggal Datang
10/10/2024
Abstrak Indonesia
ABSTRAK

Nama : Ezra Pasha Ramadhansyah Program Studi : Ilmu Komputer Judul : Neural Re-Ranker untuk Mengidentifikasi Pertanyaan Serupa pada Forum Kesehatan Berbahasa Indonesia Pembimbing : Alfan Farizki Wicaksono, S.T., M.Sc., Ph.D. Syifa Nurhayati, M.Kom Sistem perolehan pertanyaan serupa diimplementasikan pada banyak situs tanya jawab, khususnya pada forum tanya jawab kesehatan. Implementasi dari sistem pencarian pertanyaan serupa dapat beragam seperti text based retriever dan neural ranker. Permasalahan utama dari neural ranker adalah kurangnya penelitian dalam bahasa indonesia untuk modelnya, khususnya untuk yang menggunakan BERT sebagai model untuk deteksi pertanyaan serupa. Pada penelitian ini akan dicari tahu sejauh apa neural re-ranker BERT dapat memperbaiki kualitas ranking dari text-based retriever jika diterapkan fine-tuning pada model. Model yang digunakan oleh penelitian berupa BERT dan test collection yang digunakan merupakan dataset forum kesehatan yang disusun oleh Nurhayati (2019). Untuk mengetahui sejauh mana model berbasis BERT dapat berguna untuk re-ranking, eksperimen dilakukan pada model pre-trained multilingual- BERT, indoBERT, stevenWH, dan distilBERT untuk melihat model yang terbaik untuk di-fine-tune. Penelitian juga mengusulkan dua metode fine-tuning yakni attention mask filter dengan IDF dan freezed layer dengan melakukan freezing pada beberapa layer di dalam BERT. Model dan metode ini kemudian diuji pada beberapa skenario yang telah ditentukan. Hasil dari eksperimen menunjukkan bahwa re-ranker dapat meningkatkan kualitas text based retriever bila di-fine-tune dengan metode dan skenario tertentu. Beberapa model memberikan hasil yang lebih baik dengan dataset forum kesehatan dan dengan text based retriever BM25 dan TF-IDF. Model multilingualBERT dan metode fine-tuning layer freezing memberikan hasil yang terbaik dari semua kombinasi. Kenaikan tertinggi terdapat pada kombinasi BM25 dan multilingualBERT dengan layer freezing dengan kenaikan sebesar 0.051 dibandingkan BM25. Kata kunci: temu-balik informasi, neural re-ranker, pencarian pertanyaan serupa

Daftar Isi
Cat. Umum
Judul
Neural Re-Ranker untuk Mengidentifikasi Pertanyaan Serupa pada Forum Kesehatan Berbahasa Indonesia
Asal
Korporasi
NPM
2006597872
Abstrak English
ABSTRACT

Name : Ezra Pasha Ramadhansyah Study Program : Conputer Science Title : Neural Re-Rankers to Identify Duplicate Questions in Indonesian Health Forums Counselor : Alfan Farizki Wicaksono, S.T., M.Sc., Ph.D. Syifa Nurhayati, M.Kom The system of acquiring similar questions is implemented on many Question and Answering sites, including health forums. Implementations of similar question search systems can vary, such as text-based retrievers and neural rankers. The main issue with neural rankers is the lack of research in Indonesian language for neural ranker models, especially those using BERT. This study aims to investigate how far BERT as a neural re-ranker can improve the ranking quality of a text-based retriever when applied with fine-tuning. The model used in this research is BERT, and the test collection used is a health forum dataset compiled by Nurhayati (2019). To answer the research question, experiments were conducted on multiple pre-trained models: multilingual BERT, IndoBERT, stevenWH, and distilBERT to identify the best model for fine-tuning. This study also proposes two new fine-tuning methods: attention mask filter with IDF threshholding and frozen layer by freezing some layers within BERT. These models and methods were then tested under predefined scenarios. The experiment results show that the re-ranker can enhance the quality of the text-based retriever when fine-tuned with specific methods and scenarios. These models perform especially well using the health form dataset aswell as using the text based retrievers BM25 and TF-IDF. Out of all models, multilingulBERT performed the best with freezed layer fine-tuning performing as the best fine-tuning method. The most significant increase of all combinations is the combination of BM25 and multilingualBERT with freezed layer fine-tuning with a 0.051 increase compared to the baseline BM25. Key words: information retrieval, neural re-rankers, similar question retrieval Universitas Indonesia

Pengarang 2
Subjek
Neural Re-Ranker
Penguji 2
Arlisa Yuliawati
Penguji 3
Pembimbing 1
Alfan Farizki Wicaksono
Fisik
ii, 59 p; ill; 29 cm
Bahasa
Indonesia
Lulus Semester
Genap 2023/2024
Penerbitan
Depok: Fasilkom UI, 2024
No. Panggil
SK-2380 (Softcopy SK-1862)
Penguji 1
Kurniawati Azizah
Lulus semester SI