| Call Number | SK-2647(softcopy SK-2128) |
| Collection Type | Skripsi |
| Title | Implementation of the Neural Metamorphosis Paradigm on DenseNet Architecture for Model Compression |
| Author | Efrado Suryadi; |
| Publisher | Depok: Fasilkom UI, 2025 |
| Subject | Model Compression |
| Location | FASILKOM-UI; |
| Nomor Panggil | ID Koleksi | Status |
|---|---|---|
| SK-2647(softcopy SK-2128) | TERSEDIA |
Nama : Efrado Suryadi Program Studi : Computer Science Judul : Pembimbing : Implementation of the Neural Metamorphosis Paradigm on DenseNet Architecture for Model Compression Adila Alfa Krisnadhi, S.Kom., M.Sc., Ph.D. Penerapan deep neural networks pada lingkungan dengan sumber daya komputasi terbatas memerlukan kompresi model yang efektif tanpa degradasi performa yang signifikan. Neural Metamorphosis (NeuMeta), sebuah paradigma terbaru yang meman faatkan Implicit Neural Representations (INR) sebagai hypernetwork untuk mempelajari weight manifold secara kontinu, menawarkan solusi yang menjanjikan dengan me mungkinkan fleksibilitas struktural dan kompresi tanpa pelatihan ulang. Studi ini mengevaluasi apakah paradigma NeuMeta dapat secara andal mempertahankan performa klasifikasi setelah dilakukan kompresi, khususnya varian DenseNet, dalam batas toleransi performa sebesar 5%. Untuk memvalidasi konsistensi implementasi, NeuMeta terlebih direproduksi terlebih dahulu pada LeNet (MNIST) dan ResNet-20 (CIFAR-10), dan berhasil mempertahankan akurasi pada tingkat kompresi hingga 75% tanpa degradasi substansial, selaras dengan penelitian sebelumnya. Penerapan NeuMeta pada model DenseNet-BC dengan growth rate 12, 10, dan 8 pada CIFAR-10 menunjukkan bahwa kompresi arsitektur DenseNet jauh lebih menantang. Metode coordinate noise tidak meningkatkan performa INR dalam mempertahankan akurasi saat kompresi, dengan sebagian besar hasil tidak lolos pengujian non-inferiority pada α = 0.05. Namun, pada DenseNet-BC-40-8, NeuMeta berhasil mempertahankan F1 score yang signifikan secara statistik pada tingkat kompresi hingga 50%, menunjukkan efektivitas bersyarat. Secara keseluruhan, NeuMeta efektif dan andal untuk melakukan kompresi pada LeNet dan ResNet-20 sambil mempertahankan performa, namun penerapannya pada DenseNet masih terbatas dan memerlukan penyetelan yang cermat serta penyempurnaan lebih lanjut untuk mencapai kompresi yang andal dan signifikan secara statistik. Temuan ini memvalidasi NeuMeta pada arsitektur yang lebih sederhana dan memperjelas keterbatasannya pada model dengan koneksi padat, sehingga menyediakan landasan bagi penelitian lanjutan mengenai kompresi model yang fleksibel.