ABSTRAK
Nama : Arif Budiman
Program Studi : S3 Computer Science
Judul : ELM Paralel Adaptif dengan Fitur Konvolusi untuk Aliran
Mahadata
Pada era mahadata (big data), beberapa tantangan dalam aliran mahadata: jumlah,
kecepatan, ragam, variabilitas dan kompleksitas data membutuhkan rancangan
mesin pembelajaran yang khusus. Tantangan ragam, variabilitas dan kompleksitas
berhubungan dengan masalah pergeseran konsep (concept drift). Jumlah dan kecepatan
berhubungan dengan masalah skalabilitas. Dalam disertasi ini, Kami memperkenalkan
pendekatan integrasi baru dari jaringan syaraf konvolusi (CNN) dengan
mesin pembelajaran ekstrem (ELM) sebagai solusi untuk masalah pergeseran
konsep dan skalabilitas. CNN telah digunakan sebagai pembelajaran representasi
fitur secara berjenjang dan parallel Elastic ELM (E2LM) telah digunakan sebagai
pengklasifikasi terarah. Integrasi CNNELM dalam disertasi ini berbasiskan kepada
pendekatan skalabilitas menyebar (scale out) dengan menggunakan banyak model
CNNELM yang bekerja dengan cara paralel.
Sebagai solusi pergeseran konsep, CNNELM adaptif (ACNNELM) mengintegrasikan
CNN dan ELM dengan kemampuan adaptif. Pendekatan pertama dikembangkan
dari hasil pekerjaan kami sebelumnya dalam Adaptive Online Sequential
ELM (AOS-ELM) yang menggunakan metoda penyesuaian matriks dari ELM
tunggal untuk banyak CNN pada tingkat pengklasifikasi (dinamakan ACNNELM-
1). Dan, pendekatan kedua menggunakan metoda paduan (ensemble) penggabungan
banyak matriks untuk banyak model CNNELM pada tingkat paduan (dinamakan
ACNNELM-2). Kedua model ACNNELM tersebut bekerja dengan baik
dalam penanganan pergeseran konsep, yang mana kebanyakan solusi penanganan
pergeseran konsep hanya mengusulkan bekerja pada salah satu tingkat tersebut.
Sebagai solusi masalah skalabilitas, Distributed averaging CNNELM bekerja
berdasarkan kepada konsep skalabilitas menyebar Memetakan-Mengurangi
(MapReduce). Banyak model CNNELM yang berasal dari cetakan bobot awal
yang sama yang kemudian mereka mendapatkan pelatihan secara asinkronus untuk
bagian partisi tertentu dari data pelatihan (dinamakan proses distribusi distributed).
Setelah pelatihan setiap model selesai, Kami merata-ratakan bobot sevii
viii
mua kernel pada CNNELM dan semua bobot output pada ELM menjadi satu model
Distributed averaging CNNELM (dinamakan proses perata-rataan). Pendekatan ini
dapat menghemat banyak waktu pelatihan dengan cara paralel daripada satu model
CNNELM berlatih menggunakan keseluruhan data pelatihan.
Kami juga mempelajari metoda pelatihan propagasi balik (backpropagation)
pada CNNELM untuk memperbaiki kinerja akurasi melalui iterasi. Kami memverifikasi
metoda ini menggunakan himpunan data pelatihan extended MNIST, Not
MNIST dan CIFAR10. ACNNELM menggunakan percobaan simulasi untuk mensimulasikan
pergeseran virtual (virtual drift), pergeseran nyata (real drift), dan
pergeseran hibrid (hybrid drift). Pelatihan Distributed averaging CNNELM membagi
keseluruhan himpunan data pelatihan menjadi beberapa himpunan data pelatihan
yang lebih kecil. Kami mengembangkan Deep Learning toolbox dengan tambahan
perbaikan pada CPU paralel dan Matconvnet dengan GPU untuk mendemonstrasikan
metoda CNNELM dalam disertasi ini.
Metoda kami memberikan kemampuan adaptif terhadap pergeseran konsep
dibandingkan dengan ELM dan CNN yang biasa dan meningkatkan kemampuan
skalabilitas dengan mengkombinasikan pendekatan skala menyebar bersama dengan
skala meningkat sebagai sebuah solusi yang menyeluruh terhadap masalah
aliran mahadata. Bagaimanapun juga, metoda ini mempunyai beberapa kelemahan
yang diakibatkan oleh penambahan parameter-parameter pembelajaran yang perlu
cermat ditentukan dan distribusi data pelatihan yang perlu cermat dipilih. Penelitian
lebih lanjut masih dibutuhkan untuk mempelajari parameter-parameter pelatihan
yang optimum dan menggunakan lebih banyak himpunan data yang bervariasi.
Kata Kunci:
Pembelajaran Dalam, mesin pembelajaran ekstrem, Jaringan syaraf konvolusi, mahadata,
pergeseran konsep, Memetakan-Mengurangi, Paralel
|
|