Library Automation and Digital Archive
LONTAR
Fakultas Ilmu Komputer
Universitas Indonesia

Pencarian Sederhana

Find Similar Add to Favorite

Call Number Dis-61 (Softcopy Dis-52) Source Code Dis-27
Collection Type Disertasi
Title Adaptive parallel elm with convolutional features for big stream data
Author Arif Budiman;
Publisher Depok: Fakultas Ilmu Komputer UI, 2017
Subject
Location
Lokasi : Perpustakaan Fakultas Ilmu Komputer
Nomor Panggil ID Koleksi Status
Dis-61 (Softcopy Dis-52) Source Code Dis-27 TERSEDIA
Tidak ada review pada koleksi ini: 44353
ABSTRAK Nama : Arif Budiman Program Studi : S3 Computer Science Judul : ELM Paralel Adaptif dengan Fitur Konvolusi untuk Aliran Mahadata Pada era mahadata (big data), beberapa tantangan dalam aliran mahadata: jumlah, kecepatan, ragam, variabilitas dan kompleksitas data membutuhkan rancangan mesin pembelajaran yang khusus. Tantangan ragam, variabilitas dan kompleksitas berhubungan dengan masalah pergeseran konsep (concept drift). Jumlah dan kecepatan berhubungan dengan masalah skalabilitas. Dalam disertasi ini, Kami memperkenalkan pendekatan integrasi baru dari jaringan syaraf konvolusi (CNN) dengan mesin pembelajaran ekstrem (ELM) sebagai solusi untuk masalah pergeseran konsep dan skalabilitas. CNN telah digunakan sebagai pembelajaran representasi fitur secara berjenjang dan parallel Elastic ELM (E2LM) telah digunakan sebagai pengklasifikasi terarah. Integrasi CNNELM dalam disertasi ini berbasiskan kepada pendekatan skalabilitas menyebar (scale out) dengan menggunakan banyak model CNNELM yang bekerja dengan cara paralel. Sebagai solusi pergeseran konsep, CNNELM adaptif (ACNNELM) mengintegrasikan CNN dan ELM dengan kemampuan adaptif. Pendekatan pertama dikembangkan dari hasil pekerjaan kami sebelumnya dalam Adaptive Online Sequential ELM (AOS-ELM) yang menggunakan metoda penyesuaian matriks dari ELM tunggal untuk banyak CNN pada tingkat pengklasifikasi (dinamakan ACNNELM- 1). Dan, pendekatan kedua menggunakan metoda paduan (ensemble) penggabungan banyak matriks untuk banyak model CNNELM pada tingkat paduan (dinamakan ACNNELM-2). Kedua model ACNNELM tersebut bekerja dengan baik dalam penanganan pergeseran konsep, yang mana kebanyakan solusi penanganan pergeseran konsep hanya mengusulkan bekerja pada salah satu tingkat tersebut. Sebagai solusi masalah skalabilitas, Distributed averaging CNNELM bekerja berdasarkan kepada konsep skalabilitas menyebar Memetakan-Mengurangi (MapReduce). Banyak model CNNELM yang berasal dari cetakan bobot awal yang sama yang kemudian mereka mendapatkan pelatihan secara asinkronus untuk bagian partisi tertentu dari data pelatihan (dinamakan proses distribusi distributed). Setelah pelatihan setiap model selesai, Kami merata-ratakan bobot sevii viii mua kernel pada CNNELM dan semua bobot output pada ELM menjadi satu model Distributed averaging CNNELM (dinamakan proses perata-rataan). Pendekatan ini dapat menghemat banyak waktu pelatihan dengan cara paralel daripada satu model CNNELM berlatih menggunakan keseluruhan data pelatihan. Kami juga mempelajari metoda pelatihan propagasi balik (backpropagation) pada CNNELM untuk memperbaiki kinerja akurasi melalui iterasi. Kami memverifikasi metoda ini menggunakan himpunan data pelatihan extended MNIST, Not MNIST dan CIFAR10. ACNNELM menggunakan percobaan simulasi untuk mensimulasikan pergeseran virtual (virtual drift), pergeseran nyata (real drift), dan pergeseran hibrid (hybrid drift). Pelatihan Distributed averaging CNNELM membagi keseluruhan himpunan data pelatihan menjadi beberapa himpunan data pelatihan yang lebih kecil. Kami mengembangkan Deep Learning toolbox dengan tambahan perbaikan pada CPU paralel dan Matconvnet dengan GPU untuk mendemonstrasikan metoda CNNELM dalam disertasi ini. Metoda kami memberikan kemampuan adaptif terhadap pergeseran konsep dibandingkan dengan ELM dan CNN yang biasa dan meningkatkan kemampuan skalabilitas dengan mengkombinasikan pendekatan skala menyebar bersama dengan skala meningkat sebagai sebuah solusi yang menyeluruh terhadap masalah aliran mahadata. Bagaimanapun juga, metoda ini mempunyai beberapa kelemahan yang diakibatkan oleh penambahan parameter-parameter pembelajaran yang perlu cermat ditentukan dan distribusi data pelatihan yang perlu cermat dipilih. Penelitian lebih lanjut masih dibutuhkan untuk mempelajari parameter-parameter pelatihan yang optimum dan menggunakan lebih banyak himpunan data yang bervariasi. Kata Kunci: Pembelajaran Dalam, mesin pembelajaran ekstrem, Jaringan syaraf konvolusi, mahadata, pergeseran konsep, Memetakan-Mengurangi, Paralel