Library Automation and Digital Archive
LONTAR
Fakultas Ilmu Komputer
Universitas Indonesia

Pencarian Sederhana

Find Similar Add to Favorite

Call Number SK-1592 (Softcopy SK-1074) Source Code SK-650
Collection Type Skripsi
Title Optimis deep learning inference menggunakan pragidma pemrogramaman parallel berbasis cache memory pada perangkat android komoditas
Author Ryorda Triaptahadi;
Publisher Depok : Fak. Ilmu Komputer, 2018
Subject
Location FASILKOM-UI;
Lokasi : Perpustakaan Fakultas Ilmu Komputer
Nomor Panggil ID Koleksi Status
SK-1592 (Softcopy SK-1074) Source Code SK-650 TERSEDIA
Tidak ada review pada koleksi ini: 45746
ABSTRAK Nama : Ryorda Triaptahadi Program Studi : Ilmu Komputer Judul : Optimisasi Deep Learning Inference menggunakan Paradigma Pemrograman Paralel berbasis Cache Memory pada Perangkat Android Komoditas Aplikasi pada perangkat mobile telah berevolusi untuk dapat menyelesaikan berbagai permasalahan kompleks seperti object recognition dan digital assistant. Deep Learningpundipilihsebagaifiturutamadalamaplikasimobilekarenatelahterbukti memenangkan kontes pada permasalahan serupa layaknya ILSVRC. Kompleksitas Deep Learning yang begitu besar mendorong para peneliti untuk menghasilkan optimisasi Deep Learning yang efektif khususnya pada bagian inference. Salah satu upaya optimisasi telah dilakukan oleh tim riset NESL UCLA dengan memanfaatkan RenderScript pada TensorFlow for Mobile yang berjalan pada perangkat Android. Sayangnya, pemanfaatan RenderScript ini perlu diuji kembali karena implementasinya bergantung pada driver yang ada pada masing-masing perangkat mobile dan Google telah meluncurkan versi baru dari TensorFlow for Mobile yang dinamakan TensorFlow Lite. Selain RenderScript, terdapat beberapa pendekatan yang belum pernah dilakukan misalnya menggunakan multi-core CPU secara utuh dan memanfaatkan kecepatan transfer cache memory. Pada penelitian ini, Penulis akan menerapkan ulang pendekatan optimisasi menggunakan RenderScript oleh tim riset NESL UCLA pada TensorFlow Lite dengan perangkat mobile yang memiliki spesifikasi berbeda. Selain itu, Penulis juga akan mencoba upaya optimisasi lain menggunakan kombinasi multi-core CPU dan cache memory. Kata Kunci: optimisasi, Deep Learning inference, RenderScript, pemrograman paralel, cache memory