ABSTRAK Nama : Ryorda Triaptahadi Program Studi : Ilmu Komputer Judul : Optimisasi Deep Learning Inference menggunakan Paradigma Pemrograman Paralel berbasis Cache Memory pada Perangkat Android Komoditas Aplikasi pada perangkat mobile telah berevolusi untuk dapat menyelesaikan berbagai permasalahan kompleks seperti object recognition dan digital assistant. Deep Learningpundipilihsebagaifiturutamadalamaplikasimobilekarenatelahterbukti memenangkan kontes pada permasalahan serupa layaknya ILSVRC. Kompleksitas Deep Learning yang begitu besar mendorong para peneliti untuk menghasilkan optimisasi Deep Learning yang efektif khususnya pada bagian inference. Salah satu upaya optimisasi telah dilakukan oleh tim riset NESL UCLA dengan memanfaatkan RenderScript pada TensorFlow for Mobile yang berjalan pada perangkat Android. Sayangnya, pemanfaatan RenderScript ini perlu diuji kembali karena implementasinya bergantung pada driver yang ada pada masing-masing perangkat mobile dan Google telah meluncurkan versi baru dari TensorFlow for Mobile yang dinamakan TensorFlow Lite. Selain RenderScript, terdapat beberapa pendekatan yang belum pernah dilakukan misalnya menggunakan multi-core CPU secara utuh dan memanfaatkan kecepatan transfer cache memory. Pada penelitian ini, Penulis akan menerapkan ulang pendekatan optimisasi menggunakan RenderScript oleh tim riset NESL UCLA pada TensorFlow Lite dengan perangkat mobile yang memiliki spesifikasi berbeda. Selain itu, Penulis juga akan mencoba upaya optimisasi lain menggunakan kombinasi multi-core CPU dan cache memory. Kata Kunci: optimisasi, Deep Learning inference, RenderScript, pemrograman paralel, cache memory