Penelitian ini mengusulkan kontribusi teoritis dan numerik untuk menggunakan En-
tropy Regularized Optimal Transport (EOT) ke dalam framework Generative Ad-
versarial Networks (GAN). Penulis menggunakan divergensi Sinkhorn, suatu ben-
tuk normalisasi simetris dari divergensi EOT, sebagai obyektif optimisasi minimax
dalam framework GAN. Model ini dinamakan Sinkhorn GAN dan dapat dilatih de-
ngan dua algoritma optimisasi minimax hasil pendekatan teoritis. Sinkhorn GAN
mengusulkan dua algoritma berbasis Stochastic Gradient Descent-Ascent (SGDA),
yaitu SGDA simultan (SimSGDA) untuk fungsi obyektif convex-concave (CC) dan
SGDA sekuensial (SeqSGDA) untuk nonconvex-(non)concave (NCNC). Penelitian
ini membuktikan secara empiris bahwa SimSGDA dan SeqSGDA dapat menyele-
saikan optimisasi minimax Sinkhorn GAN untuk mencapai konvergensi ke titik op-
timal, yaitu titik Nash equilibrium lokal untuk fungsi obyektif CC dan titik minimax
lokal untuk NCNC. Beberapa eksperimen numerik dilakukan untuk menguji kin-
erja dan kualitas Sinkhorn GAN menggunakan data gambar berwarna (Cats dan
CelebA) serta arsitektur neural network moderen (DCGAN dan ResNet). Diband-
ingkan dengan model-model GAN berbasis EOT sebelumnya, hasil eksperimen
Sinkhorn GAN menunjukkan kualitas sampel gambar dan stabilitas pelatihan yang
lebih baik. Stabilitas Sinkhorn GAN dievaluasi dengan teknik analisis nonasim-
totik laju konvergensi menggunakan structural similarity index measure (SSIM).
Hasil analisis empiris menunjukkan pelatihan Sinkhorn GAN lebih cepat ketika
menggunakan fitur positif Sinkhorn, dibandingkan dengan model state-of-the-art
WGAN. Kualitas sampel yang dihasilkan Sinkhorn GAN fitur positif sebanding
dengan WGAN. Berbeda dengan WGAN, Sinkhorn GAN fungsi obyektif CC da-
pat dilatih dengan SimSGDA, yang lebih sesuai dengan teori optimisasi minimax.
|
|