Universitas Syiah Kuala | ELECTRONIC THESES AND DISSERTATION

Electronic Theses and Dissertation

Universitas Syiah Kuala

    SKRIPSI
Fadhilah Syafa, PENINGKATAN KINERJA CGAN DALAM TRANSLASI CITRA SKETSA MENGGUNAKAN ARSITEKTUR U-NET DAN RESNET. Banda Aceh Fakultas MIPA - Informatika,2022

Image-to-image translation bertujuan untuk mentransfer citra dari domain asli ke domain target. image-to-image translation telah menarik perhatian dalam beberapa tahun terakhir karena berbagai aplikasinya di banyak visi komputer dan masalah pemrosesan gambar, seperti sintesis gambar, segmentasi, dan transfer gaya. penelitian ini dilakukan untuk mendapatkan sebuah model terbaik yang dapat mentranslasikan suatu citra sketsa menjadi citra foto dengan menggunakan algoritma cgan serta mengimplementasikan arsitektur u-net dan resnet50 sebagai generator cgan. penelitian ini menggunakan 2.400 citra dari pix2pix datasets dengan kategori edges2shoes dataset dan edges2handbags dataset untuk melatih dan validasi model dan menggunakan nilai epoch yang berbeda dari penelitian sebelumnya serta nilai batch size dan learning rate yang bervariasi untuk mencari model yang dapat menghasilkan nilai loss terendah. hasil dari penelitian ini didapatkan bahwa model yang menggunakan arsitektur u-net sebagai generator cgan dengan epoch 100, batch size 4, learning rate 2 × 10-4 untuk generator dan 2 × 10-3 untuk diskriminator merupakan model terbaik dengan akurasi yang didapatkan sebesar 87,87% pada pelatihan model.



Abstract

The image-to-image translation aims to transfer images from a source domain to a target domain. The image-to-image translation has drawn attention in recent years because of its wide range of applications in many computer vision and image processing problems, such as image synthesis, segmentation, and style transfer. This research was conducted to obtain the best model to translate a sketch image into a photo image using the cGAN algorithm and implement U-Net and ResNet50 architectures as cGAN generators. This study uses 2.400 images from Pix2Pix Datasets with the categories edges2shoes dataset and edges2handbags dataset to train and validation the model and uses different epoch values from previous studies as well as varying batch size and learning rate values to find a model that can produce the lowest loss value. The results of this study found that the model that uses the U-Net architecture as a cGAN generator with epoch 100, batch size 4, learning rate 2× 10-4 for generator and 2 × 10-3 for discriminator is the best model with an accuracy of 87,87% when training model.



    SERVICES DESK