PENINGKATAN PERFORMA GENERATIVE ADVERSARIAL NETWORK (GAN) DALAM PEWARNAAN CITRA GRAYSCALE | ELECTRONIC THESES AND DISSERTATION

Electronic Theses and Dissertation

Universitas Syiah Kuala

    SKRIPSI

PENINGKATAN PERFORMA GENERATIVE ADVERSARIAL NETWORK (GAN) DALAM PEWARNAAN CITRA GRAYSCALE


Pengarang

Cut Geubrina Rizky - Personal Name;

Dosen Pembimbing

Taufik Fuadi Abidin - 197010081994031002 - Dosen Pembimbing I
Alim Misbullah - 198806032019031011 - Dosen Pembimbing I



Nomor Pokok Mahasiswa

1808107010012

Fakultas & Prodi

Fakultas MIPA / Informatika (S1) / PDDIKTI : 55201

Subject
-
Kata Kunci
-
Penerbit

Banda Aceh : ., 2022

Bahasa

No Classification

-

Literature Searching Service

Hard copy atau foto copy dari buku ini dapat diberikan dengan syarat ketentuan berlaku, jika berminat, silahkan hubungi via telegram (Chat Services LSS)

Pewarnaan citra adalah salah satu implementasi deep learning yang merupakan proses pemberian warna terhadap citra berskala. Visual citra berwarna jauh lebih menarik serta informasi yang disampaikan dari citra berwarna lebih lengkap jika dibandingkan dengan visual citra grayscale. Ini merupakan tugas yang rumit karena objek citra dapat memiliki warna yang berbeda, namun dengan adanya AI dan deep learning semua tugas tersebut dapat diotomatisasi dengan mudah. Penelitian ini dilakukan untuk mendapatkan sebuah model terbaik yang dapat mengubah suatu citra grayscale menjadi citra berwarna. Proses tersebut menggunakan algoritma GAN serta mengimplementasikan arsitektur U-Net berdasarkan model yang telah dilatih sebelumnya (pretrained model) namun memakai tiga backbone dari torchvision, yaitu ResNet18, MobileNet V3-Small, dan MobileNet V3-Large sebagai generator GAN. Penelitian ini memakai nilai batch size dan learning rate yang bervariasi guna untuk mencari nilai yang dapat menghasilkan error terendah. Model dilatih dengan menggunakan 10.000 citra dari COCO dataset. Dari hasil penelitian ini didapatkan bahwa model yang menggunakan backbone MobileNet v3-Large dengan batch size 20 dan learning rate 2x10-4 untuk generator GAN dan 2x10-4 untuk diskriminator merupakan model terbaik dengan akurasi yang didapatkan sebesar 95,35% pada saat pelatihan model. Namun pada saat pengujian model, didapatkan bahwa model yang menggunakan backbone ResNet18 dengan batch size 20 dan learning rate 2x10-4 untuk generator GAN dan 2x10-4 untuk diskriminator merupakan model terbaik dengan akurasi yang didapatkan sebesar 93,88%. Selanjutnya, dilakukan pengukuran jarak rata-rata antar titik pada line chart dari 350 citra yang digunakan pada pengujian model dan didapatkan hasil bahwa jarak rata-rata terendah adalah jarak antara citra asli dengan citra hasil prediksi menggunakan backbone ResNet18 batch size 20 yaitu sebesar 0,176537.

Image colorization is one of the implementations of deep learning, which is assigning a color to a scaled image. Visual color images are much more enjoyable. The information conveyed from color images is complete compared to visual grayscale images. It is a complex task as image objects can have different colors, but with AI and deep learning, all these tasks can be automated easily. This research was conducted to obtain the best model to convert a grayscale image into a color image. The process uses the GAN algorithm and implements the U-Net architecture based on a pre-trained model but uses three backbones from Torchvision, namely ResNet18, Mobilenet V3-Small, and Mobilenet V3-Large as GAN generators. This study uses varying batch size and learning rate values to find the value that can produce the lowest error. The model was trained using 10.000 images from the COCO dataset. From the results of this study it was found that the model that uses the Mobilenet V3-Large backbone with batch size 20 and a learning rate of 2x10-4 for GAN generators and 2x10-4 for discriminators is the best model with an accuracy of 95,35% when training model. However, when testing the model, it was found that the model uses the ResNet18 backbone with batch size 20 and a learning rate 2x10-4 for GAN generators and 2x10-4 for discriminators is the best model with an accuracy of 93,88%. Furthermore, the average distance between points of line chart is measured from 350 images used in the model testing and the results show that the lowest average distance is the distance between the original image and the predicted image using the ResNet18 batch size 20 backbone, which is 0,176537.

Citation



    SERVICES DESK