Otomatisasi Pewarnaan Citra Monokrom dengan Metode Generative Adversarial Network
DOI:
https://doi.org/10.33005/santika.v1i0.37Keywords:
Deep Learning, SAGAN, Pewarnaan Otomatis, Citra Monokrom, Spectral NormalizationAbstract
Sistem pewarnaan otomatis pada citra greyscale diperlukan agar perbaikan pada citra monokrom dapat dilakukan secara cepat dan tanpa keahlian khusus. Dalam pengimplementasian sistem ini terdapat beberapa kendala seperti domain warna pada satu objek bisa sangat beragam, dimana setiap benda bisa memiliki lebih dari 1 kemungkinan warna. Pada penelitian ini penulis menggunakan SAGAN untuk melakukan pewarnaan otomatis pada dataset Hackaton Blossom (Flower Classification) yang bisa diakses pada situs resmi Kaggle, data ini berisikan citra 102 spesies bunga dengan jumlah data sebanyak 6500 data tes, 1000 data test dan 100 data validasi. SAGAN dipilih sebagai metode yang digunakan karena diklaim dapat menyelesaikan masalah image-to-image translation seperti style transfer, dan image colorization. Pada penelitian ini penulis berhasil mengimplementasikan dan melatih model SAGAN yang konvergen dengan memanfaatkan spectral normalization, selain itu penulis menambahkan SSIM loss untuk mengurangi munculnya artifact pada citra yang dihasilkan, model dilatih hingga 50 epoch dan berhasil memperoleh nilai PSNR diantara 51 dB hingga 73 dB dengan rata-rata nilai PNSR sebesar 61 dB.
References
[2] J. C. Russ, The Image Processing Handbook, Sixth Edition, 6th ed. CRC Press, 2011.
[3] A. Deshpande, J. Rock, and D. Forsyth, “Learning Large-Scale Automatic Image Colorization,” Dec. 2015.
[4] R. Zhang, P. Isola, and A. A. Efros, “Colorful Image Colorization.” 2016.
[5] Y. Cao, Z. Zhou, W. Zhang, and Y. Yu, “Unsupervised Diverse Colorization via Generative Adversarial Networks.” 2017.
[6] H. Zhang, I. Goodfellow, D. Metaxas, and A. Odena, “Self-Attention Generative Adversarial Networks.” 2019.
[7] S. HACKATHONERS, “Hackathon Blossom (Flower Classification),” 2019. https://www.kaggle.com/spaics/hackathon-blossom-flower-classification.
[8] P. Sangkloy, J. Lu, C. Fang, F. Yu, and J. Hays, “Scribbler: Controlling Deep Image Synthesis with Sketch and Color.” 2016.
[9] X. Wang and A. Gupta, “Generative Image Modeling using Style and Structure Adversarial Networks.” 2016.
[10] P. Isola, J.-Y. Zhu, T. Zhou, and A. A. Efros, “Image-to-Image Translation with Conditional Adversarial Networks.” 2018.
[11] L. Galteri, L. Seidenari, M. Bertini, and A. Del Bimbo, “Deep Generative Adversarial Compression Artifact Removal.” 2017.
[12] D. Seo, Y. Kim, Y. D. Eo, and W. Park, “Learning-Based Colorization of Grayscale Aerial Images Using Random Forest Regression,” Appl. Sci., vol. 8, p. 1269, 2018, doi: 10.3390/app8081269.