Penerapan Model Generatif Pada Kerangka Kerja Deep Learning Untuk Menerjemahkan Citra Sketsa Daun Menjadi Citra Alami Daun

Muhammad Eka Purbaya

Abstract


Sebagai salah satu objek penelitian yang dikembangkan untuk klasifikasi spesies tanaman melalui proses identifikasi citra daun. Seringkali citra daun yang digunakan tidak dalam kondisi yang ideal untuk dikaji karena banyaknya gangguan terutama bila pengujian dilakukan menggunakan objek sketsa yang tentunya memiliki tingkat keserupaan yang jauh dari bentuk alaminya. Sehingga diperlukan adanya perbaikan struktur citra sketsa daun agar mempermudah klasifikasi tanaman dengan metode penerjemahan citra. Metode yang dapat digunakan untuk mengubah menerjemahkan citra adalah dengan memanfaatkan model generatif pada kerangka kerja deep learning. Metode yang diusulkan pada model generatif ini adalah dengan memanfaatkan jaringan permusuhan model antara model generatif dengan arsitektur U-Net dan model diskriminatif dengan arsitektur PatchGANs yang lebih dikenal dengan metode CoGANs. Kerangka kerja deep learning  tersebut dilatih selama 50 epoch kemudian dianalisis secara kualitatif dan kuantitatif. Pada hasil kualitatif, semakin lama pembelajaran maka hasil penerjemahan akan semakin baik. Sedangkan pada penilaian kuantitatif model generatif melalui MAE loss function menghasilkan nilai 0,0926 (± 0,0068) yang menunjukkan bahwa model generatif tersebut menghasilkan penerjemahan citra yang mampu mendekati citra aslinya

Full Text:

PDF

References


V. Metre and J. Ghorpade, “An overview of the research on texture based plant leaf classification,” arXiv Prepr. arXiv1306.4345, vol. 2, no. 3, pp. 61–64, 2013.

H. Scharr, M. Minervini, A. P. French, C. Klukas, D. M. Kramer, X. Liu, I. Luengo, J. P. Gerrit, P. Danijela, V. Xi, and S. A. Tsaftaris, “Leaf segmentation in plant phenotyping : a collation study,” Mach. Vis. Appl., vol. 27, no. 4, pp. 585–606, 2016.

M. Mirza and S. Osindero, “Conditional Generative Adversarial Nets,” pp. 1–7, Nov. 2014.

I. J. Goodfellow, J. Pouget-Abadie, M. Mirza, B. Xu, D. Warde-Farley, S. Ozair, A. Courville, and Y. Bengio, “Generative Adversarial Networks,” pp. 1–9, Jun. 2014.

O. Ronneberger, P. Fischer, and T. Brox, “U-Net: Convolutional Networks for Biomedical Image Segmentation,” pp. 1–8, 2015.

J. Zhu, P. Krähenbühl, E. Shechtman, and A. A. Efros, “Generative Visual Manipulation on the Natural Image Manifold,” pp. 1–16, Sep. 2016.

P. Isola, J. Y. Zhu, T. Zhou, and A. A. Efros, “Image-to-image translation with conditional adversarial networks,” Proc. - 30th IEEE Conf. Comput. Vis. Pattern Recognition, CVPR 2017, vol. 2017–Janua, pp. 5967–5976, 2017.

A. Radford, L. Metz, and S. Chintala, “Unsupervised Representation Learning with Deep Convolutional Generative Adversarial Networks,” CoRR, vol. abs/1511.0, 2015.

“MalayaKew Dataset + Ground Truth.” [Online]. Available: http://web.fsktm.um.edu.my/~cschan/downloads_MKLeaf_dataset.html. [Accessed: 10-May-2018].

M. Mether, “The history of the central limit theorem,” Sovell. Mat. erikoistyöt, vol. 2, no. 1, p. 08, 2003.

“Google Colaboratory.” [Online]. Available: https://colab.research.google.com/. [Accessed: 03-Mar-2018].


Article Metrics

Abstract has been read : 966 times
PDF file viewed/downloaded: 0 times


DOI: http://doi.org/10.25273/research.v1i02.3349

Refbacks

  • There are currently no refbacks.




This work by Research is licensed under a Creative Commons Attribution-NonCommercial-ShareAlike 4.0 International License.