Artikel Ilmiah : H1A021059 a.n. NURUL AISYAH

Kembali Update Delete

NIMH1A021059
NamamhsNURUL AISYAH
Judul ArtikelImage Classification, optimizer, hyperparameter tuning
Abstrak (Bhs. Indonesia)Indonesia memiliki wilayah yang luas yaitu 5.180.053 km2 dan jumlah pulau sekitar 17499 pulau. Dengan wilayah yang luas, Indonesia memiliki potensi wisata yang besar. Namun, informasi mengenai wisata di Indonesia masih kurang. Peneliti mencoba untuk mengatasi kurangnya informasi mengenai wisata khususnya di NTT dengan memanfaatkan teknologi image classification. Penelitian ini akan melakukan pengembangan pada model deep learning dengan menggunakan pre-trained model MobileNet. Pengembangan dilakukan dengan menentukan optimizer yang cocok dengan model dan dataset yang telah terkumpul. Selain optimizer, pengembangan juga melakukan hyperparameter tuning yaitu menentukan learning rate, layer terakhir, dan batch size yang tepat. Hasilnya, terdapat dua model terbaik yang dihasilkan, model pertama menggunakan arsitektur A, optimizer Adam, batch size 16, dan learning rate 0.0001. Sedangkan model kedua menggunakan arsitektur A, optimizer adam, batch size 32, learning rate 0.0001. Model pertama mendapatkan training accuracy tertinggi yaitu 0.987079. Model kedua mendapatkan validation accuracy dan test accuracy tertinggi yaitu 0.889423 dan 0.853828
Abtrak (Bhs. Inggris)Indonesia has a large area of 5,180,053 km2 and a total of 17499 islands. With such a large area, Indonesia has great tourism potential. However, information about tourism in Indonesia is still lacking. Researchers try to overcome the lack of information about tourism, especially in NTT by utilizing image classification technology. This research will develop a deep learning model using the pre-trained MobileNet model. Development is carried out by determining the optimizer that matches the model and dataset that has been collected. In addition to the optimizer, the development also performs hyperparameter tuning, namely determining the learning rate, the last layer, and the right batch size. As a result, there are two best models produced, the first model uses architecture A, optimizer Adam, batch size 16, and learning rate 0.0001. While the second model uses architecture A, Adam optimizer, batch size 32, learning rate 0.0001. The first model gets the highest training accuracy of 0.987079. The second model gets the highest validation accuracy and test accuracy, namely 0.889423 and 0.853828.
Kata kunciImage Classification, optimizer, hyperparameter tuning
Pembimbing 1Retno Supriyanti
Pembimbing 2Yogi Ramadhani
Pembimbing 3
Tahun2025
Jumlah Halaman5
Tgl. Entri2025-03-12 14:53:17.237235
Cetak Bukti Unggah
© Universitas Jenderal Soedirman 2026 All rights reserved.