| NIM | H1A021059 |
| Namamhs | NURUL AISYAH |
| Judul Artikel | Image Classification, optimizer, hyperparameter tuning |
| Abstrak (Bhs. Indonesia) | Indonesia memiliki wilayah yang luas yaitu 5.180.053 km2 dan jumlah pulau sekitar 17499 pulau. Dengan wilayah yang luas, Indonesia memiliki potensi wisata yang besar. Namun, informasi mengenai wisata di Indonesia masih kurang. Peneliti mencoba untuk mengatasi kurangnya informasi mengenai wisata khususnya di NTT dengan memanfaatkan teknologi image classification. Penelitian ini akan melakukan pengembangan pada model deep learning dengan menggunakan pre-trained model MobileNet. Pengembangan dilakukan dengan menentukan optimizer yang cocok dengan model dan dataset yang telah terkumpul. Selain optimizer, pengembangan juga melakukan hyperparameter tuning yaitu menentukan learning rate, layer terakhir, dan batch size yang tepat. Hasilnya, terdapat dua model terbaik yang dihasilkan, model pertama menggunakan arsitektur A, optimizer Adam, batch size 16, dan learning rate 0.0001. Sedangkan model kedua menggunakan arsitektur A, optimizer adam, batch size 32, learning rate 0.0001. Model pertama mendapatkan training accuracy tertinggi yaitu 0.987079. Model kedua mendapatkan validation accuracy dan test accuracy tertinggi yaitu 0.889423 dan 0.853828 |
| Abtrak (Bhs. Inggris) | Indonesia has a large area of 5,180,053 km2 and a total of 17499 islands. With such a large area, Indonesia has great tourism potential. However, information about tourism in Indonesia is still lacking. Researchers try to overcome the lack of information about tourism, especially in NTT by utilizing image classification technology. This research will develop a deep learning model using the pre-trained MobileNet model. Development is carried out by determining the optimizer that matches the model and dataset that has been collected. In addition to the optimizer, the development also performs hyperparameter tuning, namely determining the learning rate, the last layer, and the right batch size. As a result, there are two best models produced, the first model uses architecture A, optimizer Adam, batch size 16, and learning rate 0.0001. While the second model uses architecture A, Adam optimizer, batch size 32, learning rate 0.0001. The first model gets the highest training accuracy of 0.987079. The second model gets the highest validation accuracy and test accuracy, namely 0.889423 and 0.853828. |
| Kata kunci | Image Classification, optimizer, hyperparameter tuning |
| Pembimbing 1 | Retno Supriyanti |
| Pembimbing 2 | Yogi Ramadhani |
| Pembimbing 3 | |
| Tahun | 2025 |
| Jumlah Halaman | 5 |
| Tgl. Entri | 2025-03-12 14:53:17.237235 |
|---|