Artikel Ilmiah : H1D022105 a.n. MUHAMMAD SULTAN ALHAKIM

Kembali Update Delete

NIMH1D022105
NamamhsMUHAMMAD SULTAN ALHAKIM
Judul ArtikelMODEL DEEP LEARNING YOLO V11 UNTUK DETEKSI OBJEK REAL-TIME SEBAGAI ALAT BANTU NAVIGASI TUNANETRA
Abstrak (Bhs. Indonesia)Penyandang tunanetra sering mengalami kesulitan dalam mengenali rintangan saat bergerak di lingkungan sekitar, yang dapat memengaruhi keselamatan dan kemandirian mereka. Penelitian ini mengembangkan aplikasi navigasi real-time berbasis Android yang dilengkapi deteksi objek menggunakan model You Only Look Once versi 11 (YOLOv11) dan umpan balik suara melalui Text-to-Speech.
Sistem dirancang untuk menginformasikan keberadaan objek di sekitar pengguna secara langsung. Dataset terdiri atas lima kelas objek yang relevan dengan kebutuhan navigasi, yaitu manusia, kursi, meja, pintu, dan tangga. Proses penelitian meliputi preprocessing data, pelatihan model, dan evaluasi menggunakan metrik Precision, Recall, F1-Score, dan mean Average Precision pada ambang Intersection over Union 0,5 dan 0,5-0,95. Hasil pengujian menunjukkan nilai Precision 0,908, Recall 0,905, mAP50 0,942, dan mAP50-95 0,782. Nilai tersebut menunjukkan model mampu melakukan deteksi objek dengan tingkat akurasi tinggi dan kinerja yang stabil pada perangkat bergerak. Sistem yang dikembangkan mampu
memberikan deteksi objek secara real-time serta menyampaikan informasi melalui suara dengan jelas, sehingga dapat membantu pengguna bernavigasi dengan lebih aman dan mandiri. Penelitian ini menawarkan solusi praktis dan terjangkau untuk mendukung mobilitas penyandang tunanetra serta selaras dengan tujuan
pembangunan inklusif dan pengurangan kesenjangan sosial.
Abtrak (Bhs. Inggris)Visually impaired individuals often experience difficulties in recognizing obstacles while navigating their surroundings, which may affect their safety and independence. This study develops a real-time navigation application for the Android platform, equipped with an object detection system using the You Only Look Once version 11 (YOLOv11) model and voice feedback through Text-to-Speech. The system is designed to provide immediate auditory information about
objects in the user’s environment.The dataset used consists of five object classes relevant to navigation needs, including human, chair, table, door, and stair. The
research process involves data preprocessing, model training, and performance evaluation using Precision, Recall, F1-Score, and mean Average Precision at
Intersection over Union (IoU) thresholds of 0.5 and 0.5–0.95. The experimentalresults show that the YOLOv11 model achieved a Precision of 0.908, Recall of 0.905, mAP50 of 0.942, and mAP50–95 of 0.782, demonstrating high detection accuracy and stable performance on mobile devices.The developed system is capable of performing real-time object detection and delivering clear voice output,
allowing users to navigate more safely and independently. Overall, this study provides a practical and affordable technological solution to support the mobility of visually impaired individuals and aligns with inclusive development efforts to reduce social inequality.
Kata kunciYOLOv11, Object Detection, Visually Impaired, Hyperparameter Tuning, Random Search, Text-to-Speech
Pembimbing 1Dr. Ir. Lasmedi Afuan, S.T., M.Cs. IPM
Pembimbing 2Ir. Ipung Permadi, S.Si., M.Cs.
Pembimbing 3
Tahun2025
Jumlah Halaman102
Tgl. Entri2025-11-03 09:39:09.05111
Cetak Bukti Unggah
© Universitas Jenderal Soedirman 2026 All rights reserved.