Revista ELECTRO

Vol. 47 – Año 2025
Artículo
TÍTULO
YOLOv11 Aplicado a la Segmentación y Clasificación de Quemaduras en la Piel
AUTORES
Avena-Caro, I.; Gabaldón-Márquez, A.; Cornejo-García, R.; Rendón-Mejía, N.; Cervantes-Sánchez, C.R.; Ramírez-Alonso G.
RESUMEN
Las quemaduras representan un problema de salud pública a nivel mundial, especialmente en países con acceso limitado a servicios especializados. En este trabajo se implementa y evalúa un modelo de segmentación de quemaduras basado en la arquitectura YOLOv1 1, utilizando un conjunto de datos público disponible en la plataforma Roboflow. El modelo permite segmentar y clasificar lesiones de primer, segundo y tercer grado a partir de imágenes, alcanzando su mejor desempeño en la detección de quemaduras de tercer grado, con valores de precisión, exhaustividad y mAP50 de 0.675, 0.774 y 0.67, respectivamente. No obstante, se identifican limitaciones en la detección de quemaduras de primer y segundo grado, reflejadas en un alto número de falsos negativos y bajos valores de exhaustividad. Este trabajo constituye un primer paso hacia el desarrollo de sistemas de apoyo al diagnóstico clínico de quemaduras, con potencial de implementación en entornos hospitalarios para mejorar la atención médica. En particular, se plantea su aplicación en la Unidad de Quemados del Hospital General Dr. Salvador Zubirán Anchondo del Estado de Chihuahua.
Palabras Clave: Segmentación de quemaduras, clasificación de lesiones, YOLOv 11.
ABSTRACT
Burns represent a global public health issue, p articularly in countries with limited access to specialized services. This study implements and evaluates a burn segmentation model based on the YOLOv11 architecture, using a publicly available dataset on the Roboflow platform. The model enables the segmen tation and classification of first, second, and third-degree burn injuries from images, achieving its best performance in detecting third-degree burns, with precision, recall, and mAP50 values of 0.675, 0.774, and 0.67, respectively. However, we identified limitations in detecting first and second-degree burns, reflected in a high number of false negatives and low recall values. This work represents a first step toward the development of clinical diagnostic support systems for burns, with potential implemen tation in hospital settings to improve medical care. We propose i ts application for the Burn Unit at the Dr. Salvador Zubirán Anchondo General Hospital in the State of Chihuahua
Keywords: Burn segmentation, lesion classification, YOLOv11.
REFERENCIAS
[1] “OMS EMRO | Introducción | Quemaduras | Temas de salud.” [En línea ]. Dispo nible: https://www-emro-who-int.translate.goog/health-topics/burns/introduction.html?_x_tr_sl=en&_x_tr_tl=es&_x_tr_hl=es&_x_tr_pto=wa. [Accessed: 6-Junio-2025].
[2] “World Health Organization, A WHO Report Plan for Burn Prevention and Care, Newsroom.” [En línea ]. Disponible: https://www.who.int/news-room/fact-sheets/detail/burns/. [Accessed: 6-Junio-2025].
[3] M. G. Jeschke, M. E. van Baar, M. A. Choudhry, K. K. Chung, N. S. Gibran, and S. Logsetty, “Burn injury,” Nat. Rev. Dis. Prim. 2020 61, vol. 6, no. 1, pp. 1–25, Feb. 2020.
[4] X. Xu, Q. Bu, J. Xie, H. Li, F. Xu, and J. Li, “On-site burn severity assessment using smartphone-captured color burn wound images,” Comput. Biol. Med., vol. 182, p. 109171, Nov. 2024.
[5] R. L. Brekke, S. K. Almeland, K. O. Hufthamme r, and E. Hansson, “Agreement of clinical assessment of burn size and burn depth between referring hospitals and burn centres: A systematic review,” Burns, vol. 49, no. 3, pp. 493–515, May 2023.
[6] C. Pabitha and B. Vanathi, “Densemask RCNN: A Hybrid Mode l for Skin Burn Image Classification and Severity Grading,” Neural Process. Lett., vol. 53, no. 1, pp. 319 –337, Feb. 2021.
[7] J. Chauhan and P. Goyal, “Convolution neural network for effective burn region segmentation of color images,” Burns, vol. 47, no. 4, pp. 854 –862, Jun. 2021.
[8] M. Yıldız et al., “Segmentation and classification of skin burn images with artificial intelligence: Development of a mobile application,” Burns, vol. 50, no. 4, pp. 966 –979, May 2024.
[9] C. W. Chang et al., “Application of multiple deep learning models for automatic burn wound assessment,” Burns, vol. 49, no. 5, pp. 1039 –1051, Aug. 2023.
[10] J. Redmon, S. Divvala, R. Girshick, and A. Farhadi, “You Only Look Once: Unified, Real-Time Object Detection,” in 2016 IEEE Conferenc e on Computer Vision and Pattern Recognition (CVPR), 2016, pp. 779 –788.
[11] R. Khanam and M. Hussain, “YOLOv11: An Overview of the Key Architectural Enhancements,” Oct. 2024.
[12] D. Bolya, C. Zhou, F. Xiao, and Y. J. Lee, “YOLACT: Real-time Instance Segm entation.” 2019.
[13] J. Ferdinand, D. Viriya Chow, y S. Yuda Prasetyo, "Automated skin burn detection and severity classification using YOLO Convolutional Neural Network Pretrained Model", E3S Web Conf., vol. 426, pp. 01076, 2023. doi: 10.1051/e3sconf/202342601076
[14] Y. Luo, K. Zhang, R. Wang, L. Yi, y Z. Zhou, "YOLOv7-PSA, an intelligent detection model, is designed for assessing the severity of skin burns," Regenesis Repair Rehabilitation, vol. 1, no. 2, pp. 80-86, 2025. doi: 10.1016/j.rerere.2025.03.002.
CITAR COMO:
Avena-Caro, I.; Gabaldón-Márquez, A.; Cornejo-García, R.; Rendón-Mejía, N.; Cervantes-Sánchez, C.R.; Ramírez-Alonso G., "YOLOv11 Aplicado a la Segmentación y Clasificación de Quemaduras en la Piel", Revista ELECTRO, Vol. 47, 2025, pp. 314-319.
VERSIÓN PDF