Evaluación comparativa de frameworks de visión artificial para el conteo automatizado y monitoreo de especies menores en sistemas pecuarios
Comparative evaluation of artificial vision frameworks for automated counting and monitoring of minor species in livestock systems
DOI:
https://doi.org/10.56712/latam.v7i2.5632Palabras clave:
visión artificial, aprendizaje profundo, conteo automatizado, especies menores, sistemas pecuariosResumen
Las tecnologías emergentes han transformado la forma en que la sociedad interactúa con la información y su entorno. Entre ellas, la inteligencia artificial se ha consolidado como una herramienta clave para el desarrollo de soluciones tecnológicas en diversos sectores científicos y productivos. Dentro de este campo, la visión artificial permite analizar imágenes y reconocer objetos, lo que facilita la automatización de procesos de monitoreo y análisis visual. Este estudio evalúa y compara el desempeño de cuatro frameworks de visión artificial: YOLOv11, YOLOv12, RT-DETRv2 y Grounding DINO, aplicados al conteo automatizado y monitoreo de especies menores en sistemas de producción pecuaria. Se empleó un enfoque cuantitativo comparativo basado en una revisión sistemática de la literatura. Se analizaron estudios empíricos, reportes de benchmark y publicaciones científicas indexadas entre 2020 y 2025 en bases de datos como Scopus, Web of Science, Elsevier, MDPI, Springer e IEEE. La selección de estudios incluyó investigaciones que evaluaron estos modelos en tareas de detección, conteo y monitoreo animal en entornos pecuarios reales o simulados. Los resultados muestran que YOLOv11 alcanza el mejor equilibrio entre precisión y velocidad, con 54.7 % de mAP@50-95 y 11.3 ms de latencia en GPU T4, lo que lo convierte en una alternativa adecuada para aplicaciones en tiempo real. YOLOv12, basado en mecanismos de atención, mejora el rendimiento en escenarios con alta densidad de animales pequeños al alcanzar 40.6 % de mAP con 1.64 ms de latencia en su versión nano. RT-DETRv2 facilita la detección de múltiples individuos sin supresión no máxima, mientras que Grounding DINO permite detección de vocabulario abierto sin entrenamiento específico. El estudio concluye que la elección del framework depende del escenario productivo, la densidad animal y los recursos computacionales disponibles. En sistemas pecuarios latinoamericanos, YOLOv11 y YOLOv12 presentan mayor viabilidad para su implementación en granjas de cuyes, conejos y aves de corral.
Descargas
Citas
Adam, M. (2025). Deep learning approaches for automatic livestock monitoring using computer vision systems. Sensors, 25(3), 1562. https://doi.org/10.3390/s25031562
Asim, M., Khan, M. A., & Rehman, A. (2026). Artificial intelligence and computer vision applications for livestock monitoring: A systematic review. Computers and Electronics in Agriculture. https://doi.org/10.1016/j.compag.2026.109204
Badgujar, C. M., Poulose, A., & Gan, H. (2024). Agricultural object detection with You Only Look Once (YOLO) algorithm: A bibliometric and systematic literature review. Computers and Electronics in Agriculture, 223, 109090. https://doi.org/10.1016/j.compag.2024.109090
Badgujar, C. M., Poulose, A., & Han, D. S. (2024). Agricultural object detection with the YOLO algorithm: A bibliometric and systematic literature review. Computers and Electronics in Agriculture, 218, 108610. https://doi.org/10.1016/j.compag.2024.108610
Borwarnginn, P., Sriswasdi, S., & Charoenkwan, P. (2024). A systematic survey of public computer vision datasets for precision livestock farming. Computers and Electronics in Agriculture, 222, 109718. https://doi.org/10.1016/j.compag.2024.109718
Bumbálek, R. (2025). Computer vision in precision livestock farming: Applications and future directions. Artificial Intelligence in Agriculture. https://doi.org/10.1016/j.aiia.2025.01.003
Bumbálek, R., Umurungi, S. N., Ufitikirezi, J. D. M., Zoubek, T., Kuneš, R., Stehlík, R., Lin, H.-I., & Bartoš, P. (2025). Deep learning in poultry farming: Comparative analysis of YOLOv8, YOLOv9, YOLOv10, and YOLOv11 for dead chickens detection. Poultry Science, 104(9), 105440. https://doi.org/10.1016/j.psj.2025.105440
Campbell, W., Noorman, J., & Steibel, J. P. (2024). A computer vision approach to monitor activity in commercial broiler chickens using trajectory-based clustering analysis. Computers and Electronics in Agriculture, 206, 108591. https://doi.org/10.1016/j.compag.2023.108591
Chauca, L. (2020). Producción de cuyes (Cavia porcellus) en los países andinos: situación actual y perspectivas. Animal Genetic Resources, 57, 91–108. https://doi.org/10.1017/S2078633620000041
Cominotte, A., Campos, A. C., Fernandes, D. A., Lopes, F. B., Lanna, D. P. D., McManus, C., & Falco, J. E. (2021). Automated computer vision system to predict body weight and average daily gain in beef cattle. Livestock Science, 247, 104444. https://doi.org/10.1016/j.livsci.2021.104444
Cruz, E., Hidalgo-Rodriguez, M., Acosta-Reyes, A. M., Rangel, J. C., & Boniche, K. (2024). AI-based monitoring for enhanced poultry flock management. Agriculture, 14(12), 2187. https://doi.org/10.3390/agriculture14122187
Dalal, M. (2025). Deep learning-based object detection techniques in agriculture: A systematic review. Computers and Electronics in Agriculture. https://doi.org/10.1016/j.compag.2025.108901
Elmessery, W. M., Gutiérrez, J., Abd El-Wahhab, G. G., Elkhaiat, I. A., El-Soaly, I. S., Alhag, S. K., & Abdelshafie, M. F. (2023). YOLO-based model for automatic detection of broiler pathological phenomena through visual and thermal images in intensive poultry houses. Agriculture, 13(8), 1527. https://doi.org/10.3390/agriculture13081527
Jegham, N., Koh, C. Y., Abdelatti, M., & Hendawi, A. (2024). YOLO evolution: A comprehensive benchmark and architectural review of YOLOv12, YOLO11, and their previous versions. arXiv preprint. https://doi.org/10.48550/arXiv.2411.00201
Jia, W., Li, Y., Hua, Z., & Zhang, Q. (2023). PCR: A large-scale benchmark for pig counting in real world. In Pattern Recognition and Computer Vision – PRCV 2023 (pp. 212–225). Springer. https://doi.org/10.1007/978-981-99-8462-6_19
Jiménez Gómez, X. (2024). Detección y análisis de datos sobre especies exóticas en biomas mediante técnicas de detección de objetos. Universidade da Coruña. https://ruc.udc.es/entities/publication/2fd62404-e9ba-43cf-9756-100d249af86a
Khanam, R., & Hussain, M. (2025). YOLO advances to its genesis: A decadal and comprehensive review of the YOLO series. Artificial Intelligence Review, 58, 253. https://doi.org/10.1007/s10462-025-11253-3
Liu, S., Zeng, Z., Ren, T., Li, F., Zhang, H., Yang, J., Jiang, Q., Li, C., Yang, J., Su, H., Zhu, J., & Zhang, L. (2024). Grounding DINO: Marrying DINO with grounded pre-training for open-set object detection. In Computer Vision – ECCV 2024 (LNCS 15074, pp. 38–55). Springer. https://doi.org/10.1007/978-3-031-72970-6_3
Lv, W., Zhao, Y., Chang, Q., Huang, K., Wang, G., & Liu, Y. (2024). RT-DETRv2: Improved baseline with bag-of-freebies for real-time detection transformer. arXiv. https://doi.org/10.48550/arXiv.2407.17140
Menezes, R., Silva, F., & Oliveira, J. (2024). Computer vision systems for animal monitoring in precision livestock farming: A review. Animals, 14(5), 812. https://doi.org/10.3390/ani14050812
Michielon, A., Litta, P., Bonelli, F., Don, G., Farisè, S., Giannuzzi, D., Milanesi, M., Pietrucci, D., Vezzoli, A., Cecchinato, A., Chillemi, G., Gallo, L., Mele, M., & Furlanello, C. (2024). Mind the step: An artificial intelligence-based monitoring platform for animal welfare. Sensors, 24(24), 8042. https://doi.org/10.3390/s24248042
Mulero-Pázmány, M., Hurtado, S., Barba-González, C., Antequera-Gómez, M. L., Díaz-Ruiz, F., Real, R., Navas-Delgado, I., & Aldana-Montes, J. F. (2025). Addressing significant challenges for animal detection in camera trap images: A novel deep learning-based approach. Scientific Reports, 15, 16191. https://doi.org/10.1038/s41598-025-90249-z
Natho, P., Boonying, S., Bonguleaum, P., Tantidontanet, N., & Chamuthai, L. (2025). An enhanced machine vision system for smart poultry farms using deep learning. Artificial Intelligence in Agriculture. Advance online publication. https://www.sciencedirect.com/science/article/pii/S2772375525003168
Rajagukguk, R. A. (2025). Deep learning for visual animal monitoring (detection, tracking, pose estimation, and behavior classification): A comprehensive review. Artificial Intelligence in Agriculture. Advance online publication. https://www.sciencedirect.com/science/article/pii/S2772375525007701
Tian, Y., Ye, Q., & Doermann, D. (2025). YOLOv12: Attention-centric real-time object detectors. Advances in Neural Information Processing Systems. https://doi.org/10.48550/arXiv.2502.12524
Wu, Z., Yang, J., Zhang, H., & Fang, C. (2025). Enhanced methodology and experimental research for caged chicken counting based on YOLOv8. Animals, 15(6), 853. https://doi.org/10.3390/ani15060853
Zhao, Y., Lv, W., Xu, S., Wei, J., Wang, G., Dang, Q., Liu, Y., & Chen, J. (2024). DETRs beat YOLOs on real-time object detection. In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR) (pp. 16965–16974). IEEE. https://doi.org/10.1109/CVPR52733.2024.01605
Publicado
Cómo citar
Número
Sección
Licencia
Derechos de autor 2026 Tania Alexandra Rodriguez Llerena, Alexandra Nicole Muñoz Vinueza, Marla Yajaira Valencia Simisterra, Mileysha Maria Quintero Cortez

Esta obra está bajo una licencia internacional Creative Commons Atribución 4.0.













