LATAM Revista Latinoamericana de Ciencias Sociales y Humanidades, Asunción, Paraguay.
ISSN en línea: 2789-3855, octubre, 2025, Volumen VI, Número 5 p 1260.

DOI: https://doi.org/10.56712/latam.v6i5.4671

Aprendizaje de Patrones Visuales mediante Coincidencia de
Plantillas: Validación Experimental con OpenCV y Python

Learning Visual Patterns through Template Matching: Experimental
Validation with OpenCV and Python


Adrián Sepúlveda Romo1
asepulveda@uts.edu.mx

https://orcid.org/0000-0002-7639-3512
Universidad Tecnológica del Sur de Sonora

Cd. Obregón Sonora – México

Azálea Georgina García Cruz
azalea.gc@tuxtla.tecnm.mx

https://orcid.org/0009-0006-0020-0952
TecNM

Tuxtla Gutiérrez Chiapas – México

René Cuesta Díaz
rene.cd@tuxtla.tecnm.mx

https://orcid.org/0009-0000-9803-8258
TecNM

Tuxtla Gutiérrez Chiapas – México

Alex Corral Verdugo
acorral@uts.edu.mx

https://orcid.org/0009-0002-7645-9857
Universidad Tecnológica del Sur de Sonora

Cd. Obregón Sonora – México

Artículo recibido: 26 de junio de 2025. Aceptado para publicación: 17 de octubre de 2025.
Conflictos de Interés: Ninguno que declarar.


Resumen

La efectividad en el empleo de la coincidencia de plantillas en visión por computadora, se mantuvo
como prioridad, implementando pruebas para detectar elementos en imágenes estáticas y rastrear
objetos en videos. Para esto, se emplearon algoritmos programados en Python 3 utilizando la
biblioteca OpenCV, que es muy utilizada para el procesamiento de imágenes. Durante la primera etapa,
se pudo detectar un componente electrónico en una placa más grande con un valor de similitud
cercano a 0.999, lo que demuestra una elevada exactitud bajo condiciones controladas. En la etapa
dos, se llevó a cabo el rastreo en tiempo real de un objeto verde en movimiento usando filtrado por
color en el espacio HSV y operaciones morfológicas. Esto pone de manifiesto que es posible sostener
la localización continua a una velocidad cercana a los 30 cuadros por segundo. Sin embargo, existen
limitaciones ante las variaciones de iluminación, rotación y escala, lo que hace necesario incorporar
técnicas más sofisticadas, como los modelos Siameses y las redes neuronales convolucionales. Para
concluir, el estudio valida las bases de la técnica tradicional y destaca la posibilidad de combinarla
con métodos modernos para aplicaciones más complejas.

Palabras clave: visión por computadora, coincidencia de plantillas, OpenCV, Python


1 Autor de correspondencia.


LATAM Revista Latinoamericana de Ciencias Sociales y Humanidades, Asunción, Paraguay.
ISSN en línea: 2789-3855, octubre, 2025, Volumen VI, Número 5 p 1261.

Abstract
The effectiveness of using template matching in computer vision remained a priority, implementing
tests to detect elements in static images and track objects in videos. For this purpose, algorithms
programmed in Python 3 were used using the OpenCV library, which is widely used for image
processing. During the first stage, an electronic component was detected on a larger board with a
similarity score close to 0.999, demonstrating high accuracy under controlled conditions. In the second
stage, real-time tracking of a moving green object was performed using color filtering in HSV space
and morphological operations. This demonstrates that continuous localization is possible at a speed
close to 30 frames per second. However, there are limitations due to variations in lighting, rotation,
and scale, making it necessary to incorporate more sophisticated techniques, such as Siamese models
and convolutional neural networks. In conclusion, the study validates the foundations of the traditional
technique and highlights the possibility of combining it with modern methods for more complex
applications.

Keywords: computer vision, template matching, OpenCV, Python
















Todo el contenido de LATAM Revista Latinoamericana de Ciencias Sociales y Humanidades,
publicado en este sitio está disponibles bajo Licencia Creative Commons.

Cómo citar: Sepúlveda Romo, A., García Cruz, A. G., Cuesta Díaz, R., & Corral Verdugo, A. (2025).
Aprendizaje de Patrones Visuales mediante Coincidencia de Plantillas: Validación Experimental con
OpenCV y Python. LATAM Revista Latinoamericana de Ciencias Sociales y Humanidades 6 (5), 1260 –
1272. https://doi.org/10.56712/latam.v6i5.4671


LATAM Revista Latinoamericana de Ciencias Sociales y Humanidades, Asunción, Paraguay.
ISSN en línea: 2789-3855, octubre, 2025, Volumen VI, Número 5 p 1262.

INTRODUCCIÓN

La visión por computadora (o visión computacional) cambió la forma en que las máquinas pueden
interpretar y comprender imágenes del mundo real. Este campo interdisciplinario que mezcla el
procesamiento de imágenes, la inteligencia artificial, el aprendizaje automático, entre otras, se
desarrolló significativamente en las últimas décadas debido a la mejora del poder computacional y al
acceso masivo a datos digitales. Hoy en día resulta esencial en áreas como la robótica, la medicina y
los vehículos autónomos (LeCun, 2015).

Sus orígenes datan desde la década de los 60, cuando se realizaron los primeros intentos para otorgar
a las máquinas la habilidad de "ver" (Marr, 2010). El trabajo pionero de David Marr (2010), estableció
las bases teóricas del procesamiento visual computacional.

Recientemente, el uso de algoritmos de aprendizaje profundo (especialmente las redes neuronales
convolucionales) ha propiciado avances notables en el reconocimiento de imágenes. En cientos
desafíos de clasificación de objetos, estas técnicas han llegado incluso a superar el desempeño
humano (Russakovsky, 2015) (LeCun, 2015).
La coincidencia de plantillas (témplate matching) es un procedimiento clásico y esencial de visión por
computadora que busca una imagen de referencia, llamada plantilla, dentro de otra más grande. Para
ello, la plantilla se desliza por toda la imagen y en cada posición se calcula una métrica de similitud
(Yang, 2024). Se considera que el objeto ha sido encontrado en esa ubicación cuando la similitud
supera un umbral o llega a un valor máximo (Yang, 2024).

El método de coincidencia de plantillas es muy sensible a variaciones de escala, rotación, iluminación
y/o perspectiva de la imagen. Cuando el objeto buscado aparece más grande, girado o con diferente
iluminación que la plantilla original, la correlación disminuye de manera drástica y el algoritmo puede
fallar en la detección (Han, 2021).

Para vencer estas limitaciones, se han desarrollado técnicas más robustas. Entre ellas se destacan los
algoritmos basados en descriptores locales invariantes, como SIFT y SURF, que son resistentes a
cambios de escala y orientación (Tang, 2022). También existen los modelos deformables los cuales
son capaces de adaptarse a variaciones en la forma del objeto (Ratcliffe, 2020), así como métodos
híbridos que combinan redes neuronales profundas con la coincidencia de plantillas.

Estos últimos pueden aprender representaciones internas de las plantillas y de las imágenes
permitiendo reconocer un objeto, aunque esté parcialmente oculto, distorsionado o con ruido (Penate
Sánchez A, 2015)(Q. Ren, 2022).

En este artículo se presenta una aplicación práctica de la coincidencia de plantillas, mostrando de
forma sencilla cómo puede utilizarse para reconocer un objeto en una imagen estática y para seguirlo
en una secuencia de vídeo.

Objetivo

● Demostrar la aplicación de la coincidencia de plantillas empleando OpenCV en Python,
identificando y localizando un objeto particular dentro de una imagen mayor.

Objetivo específico

● Aplicar esta técnica al seguimiento de objetos en video, con el fin de demostrar su versatilidad
en entornos dinámicos.


LATAM Revista Latinoamericana de Ciencias Sociales y Humanidades, Asunción, Paraguay.
ISSN en línea: 2789-3855, octubre, 2025, Volumen VI, Número 5 p 1263.

METODOLOGÍA

La investigación emplea un enfoque mixto, incorporando estrategias cuantitativas y cualitativas. El
componente cuantitativo se centró en la implementación y validación de algoritmos mediante métricas
objetivas (coeficientes de correlación, precisión de localización y estabilidad del ráster). Al mismo
tiempo, el componente cualitativo está basado en la interpretación de resultados y su contraste con la
literatura especializada. Según (Terrell, 2012) los métodos mixtos permiten integrar la solidez numérica
del enfoque cuantitativo con la capacidad interpretativa del análisis cuantitativo, ofreciendo una
comprensión más profunda de los fenómenos analizados.

La metodología también se vincula con los principios del aprendizaje activo, particularmente con el
aprendizaje basado en proyectos (ABP), debido a la investigación centrada en resolver un problema
real mediante el diseño e implementación de un prototipo experimental con herramientas de código
abierto (Khorbotly, 2015). En consonancia con el paradigma del construccionismo, este enfoque
basado en proyectos promueve la construcción de conocimiento situacional, donde el aprendizaje se
potencia mediante el desarrollo de soluciones concretas (Papert, 1991) (Thomas, 2000).

En este contexto, la investigación se define como aplicada, experimental y basada en proyectos, con
doble enfoque, como son, validar técnicamente los algoritmos y generar conocimiento adaptado a
aplicaciones tecnológicas educativas.

Enfoque experimental

El estudio se dividió en dos partes

Fase A: Identificación de un objeto en una imagen estática mediante coincidencia de plantillas.

Fase B: Seguimiento de un objeto en movimiento en una secuencia de vídeo. Ambos procedimientos
se implementan en Python 3 utilizando la biblioteca OpenCV, ampliamente reconocida por su eficacia
en el procesamiento de imágenes y vídeos (Bradski, 2000).

Reconocimiento en una imagen estática

En esta fase experimental se buscó localizar un componente electrónico específico (un circuito
pequeño) dentro de la fotografía de una placa más grande. Para ello, se adquirieron y cargaron las
imágenes en formato reducido, utilizando la función cv2.imread con el parámetro
IMREAD_GRAYSCALE. La conversión permitió simplificar la dimensionalidad de los datos y la
información cromática, manteniendo la intensidad de los gráficos. De esta forma, fue más fácil
comparar patrones sin alterar la información visual esencial.

La ubicación del objeto se determinó a partir de las coordenadas que corresponden al valor máximo
de similitud, considerando la altura y ancho de la plantilla. Posteriormente, el circuito se superpone
sobre el área precisa de la placa donde se detectó el circuito. Al visualizar los resultados, se recuperó
la imagen en color original y se creó un rectángulo con tonalidad amarilla (valores BGR: 0,255,255) y
cuatro píxeles grandes sobre el área identificada. La detección se validó utilizando las funciones
cv2.imshow y cv2.waitKey, que permitieron confirmar visualmente el éxito del procedimiento.

Seguimiento de objeto en una secuencia de vídeo

Para validar la técnica de detección en un entorno dinámico, la segunda fase consistió en rastrear en
tiempo real un objeto verde en movimiento. Para ello, se empleó la función cv2.VideoCapture, que
permitió capturar el video y procesar cada fotograma de la secuencia donde el objeto aparecía
moviéndose frente a la cámara.


LATAM Revista Latinoamericana de Ciencias Sociales y Humanidades, Asunción, Paraguay.
ISSN en línea: 2789-3855, octubre, 2025, Volumen VI, Número 5 p 1264.

En esta etapa, cada imagen se convirtió al espacio de color HSV y se estableció un rango específico de
tonos correspondientes al verde (greenlower (29, 86, 6) y greenupper (64, 255, 255)). A partir de ello se
generó una máscara binaria que resaltaba únicamente los píxeles correspondientes al objeto de
interés, mientras elimina la información restante de la escena.

Posteriormente, se utilizaron operaciones morfológicas de erosión y dilatación para reducir el ruido.
Con la máscara filtrada, se identificaron los contornos existentes y se seleccionó el de mayor área,
asumiendo que coincidía con el objeto en movimiento. Finalmente, sobre esta base se construyó un
rectángulo envolvente sobre el fotograma original que permitió definir la posición del objeto de manera
continua.

El sistema mostró el objeto recorrido por el rectángulo a lo largo de toda su trayectoria, procesando la
secuencia a una velocidad de aproximadamente 30 fotos por segundo. De esta forma se confirmó la
eficacia del proceso para identificar y rastrear una pieza en movimiento en condiciones controladas.

RESULTADOS

Reconocimiento de Imágenes

En la primera prueba (Figura 1), la plantilla correspondiente a un circuito electrónico, fue ubicada con
precisión dentro de la imagen más grande que representa la placa completa. El sistema identificó con
éxito el área de mayor similitud y la enmarcó con un rectángulo amarillo, lo que facilita la visualización
y verifica la ubicación exacta del objeto deseado.

El valor de similitud obtenido (~0,999) confirma un alto grado de correspondencia, indicando que la
plantilla y la región encontrada en la placa son prácticamente idénticas. El resultado valida la eficacia
del procedimiento debido a que fue posible localizar con precisión un componente específico dentro
de una estructura compleja utilizando un algoritmo relativamente simple (Fig. 2).
De esta manera (Fig. 3), se confirma que la técnica de plantilla de coincidencia puede ser una
herramienta eficaz para tareas que involucran inspección y localización de objetos en imágenes
estáticas, siempre que las condiciones de escala, orientación y contraste permanezcan constantes.
Dicha capacidad resulta aplicable en la inspección visual automática en líneas de producción, donde
se emplean técnicas similares para detectar defectos o una incorrecta colocación de piezas
electrónicas (Dubey et al., 2025). Las evidencias localizadas sirven como punto de partida para un
análisis exhaustivo de sus limitaciones y posibles mejoras en los casos más desafiantes, como
aquellos con variaciones de iluminación, o rotación del fondo.


LATAM Revista Latinoamericana de Ciencias Sociales y Humanidades, Asunción, Paraguay.
ISSN en línea: 2789-3855, octubre, 2025, Volumen VI, Número 5 p 1265.

Figura 1

Circuito electrónico


Nota: localización de una imagen dentro de un determinado circuito.

Fuente: elaboración propia.

Figura 2

Código Python


Nota: algoritmo Pyhton empleado.

Fuente: elaboración propia.


LATAM Revista Latinoamericana de Ciencias Sociales y Humanidades, Asunción, Paraguay.
ISSN en línea: 2789-3855, octubre, 2025, Volumen VI, Número 5 p 1266.

Figura 3

Coincidencia de plantilla


Nota: muestra el resultado ejecutado con Idle Phyton.

Fuente: elaboración propia.

Seguimiento de objeto en secuencia de video

En el segundo experimento (Fig. 4), se evaluó la capacidad del sistema para realizar seguimiento en
video de un objeto en movimiento. En este caso, se eligió un objeto verde como referencia, lo que
permitió utilizar un rango específico en el espacio HSV para identificarlo en cada cuadro de la
secuencia.

Se aplico en filtrado de color, además de que el sistema podía atrapar el objeto a lo largo del tiempo,
actualizándose continuamente y resaltando el objeto en cada imagen, calculado su contorno, a partir
del cual se creó el rectángulo delimitador. La imagen en color original permitió una visión clara de la
posición del objeto en cada instante.

El resultado demostró que el sistema podía escanear continuamente la trayectoria del objeto a través
del tiempo, logrando una detección de cuadro a cuadro y preservando la marca visible en la pantalla.

Este procedimiento confirma la eficacia de la técnica de seguimiento basada en color bajo condiciones
controladas, demostrando que, con configuraciones adecuadas, es posible monitorear en tiempo real
el desplazamiento de un elemento en una secuencia de vídeo.


LATAM Revista Latinoamericana de Ciencias Sociales y Humanidades, Asunción, Paraguay.
ISSN en línea: 2789-3855, octubre, 2025, Volumen VI, Número 5 p 1267.

Figura 4

Seguimiento objeto


Nota: objeto (verde) es seguido por código.

Fuente: elaboración propia.

Mapa de calor de similitud y correlación normalizada.

La imagen mostrada en la (Fig. 5) corresponde a un mapa de similitud obtenido mediante la técnica de
coincidencia de visualización de plantillas por computadora, también llamada Técnica de coincidencia.
La representación gráfica utiliza una escala cromática continua que va de lo cálido a lo frío, lo que
facilita evaluar el grado de correlación entre la plantilla (el objeto de referencia) y diversas áreas de la
imagen ingresada.

Escala cromática y valores

Azules y violetas (≈0.0 a 0.3) indican zonas de muy baja similitud, donde la plantilla no guarda relación con el
contenido de la imagen. Verdes (≈0.4 a 0.6) reflejan coincidencias parciales o moderadas. Amarillos (≈0.7 a 0.8)
representan regiones con alta correspondencia entre la plantilla y la imagen. Los rangos de intensidad (0,9 a
1,0) muestran la máxima correlación normalizada, es la ubicación precisa del objeto buscado.

En esta escala de 0 a 1 (adimensionales) donde 1.0 representa la coincidencia perfecta.
En el mapa se aprecia una zona de color rojo intenso y brillante que contrasta con los frescos
dominantes.

Esta concentración cromática corresponde al punto de máxima correlación entre la plantilla y la imagen
fuente, validando la detección precisa del objeto (en este caso, un componente electrónico dentro de
la placa). Las áreas circundantes, en tonos verdes y amarillos, reflejan gradientes de similitud
decreciente, las demás se mantiene en valores bajos (azules/violetas), confirmando la ausencia de
coincidencias significativas.

En suma, la visualización evidencia cómo el algoritmo localiza el objeto buscado en la imagen mediante
un proceso cuantitativo de comparación normalizada, y al mismo tiempo ilustra de manera intuitiva la
distribución espacial de las similitudes.


LATAM Revista Latinoamericana de Ciencias Sociales y Humanidades, Asunción, Paraguay.
ISSN en línea: 2789-3855, octubre, 2025, Volumen VI, Número 5 p 1268.

Figura 5

Mapa de calor similitud


Nota: generado a partir del método de coincidencia de plantillas.

Fuente: elaboración propia.

Los experimentos confirmaron la eficacia del método de coincidencia de plantillas con OpenCV para
las tareas planteadas. En el caso de imágenes estáticas, el algoritmo logró identificar y localizar el
objeto deseado con gran precisión. Específicamente, al aplicar la plantilla del circuito sobre la imagen
de la placa, se encontró una coincidencia con coeficiente de correlación máximo de 0.999 (valor
adimensional, siendo 1.0 una coincidencia perfecta). Este valor cercano a 1 indica que la región de la
placa marcada coincidía casi exactamente con la plantilla proporcionada, lo cual era esperable dado
que se trataba del mismo objeto sin variaciones significativas. El circuito (Fig. 1) muestra visualmente
la ubicación detectada, lo que confirma que el circuito se encontraba dentro de la placa. No hubo falsos
positivos en la imagen: ninguna otra porción de la imagen generó un valor que pudiera ser confundido
por el algoritmo.

En el caso de la película, la implementación también logró mostrar un objeto en movimiento en tiempo
real. Con ayuda de la estrategia descrita por colores, el algoritmo pudo reconocer la presencia del
objeto verde en cada cuadro y marcar continuamente su ubicación con un círculo y una línea roja.

A medida que el objeto se desplazaba por la escena, el círculo de seguimiento lo acompañó con
precisión. Además, en la (Fig. 4) se ilustra conceptualmente esta idea. Los resultados muestran que
fue posible procesar información dinámica de manera eficiente, que el sistema mantuvo el seguimiento
sin interrupciones visibles y que actualizó la posición casi instantáneamente, lo que demuestra que el
procesamiento fue lo suficientemente rápido para la velocidad de cuadros del video (alrededor de 30
cuadros por segundo). Es de destacar ya que implica una tarea de visión por computadora donde se
debe examinar cada cuadro y mostrar inmediatamente la solución. Los resultados obtenidos sugieren
que el método se puede aplicar a situaciones donde es necesario seguir objetos básicos en entornos
controlados, como por ejemplo seguir un marcador de color en aplicaciones de robótica educativa o
experimentos de laboratorio.

Teniendo en cuenta que el éxito de este segundo experimento depende en gran medida de la
calibración adecuada de los parámetros. La gama de colores HSV correcta para separar el objeto verde
era esencial para evitar confusiones con otros elementos ambientales. La estabilidad de la iluminación
del vídeo y el marcado contraste entre el objeto y el fondo facilitaron la detección bajo estas
condiciones, la consecución de un seguimiento constante resalta la versatilidad de los métodos de
visión artificial basados en plantillas simples y características cuando se utilizan con conocimiento de
sus objetivos.


LATAM Revista Latinoamericana de Ciencias Sociales y Humanidades, Asunción, Paraguay.
ISSN en línea: 2789-3855, octubre, 2025, Volumen VI, Número 5 p 1269.

DISCUSIÓN

Los hallazgos confirman que la coincidencia de plantillas es eficaz en entornos controlados. En
imágenes estáticas, el alto índice de similitud (~0,999) evidenció la capacidad del algoritmo para
reconocer a un componente con alta precisión. En el caso dinámico, el seguimiento continuo de un
objeto verde mostró que es posible crear un rastreo en tiempo real con resultados satisfactorios en
condiciones de color y movimiento constantes.

Desde un punto de vista metodológico, la elección de un enfoque mixto resultó valioso porque permitió
validar cuantitativamente la precisión de los algoritmos e interpretar cualitativamente sus limitaciones
y su potencial de mejora. Este enfoque de combinar métodos cuantitativos y cualitativos para lograr
una comprensión más completa de los fenómenos en estudio va de acuerdo a lo planteado según
(Terrell, 2012).

Además, el carácter aplicado del trabajo se integró con los principios del aprendizaje activo y del ABP,
ya que el problema se resolvió construyendo un prototipo funcional utilizando herramientas de código
abierto (Papert, 1991; Thomas, 2000).

Los resultados también evidencian las limitaciones inherentes a la coincidencia de plantillas. Según
Han (2021) y Ren et al. (2022), el método es muy sensible a La variación de escala, rotación y
condiciones de iluminación, lo que restringe su aplicación en entornos no controlados. Al respecto, la
literatura sugiere alternativas más robustas, como el uso de descriptores locales invariantes (SIFT,
SURF) o modelos siameses basados en redes neuronales, que han demostrado un desempeño más
consistente frente a transformaciones geométricas y ruido de fondo (Tang et al., 2022; Mei, 2022).

Los resultados son posibles gracias a la comparación con estos estudios internacionales. Por el
contrario, este estudio confirmó la eficacia de la plantilla coincidencia en condiciones perfectas.

Diversos estudios han resaltado la necesidad de emplear métodos híbridos o avanzados en escenarios
complejos. En consecuencia, lo que aquí se ha desarrollado es un punto de partida pedagógico y
experimental que puede evolucionar hacia proyectos más ambiciosos apoyados en técnicas
contemporáneas de visión por computadora.

Finalmente se enfatiza que la coincidencia de plantillas se consolida como una técnica apropiada para
fines educativos, la creación rápida de prototipos y la introducción a la visión por computadora. Sin
embargo, su aplicabilidad en situaciones del mundo real, con mayor grado de complejidad, exige el uso
de algoritmos más robustos y flexibles, como los sugeridos en la literatura reciente. Esto confirma que
la investigación no sólo valida un procedimiento, sino que también abre la puerta a futuros avances en
la enseñanza y la práctica de la visión computacional.

CONCLUSIÓN

Este trabajo demostró de forma clara y práctica el funcionamiento de la técnica de coincidencia de
plantillas en el reconocimiento de patrones mediante OpenCV. Confirmándose que es posible detectar
un objeto específico dentro de una imagen más grande con alta precisión y de manera complementaria,
seguir un elemento en movimiento en un video en tiempo real. Los hallazgos confirman que, en
condiciones controladas, la plantilla de coincidencia es una técnica computacional efectiva, versátil y
económica, especialmente útil en contextos educativos, experimentales e incluso industriales donde
se requiere localizar componentes de manera rápida y confiable.

No obstante, también se evidenciaron limitaciones importantes de la coincidencia de plantillas,
específicamente frente a variaciones de escala, rotación, iluminación u omisiones. Este elemento se


LATAM Revista Latinoamericana de Ciencias Sociales y Humanidades, Asunción, Paraguay.
ISSN en línea: 2789-3855, octubre, 2025, Volumen VI, Número 5 p 1270.

alinea con los hallazgos de autores como Han (2021) y Ren et al. (2022), quienes afirman que se hace
necesario emplear enfoques más avanzados en escenarios dinámicos.

Una manera prometedora consiste en combinar métodos tradicionales con técnicas contemporáneas
como redes neuronales convolucionales o modelos siameses, lo que podría aportar mayor robustez y
flexibilidad. Así, la técnica puede extenderse a aplicaciones críticas en seguridad, automatización
industrial y diagnósticos médicos.

Este estudio enfatiza lo crucial que es comprender los fundamentos tradicionales de la visión por
computadora como base para crear soluciones híbridas más sofisticadas. La eficacia y la simplicidad
de los enfoques basados en plantillas, junto con la fortaleza de los enfoques basados en el aprendizaje
profundo, pueden dar como resultado herramientas que puedan enfrentar con éxito los desafíos que
plantean los entornos cambiantes. La investigación debería orientarse en optimizar los algoritmos
clásicos (mediante cálculos paralelos o búsquedas más rápidas) y su cooperación con modelos de
aprendizaje automático, favoreciendo sistemas inteligentes que no sólo detecten patrones con
precisión, sino que también se adapten a condiciones cambiantes y contextos del mundo real.


LATAM Revista Latinoamericana de Ciencias Sociales y Humanidades, Asunción, Paraguay.
ISSN en línea: 2789-3855, octubre, 2025, Volumen VI, Número 5 p 1271.

REFERENCIAS

Bradski, G. (2000). The OpenCV library. Dr. Dobb’s Journal of Software Tools.

Dubey, P., Miller, S., Günay, E. E., Jackman, J., Kremer, G. E., & Kremer, P. A. (2025). You only look once
v5 and multi-template matching for small-crack defect detection on metal surfaces. Automation, 6(2),
16. https://doi.org/10.3390/automation6020016

Gazcón, N. F. (2011). Intelligent Template Matching: Un nuevo acercamiento para reconocimiento
automático de patentes argentinas. XVII Congreso Argentino de Ciencias de la Computación.
https://sedici.unlp.edu.ar/handle/10915/18698

Han, Y. (2021). Coincidencia confiable de plantillas para la detección de imágenes en sistemas de
sensores de visión. Sensors, 21(24), 8176. https://doi.org/10.3390/s21248176

Khorbotly, S. (2015). A project-based learning approach to teaching computer vision at the
undergraduate level. ASEE Annual Conference & Exposition. American Society for Engineering
Education. https://peer.asee.org/a-project-based-learning-approach-to-teaching-computer-vision-at-
the-undergraduate-level

LeCun, Y., Bengio, Y., & Hinton, G. (2015). Deep learning. Nature, 521(7553), 436–444.
https://doi.org/10.1038/nature14539

Lewis, J. P. (1995). Fast normalized cross-correlation. Visión Interface, 10(1), 120–123.

Marr, D. (2010). Visión: Una investigación computacional sobre la representación humana y el
procesamiento de la información visual. MIT Press.

Papert, S., & Harel, I. (1991). Situating constructionism. In S. Papert & I. Harel (Eds.), Constructionism
(pp. 1–11). Ablex Publishing Corporation.

Peñate-Sánchez, A., et al. (2015). Matchability prediction for full-search template matching algorithms.
Universidad Politécnica de Cataluña. https://scispace.com/pdf/matchability-prediction-for-full-search-
template-matching-4tux6ie2wy.pdf

Ramírez, D. (2009). Adquisición y reconocimiento de imágenes. ITECKNE, 6(1), 5–13.

Ratcliffe, C. C. (2020). Seguimiento de objetos deformables utilizando estructuras pictóricas que se
actualizan de forma dinámica y robusta. Journal of Imaging, 6(7), 61.
https://doi.org/10.3390/jimaging6070061

Ren, Q., & Zhao, Y. (2022). A robust and accurate end-to-end template matching method based on the
Siamese network. IEEE Geoscience and Remote Sensing Letters, 19, 1–5.
https://doi.org/10.1109/LGRS.2021.3094046

Russakovsky, O., Deng, J., Su, H., Krause, J., Satheesh, S., Ma, S., ... & Fei-Fei, L. (2015). ImageNet large
scale visual recognition challenge. International Journal of Computer Vision, 115(3), 211–252.
https://doi.org/10.1007/s11263-015-0816-y

Tang, L. M. (2022). Investigación sobre la coincidencia de imágenes del algoritmo SIFT mejorado
basado en el factor de estabilidad y la simplificación del descriptor de características. Applied
Sciences, 12(17), 8448. https://doi.org/10.3390/app12178448

Terrell, S. R. (2012). Mixed-methods research methodologies. The Qualitative Report, 17(1), 254–280.
https://files.eric.ed.gov/fulltext/EJ973044.pdf


LATAM Revista Latinoamericana de Ciencias Sociales y Humanidades, Asunción, Paraguay.
ISSN en línea: 2789-3855, octubre, 2025, Volumen VI, Número 5 p 1272.

Thomas, J. W. (2000). A review of research on project-based learning. Autodesk Foundation.
https://files.eric.ed.gov/fulltext/ED447241.pdf

Yang, J. Y. (2024). Un método preciso y robusto de correspondencia de plantillas multimodales basado
en la localización del punto central en imágenes de teledetección. Remote Sensing, 16(15), 2831.
https://doi.org/10.3390/rs16152831
























Todo el contenido de LATAM Revista Latinoamericana de Ciencias Sociales y Humanidades, publicados en
este sitio está disponibles bajo Licencia Creative Commons