ISSN: 2806-5697  
Vol. 7 – Núm. E1 / 2026  
Análisis del prototipo de aprendizaje de lenguas de señas ecuatoriana a  
través de hardware y software libre  
Analysis of an Ecuadorian Sign Language learning prototype through open-source  
hardware and software.  
Análise do protótipo de aprendizagem da língua de sinais equatoriana através de  
hardware e software livre.  
Hinojosa Tonato Marco Alejandro1  
Instituto Superior Tecnológico Tsa´chila  
Naranjo Olalla Freddy Patricio2  
Instituto Superior Tecnológico Tsa´chila  
Como citar:  
Hinojosa, M. & Naranjo, F. (2026). Análisis del prototipo de aprendizaje de lenguas de señas  
ecuatoriana a través de hardware y software libre. Código Científico Revista de Investigación,  
7(E1), 2101-2115.  
Recibido: 19/12/2025  
Aceptado: 15/01/2026  
Publicado: 31/03/2026  
pág. 2101  
Volumen 7, Número Especial 1, 2026  
Research Article  
Resumen  
El presente proyecto abordó la problemática de la limitada comunicación entre estudiantes con  
discapacidad auditiva y la comunidad educativa del Instituto Superior Tecnológico Tsa’chila  
(ISTT), situación que dificultaba su participación e integración académica. Con el propósito de  
contribuir a la inclusión, se desarrolló un prototipo interactivo de aprendizaje de la Lengua de  
Señas Ecuatoriana (LSEC), basado en hardware y software libre. El estudio tuvo como objetivo  
diseñar, implementar un sistema capaz de reconocer señas básicas mediante visión artificial,  
empleando una metodología de desarrollo en cascada que permitió avanzar de forma secuencial  
desde la identificación de necesidades hasta la validación del prototipo. El proceso incluyó una  
revisión bibliográfica sobre reconocimiento de gestos, microcomputadoras y educación  
inclusiva, el diseño funcional del sistema y su integración en una Raspberry Pi 4 con una  
cámara web. Los resultados demostraron que el prototipo es funcional en la identificación de  
señas y usado por el estudiante con discapacidad auditiva que participó en las pruebas, aun  
cuando factores como iluminación y distancia afectaron parcialmente la detección.  
Palabras clave: Lengua de señas ecuatoriana, visión artificial, inclusión, Raspberry Pi 4,  
reconocer señas, prototipo interactivo.  
Abstract  
This project addressed the problem of limited communication between students with hearing  
disabilities and the educational community of the Instituto Superior Tecnológico Tsa’chila  
(ISTT), a situation that hindered their academic participation and integration. In order to  
contribute to inclusion, an interactive learning prototype for Ecuadorian Sign Language  
(LSEC) was developed, based on open-source hardware and software. The objective of the  
study was to design and implement a system capable of recognizing basic sign language  
gestures through computer vision, using a waterfall development methodology that allowed  
sequential progress from needs identification to prototype validation. The process included a  
literature review on gesture recognition, microcomputers, and inclusive education, the  
functional design of the system, and its integration on a Raspberry Pi 4 with a webcam. The  
results demonstrated that the prototype is functional in identifying signs and was successfully  
used by the student with a hearing disability who participated in the tests, although factors such  
as lighting conditions and distance partially affected detection performance.  
Keywords: Ecuadorian sign language, computer vision, inclusion, Raspberry Pi 4, sign  
recognition, interactive prototype.  
Resumo  
O presente projeto abordou a problemática da limitada comunicação entre estudantes com  
deficiência auditiva e a comunidade educativa do Instituto Superior Tecnológico Tsa’chila  
(ISTT), situação que dificultava sua participação e integração acadêmica. Com o propósito de  
contribuir para a inclusão, desenvolveu-se um protótipo interativo de aprendizagem da Língua  
de Sinais Equatoriana (LSEC), baseado em hardware e software livre. O estudo teve como  
objetivo projetar e implementar um sistema capaz de reconhecer sinais básicos mediante visão  
artificial, empregando uma metodologia de desenvolvimento em cascata que permitiu avançar  
de forma sequencial, desde a identificação de necessidades até a validação do protótipo. O  
pág. 2102  
Volumen 7, Número Especial 1, 2026  
sobre reconhecimento de gestos,  
Research Article  
processo incluiu  
uma  
revisão  
bibliográfica  
microcomputadores e educação inclusiva, o design funcional do sistema e sua integração em  
uma Raspberry Pi 4 com uma câmera web. Os resultados demonstraram que o protótipo é  
funcional na identificação de sinais e foi utilizado pelo estudante com deficiência auditiva que  
participou dos testes, embora fatores como iluminação e distância tenham afetado parcialmente  
a detecção.  
Palavras-chave: Língua de sinais equatoriana, visão artificial, inclusão, Raspberry Pi 4,  
reconhecimento de sinais, protótipo interativo.  
Introducción  
La comunicación constituye uno de los componentes fundamentales del proceso  
educativo, pues permite el intercambio de ideas, la construcción del conocimiento y el  
desarrollo de relaciones colaborativas. No obstante, los estudiantes con discapacidad auditiva  
enfrentan barreras que limitan su participación plena en espacios académicos, especialmente  
cuando no existe un dominio generalizado de la Lengua de Señas Ecuatoriana (LSEC) en la  
comunidad educativa. Estas dificultades generan dependencia hacia intérpretes y reducen la  
autonomía comunicativa del estudiantado.  
El avance tecnológico ha permitido que herramientas de bajo costo, basadas en  
hardware libre y visión artificial, se conviertan en alternativas viables para fortalecer la  
educación inclusiva. A través del procesamiento de imágenes, los sistemas embebidos son  
capaces de reconocer gestos en tiempo real, facilitando procesos de aprendizaje interactivo y  
accesible.  
En este contexto, el presente trabajo desarrolla un prototipo de aprendizaje básico de  
LSEC mediante la integración de una Raspberry Pi 4, una cámara y software libre orientado al  
reconocimiento de gestos. Su objetivo principal es brindar un recurso didáctico que contribuya  
a mejorar la comunicación entre estudiantes sordos y oyentes del Instituto Superior  
Tecnológico Tsa’chila, promoviendo su inclusión activa y reduciendo las barreras  
comunicativas que actualmente limitan su desarrollo académico.  
pág. 2103  
Volumen 7, Número Especial 1, 2026  
Research Article  
Metodología  
El proyecto se desarrolló bajo el modelo de cascada, una metodología ampliamente  
utilizada en proyectos tecnológicos y de software. Este modelo se caracteriza por una estructura  
secuencial, en la cual cada fase depende de la finalización de la anterior, permitiendo un  
proceso ordenado y sistemático para el diseño e implementación del prototipo de aprendizaje de  
la Lengua de Señas Ecuatoriana.  
Las fases que conforman este modelo son: análisis, en la que se identificaron los  
requerimientos y necesidades del proyecto; diseño, donde se definió la arquitectura del sistema  
y los componentes del prototipo; implementación, fase en la que se desarrolló e integró el  
hardware y el software; pruebas, orientada a verificar el correcto funcionamiento del sistema; y  
evaluación, en la que se analizaron los resultados obtenidos.  
Identificación de Necesidades  
En esta etapa inicial se realizó un diagnóstico demográfico y operativo dentro del  
Instituto Superior Tecnológico Tsa'chila para dimensionar la población beneficiaria. Mediante  
la recolección de datos institucionales, se identificó que actualmente existen 4 estudiantes con  
discapacidad auditiva que dependen de un intérprete de lengua de señas, distribuidos en las  
siguientes carreras técnicas:  
Contabilidad: 1 estudiante.  
Electrónica: 1 estudiante.  
Asesoría tributaria: 1 estudiante.  
Mecánica Industrial: 1 estudiante.  
A partir de entrevistas con docentes y Bienestar estudiantil, se detectó una  
vulnerabilidad crítica en el proceso de enseñanza-aprendizaje: la dependencia absoluta del  
intérprete humano. Se constató que, ante situaciones imprevistas (enfermedad, calamidad  
pág. 2104  
Volumen 7, Número Especial 1, 2026  
Research Article  
doméstica o problemas logísticos) que impiden la asistencia del intérprete a clases, el estudiante  
sordo queda incomunicado y pierde el acceso al contenido de esa jornada.  
Por consiguiente, la necesidad fundamental que justifica este proyecto no es sustituir la  
labor profesional del intérprete, sino proveer una herramienta tecnológica de apoyo. El  
prototipo se plantea como un recurso auxiliar que permita al estudiante mantener su  
práctica y comunicación básica en el aula, garantizando la continuidad educativa incluso  
durante la ausencia temporal del personal de apoyo.  
Diseño del sistema  
Para los componentes tecnológicos y materiales, se planteó una arquitectura de  
hardware centralizada bajo el modelo de Computación en el Borde (Edge Computing). Esto  
implica que la Raspberry Pi 4 actúa como el núcleo de procesamiento autónomo, eliminando la  
dependencia de servidores externos.  
Previo al diseño de los planos, se realizó un análisis técnico para seleccionar el material  
de la estructura física que alojará los componentes. Se evaluaron criterios como costo,  
resistencia y facilidad de fabricación.  
Tabla 1.  
Matriz de selección de hardware de procesamiento y video  
Opción A (Seleccionada)  
Opción B (Descartada)  
Justificación de la Selección Técnica  
Raspberry Pi (4GB)  
Arduino Mega 2560  
Capacidad de Cómputo: Arduino es un  
microcontrolador que no soporta procesamiento  
de video ni librerías como Media Pipe. La  
Raspberry Pi es un microordenador capaz de  
correr Linux y Python.  
Raspberry Pi (4GB)  
Laptop / PC Torre  
Portabilidad y Costo: Aunque una PC tiene  
más potencia, la Raspberry Pi permite crear  
un dispositivo "todo en uno" portátil,  
económico y fácil de instalar en cualquier  
aula.  
pág. 2105  
Volumen 7, Número Especial 1, 2026  
Enfoque Automático: La C920 posee  
Research Article  
Logitech C920  
Cámara Web (Genérica)  
autofocus, vital para no perder nitidez cuando el  
usuario mueve las manos. Las genéricas suelen  
tener foco fijo, lo que borra la imagen al  
acercarse.  
Logitech C920  
Módulo RPi Cam (CSI)  
Conectividad: La conexión USB de la C920  
permite mayor flexibilidad de cableado (1.5m)  
para ajustar la altura, mientras que el cable plano  
(faja) de la RPi Cam es corto y frágil.  
Nota. Elaboración propia. (2025)  
Tabla 2.  
Matriz de selección del material estructural  
Criterio Madera MDF (3mm)  
Costo  
Acrílico  
Alto Costo  
Impresión 3D (PLA)  
Alto Costo  
Bajo Costo  
Fabricación  
Resistencia  
Ensamble  
Decisión  
Corte Láser (Rápido)  
Media (Rígido)  
Cola blanca (Fácil)  
Seleccionado  
Corte Láser (Rápido)  
Baja (Frágil)  
Impresión (Lento)  
Alta  
Cloroformo (Tóxico)  
Descartado  
Tornillería  
Descartado  
Nota. Elaboración propia. (2025)  
Diagrama de Bloques del Hardware  
El sistema opera bajo un esquema de entrada-proceso-salida. La cámara web (Input)  
envía el flujo de video, la Raspberry Pi procesa los frames, finalmente, la interfaz gráfica se  
proyecta a través del puerto Micro-HDMI hacia el monitor (Output).  
Camera Web  
Logitech C920  
(Entrada USB)  
Raspberry Pi4  
(Procesamiento)  
CPU/GPU  
Monitor/Pantalla  
(Salida HDMI)  
Periféricos  
(Teclado/Mouse)  
Figura 1. Diagrama de bloques del sistema de hardware  
Fuente: Elaboración propia. (2025)  
pág. 2106  
Volumen 7, Número Especial 1, 2026  
Research Article  
Diseño Mecánico y Montaje  
Para garantizar la estabilidad de la captura de imágenes y la ergonomía del sistema, se  
diseñó y fabricó una estructura personalizada utilizando madera MDF de 3mm, procesada  
mediante tecnología de corte láser. El diseño mecánico presenta una estructura tipo "L" que  
incorpora dos características funcionales claves:  
Sistema de regulación de altura: Se implementaron rieles de perforaciones laterales  
equidistantes que permiten ajustar la posición vertical de la cámara Logitech C920  
mediante pernos de sujeción. Esto asegura que el encuadre sea óptimo  
independientemente de la estatura del estudiante o de si se encuentra sentado o de pie.  
Alojamiento de Hardware: La parte posterior cuenta con un compartimento cerrado  
(case) diseñado para alojar y proteger la Raspberry Pi 4, contando con las aberturas  
precisas para la gestión del cableado de alimentación y video, manteniendo un entorno  
de trabajo seguro y ordenado.  
Desarrollo de Software y Arquitectura Modular  
El software del prototipo se desarrolló utilizando el lenguaje Python, estructurado en  
una arquitectura modular compuesta por cuatro scripts independientes pero interconectados.  
Esta estrategia permitió aislar procesos (recolección, entrenamiento y ejecución) para optimizar  
el consumo de recursos en la Raspberry Pi.  
Recolección de Muestras y Optimización  
El primer algoritmo se encarga de la adquisición de datos biométricos de la mano. Para  
ello, se emplea la librería MediaPipe Hands, la cual permite detectar y rastrear una mano en  
tiempo real, extrayendo las coordenadas tridimensionales (x, y, z) de 21 puntos clave  
(landmarks) por cada cuadro de video.  
Con el fin de construir el conjunto de datos (dataset), se definió un protocolo de captura  
de 30 muestras por cada letra del abecedario de la Lengua de Señas Ecuatoriana (LSEC). Cada  
pág. 2107  
Volumen 7, Número Especial 1, 2026  
Research Article  
muestra corresponde a una secuencia de video procesado cuadro por cuadro, de la cual se  
obtiene un vector de características normalizado que representa la postura de la mano.  
Para garantizar la consistencia de las muestras, el sistema incorpora un criterio de  
estabilidad del gesto, basado en la variación promedio de los landmarks entre cuadros  
consecutivos. Solo cuando el movimiento se mantiene por debajo de un umbral predefinido  
durante varios frames, la muestra es considerada válida y almacenada.  
Optimización de Hardware: Durante las pruebas de rendimiento, se observó que la  
captura continua a 30 frames por segundo, valor estándar de la cámara, saturaba la  
memoria caché de la Raspberry Pi, generando latencia y cierres inesperados del flujo de  
video. Para mitigar este problema de buffer overflow, se limitó la captura efectiva a 20  
frames por secuencia, lo cual permitió mantener la estabilidad del sistema sin  
comprometer la información necesaria para la correcta definición del gesto manual.  
Fragmento fundamental del código: Este fragmento ilustra el núcleo del proceso de  
extracción y normalización de los landmarks de la mano, utilizado para la creación del  
dataset.  
Inferencia en Tiempo Real (Modo Prueba)  
Este módulo corresponde a la fase de inferencia y validación en tiempo real del sistema  
de reconocimiento de gestos. Su función principal es evaluar el desempeño del modelo  
entrenado, comparando los vectores de características obtenidos en tiempo real con los patrones  
aprendidos durante la fase de entrenamiento.  
El conjunto de datos previamente recolectado es utilizado para entrenar un clasificador  
supervisado basado en Random Forest, el cual opera sobre vectores de 63 características,  
correspondientes a las coordenadas tridimensionales (x, y, z) de los 21 puntos clave de la mano.  
Para estimar el rendimiento del modelo, se emplea una partición de los datos en subconjuntos  
de entrenamiento y prueba, siempre que la cantidad de muestras por clase lo permita.  
pág. 2108  
Volumen 7, Número Especial 1, 2026  
Research Article  
Durante la inferencia, cada frame capturado por la cámara es transformado en un vector  
normalizado y clasificado en tiempo real. Esta etapa permite visualizar la cercanía entre los  
gestos actuales y las muestras ideales, facilitando ajustes en factores como iluminación,  
orientación de la mano y distancia a la cámara antes de la ejecución definitiva del sistema.  
Traductor LSEC y Retroalimentación Visual  
Este módulo corresponde a la fase final de despliegue del sistema (producción), en la  
cual se realiza la traducción de gestos de la Lengua de Señas Ecuatoriana (LSEC) en tiempo  
real. En esta etapa, el algoritmo captura continuamente la postura de la mano, extrae sus  
características biométricas y las procesa mediante el modelo previamente entrenado para  
predecir la letra correspondiente.  
El sistema opera sobre secuencias de aproximadamente 20 frames consecutivos, a partir  
de las cuales se genera un vector de características normalizado por frame. Cada vector es  
clasificado individualmente y posteriormente sometido a un proceso de suavizado temporal,  
basado en votación mayoritaria, con el fin de reducir fluctuaciones y errores de predicción  
causados por ruido o movimientos involuntario.  
Para evitar detecciones erráticas, se implementa un mecanismo de confirmación  
temporal del gesto, que exige que la predicción permanezca estable durante un intervalo  
mínimo antes de ser aceptada como válida. Una vez confirmada la letra, esta se incorpora a la  
salida textual del traductor.  
Como valor agregado en términos de experiencia de usuario (UX), el sistema  
proporciona retroalimentación visual inmediata, mostrando tanto la letra detectada como una  
imagen de referencia asociada a la seña. Este recurso permite al usuario verificar que el gesto ha  
sido correctamente interpretado por el sistema, reforzando el proceso de aprendizaje visual y la  
confianza en la traducción.  
pág. 2109  
Volumen 7, Número Especial 1, 2026  
Research Article  
Pruebas de Funcionamiento y Calibración  
Actualmente, el prototipo se encuentra en una etapa de validación técnica interna  
realizada por el equipo desarrollador. El objetivo de esta fase es asegurar la estabilidad del  
algoritmo y corregir errores de detección antes de la exposición al usuario final.  
Se está llevando a cabo el entrenamiento del modelo utilizando un dataset propio,  
recolectado por los investigadores.  
Volumen de datos: Se han capturado 30 muestras vectoriales por cada letra del  
abecedario.  
Resultados preliminares: Los resultados de las pruebas indican que el sistema es  
capaz de reconocer la geometría de la mano; sin embargo, se ha detectado un fenómeno  
de inestabilidad en la inferencia (flickering). Debido a que la base de datos aún es  
reducida, el sistema en ciertos casos presenta incertidumbre y alterna rápidamente entre  
letras con geometría similar cuando la mano no se mantiene completamente estática.  
Adicionalmente, se identificó como limitación la variabilidad natural en la forma y  
tamaño de las manos entre distintos usuarios, lo que puede afectar la precisión del  
reconocimiento. El sistema presenta un mejor desempeño cuando el gesto realizado coincide de  
manera cercana con la forma y postura con la que fue registrado durante la fase de recolección  
de datos. Por esta razón, es necesario que el usuario ejecute la seña respetando la configuración  
pág. 2110  
Volumen 7, Número Especial 1, 2026  
Research Article  
gestual original (posición de dedos, orientación y apertura de la mano), ya que desviaciones  
significativas pueden generar confusión en la clasificación.  
Acción correctiva: El equipo se encuentra en proceso de ampliación del banco de  
imágenes y ajuste de los parámetros de confianza del software para mitigar este  
comportamiento.  
Puesta en marcha  
El prototipo ha sido ensamblado e instalado físicamente en el entorno de pruebas, con la  
estructura de madera y los componentes electrónicos totalmente integrados.  
La fase de implementación final contempla, como paso siguiente, la validación de  
campo con el estudiante de la carrera de Electrónica. Esta validación final servirá para medir la  
usabilidad del sistema una vez que se haya estabilizado el porcentaje de aciertos del algoritmo  
en la fase de laboratorio actual.  
Resultados  
Resultados de las Pruebas de Funcionamiento  
Las pruebas realizadas permitieron validar la técnica de la arquitectura propuesta. A  
pesar de trabajar con un dataset inicial reducido (30 muestras/clase), el prototipo demostró  
fortalezas significativas en rendimiento y velocidad, así como áreas específicas de mejora en la  
precisión estadística.  
A continuación, se detallan los hallazgos técnicos positivos y las limitaciones  
detectadas:  
Estabilidad del Hardware y Recursos: Se validó que la configuración de captura a 20  
FPS es el punto óptimo de operación. La Raspberry Pi 4 mantuvo una temperatura  
estable y un consumo de memoria RAM constante durante sesiones de uso continuo, sin  
pág. 2111  
Volumen 7, Número Especial 1, 2026  
Research Article  
presentar congelamientos (freezing) ni cierre inesperado del software. Esto confirma  
que la placa seleccionada es idónea para soportar la carga computacional.  
Latencia y Tiempo Real: El sistema cumple con el requerimiento de  
"retroalimentación inmediata". El tiempo de procesamiento entre el movimiento de la  
mano y la visualización en pantalla es imperceptible para el usuario humano,  
permitiendo una interacción fluida.  
Reconocimiento Efectivo: El sistema logra identificar correctamente la estructura  
geométrica de la mano. Cuando el usuario mantiene la postura estática y bien iluminada,  
el algoritmo converge y muestra la letra correcta (Salida Visual).  
Fenómeno de Fluctuación (Flickering): Como contraparte, se detectó una  
inestabilidad cuando la mano realiza micro-movimientos en letras morfológicamente  
parecidas. La salida del sistema tiende a alternar rápidamente entre la letra correcta y  
otras con morfología similar. Específicamente, se registraron confusiones frecuentes  
entre:  
La 'M' con la 'N' o la 'P'.  
La 'A' con la 'S'.  
Causa Técnica: El análisis determina que el volumen de datos de entrenamiento (30  
muestras/clase) es insuficiente para generar una frontera de decisión robusta. Al tener  
pocas referencias, el modelo tiene una "baja confianza" estadística en ciertas  
posiciones, lo que provoca los cambios repentinos en la detección.  
Discusión  
Los resultados confirman que el prototipo funciona exitosamente como una Prueba de  
Concepto (PoC). La arquitectura de hardware es sólida y el algoritmo es capaz de reconocer la  
pág. 2112  
Volumen 7, Número Especial 1, 2026  
Research Article  
geometría de la mano en tiempo real. La inestabilidad actual en ciertas letras no representa un  
fallo de diseño, sino una limitación del conjunto de datos.  
Es importante destacar que la arquitectura del software desarrollado tiene capacidad  
para almacenar y procesar hasta  
40 muestras por clase. Sin embargo, para esta fase experimental se restringió la  
recolección a 30 muestras. Esta decisión respondió a un criterio de salud ocupacional, debido a  
que el proceso de captura manual intensiva genera fatiga muscular en el usuario, lo que a su vez  
degrada la calidad de la postura de la mano en tomas prolongadas. Para futuras  
implementaciones y alcanzar la capacidad máxima del sistema, se recomienda realizar las  
sesiones de captura en intervalos pausados para garantizar la integridad de los datos.  
Conclusión  
La investigación evidenció que el procesamiento local de los datos en la Raspberry Pi 4,  
en lugar de utilizar servicios en la nube, elimina la dependencia de una conexión a  
internet y reduce de manera significativa la latencia del sistema. Como resultado, se  
habilita el desarrollo de una herramienta autónoma, inclusiva y de bajo costo, capaz de  
operar eficientemente en entornos educativos con infraestructura tecnológica limitada.  
Se diseñó un prototipo funcional que supera las limitaciones térmicas y de memoria de  
los sistemas embebidos. Durante las pruebas, se identificó que la captura a 30 FPS  
saturaba la memoria caché provocando cierres inesperados; este obstáculo se superó  
limitando la tasa de captura a 20 FPS, logrando así un equilibrio perfecto entre fluidez  
de video y estabilidad térmica. Asimismo, la elección de madera MDF cortada a láser  
permitió crear una estructura robusta y ajustable a un costo significativamente menor  
que la impresión 3D.  
Se implementó exitosamente un sistema interactivo que ofrece retroalimentación visual  
pág. 2113  
Volumen 7, Número Especial 1, 2026  
Research Article  
en tiempo real. Aunque se enfrentó una limitación ergonómica (fatiga muscular) que  
restringió la recolección de datos a 30 muestras por letra, el sistema demostró ser una  
Prueba de Concepto (PoC) válida. El algoritmo es capaz de reconocer gestos distintivos  
con alta precisión, y la arquitectura de software quedó validada y lista para escalar a 40  
muestras por clase en futuras etapas, lo cual solucionará los fenómenos de fluctuación  
(flickering) detectados en señas complejas.  
Referencias bibliográficas  
Abini, Lakshmi, D., Sharan, & Sulphiya. (28 de diciembre de 2024). A comprehensive deep  
learning based system for real time sign language recognition and translation using  
v72i12p102  
Acosta, L. (20 de Julio de 2022). Webcam Logitech C920 con resolución Full HD y corrección  
de iluminación de oferta en Amazon México: compatible con Windows, Mac y Android.  
Com.mx; Xataka México. Obtenido de Webcam Logitech C920 con resolución Full HD  
y corrección de iluminación de oferta en Amazon México: compatible con Windows,  
Mac  
y
Android.  
Com.mx;  
Xataka  
México.:  
correccion-iluminacion-oferta-amazon-mexico-compatible-windows-mac-android  
Alpaca Rendón, J. A. (05 de 10 de 2017). Reconocimiento de Patrones de Movimiento Basado  
en Raspberry Pi y Cámaras Megapíxel para Mejorar la Atención de Pacientes  
Hospitalizados. Obtenido de Reconocimiento de Patrones de Movimiento Basado en  
Raspberry Pi y Cámaras Megapíxel para Mejorar la Atención de Pacientes  
Hospitalizados:  
ca330c032ed5  
De la Cruz Pantoja, D. M. (2022). Inclusión educativa para estudiantes con discapacidad  
auditiva y visual en el contexto universitario. Revista Unimar, 40(1), 33-53.  
De programacionpython, V. T. (22 de Junio de 2021). DETECTOR DE MANOS EN PYTHON,  
CON «opencv» Y «mediapipe». El Programador Chapuzas. Obtenido de DETECTOR  
DE MANOS EN PYTHON, CON «opencv» Y «mediapipe». El Programador  
Chapuzas.:  
de-manos- en-python-con-opencv-y-mediapipe/  
Domotics, I. (30 de Abril de 2024). Raspberry Pi y Visión Artificial: Evita Errores Comunes en  
Tu Tesis [Video]. Youtube. Obtenido de Raspberry Pi y Visión Artificial: Evita Errores  
Comunes en Tu Tesis [Video]. Youtube.: https://www.youtube.com/watch?  
Ghosh, A. (1 de April de 2025). YOLO11 en Raspberry Pi: Optimización de la detección de  
objetos para dispositivos de borde. Obtenido de YOLO11 en Raspberry Pi:  
Optimización  
de  
la  
detección  
de  
objetos  
para  
dispositivos  
de  
borde:  
pág. 2114  
Volumen 7, Número Especial 1, 2026  
Research Article  
Huseyin, M. (17 de Marzo de 2021). Understanding Principles of Python. Medium. Obtenido  
de Understanding Principles of Python. Medium.:  
Ioannis Panopoulos, E. T. (15 de agosto de 2025). Greek Sign Language Detection with  
Artificial Intelligence. Obtenido de mdpi: https://www.mdpi.com/2079-  
9292/14/16/3241  
Jiménez Martínez, I. (06 de 03 de 2018). Control remoto de movimiento de cámara web con  
TrackerPod en C++. Obtenido de Control remoto de movimiento de cámara web con  
Kamble, S. (11 de Junio de 2025). SLRNet: A Real-Time LSTM-Based Sign Language  
Logitech. (06 de 2021). C920 HD Pro Webcam: Technical Specifications & Datasheet.  
Obtenido de C920 HD Pro Webcam: Technical  
Specifications & Datasheet:  
datasheet.pdf  
Maldonado, V. R. (2018). roceso de inclusión de estudiantes sordos en instituciones educativas  
públicas. Revista PUCE, 101-124.  
Rautaray, S. A. (2012). Reconocimiento de gestos manuales basado en visión para la  
interacción humano-computadora: una encuesta. Artificial Intelligence Review, 43, 1–  
54 .  
Rojas, J. (1 de Febrero de 2023). Tecnología que ayuda a las personas con discapacidad  
auditiva. Telefónica. Obtenido de Tecnología que ayuda a las personas con  
discapacidad  
auditiva.  
Telefónica.:  
comunicacion/blog/tecnologia-que-ayuda-a-las-personas-con-discapacidad-auditiva/  
Tutillo, E. R. (12 de Octubre de 2019). Lengua de señas ecuatoriana LSEC Sign Language  
Alfabeto Dactilológico Manual Alphabet. Turismoaccesibleec.org. Obtenido de  
Lengua de señas ecuatoriana LSEC Sign Language Alfabeto Dactilológico Manual  
Alphabet.  
Turismoaccesibleec.org:  
https://www.turismoaccesibleec.org/2019/10/16/comparativa-iberoamericana-de-las-  
lenguas-de-senas-signos/lengua-de-senas-ecuatoriana-lsec-sign-language-alfabeto-  
dactilologico-manual-alphabet/  
Villa, B. V. (2018). Diseño de un sistema de reconocimiento de gestos no móviles mediante el  
procesamiento digital de imágenes. Prospectiva, 16(2), 41–48.  
Vive. (23 de Diciembre de 2019). Discapacidad auditiva en el aula: consejos y  
recomendaciones. Obtenido de Discapacidad auditiva en el aula: consejos y  
recomendaciones.:  
argentina.unir.net/noticias/educacion/discapacidad-auditiva-aula/  
Watkin, H. (26 de Junio de 2019). Raspberry Pi 4 – Review the Specs. Obtenido de Raspberry Pi  
pág. 2115