ESTUDIANTES DEL IPN DESARROLLAN SISTEMA 3D PARA ANIMACIÓN DIGITAL

24 de Marzo de 2026

ESTUDIANTES DEL IPN DESARROLLAN SISTEMA 3D PARA ANIMACIÓN DIGITAL

En la Asociación Nacional de Universidades e Instituciones de Educación Superior (ANUIES), nos congratulamos con el diseño innovador de los estudiantes de ingeniería del Instituto Politécnico Nacional (IPN) quienes diseñaron un sistema mecatrónico capaz de capturar y replicar gestos faciales humanos en modelos tridimensionales de forma automática.

El desarrollo, realizado en el Laboratorio de Realidad Extendida de la Unidad Profesional Interdisciplinaria en Ingeniería y Tecnologías Avanzadas (UPIITA), estuvo a cargo de los alumnos Aleks Adrian Calderón Vázquez, Alejandro Campos Arroyo y Daniel Cruz Ramírez, con el fin de titularse como ingenieros mecatrónicos. Los jóvenes contaron con la asesoría de los docentes Erick Huitrón Ramírez, David Abraham Morales Enríquez y José Luis Cruz Mora.

Mediante el uso de una cámara de profundidad y algoritmos de inteligencia artificial, el dispositivo traduce movimientos reales a una malla digital en tiempo real, optimizando el proceso de animación 3D. Esta tecnología de bajo costo busca eliminar las complejas correcciones manuales y reducir los tiempos de producción en la industria del entretenimiento.

Además de su aplicación en videojuegos, los creadores destacan que el sistema posee el potencial de integrarse en vehículos inteligentes para detectar signos de fatiga en los conductores. El proyecto refleja un avance significativo en la soberanía tecnológica y la aplicación práctica de redes neuronales desarrolladas en laboratorios académicos mexicanos.

El sistema utiliza una cámara de profundidad adaptada a una diadema dirigida al rostro para capturar expresiones en tres dimensiones. El proceso técnico incluye:

• Inteligencia Artificial: Los datos se transfieren a un algoritmo de aprendizaje (red neuronal) que identifica regiones específicas como ojos, párpados, cejas y boca.

• Entrenamiento robusto: El algoritmo fue entrenado con los rostros de los propios estudiantes y una extensa base de datos de una biblioteca de visión artificial de Google.

• Procesamiento en tiempo real: Se crea una malla que se transfiere a un modelo 3D previamente diseñado, replicando gestos y movimientos humanos en tiempo real.

• Rigging automatizado: El sistema facilita la configuración del esqueleto interno del modelo para lograr expresiones congruentes y un manejo técnico eficiente de las gesticulaciones.

Además de su aplicación directa en la animación digital y los videojuegos, los desarrolladores destacaron que el sistema posee un alto potencial en el sector automotriz. El software podría adaptarse para monitorear los gestos de un conductor y emitir alertas en caso de detectar signos de cansancio o sueño, contribuyendo así a la prevención de accidentes.

Este proyecto se alinea con la visión de la presidenta Claudia Sheinbaum Pardo y el secretario de Educación Pública, Mario Delgado Carrillo, de establecer la ciencia y la tecnología como pilares fundamentales del gobierno, promoviendo la soberanía tecnológica en el ámbito educativo.

***