Elina Filatova, científica de Datos de NeuronUP, expone en este artículo cómo el modelo Time-Aware LSTM (TA-LSTM) permite predecir con alta precisión los resultados de los usuarios incluso cuando sus datos se generan de manera irregular.
En NeuronUP implementamos activamente los métodos más avanzados de aprendizaje automático que nos permiten predecir con alta precisión el comportamiento de los usuarios, identificar tendencias y pronosticar resultados futuros basándonos en sus datos históricos.
Sin embargo, los enfoques tradicionales del aprendizaje automático enfrentan dificultades cuando los datos se generan de forma irregular y los intervalos entre observaciones son caóticos o específicos para cada usuario. En tales casos, los modelos convencionales se vuelven ineficaces, ya que no consideran el ritmo y la frecuencia únicos de la actividad de cada persona.
Precisamente para resolver este problema utilizamos una versión especial de la red neuronal LSTM, denominada Time-Aware LSTM (TA-LSTM). Este modelo es capaz de considerar eficazmente los intervalos temporales entre eventos, permitiendo predecir series temporales incluso cuando los datos son irregulares.
Objetivo del estudio y principales dificultades
En NeuronUP contamos con métricas del usuario provenientes de días anteriores, con el objetivo de predecir sus resultados la próxima vez que realice la actividad. A primera vista, esto podría parecer una tarea sencilla, pero en la práctica real surgen varias dificultades importantes:
- Ritmo individual de los usuarios: Cada usuario tiene un patrón único de entrenamiento; algunos juegan diariamente, otros semanalmente, y algunos pueden hacer pausas prolongadas de hasta un mes, regresando inesperadamente a las actividades. Por ejemplo, Alex entrena de forma estable cada día, mientras que José prefiere intervalos semanales. Si se promedian sus resultados sin considerar esta frecuencia, se perderán detalles cruciales.
- Variedad de actividades y su impacto diferencial en los usuarios: Las actividades en NeuronUP están diseñadas para mejorar distintas funciones cognitivas como la memoria, la atención y la lógica, entre otras. Cada actividad posee un nivel de dificultad particular que varía según el usuario. Lo que resulta sencillo para una persona, podría representar un gran desafío para otra.
- Enfoque en actividades específicas: Los especialistas en NeuronUP determinan qué actividades asignar a cada usuario. Por ejemplo, Carmen realiza regularmente ejercicios de memoria, lógica y matemáticas, mientras que Pablo prefiere exclusivamente ejercicios de atención. Por tanto, el modelo predictivo debe considerar el camino personalizado de cada jugador.
Por supuesto, todos estos matices complican tanto el proceso adecuado de preparación de datos como el propio entrenamiento de los modelos de aprendizaje automático. Ignorar el ritmo individual de los jugadores, sus intervalos irregulares y los diferentes niveles de dificultad de las actividades inevitablemente conduce a la pérdida de información clave. Como consecuencia, existe el riesgo de obtener predicciones menos precisas, lo que a su vez puede reducir la eficacia de las recomendaciones personalizadas en NeuronUP.
Suscríbete
a nuestra
Newsletter
Solución: Time-Aware LSTM
Para superar eficazmente todas las dificultades mencionadas anteriormente, el equipo de datos de NeuronUP desarrolló una solución específica basada en el modelo personalizado Time-Aware LSTM (TA-LSTM). Esta es una versión mejorada de la red neuronal estándar LSTM, que es capaz de considerar no sólo los eventos en las series temporales, sino también los intervalos de tiempo entre ellos.
Preparación de datos: ¿por qué es tan importante la diferencia temporal?
Nuestro modelo recibe como entrada datos preparados de una manera específica. Cada registro es una matriz bidimensional que contiene los resultados secuenciales de un jugador, ordenados cronológicamente, así como los intervalos de tiempo en días entre cada vez que realizó la actividad. Para entender por qué es tan importante considerar la diferencia temporal, conozcamos a dos personajes que nos ayudarán a ilustrar este punto de manera clara.
Imaginemos un maratón llamado «El más rápido y ágil», para el cual se están preparando dos atletas:
- Neuronito – un deportista disciplinado y determinado. Nunca se salta un entrenamiento, trabaja en sí mismo todos los días y cuida meticulosamente su alimentación. Neuronito progresa constantemente: con cada nueva sesión de entrenamiento se vuelve más rápido, resistente y seguro de sí mismo. Dado su ritmo de preparación estable, podemos predecir fácilmente que tendrá un excelente desempeño en el maratón.
- Lentonito – un atleta talentoso, pero menos disciplinado. Sus entrenamientos son irregulares. Hoy entrena con entusiasmo, pero mañana prefiere descansar disfrutando de su paella y un buen jamón. Estas sesiones inconstantes generan fluctuaciones en su rendimiento: a veces mejora, otras veces no, pero sin un crecimiento estable. Es probable que Lentonito llegue a la meta con resultados menos impresionantes.
De esta manera, hemos visto con un ejemplo sencillo cuánto influyen los intervalos de tiempo entre eventos en los resultados finales. Precisamente esta información sobre estabilidad y regularidad en los «entrenamientos» es la que proporcionamos a nuestra modelo.
Si no consideramos los intervalos de tiempo, el modelo percibiría a estos dos atletas como iguales, sin notar la diferencia en su enfoque de entrenamiento. Pero TA-LSTM detecta esta característica clave, analiza los intervalos individuales entre eventos y realiza predicciones más precisas, teniendo en cuenta el ritmo único de cada participante (o en nuestro caso en NeuronUP, del usuario).
¡Pero eso no es todo! Como habrás notado, también mencionamos la alimentación de Neuronito y Lentonito. No precisamente por casualidad, sino porque estos datos representan características adicionales que también influyen significativamente en el resultado final.
De manera similar, nuestro modelo es capaz de considerar no sólo los intervalos de tiempo, sino también otras características importantes, como la edad, el género, el diagnóstico e incluso las preferencias de los usuarios.
Esto permite mejorar considerablemente la precisión de las predicciones, tal como en nuestro ejemplo con los protagonistas, donde tomamos en cuenta su régimen alimenticio y su influencia en el éxito.
Detalles técnicos
Ahora que hemos visto el concepto principal, pasemos al aspecto técnico del funcionamiento del modelo Time-Aware LSTM (TA-LSTM). Este modelo es una modificación de la celda LSTM estándar, diseñada específicamente para tener en cuenta los intervalos de tiempo entre eventos secuenciales.
El objetivo principal de TA-LSTM es la actualización adaptativa del estado interno de memoria del modelo en función del tiempo transcurrido desde la última observación. Este enfoque es crucial cuando se trabaja con series temporales irregulares, exactamente el tipo de datos con los que tratamos en NeuronUP.
El vector de entrada en el instante de tiempo t está representado como:
\[\text{inputs}_{t} = [x_{t},\,\Delta t]\]Donde:
- \(x_t \in \mathbb{R}^d\) – es el vector de características que describe el evento actual (cada día que se realiza la actividad).
- \(\Delta t \in \mathbb{R}\) – es el intervalo de tiempo entre la observación actual y la anterior.
Los estados anteriores del modelo se representan de la manera estándar:
\[h_{t-1},\; C_{t-1}\]Donde:
- \(h_{t-1}\) – es el vector de estado oculto en el paso anterior.
- \(C_{t-1}\) – es el estado de memoria (celda LSTM) en el paso anterior.
Para tener en cuenta la influencia del intervalo de tiempo t, el modelo emplea un mecanismo especial de atenuación de memoria, descrito por la siguiente fórmula:
\[\gamma_t = e^{-\text{RELU}(w_d \cdot \Delta t + b_d)}\]Donde:
- \(w_d, \; b_d\) – son parámetros entrenables del modelo.
- \(\text{RELU}(x) = \max(0, x)\) – es la función de activación que evita valores negativos.
El coeficiente de atenuación \(\gamma_t\) controla la actualización del estado de memoria.
La actualización de la memoria se define como:
\[\bar{C}_{t-1} = \gamma_t \cdot C_{t-1}\]Esto significa que cuando el intervalo de tiempo aumenta, el valor de tiende a cero, lo que provoca un mayor «olvido» de los estados de memoria previos.
En el siguiente paso, el estado de memoria corregido \(\bar{C}_{t-1}\) se introduce en las ecuaciones estándar de LSTM:
\[h_t, \; C_t = \text{LSTM}(x_{t’}, h_{t-1}, \bar{C}_{t-1})\]Los valores de salida \(h_t\) y el estado de memoria actualizado \(C_t\) se utilizan en el siguiente paso del modelo, lo que garantiza una predicción precisa y la capacidad de considerar intervalos de tiempo irregulares entre eventos.
¿Por qué utilizar la predicción?
El uso de la predicción nos permite anticipar con alta precisión los resultados futuros de un paciente, analizando previamente sus datos a través de nuestro modelo personalizado TA-LSTM. Para verificar la precisión de las predicciones, tomamos una muestra de datos de pacientes reales y aplicamos el modelo basándonos en sus registros previos de actividad. El último día de actividad de cada paciente fue excluido de los datos para comparar el resultado real con la predicción generada por el modelo.
En la mayoría de los casos, los resultados predichos por nuestro modelo coincidieron estrechamente con los valores reales de los jugadores. Sin embargo, también identificamos algunas excepciones interesantes en las que la predicción difería significativamente del resultado real.
Por ejemplo, en el gráfico siguiente (Imagen 1), se puede observar el progreso del paciente (línea azul) y la predicción correspondiente del modelo (línea roja). A primera vista, la diferencia parece bastante grande: el paciente mantuvo un rendimiento alto y estable durante todo el período de observación, pero su último resultado fue inesperadamente mucho más bajo de lo previsto. En este caso, la predicción del modelo parecía mucho más lógica que el resultado real.
¿Por qué ocurrió esto?
La razón resultó ser simple pero importante: en todos los días anteriores, el paciente jugó en niveles (fases) más fáciles, obteniendo puntuaciones consistentemente altas. Sin embargo, en el último día, eligió la fase 6, que era más difícil, lo que provocó una caída notable en su rendimiento (Imagen 2).
De esta manera, la predicción del modelo permitió reconocer una desviación inesperada del comportamiento habitual del paciente, identificando que fue causada por un aumento en el nivel de dificultad.
Este enfoque proporciona a los profesionales de NeuronUP una herramienta poderosa para detectar a tiempo este tipo de situaciones y analizar rápidamente las causas de las desviaciones.
Prueba NeuronUP 7 días gratis
Podrás trabajar con nuestras actividades, diseñar sesiones o rehabilitar a distancia
Conclusión
El uso de Time-Aware LSTM abre nuevas posibilidades para la predicción precisa de series temporales con intervalos irregulares. A diferencia de los modelos tradicionales, TA-LSTM es capaz de adaptarse al ritmo único de cada jugador, teniendo en cuenta sus pausas e intervalos de actividad. Gracias a este enfoque, nuestra plataforma de estimulación cognitiva no solo puede predecir con precisión los resultados futuros de los pacientes, sino también detectar de manera oportuna posibles anomalías o desviaciones inesperadas.
En NeuronUP valoramos tu tiempo y siempre buscamos aplicar las tecnologías más efectivas, innovadoras y avanzadas. Sigue atento a nuestras actualizaciones, ¡lo mejor está por llegar!
Bibliografía
- Lechner, Mathias, and Ramin Hasani. “Learning Long-Term Dependencies in Irregularly-Sampled Time Series.” arXiv preprint arXiv:2006.04418, vol. -, no. -, 2020, pp. 1-11.
- Michigan State University, et al. “Patient Subtyping via Time-Aware LSTM Networks.” Proceedings of the 23rd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining (KDD ’17), vol. -, no. -, 2017, pp. 65-74.
- Nguyen, An, et al. “Time Matters: Time-Aware LSTMs for Predictive Business Process Monitoring.” Lecture Notes in Business Information Processing, Process Mining Workshops, vol. 406, no. -, 2021, pp. 112–123.
- Schirmer, Mona, et al. “Modeling Irregular Time Series with Continuous Recurrent Units.” Proceedings of the 39th International Conference on Machine Learning (ICML 2022), vol. 162, no. -, 2022, pp. 19388-19405.
- “Time aware long short-term memory.” Wikipedia, https://en.wikipedia.org/wiki/Time_aware_long_short-term_memory. Accessed 12 March 2025.