Tecnalia – MAIA Multimodal, Adaptive and Interactive AI system for acting in multiple contexts
Tecnalia
Sector: Salud
Business Case
Millones de pacientes de todo el mundo sufren discapacidad motora a consecuencia de accidentes cerebrovasculares, traumatismos craneoencefálicos, etc. Las neuroprótesis permiten a estos pacientes controlar dispositivos asistivos o rehabilitativos mediante sus propias señales biológicas para la sustitución o recuperación de estas funciones motoras afectadas. El proyecto MAIA se centra en el desarrollo de interfaces de control interactivas basadas en inteligencia artificial (IA) que permitan interacciones naturales, rápidas y seguras entre el usuario y el dispositivo (p. ej. prótesis, sillas de ruedas, exoesqueletos robóticos).
Objetivos
Investigación y desarrollo de un controlador multifuncional basado en Inteligencia Artificial centrado en el ser humano que permitan una interacción intuitiva y segura entre el usuario y el dispositivo controlado: brazos robóticos, sillas de ruedas, exoesqueletos etc.
Use case
La solución se basa en la investigación de nuevas formas de combinar y decodificar datos biológicos (neuronales, conductuales, cinemáticos, mirada etc.) del usuario y la información del entorno (p. ej. la ubicación de objetos) para ajustar la respuesta del sistema tanto a la intención del usuario como a las características del contexto. La tecnología IA desarrollada es interactiva, de tal forma que las interfaces respondan a la intención del usuario y las necesidades reales del entorno en base a los datos actuales y previos mediante un proceso de aprendizaje y adaptación continua.
Infraestructura
On Premise
Tecnologías utilizadas
Aprendizaje Automático o Profundo
Datos utilizados
Señales neurofisiológicas neuronales: spikes y Local Field Potentials (LFPs) intracorticales, EMG muscular. Datos cinemáticos de exoesqueleto robótico de rehabilitación de miembro superior.
Recursos utilizados
Equipo multidisciplinar de: expertos de dominio (neuroingeniería, neurociencias), expertos en Ciencia de Datos y procesamiento de señales temporales.
Dificultades y aprendizaje
Selección y adaptación de métodos IA a datos multimodales recogidos en un estudio clínico de características complejas y variables.
KPIs (impacto en el negocio y métricas del modelo)
Mejora significativa en la precisión de decodificación de intenciones motoras respecto al estado del arte. Interfaces de control más intuitivas y seguras.
Financiación
Co-financiación pública: H2020-EU.1.2.-EXCELLENT SCIENCE– _x000B_Future and Emerging Technologies (FET)
Colaboradores
Univ. Bologna (Italia), Univ. Muenster (Alemania), Carl Zeiss Vision GmbH (Alemania), Consiglio Nazionale delle ricerche (Italia), Azienda Unita´sanitaria locale di Bologna (Italia), STAM SRL (Italia).