Las Interfaces Humano-Máquina con inteligencia artificial han permitido el desarrollo de dispositivos para pacientes con discapacidad.

De acuerdo con la Organización Mundial de la Salud (OMS), al 2020, más de un millón de personas tenían algún tipo de discapacidad a nivel mundial, de ellas, alrededor de 190 millones tienen dificultades de su funcionamiento que requerían servicios de asistencia.

Mientras que en México el Censo de Población y Vivienda 2020 reveló que hay más de seis millones de personas con algún tipo de discapacidad, de las cuales 48 por ciento tiene problemas de movilidad para caminar, subir o bajar.

Por ello, con el propósito de ofrecer soluciones para mejorar la calidad de vida de pacientes con algún tipo de parálisis motora, investigadores de la Universidad del Valle de México desarrollaron Interfaces Humano-Máquina, (HMI) sistemas de asistencia y rehabilitación a través de señales fisiológicas, lo cual ha permitido la fabricación de una gorra que controla sillas de ruedas y lentes que, a través de movimientos oculares, permiten comunicación de un paciente con cuadriplejia.

El doctor Francisco David Pérez Reynoso, investigador del Centro de Investigación, Innovación y Desarrollo Tecnológico (CIIDETEC-UVM) y líder de este desarrollo, explicó que, a través del entrenamiento de sensores con inteligencia artificial, es posible la fabricación de estos dispositivos, los cuales no son invasivos y están personalizados de acuerdo con la necesidad de un paciente por su movimiento muscular, ocular o movimientos mecánicos.

“Uno de los principales problemas de los avances que existen es el grado de personalización para aplicar terapia de rehabilitación o para adaptar un sistema de asistencia a las características individuales de los usuarios, de ahí la importancia de este trabajo”, explica Pérez Reynoso.

Para conseguir que una máquina o un dispositivo se adapte a las características o necesidades de una persona utilizan la inteligencia artificial, es decir, se entrena la HMI de tal forma que independientemente de la señal o el sensor que se le coloque a la interfaz, ésta lo puede interpretar como un comando de control, de esta manera la máquina interpreta los movimientos que hace el usuario y no el usuario se tiene que adaptar a la máquina.

“Lo anterior permite una disminución de tiempo significativo, un par de semanas en lugar de meses, para la adaptación del robot asistencial”, indica el especialista.

Ejemplo de ello, es la fabricación de una silla de ruedas que consistió en un coche controlado con movimientos de la cabeza y una red neuronal para posteriormente implementarlo en la silla de ruedas. La red neuronal se entrena de tal forma que entiende los comandos para poder tener el control.

Otro de los trabajos realizados fue el desarrollo de unos lentes asistenciales, con los cuales, a través de señales musculares del ojo, el paciente podía escribir texto, por ejemplo, agua o podría comunicarse por medio de símbolos o de colores.

Este dispositivo se fabricó para un joven que sufrió un accidente de moto y en consecuencia quedó cuadripléjico, sólo tenía movimiento sobre sus ojos.

Toma nota

Este trabajo de investigación fue recientemente publicado en el artículo “Reconocimiento de patrones de señales EMG mediante aprendizaje automático para el control de un robot manipulador”, por la revista internacional de divulgación científica y tecnológica Sensors.

En dicho artículo el doctor comprobó que el diseño de la HMI permitió clasificar las señales musculares en función del tiempo de contracción para la generación de comandos de movimiento de un robot virtual.

Te puede interesar: UNESCO pone nuevas reglas de la inteligencia artificial