Prótesis de voz: Ahora se puede escuchar a las personas que no pueden hablar

0
135
BTCClicks.com Banner

Un grupo de investigadores ha reconstruido palabras y oraciones que, en algunos casos, eran inteligibles para los oyentes humanos y que intentaban ser verbalizadas por diversos pacientes, utilizando modelos computacionales conocidos como redes neuronales.

Esta técnica permite “escuchar” a las personas que no pueden hablar debido a alguna enfermedad, descifrando los datos que registraban en el cerebro de los pacientes.

Las personas que han perdido la capacidad de hablar después de un derrame cerebral o una enfermedad pueden usar sus ojos o hacer otros pequeños movimientos para controlar un cursor o seleccionar letras en pantalla, tal y como hacía Stephen Hawking. Pero si una interfaz cerebro-computadora pudiera recrear el discurso directamente, podrían recuperar mucho más que el habla: también el control sobre el tono y la inflexión de lo que quieren decir, o la capacidad llevar a cabo una conversación más fluida.

Este avance ha sido realizado gracias a los datos con los que se han entrenado las redes neuronales artificiales que procesan patrones complejos del cerebro. Para el estudio, se basaron en los datos de cinco personas con epilepsia.

La red analizó grabaciones de la corteza auditiva (que está activa tanto durante el habla como la audición) a medida que esos pacientes escuchaban grabaciones de historias y personas que nombraban dígitos de cero a nueve. Luego, un ordenador reconstruyó los números hablados solo a partir de datos neuronales; cuando el ordenador “pronunció” los números, un grupo de oyentes los identificó con un 75% de precisión.

Las señales cerebrales cuando una persona habla o escucha en silencio su voz en su cabeza no son idénticas a las señales del habla o del oído. Sin un sonido externo que coincida con la actividad cerebral, puede ser difícil para un ordenador incluso determinar dónde comienza y termina el habla interna.

Sin embargo, para quizá algún día crear una prótesis de voz artificial. Otro ejemplo en este sentido es el protagonizado por el neurocirujano Edward Chang y su equipo en la Universidad de California, que reconstruyeron oraciones enteras a partir de la actividad cerebral capturada del habla y las áreas motoras mientras tres pacientes con epilepsia leían en voz alta. En una prueba online, 166 personas escucharon una de las oraciones y tuvieron que seleccionarla entre 10 opciones escritas. Algunas oraciones se identificaron correctamente más del 80% del tiempo.

Otro gran salto en la de la interfaz cerebro-computadora: calidad de estas técnicas pasaría, quizás, por proporcionar retroalimentación al usuario si el usuario puede escuchar la interpretación del habla del ordenador en tiempo real, podría ajustar sus pensamientos para obtener el resultado que desea.

Anteriormente este tipo de estudios se centraban en tratar de comprender los movimientos musculares que acaban produciendo las palabras, sin embargo, esta producción de lenguaje natural involucra más de cien músculos y además un movimiento no siempre resulta en un sonido. Para Chethan Pandarinath y Yahia Ali, expertos en ingeniería biomédica en la Universidad de Emory, “el enfoque de estos autores resulta en una menor distorsión acústica que los anteriores sistemas de descodificación”.

Comentarios

No hay comentarios

Dejar respuesta