Innovación

Un experimento logra traducir las señales cerebrales en habla inteligible

Un experimento logra traducir las señales cerebrales en habla inteligible

Una investigación científica de la Universidad de Columbia en Nueva York ha sido capaz de traducir las señales cerebrales en habla inteligible, un avance que podría ayudar a personas con problemas del habla.

Una puntera investigación norteamericana traduce las señales del cerebro procedentes de las redes neuronales directamente en habla. La clave se trata de un algoritmo basado en Inteligencia Artificial que detecta los patrones de actividad eléctrica y los convierte en un discurso con sentido para el oyente. Otros estudios previos ya señalaban que cuando hablamos -o pensamos en hablar-, se obtienen distintos patrones en las redes neuronales del cerebro. El sistema decodifica las respuestas en lugar de los pensamientos reales en el habla, pero tiene el potencial de hacerlo también en el futuro cuando el algoritmo se perfeccione. 

La investigación tiene potencial para descifrar los pensamientos y necesidades de personas que han perdido la voz debido a lesiones o enfermedades, tal y como ha señalado una de las autoras, Nima Mesgarani, de la Universidad de Columbia en Nueva York. El algoritmo desarrollado se trata de un vocoder –el mismo tipo que se emplea en las respuestas de Siri o Alexa-, capaz de sintetizar el habla tras ser entrenado con habla humana. Basándose en el texto que se precisa decir esta IA simula una voz real.

5 misterios del cerebro que aún no se han conseguido resolver

En el caso de este experimento, el vocoder no está entrenado por el habla humana, sino por la actividad neuronal en la parte córtex auditiva del cerebro, medido en pacientes que se sometían a cirugía cerebral mientras escuchaban las oraciones pronunciadas en voz alta. Basándose en ese banco de datos, las señales cerebrales fueron registradas a medida que los pacientes escuchaban los dígitos 0 a 9 que se leían. Estas se ejecutaban a través del vocoder y se limpiaban con la ayuda de más análisis de inteligencia artificial. Se encontró que coincidían estrechamente con los sonidos que se habían escuchado, incluso si la voz final es bastante robótica.

La nueva técnica demostró ser mucho más efectiva que los esfuerzos anteriores. “Encontramos que las personas podían entender y repetir los sonidos aproximadamente el 75 por ciento de las veces, lo que está muy por encima y más allá de cualquier intento anterior”, apuntó Mesgarani, aclarado que “el sensible vocoder y las poderosas redes neuronales representaban los sonidos que los pacientes habían escuchado originalmente con sorprendente precisión”.

Puedes acceder a la investigación completa en el siguiente enlace.

Fuente | Science Alert

Te recomendamos

Sobre el autor

Andrea Núñez-Torrón Stock

Licenciada en Periodismo y creadora de la revista Literaturbia. Entusiasta del cine, la tecnología, el arte y la literatura.