Es uno de esos avances que parecen extraídos de la ficción. Un equipo de neuroingenieros de la Universidad de Columbia ha diseñado un sistema capa de leer el pensamiento y traducirlo automáticamente en lenguaje verbal, en un discurso inteligible y reconocible.

El hallazgo se basa en el poder de los sintetizadores de voz y la inteligencia artificial, una de las tendencias tecnológicas actuales, y podría permitir que lo ordenadores se comuniquen directamente con el cerebro, además de asistir a las personas que no pueden hablar, por patologías como la esclerosis lateral amiotrófica (ELA) o las que se están recuperando de un derrame cerebral.

Este equipo investigador llevaba tiempo trabajando en este descubrimiento, cuyos pormenores se publicaron el pasado 29 de enero en Scientific Reports. Los primeros esfuerzos analizaban espectrogramas, que son representaciones visuales de frecuencias de sonido. Ahora se ha recurrido a un ‘vocoder’, un algoritmo de ordenador que puede sintetizar el habla tras recibir capacitación sobre las grabaciones de personas que hablan. Es, según ha explicado uno de los investigadores, la misma tecnología utilizada por Amazon Echo y Apple Siri para dar respuestas verbales a nuestras preguntas. El sonido producido por el vocoder en respuesta a esas señales se analiza y limpia con redes neuronales, un tipo de inteligencia artificial que imita la estructura de las neuronas en el cerebro biológico. El resultado final es una voz de sonido robótico que recita una secuencia de números.