Por: Carl Zimmer/The New York Times
Los neuroingenieros llevan mucho tiempo soñando con ayudar a las personas que han quedado aisladas del mundo del lenguaje. Quizás implantando electrodos, los científicos podrían registrar la actividad eléctrica cerebral y traducirla en palabras habladas.
Ahora, los investigadores han logrado un avance importante hacia ese objetivo. Anteriormente lograron decodificar las señales producidas cuando las personas intentaban hablar. En un nuevo estudio, publicado en la revista Cell, su computadora acertaba con frecuencia cuando los participantes simplemente imaginaban decir palabras.
Este estudio es el resultado más reciente de un ensayo clínico de larga duración, llamado BrainGate2, que ha cosechado varios éxitos notables. Un participante, Casey Harrell, ahora utiliza su interfaz cerebro-máquina para hablar con familiares y amigos.
En el 2023, después de que la esclerosis lateral amiotrófica (ELA) volviera su voz ininteligible, Harrell aceptó que le implantaran electrodos en el cerebro. Una computadora registraba la actividad eléctrica de los implantes mientras Harrell intentaba decir diferentes palabras. Con el tiempo, gracias a la IA, la computadora predijo casi 6 mil palabras, con una precisión del 97.5 por ciento. Podía entonces sintetizar esas palabras utilizando la voz de Harrell, con base en grabaciones hechas antes de que desarrollara ELA.
Pero no estaba claro si los investigadores podían decodificar el habla interior. De hecho, los científicos ni siquiera coinciden en qué es el “habla interior”.
Muchas personas tienen la sensación de usar el lenguaje para realizar el acto de pensar. Después de todo, pueden escuchar sus pensamientos como una voz interior. Algunos investigadores han argumentado que el lenguaje es esencial para el pensamiento. Pero otros, citando estudios recientes, sostienen que gran parte de nuestro pensamiento no involucra lenguaje en lo absoluto.
Junto con sus colegas, Erin Kunz —neurocientífica en la Universidad de Stanford, en California, y una autora del estudio— decidió investigar el misterio. Los científicos dieron a los participantes siete palabras y luego compararon las señales cerebrales cuando los participantes intentaban decir las palabras y cuando sólo imaginaban que las decían.
Voz interior
Imaginar una palabra produjo un patrón de actividad similar al de intentar decirla, pero la señal era más débil. La computadora predijo bastante bien en cuál de las siete palabras estaban pensando los participantes. Acertó en más del 70 por ciento de los casos.
Los investigadores sometieron a la computadora a más entrenamiento, esta vez específicamente con el habla interior. Su desempeño mejoró significativamente, incluso con Harrell. Ahora, cuando los participantes imaginaban decir oraciones completas, como “No sé cuánto tiempo llevas aquí”, la computadora podía decodificar con precisión la mayoría o todas las palabras.
Kunz enfatizó que el desempeño actual de la computadora con el habla interior no sería suficiente para permitir que las personas tuvieran conversaciones. Sin embargo, está optimista de que la decodificación del habla interior podría convertirse en el nuevo estándar para las interfaces cerebro-computadora.
Pero ¿podría una computadora grabar accidentalmente más de lo que los pacientes querían decir? Kunz y sus colegas descubrieron que, en ocasiones, podía detectar palabras que los participantes no imaginaban. Los investigadores idearon dos posibles soluciones para evitar que la computadora interceptara los pensamientos privados de los pacientes.
Una sería decodificar sólo los intentos de habla, bloqueando al mismo tiempo el habla interior.
Aunque ambos tipos de pensamiento son similares, son lo suficientemente diferentes como para que una computadora pueda aprender a distinguirlos. En un ensayo, los participantes mezclaron mentalmente frases de habla intentada e imaginada. La computadora pudo ignorar el habla imaginada.
Algunos pacientes podrían preferir comunicarse mediante el habla interior porque les resulta menos agotador que intentar hablar físicamente. Para ellos, Kunz y sus colegas idearon una segunda estrategia: una contraseña interna para activar y desactivar la decodificación. Decidieron que la contraseña tendría que ser una frase larga e inusual, así que eligieron “Chitty Chitty Bang Bang”, nombre de una novela y una película de la década de 1960.
Una mujer de 68 años con ELA se imaginó diciendo “Chitty Chitty Bang Bang” junto con otras palabras. La computadora finalmente aprendió a reconocer la contraseña con una precisión del 98.75 por ciento —y decodificó su lenguaje interior sólo al detectarla.
©The New York Times Company 2025