Desarrollan una prótesis que traduce las señales cerebrales en palabras

Los científicos han desarrollado una prótesis del habla que puede traducir señales cerebrales en palabras habladas.
El avance, desarrollado por un equipo de investigadores de la Universidad de Duke en Estados Unidos, se presenta en forma de un implante cerebro-computadora y se ha anunciado como un salto extraordinario para la neurociencia.
Se espera que las personas puedan revolucionar la comunicación para quienes padecen trastornos neurológicos que afectan el habla y afecciones como la esclerosis lateral amiotrófica (ELA) o el síndrome de enclaustramiento, ayudándoles a comunicarse sin esfuerzo mediante el implante.
Cogan señaló que las herramientas de decodificación de voz disponibles actualmente son engorrosas y ofrecen una velocidad máxima de aproximadamente 78 palabras por minuto, mientras que el habla humana típica es de alrededor de 150 palabras por minuto. La brecha se debe en gran medida a las limitaciones en la cantidad de sensores de actividad cerebral.
Para abordar esto, Cogan colaboró con Jonathan Viventi, un experto en ingeniería biomédica de Duke, para crear una matriz de sensores cerebrales flexibles, ultradelgados y de alta densidad. Este nuevo sensor, del tamaño de un sello postal, alberga 256 sensores microscópicos, capaces de distinguir la actividad de las neuronas como simples granos de arena.
Researchers at Duke University unveil a speech prosthetic translating brain signals into spoken words, offering hope for those with neurological disorders affecting speech. a promising leap in brain-computer interfaces.
— Neolithic Naturals (@NeolithicHealth) November 11, 2023
Read more: https://t.co/OTVvk0rrdd #BrainHealth #Innovation pic.twitter.com/k9QMW7g0Db
La aplicación del equipo en el mundo real implicó una operación rápida, similar a la de un equipo de boxes de NASCAR, en el quirófano. Para el proyecto se reclutaron pacientes sometidos a cirugía cerebral por otras afecciones, como el tratamiento de la enfermedad de Parkinson o la extirpación de tumores.
En un estrecho margen de 15 minutos, los pacientes realizaron una tarea de escuchar y repetir palabras sin sentido, mientras el dispositivo registraba la actividad de la corteza motora del habla de su cerebro.
Luego, el estudio implicó introducir datos neuronales y del habla en un algoritmo de aprendizaje automático. Sorprendentemente, el decodificador demostró una precisión del 84% para ciertos sonidos y una precisión general del 40%. Este impresionante rendimiento se basa en sólo 90 segundos de datos hablados, una mejora significativa con respecto a las tecnologías existentes que requieren períodos de recopilación de datos mucho más largos.
Este prometedor desarrollo avanza gracias a una subvención reciente de los Institutos Nacionales de Salud. En el futuro, el equipo de investigación planea desarrollar una versión inalámbrica del dispositivo para mejorar la movilidad de los usuarios.
Con información de: meteored.mx
CD/NR
Notas del día:
Dic 17, 2025 / 22:13
La Mujer es clave de la Transformación Social
Dic 17, 2025 / 21:38
Dic 17, 2025 / 21:04
Gobierno de Alfa Citlalli apoya entrega de Leche Liconsa
Dic 17, 2025 / 21:00
Inaugura Ayuntamiento el Festival Folklórico Inspirarte
Dic 17, 2025 / 19:49
Cierra Américo el 2025 con magnas obras
Dic 17, 2025 / 19:42
Carlos Rivera, Christian Nodal, Banda MS y Mon Laferte encabezarán el Carnaval de Veracruz 2026
Dic 17, 2025 / 19:35
Revelan cartel de conciertos masivos del Carnaval de Veracruz 2026 📹
Dic 17, 2025 / 18:18
Netflix y FIFA unen fuerzas con videojuego previo al Mundial 2026
Dic 17, 2025 / 18:10
FIFA lanza boletos de mil pesos para el Mundial ante críticas por precios exorbitantes
Dic 17, 2025 / 17:27
Modesto Velázquez Toral impulsa el diálogo ciudadano en Martínez de la Torre
Dic 17, 2025 / 17:26
Supervisión directa garantiza carreteras de calidad en la zona centro: Rocío Nahle
Dic 17, 2025 / 17:19
Juan Pablo Becerra convoca a toma de protesta del Ayuntamiento de Altotonga 2026–2029









