La tecnología BCI (interfaz cerebro máquina) avanza con rapidez. En este estudio, se implantó un chip en la retina de pacientes ciegos. Los resultados son esperanzadores y les han permitido leer letras y combinarlas en palabras así como reconocer formas y objetos.
La retinitis pigmentosa y la degeneración macular son enfermedades que afectan a los fotoreceptores de la retina y que afectan a 15 millones de personas en el mundo. El estudio se realizó con pacientes de retinitis pigmentosa y choroideraemia. Estos comenzaron a perder la vista entre los 6 y los 16 años pero habían tenido buena visión central (es decir, las áreas cerebrales de la visión estaban en buen estado). En el momento del estudio hacía más de 5 años que no podían leer y aunque percibían algo de luz, no reconocían forma alguna. La operación sirve en principio para mejorar la visión de forma suficiente y que afecte a la vidad diaria.
El chip MPDA (del tamaño de este cuadrado ■) consiste en una retícula de 1500 (38x40) elementos independientes. Cada uno equivale a un pixel y consta de un fotodiodo, un amplificador y un electrodo. El chip se coloca en el interior de la retina y sustituye a los fotoreceptores naturales dañados. Cuando cada uno de los 1500 fotodiodos recibe luz, excita mediante su electrodo a las neuronas bipolares de la retina estableciendo el interfaz hombre-máquina. Las neuronas bipolares continúan la secuencia natural de estimulación nerviosa a través del resto de la retina, nervio óptico y cerebro.
Haz clic para agrandar
La corriente con la que cada electrodo excita a las´neuronas bipolares depende de la luminosidad que capte su fotodiodo..
El chip cubre u ángulo visual de 11º x 11º (1º es 288 µm de retina) La distancia entre dos electrodos del MPDA se corresponde a un ángulo visual de 15 minutos de arco.
EL chip dispone también de una retícula de 4 x 4 de estimulación directa para pruebas. Estos puntos no son dependientes de la luz sino que se estimulan directamente desde el exterior y sirven para calibrar el aparato.
Finalmente el chip está conectado a un cable que sale por detrás de la oreja y que sirve para la alimentación eléctrica y las pruebas.
Pruebas realizadas y resultados.
Las pruebas se realizaron en dos condiciones experimentales: con chip en Power ON y Power OFF. Comenzaron 7 días después de la operación.
Usando la retícula de prueba, todos los pacientes vieron con corrección puntos redondeados de color blancuzco. Reconocieron las formas presentadas como por ejemplo la forma de U.
Usando los fotodiodos del chip, la variación entre los pacientes fue alta. Uno de ellos realizó notables reconocimientos. No sólo reconoció formas, y barras en distintas orientaciones. Frente a una mesa, pudo reconocer una cuchara, un cuchillo, una copa, un plátano y una manzana. También pudo distinguir entre 16 letras (de un tamaño entre 5 y 8 cm). Pudo señalar un error en la escritura de su nombre MIIKKA (faltaban una I y una K).
La respuesta de contracción pupilar también funcionó correctamente.
Discusión.
Los implantes fuera de la retina obligan a realizar externamente todo el procesamiento óptico que esta realiza. Por el contrario este enfoque sólo reemplaza la parte dañada (los fotoreceptores) permitiendo que todo el resto del ojo trabaje normalmente (el ojo se mueve con normalidad proporcionando al cerebro una información consistente entre la dirección de la mirada y lo que ve, algo importante y que no ocurre con una cámara externa).
El problema del espacio. A pesar de que el campo visual 11º x 11º es pequeño, es suficiente para la orientación y la localización de objetos. Se estima que el campo visual necesario para leer es de 3º x 5º.
El problema del tiempo. Cuando se aplica un estímulo eléctrico continuo con la matriz de pruebas, la percepción se desvanece pasados 1-15 s. Aparentemente las neuronas de la retina sufren una inhibición prolongada. Para restaurar la visión es necesario mover los ojos o la cabeza.
Esto no ocurre con la matriz de fotodiodos ya que el paciente mueve los ojos con normalidad (microsacadas de hasta 50 min de arco entre 1 y 3 Hz) y la imagen se refresca constantemente.
Un hecho notable es que apenas requiere entrenamiento, más allá de una mejora oculomotora.
Conclusión.
El estudio demuestra que es posible la restauración parcial de la visión con una implantación de microelectrodos retinianos en pacientes que han sufrido una degeneración retiniana hasta un nivel que varía desde la localización y reconocimiento de objetos hasta la lectura.
Movimientos de los ojos, búsqueda de palabras, robot teledirigido por la mente de un mono, malnutrición y cognición, teoría de la mente, TEDx, simulador de Ferrari, cociente intelectual vs coeficiente intelectual y BCI son las nueve nuevas entradas en tecnologíayciencia del Jardín de Blogs.
En un primer paso para permitir que personas paralizadas hablen con el pensamiento, investigadores de la Universidad de Utah tradujeron a palabras señales del cerebro usando dos rejillas de 16 microelectrodos implantados debajo del cráneo y encima del cerebro.
Microelectrodos convencionales con número. Nuevos microelectrodos al final de los cables verde y naranja. Es una representación dado que por su pequeño tamaño no se ven.
"Hemos sido capaces de descifrar palabras habladas utilizando sólo las señales del cerebro con un dispositivo que tiene perspectivas prometedoras para el uso a largo plazo en pacientes con parálisis completa que no pueden hablar", dice Bradley Greger, profesor auxiliar de bioingeniería.
Dado que el método debe mejorar mucho más e implica la colocación de electrodos en el cerebro, se espera que pasaran unos años antes de realizar ensayos clínicos en personas paralizadas que no pueden hablar debido al llamado síndrome "locked-in".
El Journal of Neural Engineering's en su edición de septiembre publica el estudio de Greger que muestra la viabilidad de traducir señales del cerebro en palabras habladas por ordenador.
El equipo de investigación de la Universidad de Utah, implantó redes de pequeños microelectrodos en centros del lenguaje en el cerebro de un voluntario con severos ataques epilépticos. El hombre ya tenía una craneotomía - retirada temporal parcial del cráneo - para que los médicos pudieran colocar electrodos convencionales, más grandes, para localizar el origen de sus ataques y detenerlos quirúrgicamente .
Usando los microelectrodos experimentales, los científicos registraron las señales del cerebro mientras el paciente leía repetidamente cada una de las 10 palabras que podrían ser útiles a una persona paralizada: sí, no, caliente, frío, hambre, sed, hola, adiós, más y menos.
Posteriormente, trataron de averiguar qué señales cerebrales representaba cada una de las 10 palabras. Cuando compararon dos señales cerebrales cualesquiera - como las que se generan cuando el hombre decía las palabras "sí" y "no" - fueron capaces de distinguir las señales para cada palabra entre el 76 por ciento y el 90 por ciento de las veces.
Cuando examinaron todos los patrones de las 10 señales a la vez, sólo fueron capaces de seleccionar la palabra correcta entre el 28 por ciento y el 48 por ciento de las veces - mejor que el azar (lo que habría sido del 10 por ciento), pero no lo suficientemente bueno para un dispositivo que traduzca los pensamientos de una persona paralizada en palabras habladas por un ordenador.
"Esta es una prueba de concepto", dice Greger, "Hemos demostrado que estas señales pueden indicar lo que la persona está diciendo muy por encima del azar. Pero tenemos que ser capaces de detectar más palabras con más precisión antes de que sea algo que a un paciente realmente le pueda resultar útil. "
Las personas que eventualmente podrían beneficiarse de un dispositivo inalámbrico que convierta los pensamientos en palabras habladas por ordenador incluyen a personas con parálisis por derrame cerebral, enfermedad de Lou Gehrig y trauma, dice Greger. Las personas que ahora están "atados" (locked-in) a menudo se comunican con cualquier movimiento que pueden hacer - un parpadeo o moviendo un poco la mano - para escoger difícilmente letras o palabras de una lista.
Microelectrodos no penetrantes leen las señales del habla del cerebro
Científicos del MIT descubren que las neuronas en el centro de la planificación del cerebro pueden hacer más de un tipo de trabajo. Por Anne Trafton, Oficina de prensa del MIT
En los seres humanos y otros primates, la corteza prefrontal es la sede de funciones de alto nivel como el aprendizaje, la toma de decisiones y la planificación. Los neurocientíficos se han preguntado si las neuronas en esa parte del cerebro se especializan en un tipo de tarea o si son "generalistas" - es decir, capaces de participar en varias tareas. Un nuevo estudio del MIT’s Picower Institute for Learning and Memory apunta a favor de la teoría generalista.
El profesor del MIT Earl Miller y otros en su laboratorio demostraron que cuando entrenaron a los monos para realizar dos tareas de categorización diferentes, cerca de la mitad de las neuronas implicadas podrían trabajar en ambas tareas. El hallazgo, publicado en la edición del 10 de junio de la revista Neuron, sugiere que las neuronas de la corteza prefrontal tienen una capacidad mucho mayor para adaptarse a diferentes demandas cognitivas que las neuronas en otras partes del cerebro. Estos resultados apoyan las ideas sobre la maleabilidad de las neuronas que Miller propuso por primera vez hace una década.
Miller, profesor de Neurociencia en el MIT, dice que no está sorprendido por los hallazgos. "Tenemos una gran flexibilidad mental", dice. "Podemos cambiar de tema de conversación, podemos cambiar lo que estamos pensando. Una parte del cerebro que tiene que tener la flexibilidad a nivel neuronal."
Escuchar a las neuronas individuales.
La mayoría de los neurocientíficos que estudian la actividad cerebral en monos entrenan a los animales en una sola tarea, por lo que hasta ahora había sido imposible revelar si las neuronas individuales en la corteza prefrontal podría estar involucradas en más de una tareaa
En estudios anteriores, Miller ha demostrado que cuando los monos son entrenados para clasificar animales para distinguir gatos de perros, algunas neuronas en la corteza prefrontal sintonizan con el concepto de "gato", mientras que otras responden a la idea de "perro".
En esta ocasión, Miller, el estudiante postdoctoral Jason Cromer, y el investigador Jefferson Roy entrenaron a los monos para llevar a cabo dos tareas de clasificación distintas - distinguir los gatos de los perros y los turismos berlina de los coches deportivos. Registraron la actividad de alrededor de 500 neuronas en la corteza prefrontal de los monos según los animales cambiaban de tarea.
Aunque encontraron que algunas neuronas eran más sensibles a las imágenes de coche y otros a las imágenes de animales, también identificaron muchas neuronas que se activan durante las dos tareas. De hecho, estas neuronas "multitarea" hacían mejores identificaciones en ambas categorías.
Los resultados sugieren que las neuronas en la corteza prefrontal tiene una capacidad única de adaptarse a diferentes tareas, dice Miller. En otras partes del cerebro, la investigación anterior ha demostrado, la mayoría de las neuronas son muy especializadas. Las neuronas de la corteza visual, por ejemplo, están programadas para responder a inputs muy específicos, tales como una línea vertical o un color determinado. Se ha demostrado incluso que algunas sólo se disparan en respuesta a una cara en particular.
"Nuestros resultados sugieren que la corteza prefrontal es diferente de la corteza sensorial y la corteza motora. Es muy plástica", dice Miller. "Eso es importante, porque significa que el cerebro humano tiene la capacidad de absorber una gran cantidad de información."
El estudio de Neuron se centró en dos tareas de categorización, pero Miller espera realizar otro estudio en el que los monos aprenden una tercera tarea que involucre otras funciones cognitivas. Eso podría dar otra pista sobre la cantidad de información nuestro cerebro puede manejar, dice David Freedman, profesor de neurobiología en la Universidad de Chicago.
"Somos muy buenos aprendiendo docenas, cientos o incluso miles de categorías", dice. "Uno se pregunta si hay algún límite, o si estas neuronas son tan flexibles como nosotros lo somos en calidad de observadores?"
Freedman dice que también está interesado en ver si las mismas neuronas de la corteza prefrontal pueden realizar múltiples tareas entre actividades que implican diferentes tipos de información sensorial - por ejemplo, una tarea visual y una tarea auditiva.
Sobreestimulación
Mientras tanto, Miller tiene un estudio en curso que cree que podría demostrar una base biológica para la alteración de la capacidad de categorización frecuente en personas con autismo. Los niños autistas suelen tener dificultades para comprender que dos objetos ligeramente diferentes - por ejemplo, un cepillo de dientes rojo y un cepillo de dientes azul - ambos pertenecen a la misma categoría.
Miller teoriza que una parte evolutivamente antigua del cerebro, conocida como los ganglios basales, recopila información acerca de nuevos objetos, y la corteza prefrontal aprende a clasificarlos. "Los ganglios basales aprenden las piezas del rompecabezas, y la corteza prefrontal pone las piezas juntas", dice.
En su estudio, Miller está monitorizando la actividad del cerebro en monos, cuando aprenden una tarea de categorización. Él espera encontrar un aumento marcado en la actividad de la corteza prefrontal en el momento en que los monos aprenden que ciertos objetos pertenecen a la misma categoría.
Con el tiempo, espera demostrar que en el autismo, el equilibrio entre esas dos regiones del cerebro está alterado: es posible que haya demasiada actividad en los ganglios basales o no lo suficiente en la corteza prefrontal.
Nota: El estudio se ha realizado implantando electrodos intracraneales para medir la actividad de neuronas específicas.
La Universidad de Zaragoza tiene un grupo líder mundial en tecnología de Interfaz Cerebro Máquina (BCI) a través de la medición del registro del Electroencefalograma (EEG).
EEG es una tecnología barata y no invasiva que recoge el registro eléctrico del cerebro. En la actualidad se realiza poniéndose un casco con electrodos, lo que puede realizarse sin mayor aparataje en cualquier lugar y situación. La resolución temporal es muy buena (<1ms). Tiene dos limitaciones: la señal eléctrica del cerebro es muy débil (entre 10-200 microvoltios) ya que ha de atravesar el cráneo y la piel, dos buenos aislantes. Además la resolución espacial es baja, dado que se usan hasta 25 electrodos por lo que cada uno registra miles de neuronas. Es por ello que el análisis matemático de las ondas cerebrales es vital, para poder extraer el máximo conocimiento de la información, algo en lo que dicho grupo es experto. También lo es en robótica.
Una de las señales que se pueden registrar es la llamada P300. Cuando ocurre un acontecimiento que esperamos, el cerebro emite una onda típica que el EEG puede registrar. Es la base de algunos de los trabajos del grupo que se centra en las siguientes áreas:
Silla de ruedas controlada por BCI:
Este prototipo es una silla de ruedas que el usuario dirige sólo con la actividad cerebral.
La silla consiste en
un ordenador portátil al que van unidos:
el casco de registro EEG
un láser que escanea la habitación y muestra en la pantalla del ordenador un mapa esquemático
el motor de la silla y su dirección
El láser presenta el esquema de la habitación. En la pantalla hay varios puntos que corresponden a varios lugares de la habitación. El usuario se concentra en el punto al que que quiere dirigirse. El ordenador va iluminando los distintos puntos. Cuando se ilumina el que el sujeto espera, su cerebro emite una onda P300 que se recoge en el EEG. El ordenador relaciona la onda con el punto deseado y da la orden a la silla para que se dirija allí. En este momento la silla se mueve de forma desatendida mediante un sistema de navegación autónomo que es capaz de sortear los obstáculos que aparecen por el camino. De este modo, el sujeto no necesita guiar permanentemente a la silla, sino que basta con dar el comando "vete allí".
Robot de telepresencia por Internet contolado por BCI
Este prototipo está pensado para personas que no pueden salir de su entorno clínico y sólo con su actividad cerebral son capaces de controlar un robot en cualquier parte del mundo. Este robot actúa como el representante de la persona dado manda video, sonido y tiene una pantalla de comunicación. El usuario toma las decisiones concentrándose en la opción y puede mover el robot, explorar con la cámara el entorno y comunicarse muy básicamente (mostrar su estado de ánimo, etc). De este dispositivo hay un vídeo con el sistema de BCI en Japón y el Robot en la Universidad de Zaragoza.
Enseñando a una máquina a realizar una tarea con la mente mediante un BCI
El objetivo de este trabajo es enseñar a una máquina a realizar una tarea con la actividad cerebral. Para ello la persona observa la máquina a trabajar y cuando observa un error éste es detectado por el sistema de BCI directamente del cerebro de la persona y así corrige el comportamiento del mismo. La utilidad está en enseñar a una máquina a trabajar de forma personalizada (los errores no son los mismos para todos), por ejemplo en prótesis, etc.
Desarrollo de una prótesis de voz sintética para personas con discapacidad en el habla
Este prototipo está basado en colocar unos electrodos en la cara del usuario. La persona pronuncia como si estuviese hablando y entonces se mide el la actividad muscular (EMG), se procesa y se infiere lo que la persona quiere decir. Posteriormente, el sonido es reproducido por una PDA o cualquier sistema integrado. El primer prototipo detecta 30 clases de sílabas de los 6 grupos principales (labiales, palatales, etc …) y lo hace con un 70% de precisión. La utilidad de este dispositivo es para personas que no tienen cuerdas vocales (cáncer de laringe), parálisis, etc…
Monitorización de estados cognitivos por BCI
Este prototipo monitoriza al usuario cuando se realiza una tarea y, además de su EEG, mide otros parámetros de actividad fisiológica como la conductividad de la piel, respiración, ritmo cardíaco, etc. Estas señales se monitorizan y se extraen características para detectar los estados cognitivos. En particular, en este momento se detectan los estados de relajación, agotamiento y estrés mediante EEG y señales biológicas. La utilidad de este sistema es el de evaluar de forma objetiva los sistemas y para plantear mejoras. Es complementario a las evaluaciones psicológicas de ergonomía (ergonomía cognitiva).
Sistema de Tratamiento del Déficit de Atención con Tecnología BCI
Este prototipo se está realizando para tratar a niños con déficit de atención (ADD), los cuales presentan gran dificultad para regular los procesos de atención. El dispositivo se basa en medir e identificar en el EEG del niño los procesos relacionados con la atención y así enseñarle por aprendizaje condicionado (sonidos, música, etc) a regular esos procesos de atención.
Localización de la actividad intracraneal a partir de las señales del electroencefalograma (patente en curso)
Se ha desarrollado una nueva tecnología para estimar de EEG directamente las fuentes generadoras de actividad cerebral (problema inverso) y en tiempo real. Las aplicaciones son enormes dado que se puede conocer en tiempo real la parte del cerebro que está activa y así asociarlo con procesos cognitivos (parte del cerebro activo al realizar una tarea), estudio de patologías (detección de focos epilépticos en tiempo real), etc. Esta tecnología es de propósito general.
Proyecto ROBIN
Se centra en el desarrollo de un brazo robótico que opera junto a un ser humano para ampliar sus capacidades o suministrar funciones motoras perdidas. El objetivo principal del proyecto es desarrollar un nuevo paradigma para el aprendizaje de robots utilizando señales cerebrales cognitivas recogidas por una interfaz cerebro-ordenador no invasiva, para permitir al sistema mejorar el rendimiento por la experiencia y adaptar su comportamiento al entorno y preferencias del usuario.
SPARKy (Spring Ankle with Regenerative Kinetics), es un tobillo robótico desarrollado para amputados que almacena la energía en muelles y motores cuando el cuerpo avanza y la libera cuando la pierna empuja. Está desarrollada con la colaboración de un centro militar de amputados. Hay más de 1.000 soldados americanos amputados por debajo de la rodilla y miles de diabéticos sufren la misma operación cada año. Las prótesis convencionales necesitan un 30% más de energía y el movimiento no es tan fino. SPARKy cuesta 20.000$.
Pierpaolo Petruzziello perdió la mano en un accidente.
Ahora un equipo de científicos le ha implantado unos electrodos en el brazo con los que puede "controlar" una mano prostética que aún no está adherida a su brazo.
- Como la mayoría de los amputados, todavía percibo mi brazo perdido. Cierro los ojos y trato de pensar que mi mano aún existe.
- Si no tiene la mano, ni el antebrazo, ¿cómo puede moverlos?
-Es difícil de explicar. Cierro los ojos y me concentro. Tengo una mano, tengo dedos, puedo moverlos. Necesito silencio. Es muy estresante. Cuando vi moverse la mano es como si hubiera marcado un gol en el último minuto.
Atrapado en una tempestad en la que su compañero murió, Hugh Herr perdió las dos piernas.
Profesor del MIT, su obsesión ha sido crear (y probar en sí mismo) las más sofisticadas piernas prostéticas, mejores que las naturales si es posible.
"Entre mi muñón y el suelo puedo crear lo que quiera." Así, cuando va de escalada, cambia sus prótesis habituales por otras en forma de crampón, garras para las grietas o más cortas o largas de lo habitual.
Ahora ha creado PowerFoot "equipado con tres microprocesadores internos y 12 sensores que miden la fuerza, la inercia y la posición y ajustan automáticamente el ángulo, la rigidez y la amortiguación 500 veces por segundo. La fuerza viene de una batería recargable que se ajusta al paso humano."
El uso comercial con los amputados en guerras y accidentes es obvio.