domingo, 3 de junio de 2012

El caso de los drogadictos que ayudó a comprender el Parkinson


En ocasiones la ciencia avanza movida por la casualidad. Los casos de Barry Kidston y el de otros siete heroinómanos conocido como el de los adictos paralizados (The Case of the Frozen Addicts) ayudaron al descubrimiento del MPTP, una sustancia que ha permitido grandes avances en la lucha contra la enfermedad de Parkinson.

Barry Kidston, químico de 23 años, era adicto a las drogas. Usando sus conocimientos, sintetizó MPPP, un opiáceo similar a la heroína. En 1976, después de varios meses de administración intravenosa, en una urgencia, elaboró de nuevo el compuesto, pero acortó el método y algo salió mal. Tras varios días de consumo, ingresó en urgencias. Manifestaba mutismo, rigidez severa, debilidad, temblores, cara inexpresiva y sensibilidad alterada.

El equipo médico observó que los síntomas eran equivalentes a los que se producen en la enfermedad de Parkinson y le administró L-Dopa, medicación habitual en el Parkinson. Kidston mejoró parcialmente. Con el tiempo desarrolló tolerancia a la L-Dopa, manifestaba lentitud de pensamiento, se deprimió y siguió consumiendo drogas. 18 meses después murió víctima de una sobredosis de cocaína. La autopsia reveló una destrucción masiva de las neuronas de la sustancia nigra que usan la dopamina como neurotransmisor. El análisis de los restos de la dosis defectuosa revelaron la existencia de MPPP (el opiaceo deseado) junto con otras sustancias sin determinar claramente. Una inyección de la dosis en ratas produjo una parálisis parcial pero el equipo no fue capaz de reproducir los resultados completos (posteriormente se demostró que las ratas son resistentes al compuesto tóxico). Se publicó un estudio y el caso se olvidó.

En 1817 el británico James Parkinson, publicó el famoso ensayo “La parálisis temblorosa” (The Shaking Palsy) en el que describía la vida de seis pacientes con agitación constante, rigidez y lentitud de movimientos. Más tarde, el neurólogo francés Charcot la denominó como Enfermedad de Parkinson. Afecta al 1% de la población mundial con mayor prevalencia en las personas mayores. El movimiento es el resultado de un sistema muy complejo de excitaciones e inhibiciones en el que interviene el cortex motor y otras estructuras subcorticales como los ganglios basales. Una de ellas, la sustancia nigra maneja un neurotransmisor llamado dopamina. La destrucción de neuronas de la sustancia nigra provoca Parkinson.

Una medicación habitual es la L-Dopa, un precursor de la dopamina que ayuda a que aumente la concentración de esta en el cerebro. Desafortunadamente, la L-Dopa tiene muchos efectos secundarios como exceso de movimientos, grades tics y alucinaciones. La enfermedad de Pakinson es exclusivamente humana y la posibilidad de contar con modelos animales de experimentación resultó un gran avance.

El caso de los adictos paralizados

En 1982 un joven ingresó en un hospital de California en estado de parálisis. Poco después lo hizo su novia y en distintos hospitales otros tres jóvenes. Eran incapaces de hablar, pero uno de ellos podía mover la mano. El equipo liderado por William Langston le dio un papel y un lápiz y el joven escribió “heroína”. Langston habló por TV alertando de una partida tóxica de heroína y dos nuevos casos aparecieron así como el vendedor de la droga que manifestó que era sintética. Investigaron la droga y resultó no ser heroína sino MPPP. Pero el MPPP no es tóxico de modo que no era el responsable del desastre. Alguien en el equipo recordó el caso de Barry Kidston y cotejaron ambas drogas. El análisis reveló una sustancia nueva MPTP, un subproducto indeseado de la síntesis de MPPP.

El descubrimiento del MPTP ha supuesto un enorme avance en la lucha contra el Parkinson. De un lado demuestra que no es obligatoriamente hereditario sino que puede ser producido por agentes externos. Administrado en primates ha revelado que destruye la sustancia nigra como reveló la autopsia de Barry Kidston y ha resultado ser un excelente modelo animal para la investigación de fármacos contra la enfermedad. Langston escribió el libro The Case of the Frozen Addict y ha dedicado su vida al estudio del Parkinson.
 Publicado originalmente en ALT1040

domingo, 27 de mayo de 2012

Leontxo García: «Casi nadie creía que Deep Blue derrotaría a Kasparov»


El hombre frente a la máquina. Kaspárov frente a Deep Blue. El gran desafío. La épica suprema. Acabó hace quince años, el 11 de Mayo de 1997. Aún resuena el fragor de la batalla. Hace un año IBM repitió el desafío. Watson frente a los humanos en el concurso de TV Jeopardy. De nuevo ganó la máquina, Watson, heredera de Deep Blue.

Leontxo García estuvo en el match Kaspárov vs Deep Blue. Leontxo es periodista especializado en ajedrez, publica y comenta una partida diaria en el periódico El País y es invitado habitual en el programa de Radio Nacional de España, No es un día cualquiera. Ha conocido a Grandes Maestros como Gary Kaspárov, Anatoli Kárpov o Bobby Fischer.

ALT1040 — Leontxo, tú estuviste en el encuentro. Al parecer la expectación en USA fue enorme ¿qué recuerdas del ambiente?

Leontxo — Grandes titulares previos en el New York Times, USA Today y otros medios importantes, del tipo “¿Podrá defender el honor del género humano?” bajo una foto de Kaspárov. Grandes retratos de Kaspárov en carteles anunciando el duelo por las calles de Manhattan. En la sala de juego, siempre llena, más del 90% estaban a favor del ruso, a pesar de que el operador de IBM jugaba con la bandera estadounidense. Teniendo en cuenta los parámetros de la época, la audiencia de las retransmisiones por Internet de las seis partidas fue enorme, y la cobertura de la prensa internacional también. En la rueda de prensa final, con Kaspárov desquiciado y los de IBM pletóricos, había tantos periodistas que algunos tuvieron que meterse debajo de las mesas. Las acciones de IBM se dispararon en Wall Street al día siguiente de la victoria de Deep Blue.

ALT1040 — ¿Esperaba alguien que Kaspárov perdiera?

Leontxo — Casi nadie. Un año antes en Filadelfia, en el primer duelo Kaspárov—Deep Blue, la sensación general era que a los de IBM aún les faltaba mucho trabajo para igualar el nivel, sobre todo en el campo estratégico.

A — ¿Cómo fue la famosa sexta partida?

L — En una decisión que aún hoy causa polémica —e incluso sospechas de tongo—, Kaspárov se metió en una conocida trampa de la Defensa Caro—Kann. En mi opinión, no hubo tongo: él dio por seguro que el “libro” de aperturas de Deep Blue no incluía esa celada (es decir, que no estaba programada en su memoria), y se equivocó. Entre otras razones, porque su sistema nervioso estaba ya roto, por la enorme tensión que sufrió durante el duelo.

A — Kaspárov se enfadaba mucho. ¿Por qué? ¿Cómo es un genio como él?

L — Se siente destinado a hacer grandes cosas en su vida, de enorme trascendencia. Antes del duelo dijo que sentía “la responsabilidad de portar el estandarte de la inteligencia humana contra la fuerza bruta de las máquinas”. Su gran confianza se reafirmó al ganar la primera partida, pero cayó por los suelos —así como la estabilidad de su sistema nervioso— con las grandes sorpresas de la segunda: Deep Blue hace una jugada “humana” buenísima (37 Ae4), increíble en una computadora hasta entonces; poco después, Deep Blue comete una imprecisión táctica cuando ya tenía la partida ganada, pero Kaspárov —sumamente nervioso— no se da cuenta y se rinde en una posición donde disponía de un recurso de tablas. Desde ese día se obsesionó con la idea de que IBM hacía trampas, que había intervención humana en algunas jugadas de Deep Blue. Eso marcó el desenlace del duelo; creo que Kaspárov lo hubiera ganado si es capaz de jugar al 100%. Pero lo perdió, exigió una revancha que IBM no quiso, y aún hoy sigue convencido de que le hicieron trampas.

A — ¿Cómo fueron los encuentros previos? ¿Cuánto tiempo costó fabricar una máquina que ganara?

L — Cuando, a mediados de los ochenta, IBM comenzó a desarrollar Deep Thought (antecesor de Deep Blue), los mejores programas de ajedrez eran aún el hazmerreír de los ajedrecistas, porque sólo exhibían fuerza bruta, sin una comprensión mínima de la estrategia. Es decir, se tardó medio siglo en que una máquina jugase al ajedrez al nivel del campeón del mundo, a pesar de que los padres de la informática (Shannon y Turing) ya veían el ajedrez como un campo de experimentación muy interesante. O sea, se tardó medio siglo en lograr que una máquina entendiera las excepciones de las reglas, que un niño ajedrecista de siete años entiende en un minuto. Hoy, ninguna computadora puede jugar perfectamente al ajedrez, ni podrá hasta que existan las computadoras cuánticas, porque el número de partidas distintas posibles es mayor que el de átomos en el universo entero conocido.

A — ¿La ciencia obtuvo algún beneficio de Deep Blue o fue sólo una operación comercial de IBM?

L — Lo aprendido con Deep Blue se ha aplicado después en diversos campos de cálculo molecular o muy complejo, como planificación agrícola, meteorología, comunicaciones y fabricación de medicamentos.

A — ¿Cual es la realidad de las máquinas hoy? ¿Las usan los grandes maestros? ¿Es definitivo que una máquina gana al campeón mundial?

L — Podemos decir que el mejor ajedrecista del mundo es una máquina, no sólo por lo mucho que han mejorado en la estrategia, sino porque no se cansan, mientras que el campeón del mundo siempre cometerá algún error por fatiga tras cuatro o cinco horas de lucha. Por otro lado, la informática ha revolucionado el entrenamiento en ajedrez. La mayoría de los aficionados poseen o pueden acceder a un programa que calcula cientos de miles de jugadas por segundo, y una base de datos con cinco millones de partidas, jugadas desde el siglo XVI. Ahora bien, los torneos de seres humanos y máquinas mezclados no tienen sentido. Es más bien una convivencia entre dos deportes distintos, el ajedrez humano y el de máquinas, como el atletismo y el ciclismo conviven con la Fórmula 1, sin que a nadie se le ocurra mezclarlos. Y la belleza siempre estará en el lado humano, porque en ajedrez es casi imposible que se produzca si antes no ha habido algún error. Es poco probable que una partida perfecta sea bella.

A — Para las personas normales ¿es útil el ajedrez? ¿Qué destacarías de provechoso? ¿estrategia, táctica, tiempo, combatividad…?

L — Es sumamente útil, además de divertido. Está demostrado que los niños que juegan al ajedrez con frecuencia desarrollan más la inteligencia y rinden mejor, sobre todo en matemáticas y lectura. Por otro lado, la práctica frecuente del ajedrez mejora y retrasa el envejecimiento cerebral, y podría prevenir o retrasar el Alzheimer. Y hay un tercer campo virgen, pero de eficacia más que probable, que es de la toma de decisiones.** El ajedrez enseña a pensar**.

A — ¿Qué es distinto y destacable del ajedrez?

L — Tiene al menos quince siglos de historia. Es el único deporte que se puede practicar y enseñar en Internet. Se puede jugar a cualquier edad. Produce personajes fascinantes. Tiene conexiones muy interesantes con el arte (cine, música literatura) y la ciencia (medicina, informática, psicología, psiquiatría). Es universal (175 países en la Federación Internacional) y de infraestructura muy barata.

A — ¿Qué es el ajedrez social?

L — Además de lo dicho en las respuestas anteriores, tiene aplicaciones sociales muy útiles y demostradas, en prisiones, reformatorios, ex drogadictos, niños hiperactivos y autistas, superdotados, etc. Es decir, el ajedrez es mucho más que el deporte mental por excelencia.

A — Tú escribes a diario en El País una columna de ajedrez. ¿Cómo eliges las partidas?

L — Reviso muchas todos los días para elegir las mejores, de acuerdo a tres criterios principales: calidad, brillantez o valor didáctico. Generalmente doy preferencia a las de los torneos de actualidad, pero en verano publico la serie “Joyas Históricas”, que avanza cronológicamente cada año, y está aún en la primera mitad del siglo XX.

Puedes ver todas las partidas de los dos encuentros.

Artículo publicado originalmente en ALT1040

domingo, 20 de mayo de 2012

Neuroimagen (IV): Jugando con la luz


El uso de la luz mezclado con la ingeniería genética abre un fascinante mundo de posibilidades en el campo de la Neuroimagen, tantas como las técnicas basadas en electrodos intracranelaes y resonancia mágnética. Incluye técnicas como la Proteína Verde Fluorescente GFP, la Optogenética o las neuronas que emiten luz cuando se excitan. Por otro lado, una pléyade de dispositivos y técnicas se acercan cada día más en su afán de comprender nuestros pensamientos como es el caso del reconocimiento facial, descubrir las emociones por los gestos o por el tono de la voz.

Ingeniería genética

Como su nombre indica, además de una rama de la ciencia, es una ingeniería cuyo objetivo es manipular el material genético. El conocimiento genético está permitiendo la secuenciación de diversos genomas, entre ellos el del hombre. La ingeniería genética está creando múltiples organismos modificados que resultan herramientas sorprendentes en manos de los científicos. Descifrados algunos de lo mecanismos básicos de la genética, los científicos están empezando a modificar organismos como si fueran juegos de Lego, usando para ello herramientas biológicas que permiten cortar y pegar trabajando con nuestros amigos los virus y bacterias.
La modificación puede hacerse en el genoma y después producir un individuo en el que todas sus células tienen el gen cambiado. Pero también puede hacerse en un animal vivo. Para ello se utiliza un vector, un agente que introduce el nuevo gen en determinadas células. Es el caso de los virus, organismos especializados en cambiar el código genético de las células que infectan. Modificamos un virus para quitarle su acción patógena y añadimos el gen de nuestro interés. Luego infectamos con el virus las células en las que deseamos realizar la sustitución genética.

Proteína Verde Fluorescente GFP

Una medusa emite luz a causa de una proteína llamada GFP proteína verde fluorescente. Martin Chalfie, Osamu Shimomura y Roger Y. Tsien recibieron el Premio Nobel de Química en 2008 por sus trabajos con GPF. El gen que produce GPF está aislado y se puede incorporar al ADN de otras células que se vuelven fluorescentes y pueden ser cómodamente observadas por un microscopio óptico. Nuevas proteínas fluorescentes se han aislado y con una combinación de ellas se pueden lograr múltiple colores. Es lo que se ha hecho con Brainbow que saltó a la luz en 2007.

Optogenética

En 1979, el premio Nobel Francis Crick proponía que el gran reto de la neurociencia es la necesidad de controlar un tipo de célula del cerebro, dejando inalteradas las demás. Los estímulos eléctricos usan electrodos demasiado rudimentarios que estimulan un área grande e imprecisa. y las drogas son lentas e inespecíficas. La solución parece estar en la luz.
La optogenética es una mezcla de óptica y genética. Basada en el estudio de algas el sistema parece tan simple como brillante. Una única proteína codificada por un único gen tiene dos partes cada una de las cuales realiza una función. Una parte de la proteína responde a la luz. La otra es una canal iónico de membrana como los existentes en todas las neuronas y que son responsables del impulso eléctrico o potencial de acción. Cuando la proteína recibe luz, el canal se abre y la neurona se dispara. Insertando este gen en el ADN de la neurona, la controlamos a voluntad con destellos luminosos y una precisión de milisegundo. Necesitamos también tecnología de emisión de luz profunda para llegar al fondo del cerebro de mamíferos en movimiento libre.
Podemos infectar un determinado tipo de neurona sin afectar al resto, estableciendo así un control mas selectivo. También están empezando a usarse una mezcla de electrodos y fibra óptica para registrar la actividad de las neuronas. De este modo puede registrarse la actividad eléctrica de una área a la vez que la estamos estimulando ópticamente.
A medida que esta técnica esté disponible nuevas aplicaciones irán surgiendo. Una de ellas es la validación de los métodos actuales. El fMRI, por ejemplo, es un conjunto de medidas con un análisis complejo. Ahora en combinación con la optogenética se puede hacer una validación cruzada de ambas técnicas. Los estudios en enfermedades como Parkinson, esquizofrenia autismo están empezando.

Neuronas que emiten luz cuando se excitan

Usando un gen de un microorganismo del Mar Muerto, se produce una proteína que, cuando se expone a las señales eléctricas de la neurona, emite luz, permitiendo a los científicos rastrear la propagación de las señales dentro de la célula.
Esto permite reemplazar la clásica técnica de implantación de microelectrodos para registrar el comportamiento de la neurona (del mismo modo que la optogenética reemplaza los microelectrodos para excitar a la neurona). Los microelectrodos registran el comportamiento en un punto de la neurona mientras que ahora se puede seguir todo el camino de la señal eléctrica dentro de la neurona (y en las demás neuronas). Además, los microelectrodos causan una muerte rápida de la neurona que ahora puede observarse por más tiempo.
El uso de electrodos para excitar y para medir las corrientes eléctricas en la neurona tiene ahora un competidor: la luz. A partir de ahora se puede excitar a la neurona (con optogenética) y registrar su comportamiento con la nueva técnica.

Ejemplo de control optogenético.

El objetivo es estimular o inhibir individualmente cada una de sus neuronas mientras el gusano nada en libertad para lo que no se pueden usar los tradicionales electrodos implantados.
Las neuronas del gusano Caenorhabditis elegans modificado expresan las proteínas channelrhodopsin-2 y halorhodopsin. Estas proteínas responden a la luz convirtiendo al gusano en un biorrobot. La neurona se excita si recibe un pulso de luz azul y se inhibe con un pulso de luz verde.
El entorno es aún más sofisticado ya que el gusano está en libertad, es muy pequeño y sus movimientos son muy rápidos. Los investigadores usan un software llamado CoLBeRT (Controlling Locomotion and Behavior in Real Time). Una cámara registra la posición del gusano a un ritmo de 50 cuadros por segundo y con una precisión de 30 micrones es capaz de estimar la posición de cada una de las 302 neuronas y estimularlas individualmente. Al estimular las neuronas frontales el animal retrocede y al hacerlo con las posteriores avanza. El equipo es capaz incluso de hacer que el gusano ponga huevos (ver vídeo, frame 8.828)

Otros métodos de control de la mente

Lejos de lo que se considera Neuroimagen, existe una multitud de nuevos sensores que permiten comprender lo que pensamos. Leer la mente es algo que todos hacemos a diario con las personas que nos rodean. Hacemos supuestos de lo que piensan y acertamos en buena medida. El lenguaje no verbal es un buen indicador de lo que pasa por la cabeza de nuestro interlocutor: sus gestos, su cara, sus movimientos, sus ojos. Por supuesto tenemos una buena idea si esa persona usa el lenguaje, nos habla y nos dice lo que piensa.
Todas estas señales que los humanos percibimos y analizamos están comenzando a ser usadas por los ordenadores. Dentro de poco podrán saber nuestro estado de ánimo por la expresión de nuestra cara o el tono de nuestra voz y podrán saber qué nos interesa registrando el movimiento de nuestros ojos. Y podremos controlarlos con la mente.

Publicado originalmente en ALT1040

domingo, 13 de mayo de 2012

Neuroimagen (III): Resonancia magnética, funcional y Conectoma


Tras “Una mirada al interior del cerebro” y “Electrodos intracraneales y electroencefalograma”, en esta tercera entrega seguimos desentrañando los secretos de la neuroimagen.
Las imágenes obtenidas por resonancia magnética han supuesto un avance fundamental en el conocimiento del cerebro. Tanto si es una imagen estática proporcionada por la resonancia magnética MRI, como si analiza la actividad del cerebro usando resonancia funcional magnética fMRI o si lo que pretende es encontrar las vías neurales del cerebro o Conectoma usando la técnica diffusion tensor imaging DTI.

Resonancia magnética MRI

La resonancia magnética es un excelente ejemplo de trabajo interdisciplinar. Se basa en principios físicos, tiene un análisis matemático formidable y sus datos los analizan los médicos. Es una técnica clave en neuroimagen. Se somete al tejido a un potente campo magnético estático. A continuación se le da un pulso electromagnético. Los átomos resuenan de distinta forma según el tejido en el que se encuentren. Los datos se analizan según un complejo modelo matemático. De esta forma podemos obtener una imagen de los tejidos del interior de un sujeto. En oposición a la radiografía, desvela tejidos blandos. La imagen es tridimensional.
Las imágenes que proporciona son estáticas. Es no invasivo, aunque incómodo. Hay que introducir al sujeto dentro de un gran aparato que a veces produce claustrofobia. El coste del aparato es elevado. Su resolución espacial es buena.
Se usa para todo tipo de tejidos y en el caso del cerebro permite ver imágenes de su interior así como apreciar anomalías como los tumores o ictus.
Con el mismo aparato pero variando el análisis matemático obtenemos otras dos técnicas de neuroimagen fundamentales hoy en día: la resonancia funcional magnética fMRI y el Conectoma DTI

Resonancia funcional magnética fMRI

Con base en la resonancia magnética, la resonancia funcional magnética fMRI es la estrella de la neuroimagen. Es capaz de reflejar cambios en la imagen cerebral basados en la actividad neuronal. Podemos ver qué áreas se activan cuando el sujeto realiza una tarea mental y por lo tanto correlacionar áreas cerebrales y conducta.
Para obtener las imágenes se utiliza una técnica llamada BOLD-fMRI. Esta técnica mide el consumo de oxígeno en un área. Asumiendo que un mayor consumo de oxígeno supone una mayor actividad neuronal, podemos saber qué área está más activa durante una tarea.

fMRI tiene varias limitaciones. Mide el consumo de oxigeno del cerebro con una resolución de un voxel (aproximadamente un cubo de 2mm de lado). No mide la actividad neuronal, esta se infiere a partir del consumo de oxígeno. La resolución espacial es muy alta (aunque en un voxel caben cientos de miles de neuronas). Un problema (entre otros) es que la resolución temporal es muy baja (1s frente a las neuronas que disparan en la frontera de 1ms). Otro problema es que, en general, se usan análisis estadísticos con varios sujetos. Esto ha dado lugar a interpretaciones dudosas de los datos. A pesar de ello, la resonancia funcional es hoy una técnica insustituible, ampliamente usada y de gran proyección.

Diffusion Tensor Imaging DTI, Conectoma

Basado en la resonancia magnética, Diffusion Tensor Imaging DTI es una técnica de neuroimagen que permite ver el sentido de las fibras de axones de la materia blanca cerebral permitiendo así la producción de un mapa de conexiones o Conectoma.
El agua difunde igual en todos los sentidos. A menos que se encuentre con barreras. Dentro de un axón el agua difunde bien en el sentido del axón, pero lo hace mal contra las paredes mielinizadas. Con la resonancia magnética podemos conocer como difunde el agua y por lo tanto el sentido del axón.
La materia blanca está compuesta por fibras de millones de axones que conectan las distintas partes del cerebro. Siguiendo estas fibras podemos saber cual es el mapa de conexiones, llamado Conectoma. Dado que el nivel de conectividad es uno de los grandes desconocidos del cerebro, el Conectoma es un paso vital para conocer su estructura y comportamiento.

Ejemplo de fMRI: Leer la mente


La literatura científica actual esta llena de experimentos realizados con fMRI. Una de las líneas comunes es trata de leer la mente
En la imagen adjunta de 2008 se observa que la decodificación de imágenes estáticas es bastante buena y se puede leer neuron, la palabra presentada al sujeto.
Pero la experiencia visual común es la de imágenes en movimiento. Y aunque no pretendamos llegar al milisegundo de la neurona, sí al ritmo del cine: 24 imágenes por segundo, lejos de la resolución temporal del fMRI.
En este estudio, el equipo de la Universidad de Berkeley logra decodificar los vídeos que el sujeto está viendo. El resultado es muy borroso, pero la tecnología y los modelos se irán refinando.


Artículo publicado originalmente en ALT1040

domingo, 6 de mayo de 2012

Neuroimagen (II): Electrodos intracraneales y electroencefalograma


Continuando con la serie de entradas dedicadas a la neuroimagen en esta ocasión me centro en dos de las técnicas más comunes en la Neuroimagen, la implantación de electrodos intracraneales y el electroencefalograma EEG.

Implantación de electrodos intracraneales

La implantación de electrodos intracraneales proporciona la fuente más fiable de neuroimagen. Hace décadas que es posible medir la corriente en el interior y el exterior de una célula mediante la implantación de electrodos. Con todo detalle conocemos las propiedades eléctricas del impulso nervioso y su secuencia temporal. En general los electrodos se realizan in vitro, es decir, en células que se han extraído de un cuerpo (a veces con células generadas por ingeniería genética).
La implantación de electrodos intracraneales se realiza también in vivo en animales o en humanos bajo muy estrictas circunstancias ya que es altamente invasiva: hay que abrir el cráneo e introducir los electrodos. El caso más frecuente es la epilepsia en la que se usan los electrodos para encontrar el foco epiléptico antes de extirparlo así como para asegurarse de que no se tocan áreas vitales. En estas ocasiones se usan los electrodos ya implantados para realizar experimentos conductuales.
La neuroimagen basada en electrodos es muy invasiva y es cara. Su resolución temporal y espacial son excelentes de modo que sabemos con gran exactitud lo que está ocurriendo en el área registrada.

Electroencefalograma EEG

El electroencefalograma EEG fue usado por primera vez en 1929 por Hans Berger (que también registró las ondas alfa) y es una de las técnicas más usadas de neuroimagen. Las neuronas generan electricidad. Esta electricidad traspasa el cráneo y el cuero cabelludo y puede medirse en el exterior de la cabeza. Ello se realiza colocando hasta una veintena de electrodos repartidos por la superficie de la cabeza. De esta forma medimos en todas las áreas del cerebro: frontal, temporal, parietal y occipital.
La señal que medimos es débil (microvoltios en comparación con milivoltios de la neurona) ya que el cráneo y el cuero cabelludo son buenos aislantes. Es además de poca resolución espacial: de los miles de millones de neuronas sólo registramos las que están debajo del electrodo y cada uno de estos registra miles de neuronas. Pero tiene otras ventajas. Es barato y poco invasivo. En la actualidad se utiliza un casco de goma que se pone sobre la cabeza y puede usarse en casi cualquier circunstancia. Tiene además una excelente resolución temporal, es decir, mide en milisegundos.
Son características las ondas que genera y que reflejan el estado de consciencia del individuo:
  • delta (lentas) de menos de 4 Hz
  • theta de 4-8 Hz
  • alpha de 8 a 12 Hz
  • beta de aproximadamente 14-30 Hz
  • gamma de 30-80 Hz
Tiene múltiples aplicaciones diagnósticas: epilepsia, coma, muerte cerebral, tumores… También es muy usado en investigación es también muy usado. Comienza a usarse como interfaz cerebro computador BCI en personas impedidas.
Es de gran importancia el aparato matemático usado para analizar las ondas EEG y comprender lo que muestran los datos.

Ejemplos del uso de electrodos

El implante coclear para sordos, la implantación de retinas artificiales para ciegos o la implantación de miembros prostéticos como brazos y piernas en amputados abre un mundo de esperanza para personas impedidas.
La neurona de Marilyn Monroe
En este estudio, se implantaron electrodos en el cerebro de los pacientes, se cerró el orificio y se registró el comportamiento de las neuronas durante varios días antes de proceder a la operación de extirpar el foco epiléptico.
Se sabe que neuronas individuales responden a ciertas vistas: algunas responden a caras felices, otras a caras tristes, unas a casas y otras a personas. También hay algunas que responden a caras concretas.
Se preguntó a los pacientes quienes eran algunos de sus famosos favoritos. Después se les presentaron estos en la pantalla del ordenador y se registró la actividad de los electrodos implantados. En la primera parte del vídeo se observa cómo la neurona de Marilyn Monroe se dispara repetidamente (cada bip sonoro corresponde a un potencial de acción) cuando se presenta su imagen. En la segunda parte, el sujeto piensa en Marilyn Monroe o Josh Brolin y, controlando el ordenador, consigue que este presente la imagen en la que piensa. Esto supone un avance más en la interfaz cerebro máquina BCI.
El homúnculo de Penfield
Wilder Penfield creó su famoso homúnculo en los años 40 y 50. Aplicaba una pequeña corriente eléctrica a pacientes que iban a ser operados de epilepsia para saber el grupo de neuronas a extirpar. Preguntando a los pacientes que sentían realizó un detallado mapa de la corteza cerebral. El más conocido es su homúnculo sensoriomotor.


Ejemplos de uso de electroencefalograma EEG

La Universidad de Zaragoza tiene un grupo líder mundial en tecnología de Interfaz Cerebro Máquina (BCI) a través de la medición del registro del electroencefalograma (EEG). Han desarrollado una silla de ruedas que se mueve controlada por EEG. El objetivo es que puedan usarla pacientes paralizados que no pueden siquiera hablar o mover los ojos.


Artículo publicado originalmente en ALT1040

domingo, 29 de abril de 2012

Neuroimagen (I): Una mirada al interior del cerebro


Desde que en 1791 Luigi Galvani publicó su estudio sobre la estimulación eléctrica en los nervios de las ranas, toda una línea de investigación se ha dedicado a ver el interior del cerebro y las neuronas. Es la neuroimagen. Ver lo que ocurre en nuestro interior es esencial para comprender el sistema nervioso y su funcionamiento.
Algunas técnicas de neuroimagen muestran el cerebro en vivo, según están ocurriendo los sucesos cerebrales. Unas técnicas proporcionan fotos estáticas mientras otras nos ofrecen imágenes en movimiento. También permiten reconstrucciones tridimensionales del cerebro. La neuroimagen posibilita la comparación entre cerebros sanos y cerebros con lesiones. Incluso podemos realizar diagnósticos en personas que no están en condiciones de cooperar como en el estado de inconsciencia.
Las aplicaciones de la neuroimagen son varias. Una de ellas es la investigación: cómo está hecho el cerebro y cómo actúa y responde a los estímulos. Otra aplicación es el diagnóstico de anomalías. También se usa para proporcionar herramientas de comunicación entre el sujeto y el medio llamadas Brain Computer Interface (BCI).
Hay varios parámetros importantes al evaluar las técnicas de neuroimagen. Algunos de ellos son:
  • El precio del instrumental. Así, los aparatos de resonancia magnética RMI están en el entorno del millón de euros y los cascos de electroencefalograma EEG cuestan pocos euros.
  • Ser invasivo. En qué medida la técnica molesta o compromete al sujeto. La implantación de electrodos intracraneales EIC es muy invasiva, pero el EEG o MRI son poco invasivos.
  • Resolución espacial. ¿Cuál es el tamaño del área que estamos midiendo? Lo electrodos intracraneales tiene una resolución excelente, podemos medir hasta una única neurona aunque suele medirse un grupo de ellas. La RMI tiene una aceptable resolución espacial y mide un área de cientos de miles de neuronas. El EEG tiene una resolución espacial muy baja: con poco más de una docena de electrodos se mide toda la actividad cerebral.
  • Resolución temporal. ¿Qué intervalo de tiempo estamos midiendo? El potencial de acción (el disparo) de una neurona dura 1 milisegundo. La resolución temporal de los electrodos intracraneales y del EEG es muy buena y cubren este intervalo. En cambio la resonancia funcional magnética tiene una resolución temporal baja, del orden del segundo.
La neuroimagen es una especialidad que abarca expertos de múltiples disciplinas como biólogos, físicos, médicos, matemáticos y psicólogos y es una herramienta esencial para la comprensión del cerebro y la mente. Las técnicas de neuroimagen, depuradas y abaratadas, en manos de la brillante creatividad que muestra el mundo moderno, proporcionarán aplicaciones que hoy no podemos siquiera imaginar.

Entrada publicada originalmente en ALT1040

domingo, 22 de abril de 2012

Sobre la sordera: Algo que decir


Adoración Juárez es la autora del libro Algo que decir. Es también fundadora y directora del Colegio Tres Olivos para el desarrollo e integración de niños sordos que constituyen un 10% del alumnado. Algo que decir es un magnífico libro donde se expone con claridad la problemática de los niños sordos de 0 a 5 años. Está orientado a los padres pero es recomendable para todos aquellos que tienen relación con los sordos y en general para los que tengan curiosidad sobre esta condición. Lo que sigue es un resumen de dicho libro que pretende aclarar alguno de los frecuentes malentendidos acerca de la sordera.

El niño oyente y el lenguaje

El lenguaje es consustancial a la condición humana. El lenguaje nos permite comunicarnos. También estructura el pensamiento.
La adquisición del lenguaje tiene dos requisitos. Un cerebro predispuesto y un ambiente en el que exista el lenguaje. Ambos se dan en la mayoría de los seres humanos: salvo anomalías el cerebro está preparado para adquirir y usar el lenguaje y el ambiente que rodea al niño constituye una inmersión permanente en el lenguaje, está entre personas que hablan y le hablan.
Las enormes complejidades del lenguaje no constituyen ningún problema para un niño. Entre los 0 y los 5 años aprende sin dificultad el lenguaje al que está expuesto. Aunque la plasticidad del cerebro se conserva de por vida, no es siempre igual. Existen unas ventanas de aprendizaje o momentos críticos en los que el aprendizaje es más efectivo. De 0 a 2 años se aprende mejor la fonología, el conjunto de sonidos de la lengua. De 2 a 4 años el vocabulario crece de forma acelerada. De 2 a 5 años se adquieren las estructuras gramaticales.
Después de las ventanas de aprendizaje todo es más difícil o incluso imposible. Cualquiera que haya intentado aprender una segunda lengua entiende la dificultad que conlleva. Reconocemos a un no nativo de nuestra lengua apenas haya pronunciado dos frases, aunque lleve años aprendiendo.

El niño sordo

Llevado al extremo, un niño sordo sin ninguna atención especial, así como en los raros casos reportados de niños salvajes, no recibirá información auditiva. Por lo tanto, no adquirirá ningún lenguaje. Y su estructura mental no se desarrollará por completo. Probablemente su capacidad mental general se verá alterada sin remedio. Acciones posteriores no permitirán su recuperación ya que ha superado las ventanas de aprendizaje.
Lo cierto es que un niño sordo, salvo que concurran otras anomalías, es un niño con unas capacidades mentales normales. Solo que no oye. El objetivo de la educación de un niño sordo es que aprenda a comunicarse y que logre la mayor autonomía posible.
Se llama sordo pre-locutivo a aquel que tiene una pérdida auditiva antes de haber aprendido a hablar: por una sordera congénita o ocurrida antes de los 2 años de edad.
Los niños sordos adecuadamente tratados no tienen por qué tener ninguna merma intelectual. Sí es posible que tengan un cambio sociocultural, se relacionen más con otros sordos y se integren en la llamada cultura sorda.
Un sordo oye poco y oye mal. Producir sonidos correctos es muy difícil si no se ha oído nunca. La calidad del habla depende de la calidad de la audición durante los primeros años de vida (natural o ayudada por prótesis).
A pesar de todo es posible, incluso en niños sordos profundos, adquirir lo esencial del lenguaje oral sin que parezca que está trabajando.

Niveles de audición y prótesis

Niveles de audición
  • Audición normal. Se reconoce cualquier palabra, incluso inventada
  • Audición funcional. Se pueden reconocer y entender mensajes previamente conocidos.
  • Audición residual. No se puede reconocer un mensaje exclusivamente por la audición, pero ésta mejora la comprensión de la lectura labial.
Las prótesis existentes son:
  • Audífono. Amplifica el sonido. Actualmente es muy usado también en la madurez.
  • Implante coclear. Consiste en la implantación de un haz de electrodos en la parte del oído interno llamada cóclea unido a un dispositivo externo que cumple la función de la cóclea. No amplifica la señal acústica sino que la decodifica en señal eléctrica. Ha supuesto un cambio radical en la vida de los niños y adultos con sordera profunda porque les proporciona una audición funcional. En la actualidad supone una gran esperanza en múltiples situaciones. Sin embargo no es recomendable en todos los casos. Es útil en los sordos postlocutivos, poco útil los sordos prelocutivos y muy útil cuando su uso es precoz debido a la plasticidad del cerebro.
En sorderas medias y severas, la prótesis puede devolver también ese nivel de audición funcional. Niños con sordera profunda, implantados precozmente y debidamente estimulados alcanzan en la actualidad buenos niveles de comprensión y expresión oral.
Pero no hay que olvidar que un niño sordo aún con una buena prótesis sigue siendo un niño sordo.

La importancia de la comunicación. La vista, la audición y la escritura

El objetivo prioritario en la educación de un niño sordo es favorecer la comunicación. Esto va a requerir el uso intensivo de la vista. En este sentido hay que recalcar que un niño sordo, al principio, solo recibe mensajes si puede ver y quiere mirar.
Un niño oyente está permanentemente inmerso en el lenguaje. Esto no es cierto en el caso de un niño sordo. Existe un empobrecimiento de las situaciones en las que aprender el lenguaje: solo cuando alguien está enfrente y le mira (el niño oyente oye siempre aunque no le hablen). Solo se aprende por comunicación directa. Hay que aprovechar todas las oportunidades de comunicación (cuando el niño está atento o quiere algo), de audición (cualquier ruido que el niño perciba) o de expresión (cualquier sonido que el niño emita).
La comunicación debe ser siempre explícita, mirando al niño y que este nos vea. De ahí la importancia de estar en línea. Por otro lado, se les debe de integrar en el mundo de los sordos y de los oyentes (mixto).
Todo esto, así como el aprendizaje de las distintas modalidades de comunicación puede suponer un enorme esfuerzo para los padres ya que el 90% de los padres de niños sordos son oyentes.
Sea cual sea el nivel de audición de los niños, hay que estimularla lo más posible. Las características del habla del niño dependen de su audición. Si pronuncia mal es que no oye bien.
En el aprendizaje de la comunicación es importante lo cualitativo: que hable y entienda bien. Lo cuantitativo, el nº de palabras y expresiones irá creciendo con el tiempo.
El lenguaje oral es el lenguaje universal, por ello habrá que estimular su adquisición en la medida de lo posible (y es posible en la mayoría de los casos). El objetivo es conseguir que el niño sordo tenga la mayor autonomía posible.
Pero existen otros códigos que pueden permitir la comunicación y apoyar el desarrollo del lenguaje oral; signos, palabra complementada y gestos de apoyo.
La última gran ayuda es la escritura. El lenguaje escrito es fundamental para los sordos, más aún que para los oyentes. El niño debe de aprender a hablar y escribir bien. Puede empezar a hacerlo desde los 3 años.

Lenguas que usan los sordos

Existe una gran controversia sobre la lengua que debe utilizar un niño sordo: la lengua oral, la lengua de signos o ambas. Depende de cada niño así como de su grado de sordera. Todos los educadores son oralistas en objetivo, aunque no siempre sea posible conseguirlo. En el pasado, un oralismo estricto supuso una gran desventaja para todos aquellos niños que no podían adquirir la lengua oral. Por el contrario, el uso exclusivo de la lengua de signos hace que el niño vea efectivamente reducido el entorno en el que se desenvuelve. En la actualidad tiene gran auge el neo-oralismo que utiliza el lenguaje oral como prioritario pero no excluyente y usa ayudas aumentativas
  • Lengua oral. Es la lengua mayoritaria en la comunidad. En nuestro caso es el español. El oralismo estricto puede ser adecuado para sorderas moderadas. pero quizá no para las severas o profundas.
  • Lengua de Signos. Es una lengua distinta de la lengua oral. La lengua de signos española no es una traducción a los signos del español. Tiene su propia gramática y vocabulario. Es también distinta de otras lenguas de signos: hay una lengua de signos americana, otra española, otra catalana y todas son diferentes. Los niños sordos aprenden la lengua de signos sin esfuerzo, como lengua materna, del mismo modo que los oyentes aprenden el español y está especialmente diseñada para su uso visual-gestual. Una persona que maneje el castellano y la lengua de signos española es por tanto bilingue. Los padres oyentes de niños sordos aprenden la lengua de signos como una segunda lengua, con las dificultades que ello conlleva.
  • Lectura labial. Interpreta los fonemas por la forma de los labios. Pero no es posible leer todos los fonemas. Hay varios que tienen la misma forma en la boca (n y l, b y m…) y otros que no se ven (c, g, j). La lectura labial exige un esfuerzo muy grande y se reconoce unicamente lo que ya se conoce.
  • Palabra complementada. Consiste en la lectura labial apoyada en claves gestuales que ayudan a identificar sonidos no visibles en los labios. Se habla por lo tanto en español lo que es de gran ayuda a los padres y de gran proyección a los niños. Un niño sordo de 3 años puede repetir una palabra nueva que nunca ha conocido antes. Permite conocer la gramática del castellano (preposiciones, adverbios…). Sin embargo, no permite al niño saber como se pronuncia. La logopedia es esencial y los implantes ayudan mucho (la lengua de trapo dura más tiempo).
  • Español signado. Es una combinación de lenguaje oral que se acompaña con signos que significan palabras. Se habla en español. Es por tanto distinto de la lengua de signos. También lo es de la palabra complementada con la que se puede combinar.
El uso de la lengua oral con ayudas aumentativas como la palabra complementada o el español signado se llama comunicación bimodal. No se usan a la vez el español y la lengua de signos española ya que esto es bilingüismo (no se habla a la vez en español e inglés).
La escritura. Para conocer la escritura hay que conocer la lengua oral. Es una traducción fonema a letra. Abre a los niños un universo nuevo de comunicación. Además se retroalimenta y ayuda a comprender y mejorar el habla.
Un mundo complejo el de los sordos. Afortunadamente, el apoyo de la sociedad y las nuevas tecnologías abren un futuro esperanzador.

Artículo publicado originalmente en ALT1040

domingo, 15 de abril de 2012

Watson de IBM y Majel de Google: el presente de Star Trek


Watson de IBM y Majel de Google comparten admiración por la conocida saga Star Trek. Además, junto con Siri de Apple configuran un presente donde se ve claro el futuro próximo.

La computadora Watson fue de las innovaciones más importantes de 2011. Su fabulosa capacidad analítica, su manejo del lenguaje natural, su habilidad para moverse en la ambigüedad y sus posibilidades de aprendizaje hacen de ella una joya tecnológica. El investigador principal de Watson, David Ferrucci, ha pasado el año dando conferencias sobre el invento. Una pregunta repetida ha sido: ¿Se parece Watson a HAL 9000 de 2001 A Space Odyssey? Y su respuesta sistemática ha sido: “No, más bien se parece al ordenador de a bordo de los navíos de la saga Star Trek”. Obviamente Star Trek no es el modelo seguido para un desarrollo de millones de dólares, pero es una buena analogía para explicarlo.

Parece que Google tiene previsto sacar un asistente de voz que compita con Siri de Apple. Desde su lanzamiento, Siri ha despertado un gran interés ya que es una tecnología fabulosa pero a la vez cercana. De modo que Google contraataca. El nombre clave de su asistente de voz (que puede ser cambiado en el lanzamiento del producto) es Majel. ¿Adivinas quién es Majel? Es la voz de los ordenadores que llevan los navíos de la Federación en la saga de Star Trek. Majel Barrett se casó con el creador de la serie, Gene Roddenberry, protagonizó varios papeles, puso la voz al “Computer” y está considerada la Primera Dama de Star Trek. Y en el momento actual de desarrollo ¿cómo invocas a Majel, el asistente de voz? Muy sencillo, dices: “Computer”, como en Star Trek. Pero la simpatía va más allá.

Según Mike Cohen de Google:
En Star Trek, no pasan mucho tiempo escribiendo cosas en los teclados, simplemente hablan con sus ordenadores, y las ordenadores responden. Es una forma más natural de comunicarse, pero para lograrlo se requiere entrar en una amplia gama de problemas de difícil investigación .
Y Amit Singhal de Google:
Mi sueño siempre ha sido construir el ordenador de Star Trek, y en mi mundo ideal, yo sería capaz de decirle al ordenador ‘Hey, ¿cuál es el mejor momento para sembrar las semillas en la India, dado que monzón se ha adelantado de este año? “Y una vez que podamos responder a esa pregunta (en la actualidad no podemos), la gente buscará respuestas a preguntas aún más complejas. Todas estas son auténticas necesidades de información. Preguntas genuinas que si nosotros - Google - podemos contestar, los usuarios se volverán más sabios y estarán más satisfechos en su búsqueda del conocimiento “.
También de Google, Matias Duarte dice:
La voz va a ser una parte esencial de las interfaces de usuario. () …tratar de usar la voz como algo de acceso universal en todas las aplicaciones y no limitarse sólo a algunos trucos o algo que solo se utiliza cuando estás en el coche.

Quiero ordenadores que sean multimodales. En una serie de ciencia ficción como Star Trek, alguien se acerca a una pared y empieza a tocar cosas y hablar con el ordenador al mismo tiempo. Esa es la manera en la que creo que nuestras interfaces necesitan evolucionar.

El futuro próximo

El futuro próximo, casi ya el presente, va a estar dominado por las dos tecnologías descritas. Por el lado remoto superordenadores estilo Watson que hagan fabulosos cálculos y accedan a gigantescas bases de datos. Por el lado próximo, interfaces amigables tipo Siri o Majel que nos entiendan mucho más allá de las existentes ahora. Y las dos tecnologías conectadas por las comunicaciones. Nuestros dispositivos, sean teléfonos o cualquier otra cosa, serán las ventanas (¿Windows?) al conocimiento que reside en grandes bases de datos.

Artículo publicado originalmente en ALT1040

domingo, 8 de abril de 2012

Este artículo no ha sido escrito por una máquina


La aclaración del título parece pertinente porque los ordenadores ya están escribiendo artículos periodísticos. La comprensión del lenguaje está avanzando mucho. Lo novedoso es la generación de lenguaje. Dos empresas, Narrative Science y Automated Insights han empezado a escribir noticias cortas por ordenador. De momento son resúmenes deportivos de uno o dos párrafos. Pero quién sabe si en el futuro esta entrada podría ser escrita por una máquina.
WISCONSIN parece estar en el asiento del conductor camino de la victoria, ya que gana 51 a 10 después del tercer tiempo. Wisconsin aumentó su ventaja cuando Russell Wilson encontró a Jacob Pedersen y logró un touchdown de ocho yardas poniendo el marcador 44-3 …
Lo anterior es parte de una breve noticia que se escribió 60 segundos después de terminar el tercer tiempo de un partido de fútbol americano. El autor: un ordenador de Narrative Science.
El software recoge datos como por ejemplo estadísticas deportivas, informes financieros de empresas y construcción y venta de viviendas, y los convierte en artículos.
Los dueños de Narrative Science hacen hincapié en que su tecnología es ante todo una herramienta de bajo costo para ampliar y enriquecer la cobertura editorial allí donde el presupuesto es exiguo. Tienen hasta ahora 20 clientes. Uno de ellos comenta:
Estamos haciendo cosas que de otra manera no haríamos
En principio se está usando para resúmenes de partidos locales o empresas locales. Se publican 1 minuto después de que acabe el partido a un precio por el que nadie escribiría: menos de 10$ por un artículo de 500 palabras. Y el precio está disminuyendo.
Por un lado el software puede usar la minería de datos para establecer correlaciones que un humano no haría y en ese sentido dar mayor valor al artículo. El programa utiliza expresiones como “esfuerzo individual”, “trabajo en equipo”, “venir desde atrás”, “de ida y vuelta”, “temporada alta”, “jugador en racha”. Según el dato más relevante el programa elige el titular de la noticia, y con un marcador muy desequilibrado decide que un equipo “machacó” a otro en lugar de “ganó”.
Robbie Allen, fundador de Automated Insights, es un desarrollador de software que ha escrito una decena de libros. StatSheet contiene artículos publicados por ellos como el de la imagen.
Las preguntas del tipo ¿cómo puede un ordenador, hacer X? son las que yo he pasado mi carrera tratando de responder. Así es que me puse a crear un software que pudiera escribir. Me tomó más esfuerzo que escribir 10 libros juntos, pero después de crear un equipo de 12 personas, hemos sido capaces de utilizar nuestro software para generar más de 100.000 historias relacionadas con el deporte en un período de nueve meses.
Hemos automatizado el contenido dando significado a los números, a los datos. Los deportes son la primera categoría hemos abordado. Los deportes, por su naturaleza usan muchos datos. Por nuestras estimaciones internas, el 70% de todos los artículos relacionados con el deporte están analizando números de una forma u otra.
Aclara que su software es bueno manejando datos cuantitativos pero no cualitativos.
Ahora, (sus clientes) pueden concentrarse en comentarios más cualitativos, de valor añadido, en los que los seres humanos son inherentemente buenos. Las historias cuantitativas pueden -y probablemente deben- ser mayoritariamente automatizadas ya que los ordenadores lo hacen mejor.
Ahora nuestro software puede crear ocho párrafos, pero ¿es posible crear ocho capítulos llenos de contenidos? La respuesta es “sí”.
Nuestro software es bueno en el análisis cuantitativo utilizando datos estructurados.
La principal ventaja del software que escribe es para automatizar tipos repetitivos de contenido. Esto no se aplica a los libros.
Tenemos un robot periodista de bajo coste para ampliar la cobertura de las noticias y escribir artículos sin importancia. Eso hoy, mañana veremos.

Artículo publicado en ALT1040

lunes, 2 de abril de 2012

Fallo de Sistema, Radio3 de RTVE reemite Singularidad en el horizonte

Fallo de Sistema, el programa conducido por Santiago Bustamente, reemite el programa en el que me entrevistó llamado Singularidad en el horizonte.

Fue una estupenda oportunidad ser entrevistado para RTVE, Radio 3. En la entrevista hablamos de Singularidad, tecnología BCI, test de Turing, proyecto Blue Brain y otros asuntos.

Si te lo perdiste, la reemisión será este domingo día 8 de abril a las 16 horas en Radio 3.