domingo, 27 de mayo de 2012

Leontxo García: «Casi nadie creía que Deep Blue derrotaría a Kasparov»


El hombre frente a la máquina. Kaspárov frente a Deep Blue. El gran desafío. La épica suprema. Acabó hace quince años, el 11 de Mayo de 1997. Aún resuena el fragor de la batalla. Hace un año IBM repitió el desafío. Watson frente a los humanos en el concurso de TV Jeopardy. De nuevo ganó la máquina, Watson, heredera de Deep Blue.

Leontxo García estuvo en el match Kaspárov vs Deep Blue. Leontxo es periodista especializado en ajedrez, publica y comenta una partida diaria en el periódico El País y es invitado habitual en el programa de Radio Nacional de España, No es un día cualquiera. Ha conocido a Grandes Maestros como Gary Kaspárov, Anatoli Kárpov o Bobby Fischer.

ALT1040 — Leontxo, tú estuviste en el encuentro. Al parecer la expectación en USA fue enorme ¿qué recuerdas del ambiente?

Leontxo — Grandes titulares previos en el New York Times, USA Today y otros medios importantes, del tipo “¿Podrá defender el honor del género humano?” bajo una foto de Kaspárov. Grandes retratos de Kaspárov en carteles anunciando el duelo por las calles de Manhattan. En la sala de juego, siempre llena, más del 90% estaban a favor del ruso, a pesar de que el operador de IBM jugaba con la bandera estadounidense. Teniendo en cuenta los parámetros de la época, la audiencia de las retransmisiones por Internet de las seis partidas fue enorme, y la cobertura de la prensa internacional también. En la rueda de prensa final, con Kaspárov desquiciado y los de IBM pletóricos, había tantos periodistas que algunos tuvieron que meterse debajo de las mesas. Las acciones de IBM se dispararon en Wall Street al día siguiente de la victoria de Deep Blue.

ALT1040 — ¿Esperaba alguien que Kaspárov perdiera?

Leontxo — Casi nadie. Un año antes en Filadelfia, en el primer duelo Kaspárov—Deep Blue, la sensación general era que a los de IBM aún les faltaba mucho trabajo para igualar el nivel, sobre todo en el campo estratégico.

A — ¿Cómo fue la famosa sexta partida?

L — En una decisión que aún hoy causa polémica —e incluso sospechas de tongo—, Kaspárov se metió en una conocida trampa de la Defensa Caro—Kann. En mi opinión, no hubo tongo: él dio por seguro que el “libro” de aperturas de Deep Blue no incluía esa celada (es decir, que no estaba programada en su memoria), y se equivocó. Entre otras razones, porque su sistema nervioso estaba ya roto, por la enorme tensión que sufrió durante el duelo.

A — Kaspárov se enfadaba mucho. ¿Por qué? ¿Cómo es un genio como él?

L — Se siente destinado a hacer grandes cosas en su vida, de enorme trascendencia. Antes del duelo dijo que sentía “la responsabilidad de portar el estandarte de la inteligencia humana contra la fuerza bruta de las máquinas”. Su gran confianza se reafirmó al ganar la primera partida, pero cayó por los suelos —así como la estabilidad de su sistema nervioso— con las grandes sorpresas de la segunda: Deep Blue hace una jugada “humana” buenísima (37 Ae4), increíble en una computadora hasta entonces; poco después, Deep Blue comete una imprecisión táctica cuando ya tenía la partida ganada, pero Kaspárov —sumamente nervioso— no se da cuenta y se rinde en una posición donde disponía de un recurso de tablas. Desde ese día se obsesionó con la idea de que IBM hacía trampas, que había intervención humana en algunas jugadas de Deep Blue. Eso marcó el desenlace del duelo; creo que Kaspárov lo hubiera ganado si es capaz de jugar al 100%. Pero lo perdió, exigió una revancha que IBM no quiso, y aún hoy sigue convencido de que le hicieron trampas.

A — ¿Cómo fueron los encuentros previos? ¿Cuánto tiempo costó fabricar una máquina que ganara?

L — Cuando, a mediados de los ochenta, IBM comenzó a desarrollar Deep Thought (antecesor de Deep Blue), los mejores programas de ajedrez eran aún el hazmerreír de los ajedrecistas, porque sólo exhibían fuerza bruta, sin una comprensión mínima de la estrategia. Es decir, se tardó medio siglo en que una máquina jugase al ajedrez al nivel del campeón del mundo, a pesar de que los padres de la informática (Shannon y Turing) ya veían el ajedrez como un campo de experimentación muy interesante. O sea, se tardó medio siglo en lograr que una máquina entendiera las excepciones de las reglas, que un niño ajedrecista de siete años entiende en un minuto. Hoy, ninguna computadora puede jugar perfectamente al ajedrez, ni podrá hasta que existan las computadoras cuánticas, porque el número de partidas distintas posibles es mayor que el de átomos en el universo entero conocido.

A — ¿La ciencia obtuvo algún beneficio de Deep Blue o fue sólo una operación comercial de IBM?

L — Lo aprendido con Deep Blue se ha aplicado después en diversos campos de cálculo molecular o muy complejo, como planificación agrícola, meteorología, comunicaciones y fabricación de medicamentos.

A — ¿Cual es la realidad de las máquinas hoy? ¿Las usan los grandes maestros? ¿Es definitivo que una máquina gana al campeón mundial?

L — Podemos decir que el mejor ajedrecista del mundo es una máquina, no sólo por lo mucho que han mejorado en la estrategia, sino porque no se cansan, mientras que el campeón del mundo siempre cometerá algún error por fatiga tras cuatro o cinco horas de lucha. Por otro lado, la informática ha revolucionado el entrenamiento en ajedrez. La mayoría de los aficionados poseen o pueden acceder a un programa que calcula cientos de miles de jugadas por segundo, y una base de datos con cinco millones de partidas, jugadas desde el siglo XVI. Ahora bien, los torneos de seres humanos y máquinas mezclados no tienen sentido. Es más bien una convivencia entre dos deportes distintos, el ajedrez humano y el de máquinas, como el atletismo y el ciclismo conviven con la Fórmula 1, sin que a nadie se le ocurra mezclarlos. Y la belleza siempre estará en el lado humano, porque en ajedrez es casi imposible que se produzca si antes no ha habido algún error. Es poco probable que una partida perfecta sea bella.

A — Para las personas normales ¿es útil el ajedrez? ¿Qué destacarías de provechoso? ¿estrategia, táctica, tiempo, combatividad…?

L — Es sumamente útil, además de divertido. Está demostrado que los niños que juegan al ajedrez con frecuencia desarrollan más la inteligencia y rinden mejor, sobre todo en matemáticas y lectura. Por otro lado, la práctica frecuente del ajedrez mejora y retrasa el envejecimiento cerebral, y podría prevenir o retrasar el Alzheimer. Y hay un tercer campo virgen, pero de eficacia más que probable, que es de la toma de decisiones.** El ajedrez enseña a pensar**.

A — ¿Qué es distinto y destacable del ajedrez?

L — Tiene al menos quince siglos de historia. Es el único deporte que se puede practicar y enseñar en Internet. Se puede jugar a cualquier edad. Produce personajes fascinantes. Tiene conexiones muy interesantes con el arte (cine, música literatura) y la ciencia (medicina, informática, psicología, psiquiatría). Es universal (175 países en la Federación Internacional) y de infraestructura muy barata.

A — ¿Qué es el ajedrez social?

L — Además de lo dicho en las respuestas anteriores, tiene aplicaciones sociales muy útiles y demostradas, en prisiones, reformatorios, ex drogadictos, niños hiperactivos y autistas, superdotados, etc. Es decir, el ajedrez es mucho más que el deporte mental por excelencia.

A — Tú escribes a diario en El País una columna de ajedrez. ¿Cómo eliges las partidas?

L — Reviso muchas todos los días para elegir las mejores, de acuerdo a tres criterios principales: calidad, brillantez o valor didáctico. Generalmente doy preferencia a las de los torneos de actualidad, pero en verano publico la serie “Joyas Históricas”, que avanza cronológicamente cada año, y está aún en la primera mitad del siglo XX.

Puedes ver todas las partidas de los dos encuentros.

Artículo publicado originalmente en ALT1040

domingo, 20 de mayo de 2012

Neuroimagen (IV): Jugando con la luz


El uso de la luz mezclado con la ingeniería genética abre un fascinante mundo de posibilidades en el campo de la Neuroimagen, tantas como las técnicas basadas en electrodos intracranelaes y resonancia mágnética. Incluye técnicas como la Proteína Verde Fluorescente GFP, la Optogenética o las neuronas que emiten luz cuando se excitan. Por otro lado, una pléyade de dispositivos y técnicas se acercan cada día más en su afán de comprender nuestros pensamientos como es el caso del reconocimiento facial, descubrir las emociones por los gestos o por el tono de la voz.

Ingeniería genética

Como su nombre indica, además de una rama de la ciencia, es una ingeniería cuyo objetivo es manipular el material genético. El conocimiento genético está permitiendo la secuenciación de diversos genomas, entre ellos el del hombre. La ingeniería genética está creando múltiples organismos modificados que resultan herramientas sorprendentes en manos de los científicos. Descifrados algunos de lo mecanismos básicos de la genética, los científicos están empezando a modificar organismos como si fueran juegos de Lego, usando para ello herramientas biológicas que permiten cortar y pegar trabajando con nuestros amigos los virus y bacterias.
La modificación puede hacerse en el genoma y después producir un individuo en el que todas sus células tienen el gen cambiado. Pero también puede hacerse en un animal vivo. Para ello se utiliza un vector, un agente que introduce el nuevo gen en determinadas células. Es el caso de los virus, organismos especializados en cambiar el código genético de las células que infectan. Modificamos un virus para quitarle su acción patógena y añadimos el gen de nuestro interés. Luego infectamos con el virus las células en las que deseamos realizar la sustitución genética.

Proteína Verde Fluorescente GFP

Una medusa emite luz a causa de una proteína llamada GFP proteína verde fluorescente. Martin Chalfie, Osamu Shimomura y Roger Y. Tsien recibieron el Premio Nobel de Química en 2008 por sus trabajos con GPF. El gen que produce GPF está aislado y se puede incorporar al ADN de otras células que se vuelven fluorescentes y pueden ser cómodamente observadas por un microscopio óptico. Nuevas proteínas fluorescentes se han aislado y con una combinación de ellas se pueden lograr múltiple colores. Es lo que se ha hecho con Brainbow que saltó a la luz en 2007.

Optogenética

En 1979, el premio Nobel Francis Crick proponía que el gran reto de la neurociencia es la necesidad de controlar un tipo de célula del cerebro, dejando inalteradas las demás. Los estímulos eléctricos usan electrodos demasiado rudimentarios que estimulan un área grande e imprecisa. y las drogas son lentas e inespecíficas. La solución parece estar en la luz.
La optogenética es una mezcla de óptica y genética. Basada en el estudio de algas el sistema parece tan simple como brillante. Una única proteína codificada por un único gen tiene dos partes cada una de las cuales realiza una función. Una parte de la proteína responde a la luz. La otra es una canal iónico de membrana como los existentes en todas las neuronas y que son responsables del impulso eléctrico o potencial de acción. Cuando la proteína recibe luz, el canal se abre y la neurona se dispara. Insertando este gen en el ADN de la neurona, la controlamos a voluntad con destellos luminosos y una precisión de milisegundo. Necesitamos también tecnología de emisión de luz profunda para llegar al fondo del cerebro de mamíferos en movimiento libre.
Podemos infectar un determinado tipo de neurona sin afectar al resto, estableciendo así un control mas selectivo. También están empezando a usarse una mezcla de electrodos y fibra óptica para registrar la actividad de las neuronas. De este modo puede registrarse la actividad eléctrica de una área a la vez que la estamos estimulando ópticamente.
A medida que esta técnica esté disponible nuevas aplicaciones irán surgiendo. Una de ellas es la validación de los métodos actuales. El fMRI, por ejemplo, es un conjunto de medidas con un análisis complejo. Ahora en combinación con la optogenética se puede hacer una validación cruzada de ambas técnicas. Los estudios en enfermedades como Parkinson, esquizofrenia autismo están empezando.

Neuronas que emiten luz cuando se excitan

Usando un gen de un microorganismo del Mar Muerto, se produce una proteína que, cuando se expone a las señales eléctricas de la neurona, emite luz, permitiendo a los científicos rastrear la propagación de las señales dentro de la célula.
Esto permite reemplazar la clásica técnica de implantación de microelectrodos para registrar el comportamiento de la neurona (del mismo modo que la optogenética reemplaza los microelectrodos para excitar a la neurona). Los microelectrodos registran el comportamiento en un punto de la neurona mientras que ahora se puede seguir todo el camino de la señal eléctrica dentro de la neurona (y en las demás neuronas). Además, los microelectrodos causan una muerte rápida de la neurona que ahora puede observarse por más tiempo.
El uso de electrodos para excitar y para medir las corrientes eléctricas en la neurona tiene ahora un competidor: la luz. A partir de ahora se puede excitar a la neurona (con optogenética) y registrar su comportamiento con la nueva técnica.

Ejemplo de control optogenético.

El objetivo es estimular o inhibir individualmente cada una de sus neuronas mientras el gusano nada en libertad para lo que no se pueden usar los tradicionales electrodos implantados.
Las neuronas del gusano Caenorhabditis elegans modificado expresan las proteínas channelrhodopsin-2 y halorhodopsin. Estas proteínas responden a la luz convirtiendo al gusano en un biorrobot. La neurona se excita si recibe un pulso de luz azul y se inhibe con un pulso de luz verde.
El entorno es aún más sofisticado ya que el gusano está en libertad, es muy pequeño y sus movimientos son muy rápidos. Los investigadores usan un software llamado CoLBeRT (Controlling Locomotion and Behavior in Real Time). Una cámara registra la posición del gusano a un ritmo de 50 cuadros por segundo y con una precisión de 30 micrones es capaz de estimar la posición de cada una de las 302 neuronas y estimularlas individualmente. Al estimular las neuronas frontales el animal retrocede y al hacerlo con las posteriores avanza. El equipo es capaz incluso de hacer que el gusano ponga huevos (ver vídeo, frame 8.828)

Otros métodos de control de la mente

Lejos de lo que se considera Neuroimagen, existe una multitud de nuevos sensores que permiten comprender lo que pensamos. Leer la mente es algo que todos hacemos a diario con las personas que nos rodean. Hacemos supuestos de lo que piensan y acertamos en buena medida. El lenguaje no verbal es un buen indicador de lo que pasa por la cabeza de nuestro interlocutor: sus gestos, su cara, sus movimientos, sus ojos. Por supuesto tenemos una buena idea si esa persona usa el lenguaje, nos habla y nos dice lo que piensa.
Todas estas señales que los humanos percibimos y analizamos están comenzando a ser usadas por los ordenadores. Dentro de poco podrán saber nuestro estado de ánimo por la expresión de nuestra cara o el tono de nuestra voz y podrán saber qué nos interesa registrando el movimiento de nuestros ojos. Y podremos controlarlos con la mente.

Publicado originalmente en ALT1040

domingo, 13 de mayo de 2012

Neuroimagen (III): Resonancia magnética, funcional y Conectoma


Tras “Una mirada al interior del cerebro” y “Electrodos intracraneales y electroencefalograma”, en esta tercera entrega seguimos desentrañando los secretos de la neuroimagen.
Las imágenes obtenidas por resonancia magnética han supuesto un avance fundamental en el conocimiento del cerebro. Tanto si es una imagen estática proporcionada por la resonancia magnética MRI, como si analiza la actividad del cerebro usando resonancia funcional magnética fMRI o si lo que pretende es encontrar las vías neurales del cerebro o Conectoma usando la técnica diffusion tensor imaging DTI.

Resonancia magnética MRI

La resonancia magnética es un excelente ejemplo de trabajo interdisciplinar. Se basa en principios físicos, tiene un análisis matemático formidable y sus datos los analizan los médicos. Es una técnica clave en neuroimagen. Se somete al tejido a un potente campo magnético estático. A continuación se le da un pulso electromagnético. Los átomos resuenan de distinta forma según el tejido en el que se encuentren. Los datos se analizan según un complejo modelo matemático. De esta forma podemos obtener una imagen de los tejidos del interior de un sujeto. En oposición a la radiografía, desvela tejidos blandos. La imagen es tridimensional.
Las imágenes que proporciona son estáticas. Es no invasivo, aunque incómodo. Hay que introducir al sujeto dentro de un gran aparato que a veces produce claustrofobia. El coste del aparato es elevado. Su resolución espacial es buena.
Se usa para todo tipo de tejidos y en el caso del cerebro permite ver imágenes de su interior así como apreciar anomalías como los tumores o ictus.
Con el mismo aparato pero variando el análisis matemático obtenemos otras dos técnicas de neuroimagen fundamentales hoy en día: la resonancia funcional magnética fMRI y el Conectoma DTI

Resonancia funcional magnética fMRI

Con base en la resonancia magnética, la resonancia funcional magnética fMRI es la estrella de la neuroimagen. Es capaz de reflejar cambios en la imagen cerebral basados en la actividad neuronal. Podemos ver qué áreas se activan cuando el sujeto realiza una tarea mental y por lo tanto correlacionar áreas cerebrales y conducta.
Para obtener las imágenes se utiliza una técnica llamada BOLD-fMRI. Esta técnica mide el consumo de oxígeno en un área. Asumiendo que un mayor consumo de oxígeno supone una mayor actividad neuronal, podemos saber qué área está más activa durante una tarea.

fMRI tiene varias limitaciones. Mide el consumo de oxigeno del cerebro con una resolución de un voxel (aproximadamente un cubo de 2mm de lado). No mide la actividad neuronal, esta se infiere a partir del consumo de oxígeno. La resolución espacial es muy alta (aunque en un voxel caben cientos de miles de neuronas). Un problema (entre otros) es que la resolución temporal es muy baja (1s frente a las neuronas que disparan en la frontera de 1ms). Otro problema es que, en general, se usan análisis estadísticos con varios sujetos. Esto ha dado lugar a interpretaciones dudosas de los datos. A pesar de ello, la resonancia funcional es hoy una técnica insustituible, ampliamente usada y de gran proyección.

Diffusion Tensor Imaging DTI, Conectoma

Basado en la resonancia magnética, Diffusion Tensor Imaging DTI es una técnica de neuroimagen que permite ver el sentido de las fibras de axones de la materia blanca cerebral permitiendo así la producción de un mapa de conexiones o Conectoma.
El agua difunde igual en todos los sentidos. A menos que se encuentre con barreras. Dentro de un axón el agua difunde bien en el sentido del axón, pero lo hace mal contra las paredes mielinizadas. Con la resonancia magnética podemos conocer como difunde el agua y por lo tanto el sentido del axón.
La materia blanca está compuesta por fibras de millones de axones que conectan las distintas partes del cerebro. Siguiendo estas fibras podemos saber cual es el mapa de conexiones, llamado Conectoma. Dado que el nivel de conectividad es uno de los grandes desconocidos del cerebro, el Conectoma es un paso vital para conocer su estructura y comportamiento.

Ejemplo de fMRI: Leer la mente


La literatura científica actual esta llena de experimentos realizados con fMRI. Una de las líneas comunes es trata de leer la mente
En la imagen adjunta de 2008 se observa que la decodificación de imágenes estáticas es bastante buena y se puede leer neuron, la palabra presentada al sujeto.
Pero la experiencia visual común es la de imágenes en movimiento. Y aunque no pretendamos llegar al milisegundo de la neurona, sí al ritmo del cine: 24 imágenes por segundo, lejos de la resolución temporal del fMRI.
En este estudio, el equipo de la Universidad de Berkeley logra decodificar los vídeos que el sujeto está viendo. El resultado es muy borroso, pero la tecnología y los modelos se irán refinando.


Artículo publicado originalmente en ALT1040

domingo, 6 de mayo de 2012

Neuroimagen (II): Electrodos intracraneales y electroencefalograma


Continuando con la serie de entradas dedicadas a la neuroimagen en esta ocasión me centro en dos de las técnicas más comunes en la Neuroimagen, la implantación de electrodos intracraneales y el electroencefalograma EEG.

Implantación de electrodos intracraneales

La implantación de electrodos intracraneales proporciona la fuente más fiable de neuroimagen. Hace décadas que es posible medir la corriente en el interior y el exterior de una célula mediante la implantación de electrodos. Con todo detalle conocemos las propiedades eléctricas del impulso nervioso y su secuencia temporal. En general los electrodos se realizan in vitro, es decir, en células que se han extraído de un cuerpo (a veces con células generadas por ingeniería genética).
La implantación de electrodos intracraneales se realiza también in vivo en animales o en humanos bajo muy estrictas circunstancias ya que es altamente invasiva: hay que abrir el cráneo e introducir los electrodos. El caso más frecuente es la epilepsia en la que se usan los electrodos para encontrar el foco epiléptico antes de extirparlo así como para asegurarse de que no se tocan áreas vitales. En estas ocasiones se usan los electrodos ya implantados para realizar experimentos conductuales.
La neuroimagen basada en electrodos es muy invasiva y es cara. Su resolución temporal y espacial son excelentes de modo que sabemos con gran exactitud lo que está ocurriendo en el área registrada.

Electroencefalograma EEG

El electroencefalograma EEG fue usado por primera vez en 1929 por Hans Berger (que también registró las ondas alfa) y es una de las técnicas más usadas de neuroimagen. Las neuronas generan electricidad. Esta electricidad traspasa el cráneo y el cuero cabelludo y puede medirse en el exterior de la cabeza. Ello se realiza colocando hasta una veintena de electrodos repartidos por la superficie de la cabeza. De esta forma medimos en todas las áreas del cerebro: frontal, temporal, parietal y occipital.
La señal que medimos es débil (microvoltios en comparación con milivoltios de la neurona) ya que el cráneo y el cuero cabelludo son buenos aislantes. Es además de poca resolución espacial: de los miles de millones de neuronas sólo registramos las que están debajo del electrodo y cada uno de estos registra miles de neuronas. Pero tiene otras ventajas. Es barato y poco invasivo. En la actualidad se utiliza un casco de goma que se pone sobre la cabeza y puede usarse en casi cualquier circunstancia. Tiene además una excelente resolución temporal, es decir, mide en milisegundos.
Son características las ondas que genera y que reflejan el estado de consciencia del individuo:
  • delta (lentas) de menos de 4 Hz
  • theta de 4-8 Hz
  • alpha de 8 a 12 Hz
  • beta de aproximadamente 14-30 Hz
  • gamma de 30-80 Hz
Tiene múltiples aplicaciones diagnósticas: epilepsia, coma, muerte cerebral, tumores… También es muy usado en investigación es también muy usado. Comienza a usarse como interfaz cerebro computador BCI en personas impedidas.
Es de gran importancia el aparato matemático usado para analizar las ondas EEG y comprender lo que muestran los datos.

Ejemplos del uso de electrodos

El implante coclear para sordos, la implantación de retinas artificiales para ciegos o la implantación de miembros prostéticos como brazos y piernas en amputados abre un mundo de esperanza para personas impedidas.
La neurona de Marilyn Monroe
En este estudio, se implantaron electrodos en el cerebro de los pacientes, se cerró el orificio y se registró el comportamiento de las neuronas durante varios días antes de proceder a la operación de extirpar el foco epiléptico.
Se sabe que neuronas individuales responden a ciertas vistas: algunas responden a caras felices, otras a caras tristes, unas a casas y otras a personas. También hay algunas que responden a caras concretas.
Se preguntó a los pacientes quienes eran algunos de sus famosos favoritos. Después se les presentaron estos en la pantalla del ordenador y se registró la actividad de los electrodos implantados. En la primera parte del vídeo se observa cómo la neurona de Marilyn Monroe se dispara repetidamente (cada bip sonoro corresponde a un potencial de acción) cuando se presenta su imagen. En la segunda parte, el sujeto piensa en Marilyn Monroe o Josh Brolin y, controlando el ordenador, consigue que este presente la imagen en la que piensa. Esto supone un avance más en la interfaz cerebro máquina BCI.
El homúnculo de Penfield
Wilder Penfield creó su famoso homúnculo en los años 40 y 50. Aplicaba una pequeña corriente eléctrica a pacientes que iban a ser operados de epilepsia para saber el grupo de neuronas a extirpar. Preguntando a los pacientes que sentían realizó un detallado mapa de la corteza cerebral. El más conocido es su homúnculo sensoriomotor.


Ejemplos de uso de electroencefalograma EEG

La Universidad de Zaragoza tiene un grupo líder mundial en tecnología de Interfaz Cerebro Máquina (BCI) a través de la medición del registro del electroencefalograma (EEG). Han desarrollado una silla de ruedas que se mueve controlada por EEG. El objetivo es que puedan usarla pacientes paralizados que no pueden siquiera hablar o mover los ojos.


Artículo publicado originalmente en ALT1040