Mostrando entradas con la etiqueta Computación. Mostrar todas las entradas
Mostrando entradas con la etiqueta Computación. Mostrar todas las entradas

lunes, 22 de junio de 2015

Cognition as a Service

El Cloud o computación en la nube es el nuevo modelo de relación entre proveedores y clientes. El pago por uso es preferido sobre la compra con una frecuencia creciente. Los servicios en la nube de infraestructura, plataforma y software han entrado con fuerza en la informática empresarial. En la cúspide está Watson, la cognición como servicio.

Pago por uso

Un bien muy costoso solo puede ser compartido. Es el caso de los aviones en el que solo los millonarios pueden poseer uno mientras que el resto pagamos por usarlo. Siguiendo con el transporte, el automóvil es una opción mixta: muchas personas poseen un automóvil, pero otras prefieren el transporte público como bus o metro, el uso de un automóvil público como el taxi o el alquiler puntual de un automóvil. Cada opción tiene sus ventajas e inconvenientes. Rara vez la posesión es ventajosa económicamente: el coste de amortizar un coche equivale a tomar centenares de taxis. El vehículo de alquiler no necesita ni mantenimiento ni atención y puedo usarlo en cualquier ciudad a la que viaje.
En la informática de consumo está comenzando a suceder lo mismo. El terminal es propiedad del usuario, sea éste un PC o un smartphone. Determinados productos como la música o las películas están pasando al pago por uso. Las ventajas son evidentes. Escucho la canción que quiero cuando quiero sin necesidad de comprarla, bajarla, almacenarla, ordenarla, hacer copias de seguridad y demás.
Un último ejemplo es el almacenamiento en la nube. Es lo más cercano al cloud entre los consumidores. En lugar de (o además de) tener un disco duro en el que almaceno mis contenidos, tengo un almacenamiento en la nube donde los alojo. De nuevo, esto tiene muchas ventajas: no me ocupo del mantenimiento, mis contenidos están disponibles desde cualquier ubicación y puedo sincronizarlos entre todos mis dispositivos, ya se trate de un PC, una tableta, un smartphone o el acceso por la web desde un terminal que no es de mi propiedad.
Cognición como servicio
Servicios en la nube

Servicios en la nube, Iaas, Paas y Saas

La informática empresarial es mucho más compleja que la de usuario. Cualquier organización pequeña tiene varios servidores, nodos de red y servidores de almacenamiento. Una empresa media tiene decenas de ellos. Y empresas algo mayores tienen centenares de equipos. En determinados casos llegan a miles. Su adquisición es muy costosa. El mantenimiento es caro y muy complejo. La renovación de los equipos es difícil. El personal dedicado es grande. La compatibilidad entre los equipos y el SW ha de ser permanentemente evaluada. El espacio físico necesario para alojar los equipos es grande, así como el consumo eléctrico y la obligatoria refrigeración. La virtualización de los equipos es pequeña y por lo tanto su aprovechamiento es deficiente.
Todo lo anterior ha llevado a que las organizaciones se vuelvan hacia el nuevo modelo de gestión de los recursos de computación que promete la informática en la nube: el cloud. La idea es proporcionar todos estos recursos como un servicio, as a Service, aaS. El proveedor se ocupa de la gestión de los activos y el cliente contrata un determinado nivel de servicio mediante un contrato de pago por uso. Dependiendo del nivel de los recursos proporcionados estaremos hablando de Infraestructura como Servicio, IaaS, Plataforma como Servicio, PaaS, o Software como Servicio, SaaS.
En Iaas, el proveedor proporciona hardware hasta la capa de virtualización, lo que incluye la red, el almacenamiento, los servidores y la virtualización. Sobre ello, el cliente instala los sistemas operativos que quiere, la gestión de usuarios, aplicaciones…
PaaS incluye los sistemas operativos, el middleware y el entorno de ejecución. En este modelo, el proveedor proporciona todo lo necesario de modo que el cliente se dedica solo a desarrollar y gestionar sus aplicaciones de negocio.
SaaS es un modelo en el que toda la informática está gestionada por el proveedor y el cliente solo se dedica a gestionar su empresa y sus procesos de negocio.

Cognición como servicio

IaaS, PaaS o SaaS son algunos de los modelos actuales, pero otros están naciendo cada día.
¿Y si lo que un proveedor nos ofrece es más aún que todo eso? ¿Y si pone a nuestra disposición nada menos que la cognición? No será la cognición humana pero sí algo que nos ayude en nuestro propio pensamiento diario. Es lo que podemos llamar Cognition as a Service, CaaS.
Una aplicación de tu smarphone te recuerda que es el cumpleaños de Pedro y cuáles son sus aficiones. Hablas con tu teléfono y mantienes un diálogo sobre tus vacaciones: te recomienda lugares de destino según las fechas del viaje. Tus gafas reconocen a María y te recuerdan un pasaje de vuestras vidas en común que no deberías olvidar en ese momento. El catálogo de aplicaciones que usen la Cognición como Servicio es inacabable.
Desde luego la cognición cibernética es hoy un bien muy caro. Muy pocos pueden poseer superordenadores que mantengan un dialogo casi humano. Por ello el pago por uso es imprescindible.
Todo será más inteligente, los teléfonos, los coches, las gafas o las casas. Pero en realidad ninguno de ellos tiene por qué serlo. Todos contratarán la Cognición como Servicio. El caso más notable es IBM Watson. Ya no es un superordenador. Es un servicio en la nube. Mediante el programa Watson Ecosystem, los desarrolladores pertenecientes a empresas de cualquier tamaño pueden, a través de APIs, incluir las capacidades cognitivas de Watson en su aplicación usando Watson Developer Cloud.
El pago por uso ha llevado al mundo de la computación a usar los servicios en la nube, el Cloud. Hoy existen distintas modalidades de Cloud. Un servicio que está llegando, es claramente disruptivo y va a facilitarnos la vida consiste en poner la inteligencia al alcance de nuestras manos. Es el mundo de la flamante Cognición como Servicio.
Artículo publicado originalmente en el blog La construcción de un planeta más inteligente

domingo, 28 de abril de 2013

Jose María Peña de la UPM: «el ingeniero aplica ingenio a los problemas»


  • El objetivo de una universidad es proveer de talento e ideas y proporcionar soluciones
  • Se han creado centros de investigación conjuntos, de carácter multidisciplinar
  • Como ingeniero, la biología o la medicina son escenarios muy curiosos
La Universidad Politécnica de Madrid UPM es una de las más universidades prestigiosas en el ámbito hispano. Además de los estudios de ingeniería que son de esperar, la UPM dispone de varios centros de investigación. En el Campus de Montegancedo se encuentran el CESVIMA, o el Centro de Tecnología Biomédica (CTB). La UPM cuenta además con centros dedicados al automóvil, a la microgravedad, a la acústica, al láser o incluso la moda.



José María Peña trabaja en el centro de Montegancedo. Es Profesor Titular de la Facultad de Informática y subdirector del CESVIMA. En su trabajo está inmerso en proyectos como MAGERIT, uno de los dos superordenadores más grandes de España, los proyectos Blue Brain y Alzheimer 3pi o el flamante buque insignia europeo, el Human Brain Project.

ALT1040 — La UPM ya no solo se dedica a proyectos clásicos. ¿Hay que buscar ideas en la sociedad?

José María Peña — Somos tradicionalmente una universidad de ingenierías, algunas de ellas como la Escuela de Agrónomos creadas hace más de un centenar de años. Hace más de 40 años se integraron muchas de esas escuelas independientes bajo el paraguas de una única universidad, la primera de las politécnicas del país. Durante décadas este enfoque ha dado lugar a profesionales, docentes e investigadores punteros en estas áreas, pero el mundo cambia y cada vez los perfiles profesionales y sobre todo los grupos de trabajo son más multidisciplinares, es por ello que la universidad se ha ido adaptando. A lo largo de los últimos años se han creado centros de investigación conjuntos, de carácter multidisciplinar, en los cuales se está desarrollando una muy intensa y novedosa actividad.

Es cierto que la sociedad demanda ese cambio. En esencia el objetivo de una universidad es proveer de talento e ideas a un país con la meta de proporcionar soluciones a sus ciudadanos. Los problemas que se plantean en la actualidad deben ser la motivación en la formación e investigación en las universidades. En ese sentido, ese origen ingenieril de la UPM nos da una perspectiva muy práctica a la hora de plantear nuestra actividad. Aunque la situación actual de España es muy complicada la investigación y la educación es fundamental para salir adelante. Es más, la inversión en investigación ha demostrado ser siempre una de las más rentables, proporciona empleo altamente cualificado y aporta un enorme valor añadido al país, además a los españoles no nos falta capacidad en esos aspectos, es más una cuestión de visión y organización.

ALT1040 — MAGERIT es un superordenador de IBM de 4000 núcleos Power7 y 72 teraflops. Pero no solo la potencia importa. ¿Cómo se logra un sistema balanceado? ¿Y la estructura de SW?

José María Peña — Un aspecto fundamental de un sistema de cómputo de este tipo es su facilidad de uso. Hay sistemas diseñados para sumar potencia en bruto o para salir bien en las pruebas de rendimiento, pero que después son difíciles de programar y aprovechar. Cuando se diseñó MAGERIT se tuvo muy en mente que la instalación del CESVIMA debía dar soporte a usuarios muy diversos y a tipologías de trabajos muy diferentes entre sí.

Sobre la pila de Software que usa, el sistema operativo es un Linux, lo cual garantiza entornos de desarrollo muy compatibles con lo que muchos investigadores y empresas tienen como equipos de escritorio o servidores. Por encima hay un set de bibliotecas y utilidades muy variadas, entre ellas mucho software numérico, de simulación y de modelado.

ALT1040 — ¿Qué tipo de trabajos se ejecutan en MAGERIT? ¿Echa humo? ¿Está accesible a cualquiera?

José María Peña — Es un sistema con una carga media altísima, superando el 80% promedio durante todo el año, lo cual es muy excepcional para sistemas compartidos de este estilo. Hay que contar que el sistema tiene paradas programadas (para actuaciones de gestión o actualización del sistema), además es un sistema que permite reserva de recursos, de forma que si se va a planificar trabajos grandes (que requieren del orden de 1000 cores), es necesario ir liberando esos recursos paulatinamente según terminan unos trabajos hasta disponer de todos los recursos necesarios. En un supercomputador, la asignación de recursos (como CPU) a trabajos es de forma exclusiva, de forma que se garantiza que un trabajo de cómputo dispone de toda la CPU asignada para realizar su tarea.

Sobre los tipos de trabajos, hay gente muy diversa utilizándolo (dentro y fuera de la propia universidad, así como en otros países). Los trabajos van desde física de altas energías, pasando por astrofísica, aerodinámica, materiales, dinámica de fluidos, simulación biológica o logística. Además de eso, hay un porcentaje de tiempo que se dedica a actividades docentes y de formación. Además de eso hay otros servicios como el almacenamiento y la virtualización que usan MAGERIT como plataforma.

En principio, hay varios mecanismos de acceso a los recursos de MAGERIT, uno de ellos es por medio de la RES (Red Española de Supercomputación) que abre una serie de periodos al año para presentación de propuestas a las que se dota de recursos de cómputo. Otra vía es por medio de proyectos de colaboración con el propio centro. Esa alternativa es la que más nos interesa, puesto que permite desarrollar líneas de investigación e intercambiar el know-how entre nuestra gente y colaboradores externos.

Habitualmente esta alternativa viene acompañada de la búsqueda de financiación interna o de terceros para apoyar la colaboración. Tenemos también casos en los cuales se establece una subcontratación para usar nuestros recursos y nada más. Asimismo, los investigadores de la UPM o de otros centros con los que tenemos acuerdos de colaboración pueden solicitar horas de cómputo de forma limitada pero gratuita, para llevar a cabo pruebas de concepto o para el desarrollo de tesis doctorales.

A — El CESVIMA (Centro de Supercomputación y Visualización de Madrid ) además de MAGERIT tiene una cueva de visualización avanzada. ¿En qué consiste?

JMP — El CESVIMA se creó hace ya unos años como un centro de servicios e investigación de la propia universidad para dar soporte a varias líneas de investigación que usaban la supercomputación como herramienta de trabajo así como para el desarrollo de tecnología en ese ámbito.

Están vinculados con el centro investigadores de la UPM y de algunas otras universidades en áreas muy diferente. Hay una actividad muy intensa en temas de visualización y en los campos de análisis y simulación.

A nivel de campos de aplicación el sector bio/salud es de los que más ha crecido y es ya equiparable al de las ingenierías clásicas (industrial, aeronáutica y de construcción).

A — Desde el principio trabajasteis en el proyecto Blue Brain. Incluso creasteis el Proyecto Cajal Blue Brain. Ahora sois socios principales de colosal Human Brain Project. En qué consiste el HBP y la participación de la UPM?

JMP — La UPM se embarcó en el proyecto Blue Brain desde su comienzo, partiendo de una estrecha relación en el campo de visualización de simulaciones neuronales. Al poco se sumó el trabajo de otro investigador muy relacionado con la actividad del proyecto (Javier de Felipe, del CSIC). En conjunto se puso la primera piedra de la participación española en el proyecto Blue Brain, bajo el nombre de Cajal Blue Brain. El Ministerio apoyó esta iniciativa y nos dotó de unos primeros recursos para integrar ambos grupos de trabajo en la UPM y sacar adelante esta colaboración. Fruto de este trabajo nos posicionamos especialmente bien a la hora del diseño del proyecto Human Brain Project (HBP). Es un buen ejemplo del retorno que se consigue invirtiendo en investigación.

El proyecto Blue Brain planteaba el reto de diseñar tecnología para poder simular la actividad del cerebro, desde la interacción neuronal hasta los aspectos fisiológicos más avanzados. El HBP continúa esa línea planteando su uso en la modelización de diferentes patologías, y la simulación de tratamientos en un ordenador, además del desarrollo de nueva tecnología de (de cómputo, robótica y de interacción) inspirada en el funcionamiento del cerebro.

La UPM participa en muy diferentes facetas, desde los aspectos de recogida de información experimental (neuroanatomía del cerebro a partir de microscopía óptica y electrónica o información de actividad del cerebro recogida por medio de equipos de magnetoencefalografía), hasta la gestión y análisis de los datos generados (neuroinformática) y aspectos de visualización en exaescala (que lleva Vicente Martín, el director del CESVIMA). También hay una importante actividad en los modelos de robótica neuroinspirada.

Esta participación se articula entre dos centros de investigación (el CESVIMA, por un lado y el Centro de Tecnología Biomédica – CTB, por otro), así como el grupo de trabajo de Ricardo Sanz en la Escuela de Ingenieros Industriales.

A — También trabajáis en el proyecto Alzheimer 3pi. ¿De qué se trata?

JMP — La iniciativa Alzheimer 3pi se lanzó como aplicación práctica de la tecnología, la investigación y los recursos aglutinados bajo el proyecto Cajal Blue Brain, enfocados hacia la enfermedad de Alzheimer. En ese enfoque se plantean retos claves como es comprender la patología de la enfermedad y su evolución, la diagnosis precoz y la evaluación de tratamientos.

A — Las matemáticas o la física, claves en las ingenierías parecen sencillas de delimitar. ¿Cómo son los modelos biológicos o de la mente? ¿Es posible que un biólogo y un ingeniero se entiendan?

JMP — Hay un gran salto entre el estudio de escenarios ideales, como es el caso de las matemáticas o de aquellos en los cuales la comprensión del ser humano lleva siglos trabajando con toda una larga historia de logros a sus espaldas. En cuanto te enfrentas a campos de aplicación como la biología o la medicina, el salto cualitativo es enorme. Como ingeniero además son escenarios muy curiosos. Nosotros, por formación, al realizar lo que se denominan procesos de ingeniería inversa analizamos la maquinaria generada por otro ingeniero para descubrir su funcionamiento. Al enfrentarte a una “maquinaria biológica” te encuentras con que los patrones de diseño de dichos sistemas son muy diferentes y toda una nueva serie de herramientas se tienen que articular para ello. Creo que la interacción entre expertos en el campo de las ciencias de la salud (biología o medicina) y aquellos que venimos de la rama ingenieril es un filón excepcional donde realizar una serie de avances increíbles (hay mucho que aprender por ambas partes), además de eso, es cierto que el vocabulario y la forma de “hacer ciencia” es muy diferente, pero en eso reside el encanto.

A — En Montegancedo, además del superodenador MAGERIT, existe más equipamiento sofisticado. Como el magnetoencefalografo que lleva Fernando Maestú o varios microscopios de primer nivel en el equipo de Javier de Felipe. ¿Cómo son y para que se usan?

JMP — En realidad el equipamiento existente en el campus, en este caso en el CTB, es algo muy excepcional. Estamos hablando de dos instalaciones únicas. El sistema de magnetoencefalografía (MEG) que coordina Fernando Maestú es uno de los dos existentes en todo el país y de los pocos que hay en Europa hasta la fecha. Por medio de este sistema es posible registrar los campos magnéticos inducidos por las microcorrientes eléctricas producidas por la actividad conjunta de haces de neuronas en determinadas áreas del cerebro. Es un equipamiento de una gran precisión y con una resolución espacial y temporal envidiable. Por medio de estos sistemas es posible registrar la actividad del cerebro de un sujeto en la realización de determinadas pruebas cognitivas, motoras o en estado de reposo. Aun se trata de una tecnología muy experimental, pero estoy seguro de su gran valor en diagnóstico clínico en el futuro. Es un tipo de prueba muy flexible, nada invasiva y cuyos costes de uso son muy razonables, en conjunto es más asumible para un sistema sanitario que alternativas como la resonancia magnética (MRI) o la tomografía por emisión de positrones (PET), que al fin y al cabo implican irradiar al paciente.

Por otro lado, el equipamiento del laboratorio de Javier de Felipe, incluye varios microscopios ópticos de gran potencia, pero quizás el elemento más reseñable sea un microscopio electrónico de doble haz (FIB/SEM), que permite obtener imágenes en una escala mucho más detallada que la microscopía óptica convencional (pudiendo verse estructuras internas de la célula) y además recuperar series de imágenes de todo un volumen de tejido. Este tipo de técnicas permite reconstruir en 3D elementos como son las sinapsis entre neuronas incluyendo los terminales correspondientes a dendrita (espina dendrítica) y axón (botón sináptico). La exploración de la estructura microanatómica del cerebro es de vital importancia en la comprensión de su funcionamiento y herramientas de este tipo son de gran ayuda para poder reconstruir en detalle cómo el cerebro está organizado.

En ambos casos, en los registros de MEG y en las imágenes de microscopía, el volumen y complejidad de la información generada es enorme. Es por ello, que se hace necesaria la utilización de computación de altas prestaciones, así como de enfoques de procesamiento y análisis muy sofisticados. Ese es el papel del CESVIMA en este triángulo.

A — Fruto de la colaboración de ingenieros y neurocientíficos y usando el súper microscopio, habéis desarrollado ESPINA. ¿En qué consiste?

JMP — Sí, esta es una de las primeras y más representativas aportaciones de la colaboración conjunta en el proyecto Cajal Blue Brain. Se trata de una herramienta, o mejor dicho un conjunto de ellas en un entorno integrado, que permite el procesamiento automático o asistido de imágenes de microscopía. ESPINA sigue evolucionando, pero es una de las herramientas que de forma diaria usan los neurocientíficos del grupo.

A — Coordinación. En un proyecto como el HBP debe ser el obstáculo fundamental. Incluso en proyectos de menor escala supone un gran reto. ¿Cómo se logra?

JMP — Va a ser un desafío importante, el proyecto tiene una magnitud tal que la organización centralizada típica es sencillamente inabordable. La estructura en subproyectos coordinados entre sí y la vertebración en base a grupos de trabajo de diferentes disciplinas tiene que ser la pieza central. Si se parte de una buena descripción de los objetivos e hitos a alcanzar el siguiente paso consiste en ir formando esos grupos que vayan haciéndose cargo de los requisitos diseñados de partida. Más que un proyecto se trata de un programa completo, con muchas líneas de actuación y con la necesidad de un bien engrasado flujo de comunicación.

A — Te he oído decir que a veces has resuelto un problema que no existía, y al contrario podrías resolver sencillamente lo que para otros es una pesadilla. ¿Saber escuchar es clave?

JMP — Es cierto, antaño, cuando trabajábamos en bioinformática, solíamos centrarnos en problemas “ingenierilmente” interesantes, es decir que cumpliesen las expectativas de complejidad que los hacían atractivos para nosotros, pero una vez resueltos te dabas cuenta que a los expertos del campo ese problema no les interesaba, sencillamente no tenía su lugar en la perspectiva general del trabajo de ese campo. Se convertía en un ejercicio teórico de reducido interés práctico.
Por el contrario, sí hay muchos problemas técnicos en estos dominios que se han resuelto con éxito en otros campos de aplicación y que encontrar la adaptación de uno a otro no es revolucionario desde una perspectiva técnica pero sí extremadamente útil para estos campos.

A — La creatividad parece reservada a los artistas y los ingenieros son cuadriculados. ¿Es esto así? ¿Necesita un ingeniero ser ingenioso?

JMP — El propio término lo dice, ingeniero es aquel que aplica el ingenio en la resolución de problemas. Somos en esencia disciplinas prácticas con un sentido muy pragmático de la aplicación de nuestras aportaciones. Esa es quizás la principal diferencia con algunas otras disciplinas, pero la creatividad es algo intrínseco a nuestro trabajo. Quizás no sea una creatividad artística o estética (en un cierto sentido de ese término), pero creativo, imaginativo e ingenioso seguro.

En cualquier caso, es mucho más habitual encontrar ingenieros que desarrollan esa creatividad o al menos la apreciación de la creatividad artística, más que artistas que aprecien o entiendan la labor ingenieril. Creo que estamos encasillados en esa visión que otros tienen de nosotros. En cualquier caso esos son moldes que deben romperse. Precisamente, de forma muy reciente hemos lanzado un proyecto que coordinamos en el campo de la creatividad en el que participamos con Disney y en el que contamos con par de colaboradores que tiene un Oscar de la Academia, así que no todo son ecuaciones diferenciales.

A — ¿En qué otras actividades está metida la UPM distintas de la ingeniería clásica?

JMP — Somos una universidad muy grande y enormemente activa, enumerar las actividades de la misma es injusto porque seguro que me dejo en el tintero muchas cosas y personas importantes. Como universidad la UPM es la que tiene un volumen de investigación mayor y con mucha relación con el tejido industrial dentro y fuera de España. Fuera de las actividades más intuitivamente vinculadas con las ingenierías, hay mucha actividad en el sector salud o aplicado a otras ciencias experimentales.

domingo, 2 de diciembre de 2012

IBM simula 500 mil millones de neuronas y 100 billones de sinapsis

En una simulación neuronal sin precedentes, IBM ha logrado simular 500 mil millones de neuronas y 100 billones de sinapsis. Para ello ha utilizado Sequoia, el segundo superordenador más grande del mundo con millón y medio de núcleos. Esto es una proeza computacional, pero tiene poco que ver con la neurociencia. Veamos por qué.



El departamento de Cognitive Computing de IBM en Almaden dirigido por Dharmendra S. Modha lleva unos años realizando asombrosas simulaciones en el contexto del proyecto DARPA SyNAPSE. Como parte de este proyecto, anunció la simulación a la escala del córtex de un ratón, luego de una rata y más tarde de un gato.

El objetivo de este programa es crear un chip neurosináptico que supone una ruptura con la arquitectura tradicional de los ordenadores. Esta arquitectura es la llamada Von Neumann que usan la totalidad de los ordenadores en la actualidad, incluidos móviles y tarjetas. En la arquitectura Von Neumann la memoria está separada del procesador, el hardware del software y los programas están separados de los datos. Ha sido muy exitosa mientras se cumplía la miniaturización de componentes expresada en la ley de Moore: cada dos años se duplica el número de transistores en un espacio dado. El problema es que estamos llegando a los límites del átomo y que la ley dejará de cumplirse.

El chip neurosináptico es una ruptura total con la arquitectura Von Neumann. Se basa en el diseño de las neuronas en las queno hay distinción entre hw y sw, programas y datos, memoria y procesador. El chip consiste en una matriz de neuronas y entre sus cruces se realizan las sinapsis. De este modo, cada sinapsis del chip es hw y sw, proceso y memoria, programa y datos. Dado que todo está distribuido, no es necesaria un miniaturización tan extrema y sobre todo, un reloj tan rápido. Frente a los actuales gigahercios de frecuencia, las neuronas se disparan a un hercio, y en el caso del chip a 8 hercios. Además, los procesadores son clock driven, es decir, actúan bajo la batuta del reloj mientras que las neuronas son event driven, actúan solo si hay actividad que realizar.

Uno de los objetivos es reducir el consumo eléctrico. Un cerebro consume lo que una bombilla pequeña, 20 vatios. Un superordenador consume cientos de megavatios. El nuevo chip tiene un consumo muy reducido. Estos chips están construidos con tecnología de silicio clásica CMOS.

La arquitectura de muchos chips neurosinápticos unidos se ha llamado TrueNorth. Ya existe en desarrollo un chip de 256 neuronas, 1024 axones, y 256×1024 sinapsis.

El chip sin embargo no está en producción masiva. Para seguir trabajando en paralelo al desarrollo, se ha realizado la prueba actual. Para ello se ha usado un simulador llamado Compass. Compass traduce el comportamiento de un chip neurosináptico (no Von Neumann) a un ordenador clásico (Von Neumann). Usando Compass se ha simulado (pdf) el comportamiento de 2.000.000.000 chips. Esto supone 500 mil millones de neuronas y 100 billones de sinapsis, cifras por completo astronómicas. El resultado de la simulación se ha ejecutado 1.542 veces más lento que en tiempo real.

Para realizar la simulación se ha usado el segundo superordenador más grande del mundo, Sequoia un Blue Gene/Q de 96 armarios con 1 millón y medio de núcleos y 1,5 petabytes de memoria. Uno de los objetivos de la simulación es ver el escalado. Un problema habitual es que que cuando añadimos más cores, el sistema no funciona proporcionalmente más rápido. En el extremo, añadir más cores no aumenta el rendimiento: el sistema escala mal. Imagina un camarero atendiendo detrás de la barra. Si hay un segundo camarero, irán más rápido, pero no el doble. Si sigues añadiendo camareros, llegará un momento en que no aumente la eficiencia, incluso se verá reducida. El sistema escala mal. Pues bien, en la simulación realizada el escalado ha sido casi perfecto lo que es muy satisfactorio computacionalmente.

¿Qué tiene esto que ver con la neurociencia y el cerebro? Bien poco. La simulación no imita ningún comportamiento animal ni cognitivo ni humano. Para simular el comportamiento del cerebro, necesitamos saber cómo funciona y eso está lejos de lograrse. Para cuando llegue ese conocimiento debemos tener preparados ordenadores que sean capaces de simularlo y en este contexto se enmarca la presente investigación. Aunque no solo; la idea de diseñar estos nuevos chips es ponerlos en producción en aplicaciones comerciales tradicionales dando una gran potencia con un bajo consumo. La simulación del cerebro deberá esperar aún alguna década.

Artículo publicado originalmente en ALT1040

domingo, 25 de marzo de 2012

La Singularidad NO está cerca. Paull Allen (cofundador de Microsoft)

En un interesante artículo, Paull Allen, (cofundador de Microsoft y creador del Allen Institute for Brain Science entre cuyos proyectos está el Allen Brain Atlas) pone en duda las afirmaciones de Ray Kurzweil.
Kurzweil es el abanderado de la Singularidad. No es un visionario, sus predicciones se basan en datos estadísticos, es un reconocido científico, muchas de sus predicciones se han cumplido y hay que tener en cuenta lo que dice. Otra cosa es estar de acuerdo con él. Es autor de La Singularidad está cerca y la Ley de los rendimientos acelerados. En este ensayo postula lo siguiente:
Un análisis de la historia de la tecnología muestra que el cambio tecnológico es exponencial, al contrario de la visión 'lineal intuitiva' del sentido común. Así que no experimentaremos cien años de progreso en el siglo XXI, sino que serán más como 20.000 años de progreso (al ritmo de hoy). Los 'rendimientos', tales como la velocidad de los chips y la relación coste-efectividad, también se incrementarán exponencialmente. En el plazo de unas pocas décadas, la inteligencia de las máquinas sobrepasará la inteligencia humana, llevándonos a la singularidad (cambios tecnológicos tan rápidos y profundos que representen una ruptura en la estructura de la historia humana). Las consecuencias incluyen el surgimiento de inteligencia biológica y no biológica, software inmortal basado en humanos y niveles de inteligencia ultra-elevados que se expandirán hacia el universo a la velocidad de la luz.
Esta ley se basa en la ley de Moore que predice que en 18 meses se duplica el número de transistores en un espacio dado (un chip). Sin embargo, la ley de Moore y la de los rendimientos acelerados son leyes empíricas. O dicho de otra forma, no son leyes y solo predicen el pasado. Funcionan hasta que dejan de hacerlo.
Paul Allen, con el mismo derecho, postula otra ley: El freno de la complejidad. Según esta,
A medida que avanzamos más y más en nuestra comprensión de los sistemas naturales, por lo general encontramos que requieren conocimientos más especializados para entenderlos, y nos vemos obligados a ampliar continuamente nuestras teorías científicas de una manera cada vez más compleja.
Paul Allen se opone a que la singularidad vaya a llegar pronto.
Aunque suponemos que este tipo de singularidad algún día ocurrirá, no creemos que este cerca. De hecho, creemos que será en una fecha muy lejana.
Un cerebro adulto es una cosa finita, por lo que su funcionamiento básico en última instancia, puede ser desvelado a través del esfuerzo humano. Pero si la singularidad llega en 2045, será debido a avances impredecibles, y no porque sea el resultado inevitable de un progreso exponencial producido por la ley de rendimientos acelerados.
Para que la singularidad aparezca en 2045 no solo se necesita un hardware más potente en el que se ejecute el actual software más rápido. Es necesario crear un sw mucho más inteligente lo que requiere un conocimiento de los fundamentos de la cognición humana de cuya cuya complejidad solo ahora comenzamos a ser conscientes. Ni el desarrollo de sw ni el avance de la neurociencia se rigen por la ley de Moore.
Para que la singularidad ocurra en algún momento cerca de lo predicho por Kurzweil, será absolutamente necesario una aceleración masiva de nuestros avances científicos en la comprensión de todas las facetas del cerebro humano.
La complejidad del cerebro es simplemente impresionante. Cada estructura ha sido modelada con precisión durante millones de años de evolución para hacer algo en particular, sea lo que sea. No es como un ordenador, con miles de millones de transistores idénticos en las matrices de memoria regulares que son controlados por una CPU con unos pocos elementos diferentes. En el cerebro cada estructura individual y circuito neural ha sido refinado por separado por la evolución y el medio ambiente.
La investigación del cerebro obedece más bien a la ley del freno de la complejidad que a la ley de los rendimientos acelerados.
Allen Brain Atlas
Allen habla también de las promesas de la Inteligencia Artificial IA. Aunque algunos inventos son sorprendentes como Watson, en general el progreso no ha sido en absoluto exponencial.
Aunque hemos aprendido mucho acerca de cómo construir sistemas individuales de AI que hacen cosas aparentemente inteligentes, nuestros sistemas han sido siempre frágiles - los  límites de su rendimiento están rígidamente establecidos por sus supuestos internos y los algoritmos de la definición, no se pueden generalizar, y con frecuencia dan respuestas absurdas fuera de sus áreas de interés específicas. Un excelente programa de ordenador que juega al ajedrez , no puede aprovechar su habilidad para jugar otros juegos. Los mejores programas de diagnóstico médico contienen conocimientos inmensamente detallados del cuerpo humano, pero no pueden deducir que un trapecista tenga un gran sentido del equilibrio.
 Al igual que en la neurociencia, el camino basado en la inteligencia artificial IA, para lograr la singularidad a nivel de la inteligencia computacional, parece requerir muchos más descubrimientos, algunas nuevas teorías con calidad de Premio Nobel y probablemente nuevos enfoques de investigación que son inconmensurables con lo que pensamos ahora. Este tipo de avances científicos básicos no se produce en una curva de crecimiento exponencial fiable.
Y concluye Paul Allen:
Lograr una comprensión científica completa de la cognición humana es uno de los problemas más difíciles que hay. Seguimos haciendo progresos alentadores. Pero hacia el final del siglo, en nuestra opinión, todavía nos estaremos preguntando si la singularidad está cerca.
Postdata: Ray Kurzweil ha publicado su réplica en: Don’t Underestimate the Singularity donde básicamente se reafirma en la Ley de los rendimientos acelerados contrargumentando los puntos de Allen. Merece la pena (incluidos los comentarios).
Publicado originalmente en ALT1040

domingo, 18 de marzo de 2012

Chip neuromórfico

El equipo de DARPA-SyNAPSE liderado por Dharmendra S. Modha de IBM continúa en el camino de crear un chip neuromórfico.
En una entrevista con The New York Times explica que es tan importante lo que hacer como lo que no hacer. En el desafío de "crear la ingeniería de la mente haciendo ingeniería inversa del cerebro" reconoce Modha que "no estamos tratando de replicar el cerebro. Eso es imposible. Realmente no sabemos cómo funciona el cerebro." Así es que comenzando por el principio, decidieron crear un chip que sirviera de módulo para ir escalando hacia arriba. "Primero el chip como principio organizativo nos dio un plan coherente"
El chip es una ruptura con la arquitectura Von Neumann en la que se basan los ordenadores actuales, que tiene ya medio siglo y que entre otras características separa el procesador y la memoria por un delgado canal llamado bus, un auténtico cuello de botella.
El chip neuromórfico integra computación (neuronas) con memoria (sinapsis) permitiendo una eficiente comunicación de forma paralela y guiada por eventos con un mínimo consumo (45pJ/potencial de acción). El chip es configurable en términos de parámetros de neuronas, tipos de axones y estados de las sinapsis y permite un amplio tipo de aplicaciones.
El chip contiene 256 neuronas digitales tipo integrate-and-fire neurons y una memoria SRAM de 1024x256 bit para las sinapsis usando tecnología SOI de 45nm.
En este paper (pdf) se define con más detalle el diseño del chip. "A Digital Neurosynaptic Core using Embedded Crossbar Memory with 45pJ per spike in 45nm".

martes, 25 de octubre de 2011

Los ordenadores del futuro. Tendencias.

Con los ordenadores acercándose a su frontera atómica, nuevas funcionalidades reclamando su lugar y la interfaz mente ordenador en continuo avance, las tendencias en el futuro de los ordenadores parecen orientarse a sistemas inspirados en la biología y cognición humanas.
Funcionalidad.
En la vida real los problemas no surgen con un abanico de soluciones entre las que está la respuesta. Surgen más bien porque se han quebrado las pautas existentes y se requiere una formulación completamente nueva. Los únicos sistemas capaces de formular nuevas hipótesis sobre problemas completamente nuevos son los sistemas cognitivos biológicos (cerebro).
El modelo actual de computación consiste en un programa que realiza cálculos con los datos. Es el modelo calculadora. El programa hará exactamente lo que el programador le haya escrito. El ordenador hace lo mismo que un humano con papel (mucho), lápiz (mucho) y tiempo (muchísimo).
La inteligencia artificial plantea desde hace años muchos otros sistemas que no se han puesto en marcha hasta el momento por dificultades relativas a la potencia de las máquinas, o inversión en programación.
Todo esto ha cambiado con la llegada de Watson. Watson implementa algunas de las ideas existentes de la inteligencia artificial y promueve otras nuevas. En el futuro los ordenadores deberían de ser capaces de:
  • moverse en un mundo ambiguo, como es el mundo real
  • dar por sentado que no existe la respuesta correcta, en todo caso existe la mejor respuesta
  • plantear hipótesis nuevas sobre problemas nuevos no formales- plantear preguntas (no solo respuestas)
  • aprender.
Watson plantea un modelo de aprendizaje estático (hay que darle las respuestas para que aprenda de ellas). En el futuro el aprendizaje será dinámico y autónomo. El sistema será capaz de detectar por sí solo pautas en el entorno, aprenderá de ellas y modificará sus respuestas.
Diseño. Hardware.
Von Neumann diseñó la arquitectura de ordenadores que ha estado vigente durante medio siglo. En esencia distingue datos y programas (y su confusión es la causa más común de los cuelgues de Windows) procesador y memoria, hardware y software. En los sistemas biológicos ninguna de las tres distinciones existe.
Con el HW llegando a la frontera del átomo, la ley de Moore que establece que la potencia se duplica cada dos años parece que puede llegar a su fin. Pero el objetivo no es solo hacer ordenadores más potentes. También deben de ser más pequeños y más eficientes energéticamente. El cerebro humano consume 20 vatios. El superordenador actual más grande proporciona mucha menor capacidad de cómputo y consume 10 megavatios, medio millón de veces más que el cerebro. Si llegamos a fabricar transistores de 5 nanómetros en el 2020, Watson sería aún 1.000 veces más ineficiente que el cerebro humano.
El ordenador más rápido funciona a 5GHz. Una neurona media funciona a 10Hz. 500 millones de veces más lenta.
Los ordenadores cuánticos no funcionan aún y no está claro que lleguen a funcionar nunca. ¿Qué nos queda?
Los ordenadores bioinspirados. Ordenadores donde no haya HW y SW, programas y datos, procesador y memoria. Es el objetivo del proyecto DARPA-SyNAPSE: construir redes neurales empaquetadas en un chip que funcionen como el cerebro. Memoria y procesador, programas y datos, HW y SW se encuentran en un único elemento de decisión: la sinapsis que aprende. Para conseguirlo, se utiliza un enfoque multidiscipilar que incluye supercomputación, neurociencia, nanotecnología y aprendizaje de máquinas.
Interfaz.
Con la llegada de los smartphones, la implantación de prótesis y los nuevos interfaces táctiles y basados en voz está claro que nuestra interacción con los ordenadores va a cambiar de modo radical. Pasaremos de ordenadores que podemos tocar a ordenadores que estén dentro de nosotros: dispositivos bioelectrónicos. La voz, el movimiento y el registro de parámetros biológicos serán ubicuos. La informática se hace invisible.

domingo, 23 de octubre de 2011

¿El fin de la ley de Moore?

En 1965 Gordon Moore estableció su famosa ley de Moore: el número de transistores en un chip de un tamaño dado se duplicaría cada 2 años. Moore predijo que su ley sería válida durante 10 años. Sin embargo, el continuo avance de la computación ha mantenido esta ley válida hasta hoy.
En realidad no se trata de una ley sino de una observación, más bien una descripción de un viaje con muchos pasos, suponiendo cada uno de ellos un cambio tecnológico. ¿Sigue siendo una progresión viable?
Los chips más avanzados se fabrican con transistores de 32 nanómetros (nm una milmillonésima parte de un metro). En el futuro esta previsto fabricar chips con transistores de 16 nm en 2013 y 11 nm en 2015.
Sin embargo, las fronteras físicas del átomo dificultan ir más allá. Los transistores deberían consistir en tan solo varios átomos. A este ritmo, en dos décadas tendrían un único átomo. Tan pocos átomos suponen que las fugas están fuera de control, que los aislantes no funcionan y que el transistor y el chip dejarían de ser operativos.
Varias alternativas se han propuesto entre ellas fabricarlos en 3 dimensiones (en esencia están construidos en un solo plano de 2 dimensiones).
En todo caso parece que estamos cerca de las fronteras de la física y que la ley de Moore puede mantenerse durante poco tiempo más. Un nuevo diseño de computación es necesario.

domingo, 18 de septiembre de 2011

La multitarea está limitada por los cuellos de botella del cerebro.

Un cuello de botella o embudo común parece subyacer a todas las funciones superiores del cerebro limitando así la posibilidad de multitarea.
Podemos realizar múltiples tareas a la vez. siempre que no requieran nuestra atención consciente. Son procesos que se ejecutan en paralelo. Millones de neuronas visuales procesan una imagen a un tiempo mientras que la información de nuestros músculos está actualizada online. Podemos hablar, caminar y observar el paisaje simultáneamente. Siempre que alguna de esas tareas no sea muy demandante. Si el camino está lleno de baches y piedras dejaremos de observar el paisaje y posiblemente ralentizaremos nuestro discurso. En las tareas cognitivas superiores solo podemos realizar una al tiempo. Cuando hay más, unos procesos interfieren en otros, se dilata el tiempo de respuesta y la ejecución de todas ellas empeora.
El presente estudio sugiere que hay un cuello de botella común que limita la ejecución de tareas simultánea incluso cuando estas son diferentes entre sí.
El estudio se realizó usando resonancia magnética fMRI. Se presentaron dos tipos de tareas. Una perceptual en la que los sujetos tenían que responder vocalmente a un tono, manualmente a una imagen o las dos a la vez. La respuesta empeoraba cuando tenían que realizar ambas al tiempo. El fMRI mostró que ciertas estructuras cerebrales estaban particularmente activas indicando un cuello de botella.
El segundo test, similar la primero era relativo a la selección de respuestas. Se les presentaba una o varias letras y los participantes tenían que recordarlas después de 14 segundos. Cuanto más letras peor rendimiento. Se midieron también las áreas que podían constituir un embudo.
En el tercer experimento se les pisió que realizaran tanto una tarea perceptiva como una tarea de selección de respuestas. El rendimiento fue también malo. Cuatro áreas del cerebro fueron identificadas: la ínsula bilateral, la unión interior frontal izquierda, el córtex frontal medial superior anterior y el surco intraparietal izquierdo. Este conjunto de áreas fue identificado como el embudo en el procesamiento simultáneo de dos tareas.
Así es que hacer dos cosas al tiempo disminuye el rendimiento, no solo cuando las tareas son similares, sino también cuando son distintas.

domingo, 28 de agosto de 2011

Entrevista a Dharmendra Modha en la revista Wired

Los que sigue es una entrevista realizada a Dharmendra Modha por la revista Wired. En ella habla del nuevo chip sináptico desarrollado por IBM. La traducción está googlelizada. Recomiendo el original.

Wired.com: ¿Por qué desea que los ordenadores aprendan y trabajen como los cerebros?

Dharmendra Modha: Vemos una necesidad creciente de que los ordenadores sean adaptables, de desarrollar una funcionalidad que hoy no pueden alcanzar. Los ordenadores actuales pueden realizar cálculos rápidos. Son el hemisferio izquierdo del cerebro, y son inadecuadas para el cálculo del estilo del lado derecho del cerebro como el reconocimiento del peligro, los rostros de amigos y así sucesivamente, que nuestro cerebro hace sin esfuerzo.

Una analogía que me gusta usar: Usted no conducir un coche con medio cerebro, sin embargo, hemos estado usando un solo tipo de ordenador. Es como añadir otro miembro a la familia.

Wired.com: Entonces, usted no ve SyNAPSE como un reemplazo de los ordenadores modernos?

Modha: Veo cada sistema como un complemento. Los ordenadores modernos son buenos en algunas cosas - han estado con nosotros desde ENIAC , y creo que estarán con nosotros a perpetuidad - pero no son adecuados para el aprendizaje.

Un ordenador moderno, en su forma elemental, es un bloque de memoria y un procesador separados por un bus, la vía de comunicación. Si desea crear un ordenador como el cerebro, es necesario emular a los estados de las neuronas, las sinapsis, y las interconexiones entre las neuronas en memoria, los axones. Tiene que leer los estados neuronales en la memoria, envíarlos al procesador a través del bus, actualizarlos, enviarlos de vuelta y almacenarlos en la memoria. Es un ciclo de almacenar, recuperar, actualizar, almacenar ... y así sucesivamente.

Para ofrecer un rendimiento en tiempo real y útil, tiene que ejecutar este ciclo muy, muy rápido. Y eso conduce a velocidades de reloj cada vez mayores. ENIAC funcionaba a unos 100 KHz. En 1978 fueron 4,7 MHz. Los procesadores de hoy en día son alrededor de 5 GHz. Si desea tasas más rápida y un reloj más rápido, lograrlo requiere la creación de dispositivos cada vez más pequeños.

Wired.com: Y ahí es donde nos topamos con problemas, ¿verdad?

Modha: Exactamente. Hay dos problemas fundamentales. El primero es que, muy pronto, nos enfrentaremos a límites físicos. La madre naturaleza nos va a detener. La memoria es el siguiente problema. A medida que se acorta la distancia entre los elementos de pequeño tamaño, la fuga de corriente aumenta a un ritmo exponencialmente mayor. En algún momento el sistema no es útil.

De modo que hemos dicho: vamos a retroceder unos pocos millones de años. Las neuronas funcionan alrededor de 10 Hz, en promedio. El cerebro no tiene frecuencias de reloj cada vez mayores. Es una red social de las neuronas.

Wired.com: ¿Qué quiere decir por una red social?

Modha: Los vínculos entre las neuronas son las sinapsis, y eso es lo importante: cómo está cabñeado el cerebro. ¿Quiénes son sus amigos, y a qué distancia están? Usted puede pensar en el cerebro como un sistema de computación masiva, masivamente paralelo y distribuido.

Supongamos que desea mapear este cálculo nreuronal en uno de los ordenadores de hoy. Son poco adecuados para ello e ineficientes, por lo que estamos buscando en el cerebro un enfoque diferente. Vamos a construir algo que se parezca a nivel básico, y ver si funciona. Crear un sustrato masivamente paralelo y distribuido. Y eso significa, al igual que en el cerebro, acercar la memoria al procesador.

(...)

Wired.com: En el cerebro, las conexiones neuronales son plásticas. Cambian con la experiencia. ¿Cómo puede algo cableado hacer esto?

Modha: La memoria mantiene el estado de las sinapsis y se puede adaptar en tiempo real para codificar las correlaciones, las asociaciones y de la causalidad o la anticausalidad. Hay un dicho por ahí, "las neuronas que disparan juntas, se conectan entre sí." El disparo de las neuronas puede fortalecer o debilitar las sinapsis a nivel local. Así es como el aprendizaje se ve afectado.

Wired.com: Así que supongamos que tenemos un equipo a gran escala que aprende. ¿Cómo conseguir que haga algo útil?

Modha: Esta es una plataforma de tecnología que se adapta a entornos ubicuos y cambiantes. Como el cerebro, hay casi una variedad ilimitada de aplicaciones. El cerebro puede tomar la información de la vista, tacto, oído, olfato y otros sentidos e integrarlos en modalidades. Por modalidades que quiero decir eventos como hablar, caminar, etc.

Esas modalidades, el cálculo completo, se refiere a las conexiones neuronales. Su fuerza, su ubicación, quién habla con quién. Es posible configurar algunas partes de esta red para diferentes propósitos. Hay cosas que son universales a todos los organismos con un cerebro: la presencia de un borde, texturas, colores. Incluso antes nacer se pueden reconocer. Son naturales.

Reconocer la cara de su madre, a través del aprendizaje, viene después. Imagínese una jerarquía de técnicas de programación, una red social de chips neuronales que hablan y pueden adaptarse y reconfigurarse para llevar a cabo las tareas que usted desea. Ese es nuestro objetivo.


viernes, 19 de agosto de 2011

Cognitive Computing: Neurociencia, supercomputación y nanotecnología según Dharmendra Modha de IBM

Dharmendra S. Modha es director del departamento Cognitive Computing de IBM. En un paper y un vídeo resume el estado del arte de su trabajo basado en neurociencia, supercomputación y nanotecnología. IBM acaba de presentar los primeros prototipos de un chip sináptico inspirado en la computación biológica.
Aunque poco conocido, en mi opinión su trabajo es el más prometedor en la actualidad en cuanto a la simulación y comprensión del cerebro. Un ingeniero rodeado de un formidable equipo que pretende dos cosas: comprender y simular el cerebro y desarrollar un nuevo modelo de chips que supere el modelo Von Neumann del que acaba de presentar los primeros prototipos.
El equipo esá formado por su departamento en IBM, varias universidades y la agencia estatal DARPA (U.S. Defense Advanced Research Projects Agency) que financia el proyecto Synapse (Systems of Neuromorphic Adaptive Plastic Scalable Electronics).
Históricamente dos enfoques se han usado para explorar las relaciones mente ordenador. El enfoque top-down está en la base de la Inteligencia Artificial fuerte. También en la neurociencia cognitiva. El problema es que hay múltiples posibles soluciones para resolver un problema cognitivo, una de las cuales es el cerebro. El enfoque bottom-up parte de los datos neurocientíficos para escalar hacia arriba el funcionamiento del cerebro. El enfoque de cognitive computing es hacer operacionales los enormes conocimientos que aporta la neurociencia usando simulaciones a gran escala.
 Neuroanatomía
La conectividad del cerebro es poco conocida. Es sin embargo fundamental. Se conoce la existencia de columnas corticales. Están formadas por 10.000 neuronas y responden todas ellas a un único estímulo. Están organizadas en 6 capas y son iguales en todos los mamíferos. Son, después de la neurona, la unidad básica de procesamiento. La diferencia entre un mamífero y otro (hombre y rata) es el número e interconexión de estas columnas. Estas columnas forman las áreas corticales (vista, movimiento...) y establecen entre ellas conexiones a corta y larga distancia en el cerebro.
El proyecto Conectoma se basa en la difusión del agua a través de los axones medida por MRI para averiguar las conexiones. El departamento de Modha ha refinado algoritmos para mejorar su conocimiento (BlueMatter). Pero es una técnica que, aunque prometedora y no invasiva, da falsos positivos y falsos negativos.
El proyecto CoCoMac resume los datos de cientos de experimentos realizados en el cerebro del macaco, vía a vía. Se inyecta un tinte y se sigue su trayectoria. Modha y su equipo han sistematizado todos estos datos recogidos durante décadas por neurocientíficos. El resultado es un mapa de conexiones en el que se destacan las diversas áreas y su conectividad.
Después han tratado de averiguar cuales son las áreas centrales al sistema. Para ello eliminan las áreas periféricas (que tienen pocas conexiones de entrada o salida) como si se pelaran las capas de una cebolla. Los resultados parecen indicar que el cerebro responde a criterios de restricciones físicas y es muy eficiente. El córtex prefrontal, con muchas conexiones no es físicamente central pero si es topológicamente central. En una red normal (eléctrica, de ordenadores, facebook...) tres peladas son suficientes. En el cerebro se necesitan más de veinte. peladas para encontrar el  núcleo de la red. Esto se ha realizado con datos estructurales. Se ha tratado de averiguar si este núcleo estructural es también funcional. Cuando un mono realiza una tarea positiva se activan unas redes y cuando no hace nada (tarea negativa) se activan otras distintas (Red Neuronal por Defecto DMN) Ambas redes son anticorrelacionadas. Los resultados indican que ambas redes están en el núcleo de las conexiones derivadas de los estudios CoCoMac.
Incorporar los datos del Conectoma y CoCoMac al simulador es tarea esencial de Cognitive Computing.
Neurofisiología.
La unidad básica de computación neural es la neurona (y aquí Modha hace la obligada cita a Santiago Ramón y Cajal). Elegir el nivel de simulación de la neurona es clave. Usando una analogía se puede usar un telescopio, un microscopio o unos prismáticos. Modha evita usar modelos biológicamente detallados de neuronas como NEURON o GENESIS. En su lugar usa una neurona fenomenológica: tiene entradas y salidas, implementa sinapsis, algún neurotransmisor, potenciales de acción (spikes) y plasticidad sináptica o aprendizaje según el modelo de Donald Hebb: "las neuronas que se disparan juntas, se conectan entre sí". Esto reduce enormemente los requerimientos computacionales y preserva la funcionalidad del modelo.
Simulación a gran escala
C2 es el simulador elegido. Con él han realizado simulaciones a gran escala. La mayor es del nivel del cortex del gato. Los desafíos computacionales a los que se enfrentan tales simulaciones son enormes. Cientos de miles de procesadores y terabytes de memoria para actualizar casi en tiempo real miles de millones de sinapsis y potenciales de acción.
Es muy importante resaltar que tales simulaciones no simulan ningún comportamiento real hasta la fecha. Los datos provenientes del conectoma deben actualizar el modelo.
El simulador no es una respuesta sino una herramienta en la que formular hipótesis sobre la computación neural.
En una década la potencia de los superordenadores permitirá simulaciones a escala cortical humana.
Pero con un enorme problema de espacio y consumo eléctrico. Frente a 20 vatios que consume el cerebro, se necesitarán 100.000.000 vatios.
Futuro. Chip sináptico
"Este no es el final, ni siquiera es el principio del final, pero es, quizás, el final del principio..." Winston Churchill:
La solución es desarrollar un nuevo modelos de chips que supere el paradigma actual de la arquitectura Von Neumann. Esta se compone de procesador, memoria y bus que los conecta. El bit se lee de la memoria y se lleva al procesador, allí se cambia y se mueve de vuelta para almacenarlo en memoria. Hay un único procesador y el bus es un cuello de botella. Depende del reloj y actualmente la frecuencia es de 5GHz.
La arquitectura del cerebro está dirigida a eventos y es distribuida. Los datos no se mueven y el aprendizaje es hebbiano.
La computación moderna plantea un modelo de programa almacenado, tradicionalmente implementado en circuitos frágiles, digitales, sincrónos, en serie, centralizados, rápidos, conectados por cable, de uso general, con direccionamiento explícito de memoria que impone una dicotomía entre programas y datos. En marcado contraste, el cerebro utiliza unidades de computación replicadas, las neuronas y las sinapsis, implementadas en un modo mixto analógico-digital, asíncronas, paralelas, distribuidas, lentas, reconfigurables, especializadas, con un sustrato biológico tolerante a fallos, con direccionamiento implícito de memoria donde se desdibuja la frontera entre computación y datos.
Ya hay dos prototipos de chips sinápticos. Ambos núcleos fueron fabricados en 45 nm SOI CMOS, y contienen 256 neuronas. Un núcleo contiene 262.144 sinapsis programables y el otro contiene 65.536 sinapsis de aprendizaje. El equipo de IBM ha demostrado con éxito aplicaciones sencillas como la navegación, la visión artificial, reconocimiento de patrones, memoria asociativa y la clasificación. 
El desarrollo del chip pasará por varias fases. En la fase 1 tendrá 10^6 sinapsis. Después 10^10, 10^12 y 10^14
El chip debe ser reconfigurable con plasticidad sináptica y estructural (nuevas conexiones)
Cada subárea cortical es un chip y la interconexión de varios de ellos representará el cerebro.
Conclusiones.
El impulso interdisciplinar de ingenieros y neruocientíficos en sus muchas ramas permitirá ir poco a poco desvelando los misterios del cerebro y refinando los modelos de simulación.
Dos son los objetivos últimos. Comprender el cerebro es uno. Desarrollar un nuevo modelo de computación es el otro.