Mostrando entradas con la etiqueta Medios de comunicación. Mostrar todas las entradas
Mostrando entradas con la etiqueta Medios de comunicación. Mostrar todas las entradas

lunes, 19 de marzo de 2018

Mañanas de RNE - Robots: ¿El futuro es suyo?

Las mañanas de RNE - Robots: ¿El futuro es suyo? ¿Hasta dónde llegarán?

19 mar 2018


Los robots están cada día más presentes en nuestras vidas. Ayudan a los cirujanos en los quirófanos, a los bomberos a extinguir incendios o a los científicos con cálculos imposibles pero también nos sustituyen en ciertos puestos de trabajo. Todo esto sumado a la imagen que da de ellos el cine ha provocado temores y recelos en la sociedad. ¿Son ciertos esos miedos a la robótico? ¿Nos dirigimos a un futuro en el que nos dominarán las máquinas? Las mañanas de RNE ha analizado en profundidad este sector con Elena García Armada, ingeniera e investigadora del CSIC; Antonio Orbe, psicólogo y experto en Inteligencia Artificial, y Miguel Ángel Salichs, catedrático de Robótica de la Universidad Carlos III.



lunes, 7 de julio de 2014

Debate en Radio3 Fallo de sistema: Desmontando a Kurzweil 02

El pasado domingo 6 de julio el programa Fallo de Sistema de Radio3 dirigido por Santiago Bustamante emitió un debate sobre las predicciones de Raymond Kurzweil.
También hablamos sobre la supuesta superación del Test de Turing por el chatbot Eugene Gotsman.
El debate fue muy interesante y contó con la presencia de Juan Lerma (Neurociencia y Biología), Martí Sánchez Fibla (Neurociencia y Robótica) y Santiago Sánchez-Migallón (autor del excelente blog La Máquina de Von Neumann)
Ya está disponible el podcast.

Fallo de Sistema - Episodio 141: Desmontando a Kurzweil 02 - 06/07/14

06 jul 2014

Se cumplían 65 años de su formulación y 60 desde la muerte del matemático que le dio nombre: Alan Turing. Se ha superado el Test de Turing, es decir, por primera vez en la historia de la inteligencia artificial una máquina ha confundido a un 33% de jueces humanos haciéndoles creer que hablaban con un adolescente de 13 años de nombre Eugene Gotsman. ¿Cómo se ha superado el Test de Turing? ¿Qué significa haberlo hecho? ¿Estamos ante la primera generación de inteligencia artificial de comportamiento humano convincente? Y si no es así ¿habría que reformular el Test para exigir más de lo que se ha hecho en esta prueba? Podrás escuchar la "conversación" de Eugene con un juez humano que no estuvo en la prueba y al que Eugene no le pareció humano. ¿Por qué? ¿significa eso que la propia predicción de Kurzweil diciendo que el Test se superaría en 2029 sigue siendo vigente? Sometemos este hecho histórico convocando un segundo "gabinete de crisis de la singularidad" al hilo de nuevo de las ideas del futurista, inventor, ingeniero, agitador de conciencias, Raymond Kurzweil y lo hacemos nuevamente de manera multidisciplinar con: Juan Lerma (Neurociencia y Biología), Martí Sánchez Fibla (Neurociencia y Robótica), Antonio de Orbe (Inteligencia Artificial) y Santiago Sánchez (Filosofía).

lunes, 28 de abril de 2014

Debate en Radio3 Fallo de sistema: Desmontando a Kurzweil 01

El pasado domingo 27 de abril el programa Fallo de Sistema de Radio3 dirigido por Santiago Bustamante emitió un debate sobre las predicciones de Raymond Kurzweil
Ya está disponible el podcast.


"El inicio del siglo XXI marca el comienzo del periodo más interesante y transformador que la humanidad haya conocido: la liberación del ser humano de sus cadenas biológicas y la consagración de la inteligencia como el fenómeno más importante de nuestro universo. A medida que esta transformación se vaya convirtiendo en realidad, nuestra especie también se enfrentará a nuevos retos jamás antes planteados: un increíble aumento de la inteligencia no biológica, la inmortalidad y un proceso científico sin precedentes". Futurista, inventor, director de la ingeniería de Google, apóstol de la singularidad, de la inmortalidad, el transhumanismo y posthumanismo, Raymond Kurzweil lleva décadas desafiando con sus ideas a lo que conocíamos hasta ahora asentando un nuevo punto de evolución sin retorno: la fusión del hombre con la tecnología, de nuestra memoria con una artificial y de la consiguiente superación de nuestros límites biológicos. Por todo ello, y con la publicación de dos libros recientes (La Singularidad está cerca y Cómo crear una menteLolaBooks), vamos a intentar desmontar-analizar las teorías de Kurzweil en una serie de programas especiales que comienzan hoy y que incorporan varias disciplinas para ayudarnos a su comprensión: Miguel Maravall, del Instituto de Neurociencias de AlicanteMarti Sanchez-Fibla investigador en temas de robótica y neurociencia del grupo SPECS de la Universidad Pompeu Fabra Antonio de Orbe, autor del libro Cerebro y Ordenador ¿mundos convergentes? son nuestros elegidos hoy en este "gabinete de crisis sobre la singularidad" convocado por Fallo de Sistema. Un asunto que completamos desde los otros mundos con Inma Leragui un recorrido a través del manga de ciencia ficción para ayudarnos a comprender mejor conceptos como la felicidad y la conciencia y que también son muy importantes en el nuevo escenario de la singularidad…










martes, 4 de febrero de 2014

Entrevista en el programa Fallo de Sistema de Radio3 sobre Cerebro y ordenador. Disponible el podcast

El pasado domingo 2 de febrero el programa Fallo de Sistema de Radio3 dirigido por Santiago Bustamante emitió una entrevista conmigo sobre el libro Cerebro y ordenador.
Ya está disponible el podcast.




viernes, 31 de enero de 2014

Entrevista en el programa Fallo de Sistema de Radio3 sobre Cerebro y ordenador el domingo 2-02-14 a las 12:00

El próximo domingo 2 de febrero a las 12:00 el programa Fallo de Sistema de Radio3 dirigido por Santiago Bustamante emitirá una entrevista conmigo sobre el libro Cerebro y ordenador.

lunes, 13 de enero de 2014

Entrevista sobre "Cerebro y Ordenador" en el programa Candil Insólito (Candil Radio). Disponible el podcast

El Domingo 12 de Enero, a las 21:00 horas se emitió la entrevista sobre mi libro "Cerebro y Ordenador" en el programa Candil Insólito (Candil Radio).
Resultó muy entretenido y os animo a escucharla.
Ya está disponible el podcast. Podéis escucharlo en la siguiente dirección:
http://www.ivoox.com/candil-insolito-3x19-cerebro-ordenador-audios-mp3_rf_2707099_1.html


miércoles, 8 de enero de 2014

Entrevista sobre "Cerebro y Ordenador" en el programa Candil Insólito (Candil Radio)

El próximo Domingo 12 de Enero, a las 21:00 horas: entrevista sobre mi libro "Cerebro y Ordenador" en el programa Candil Insólito (Candil Radio).

Adjunto la convocatoria. Os espero.

¿Qué es el cerebro? ¿Cómo funciona? ¿Qué es un ordenador? ¿Cómo funciona? ¿Son parecidos? La comparación es inevitable. ¿En qué se parecen y en qué se diferencian cerebro y ordenador? ¿Hasta qué punto se complementan? ¿Convergirán algún día estos dos prodigios?

El próximo Domingo 12 de Enero, a las 21:00 horas: "Cerebro y Ordenador" con Antonio Orbe Mendiola

Para escucharnos en directo, aquí: http://s6.viastreaming.net/7100/
Para comentar con nosotros en directo, aquí: https://www.facebook.com/groups/candilinsolito/
Después de la emisión, el podcast.


martes, 17 de septiembre de 2013

Entrevista en Radio3 Fallo de sistema. Buscando la inmortalidad

Participo en Fallo de sistema, el programa de Radio3, rtve, que ha emitido su programa nº 100. Se titula Buscando la inmortalidad. Trata sobre el proyecto 2045 del billonario ruso Dmitry Itskov.

Está conducido por Santiago Bustamante e intervengo junto con Juan Lerma (Director del Instituto de Neurociencias de Alicante CSIC-UMH y presidente de la Sociedad Española de Neurociencias) y el periodista Jorge Blaschke

En el programa hablamos de la inmortalidad, la conciencia, la inteligencia artificial, los robots y varios otros temas.

Si te apetece escucharlo, abajo tienes dos postcast. El primero recoge el programa emitido. El segundo, titulado ¿Un cerebro en una cubeta? es la discusión posterior.


viernes, 13 de septiembre de 2013

Mi participación en el programa de Radio3 Fallo de sistema el domingo 15-09-13 a las 12

El próximo domingo día 15 a las 12 de la mañana se emitirá en Radio3 Fallo de sistema, programa en el que participo con Juan Lerma (Director del Instituto de Neurociencias de Alicante CSIC-UMH y presidente de la Sociedad Española de Neurociencias) y el periodista Jorge Blaschke. Hablamos de inmortalidad y otros temas en el programa de Santiago Bustamante "Preparados para el cambio"

viernes, 23 de noviembre de 2012

Watson, el ordenador que quería ser el mejor de la clase

El servicio de información y noticias científicas SINC ha publicado un reportaje llamado Watson, el ordenador que quería ser el mejor de la clase, de la periodista Ana Hernando en el que soy mencionado varias veces.

Watson es un ordenador que promete cambiar esencialmente la computación futura. En lugar de tener ordenadores que necesitan ser programados, Watson propone un nuevo paradigma en el que los ordenadores serán entrenados.



Adjunto el artículo completo.


Los científicos de IBM trabajan en sistemas que abrirán la era cognitiva de la computación. El primer ejemplo de esta nueva etapa es su ordenador Watson, que entiende el lenguaje natural y es capaz aprender. Watson bucea en gigantescas cantidades de información no estructurada, genera hipótesis y busca evidencias para dar con la mejor respuesta. No se ha quedado como proyecto de laboratorio ni de exhibición televisiva y ya se está aplicando para mejorar el diagnostico en oncología y en el sector financiero.

Ana Hernando | 23 noviembre 2012 09:17

IBM cumplió el pasado año su primer siglo de vida. La tecnología le debe muchos de sus avances, desde las tarjetas perforadas de comienzos del siglo XX al primer ordenador personal, pasando por el código de barras e incluso las bandas magnéticas de las tarjetas de crédito. Ahora, este gigante ha puesto a sus científicos a trabajar en lo que llama la ‘computación cognitiva’, “una tercera era en la informática con máquinas que pueden aprender, emulando algunas de las funciones del cerebro humano”, explica a SINC Mark Ritter, director de la división de analítica y proceso de IBM Research y experto en sistemas cognitivos.

“Primero las máquinas podían contar, luego eran programadas y en esta nueva era podrán aprender y ayudarnos a descubrir cosas nuevas”, añade Ritter.

Según este experto, uno de los primeros ejemplos de esta nueva tecnología es Watson, un potente ordenador creado por IBM –llamado así en honor a Thomas John Watson, fundador de la  multinacional–, que el pasado año batió a los dos mejores jugadores de un concurso televisivo muy famoso en EE UU llamado Jeopardy.

No es la primera vez que una máquina de IBM reta a los humanos. En 1997 su ordenador Deep Blue derrotó al campeón de ajedrez Gary Kasparov, pero aquel desafío se basó en la lógica precisa y matemática del ajedrez. En cambio, en Jeopardy, Watson “venció respondiendo correctamente, en segundos, a preguntas formuladas en lenguaje coloquial en las que se utilizaba el doble sentido, la ambigüedad, la ironía y los juegos de palabras, algo no alcanzado hasta el momento por ninguna máquina”, subraya Ritter .

Cientos de algoritmos compitiendo

Watson, un ordenador con 2.880 núcleos de procesador y 15 terabytes de de RAM, opera a 80 teraflops (80 billones de operaciones por segundo) y está basado en la arquitectura multiprocesador POWER7 de IBM. Pero, según Antonio Orbe, experto en sistemas cognitivos de IBM España, “lo más novedoso de este ordenador es su software, con cientos de algoritmos que compiten entre sí para encontrar la mejor respuesta”.

Muchos de los sistemas actuales de pregunta y respuesta se basan tan solo en un puñado de algoritmos y, por ello, no funcionan bien. “Es imposible simular la habilidad humana para analizar lenguaje e información con único programa”, añade Orbe.

Pero Watson usa más de 100 algoritmos al mismo tiempo para analizar una pregunta de diferentes formas, generando cientos de posibles soluciones. Otro conjunto de instrucciones hace un ranking de esas respuestas, según su verosimilitud. Por ejemplo, si un buen número de algoritmos, trabajando en diferentes direcciones, llega a la misma respuesta, es más probable que sea la correcta, explica.

“En esencia –añade Orbe– Watson trabaja con probabilidades. No produce solo una respuesta correcta si no un enorme número de posibilidades y luego las clasifica, valorando cuál de ellas es la mejor, de una forma similar a como lo hace la mente humana”. El sistema también es capaz de aprender de sus errores y averigua que para determinado tipo de preguntas unos algoritmos funcionan mejor que otros.

Todo este proceso lo realiza Watson con una gran velocidad. “Este ordenador es capaz de de analizar inmensas cantidades de datos no estructurados de una forma excepcionalmente rápida. En el prototipo que venció en Jeopardy, analizó un millón de libros, el equivalente a 200 millones de páginas en tres segundos”, subraya el experto español.

Además, el sistema, dice Antonio Orbe, “es capaz de analizar, entender y hallar correlaciones de los datos de una manera muy novedosa”.

Los científicos de la multinacional están ahora trabajando para que Watson en el futuro pueda establecer un dialogo interactivo, desarrollar perfiles de las evidencias encontradas, revelando el origen de sus respuestas y establecer un aprendizaje constante basado en su propia experiencia.

Información no estructurada

Así como el sistema Deep Blue no trajo consigo aplicaciones posteriores en el ámbito empresarial, IBM ya ha puesto a Watson a trabajar y se está usando, por ejemplo, en investigación y mejora del diagnóstico en oncología, en colaboración con Memorial Sloan Kettering Cancer Center de Nueva York. Y en el mundo de las finanzas, tras un acuerdo con Citigroup. Tanto la medicina como las finanzas manejan cantidades masivas de datos y comparten una necesidad imperiosa de gestionar la información rápidamente.

Watson está recibiendo ya entrenamiento y engulle toda la información relevante de estos ámbitos. “Es muy importante reiterar que Watson, contrariamente a los sistemas convencionales, es capaz de trabajar con información no estructurada, como una conversación, un artículo científico o datos procedentes de internet y de redes sociales, subraya Orbe.

Según Mark Ritter, el volumen de información mundial está creciendo a una velocidad inusitada. El 90% de la información que usamos en la actualidad se ha generado en los últimos dos años y casi 90% de estos datos no están estructurados, es decir, que no se encuentran en bases de datos y, por lo tanto, no son accesibles para los sistemas convencionales, aunque sí lo serían para los ordenadores Watson. “No hace falta decir lo valiosa que es toda esa información para el mundo empresarial”, añade.

Por su parte, Antonio Orbe subraya que en los próximos años se verá una eclosión de aplicaciones de Watson en múltiples áreas.

Colaboración con universidades

En este sentido, la firma está colaborando con cocho universidades en Estados Unidos para la búsqueda aplicaciones de Watson en los negocios del transporte, las telecomunicaciones, la energía, la distribución y el sector público.   

Asimismo, IBM ha creado un equipo de software y servicios en su sede de Bangalore (India) para crear nuevos algoritmos que permitan aplicar Watson a nuevos sectores.

Ritter señala que Watson supone solo el inicio de la era cognitiva en la computación. “Son solo los primeros pasos”. Todavía se basa en la arquitectura Von Neumann, que es la que ha regido la informática durante los últimos 40 años.

IBM ya está diseñando componentes para una futura arquitectura que rompe totalmente con el actual paradigma y que combina la nanociencia, la neurociencia y la supercomputación.

lunes, 2 de abril de 2012

Fallo de Sistema, Radio3 de RTVE reemite Singularidad en el horizonte

Fallo de Sistema, el programa conducido por Santiago Bustamente, reemite el programa en el que me entrevistó llamado Singularidad en el horizonte.

Fue una estupenda oportunidad ser entrevistado para RTVE, Radio 3. En la entrevista hablamos de Singularidad, tecnología BCI, test de Turing, proyecto Blue Brain y otros asuntos.

Si te lo perdiste, la reemisión será este domingo día 8 de abril a las 16 horas en Radio 3.


domingo, 4 de marzo de 2012

Mi charla sobre Watson en el CEIN

El martes 28 de febrero, impartí una charla acerca del ordenador Watson de IBM en la Navarra Factori de CEIN.

Este es el resumen de la charla según Carlos Urtasun

Asistió Leontxo García. Según se presenta en su twitter: Conferenciante, presentador, comentarista y periodista especializado en ajedrez. Colaborador de El País y Radio Nacional desde 1985. Viajero insaciable..

Leontxo ha hecho un resumen en el programa conducido por Pepa Fernández No es un día cualquiera de RNE. La parte de Watson comienza en el minuto 6:40




jueves, 22 de septiembre de 2011

La ejecución de Troy Davis y los testigos.

Hoy ha sido ejecutado Troy Davis. No voy a entrar en el debate sobre la pena de muerte porque no hay tal debate. Es un homicidio. Quiero escribir sobre los testigos.
Las noticias hablan de que sorprendentemente siete de los nueve testigos han cambiado su testimonio. ¿Es fiable lo que dicen los testigos?
Según The New York Times:
Los errores graves en el caso de Davis han sido numerosos y surgieron muchos de la identificación por testigos. La policía de Savannah contaminó los recuerdos de cuatro testigos reconstruyendo el crimen con ellos presentes de modo que sus opiniones se dirigieran a una persona del grupo. La policía mostró a algunos de los testigos fotografías del señor Davis incluso antes de la ronda de identificación. Su imagen en la ronda de identificación tenía un fondo diferente. La ronda de identificación fue realizada por un oficial de policía que participó en la investigación, aumentando la posibilidad de influir en los testigos.
Estudios sobre la fiabilidad de los recuerdos.
En un conocido estudio, Loftus y su colega Jacqueline Pickrell dieron a los sujetos experimentales informes por escrito de cuatro acontecimientos, tres de los cuales habían experimentado realmente. La cuarta historia era ficción: trataba del sujeto experimental perdido en una gran superficie cuando él o ella tenía entre cuatro y seis años de edad. Un familiar proporcionaba detalles realistas de la falsa historia, tales como la descripción del centro comercial en la que los padres del sujeto compraban. Después de leer cada historia, a los sujetos se les pidió que escribieran qué más recordaban del incidente, o si no lo recordaban en absoluto. Sorprendentemente alrededor de un tercio de los sujetos dijeron que recordaban parcial o totalmente el acontecimiento falso. En dos entrevistas de seguimiento, el 25 por ciento afirmó que aún se acordaban de la historia falsa.
En otro experimento los sujetos observan a otros individuos realizando acciones simples. Con el tiempo, los sujetos no sabían si habían realizado los acciones ellos mismos o las habían visto realizar. De hecho, nos cuesta distinguir si hemos realizado la acción, la hemos imaginado o hemos visto a otro realizarla.

Según José Conde, abogado, en España la opinión de los testigos no es tan importante, como escribe en un comentario a la entrada "Neurociencia, leyes y tribunales. El detector de mentiras" de este blog:
El artículo parte de una premisa que, en puridad, es mas que discutible desde un punto de vista judicial forense: que el testimonio es esencial a la hora de juzgar.
Lo cierto es que -al menos en nuestro ámbito de derecho español, o incluso europeo- el testimonio de testigos o de las propias partes interesadas en el juicio es bastante accesorio, es decir complementario de otras pruebas más "científicas" (se ha acuñado incluso el concepto de policía científica) y nunca elemento fundamental del fallo o veredicto.

El debate sobre el valor del testimonio es muy vivo en EEUU. El tribunal supremo de New Jersey está revisando el modo de tratar el testimonio en los juicios y otros estados están siguiendo el mismo camino. Los tribunales están escuchando a la ciencia.
Los jurados tienden a dar más peso al testimonio de testigos que dicen que están muy seguros de su identificación, aunque la mayoría de los estudios indican que los testigos muy seguros en general, sólo son un poco más precisos y, a veces no más que los que tienen menos seguridad.
La memoria es poco fiable y las evidencias de ello son muchas..
En un 75% de los casos en los que las pruebas de ADN han cambiado un veredicto, existió una identificación incorrecta por parte de los testigos.
Estos llamados recuerdos falsos pueden ser implantados intencionalmente o accidentalmente por deficientes métodos de interrogatorio. "La mala información tiene el potencial para invadir nuestra memoria cuando hablamos con otras personas, cuando somos interrogados sugestivamente o cuando leemos o vemos en los medios de comunicación algún evento sobre el que podamos tener nosotros mismos alguna experiencia"
En una identificación por un testigo influye muchos factores.
  • Durante cuanto tiempo vio el testigo el suceso
  • Cuánto tiempo después del crimen, se le pidió al testigo que identificara a un sospechoso
  • Distancia entre los sospechosos,
  • El testigo realizó una identificación desde la parte trasera de un coche de policía a cientos de metros de distancia del sospechoso en un estacionamiento con poca luz en medio de la noche.
  • Los testigos han cambiado sustancialmente la descripción de un autor (incluyendo información clave, tales como altura, peso y presencia de barba) después de que supieran más acerca de un sospechoso concreto.
  • Testigos que sólo se realizan una identificación después de las múltiples fotos o rondas de identificación - y luego hacen identificaciones vacilantes (diciendo que "pensaban" que la persona "podría ser" el autor, por ejemplo), pero que en el juicio se dice al jurado que el testigo no había dudado en la identificación de los sospechosos.
  • Estrés extremo testigo en la escena del crimen o durante el proceso de identificación.
  • Presencia de armas en el delito (ya que pueden intensificar el estrés y distraer a los testigos).
  • El uso de un disfraz por el autor como una máscara o una peluca.
  • Una disparidad racial entre el testigo y el sospechoso.
  • Falta de características distintivas de los sospechosos, como los tatuajes o altura extrema.
Lamenteblemente, para Troy Davis ya nada importa.

    miércoles, 27 de julio de 2011

    Entrevista en Radio 3 a Sinapsis. Fallo de sistema - Singularidad en el horizonte -


    He sido entrevistado en el programa de Radio 3 Fallo de Sistema, en el capítulo llamado Singularidad en el horizonte.
    Adjunto el podcast

          

    Os recomiendo el programa entero. Tras la presentación inicial, mi  participación transcurre entre los minutos 07:10-17:10 y 35:10-43:10.
    En el programa hablamos del Test de Turing, el proyecto Blue Brain, la tecnología BCI, el Conectoma, el reconocimiento de voz, la ciencia ficción y la Singularidad que da título al programa.
    Además  de mi entrevista, Santiago Bustamente habla del videojuego Portal 2 y  por último, en la Nave Sónica de se hace "un recorrido por todas  aquellas películas en las que la máquina  termina rebelándose a guantazo  limpio contra sus creadores".

    domingo, 13 de marzo de 2011

    Por qué ganó Watson. Velocidad y metacognición


    Stephen Baker ha escrito un libro renombrado sobre el encuentro: Final Jeopardy: Man vs. Machine and the Quest to Know Everything. Como es de esperar las preguntas más interesantes se formulan en torno al cerebro humano, no acerca de las máquinas. Cuando nos preguntamos si piensa Watson, nos preguntamos si eso que hace Watson y que conocemos se parece a lo que nosotros hacemos, que no conocemos y que llamamos pensar.
    Al fin y al cabo nosotros hemos construido las máquinas y las entendemos (o siempre podemos llamar a alguien que las entienda). Pero el cerebro sigue albergando enormes misterios. Una de las equivocaciones recurrentes a la hora de comparar los ordenadores y los hombres, tanto se trate de Deep Blue ganando al ajedrez a Gary Kasparov como de Watson ganando en Jeopardy es afirmar que los ordenadores se comportan de forma distinta que los cerebros o por decirlo de otra forma, que no imitan a los cerebros: los programas de ajedrez no imitan el comportamiento humano, Watson no se comporta como los humanos. Esto es solo parcialmente cierto. Desde luego no siguen la misma secuencia de pasos que los humanos. Pero los ordenadores solo hacen cosas que los humanos sabemos hacer. Los programadores escriben rutinas que ellos entienden y piden a los ordenadores que las lleven a cabo. La diferencia estriba en la velocidad con la que ejecutan las rutinas. No hay nada que haga un ordenador que un hombre no pueda hacer con papel y lápiz ( aunque necesite para ello siglos y kilómetros de papel ).

    En un excelente artículo (como todos los suyos) Mind Hacks se plantea algunas novedades de Watson. Entre los muchos algoritmos que incorpora el artículo se refiere a dos. Uno de ellos es constraint satisfaction o satisfacción de requisitos por el que el sistema encuentra la solución que mejor se ajusta a los requisitos de un problema que no tiene solución matemática exacta. Este es en efecto una de las novedades del sistema ya que se plantean múltiples hipótesis y se elige la mejor, considerando que ninguna es buena al 100%. El otro se denomina local search e indica cuando considerar la búsqueda suficiente y detenerla debido a  que siempre sería posible seguir hurgando en los datos. Estas estrategias que emplea Watson ¿son humanas? Evidentemente sí, responden a aproximaciones que usamos con regularidad.

    Un aspecto muy interesante es la metacognición. No solo sabemos cosas. Sabemos que sabemos. Tenemos la sensación de saberlo. Sé que conozco la respuesta antes de dar con ella. Lo tengo en la punta de la lengua (expresión que al parecer es muy similar en muchos idiomas). Sé que si sigo buscando voy a dar con la respuesta. Quizá deba empezar con la A y seguir el alfabeto hasta encontrar el nombre de la persona a la que acabo de saludar. O seguir otras estrategias de recuperación de la información. Pero con una alta probabilidad si creo que lo sé es que lo sé.
    Pulsador accionado de forma mecánica por Watson
    Watson carece de metacognición (aunque no sería difícil programar estadísticamente algo semejante, no sería metacognición). Hasta que no encuentra la respuesta no sabe que lo sabe. Y en el programa Jeopardy la confianza es fundamental ya que las respuesta erróneas puntúan negativamente.

    ¿Por qué ganó Watson? Uno de los dos concursantes rivales de Watson, Brad Ruter (el que había ganado más dinero en la historia del concurso) lo explica en Why I Lost to Watson. Los tres concursantes conocen la mayoría de las respuestas, pero Watson es el más rápido con el pulsador. La secuencia en Jeopardy es como sigue:
    1. Se presenta la pregunta visualmente a los participantes.
    2. El presentador lee la pregunta en alto.
    3. Se activa el pulsador. (Si un jugador pulsa antes de tiempo su pulsador se desactiva unos instantes)
    En cuanto se presenta la pregunta y mientras el presentador está leyéndola (lo que le lleva unos tres segundos) Watson está procesando datos. Cuando se activa el pulsador, Watson usa entre 4 y 10 milisegundos en apretar el pulsador. Un tiempo imposible de batir para los humanos, aunque sepan la respuesta o tengan metacognición y sepan que lo saben. Watson perdió las preguntas de la categoría "Actores que dirigen". El motivo es que el presentador necesita poco más de 1 segundo en leer el título de la película, Watson no sabe que lo sabe y necesita 3 segundos para encontrar la respuesta, pero antes de ello los humanos se han adelantado.

    lunes, 14 de febrero de 2011

    ¿Cómo funciona Watson de IBM?


    Un equipo de 20 investigadores de IBM lleva 3 años construyendo a Watson, el ordenador que se enfrenta con éxito a humanos en el juego de televisión Jeopardy. ¿Cómo funciona Watson?
    Watson está compuesto por un centenar de algoritmos. No se espera que ninguno resuelva por sí solo el problema. La pregunta se analiza y se buscan múltiples respuestas candidatas que generan hipótesis. Estas hipótesis se confrontan con las evidencias disponibles y se les asigna una puntuación de confianza. Se establece una clasificación y la mejor situada es la respuesta elegida. Cada uno de los algoritmos merece una publicación separada.
    Hace unos tres años, la división de investigación de IBM, IBM Research estaba buscando un desafío de investigación para competir con el interés científico y popular que supuso Deep Blue cuando  hace 14 años derrotó al ajedrez al campeón mundial Gary Kasparov. Era una ocasión magnífica para celebrar el 100 aniversario con un logro de repercusión mundial. Una parte mayoritaria del conocimiento mundial ha sido digitalizado y se encuentra disponible en múltiple formatos: bases de datos, datos no estructurados, documentos de texto... ¿Es posible acceder a ellos mediante lenguaje natural? La respuesta de IBM ha sido la tecnología de pregunta-respuesta QA.
    Los avances en la tecnología de pregunta-respuesta (QA) pueden servir de apoyo a los profesionales en la toma oportuna de decisiones críticas en áreas como la atención de la salud, la integridad de negocios, inteligencia de negocios, el descubrimiento del conocimiento, gestión del conocimiento empresarial, seguridad y atención al cliente.
    Nuestros resultados sugieren que DeepQA es una arquitectura eficaz y extensible que se puede utilizar como base para la combinación, la implementación, evaluación y la promoción de una amplia gama de técnicas algorítmicas para avanzar rápidamente en el campo de preguntas y respuestas (QA).
    El reto de Jeopardy
    Jeopardy proporciona todos los elementos para este desafío.
    Se trata de un dominio abierto en el que caben todo tipo de preguntas.
    Es una síntesis de recuperación de información, procesamiento del lenguaje natural, la representación del conocimiento y el razonamiento, máquinas  que aprenden, y las interfaces hombre-máquina.
    Jeopardy requiere responder a preguntas en lenguaje natural rico en un dominio muy amplio de temas, con penalizaciones para las respuestas erróneas.
    Los concursantes disponen de alrededor de 3 segundos para responder cada pregunta. Hay que responder a aproximadamente el 70 por ciento de las preguntas con una precisión superior al 80 por ciento en 3 segundos o menos.
    Las categorías. 
    En Jeopardy, el nombre de la categoría puede proporcionar información que Watson debe evaluar. Aunque en ocasiones despista más que ayuda.
    Las preguntas. 
    Hay muchas formas de categorizar la pregunta: Por tema, por la dificultad, por la construcción gramatical, según el tipo de respuesta, y así sucesivamente.
    Una parte importante son las preguntas factoide: preguntas cuyas respuestas se basan en información objetiva acerca de una o varias entidades individuales contenidas en la pregunta.
    Descomposición. Algunas pistas más complejas contienen múltiples hechos. No se espera encontrar las dos sub-pistas en una sola frase en las fuentes de información.
    Rompecabezas. Aunque los rompecabezas constituyen sólo alrededor de 3 o 2 por ciento de todas las pistas no se puede ignorar.
    Tipos de preguntas excluidas. Por acuerdo con los patrocinadores, las preguntas visuales y auditivas están excluidas. Ambos desafíos resultan muy interesantes desde el punto de vista de AI, pero se excluyeron del alcance de este concurso y la evaluación.
    El dominio
    Para analizar la amplitud del dominio Jeopardy Challenge se usan los tipos de respuesta léxica (LAT).
    Se define una LAT como una palabra en la pista que indica el tipo de la respuesta, independientemente de la asignación de la semántica de esa palabra. Alrededor del 12 por ciento de las pistas no indican un tipo de respuesta explícita léxica, sino que se refieren a la respuesta con los pronombres como "él", "estos", o "esto". La distribución de LAT tiene una cola muy larga, como se muestra en la figura. Se han encontrado 2.500 LAT distintas y explícitas.
    Frecuencia de las LAT
    La Métrica
    Además de la precisión de preguntas y respuestas, la victoria dependerá de la velocidad, la estimación de la confianza, la selección de la pista, y la estrategia de apuestas.
    El obejtivo es medir la exactitud, la confianza, y la velocidad. Para ello se usó la precisión y el tanto por ciento respondido. El umbral controla el equilibrio entre la precisión y el porcentaje de respuestas. La exactitud se refiere a la precisión si todas las preguntas son respondidas.
    El desafío:
    Rendimiento de los campeones humanos
    Rendimiento en Jeopardy. Los puntos corresponden a humanos registrados en más de 2.000 juegos. Los puntos oscuros son el resultado de Ken Jennings, el mejor jugador de la historia. Las líneas indican el rendimiento de las distintas versiones de Watson
    Se basa en el análisis histórico de casi 2000 encuentros de Jeopardy.
    El centro de la llamada "Nube de Ganadores" (el conjunto de puntos grises en la gráfica) revela que los campeones de Jeopardy son seguros y lo suficientemente rápidos para adquirir (apretar el pulsador buzz), en promedio entre el 40 y 50 por ciento de todas las preguntas a sus competidores y para tener una precisión de entre el 85 por ciento y 95. Los puntos más oscuros en la gráfica representan los juegos de Ken Jennings. Ken Jennings tuvo una racha ganadora sin igual en el año 2004, en los que ganó 74 partidas seguidas.
    Línea de base de rendimiento
    IBM usó como referencia antes de empezar con Watson dos programas llamados Practical Intelligent Question Answering Technology (PIQUANT) y OpenEphyra. Ambos obtenían buenas puntuaciones en entornos de manejo de textos Text Retrieval Conference (TREC).
    Se tardararon unas 4 semanas en adaptarlos al entorno de Jeopardy. Resultó evidente que la precisión y la estimación de la confianza estaban muy por debajo de los requisitos del Desafío Jeopardy con apenas un 15% de exactitud. Lo que si demostraron es que varias técnicas eran posibles: análisis sintáctico profundo pero también búsquedas superficiales, bases de datos estructuradas y no estructuradas.
    El enfoque DeepQA

    martes, 18 de enero de 2011

    Watson, el superordenador de IBM más listo del mundo gana los encuentros previos de Jeopardy

    Watson, el superordenador de IBM más listo del mundo ha ganado los encuentros de entrenamiento de Jeopardy. Ya están disponibles algunos vídeos de las rondas de entrenamiento.
    Avatar de Watson
    Cuando comenzó su andadura hace ya 4 años, el comportamiento de Watson era desesperante para sus creadores. Tras enormes esfuerzos, Watson está a punto de competir con previsible éxito en Jeopardy (concurso televisivo americano semejante a Pasapalabra). Ken Jennings y Brad Rutter, los dos mejores concursantes de la historia de Jeopardy serán sus rivales durante tres días, el 14, 15 y 16 de febrero de 2011.
    Watson, llamado así por el fundador de IBM Thomas J. Watson, fue construido por un equipo de científicos de IBM que se propuso lograr un gran reto - construir un sistema de cálculo que rivalizara con los humanos en capacidad para responder a preguntas formuladas en lenguaje natural con velocidad, precisión y confianza. El formato Jeopardy! proporciona un desafío definitivo, porque las pistas del juego implican analizar sutilezas, ironía, adivinanzas y otras complejidades en las que sobresalen los seres humanos y los ordenadores tradicionalmente no lo hacen. El premio del concurso será de 1M de dólares. Los concursantes ya han anunciado que donarán parte de sus ganancias.

    Brad Rutter, Alex Trebek y Ken Jennings
    Según se acerca el enfrentamiento que verán en directo millones de americanos, IBM ha puesto en marcha su maquinaria mediática y hay ya disponible mucha información sobre Watson. Dado que se trata de lenguaje natural y relativo a la cultura americana, el material presenta una indudable dificultad para los hablantes no nativos de inglés. En el futuro, Watson manejará también otros idiomas.
    Watson implementa cientos de algoritmos de lenguaje natural inéditos hasta la fecha. Lo hace en paralelo de modo que llega a varias respuestas distintas (en los vídeos disponibles se muestran las 3 mejores). Realiza un análisis de confianza en las mismas y solo responde cuando está razonablemente seguro de alguna de ellas (en Jeopardy las respuestas incorrectas son penalizadas).
    ¿Cuál es la novedad? ¿No es lo que hace Google? No, Google depende de nosotros al menos de dos formas. En primer lugar, necesita que formulemos las preguntas en lenguaje de ordenador, eligiendo unas pocas palabras como claves cuya relación es intrascendente. Así, el perro negro de la casa no se distingue de la casa negra del perro, el perro de la casa negra o la casa del perro negro. En segundo lugar, Google nos lanza una lista de resultados entre los que nosotros debemos elegir.
    Pero Watson hace esto a un coste: una gigantesca capacidad de proceso y almacenamiento. En concreto:
    • 10 racks servidores POWER7 750
    • ejecutando el sistema operativo Linux
    • con 15 terabytes de RAM y 2,880 nucleos (cores) de procesador
    • hasta 80 teraflops (80.000.000.000.000 operaciones por segundo)
    ¿De qué forma interacciona Watson con los humanos?
    Watson: 10 racks de servidores POWER7
    Esta es quizá una pequeña desilusión. No usa reconocimiento de voz. "No puede ver ni oír" por lo recibe la información como texto electrónico, en el mismo instante en que la pregunta incide en las retinas de los otros concursantes. Aunque los concursantes a veces aprietan el pulsador antes de conocer la respuesta correcta (porque creen que la conocen y así tienen algún segundo extra), Watson debe esperar a estar seguro. Entonces, un dedo mecánico aprieta el pulsador (exactamente el mismo tipo que usan los concursantes humanos). Cuando el presentador le cede el turno, Watson convierte su respuesta de texto a voz sintetizada y habla.
    "Cuando lo habitual es avanzar centímetros en Inteligencia Artificial, nosotros hemos avanzado kilómetros" dicen John Kelly III, ejecutivo de IBM y Dave Ferrucci, creador de la criatura. Los siguientes pasos: "El mundo de la medicina, o Doctor Watson si prefieren". Watson puede consultar todos los textos médicos del mundo en segundos.
    Después... buscar interacciones potenciales entre medicamentos, antecedentes judiciales de un caso, conformidad con la legislación en el mundo financiero, call centers...

    Recursos:
    Facebook
    Twitter
    Aggregator

    viernes, 12 de noviembre de 2010

    Jornada sobre el proyecto Cajal Blue Brain

    El día 11 de Noviembre de 2010 se celebró la jornada "Circuitos corticales y cognición: el proyecto "Cajal Blue Brain"" en el aula Gregorio Marañón del Ilustre Colegio Oficial de Médicos de Madrid. La calidad de los ponentes, el marco en el que se celebró, el renombre del proyecto y el contenido de los temas tratados convirtieron la jornada en un acto de sumo interés.
    El aula tiene el sabor de los tiempos en los que los estudiantes ocupaban los pasillos del piso superior para observar las operaciones realizadas por sus profesores. Entre otros, impartió allí sus clases Santiago Ramón y Cajal. La jornada fue intensa y daré solo un apunte aproximado de los temas tratados y recogidos por mi memoria.
    Carlos Pelta de la UCM (Universidad Complutense de Madrid) fue el atento organizador que aunó esfuerzos y voluntades para que el acto pudiera desarrollarse y al que todo el mundo quedó agradecido.
    Gonzalo León Serrano, Vicerrector de Investigación de la UPM (Universidad Politécnica de Madrid), explicó los desafíos de una investigación de este tipo. Las universidades están acostumbradas a proyectos a corto plazo con escasa cooperación. El Proyecto Cajal Blue Brain cambia por completo el paradigma. Supone una enorme inversión de 25M€, el trabajo interdisciplinar de muchas especialidades distintas y la coordinación con otras instituciones, notablemente la EPLF (Ecole Polytechnique Fédérale de Lausanne). Explicó el Vicerrector cómo convenció al Ministerio, como uso similares argumentos para convencer a la UE y el particular mecanismo de financiación que ha permitido que el proyecto se lleve a cabo.
    Manuel Martín-Loeches (UCM-ISCIII), autor del libro La mente del 'Homo Sapiens', planteó con acierto la investigación actual basándose en la idea de la importancia de las conexiones. La diferencia esencial entre el hombre y otras especies no está sola ni principalmente en el tamaño del cerebro sino en el mayor número de conexiones y en las áreas que estas enlazan. Dos son las líneas de investigación que se siguen: la microscópica cuyo mayor exponente es el proyecto "Blue Brain" y la macroscópica encabezada por el proyecto "Human Connectome"
    Javier DeFelipe, uno de los investigadores españoles de más renombre internacional comenzó por exponer el legado de Cajal que da nombre de pila al proyecto "Cajal Blue Brain". Explicó el detalle de las espinas dendríticas, la dificultad de su observación con el microscopio, mostró con orgullo imágenes de su nuevo microscopio Zeiss (herramienta esencial que le sirve al igual que a Cajal para desarrollar su investigación) y nos enseñó la imagen de un cubo tridimensional perteneciente a una microcolumna neocortical con sus neuronas, axones, dendritas y sinapsis.
    José María Peña nos contó qué hace un ingeniero informático en biomedicina. Explicó que las áreas de colaboración son 3: proporcionar equipamiento, analizar y modelizar los datos y realizar simulaciones. Detalló el funcionamiento del microscopio y el programa Espina desarrollado para interpretar sus datos (en esencia, el microscopio toma una fotografía y después corta la superficie, toma otra fotografía y corta... y va pasando estas fotos a programa que reconstruye una imagen 3D). Como anécdota recordó que el éxito de un proyecto interdisciplinar consiste en poder tomarte un café con el informático o el neurocientífico y comentar los temas en contraposición a edificios o ciudades separadas y conferencias mensuales que dificultan enormemente la compartición de ideas.
    Después de un vino y visita a las instalaciones, Fernando Maestú (CTB y UCM) habló de su trabajo puntero en magnetoencefalografía. Aparte de otras muchas aplicaciones, en la actualidad trabajan en la detección precoz del Alzheimer. En resumen, las conexiones empeoran, el cerebro se esfuerza más para suplir el defecto y la magnetoencefalografía puede captarlo antes de que aparezcan los primeros síntomas cognitivos claros.
    Tuvimos finalmente un sabroso debate en el que se plantearon nuevos senderos y que da una medida la buena salud que muestra el estudio computacional del cerebro.