domingo, 26 de febrero de 2012

La Singularidad no está cerca, según Paul Allen


En un interesante artículo, Paul Allen, (cofundador de Microsoft y creador del Allen Institute for Brain Science entre cuyos proyectos está el Allen Brain Atlas) pone en duda las afirmaciones de Ray Kurzweil sobre la Singularidad. Según Allen, la Singularidad no está cerca. Admite que la Singularidad llegará, que es posible comprender por completo el cerebro y que los nuevos sistemas de hardware y software nos deslumbran a todos. Pero sostiene que la comprensión de los sistemas naturales y muy especialmente el cerebro avanza despacio y serán necesarios nuevos enfoques que aún hoy no vislumbramos. Frente a la Ley de los rendimientos acelerados de Kurzweil, Allen propone El freno de la complejidad.

Ley de los rendimientos acelerados

Kurzweil es el abanderado de la Singularidad. No es un visionario, sus predicciones se basan en datos estadísticos, es un reconocido científico, muchas de sus predicciones se han cumplido y hay que tener en cuenta lo que dice. Otra cosa es estar de acuerdo con él. Es autor de “La Singularidad está cerca” y la “Ley de los rendimientos acelerados”. En este ensayo postula lo siguiente:
Un análisis de la historia de la tecnología muestra que el cambio tecnológico es exponencial, al contrario de la visión ‘lineal intuitiva’ del sentido común. Así que no experimentaremos cien años de progreso en el siglo XXI, sino que serán más como 20.000 años de progreso (al ritmo de hoy). Los ‘rendimientos’, tales como la velocidad de los chips y la relación coste-efectividad, también se incrementarán exponencialmente. En el plazo de unas pocas décadas, la inteligencia de las máquinas sobrepasará la inteligencia humana, llevándonos a la singularidad (cambios tecnológicos tan rápidos y profundos que representen una ruptura en la estructura de la historia humana). Las consecuencias incluyen el surgimiento de inteligencia biológica y no biológica, software inmortal basado en humanos y niveles de inteligencia ultra-elevados que se expandirán hacia el universo a la velocidad de la luz.
Esta ley se basa en la ley de Moore que predice que cada 18 meses se duplica el número de transistores en un espacio dado (un chip). Sin embargo, la ley de Moore y la de los rendimientos acelerados son leyes empíricas. O dicho de otra forma, no son leyes y solo predicen el pasado. Funcionan hasta que dejan de hacerlo.

El freno de la complejidad

Paul Allen, con el mismo derecho, postula otra ley: El freno de la complejidad. Según esta:
A medida que avanzamos más y más en nuestra comprensión de los sistemas naturales, por lo general encontramos que requieren conocimientos más especializados para entenderlos, y nos vemos obligados a ampliar continuamente nuestras teorías científicas de una manera cada vez más compleja.
Paul Allen se opone a que la singularidad vaya a llegar pronto.
Aunque suponemos que este tipo de singularidad algún día ocurrirá, no creemos que este cerca. De hecho, creemos que será en una fecha muy lejana. 
Un cerebro adulto es una cosa finita, por lo que su funcionamiento básico en última instancia, puede ser desvelado a través del esfuerzo humano. Pero si la singularidad llega en 2045, será debido a avances impredecibles, y no porque sea el resultado inevitable de un progreso exponencial producido por la ley de rendimientos acelerados.

Para que la Singularidad aparezca en 2045 no solo se necesita un hardware más potente en el que se ejecute el actual software más rápido. Es necesario crear un software mucho más inteligente lo que requiere un conocimiento de los fundamentos de la cognición humana de cuya cuya complejidad solo ahora comenzamos a ser conscientes. Ni el desarrollo de software ni el avance de la neurociencia se rigen por la ley de Moore.

Para que la singularidad ocurra en algún momento cerca de lo predicho por Kurzweil, será absolutamente necesario una aceleración masiva de nuestros avances científicos en la comprensión de todas las facetas del cerebro humano.La complejidad del cerebro es simplemente impresionante. Cada estructura ha sido modelada con precisión durante millones de años de evolución para hacer algo en particular, sea lo que sea. No es como un ordenador, con miles de millones de transistores idénticos en las matrices de memoria regulares que son controlados por una CPU con unos pocos elementos diferentes. En el cerebro cada estructura individual y circuito neural ha sido refinado por separado por la evolución y el medio ambiente.
La investigación del cerebro obedece más bien a la ley del freno de la complejidad que a la ley de los rendimientos acelerados.

Allen habla también de las promesas de la Inteligencia Artificial IA. Aunque algunos inventos son sorprendentes como Watson, en general el progreso no ha sido en absoluto exponencial.
Aunque hemos aprendido mucho acerca de cómo construir sistemas individuales de AI que hacen cosas aparentemente inteligentes, nuestros sistemas han sido siempre frágiles - los límites de su rendimiento están rígidamente establecidos por sus supuestos internos y los algoritmos de la definición, no se pueden generalizar, y con frecuencia dan respuestas absurdas fuera de sus áreas de interés específicas. Un excelente programa de ordenador que juega al ajedrez , no puede aprovechar su habilidad para jugar otros juegos. Los mejores programas de diagnóstico médico contienen conocimientos inmensamente detallados del cuerpo humano, pero no pueden deducir que un trapecista tenga un gran sentido del equilibrio.
Al igual que en la neurociencia, el camino basado en la inteligencia artificial IA, para lograr la singularidad a nivel de la inteligencia computacional, parece requerir muchos más descubrimientos, algunas nuevas teorías con calidad de Premio Nobel y probablemente nuevos enfoques de investigación que son inconmensurables con lo que pensamos ahora. Este tipo de avances científicos básicos no se produce en una curva de crecimiento exponencial fiable.
Y concluye Paul Allen:
Lograr una comprensión científica completa de la cognición humana es uno de los problemas más difíciles que hay. Seguimos haciendo progresos alentadores. Pero hacia el final del siglo, en nuestra opinión, todavía nos estaremos preguntando si la singularidad está cerca.
Ray Kurzweil ha publicado su réplica en: Don’t Underestimate the Singularity donde básicamente se reafirma en la Ley de los rendimientos acelerados contrargumentando los puntos de Allen.

Más polémica. Kurzeil vs Myers

No es la primera vez que Kurzweil tiene que defender sus tesis. En una encendida polémica, Ray Kurzweil does not understand the brain, el biólogo PZ Myers pone en duda las opiniones de Kurzweil. Con réplica de Kurzweil y contratréplica de Myers
Algunas de las perlas de Myers
Por ingeniería inversa, quiere decir (Kurzweil) que vamos a ser capaces de escribir software que simule todas las funciones del cerebro humano
Tengo una muy buena idea de la inmensidad de lo que no entendemos acerca de cómo funciona el cerebro. Y si sólo entendemos una fracción de la funcionalidad del cerebro, eso hace que la ingeniería inversa sea extremadamente difícil.
El cerebro es un ordenador, y yo estoy en la parte que dice que no hay problema en principio en replicarlo artificialmente.
La ingeniería inversa del cerebro humano tiene complejidades que son enormemente subestimadas por Kurzweil, que demuestra poco conocimiento de cómo funciona el cerebro.
El problema es que él no ha proporcionado ninguna razón para especificar una fecha, que no sea su vago mantra de “crecimiento exponencial”. ¿Por qué no decir, 5 años? ¿Por qué no 50? El corazón del método de Kurzweil es tomar simplemente una fecha lo suficientemente lejana para que no podamos predecir que ocurrirá con los avances tecnológicos, y también que no sea probable que se enfrente con su incumplimiento frente a personas que le recuerden lo que dijo.
  1. Su argumento a favor de la simplicidad (según Kurzweil el cerebro es simple y modular) es profundamente erróneo e irrelevante.
  2. No ha hecho ninguna alegación cuantificable de lo mucho que sabemos sobre el cerebro en este momento y yo sostengo que sólo hemos arañado la superficie en las últimas décadas de investigación,
  3. “exponencial” no es una palabra mágica que resuelve todos los problemas (si pongo hoy un centavo en el banco no quiere decir que tendré un millón de dólares en el fondo de pensiones en 20 años).
  4. Kurzweil no ha proporcionado ninguna explicación de cómo va a ser la “ingeniería inversa” del cerebro humano.

Publicado originalmente en ALT1040 

8 comentarios:

  1. En este caso la intuición (no soy un experto) me dice estar del lado de la teoría de Allen. Es verdad que los avances se están haciendo a una velocidad vertiginosa, y me parece bueno, pero ahora mismo me parece que hay investigación básica y descubrimientos físicos y abstractos suficientes como para pasar el siguiente siglo desarrollando aplicaciones prácticas. En estas aplicaciones prácticas se ven problemas que quizás en teoría no se veían.

    En este siglo me parece que gran parte de la ciencia no se limitará al avance por el avance, sino también a responder a los retos de cura de enfermedades, superpoblación, cáncer, hambruna y calentamiento.

    No estoy para nada de acuerdo, pero siempre es bueno conocer que existe una teoría del estilo de Moore, que es la teoría de Olduvai y habla sobre el progreso científico.

    Gran entrada.

    ResponderEliminar
    Respuestas
    1. Hola Jbros.
      Parece más amigable la idea de Allen que la de Kurzeil. Y creo que los dos tienen su parte de razón.
      Nos falta aún mucho recorrido en el conocimiento del cerebro. Pero del otro lado, la computación avanza exponencialemente.
      Las predicciones de Kurzeil son para lo próximos años (desde 2020 en adelante). También se atreve con el final de siglo, pero para entonces...
      Un saludo

      Eliminar
  2. Cuando existen teorías equivocadas para explicar algo, que, aparentemente se corresponden con la práctica...el avance exponencial se puede frenar grandemente. Desde mi humilde opinión, creo que eso está pasando con la IA popular, en donde, incluso, la simple definición de "Inteligencia" no está bien definida. Por lo que sin duda, en este punto coincido con que se tienen que encontrar teorías alternativas a las popularmente actuales.

    Pero nadie puede asegurar que las teorías correctas no existan ya.

    Mejores algoritmos de programación pueden aminorar la necesidad de potencia de hardware y necesidades de memoria en la construcción de entes con IA. Sistemas híbridos biológica y computacionalmente (ya existentes tímidamente en la práctica), pueden solventar también estos problemas fácilmente.

    Por otra parte, perdemos de vista nuestro propio origen en el Universo...A veces nos olvidamos que somos simplemente animales un poco más inteligentes que otros, y que para llegar aquí tuvimos que eliminar a otras especies...y nadie puede asegurarnos que los nuevos entes con IA, nos respetarán como especie....nadie. Por lo que no esperemos con demasiadas ansias el advenimiento de la singularidad.


    El predecir cuando arribará esta singularidad es bien difícil; y es como un niño que se está quedando dormido al comer, donde es bien difícil predecir en que momento se quedará dormido; En lo personal creo que nuestro niñó con IA, se quedará dormido (más bien despertará), máximo en 2 años... hagan sus propias apuestas.

    ResponderEliminar
    Respuestas
    1. Glupet, muy interesante. De acuerdo en casi todo.
      El lenguaje es esquivo y más las definiciones. ¿Qué es la inteligencia?
      La mejora de los algoritmos y del hardware es permanente y hace que la potencia final aumente rápidamente (ley de rendimientos acelerados)

      "y nadie puede asegurarnos que los nuevos entes con IA, nos respetarán como especie....nadie. Por lo que no esperemos con demasiadas ansias el advenimiento de la singularidad." Pues sí, da que pensar. Creo que muchas de las obras de ciencia ficción se cumplirán en el futuro y la que dices no está entre las más optimistas.

      Dos años es muy poco tiempo. Las mejores previsiones de Kurzeil sitúan la singularidad en 2020 y no se lo cree ni él.

      Un saludo

      Eliminar
  3. Reconozco que he leído poco sobre la singularidad. Me da la sensación de que se basa en la extrapolación de una serie de avances científicos. A partir de ahí, la ciencia pasa a convertirse en creencia.

    Además de la crítica de Paul Allen, se me ocurren otras cuestiones más generales.

    ¿Seremos capaces de mantener el ritmo de evolución tecnológica actual? La crisis económica actual puede ser un aviso de que la sociedad actual no es sostenible. Puede que estemos al borde de un parón "medieval" impredecible.

    ¿Cómo sabemos que la escala de eventos es la correcta? Desde nuestro punto de vista homocentrista, puede ser exponencial. Pero desde el punto de vista de una inteligencia avanzada, el libro y el ordenador pueden ser avances muy pequeños y lineales, teniendo en cuenta otros avances que no conozcamos.

    ResponderEliminar
    Respuestas
    1. Suena muy razonable lo que dices. Kurzweil habla sin mucho problema, pero está por ver que se sigan cumpliendo los avances científicos y el desarrollo de la tecnología. Afortunadamente hoy nadie se calla y cada vez que Kurzweil abre la boca se ponen en duda sus afirmaciones y el debate se enriquece.

      Me gusta lo de la ciencia pasa a convertirse en creencia, aunque creo que no ocurre.

      Eliminar
  4. Estoy de acuerdo con Antonio orbe hay que seguir avanzando en desarrollo tecnológico. Aunque sea costoso no podemos descuidar o abandonar este campo.

    ResponderEliminar
  5. Saludos Antonio,interesante post,pero creo que el problema se centran en puntos que varios están equivocando los cuales serian:
    -Aun se sigue la dualidad hardware+software le cual viene de posición dualista errónea del Alma y cuerpo y de esto muchos siguen el camino de que pueden lograr IA basándose en crear software ,perfeccionar algoritmos pero solo se perfeccionar al a nivel operativo,el cual solo llega a una automatización extrema,con el cual por mucho potencia en procesamiento ,el computador,robot sigue siendo operativo ,pues el ser humano aun sigue superando siendo el ser pensante.
    -La otra interrogante seria ¿Acaso los seres vivientes piensan en base a algoritmos ? ahora todo los investigadores piensan que si,pero quizas esto no sea verdad ¿Que pasa si estamos en un error ?
    -Otra realidad el desarrollo software por mas que mejora mas funcionalidades aun es operativo,pues por si solo no puede funcionar y si lo hace es imperfecto,aun necesita del ser pensante sea el usuario,desarrollador,el administrador,etc,aun solo los que toman las decisiones,pues aun no se crea el concepto de computador,robot auto suficiente.

    Quizas el unico camino seria destruir los modelos hardware y software,ahora creados y re formular todo ,los cuales hasta ahora quizas los cientificos de IBM lo esta haciendo paso a paso,pero aun hoy no creo que sea suficiente,pues aun el ser Humano y los seres vivientes superan a la famosa IA,que aun queda en un simple perfección automática operativo que depende del ser Humano


    ResponderEliminar