En un interesante artículo, Paull Allen, (cofundador de Microsoft y creador del Allen Institute for Brain Science entre cuyos proyectos está el Allen Brain Atlas) pone en duda las afirmaciones de Ray Kurzweil.
Kurzweil es el abanderado de la Singularidad. No es un visionario, sus predicciones se basan en datos estadísticos, es un reconocido científico, muchas de sus predicciones se han cumplido y hay que tener en cuenta lo que dice. Otra cosa es estar de acuerdo con él. Es autor de La Singularidad está cerca y la Ley de los rendimientos acelerados. En este ensayo postula lo siguiente:
Un análisis de la historia de la tecnología muestra que el cambio tecnológico es exponencial, al contrario de la visión 'lineal intuitiva' del sentido común. Así que no experimentaremos cien años de progreso en el siglo XXI, sino que serán más como 20.000 años de progreso (al ritmo de hoy). Los 'rendimientos', tales como la velocidad de los chips y la relación coste-efectividad, también se incrementarán exponencialmente. En el plazo de unas pocas décadas, la inteligencia de las máquinas sobrepasará la inteligencia humana, llevándonos a la singularidad (cambios tecnológicos tan rápidos y profundos que representen una ruptura en la estructura de la historia humana). Las consecuencias incluyen el surgimiento de inteligencia biológica y no biológica, software inmortal basado en humanos y niveles de inteligencia ultra-elevados que se expandirán hacia el universo a la velocidad de la luz.Esta ley se basa en la ley de Moore que predice que en 18 meses se duplica el número de transistores en un espacio dado (un chip). Sin embargo, la ley de Moore y la de los rendimientos acelerados son leyes empíricas. O dicho de otra forma, no son leyes y solo predicen el pasado. Funcionan hasta que dejan de hacerlo.
Paul Allen, con el mismo derecho, postula otra ley: El freno de la complejidad. Según esta,
A medida que avanzamos más y más en nuestra comprensión de los sistemas naturales, por lo general encontramos que requieren conocimientos más especializados para entenderlos, y nos vemos obligados a ampliar continuamente nuestras teorías científicas de una manera cada vez más compleja.Paul Allen se opone a que la singularidad vaya a llegar pronto.
Aunque suponemos que este tipo de singularidad algún día ocurrirá, no creemos que este cerca. De hecho, creemos que será en una fecha muy lejana.
Un cerebro adulto es una cosa finita, por lo que su funcionamiento básico en última instancia, puede ser desvelado a través del esfuerzo humano. Pero si la singularidad llega en 2045, será debido a avances impredecibles, y no porque sea el resultado inevitable de un progreso exponencial producido por la ley de rendimientos acelerados.Para que la singularidad aparezca en 2045 no solo se necesita un hardware más potente en el que se ejecute el actual software más rápido. Es necesario crear un sw mucho más inteligente lo que requiere un conocimiento de los fundamentos de la cognición humana de cuya cuya complejidad solo ahora comenzamos a ser conscientes. Ni el desarrollo de sw ni el avance de la neurociencia se rigen por la ley de Moore.
Para que la singularidad ocurra en algún momento cerca de lo predicho por Kurzweil, será absolutamente necesario una aceleración masiva de nuestros avances científicos en la comprensión de todas las facetas del cerebro humano.
La complejidad del cerebro es simplemente impresionante. Cada estructura ha sido modelada con precisión durante millones de años de evolución para hacer algo en particular, sea lo que sea. No es como un ordenador, con miles de millones de transistores idénticos en las matrices de memoria regulares que son controlados por una CPU con unos pocos elementos diferentes. En el cerebro cada estructura individual y circuito neural ha sido refinado por separado por la evolución y el medio ambiente.La investigación del cerebro obedece más bien a la ley del freno de la complejidad que a la ley de los rendimientos acelerados.
Allen Brain Atlas |
Aunque hemos aprendido mucho acerca de cómo construir sistemas individuales de AI que hacen cosas aparentemente inteligentes, nuestros sistemas han sido siempre frágiles - los límites de su rendimiento están rígidamente establecidos por sus supuestos internos y los algoritmos de la definición, no se pueden generalizar, y con frecuencia dan respuestas absurdas fuera de sus áreas de interés específicas. Un excelente programa de ordenador que juega al ajedrez , no puede aprovechar su habilidad para jugar otros juegos. Los mejores programas de diagnóstico médico contienen conocimientos inmensamente detallados del cuerpo humano, pero no pueden deducir que un trapecista tenga un gran sentido del equilibrio.
Al igual que en la neurociencia, el camino basado en la inteligencia artificial IA, para lograr la singularidad a nivel de la inteligencia computacional, parece requerir muchos más descubrimientos, algunas nuevas teorías con calidad de Premio Nobel y probablemente nuevos enfoques de investigación que son inconmensurables con lo que pensamos ahora. Este tipo de avances científicos básicos no se produce en una curva de crecimiento exponencial fiable.Y concluye Paul Allen:
Lograr una comprensión científica completa de la cognición humana es uno de los problemas más difíciles que hay. Seguimos haciendo progresos alentadores. Pero hacia el final del siglo, en nuestra opinión, todavía nos estaremos preguntando si la singularidad está cerca.Postdata: Ray Kurzweil ha publicado su réplica en: Don’t Underestimate the Singularity donde básicamente se reafirma en la Ley de los rendimientos acelerados contrargumentando los puntos de Allen. Merece la pena (incluidos los comentarios).
Publicado originalmente en ALT1040
No hay comentarios:
Publicar un comentario