domingo, 31 de marzo de 2013

Ética para robots


El desarrollo de robots y máquinas cada día más complejos hace inevitable la pregunta ¿deberíamos implementar una ética para robots?



La ficción es una inspiración para la vida. La ciencia ficción lo es para la ciencia. Gran parte de los avances que vemos y veremos han sido precedidos por las visiones de los escritores. Un ejemplo notable son las tres leyes de la robótica de Isaac Asimov, formuladas en 1942.
  • Un robot no puede hacer daño a un humano.
  • Un robot obedecerá las órdenes humanas, a menos que estas contradigan la primera ley
  • Un robot protegerá su propia existencia excepto si esto entra en conflicto con la primera y segunda ley
Resulta curioso lo visionario y a la vez ingenuo que resultaba Asimov. En un sentido, ya prevé robots autónomos, cosa que ahora empezamos a ver. Es ingenuo porque los robots que estamos empezando a fabricar están en buena medida diseñados para matar.

Cada día se diseñan y construyen nuevos robots. Pulgas que graban, arañas espías o cruadricópteros. Los drones del ejercito americano ya no solo realizan misiones de vigilancia. Van cargados con mortíferas bombas. Los trenes sin conductor proliferan. El vehículo autónomo está a punto de invadir nuestras calles.

El punto de inflexión es el momento en que estas máquinas sean autónomas. Los drones están teledirigidos. Un humano decide el objetivo y el momento. Pero como sabemos, cuando los dispositivos se multiplican, su control desborda a los operadores y acaban siendo dotados de autonomía. Un ejemplo de ello es el coche autónomo. Ningún humano lo supervisará. Incluso diseñados para matar, los robots pueden tener alguna ventaja: no tienen odio ni deseo de venganza, no cometen violaciones no toman decisiones en caliente. Una característica de los soldados es el abuso añadido a su función principal.

En la vida te planteas permanentemente problemas éticos. También cuando conduces, aunque la reacción sea automática. Un niño se cruza, ¿freno? Un perro se cruza ¿freno? Si freno, pongo en riesgo la vida de mi familia que me acompaña. O la del coche de al lado. ¿Cuál es la opción moral adecuada? Si desarrollamos un coche autónomo, ¿debería tener moral? Y cualquier otro robot autónomo, ¿debería llevar implantado un módulo moral?

La moral humana es un vidrioso campo en el que las reglas no están en absoluto claras. Esto se pone de manifiesto en los llamados dilemas morales. Imagina que un tren avanza hacia un grupo de personas que morirán aplastadas por él. Tú puedes cambiar el curso de los acontecimientos. Si aprietas un botón, el tren cambiará de vía y aplastará a una única persona que está en la nueva vía de forma que salvarías a cinco pero una moriría. ¿Lo harías? Ahora imagina que las mismas personas están amenazadas pero a tu lado se encuentra un individuo malencarado, sucio y con aspecto ebrio. Si lo empujas a la vía, morirá atropellado, el maquinista parará el tren y las otras cinco personas se salvarán. ¿Lo empujarías?

La mayoría de las personas responden que sí apretarían el botón causando la muerte de una persona para salvar a otras cinco. La mayoría responde que no empujaría al individuo malencarado, salvándolo y causando la muerte de los cinco. Una explicación consiste en que en el primer caso manipulas un botón, algo sin vida y en el segundo caso manipulas directamente a una persona.

Para implantar un modelo en un ordenador tienes que tener claro el modelo. Para implantar ética en un robot, tienes que tener clara la ética. Miles de leyes han sido necesarias para la convivencia humana porque unas simples reglas éticas no sirven. ¿Cómo implementar en los robots algo que no está claro en los humanos?

Hoy por hoy solo encontramos respuestas en la bendita ciencia ficción.

Artículo publicado originalmente en ALT1040

4 comentarios:

  1. Muy buenos argumentos. Dan para el debate largo y tendido. Sólo una cosa, en el mejor momento de la lectura, cuando está toda la atención puesta, se termina el artículo de golpe. Siento como que le falta algo.

    ¡Saludos cordiales!

    ResponderEliminar
  2. La moral y la ética, puede ser "antisocial" tanto en un robot como en un ser humano.
    La moral y la ética se desarrollan tanto mediante el aprendizaje como genéticamente.
    Si una persona o un robot no tienen ambas formas de "modular" la ética y moral, fallarán en obtener una moral y ética aceptable para la sociedad.
    Un individuo que no sea capaz de "sentir dolor o placer" por causas genéticas, se le hará difícil aprender gran cantidad de cosas, entre ellas la moral y la ética. Igualmente si un individuo no es corregido cuando comete un error o premiado cuando acierta a algo, su moral y ética también serán afectadas negativamente.

    El sentir placer y dolor, principalmente, son los elementos indispensables para dominar muchas cosas en nuestro aprendizaje, incluyendo muchos movimientos motores como caminar y correr; por supuesto también participan activamente en el aprendizaje de la moral y la ética.

    Implementar la moral y ética en un robot no es nada diferente a hacerlo en un ser humano, basta con ponerles sentidos del dolor y el placer que se activen en las situaciones apropiadas para que "automáticamente" la moral y la ética autónoma y la de las personas que le enseñan sean adquiridas.

    Pero ¿Cómo implementar un sentido del dolor o del placer"... pues algo tan sencillo como tener una variable (o más) que pueda variar digamos del -1000 al 1000 pasando obviamente por el 0. Cuando la variable vale 0 no existe ni dolor ni placeer, cuando tiende a valores negativos se estará incrementando el dolor (o decrementando el placer), y viceversa. El robot genéticamente estará programado para repetir acciones mas frecuentemente cuando estas vengan acompañadas con un valor de la variable positivamente. Eso es todo, no se necesita nada más.
    Para nutrir a ese sentido del placer-dolor de un robot, existen diferentes técnicas...pero eso ya es otra historia.
    Bueno, eso digo yo, aunque solo son suposiciones, que por cierto estoy tratando de poner en práctica.
    Saludos. (deavena7@yahoo.com.mx)

    ResponderEliminar
  3. Para los que se han acabado el artículo con la sensación de "coitus interruptus" les recomiendo la obra de Michael Sandel donde profundiza en el dilema moral del ejemplo del tren del artículo (los vídeos en inglés en http://www.justiceharvard.org/2011/03/episode-01/#watch, o en castellano magnífica traducción en http://www.megustaleer.com/ficha/EC920245/justicia)

    Muy bueno el artículo. Ciertamente es de locos lo que estamos haciendo: diseñar robots para matar.

    ResponderEliminar
  4. Esto...
    sobre lo del tren...
    ¿Y no será que en el primer caso salvo 5 vidas pero no puedo ser acusado de haber matado a alguien (o sea, me convierto en un héroe) y en el segundo caso mato a alguien deliberadamente con lo cual seré acusado de homicidio?
    -Coste / beneficio, vamos.-
    Un saludo.

    ResponderEliminar