viernes, 24 de julio de 2015

Autònoms autòmats (2)

18/07/2015

El desenvolupament de robots cada vegada més autònoms ens planteja dilemes que ja no són exclusivament teòrics. Ens situen moralment davant la imminència de la presa de decisions per part de les nostres màquines que poden afectar la vida o la mort de persones. Incloent-hi la nostra. No totes les decisions tenen la mateixa consideració moral. N’hi ha de millors i de pitjors. Però ¿podem ordenar la qualitat moral de la decisió d’acord amb un algoritme introduït en el programari dels nostres robots? La robòtica és una lògica, però ¿podem dir el mateix de la moral?

En realitat el que està aquí en joc no és només el que pot passar amb el comportament autònom d’un vehicle de transport, sinó la moralitat associada a l’ús dels nostres artefactes, dels sexuals als militars. Tots coneixem el debat provocat per l’ús dels drons, però els drons i les seves controvèrsies són solament una part molt minsa de la investigació tecnològica militar, que sembla que és el gran camp del desenvolupament futur de la robòtica. I no només de la robòtica. Les pràctiques de l’anomenat accelerated learning no s’estan duent a terme precisament en les facultats de pedagogia. L’any 2012 el departament de Defensa nord-americà va aprovar una directiva titulada Autonomy in Weapons Systems, però no sé ni en què consisteix ni si hi ha directives posteriors. Sembla que Ronald C. Arkin, un professor de Georgia Tech, sosté que els robots (o lethal weapons systems ) són èticament superiors als soldats en els camps de batalla. Avui ja n’hi ha que operen a les fronteres d’alguns països amb capacitat per identificar i disparar sobre els sospitosos que no encaixen amb determinades línies del seu programari.

Alguns dels dissenyadors del que s’està coneixent com a NEXTech wargames ja ens adverteixen que, tot i que la política i la llei haurien de ser ètiques, el món real no sempre ho és. Tot això ja ho havia anticipat la literatura popular. Recordem les famoses lleis d’Asimov. Tots nosaltres som fills d’un temps que tem que al si de cada innovació s’hi pugui covar una catàstrofe.

Estem condemnats a prendre decisions morals sobre les decisions que han de prendre els nostres robots. I això exigeix comprendre el funcionament d’una conducta extraordinàriament complexa: la decisió moral. Crear un agent moral artificial (AMA) està resultant endimoniadament complicat. Alguns creuen que existeix una mena de moral universal innata igual com existeix, segons Chomsky, una gramàtica universal, i que a partir d’aquesta moral es podria programar un AMA. En tinc els meus dubtes, però no puc ignorar que Rosalind Picard, directora de l’Affective Computing Group del MIT, defensa que si les nostres màquines han de ser autònomes, necessàriament han de ser morals. Diu “han”, no “hem”.

En la decisió moral humana sembla que no tot és lògica. Hi ha associats elements afectius (alguns filòsofs parlen del sentiment moral). Així que el primer dilema a què s’enfronten els dissenyadors ètics és el de si seguir el model de Mr. Spock a Star Treck (que ens recorda la moral dels estoics) o el dels defensors de la intel·ligència emocional. ¿Es podrà dotar de sentiments una màquina?

Una història per acabar avui. El 26 de setembre de 1983, Stanislav Petrov, tinent coronel de les forces de defensa aèries soviètiques, ens va salvar a tu i a mi, estimat lector, per no fer absolutament res. Estava a càrrec d’un búnquer secret proper a Moscou amb la missió de controlar Oko, un sistema de vigilància atòmica. Cap a la mitjanit, Oko va començar a donar senyals inequívocs que els nord-americans havien llançat cinc míssils balístics contra l’URSS. Els llums de perill es van encendre i els radars indicaven l’aproximació dels míssils. Tres setmanes abans els soviètics havien atacat un avió coreà. Petrov, però, va decidir comunicar als seus superiors que havia tingut lloc una falsa alarma. Tots vam tenir molta sort aquella nit. Aquest és l’exemple més clar en la història de la humanitat d’heroisme passiu. Però és precisament el factor humà el que la intel·ligència artificial moral pretén eliminar, amb la convicció que això farà el món més segur.

En qualsevol cas, tot aquest debat té una cosa positiva: ens força a anar una mica més enllà de l’actual moda dels valors i a repensar la decisió moral des de la seva arrel. El que estem redescobrint és que per aclarir-nos en aquestes qüestions, cal introduir Plató, Descartes, Spinoza, Hume, Adam Smith, Kant, Hutcheson, Nietzsche i Moore als nostres laboratoris.

No hay comentarios:

Publicar un comentario