La dignitat humana i noves armes autònomes

Aquesta és l’última reflexió de l’any, és moment de fer-ne balanç, segurament tots els pensaments els tindrem centrats en la pandèmia, les seqüeles i els canvis que es produiran o que s’haurien de produir; però aquests dies també són moments per reflexionar sobre alguns temes que afecten la dignitat humana i la Creació, en concret podem reflexionar sobre el disseny de noves armes, les armes robòtiques que poden prendre la decisió de matar sense la intervenció humana. 70 líders religiosos y representants d’organitzacions religioses, a finals de 2014, van demanar als seus estats que es prohibís el desenvolupament d’aquestes armes autònomes, també anomenades robots assassins. 

Els robots són màquines programables o auto-controlables que poden portar a terme tasques complexes de manera automàtica i repetitiva (tots hem vist robots a la indústria de cotxes). Cal assenyalar que els robots no tenen perquè ser objectes materials, podem trobar robots informàtics que són peces de software (aplicacions o programes) per exemple els “chat bots” o “socials bots”; un exemple d’aquests són programes que envien “tuits” a la xarxa fent-se passar per persones reals. 

Aquesta revolució està sent incorporada a l’ús militar. S’estan creant robots o sistemes robòtics per a ús militar. Un exemple serien els sistemes de defensa antimíssils: un sistema complex de radars i ordinadors que detecten míssils, coets o avions i els ordinadors posen en marxa un sistema d’atac que prioritza, selecciona i ataca de manera automàtica aquesta amenaça. Aquest seria un sistema robòtic d’arma automàtica. En aquest sistema l’algoritme de presa de decisions segueix unes regles programades. 

Si el sistema de decisions no es basa en regles determinades, sinó en un model de la realitat obtingut amb xarxes neuronals d’aprenentatge profund (forma part de la Intel·ligència Artificial), direm que el sistema es autònom, les regles no estan programades, el propi sistema aprèn per si mateix, a partir d’analitzar milions d’informacions (big data). Hi ha cinc tasques claus en aquestes armes: buscar els possibles enemics, definir objectius, fer el seguiment de l’objectiu, decidir atacar i atacar. El que anomenem sistemes d’armes autònoms es caracteritzen per no tenir cap mena d’intervenció humana en aquestes cinc tasques i en la presa de decisions. 

Aquestes noves armes estan en fase de recerca i producció; encara no es disposa d’armes totalment autònomes, però ja existeixen sistemes d’armes dotats de molts graus d’autonomia i en alguns casos tenen desconnectada la decisió de matar que ha quedat delegada en un humà. 

Aquests nous sistemes d’armes autònomes ens situen en un escenari de deshumanització pel fet de delegar en una màquina la decisió de qui ha de viure o qui ha de morir; el que una màquina prengui aquesta decisió està en contra de la dignitat humana. Aquestes noves armes ens obren a un debat jurídic i ètic. El debat jurídic se centra en si aquests sistemes d’armes autònomes poden complir els tres pilars del Dret Internacional Humanitari: el principi de responsabilitat (si es produeix un error o un crim de guerra, qui n’és el responsable? Les víctimes, a qui poden acusar?); el principi de proporcionalitat, que analitza si els danys causats són proporcionals als guanys militars o si els danys a civils son excessius; el principi de distinció, que obliga a distingir entre combatents i no combatents, si pot distingir entre un civil amb por o un enemic amenaçant. 

En aquest debat jurídic ens trobem amb posicions dels que pensen que la Intel·ligència Artificial encara no ha pogut respondre al repte de garantir que els sistemes d’armes autònoms estiguin programats per respectar el Dret Internacional i el Dret Internacional Humanitari, però que és qüestió de temps i cal deixar continuar la recerca. Altres aleguen que, si tenim present el debat sobre les armes nuclears i que no hi ha hagut suficient consens per il·legalitzar-les, cal que no arribem a la mateixa situació: primer les creem, després descobrim el monstre que hem creat i, després, no ens posem d’acord per il·legalitzar-les. Per aquesta raó hi ha moltes organitzacions civils, de científics i d’acadèmics que plantegen el tema de considerar-les il·legals i de prohibir aquestes noves armes abans que existeixin. El sentit comú ens invita, quan no hi ha consens, a aplicar el principi de precaució, parar abans que el mal sigui irreversible, per tant prohibir el disseny i fabricació d’armes autònomes. 

Els defensors de les armes totalment autònomes ens recorden que, en situacions de conflicte armat, els humans cometen vileses com violar dones o torturar humans i que causarien menys baixes; però també és cert que les màquines o els robots no estaran dotats de sentit comú, intuïció, llàstima, compassió o culpabilitat, que són emocions que ens retreuen als humans de cometre barbaritats. Podem continuar amb el debat de si la Intel·ligència Artificial pot o no pot reproduir sentiments o l’ètica humana en les màquines. Molts científics i especialistes en Intel·ligència Artificial creuen que no es possible. 

Aquests sistemes d’armes autònomes ens situen en un escenari de deshumanització. És cert que els humans som fal·libles, és cert que els humans podem cometre atrocitats, però aquesta és la característica essencial dels éssers humans. Decisions sobre la vida o la mort no poden raure en les màquines, han de recaure en un altre ésser humà. La Intel·ligència Artificial entrarà a formar part de la nostra vida però, com diu el Papa Francesc, aquest avenç “pot fer possible un món millor si va unit al bé comú”, si posa la dignitat humana i la cura de la Creació en el centre.

Tica Font

Comparteix aquesta entrada

Escriu un comentari

L'adreça electrònica no es publicarà. Els camps necessaris estan marcats amb *