Les armes autònomes diran "no" a les ordres il·legals?

$config[ads_kvadrat] not found

Les armes de Goldorak

Les armes de Goldorak
Anonim

Baynazar Mohammad Nazar va quedar inconscient a la taula d'operacions quan el sostre va començar a col·lapsar-se sobre ell. El pare de quatre persones havia entrat a l'hospital el dia anterior a un cop a la cama i va estar sotmès a la seva segona operació en dos dies per arreglar la seva lesió. Quan els nord-americans van començar a destruir l'edifici, els metges que treballaven en ell no tenien més remei que escapar pel seu compte el més ràpid possible.

Andrew Quilty a Política exterior narra la història de la vida i la mort de Baynazar en un article que inclou una fotografia del seu cos coberta de residus a la taula d'operacions. Baynazar va ser una de les 31 persones que van matar els Estats Units quan va colpejar l'hospital de Metges Sense Fronteres (també anomenat MSF) a Kunduz, Afganistan, el 2 d'octubre.

Després d’actuacions d’alta responsabilitat, d’alts civils, els polítics i els experts pregunten quina cosa pot passar, i què es pot fer per garantir que no torni a succeir. Entre els defensors dels sistemes d’armes autònomes, de vegades anomenats “robots assassins”, un argument popular és que l’error humà (o la maldat) és responsable d’un grau elevat dels crims comesos durant la guerra. És teòricament possible, diuen, que els robots puguin ser més precisos en l’orientació i menys propensos a errors que els humans.

"De fet, el judici humà pot resultar menys fiable, doncs, indicadors tècnics en la calor de la batalla", escriu Michael N. Schmitt, professor de la US Naval War College. "Els que creuen el contrari no han experimentat la boira de la guerra".

Atac aeri als EUA a l’hospital de MSF a l’Afganistan, causat principalment per un error humà 'http://t.co/X9TGIA81aD pic.twitter.com/TUwit97206

- Telegraph News (@TelegraphNews) 25 de novembre de 2015

La pregunta, doncs, és: podeu programar les eines de la guerra per restringir el comportament humà per fer possibles vagues com el bombardeig hospitalari de Kunduz, o almenys menys probable?

Probablement no, almenys per al futur proper. Però alguns programadors d’intel·ligència artificial han dissenyat un robot que pot dir no als humans. El disseny de l’experiment és senzill: l’home diu a un robot que camini cap endavant per una taula que el robot inicialment es nega a fer. Quan l'humà li diu al robot que l'atraparà, el robot accepta la comanda.

És un llarg camí des d’un helicòpter d’atac semi-autònom que li diu a la seva tripulació humana que no pot dur a terme un atac aeri contra un hospital perquè seria un crim de guerra, però la premissa subjacent és en gran part la mateixa. Com altres han assenyalat, l’ansietat humana sobre aquest tipus de desenvolupament en els robots és freqüent en la ciència-ficció - pensa HAL-9000 dient "No puc fer això, Dave" quan tanca l’home fora de l’estació espacial a 2001: Odissea espacial.

Pel que fa als aspectes específics de la vaga de Kunduz, molts dels fets al voltant de l’atac queden en disputa. MSF ha demanat una investigació independent que el govern dels Estats Units s'oposa i que, en canvi, prometrà realitzar les seves pròpies revisions.

Algunes parts d’una investigació dels EUA es van fer públiques a principis d’aquest mes i van trobar errors humans i mecànics responsables de la vaga. Però a principis d’aquesta setmana, dos membres del servei es van presentar per contradir les conclusions de l’informe. Diuen que la vaga no era un error. En la seva comptabilitat, va informar per primera vegada AP Les forces d’operacions especials dels Estats Units van demanar la vaga perquè l’hospital era un centre de comandament i control dels talibans.

En la versió oficial, una fallada mecànica va provocar que la tripulació de la cañonera AC-130 inicialment obtingués coordenades per a un camp buit. Després, la tripulació va cercar un edifici a la zona que s'adaptava a la descripció física que havien rebut i van obrir foc. Quan els seus instruments es van recalibrar, van donar a la tripulació les coordenades correctes per al seu objectiu, però la tripulació va continuar disparant a l’hospital de totes maneres.

Si aquest compte és cert - que l’ordinador era, en última instància, exacte i els éssers humans l’ignoraven, dóna credibilitat als partidaris d’una major autonomia en els sistemes d’armes. Dit això, la guerra contra el terror dels Estats Units està plena d’exemples d’exèrcits o de la CIA que van assolir l’objectiu “correcte” i que van acabar amb matar un gran nombre de civils. L’automatització no resoldrà una mala intel·ligència i els intents de programar una aproximació de la moralitat no acabaran amb els crims de guerra.

Als Estats Units, hi ha una forta temptació d’esterilitzar la guerra i l’automatització, eliminant els nord-americans de la manera de fer mal, que està destinat a canviar la definició mateixa de la guerra. La preferència d'Obama per la matança de drones i les assegurances que acompanyen que els drones són les armes més precises mai creades són la manifestació més clara d'aquests objectius. "Han estat atacades amb precisió i precisió contra Al Qaeda i els seus afiliats", va dir Obama en un hangout de Google el 2012.

Un estudi del govern de 2013, però, contrasta aquestes afirmacions. Va descobrir que els avions no tripulats a l’Afganistan van causar deu vegades el nombre de morts civils com a vehicles no tripulats. "Els drons no són màgicament millors per evitar civils que avions de combat", va dir Sarah Holewinski, coautor de l'estudi. El guardià. "Quan els pilots de vol van rebre directives clares i entrenaments sobre protecció civil, van aconseguir baixar les taxes de víctimes civils".

L’exèrcit està gastant milions en desenvolupar sistemes d’equipatge de robot humà, desdibuixant encara més les línies entre missions realitzades per armes tripulades o no tripulades. "El que volem fer en equips de combat humà-màquina és portar-lo al següent nivell, mirar les coses com a tàctiques de pulmó", va dir el subdirector de Defensa, Bob Work, al bloc oficial de ciència de DoD. "Un F-35 pot entrar en batalla amb quatre homes no tripulats?"

Aquells homes de les ales no diran si el pilot humà els dóna una ordre semblant a la sortida d’una taula? Què tal una ordre per destruir un hospital o escola? En qualsevol cas s’aplicarà la boira de la guerra. I si decidim anul·lar les màquines, la frase "error humà" serà un dels termes més aterridors dels conflictes del futur.

$config[ads_kvadrat] not found