Els enginyers són legalment responsables dels robots assassinats?

$config[ads_kvadrat] not found

Els valors a Caixa d’Enginyers, per Josep Oriol Sala

Els valors a Caixa d’Enginyers, per Josep Oriol Sala
Anonim

Els automatismes i els androides han estat sacrificant humans ficticis ja que l'escriptor txec Karel Čapek va popularitzar el terme "robot" en la seva obra de ciència ficció de 1920 Robots Universals de Rossum. Čapek va explorar un tema en el cor de molts debats moderns: qui és el responsable d'un robot que mata? L’escriptor txec va semblar donar-li la mà a Rossum, el seu enginyer franctenstein, però la realitat jurídica és una mica més complicada.

Canvis de tecnologia, però la intenció continua tot.

Si un enginyer crea un exèrcit de bots de mort amb la finalitat expressa de tractar-se de la mort (pensa: les hordes d'Ultron), ell o ella són responsables del que succeeix quan vénen fort. D'acord amb el codi de 18 EUA § 1111, l'assassinat és:

La matança il·legal d’un ésser humà amb malícia prevista. Tots els assassinats perpetrats per verí, en espera o qualsevol altre assassinat intencional, deliberat, maliciós i premeditat … o perpetrats des d’un disseny premeditat de manera il·legal i maligne per fer la mort de qualsevol ésser humà que no sigui el que és assassinat, és assassinat en el primer grau.

"Qualsevol altre tipus" de mort deixa la finestra oberta als robots assassins, que són una espècie de verí mecànic.

Fins i tot si el hipotètic bot-constructor que programa un perillós - encara que no expressament assassí-màquina, hi ha un precedent que és responsable de qualsevol resultat letal. Quan els gossos de guàrdia atacen fatalment els espectadors, els jurats han trobat els propietaris dels gossos culpables d’assassinat. I què, més enllà del fet que un mètode implica codis d’ordres i els altres comandaments parlats, és la diferència entre entrenar un robot i formar un gos?

Si els robots armats siguin una mica més intel·ligents que un pastor alemany, diguem, un botó de pistola totalment autònom - Rossum encara no està fora. Grups com el Human Rights Watch prediuen que "els comandants o operadors podrien ser considerats culpables si despleguessin intencionalment un arma completament autònoma per cometre un delicte". Aquests grups, i les organitzacions de drets humans en general, poden tenir una visió realista del sistema judicial. però una de les raons més convincents per mantenir els Predator Drones sota el control remot és assegurar-se que els atacs provenen dels "EUA" L’exèrcit ”, de manera que els científics militars no finalitzen les seves vacances europees amb una gira pagada per totes les despeses de la Haia.

El problema es torna una mica més tèrbol quan els robots reunits per a una tasca fan un pivot sagnant. En la història de Čapek, Rossum va reunir els seus robots per treballar manualment i no per assassinar-se. Però va succeir l’assassinat (no el verb no transitiu). Si Rossum fos jutjat en un tribunal, la seva manca d’adherència a les lleis de control de qualitat d’Asimov el posaria en dificultats. Quan un producte defectuós mata els civils, el fabricant paga, que és el que diuen els pronòstics a Google si els seus cotxes automatitzats infringeixin la llei. No cal dir que una sèrie d’empreses tecnològiques tenen els advocats en compte la seva responsabilitat.

El fet que els robots no puguin ser acusats presenta l'oportunitat de llançar molt menys autobusos. La pregunta que les nostres millors mentals intenten respondre? Qui ha de tancar-se enredat en aquests eixos.

$config[ads_kvadrat] not found