Tufts Roboticist demana moral per a màquines: els robots han de "desobeir-se per obeir"

$config[ads_kvadrat] not found

5 of the Most Important Inventions in Robotics

5 of the Most Important Inventions in Robotics
Anonim

Els robots són cada vegada més centrals en la nostra vida quotidiana, i aviat hauran de començar a afrontar algunes de les opcions morals dures que hem de fer de manera regular. Matthias Scheutz, professor de ciències de la computació al laboratori d'interaccions humanes i robòtiques de la Universitat de Tufts, està especialment preocupat perquè no hem equipat ni tan sols els prototips més avançats amb les capacitats per fer front a algunes d'aquestes situacions. Scheutz creu que els robots hauran d'aprendre a desobeir els humans si volem que serveixin realment a les nostres necessitats.

En un comentari del comentari Avui en línia, titulat provocativament "Els robots han de ser desobeïts per obeir", Scheutz demana al lector que determini què ha de fer un robot si s'enfronta a un conjunt de situacions que fins i tot podrien resultar confuses per a un humà. Alguns d'ells:

Un robot de cura de gent gran, encarregat per un amo oblidat, de rentar les "robes brutes", tot i que la roba acaba de sortir de la rentadora.

Un estudiant que demana al tutor del robot que faci totes les tasques, en lloc de fer-ho ell mateix.

Un robot domèstic instruït pel propietari ocupat i distret per fer servir les escombraries, tot i que hi hagi enganxats culleres i ganivets.

El que Scheutz pretén descriure a l'article és el simple fet que necessitarem robots que sàpiguen dir "no" als humans. Molts dels seus exemples tenen a veure amb la fiabilitat de la persona que dirigeix ​​el robot, però és més difícil que sembli programar un robot que sàpiga prendre instruccions de qualsevol persona que no sigui massa jove o massa vella o que, òbviament, intenta causar problemes..

Alguns d’aquests temes ja estan sent debatuts a les oficines centrals de les empreses tecnològiques més poderoses del món, ja que busquen noves maneres en què la tecnologia pot fer-se càrrec de parts de les nostres vides. Scheutz planteja l'exemple d'un cotxe autònom que es dirigeix ​​a fer una còpia de seguretat, però es nota un gos que es troba al seu pas. La majoria de nosaltres estem d’acord que fins i tot l’home que conduïa el cotxe volia que el cotxe parés, però si l’animal era un esquirol o un mapache? I si el cotxe estigués a la carretera per un trajecte de 45 km / h i, de sobte, es frenés un gos que exposés el cotxe a una col·lisió amb un altre vehicle darrere d'ell?

"En qualsevol cas, és imprescindible que ambdues màquines autònomes detectin el dany potencial que les seves accions puguin causar i que reaccionin intentant evitar-ho, o si no es pot evitar el dany negant-se a dur a terme la instrucció humana" Scheutz escriu sobre un dilema similar.

L’equip de Scheutz ha estat treballant en aquests problemes amb els seus prototips i ha trobat que la part més difícil d’aquestes preguntes és diferenciar els lleugers graus de dany que es poden produir quan un robot segueix un ordre determinat. Així doncs, van assignar al seu robot una lliçó moral molt simple però poderosa que posaria vergonya fins i tot als grans filòsofs.

"Si se li indica que realitzeu una acció i és possible que la realització de l’acció pugui causar danys, llavors no se’n pot realitzar".

De manera subtil, aquest és un pronòstic revolucionari de Scheutz. És clar, tots tractem d’evitar danys, però no és possible que, de vegades, pensem que està bé prendre riscos? El Jaywalking al carrer, menjar una segona ajuda de postres o copiar les notes d'un amic de la classe podria violar l'axioma de Scheutz.

La noció d’interferència robòtica també suggereix que Scheutz vol que els seus robots compleixin la llei. No espereu que el vostre assistent de robot de Scheutzian us ajudi a descarregar música nova de manera il·legal Això causaria danys als accionistes d’EMI!

És una àrea complicada de pensament moral, jurídic i tècnic, i Scheutz no es nega a atacar-la.

$config[ads_kvadrat] not found