Els nostres assistents de robots aprenen a mentir i els hem de deixar

$config[ads_kvadrat] not found

Robòtica a l'escola

Robòtica a l'escola
Anonim

Els robots estan resultant ser uns quants companys humans fantàstics. Qui no voldria que un petit pebre adorable ens expliqui acudits, ens facin compliments i, en general, ens faci sentir-nos menys sols al món? Fins i tot els robots sense forma són una empresa sorprenentment bona. Preneu Alexa, per exemple, a Amazon Echo És un cervell robòtic amb una veu humana atrapada dins del cos d’un altaveu d’àudio, però és útil i, si llegiu les seves ressenyes, és clar que es converteix en família com a molts usuaris. La gent pensaria de manera diferent si mentís? Què li passa si li va dir alguna cosa que realment no volia escoltar?

Penseu en això: els diem als nens que no diguin mai una mentida i que l'honestedat és la millor política i, no obstant, ometem, distorsionem la veritat i mentim directament als nens tot el temps. Això els ensenya, a través de les nostres accions si no a través de les nostres paraules, que no es tracta d’una honestedat completa, sinó d’aprendre les complicades regles socials sobre quan i com revelar o ocultar informació potencialment sensible. Els robots de programació per observar aquestes regles socials poden ser una part difícil, però necessària del procés d’innovació d’autòmats en curs.

Aquí teniu un exemple: l’altre cap de setmana estava a la casa del meu cunyat, i vaig anar a la botiga a agafar coses entrepans per dinar de tothom. La meva neboda de sis anys em va ajudar a treure el menjar mentre tots els altres sortien de la cuina i em va preguntar quant costaven els aliments. Li vaig dir, perquè ensenyar als nens el valor dels diners és una bona cosa.

A la taula de menjar, em va demanar que digués a tots els costos de queviures. He dit que no."Per què?", Va preguntar, realment confosa per què una pregunta que havia contestat lliurement uns minuts abans era ara informació secreta. "No és cortès", vaig dir, explicant que, perquè ella és petita, les regles són diferents quan estem sols. Jo estava ensenyant-li que l'honestedat i la rectitud tenen un temps i un lloc. La informació, en un context humà, sempre vol ser lliure.

És el mateix amb els robots. Creiem que no volem que els nostres robots ens mentin, però en realitat volem que aprenguin les complicades regles socials de cortesia i discreció que de vegades requereixen distorsions de la veritat. I ja estan aprenent a fer-ho. Prengui aquest petit clip de Pepper interactuant amb un reporter, per exemple:

El primer que surt de la boca de Pepper és un compliment: "Així doncs, sou molt chic. Ets un model?"

El periodista és prou atractiu, però la pregunta de Pepper no és ser completament honesta. Entenem que Pepper realment no es pregunta si és un model i que ha estat programat per dir coses agradables, independentment del que sembli.

Poc després, Pepper demana un préstec fora de la llibertat. És una pregunta impolítica, una indiscreció que perdonem fàcilment a un robot per igual que un nen. El periodista podria haver assenyalat que la qüestió és groller, va suggerir que els robots no tenen necessitat de diners, o van admetre que no tenia cap interès a lliurar 100 dòlars a Pepper. Tota la veritat és que el periodista podria prestar els diners al robot, però entén que la qüestió en si mateixa és una mica joc. El que decideix dir és una desviació, i bé una mentida blanca o una mitja veritat: no té els diners en ell. L'esperança és que el robot entengui això com un "no" suau i no suggereix que el periodista vagi a un caixer automàtic i faci una retirada. Com que evidentment Pepper té una certa gràcia social, acaba aquí la línia de preguntes.

Els robots socials estan programats per aprendre signes socials, i això és bo, que finalment els farà millor en els nostres llocs de treball. La tasca dels programadors no és eliminar tots els enganys de robots, sinó afegir funcions que facilitin la presa de decisions sobre les respostes adequades.

Quan els robots són els nostres confidents, han de tenir consciència del context i del públic. Si, per exemple, estic provant equips a casa, vull desitjar-me una valoració honesta del gust de les diferents opcions. Si vaig a sortir a una festa i, de sobte, conscient de si mateix que he triat el vestit equivocat, la resposta que veig bé serà la resposta més útil.

Els robots aprendran molta informació personal sobre els seus companys i serà important que entenguin la diferència entre informació confidencial i informació pública, i també siguin conscients de qui està escoltant quan parla. Les preguntes tindran respostes diferents en funció de qui ho demani. Els robots es comportaran de manera diferent quan els hostes estiguin a casa.

Els robots, com els nens, necessiten criança responsable. Això significa que tant els programadors de robots com els propietaris de robots necessiten pensar profundament sobre les conseqüències ètiques i socials de la nostra IA. interaccions. Però no vol dir exigir una honestedat perfecta - seriosament, ningú ho vol.

$config[ads_kvadrat] not found