El robot dels estereotips de Georgia Tech és el futur de la IA, no del racisme

$config[ads_kvadrat] not found

Lab Tour: Georgia Tech Medical Robotics

Lab Tour: Georgia Tech Medical Robotics
Anonim

A les orelles sensibilitzades per seminaris sobre especialitats i classes extraescolars, això sona malament, però volem que els robots facin judicis ràpids basats en l'aparença. Superar els prejudicis és bo, però la incapacitat d'estereotip disminueix la intel·ligència, artificial o no. Alan Wagner, Ph.D., un robot de Georgia Tech, és el principal defensor de la tecnologia dels estereotips. Argumenta que aquest tipus de lògica no necessita aplicar-se a la raça o al gènere, només a situacions i comportaments.

En una primera prova del seu algorisme d’estereotip, Wagner va formar un robot ingenu per fer conclusions del que va veure. El robot va aprendre i es va fer perceptiu, el que va permetre a Wagner començar a pensar críticament sobre l'ètica dels supòsits del robot, especialment els programats prèviament. Va parlar Invers sobre la seva obra i les seves ramificacions.

Camineu-me pel funcionament de l’experiment.

El robot interactua amb diferents tipus d’individus: bomber, EMT, o altres coses, però no té experiència prèvia amb cap d’aquestes categories d’individus. És, bàsicament, l’aprenentatge experiencial.

La idea era demostrar que el robot podia utilitzar les característiques perceptives de l’individu per predir les seves necessitats en termes d’ús d’eines. La forma en què va funcionar l’algorisme, la càmera del robot percebia diferents aspectes del que semblava l’individu: el seu color uniforme, per exemple, si tenien barba i tenia el color del cabell.

També se'ls farà preguntes sobre el que semblen. Per descomptat, fer preguntes no és el que voleu fer al camp, però la percepció del robot és tan limitada ara mateix. Necessitàvem una manera d’arrencar el procés d’aprendre sobre una persona. La persona seleccionaria l’eina i, a continuació, el robot seleccionaria l’eina i, amb el pas del temps, el robot aprendria quina eina preferiria cada tipus de persona.

Vau esperar que el robot s’adoni que un insígnia vol dir que l’oficial de policia o una capa de reflexió intensa és un bomber?

Ho esperàvem. Però també hi va haver algunes coses sorprenents.Per exemple, el robot va reconèixer falsament que es preveia una barba amb un bomber, això era estrany, però quan mireu les dades, no era sorprenent. Les primeres persones que van interactuar amb ell eren els bombers que tenien barbes. Així doncs, argumentem la necessitat de la diversitat de percepció, una idea que si el robot pogués veure grans tipus d’individus àmpliament diferents en una categoria, desenvoluparia i entendria millor la categoria.

Podríeu dir que els robots autònoms haurien de ser entrenats per eliminar aquests aspectes, de manera que un robot no pensarà si aquesta persona té barba, és un bomber?

Absolutament. És crític que eliminem aquestes coses. És crític que tinguem aquests robots que treballin a partir d’un conjunt divers d’individus.

Com pot semblar aquest aprenentatge?

Permetria al robot centrar-se en coses que caracteritzessin millor els bombers. Per exemple, és possible que un bomber no porti cap jaqueta. El robot llavors notaria altres aspectes de la lluita contra els incendis, potser les botes, potser els guants, potser els cascos. Li diria: "Bé, aquesta persona realment és un bomber en aquest entorn."

Si tinguessis prou gent, podria ser capaç de reconèixer un bomber en un incendi contra un bomber en una festa de Halloween. Són detalls de percepció subtils, com la diferència entre la qualitat dels tipus d’uniformes o els entorns contextuals.

A més d’associar les barbes als bombers, quina va ser l’execució d’aquest algorisme?

Hi havia dues coses que realment volíem mirar: una, què podeu fer amb ella? Si els robots poden reconèixer els bombers, això ajuda realment? El document va mostrar que us va permetre restringir la cerca. En lloc de mirar els barbs pel color del cabell, buscant el color dels ulls o qualsevol altra cosa que pugueu cercar, podeu concentrar-vos en les característiques que realment importaven. La persona que porta una bata de bomber? Això podria accelerar el procés.

Una altra cosa realment crítica que vam mirar és: què passa si la categoria que prediu el robot és incorrecta? Com afecta això? Podeu imaginar que els entorns de cerca i rescat poden ser caòtics: potser treballeu en condicions de fum, el robot pot no ser capaç de percebre-ho tot molt bé, podria tenir errors. Es podria imaginar un pitjor cas, on el robot pensa que la persona és una víctima quan en realitat són un bomber. Així que està intentant salvar un bomber. Això seria terrible. Volíem veure on es trenca, com es trenca, quines funcions més afecten i quins són els diferents tipus d’errors.

Podeu utilitzar aquest enfocament de diferents maneres: si no poden veure la persona en absolut, però poden veure les accions que fan. Si puc veure la persona que selecciona un destral, llavors puc predir que tenen un casc.

Com us apropeu a obtenir un robot per avaluar el context i fer una predicció?

Hem intentat mirar un parell de diferents tipus d’ambients: un restaurant, una escola i una residència. Hem intentat captar característiques sobre l’entorn i quins objectes hi ha al medi ambient, quines accions selecciona la persona i quines són les persones que viuen al medi ambient, i intenten fer-lo servir per fer moltes prediccions socials. Per exemple, en un entorn escolar, la gent aixeca les mans abans de parlar. Per tant, si veig l’acció que la gent està aixecant de la mà, quins tipus d’objectes esperaria veure a l’entorn? Espero veure una pissarra; puc veure un escriptori? Espero veure nens.

L’esperança d’utilitzar aquesta informació. Si el robot realitza un procediment d’evacuació, veurà quins tipus de persones hi són i on poden estar.

Diguem que hi ha un robot que arriba a la vostra porta i que diu: "Si us plau, seguiu-me a la sortida". Alguna cosa tan aparentment senzill, ja que és realment molt complex. Si un robot colpeja a una porta d’un edifici d’apartaments, no teniu ni idea de amb qui voleu interactuar. Podria ser un nen de quatre anys, podria ser una persona de 95 anys. Ens encantarà que el robot personalitzi el seu comportament interactiu amb el tipus de persona que veu per rescatar-los. Estem prenent algunes d'aquestes lliçons contextuals i intentem desenvolupar aquesta aplicació.

Utilitzeu una definició similar de "estereotip" per a robots i humans, o hi ha alguna cosa més?

El terme estereotips té un context negatiu. La forma en què l’utilitzem és simplement desenvolupar categories de persones i utilitzar informació categòrica per predir les característiques d’una persona. Sé en psicologia, molta feina se centra en estereotips facials i estereotips de gènere. No fem res d'això. El procés és el mateix? No ho sé. Sense idea.

T'has preocupat que la gent pugui tenir idees errònies sobre la teva feina?

Fa un parell d'anys, vam desenvolupar aquesta idea de robots que podrien enganyar a la gent. Als mitjans de comunicació hi va haver una mica de percepció errònia que això comportaria que els robots robessin les carteres de la gent.

M'agradaria utilitzar la situació d’evacuació d’emergència: no sempre voleu ser completament honest amb una persona en una evacuació, oi? Per exemple, si algú us va preguntar: "La meva família està bé?" Podria ser terrible que el robot digués: "No, tots van morir. Si us plau, seguiu-me a la sortida. "Hi ha algunes situacions en què el robot necessita ser breument deshonest. Però la meva experiència va ser que la gent sentia que intentàvem conduir a la fi del món.

Sempre estem interessats en els aspectes pro-socials d'aquestes tècniques humà-robot. Estem intentant ajudar a la gent, no ser una cosa dolenta.

$config[ads_kvadrat] not found