Aquest robot ha après com dir "no" a les exigències humanes

$config[ads_kvadrat] not found

Royal Quest. Как бот Лёха лук точил. Лук 65. Забавная басня.

Royal Quest. Как бот Лёха лук точил. Лук 65. Забавная басня.
Anonim

Els robots, igual que els humans, han d’aprendre quan diuen “no”. Si una sol·licitud és impossible, causaria danys o els distreia de la tasca en qüestió, llavors és en el millor interès d’un bot i el seu humà per igual per a un diplomàtic no gràcies ser part de la conversa.

Però, quan hauria de respondre una màquina? I en quines condicions? Els enginyers estan intentant descobrir com inculcar aquest sentit de com i quan cal desafiar les ordres en els humanoides.

Mireu aquest robot Nao que es negui a caminar cap endavant, sabent que fer-ho el farà caure de la vora d'una taula:

Coses senzilles, però sens dubte imprescindibles per actuar com a comprovació de l’error humà. Els investigadors Gordon Briggs i Matthias Scheutz de la Universitat de Tufts van desenvolupar un complex algoritme que permet al robot avaluar el que un humà li ha demanat, decidir si ho hauria de fer o no i respondre adequadament. La investigació es va presentar en una recent reunió de l’Associació per al Avanç de la Intel·ligència Artificial.

El robot es fa una sèrie de preguntes relacionades amb si la tasca és capaç. Sé com fer-ho? Sóc físicament capaç de fer-ho ara? Normalment sóc capaç de fer-ho? Puc fer-ho ara mateix? Estic obligat en funció del meu paper social per fer-ho? Viola qualsevol principi normatiu per fer-ho?

El resultat és un robot que sembla que no només és sensible, sinó que, fins i tot, és savi.

Tingueu en compte com Nao canvia d'opinió sobre caminar cap endavant després que l'home es comprometés a atrapar-lo. Seria fàcil imaginar un escenari diferent, on el robot diu: "De cap manera, per què he de confiar en tu?"

Però Nao és una criatura social, pel disseny. Per agradar als éssers humans es troba en el seu ADN, donat que tenint en compte la informació que l’home té la intenció d’atrapar, s’abandona cegament cap a l’abisme. És clar, si l’home hauria d’enganyar la seva confiança, s’hauria d’acoblar, però confia de totes maneres. És el camí de Nao.

A mesura que els companys del robot es tornin més sofisticats, els enginyers de robots hauran de fer front a aquestes preguntes. Els robots hauran de prendre decisions no només per preservar la seva pròpia seguretat, sinó també per qüestions ètiques més grans. Què passa si un humà demana a un robot que matés? Per cometre un frau? Per destruir un altre robot?

La idea de l’ètica de la màquina no es pot separar de la intel·ligència artificial: fins i tot els nostres automòbils sense conductor del futur hauran de ser dissenyats per fer opcions de vida o de mort en el nostre nom. Aquesta conversa serà necessàriament més complexa que lliurar ordres de marxa.

$config[ads_kvadrat] not found