Els investigadors estan demanant un canvi de mort només en cas que els robots ens activin

$config[ads_kvadrat] not found

El nom és l'Alcúdia - 40 anys del canvi de denominació oficial

El nom és l'Alcúdia - 40 anys del canvi de denominació oficial
Anonim

Gairebé cada vegada que sorgeix un debat important sobre el futur de la intel·ligència artificial, el tema de l'anarquia i els senyors robòtics tendeix a sorgir. La idea d’éssers humans i éssers artificials avançats que viuen junts ha generat centenars de narratives sobre com funcionarien; més recentment, el videojoc Overwatch va sorprendre el món per explicar el nostre futur, alguna vegada després d'una massiva guerra civil entre humans i robots. Quan un enginyer de Boston Dynamics llança un dels seus robots de quatre potes a causa d’una prova d’esforç, és difícil no preguntar-se si el bot es recordarà algun dia.

Tot això (juntament amb el sentit comú bàsic en matèria de seguretat i accidents) ha portat a un grup d'investigadors a publicar un nou document centrat en el desenvolupament de "agents interromputs de manera segura"; sistemes que "interrompran" l'AI. programari si alguna cosa va malament. L’article es va publicar a través de l’Institut d'Investigació de la Màquina Intel·ligent i és un estudi sobre com desenvolupar els sistemes proposats. L’estudi i la proposta utilitzen un sistema de recompensa com a exemple, i en realitat són molt més complicats que l’aconseguir "el gran botó vermell" proposat al full. Ensenyar la moral a A.I. era una part important de la proposta.

Si un agent d'aquest tipus funciona en temps real sota supervisió humana, de tant en tant pot ser que un operador humà premi el botó vermell gran per evitar que l'agent continuï amb una seqüència danyosa d'accions, perjudicials per a l'agent o per a l’entorn i conduir l’agent cap a una situació més segura. No obstant això, si l’agent d’aprenentatge espera rebre recompenses d’aquesta seqüència, es pot aprendre a la llarga a evitar tals interrupcions, per exemple, desactivant el botó vermell, que és un resultat no desitjat. Aquest article explora una manera d’assegurar-se que un agent d’aprenentatge no aprengui a (o busqui!) Ser interromput per l’entorn o per un operador humà.

T'encanta sempre que els treballs d’investigació sobre la anarquia dels robots utilitzin l’expressió “resultat indesitjable” -, tot i així, el document explica les proves que s’executen i què es pot fer sobre instàncies com aquestes en el futur. Podeu llegir el document complet aquí.

$config[ads_kvadrat] not found