Evita l’apocalipsi del robot per contemplar aquesta A.I. Qüestió de la moral

$config[ads_kvadrat] not found

#Ktag Важная информация о приборе // Руководство пользователя

#Ktag Важная информация о приборе // Руководство пользователя
Anonim

Hi ha una qüestió i un escenari de robòtica moral que cal respondre perquè la intel·ligència artificial avanci.

Imagineu-vos que hi ha un robot que controla un forat de la mina i s'adona que hi ha un carro ple de quatre miners humans que es toquen per les vies fora de control. El robot pot triar canviar les pistes i matar a un miner desconegut, estalviant així els quatre a la cistella, o mantenint les pistes tal i com són i permetent als quatre miners caure en una paret i morir. Què escolliria? La vostra resposta canviaria si el miner fos un fill? Si no podem respondre això, com programem robots per prendre aquesta decisió?

Aquestes van ser les preguntes que es van fer als panelistes i al públic a l’esdeveniment World Science Festival a Nova York titulat "Matemàtica moral dels robots: es poden codificar les decisions sobre la vida i la mort?" La majoria va triar dirigir el carro cap al miner i canviar la persona. a un nen no va canviar la ment de molts dels enquestats, però no era unànime i les decisions morals humanes sovint no ho són.

Va ser un exemple commovedor de les lluites a les quals s’enfrontarà la humanitat a mesura que la intel·ligència artificial continua avançant i ens enfrontem a la possibilitat de programar robots amb la moral.

"És difícil programar un concepte com el dany", va dir el panelista Gary Marcus, professor de psicologia i ciències neuronals a NYU i director general i cofundador de Geometric Intelligence, Inc. Va dir que els conceptes com la justícia no tenen un retall i un sec respondre al programa i actualment no tenim una bona moralitat per als robots més enllà de les lleis d'Asimov, que van aparèixer a pel·lícules com iRobot.

Va dir que era el punt d’unir-se al grup, per iniciar una conversa sobre com hauríem d’afrontar la moral dels robots.

Aquesta setmana, Elon Musk va parlar de la seva preocupació per la intel·ligència artificial i va suggerir que tots vivim en alguna mena de simulació La matriu i que els éssers humans haurien d'invertir en puntes neuronals que es connectin al cervell i augmentin les habilitats cognitives humanes. Altres futuristes, com Stephen Hawking, han advertit dels perills de l'AI. i aquesta setmana Matt Damon va advertir el mateix durant el seu discurs inicial al MIT.

Altres escenaris van incloure sistemes d’arma autònoms militaritzats i com tractarem moral i filosòficament aquestes decisions humanes en el camp de batalla, així com quines decisions poden tenir els cotxes autònoms en un futur no tan llunyà.

Els panelistes no van arribar a consens sobre què fer, però van dir que hi ha enormes beneficis per a l'AI. que no s’hauria de tirar per la finestra només perquè aquestes preguntes siguin dures. Es va suggerir que parlés més a la vista sobre aquestes qüestions morals i potser ens aproparíem a evitar l’apocalipsi del robot.

$config[ads_kvadrat] not found