Musk, Wozniak, Hawking, altres genis oposen armes autònomes

$config[ads_kvadrat] not found

Stephen Hawking Warns About A.I. Development | CNBC

Stephen Hawking Warns About A.I. Development | CNBC
Anonim

Durant dècades, l'AK-47 ha estat la màquina de matar d'elecció en molts racons polsosos del món, ja que és barat, durador i omnipresent. Aquests mateixos factors, argumenten els signataris d’una carta oberta publicada dilluns a l’Institut del futur de la vida, són les raons per les quals les armes autònomes estan carregades de perill. Però allò que separa els armes de la intel·ligència artificial dels kalashnikov és que la màquina autònoma pot "seleccionar i involucrar objectius sense intervenció humana", que, en mans equivocades, podria perpetrar atrocitats molt més grans que qualsevol rifle que no calculi.

Els signants tenen el seu treball definit per a ells. Com a éssers humans, som, en conjunt, molt millor en reaccionar que pensar. Els jugadors més importants han tardat a baixar les nostres armes nuclears (i la construcció de drons autònoms, pensa, requeriria una fracció de la maquinària que creava un atomitzador); en altres llocs, les mines terrestres encara tenen camps de batalla dècades. Quan una tecnologia va revolucionar la guerra, ja sigui pólvora o dreadnoughts navals o urani enriquit, gairebé mai no hi ha no ha estat una cursa d’armes.

El FLI fa una distinció entre els drons que tenim ara, pilotats de forma remota per mans humanes, i un robot encès i deixat als seus propis dispositius assassins. La creació d’aquest últim provocaria una cursa mundial d’armes a la IA que el FLI argumenta i, com ho demostra la història del Kalashnikov, no acabaria bé:

Només serà qüestió de temps fins que apareguin al mercat negre i en mans de terroristes, els dictadors que vulguin controlar millor la seva població, senyors de la guerra que vulguin perpetuar la neteja ètnica, etc. Les armes autònomes són ideals per a tasques com els assassinats i la desestabilització. nacions, que sotmeten les poblacions i maten selectivament un grup ètnic determinat. Per tant, creiem que una carrera armada de la IA militar no seria beneficiosa per a la humanitat. Hi ha moltes maneres en què la IA pot fer que els camps de batalla siguin més segurs per als humans, especialment per als civils, sense crear noves eines per matar persones.

Aquesta és una merda pesada. I els noms d’aquest advertiment no són els vostres slots de Skynet executats, que són creadors, enginyers, científics i filòsofs que han ajudat a configurar el que sembla avui la nostra tecnologia. Entre els noms destaquen: Steve Wozniak d'Apple, Jaan Tallinn de Skype, Lisa Randall, física de Harvard, qui és qui de investigadors i robòtics de la IA, incloent Stuart Russell, Barbara J. Grosz, Tom Mitchell i Eric Horvitz, actriu Talulah Riley, Noam Chomsky, Stephen Hawking.

Hawking ha anat una mica amb una inclinació pessimista darrerament, reiterant també les seves prediccions sobre els perills de trobar vida extraterrestre. També respondrà preguntes sobre aquesta carta i sobre el futur de la tecnologia a Reddit aquesta setmana - potser no podrem controlar els estrangers hostils, però podem posar "la responsabilitat dels científics al capdavant d'aquesta tecnologia per mantenir el factor humà front i el centre de les seves innovacions."

Podeu afegir el vostre nom a la carta també.

$config[ads_kvadrat] not found