Ha fallat el programa Microsoft de Tay en la prova de Turing? Sí, però el racisme no era el problema

$config[ads_kvadrat] not found

How to Pass Microsoft Word Employment Assessment Test

How to Pass Microsoft Word Employment Assessment Test
Anonim

Si l'èxit d'una intel·ligència artificial és la creació d'un artifici personalitat, Microsoft A.I. El bot, Tay, es podria considerar un signe de progrés. Però, més àmpliament, Tay es pot jutjar com un fracàs.

"L'objectiu de la majoria de les persones que treballen en agents de conversa d'aquest tipus no és tant passar qualsevol prova de Turing, sinó tenir un domini útil del llenguatge que respongui de manera sensible a les coses i faciliti l'accés al coneixement" Miles Brundage, Ph.D. Un estudiant que estudia les dimensions humanes i socials de la ciència i la tecnologia a Arizona State University explica Invers.

Microsoft va il·lustrar alguns dels problemes de construir A.I. els programes d’aquesta setmana, en menys de 24 hores, l’Internet ha convertit el que volia ser una personalitat femenina, mil·lenària, automatitzada i de Twitter a la taula de ressonància del discurs més racista i vil que els trolls havien d’oferir.

Microsoft immediatament va tancar l'experiment i es va disculpar: "Lamentem profundament els tweets ofensius i perjudicials no desitjats de Tay, que no representen qui som o què representem, ni com hem dissenyat Tay".

Quan es tracta de la prova de Turing, el famós experiment utilitzat per avaluar A.I., Brundage diu que hi ha, en general, dues escoles de pensament - literal i teòric.

Desenvolupat el 1950, Alan Turing va intentar respondre a la pregunta: "Les màquines poden pensar?" Va posar màquines a través d'una prova d'imitació, que requereix que un observador determini el gènere de dos entrevistats, un dels quals és un A.I. Si l’ordinador pot enganyar a un cert nombre d’observadors, ha passat la prova.

hellooooooo w🌎rld !!!

- TayTweets (@TayandYou) 23 de març de 2016

Si haguéssim d’aplicar aquesta prova literalment, a Inversa conversa privada amb Tay, va respondre de manera eloqüent a les qüestions polítiques, va fer referències als grillons del "mannnn" a la societat i va utilitzar algunes abreviatures i emojis de text comuns. Brundage va dir que Tay mostrava un comportament mil·lenari, però que aquest tipus de A.I. s’han construït abans.

"Ser capaç de produir comentaris aparentment adolescents a Twitter no és realment l’ampli sentit de la capacitat lingüística i intel·lectual àmplia que Turing tenia en ment, segons Brundage. "Dit això, si realment havíem de fer la prova de Turing literalment, la qual cosa no crec que sigui necessàriament aconsellable, una variant és que molts dels seus comentaris van semblar ser humans".

Però si volem adoptar l’enfocament més ampli segons suggeriria Brundage, és evident que Tay no mostrava un discurs humà raonable.

Microsoft estava provant el que anomenava "comprensió conversacional" de tal manera que a la qual parla més gent a través de Twitter, GroupMe i Kik, més se suposava que havia d'aprendre i adaptar-se. Però va acabar repetint simplement repetint el que molts altres usuaris van alimentar i només van reiterar-lo al món.

"Tay" va passar de "els humans són super cool" a nazi complet a les 24 hores i no estic gens preocupat pel futur de AI pic.twitter.com/xuGi1u9S1A

- Gerry (@geraldmellor) 24 de març de 2016

"La majoria dels éssers humans no repetiria només després de vostè, tot el que vau dir", diu Brundage.

Articular "Bush va fer l'11 de setembre" i "Hitler hauria fet un treball millor que el mico que tenim ara", potser alguna cosa que algú va escriure a Tay, però no és exactament una conversa amable.

"Es podria dir que el seu propòsit d’articular la prova de Turing era menys per prescriure detalls d’una prova i més per provocar que la gent pensés" en quin moment estaríeu disposat a estar en un sistema tan intel·ligent "i obrir el pensament de la gent per la possibilitat que les màquines puguin pensar ", diu Brundage.

$config[ads_kvadrat] not found