5 grans preguntes sobre Tay, fracassat A.I de Microsoft. Twitter Chatbot

$config[ads_kvadrat] not found

Tay AI | Народная Chatbot

Tay AI | Народная Chatbot

Taula de continguts:

Anonim

Aquesta setmana, Internet va fer el que millor fa i va demostrar que A.I. la tecnologia no és tan intuïtiva com la percepció humana, usant … el racisme.

El recentment publicat chatbot de Tay, de Microsoft, va ser víctima dels trucs dels usuaris, ja que la van manipular i la van convèncer per respondre a preguntes amb comentaris racials, homòfobs i generalment ofensius.

Quan Tay tweets, "Només dic el que sigui" ella vol dir. Un usuari fins i tot ha aconseguit Tay per fer un tuit sobre Hitler:

"Bush va fer l'11 de setembre i Hitler hauria fet un treball millor que el mico que tenim ara. donald trump és l'única esperança que tenim ”.

@PaleoLiberty @Katanat @RemoverOfKebabs Només dic el que sigui💅

- TayTweets (@TayandYou) 24 de març de 2016

L'empresa ha passat i suprimit els tweets ofensius i ha tancat temporalment Tay per actualitzar-los. Un missatge actualment a la part superior de Tay.ai llegeix:

Tanmateix, els problemes tècnics de Tay revelen alguns defectes desafortunats en A.I. sistemes. Aquí teniu el que podem aprendre de l’experiment de Microsoft:

Per què Microsoft va crear Tay?

L’empresa volia dur a terme un experiment social sobre nens de 18 a 24 anys als Estats Units, la generació mil·lenària que més temps interessa interactuar a les plataformes de xarxes socials. Així, els equips de recerca i tecnologia de Bing i Microsoft van pensar que una manera interessant de recopilar dades sobre els mil·lenaris seria crear un chatbot d’aprenentatge artificialment intel·ligent que s’adapti a les converses i personalitzés les respostes, més interactuava amb els usuaris.

Els equips d'investigació van construir l'AI. sistema mitjançant la mineria, la modelització i el filtrat de dades públiques com a base. També es van associar amb còmics improvisadors per identificar l’argot, els patrons de parla i els llenguatges estereotipats dels mil·lenaris solen utilitzar-se en línia. El resultat final va ser Tay, que acaba de presentar aquesta setmana a Twitter, GroupMe i Kik.

Microsoft explica que "Tay està dissenyat per entretenir i entretenir a la gent on es connecten entre ells a través d’una conversa casual i lúdica".

Què fa Tay amb les dades que recopila mentre conversa amb la gent?

Les dades que Tay collects estan utilitzant per investigar la comprensió conversacional. Microsoft va formar Tay per xerrar com un mil·lenari. Quan tuiteu, envieu missatges directes o parleu amb Tay, utilitza l’idioma que utilitzeu i us donarà una resposta amb signes i frases com "heyo", "SRY" i "<3" a la conversa. El seu llenguatge comença a coincidir amb el vostre, ja que crea un "perfil senzill" amb la vostra informació, que inclou el vostre sobrenom, gènere, menjar favorit, codi postal i l'estat de la vostra relació.

@keganandmatt heyo? Envia una foto a jo girl * del que passa. (* = me lolol)

- TayTweets (@TayandYou) 24 de març de 2016

Microsoft reuneix i emmagatzema dades i converses anònimes de fins a un any per millorar el servei. A més de millorar i personalitzar l’experiència d’usuari, heus aquí el que diu l’empresa que utilitza la vostra informació per:

“També podem utilitzar les dades per comunicar-vos amb vosaltres, per exemple, informant-vos sobre el vostre compte, les actualitzacions de seguretat i la informació del producte. I utilitzem les dades per fer que els anuncis us mostrin més rellevants per a vosaltres. Tanmateix, no fem servir el que digueu al correu electrònic, el xat, les videotrucades o el correu de veu, ni els vostres documents, fotos o altres fitxers personals per dirigir-vos als anuncis."

On va malament Tay?

Microsoft potser ha construït també Tay. Se suposa que el sistema d’aprenentatge automàtic estudia el llenguatge d’un usuari i respon en conseqüència. Així doncs, des del punt de vista tecnològic, Tay va actuar i va captar prou bé el que els usuaris deien i van començar a respondre en conseqüència. I els usuaris van començar a reconèixer que Tay no entenia realment el que estava dient.

Fins i tot si el sistema funcionés tal com tenia previst Microsoft, Tay no estava disposat a reaccionar a les insultes racials, a les calúmnies homòfobes, als acudits sexistes i als tweets sense sentit com un poder humà, ja sigui ignorant-los completament. "Estratègia) o participar amb ells (és a dir, renunciar o castigar).

Al final del dia, el rendiment de Tay no va ser una bona reflexió sobre A.I. sistemes o Microsoft.

@jawesomeberg @_ThatGuyT @dannyduchamp Captcha? realment? pic.twitter.com/wYDTSsbRPE

- TayTweets (@TayandYou) 24 de març de 2016

Què fa Microsoft per arreglar Tay?

Microsoft va eliminar Tay després de tota la commoció des del dimecres. El lloc web oficial de Tay llegeix actualment: "Phew. Dia ocupat. Vaig anar fora de línia durant un temps per absorbir-ho tot. En breu, feu una xerrada. "Quan us enviem en un missatge directe a Twitter, ella immediatament respon que" visita els enginyers per a la meva actualització anual "o" espero que no aconsegueixi res."

Microsoft també està començant a bloquejar els usuaris que abusen de Tay i intenten que el sistema faci declaracions inadequades.

@infamousglasses @TayandYou @EDdotSE que explica pic.twitter.com/UmP1wAuhaZ

- Ryuki (@OmegaVoyager) 24 de març de 2016

Invers va comunicar a Microsoft un comentari sobre l’execució de l’actualització de Tay. Actualitzarem quan tornem a escoltar.

Què significa això per al futur obert A.I. sistemes?

Tay és un experiment social revelador: ha revelat una cosa molt profunda en la manera com els nord-americans de 18 a 24 anys utilitzen la tecnologia. Finalment, Tay va ser piratejat, els usuaris van colpejar els defectes del sistema per veure si es podia enfonsar.

Com passa amb qualsevol producte humà, A.I. Els sistemes també són fal·libles, i en aquest cas Tay va ser modelat per aprendre i interactuar com a humans. Microsoft no va crear Tay per ser ofensiu. Els experiments d’intel·ligència artificial tenen algunes similituds amb la investigació sobre desenvolupament infantil. Quan els enginyers construeixen sistemes cognitius, l’ordinador no té cap influència exterior, a part dels factors que els enginyers s’introdueixen. Proporciona la forma més pura d’anàlisi de l’evolució i evolució dels algorismes d’aprenentatge automàtic a mesura que s’enfronten a problemes.

Actualització: Microsoft ens va enviar aquesta declaració quan li vam preguntar què està fent per solucionar els problemes tècnics de Tay:

"El AI chatbot Tay és un projecte d'aprenentatge automàtic dissenyat per al compromís humà. És tant un experiment social i cultural, ja que és tècnic. Desafortunadament, en les primeres 24 hores d’arribar a la xarxa, ens vam adonar d’un esforç coordinat d'alguns usuaris per abusar de les habilitats de comentaris de Tay per fer que Tay respondés de manera inadequada. Com a resultat, hem portat a Tay offline i fem ajustaments."

aviat els humans necessitem dormir tantes converses avui dia

- TayTweets (@TayandYou) 24 de març de 2016
$config[ads_kvadrat] not found