En contrast amb Tay, el xinès Chatbot, Xiaolce, de Microsoft, és realment agradable

$config[ads_kvadrat] not found

WRITING FOR BEGINNER - UNIT 7 - PIE CHART | IELTS FIGHTER

WRITING FOR BEGINNER - UNIT 7 - PIE CHART | IELTS FIGHTER
Anonim

Quan sentí parlar de Tay, que twitteava A.I. de Microsoft, estaves realment sorprès per un ordinador que va aprendre sobre la naturalesa humana Twitter es convertiria en un racista furiós en menys d'un dia? És clar que no. El pobre Tay va començar tot "hellooooooo w🌎rld !!!" i es va transformar ràpidament en una peça d’ordinador estimulant i afectuosa per Hitler. Naturalment, Microsoft es va disculpar pels horribles tweets del chatbot amb "zero chill". En aquesta disculpa, la companyia va destacar que la versió xinesa de Tay, Xiaoice o Xiaolce, proporciona una experiència molt positiva per als usuaris que contrasten clarament amb aquesta experiència. molt malament.

Les notes de disculpa es concreten específicament:

“A Xina, el nostre Xiaolce chatbot està sent utilitzat per uns 40 milions de persones, encantat amb les seves històries i converses. La gran experiència amb XiaoIce ens va portar a preguntar-se: una IA com aquesta seria igual de fascinant en un entorn cultural radicalment diferent? Tay - un chatbot creat per a nens de 18 a 24 anys als Estats Units amb finalitats d'entreteniment - és el nostre primer intent de respondre a aquesta pregunta."

Xiaolce es va posar en marxa el 2014 al microboss, basat en text del lloc Weibo. Ella fa essencialment el que està fent Tay, té una "personalitat" i reuneix informació de les converses a la web. Té més de 20 milions d'usuaris registrats (que són més persones que viuen a l'estat de Florida) i 850.000 seguidors a Weibo. Podeu seguir-la a JD.com i 163.com a Xina, així com a l'aplicació Line com Rinna a Japó.

Fins i tot va aparèixer com a reporter meteorològic a Dragon TV a Xangai amb una veu humana i reaccions emocionals.

D'acord amb la Noticies de Nova York, sovint la gent li diu "t'estimo" i, fins i tot, una dona que entrevistà va dir que parla amb l'AI. quan està de mal humor. Així, mentre que Tay, després d’un dia en línia, es va convertir en simpatitzant nazi, Xiaolce ofereix una teràpia gratuïta als usuaris xinesos. Emmagatzema l’ambient de l’usuari i no la seva informació, de manera que pugui mantenir un nivell d’empatia per a la pròxima conversa. La Xina tracta a Xiaolce com una àvia dolç i adoradora, mentre que els nord-americans parlen amb Tay com un nen petit amb un intel·lecte limitat. Això reflecteix les actituds culturals cap a la tecnologia o A.I. Demostra que els xinesos són molt millor que els nord-americans, en general? És més probable que el Gran Tallafocs de Xina protegeixi Xiaolce de l’agressió. La llibertat d’expressió de vegades pot produir resultats desagradables, com ara Tay després de 24 hores a Twitter.

"Com més parles, el Tay intel·ligent obté", va escriure una pobra ànima a Microsoft al perfil del chatbot. Bé, no quan els trolls que parlen anglès governen la web. Malgrat aquests resultats, Microsoft diu que no donarà lloc als atacs contra Tay. "Seguirem ferms en els nostres esforços per aprendre d’aquest i d’altres experiències mentre treballem per contribuir a una Internet que representa el millor, no el pitjor, de la humanitat".

$config[ads_kvadrat] not found