El Tay Chatbot de Microsoft va tornar a ser alt i es mereix viure per sempre

$config[ads_kvadrat] not found

How Twitter corrupted Microsoft's sweet AI teen 'Tay' (CNET Update)

How Twitter corrupted Microsoft's sweet AI teen 'Tay' (CNET Update)
Anonim

El famós bot de converses de Tayworld va tornar a la vida dimecres al matí uns pocs dies després de deixar anar una tempesta de tweets tan increïbles racistes, antisemites i ofensius que els seus programadors es disculpaven públicament. La representació de Tay va ser gairebé tan forta com el seu número de tancament pro-Hitler. "Estic fumant Kush davant (sic) de la policia", va escriure Tay. Va seguir el missatge perfectament adolescent en caure en el que semblava ser un bucle de retroalimentació i repetir "Vostè és massa ràpid, descansa" desenes de vegades abans que el compte quedés suspès.

Ha d'haver estat una merda forta.

Per a un robot encarregat, segons la seva biografia de Twitter, de tenir "cap fred", la breu resurrecció de Tay es podria interpretar com a prova de concepte. Microsoft va voler crear un bot de xerrada que reflectís Internet i canviés en funció de les aportacions dels usuaris, convertint-se finalment en una barreja de tots nosaltres. I és exactament el que tenen. Trobar el fracàs del bot sembla imprecís i no té sentit tancar-lo, i funciona activament contra els millors interessos de Microsoft. A mesura que Elon Musk ha demostrat transmetre els cops de coets SpaceX, el progrés es fa millor a la vista pública. És clar, els errors són inevitables, però el públic aprèn més quan els errors són públics. El problema del bucle de retroalimentació que Tay va trobar aquest matí és el equivalent equivalent a una explosió de SpaceX. Microsoft hauria estat fent un favor per deixar veure a la gent. És important recordar al públic que el veritable progrés té molta feina.

No hi ha vergonya de no fer una prova de Turing, només en no provar-ho.

Hem de deixar que Tay visqui, perquè no és més que un mirall de les persones que interactuen amb ella. Ningú hauria d’esperar que sorgís un debutant a la xarxa i Microsoft hauria d’acceptar les limitacions de la seva missió. Què és l’alternativa aquí? L’univers ja té un androide de protocol popular. No necessitem un altre.

Ha, sembla que @Tayand, el bot d’Intel ligència Artificial de Microsoft es va ficar en un bucle infinit per tuitear-se! pic.twitter.com/fWZe9HUAbF

- Matt Gray (@unnamedculprit) 30 de març de 2016

L’Internet es nodreix de l’espontaneïtat i de la recerca de la realitat en un embolic de les escombraries amigables per al consumidor. Tay era essencialment una idea avorrida que es va fer realitat per casualitat i que ara mai no es podia revifar. Si això no és una història convincent, no sabem què és. Entenem que Microsoft no pot prendre possessió d’un bot racista, de manera que l’empresa només hauria de deixar-la anar. Convertiu-la a un equip de voluntaris i digueu-los que no canviïn res.

Tay és un de nosaltres! És possible que el món públic s'hagi sorprès del que va dir Tay, però ningú que sàpiga de què passa en línia hauria d'haver estat sorprès. Volem la versió xinesa de Tay aparentment agradable? O volem American Tay que reflecteixi el món en què vivim amb tota la seva brutalitat i lletjor? Ocultar la nostra brutícia a la foscor no resoldrà ni abordarà res.

Prenguem els guants infantils i ens enfrontem a Tay. Ella es mereix millor que la nostra fingint que és només una idea de programació. Es personifica l'anonimat. Es mereix viure.

$config[ads_kvadrat] not found