Social Media Trolling: How A.I. Està millor a l’anticipació de Shitposts

$config[ads_kvadrat] not found

Les homophones en et, est, es, ai.

Les homophones en et, est, es, ai.
Anonim

L’Internet és un paisatge d’infernitat dirigit per trolls i dominat per arguments futils de Facebook o pitjor. I mentre els gegants dels mitjans socials a través del web finalment han començat a desenvolupar esforços més sòlids per intentar dissuadir el diàleg despectiu, aquestes solucions solen ser reactives, és a dir, després que el dany ja s'hagi fet.

No hauria de sorprendre, doncs, que els investigadors de la intel·ligència artificial estiguin disposats a desenvolupar sistemes que puguin fer-ho preveure un argument en línia abans que passi. Però, com va explicar recentment un equip d’investigadors de la Universitat Cornell Invers, aquesta innovació urgentment necessària no és tan lluny com per intentar dir el futur.

"En el passat, s'ha treballat per detectar si un comentari donat és tòxic", diu el doctorat en informàtica. Jonathan Chang. "El nostre objectiu és lleugerament diferent, volem saber si és possible predir si una conversa civil actual es farà fora de les mans en el futur. Per explorar aquesta pregunta, analitzem les converses entre editors de Viquipèdia, algunes de les quals continuen sent civils i d'altres de les quals es queden fora de les mans ".

Chang i els seus col·legues van analitzar centenars de missatges enviats entre els comissaris de Wikipedia de vegades irritats. A continuació, van utilitzar 1.270 converses que van donar un gir ofensiu per formar un model d’aprenentatge automàtic per intentar automatitzar aquest tipus de moderació. Els seus resultats es van publicar en un document presentat a la reunió anual de l'Associació per a la lingüística computacional del 15 de juliol.

Llavors, com va fer el bot "deixem-ho tot"? Afortunadament, no és massa dolent. Va acabar sent un 65% de precisió, una mica inferior a la taxa d’èxit del 72 per cent dels humans. Els investigadors van trobar aquesta estadística creant un qüestionari en línia on les persones podien provar les seves habilitats de moderació de comentaris. Resulta que és molt difícil d’identificar si els usuaris de xarxes socials es quedaran salvatges o es quedaran civils.

"La idea és demostrar que la tasca és dura, però no impossible, si els éssers humans només tenien una precisió del 50 per cent, per exemple, això no seria millor que endevinar a l'atzar i no hi hauria raons per pensar que podríem formar una màquina per fer millor ”, diu Chang. "La comparació del nostre model amb les respostes humanes ens ha permès entendre com semblant, o diferent, la nostra aproximació computacional a la intuïció humana".

Chang no creu que això deixi d’abandonar l’internet de les converses de les escombraries, però ho considera com una manera d’ajudar als moderadors de les xarxes socials humanes. En comptes d'haver de prestar atenció als milions de comentaris que es poden publicar un dia, el seu algorisme pot identificar els centenars de persones que corren el risc de convertir-se en un argument.

Si bé es podria pensar que pentinar-se a través d’aquestes disputes potencialment impredictibles donaria a Chang una tristesa, el científic diu que l’experiència li ha donat esperança per a la humanitat.

"En aquests dies, hi ha molt pessimisme al voltant de les converses en línia, però aquí el que veiem és que, fins i tot en els casos en què una conversa comença d'una manera hostil, encara hi ha la possibilitat que els participants tinguin pensaments, canviïn Toneu el to i posem la conversa en marxa per obtenir un resultat més brillant ", diu. "El futur no està en pedra".

Potser hi ha esperança d’Internet després de tot.

$config[ads_kvadrat] not found