El nou algoritme del MIT pot predir les interaccions humanes abans que siguin incòmodes

$config[ads_kvadrat] not found

Humans Need Not Apply

Humans Need Not Apply
Anonim

La nostra incapacitat per llegir altres persones ha provocat que alguns èxits de cinc faltessin i no es fessin petons. Fins i tot després d’experiència tota la vida, les interaccions humanes són difícils de predir. Però els investigadors del Laboratori d'Informàtica i Intel·ligència Artificial del MIT pensen que poden ajudar: Amb un nou algoritme d'aprenentatge profund que pot predir quan dues persones abraçaran, besaran, donaran la mà o cinc, han fet un gran pas cap a un futur benvolgut sense aquests moments incòmodes.

Esperen el seu nou algorisme, format en 600 hores de vídeos de YouTube i programes de televisió com L'Oficina, Frega, Teoria del Big Bang, i Mestresses de casa desesperades - Es pot utilitzar per programar robots menys socialment incòmodes i desenvolupar auriculars d’estil de Google Glass per suggerir accions per a nosaltres abans de tenir la possibilitat de perdre'ns. En el futur que estiguin imaginant, mai no tornareu a embrutar l’oportunitat d’enviar cinc anys amb el vostre company de treball.

Tenint en compte que els robots aprenen a ser socials de la mateixa manera que ho fem, va ser clau per a l'èxit de l'algorisme. "Els humans aprenen automàticament a anticipar les accions a través de l'experiència, que és el que ens va fer interessats a intentar dotar les computadores del mateix tipus de sentit comú", diu el doctorat CSAIL. l’estudiant Carl Vondrick, el primer autor d’un document relacionat que es presenta aquesta setmana a la Conferència Internacional sobre Visió per Computador i Reconeixement de Patrons. "Volíem demostrar que només veient grans quantitats de vídeo, els ordinadors poden obtenir coneixements suficients per fer prediccions sobre el seu entorn".

Vondrick i el seu equip van ensenyar les múltiples "xarxes neuronals" de l’algorisme per analitzar enormes quantitats de dades, en aquest cas, hores de Jim i Pam dels cinc majors, i els petons encoberts de Mike i Susan, pel seu compte. Tenint en compte factors com ara els braços estesos, una mà elevada o una mirada prolongada, cadascuna de les xarxes neuronals va endevinar el que passaria en el segon següent, i el consens general de les xarxes es va prendre com a "predicció" final a la estudiar.

L’algorisme s’apropa més del 43% del temps. Tot i que potser no sembli prou alt com per garantir que les nostres interaccions quotidianes siguin menys estranyes, és una gran millora dels algorismes existents, que només tenen una precisió del 36%.

A més, els humans només poden predir accions el 71 per cent del temps. Necessitem tota l'ajuda que puguem obtenir.

A la segona part de l’estudi, es va ensenyar l’algorisme per predir quins objectes apareixerien a l’escena cinc segons més tard, com ara comandes a distància, plats i bidons d’escombraries. Per exemple, si s'obre una porta de microones, hi ha una probabilitat relativament alta que aparegui una tassa.

El seu algorisme encara no és prou precís per a Google Glass, però amb el coautor Antonio Torralba, Ph.D. - Finançat per un premi de recerca de professorat de Google i Vondrick treballant amb un doctorat de Google. beca - podem apostar que arriba allà. Les futures versions de l’algorisme, prediu Vondrick, es poden utilitzar per programar robots per interactuar amb humans o fins i tot ensenyar càmeres de seguretat per registrar-se quan una persona cau o es lesiona.

"Un vídeo no és com el llibre" Trieu la vostra pròpia aventura "on podeu veure tots els camins potencials", diu Vondrick. "El futur és inherentment ambigu, de manera que és emocionant desafiar-nos a desenvolupar un sistema que utilitzi aquestes representacions per anticipar totes les possibilitats".

$config[ads_kvadrat] not found