Vídeo: Els actors de Stunt poden ser reemplaçats per aquest A.I. Tecnologia un dia aviat

$config[ads_kvadrat] not found

Маша и Медведь (Masha and The Bear) - Маша плюс каша (17 Серия)

Маша и Медведь (Masha and The Bear) - Маша плюс каша (17 Серия)
Anonim

Un nou sistema d’intel·ligència artificial ha desenvolupat dobles animats per ordinador que podrien fer que les pel·lícules d’acció estiguessin més fresques que mai. Investigadors de la Universitat de Califòrnia, a Berkeley, han desenvolupat un sistema capaç de recrear alguns dels moviments lents en arts marcials, amb el potencial de substituir els actors humans reals.

L'estudiant de postgrau de UC Berkeley Xue Bin 'Jason' Peng diu que la tecnologia provoca moviments difícils de separar-se dels humans.

"En realitat, aquest és un salt molt gran del que s'ha fet amb l'aprenentatge profund i l'animació", va dir Peng en un comunicat publicat amb les seves investigacions que es van presentar a la conferència SIGGRAPH del 2018 a agost a Vancouver, Canadà. "En el passat, molta feina s'ha dedicat a la simulació de moviments naturals, però aquests mètodes basats en la física solen ser molt especialitzats; no són mètodes generals que puguin manejar una gran varietat d’habilitats.

"Si comparem els nostres resultats amb la captura de moviment registrada per humans, arribem al punt en què és bastant difícil distingir els dos, saber què és la simulació i el que és real. Ens anem cap a un cascada virtual."

Es va publicar a la revista un document sobre el projecte, anomenat DeepMimic ACM Trans. Gràfic a l'agost. Al setembre, l’equip va posar a la seva disposició les dades de codi i captura de moviments a GitHub perquè altres persones ho pogués provar.

L’equip va utilitzar tècniques d’aprenentatge de reforç profund per ensenyar al sistema a moure's. Va prendre dades de captura de moviment des de performances reals, els va alimentar al sistema i el va posar a practicar els moviments en una simulació per a l’equivalent a un mes sencer, entrenant les 24 hores del dia. DeepMimic va aprendre 25 moviments diferents, com ara cops de peu i backflips, comparant els seus resultats cada cop per veure què tan prop va arribar a les dades originals de mocap.

A diferència d'altres sistemes que probablement van provar i van fallar, DeepMimic va trencar el pas cap a passos, per la qual cosa si fallava en un moment determinat, podria analitzar-ne el rendiment i ajustar-lo en el moment adequat.

"A mesura que aquestes tècniques progressen, crec que començaran a tenir un paper més gran en les pel·lícules", explica Peng Invers. "Tanmateix, atès que les pel·lícules generalment no són interactives, aquestes tècniques de simulació poden tenir un impacte més immediat en els jocs i la RV.

"De fet, el personatge simulat entrenat amb l'aprenentatge de reforç ja troba el seu camí cap als jocs. Els jocs independents podrien ser un bon camp de proves per a aquestes idees. Però podria trigar una estona més abans que estiguin preparats per als títols AAA, ja que el fet de treballar amb personatges simulats requereix un canvi bastant dràstic de les línies de desenvolupament tradicionals."

Els desenvolupadors de jocs comencen a experimentar amb aquestes eines. Un desenvolupador ha aconseguit utilitzar DeepMimic dins del motor de joc Unity:

Senyores i senyors, hem completat el Backflip! Enhorabona a Ringo, també conegut com StyleTransfer002.144: utilitzeu # unity3d + #MLAgents & #MarathonEnvs. StyleTransfer forma un #ActiveRagoll a partir de les dades de MoCap: Deepmimic http://t.co/gAGtYYeawE … #madewithunity pic.twitter.com/3iIoDsfdLe

- Joe Booth (@iAmVidyaGamer) 1 de novembre de 2018

Peng té esperança que alliberar el codi accelerarà la seva adopció. També assenyala que l’equip "ha estat parlant amb diversos desenvolupadors de jocs i estudis d’animació sobre possibles aplicacions d’aquest treball, encara que encara no puc entrar en massa detalls sobre això".

Les màquines lluiten regularment amb moviments complexos, tal com demostren els robots que juguen al futbol que cauen suaument per la gespa en lloc de completar els moviments d’alt octanatge. Hi ha signes de progrés, com A.I. s'adapta a la complexitat dels moviments del món real i comença a corregir-se més com a humans.

Potser DeepMimic un dia podria aprendre un nou moviment en qüestió de segons, de la mateixa manera que Neo aprèn el kung fu a La matriu.

Llegiu el resum a continuació.

Un objectiu de llarga data en l'animació de personatges és combinar les especificacions de comportament basades en dades amb un sistema que pot executar un comportament similar en una simulació física, permetent així respostes realistes a les pertorbacions i la variació ambiental. Mostrem que els mètodes coneguts d’aprenentatge de reforç (RL) es poden adaptar per aprendre polítiques de control robustes capaces d’imitar un ampli ventall de clips de moviment d’exemple, alhora que aprenen recuperacions complexes, adaptant-se als canvis de morfologia i aconseguint objectius especificats per l’usuari. El nostre mètode gestiona moviments amb fotogrames clau, accions molt dinàmiques com ara tiratges i tiratges capturats per moviment i moviments redissenyats. Combinant un objectiu d'imitació de moviment amb un objectiu de la tasca, podem entrenar personatges que reaccionin de manera intel·ligent en configuracions interactives, per exemple, caminant en la direcció desitjada o llançant una pilota a un objectiu especificat per l'usuari. Per tant, aquest enfocament combina la comoditat i la qualitat de moviment de l’ús d’unes clips de moviment per definir l’estil i l’aspecte desitjat, amb la flexibilitat i la generalitat que ofereixen els mètodes RL i l’animació basada en la física. Explorem una sèrie de mètodes per integrar diversos clips en el procés d’aprenentatge per desenvolupar agents multi-qualificats capaços de realitzar un ric repertori d’habilitats diverses. Demostrem resultats utilitzant diversos personatges (humans, robot Atlas, dinosaures bípedes, drac) i una gran varietat d’habilitats, incloent la locomoció, les acrobàcies i les arts marcials.

$config[ads_kvadrat] not found