DeepMind A.I. Ponts entre el robot i les veus humanes

$config[ads_kvadrat] not found

Google's DeepMind AI Just Taught Itself To Walk

Google's DeepMind AI Just Taught Itself To Walk
Anonim

La intel·ligència artificial fa que les veus del robot soni molt més realistes.

DeepMind, que prèviament va demostrar el poder de A.I. superant un jugador humà al març de Go i reduint la factura de poder a la meitat al juliol, ara es centra en la síntesi de la parla.

El grup de recerca A.I, que forma part de la companyia matriu de Google, Alphabet, ha revelat aquest matí que ha creat una nova tecnologia anomenada WaveNet que es pot utilitzar per generar veu, música i altres sons amb més precisió que abans.

DeepMind explica que molts mètodes de síntesi de veu existents es basen en "es registra una base de dades molt gran de fragments breus de parla des d'un sol altaveu i després es recombina per formar frases completes". D'altra banda, WaveNet utilitza la "forma d'ona crua del senyal d'àudio". "Per crear veus i sons més realistes.

Això significa que WaveNet està treballant amb els sons individuals creats quan un humà parla en comptes d’utilitzar síl·labes completes o paraules completes. Aquests sons s'executen a través d’un procés "computacionalment car" que DeepMind ha trobat "essencial per a la generació d’àudio complexe i realista" amb les màquines.

El resultat de tot aquest treball addicional és un 50 per cent de millora a la parla sintetitzada en anglès i xinès mandarí. Aquí teniu un exemple de discurs generat amb text paramètric de parla, que és comú avui dia, utilitzat per DeepMind per demostrar com manca aquest mètode de síntesi de veu:

I aquí hi ha un exemple de la mateixa frase generada per WaveNet:

A mesura que les empreses continuen treballant en interfícies de llenguatge natural, oferir respostes més realistes serà cada vegada més important. WaveNet pot ajudar a resoldre aquest problema.

$config[ads_kvadrat] not found