El nostre A.I. Policy is Stuck in the Past

$config[ads_kvadrat] not found

Enrique Iglesias - Bailando (English Version) ft. Sean Paul, Descemer Bueno, Gente De Zona

Enrique Iglesias - Bailando (English Version) ft. Sean Paul, Descemer Bueno, Gente De Zona
Anonim

Ed Felten, director tècnic adjunt de tecnologia de la Casa Blanca de l'Oficina de Política Científica i Tecnològica de la Casa Blanca, diu que els humans tenen dues responsabilitats importants a l'hora de desenvolupar i avançar en la intel·ligència artificial.

El primer, diu, és "fer els beneficis d’AI. una realitat ". El segon:" per fer front als riscos de l’I."

Felten estava parlant amb una gent atenta al centre Skirball per a les arts escèniques de la Universitat de Nova York a A.I. Ara: un cicle de conferències estiuenca co-patrocinat per la Casa Blanca que va intentar examinar i debatre qüestions clau relacionades amb el futur de A.I. tecnologia.

A.I. es troba en una cruïlla, A.I. Ara co-presideix Kate Crawford (investigador de Microsoft Research) i Meredith Whittaker (el fundador i líder de Google Open Research). Els sectors públic i privat necessiten treballar junts per crear algun tipus d’AI viable. política. Però el problema és que, mentre que les empreses tecnològiques estan fent grans progressos cap a l’avanç del codi i de l’arquitectura reals que entren en l’AI. una força totpoderosa, les nostres estructures polítiques actuals estan obsoletes o, pitjor, inexistents.

Durant massa temps, A.I. s’ha deixat de banda com un concepte futurista, inaplicable a l’època moderna. Però A.I. s’ha manifestat tranquil·lament en la política urbana, escombra a través d’una gran quantitat de dades i ofereix serveis a les persones de manera que el simple poder humà no sigui capaç d’aconseguir mai. Els exemples citats de la manera com els algoritmes poden utilitzar dades per enllaçar persones a un habitatge assequible, o fer complir la transparència perquè el públic tingui accés a informació valuosa.

Això no vol dir que A.I. és perfecte; és molt no. Durant el panell principal de la tarda, Latanya Sweeney, A.I. investigadora de la Universitat de Harvard, va discutir una història que va anomenar "El dia que la meva computadora era racista".

Un periodista que va entrevistar Sweeney va buscar el seu nom a través de Google i va descobrir que el seu nom apareixia sota anuncis de llocs que ofereixen recollir i compartir dades de detenció criminal. Sweeney mai no havia estat detingut, i el seu nom no era ni tan sols part de la base de dades del lloc web, però el seu nom estava marcat de forma destacada a la publicitat. Com tots els bons científics, Sweeney va prendre la seva pròpia experiència personal i va dirigir un estudi i va trobar que aquests anuncis eren significativament més propensos a enumerar els noms dels individus negres que els blancs. La raó? El lliurament d’aquests anuncis a Google és el resultat d’un algoritme que dóna més pes al que els humans van fer clic quan apareixien els anuncis. Quan un nom negre era Google, més persones van fer clic en aquests anuncis. El sistema va aprendre el patró i va començar a lliurar aquests anuncis amb més freqüència.

És una lliçó valuosa a la base de la promesa d'AI: els humans en última instància, el poder de la tecnologia, i les accions racistes per part dels éssers humans poden afectar el disseny i els algorismes i, sí, fins i tot A.I.

Google podria detectar fàcilment aquests biaixos en els seus serveis d’anuncis i treballar per corregir-los. "Van triar no fer-ho", va argumentar Sweeney.

Podria un marc polític més modern obligar Google a solucionar aquest problema? Potser. Nicole Wong, que era la predecessora de Felten de 2013 a 2014, va posar èmfasi en que moltes persones, incloent-hi l'AI. els mateixos investigadors: es van preocupar realment per una "asimetria creixent en el poder" entre les persones que utilitzen les grans dades i les persones que finalment es veuran afectades, que van des dels temes de les dades o dels afectats per les decisions informades per aquestes dades..

Aquestes preocupacions no es limiten al sector privat. Roy Austin, ajudant adjunt del president del Consell de política interior domèstica de la Casa Blanca, va parlar de com A.I. - o crear un massiu excés de poder i abusos quan es tracta de la intimitat dels civils. "La pregunta esdevé:" Què fem amb aquestes dades? ", Va dir. Una cosa és tenir dades, però, qui té accés? Per quant de temps? Qui tindrà accés? De nou, no tenim respostes polítiques ni solucions a aquestes preguntes i incerteses, i això és inquietant a mesura que anem cap a un futur cada vegada més controlat per A.I.

Un tercer pilar de preocupació tenia menys a veure amb els usos nefastos de l'AI, i més a propòsit de com A.I. i els sistemes autònoms estan desplaçant els humans dels llocs de treball. Henry Siu, un A.I. investigador de la Universitat de Colúmbia Britànica, va discutir ocupacions "rutinàries" (on els empleats duen a terme un conjunt de tasques molt específiques que gairebé mai no es desvien d'una rutina fixa) i com aquestes pèrdues de llocs de treball són les més vulnerables a les interrupcions de la tecnologia. L’automatització ha generat una reducció de la força en aquests llocs de treball - i no tornen.

Sembla la mateixa antiga història de la industrialització, però no és així. Mentre que "aquesta revolució ja podria estar aquí … potser sigui menys exòtica del que vam imaginar", va advertir David Edelman, assistent especial del president de la política econòmica i tecnològica. La pèrdua d'ocupació "no passarà de cop." Tant ell com Siu van destacar que la solució és crear un clima educatiu on la gent no deixi d'anar a l'escola, que adquireix constantment noves habilitats i especialitzacions que els permeten adaptar-se. amb tecnologia.

Pot ser que sigui reconfortant als responsables polítics adonar-se que els Estats Units no estan sols a abordar aquests problemes. Però si els Estats Units volen continuar liderant el camí d’AI, s’haurà d’accelerar en l’àmbit polític.

Mustafa Suleyman, cofundadora de Google DeepMind, va discutir el potencial de l'AI. per ajudar els sistemes sanitaris i permetre als metges en algoritmes de màquina diagnosticar certes malalties i malalties - alliberant temps als humans per elaborar mètodes de tractament. Per a Suleyman, que és britànic, no va semblar una idea tan remota obtenir un sistema com aquest dins dels hospitals. Sweeney ha assenyalat, però, que "als Estats Units, no teniu control de les vostres pròpies dades" - no hi ha mesures reguladores que assegurin que la informació no s’abusa. I això és un enorme problema.

"Vull que tot el que pugui esprémer de cada èxit de la tecnologia", va dir Sweeney. "El problema no és el costat tecnològic; el problema és que estem fora de ritme amb les polítiques públiques."

$config[ads_kvadrat] not found