Les imatges pixelades no coincideixen amb el reconeixement facial A.I de Cornell Tech.

$config[ads_kvadrat] not found

Week 7

Week 7
Anonim

Tres investigadors de Cornell Tech a la ciutat de Nova York han descobert que les imatges borroses i pixelades no coincideixen amb la intel·ligència artificial. Encara que les imatges fosques continuen sent incomprensibles per als ulls humans, i per tant semblen protegir el seu contingut sensible, les xarxes neuronals sovint poden dir exactament qui és qui té la imatge original.

En altres paraules, els humans ja no són la prova de foc. Ja no podem preguntar-nos si alguna cosa derrota a tots els cervells humans. Els A.I.s - fins i tot els simples A.I.s - poden superar els humans, de manera que també derrotar-los ha de ser sempre part de l'equació.

L'estudi dels investigadors de Cornell Tech es va centrar en provar algorismes de preservació de la privadesa, que difuminen o pixelitzen certa informació o parts de les imatges. Prèviament, vam confiar implícitament en un programari o algoritmes de preservació de la privadesa, pensant que la informació que amagaven era segura perquè no humà podia saber qui estava darrere del vel digital. L’estudi mostra que aquesta època ha finalitzat i els mètodes d’anonimització relacionats no duraran gaire. Les xarxes neuronals, que es troben amb aquestes mesures de privadesa, no estan satisfetes.

Richard McPherson és Ph.D. candidat a informàtica a la Universitat de Texas, Austin, que va seguir al seu professor, Vitaly Shmatikov, a Cornell Tech. Junts, juntament amb Reza Shokri, van demostrar que les xarxes neuronals simples podrien desemmascarar les tècniques comunes de ofuscació d'imatges. La tècnica és relativament poc sofisticada, la qual cosa fa que el descobriment sigui més preocupant: són mètodes habituals i accessibles, i van ser capaços de derrotar les normes de la indústria per ofuscar.

Les xarxes neuronals són grans estructures de capes de nodes o neurones artificials, que imiten l’estructura bàsica del cervell. "Es basen en una comprensió simplificada del funcionament de les neurones", explica McPherson Invers. "Dóna-li una mica d’entrada, i la neurona o bé no dispara."

També són capaços d '"aprendre", mitjançant una definició aproximada del terme. Si mostra un humà salvatge (completament sense educació) alguna cosa "vermell" i digueu-los que escullin totes les coses "vermelles" d'una galleda, en un primer moment lluitaran però milloraran amb el temps. I també amb xarxes neuronals. L’aprenentatge automàtic significa només ensenyar un ordinador a triar les coses “vermelles”, per exemple, des d’una galleda virtual de coses variades.

Així és com McPherson i la companyia van formar la seva xarxa neuronal. "Al nostre sistema creem un model: una arquitectura de xarxes neuronals, un conjunt estructurat d'aquestes neurones artificials, i llavors els donem una gran quantitat d'imatges ofuscades", diu. "Per exemple, podríem donar-los un centenar d'imatges diferents de Carol que han estat pixelades, després un centenar d'imatges diferents de Bob que han estat pixelades."

A continuació, els investigadors etiqueten aquestes imatges pixelades i, en fer-ho, expliqueu al model de cada imatge. Després de processar aquest conjunt de dades, la xarxa coneix funcionalment el aspecte de Pixelated Bob i Pixelated Carol. "Podem donar-li una imatge pixelada diferent de Bob o Carol, sense l’etiqueta", explica McPherson, "i pot suposar i dir:" Crec que aquest és Bob amb un 95% d’exactitud ".

El model no reconstrueix la imatge ofuscada, però el fet que sigui capaç de derrotar els mètodes d’anonimització més comuns i anteriorment més fiables és desconcertant per si mateix. "Són capaços d'esbrinar el que està ofuscat, però no saben com era original", diu McPherson.

Però les xarxes neuronals continuen sent capaces de fer-ho millor que els humans. Quan les imatges van ser més ofuscades utilitzant una tècnica estàndard de la indústria, el sistema era encara més del 50% exacte. Per a imatges una mica menys ofuscades, el sistema va resultar notable, al voltant del 70% de precisió. La norma de YouTube per a la desdibuixació de cares ha fallat completament; fins i tot les imatges més borroses van ser rebutjades per la xarxa neuronal, la qual cosa va demostrar un 96 per cent de precisió.

Les altres tècniques d’anonimització de dades, text i imatges que abans no estaven establertes no són igualment fiables. "Durant l'estiu hi va haver un treball que va analitzar el text anònim mitjançant la píxelització i la difuminació i va demostrar que també podien trencar-se", diu McPherson. I altres mètodes un cop confiables també poden sortir de la porta. Tot i que no coneix les tècniques de confusió de veu, com les que es fan servir per a entrevistes de televisió anònimes, "no estaria sorprès" si les xarxes neuronals podrien trencar l’anonimat.

El descobriment de McPherson, doncs, demostra que "els mètodes de preservació de la privadesa que teníem en el passat no eren realment cap al tabac, sobretot amb les tècniques modernes d’aprenentatge automàtic". En altres paraules, ens codifiquem en irrellevància, formant màquines per superar-nos en tots els àmbits.

"A mesura que creix el poder de l'aprenentatge mecànic, aquesta compensació canviarà a favor dels adversaris", van escriure els investigadors.

$config[ads_kvadrat] not found