Apple iPhone X Can't tell Apart xinès cares, reemborsament donat

$config[ads_kvadrat] not found

Дешёвое отопление: 160 Ватт греет, как 1000 Вт (в прихожую)

Дешёвое отопление: 160 Ватт греет, как 1000 Вт (в прихожую)
Anonim

La setmana passada, a Nanjing, una gran ciutat de l'est de la Xina, una dona amb el nom de Yan va rebre dues vegades una devolució d'Apple per la seva iPhoneX defectuosa, que el seu company va obrir amb tecnologia de reconeixement facial. Les dues dones són ètnicament xineses.

Yan va dir a les notícies locals que la primera vegada que va passar això va cridar a la línia telefònica de l'iPhone, però no la van creure. No va ser fins que ella i la seva companya van anar a una botiga local d’Apple i van mostrar al personal de la botiga que li van oferir un reemborsament i va comprar un telèfon nou, pensant que potser una càmera defectuosa fos la culpable.

Però el segon telèfon tenia el mateix problema, suggerint que no era una càmera defectuosa, tal com van suggerir els treballadors de la botiga, sinó un problema amb el programari.

Aquest no seria el primer cas en què el programari de reconeixement facial, i la IA que hi ha darrere, ha tingut problemes per reconèixer les cares no blanques.

El 2015, Google Photos ha etiquetat accidentalment una foto de dos africans-americans com a goril·les, mentre que el 2009, els ordinadors HP http://www.youtube.com/watch?v=t4DT3tQqgRM) tenien problemes per reconèixer i fer el seguiment de cares negres. no hi ha cap problema amb les cares blanques. Aquest mateix any, el programari de càmera de Nikon va ser capturat erròniament per una cara asiàtica que parpellejava.

Google Photos, et va acabar. El meu amic no és un goril·la. pic.twitter.com/SMkMCsNVX4

- Jacky (@jackyalcine) el 29 de juny de 2015

"Aquest és fonamentalment un problema de dades", va escriure Kate Crawford, investigadora principal de Microsoft i el co-president del Simposi sobre societat i A.I. "Els algorismes aprenen a ser alimentats amb certes imatges, sovint escollides pels enginyers, i el sistema construeix un model del món basat en aquestes imatges. Si un sistema està format a les fotos de persones que són immensament blanques, tindrà més dificultats per reconèixer les cares no blanques."

Jacky Alcine, el programador amb seu a Brooklyn, que la seva foto estava mal etiquetada per Google, va acceptar. De la seva experiència, va dir: "Això podria haver estat evitat amb una classificació precisa i completa dels negres".

Però el racisme que es codifica a la IA, encara que no sigui intencional, té implicacions més enllà del reconeixement facial.

Una investigació de ProPublica el 2016 va descobrir que els delinqüents negres eren el doble de probabilitats de ser equivocadament s’ha marcat com a probable que reciteu crims que els delinqüents blancs, mentre que la tendència creixent d’un "sistema de vigilància predictiu" utilitza algorismes per pronosticar el crim i dirigir els recursos de la policia en conseqüència.

No obstant això, les comunitats minoritàries han estat històricament sobrecarregades, cosa que va suposar la possibilitat que "aquest programari pugui perpetuar un cercle ja cruel", explica Crawford.

A Nanjing, Xina, Yan va rebre un segon retorn a la seva segona iPhoneX. A partir d’informes locals de notícies, no és clar si va comprar una tercera part.

El que estava en joc, aquesta vegada, podria haver estat un sol consumidor. Però el cas de Yan va ser un exemple de la necessitat contínua de la indústria de la tecnologia per dissenyar amb la diversitat i la inclusió.

$config[ads_kvadrat] not found