Human Rights Watch: Xina utilitza Big Data per orientar grups minoritaris

$config[ads_kvadrat] not found

China conducting 'intense' global attack on rights: HRW | AFP

China conducting 'intense' global attack on rights: HRW | AFP
Anonim

Segons un informe de Human Rights Watch publicat el dilluns, el govern xinès utilitza algorismes de vigilància predictiva per orientar les minories ètniques a la província de Xinjiang.

La província del nord-oest de la Xina té 11 milions de uigurs, un grup ètnic musulmà turc discriminat pel govern xinès en els darrers anys.

Ara, segons sembla, les autoritats han utilitzat les grans dades per orientar sistemàticament a qualsevol persona sospitosa de deslleialtat política. L'empenta forma part de la campanya "Strike Hard", que pretén anul·lar la possible activitat terrorista a la Xina. A la pràctica, això ha provocat una vigilància desproporcionada dels uigurs, segons Human Rights Watch.

El sistema de vigilància predictiu, conegut com IJOP - Integrated Joint Operations Platform - és alimentat amb dades de diferents eines de vigilància. Aquests inclouen càmeres de circuit tancat de televisió, números de matrícula i targeta d’identificació ciutadana obtinguts dels controls de seguretat i una informació personal, inclosos els registres de salut, bancaris i legals.

A més de la vigilància automatitzada, els funcionaris del govern realitzen visites a casa per recollir dades sobre la població. Un empresari xinès va compartir la forma que va omplir amb els registres d'IJOP amb Human Rights Watch - entre altres coses, el qüestionari li va preguntar si l'home de negocis era uigur, la freqüència amb què prega i on va als serveis religiosos.

IJOP utilitza totes aquestes dades per identificar les persones com a possibles amenaces. Quan algú està marcat, la policia obre una investigació posterior i els posa sota custòdia si es considera sospitós.

"Per primera vegada, som capaços de demostrar que l’ús que fan el govern xinès de dades grans i la vigilància predictiva no només viola els drets de privadesa, sinó que també permet als funcionaris detenir persones de manera arbitraria", va dir Maya Wang, investigador de la Xina, investigador sènior de Human Rights Watch.

Segons l'informe, algunes de les persones marcades han estat enviades a centres educatius polítics on són detinguts indefinidament sense judici.

"Des de l'abril del 2016, Human Rights Watch calcula que les autoritats de Xinjiang han enviat a" centres d'educació política "desenes de milers de uigures i altres minories ètniques", segons l'informe. IJOP està donant credibilitat a aquestes detencions aplicant una xapa d’anàlisi algorítmica objectiva a les detencions discriminatòries.

Per empitjorar les coses, el funcionament intern de l'IJOP està envoltat de secret.

"La gent de Xinjiang no pot resistir ni desafiar l’examen cada vegada més intrusiu de les seves vides quotidianes, perquè la majoria no saben sobre aquest programa de" caixa negra "ni sobre com funciona", va dir Wang.

És el mateix problema que afecta a sistemes d'aprenentatge automàtic més sofisticats: els procediments de decisió que utilitzen són fins i tot opacs als creadors de l'algorisme.

La utilització d’IJOP per part de la Xina val la pena prestar atenció perquè la protecció predictiva és probable que proliferi a mesura que la tecnologia millori. Com va assenyalar Jon Christian L’esquema, els sistemes de vigilància predictiva ja s’utilitzen en alguns llocs dels Estats Units. El Departament de Policia de Los Angeles utilitza un programari que anticipa on i quan probablement es produiran crims perquè els oficials els puguin retirar.

A l'altre costat del sistema de justícia penal, les tribunals utilitzen de vegades algorismes que donen a les proves de llibertat en libertat condicional "puntuació del risc" per ajudar els jutges a prendre decisions més informades. Malauradament, aquests algorismes suposadament imparcials realment discriminen en funció de la raça.

La incursió de la Xina en la vigilància predictiva subratlla la importància d’una implementació d’algorismes responsables, ja que l’aprenentatge automàtic continua ingressant al sector públic. Potser és hora que els governs amb coneixements tècnics adoptin un nou mantra: de vegades la intel·ligència artificial crea més problemes del que soluciona.

$config[ads_kvadrat] not found