A.I. Research Institute mostra com crear algorismes responsables

$config[ads_kvadrat] not found

Programa Empreses Responsables: integrar la responsabilitat social a les empreses

Programa Empreses Responsables: integrar la responsabilitat social a les empreses
Anonim

L’Institut de Recerca AI Now ha publicat dimecres noves recomanacions per a la implementació responsable d’algoritmes en l’esfera pública.Els seus consells es dirigeixen a un grup de treball format per l'Ajuntament de Nova York el gener que estudia l'ús de la intel·ligència artificial pel govern.

Informe de l'AI Now, Avaluacions d’impacte algorítmic: cap a l’automatització responsable a les agències públiques, descriu la necessitat de transparència a l'hora de desplegar algoritmes. Els algorismes tenen un gran impacte en la nostra vida quotidiana, però el seu impacte de vegades passa desapercebut. Com que es troben a la infraestructura de les xarxes socials i de les plataformes de vídeo, per exemple, és fàcil oblidar que els programes determinen sovint el contingut que es fa servir als usuaris d'Internet. Només quan alguna cosa va malament, com un vídeo de teoria de la conspiració que arriba a la part superior de la llista de tendències de YouTube, analitzem els procediments de decisió automatitzats que configuren les experiències en línia.

I els algorismes no es limiten a les plataformes d’Internet. Les institucions governamentals han estat cada vegada més dependents d’algorismes, en àmbits que van des de l’educació fins a la justícia penal. En un món ideal, els algorismes eliminarien els biaixos humans de decisions difícils, com ara determinar si se li hauria d’atorgar una llibertat condicional a un intern. En la pràctica, no obstant això, els algorismes només són tan efectius com les persones que les fabriquen.

Per exemple, una investigació de ProPublica va demostrar que els algorismes d’avaluació de riscs utilitzats en les aules foren racials. Com si fos poc, molts dels algorismes utilitzats en el sector públic són de propietat privada i algunes empreses es neguen a compartir el codi subjacent al seu programari. Això fa impossible entendre per què aquests anomenats algoritmes de "caixa negra" retorna certs resultats.

Una solució potencial que ofereix l'AI Now? Avaluacions d’impacte algorítmic. Aquestes avaluacions estableixen una norma de total transparència, la qual cosa significa que les agències governamentals que utilitzen algorismes haurien de publicar quan i com les utilitzen. "Aquest requisit per si mateix seria un gran camí cap a la llum sobre quines tecnologies s'estan desplegant per servir al públic i on s'hauria de centrar la investigació sobre la rendició de comptes", va dir el reportatge.

Una política d’obertura dels algorismes que envolten també obriria la porta als ciutadans a escrutar i protestar contra el seu ús. Voleu un algorisme que us proporcioni una puntuació d’avaluació del risc basada en factors externs al vostre control, especialment quan aquesta puntuació us pugui ajudar a determinar si aneu a la presó? Potser sí potser no. De qualsevol manera, és important saber exactament quines variables s’està analitzant per l’algorisme.

A més, AI Now recomana establir una norma legal per a que les persones pressionin contra algorismes injustos.

Per exemple, si una agència no revela sistemes que tinguin raó raonable de l’abast d’aquestes que prenguin decisions automatitzades, o si permet que els venedors realitzin reclamacions secretes comercials i, per tant, bloquegi l’accés significatiu del sistema, el públic hauria de tenir la possibilitat de suscitar preocupacions un organisme de supervisió de l’agència, o directament en un tribunal de justícia si l’agència es va negar a rectificar aquests problemes després del període de comentaris públics.

Les recomanacions es redueixen essencialment a un mandat general: si esteu utilitzant algorismes, no sigueu ombrívols.

Llegiu l’informe complet aquí.

$config[ads_kvadrat] not found