Món Global
Imatge d'arxiu sobre reconeixement facial
Foto: Imatge d'arxiu sobre reconeixement facial | Flcikr
Intel·ligència Artificial

Amnistia Internacional alerta dels perills de la IA en generar racisme i desigualtats

Temps de lectura: 2 minuts
Imatge d'arxiu sobre reconeixement facial
Foto: Imatge d'arxiu sobre reconeixement facial | Flcikr

Amnistia Internacional ha alertat que la intel·ligència artificial (IA) pot generar més desigualtats i racisme a les societats i ha exigit a la Unió Europea que reguli i prohibeixi les eines que fan servir aquesta tecnologia de manera "perillosa".

Per què és important? La Unió Europea està negociant la que serà la primera llei internacional que posi límits a la IA, per això Amnistia Internacional ha aprofitat per remarcar els perills d'aquesta tecnologia i exigir mesures a l'ens internacional.

En detall: L'ONG exigeix el veto de sistemes com el de reconeixement facial en llocs públics, incloses zones frontereres al voltant de centres de detenció.

  • Considera que cal posar límits "que facin front als problemes existents, com ara que la tecnologia s'utilitzi per prendre decisions discriminatòries que vulnerin drets humans bàsics". 

Exemple: El comunicat de l'organització posa com a exemple una eina utilitzada als Països Baixos per, suposadament, detectar si les sol·licituds d'ajudes a la infància eren fraudulentes o no. 

  • Segons Amnistia, el sistema "va penalitzar erròniament milers de famílies de classe baixa i d'origen immigrant, enfonsant-los en la pobresa i haver de fer front a més deutes".

Què diu? Amnistia Internacional exposa en un comunicat que "els sistemes d'IA han amplificat de forma flagrant el racisme i les desigualtats i han perpetuat la vulneració dels drets humans".

  • L'assessor sobre regulació de la intel·ligència artificial d'Amnistia Internacional, Mher Hakobyan, assegura que els nous sistemes tecnològics "no s'empren per millorar el benestar de la gent, sinó que es fan servir per estalviar costos".
  • "Quan ja existeixen problemes sistèmics com el racisme i la discriminació, aquestes tecnologies danyen encara més les comunitats marginades", exposa Hakobyan.