Aller au contenu
Agir
Faire un don
ou montant libre :
/mois
Grâce à la réduction d'impôts de 66%, votre don ne vous coûtera que : 5,1 €/mois

Menu presse

.

Contacts

Pour toute demande d'interview ou recevoir nos communiqués de presse :

+33 1 53 38 66 00

spresse@amnesty.fr

+33 6 76 94 37 05 (soir & week-end)

Menu presse

.

Contacts

Pour toute demande d'interview ou recevoir nos communiqués de presse :

+33 1 53 38 66 00

spresse@amnesty.fr

+33 6 76 94 37 05 (soir & week-end)

Monde. L’adoption de technologies non contrôlées dans le cadre de la protection sociale porte atteinte aux droits humains

Les technologies numériques, notamment l’intelligence artificielle, l’automatisation et la prise de décisions à l’aide d’algorithmes aggravent les inégalités dans les systèmes de protection sociale à travers le monde, indique Amnesty International dans un nouveau rapport rendu public mercredi 6 mars.

« De la Serbie, à l’Inde, en passant par les Pays-Bas, ces technologies sont présentées par les gouvernements comme des solutions de pointe pour assurer une meilleure distribution des ressources, améliorer les systèmes administratifs, détecter les fraudes et renforcer la sécurité. Cependant, les recherches d’Amnesty International ont révélé que la numérisation non contrôlée des systèmes de protection sociale présente de nombreux risques pour les droits humains et aggrave les inégalités, a déclaré Imogen Richmond-Bishop, chercheuse d’Amnesty Tech sur la technologie et les droits économiques, sociaux et culturels.

« Face aux multiples crises mondiales causées notamment par les conflits, l’urgence climatique et la pandémie de COVID-19, il est plus que jamais essentiel d’avoir de solides systèmes de protection sociale pour protéger les personnes et les communautés contre l’insécurité économique. »

Le nouveau rapport, intitulé La protection sociale à l’ère numérique, met en évidence les risques de l’utilisation incontrôlée des technologies numériques pour les droits humains.

Les populations qui seront impactées par un système doivent être consultées et tout changement concernant ces systèmes d’aide vitale doit être communiqué de manière claire et accessible. En particulier, s’il s’avère qu’un système risque de causer des préjudices en termes de droits humains et que ce risque ne peut pas être évité efficacement, il ne faut jamais déployer ce système

Imogen Richmond-Bishop, chercheuse d’Amnesty Tech sur la technologie et les droits économiques, sociaux et culturels

Le registre serbe relatif aux cartes sociales est un parfait exemple d’utilisation d’un processus de décision semi-automatisé dans un système d’aide sociale déjà défaillant, qui impacte de façon directe les populations déjà marginalisées, comme l’a montré Amnesty International dans un rapport publié en 2023. La technologie employée, qui a été mise en place sans garde-fous suffisants et sans protections pour les droits humains, a eu des effets particulièrement néfastes sur les communautés roms et les personnes en situation de handicap.

Le système a amplifié la discrimination existante et créé des obstacles supplémentaires pour l’accès au droit à la sécurité sociale. Beaucoup de personnes interrogées par Amnesty International ont perdu leurs maigres aides financières, ce qui a interrompu leur accès à des biens et services de première nécessité, tels que la nourriture et les médicaments, à cause des lacunes du registre des cartes sociales.

En Inde, le système d’identification biométrique Aadhaar – qui attribue un numéro d’identification unique à tous les citoyens et résidents, y compris les enfants – sert à vérifier et authentifier les informations d’identité pour de nombreux services publics, dont les prestations sociales et les rations alimentaires. Il repose entièrement sur des outils numériques. Toutes les recherches menées notamment par des journalistes et des membres de la société civile ont conclu que son utilisation a conduit à l’exclusion de nombreuses personnes d’une protection sociale qui leur était vitale.

« Il est essentiel que les États, avant d’introduire la technologie dans les systèmes de protection sociale, étudient attentivement les risques potentiels de son déploiement pour les droits humains. L’utilisation de toute technologie doit être accompagnée d’une évaluation indépendante et fiable de l’impact en termes de droits humains tout au long du cycle de vie du système, de sa conception à son déploiement, et des mesures efficaces d’atténuation des risques doivent être mises en place, a déclaré Imogen Richmond-Bishop.

« Les populations qui seront impactées par un système doivent être consultées et tout changement concernant ces systèmes d’aide vitale doit être communiqué de manière claire et accessible. En particulier, s’il s’avère qu’un système risque de causer des préjudices en termes de droits humains et que ce risque ne peut pas être évité efficacement, il ne faut jamais déployer ce système. »

Complément d’information

En 2023, un rapport d’Amnesty International intitulé Pris au piège de l’automatisation. Pauvreté et discrimination dans l’État-providence en Serbie, a montré que de nombreuses personnes, en particulier des Roms et des personnes en situation de handicap, n’étaient pas en mesure de payer leurs factures ou de nourrir leur famille et éprouvaient des difficultés à joindre les deux bouts après avoir été privées d’allocations à la suite de l’introduction du registre des cartes sociales.

En 2021, Amnesty International a rassemblé des informations montrant qu’un système algorithmique utilisé par les autorités fiscales néerlandaises avait procédé à un profilage ethnique des bénéficiaires d’allocations familiales. Cet outil était censé vérifier si les demandes de prestations sociales étaient légitimes ou frauduleuses, mais le système a en fait injustement pénalisé des milliers de parents à faible revenu ou immigrants en les faisant plonger dans un endettement exorbitant et dans la pauvreté.

The post Monde. L’adoption de technologies non contrôlées dans le cadre de la protection sociale porte atteinte aux droits humains appeared first on Amnesty International.

Menu presse

.

Contacts

Pour toute demande d'interview ou recevoir nos communiqués de presse :

+33 1 53 38 66 00

spresse@amnesty.fr

+33 6 76 94 37 05 (soir & week-end)

Sur le même pays

Monde. Les projets de suivi de l’accord mondial sur la biodiversité risquent de nuire aux droits des peuples autochtones

Publié le : 10.05.24

Les propositions relatives à la forme que prendra le suivi d’un accord mondial historique sur la biodiversité risquent de porter atteinte aux droits des peuples autochtones et de toutes les populations...

Monde. La FIFA doit publier son rapport sur l’indemnisation des travailleurs victimes d’abus en amont de la Coupe du monde au Qatar

Publié le : 09.05.24

La FIFA doit immédiatement rendre publique une étude qu’elle a reçue il y a cinq mois et qui porte sur ses responsabilités en matière de droits humains à l’égard des travailleurs lésés lors de l’organisation...

Monde. Une surveillance tentaculaire – Mise au jour d’un réseau obscur d’exportation de logiciels espions vers l’Indonésie

Publié le : 01.05.24

Un large éventail de logiciels espions hautement intrusifs et d’autres produits de surveillance est importé et déployé en Indonésie, a déclaré ce 2 mai le Security Lab d’Amnesty International, à l’occasion...

Monde. Le rapporteur spécial de l’ONU soulève avec justesse les préoccupations relatives aux droits humains quant aux marchés du carbone

Publié le : 27.04.24

En réaction à l’appel du rapporteur spécial de l’ONU sur les droits des peuples autochtones qui demande d’envisager un moratoire sur les marchés du carbone, Chris Chapman, conseiller en droits des populations...

Monde. Le partenariat de la FIFA avec Saudi Aramco pour les Coupes du monde suscite des inquiétudes sur le terrain des droits humains

Publié le : 25.04.24

Réagissant à l’accord de partenariat mondial conclu pour quatre ans par la FIFA avec Saudi Aramco, qui fait de cette entreprise publique de combustibles fossiles le sponsor de la Coupe du monde masculine...