Tout ce qu’on ne vous dira pas au Sommet mondial de l’IA

À l’initiative de Féministes contre le cyberharcèlement, VoxPublic, Amnesty International France et la Ligue des Droits de l’Homme, une tribune signée par Echap et une centaine d’autres organisations dans Le Monde appelle à adopter une approche de l’intelligence artificielle fondée sur les droits humains et la justice sociale et environnementale.

Alors que la France est sur le point d’accueillir le Sommet pour l’Action sur l’Intelligence Artificielle (IA), une centaine d’organisations de la société civile tirent la sonnette d’alarme : les droits humains et la protection de l’environnement doivent cesser d’être sacrifiés sur l’autel du progrès technologique. L’IA telle qu’elle est développée perpétue les discriminations, aggrave les inégalités, détruit la planète et alimente un système d’exploitation global. Parce que ces constats ne figureront pas au programme officiel du Sommet, nous les exposons ici.

Source : Féministes contre le cyberharcèlement

L’intelligence artificielle (IA) connaît un développement foudroyant, et nos dirigeants ne semblent pas pressés de réfléchir aux enjeux humains, sociaux et environnementaux de ces nouvelles technologies, uniquement vues sous le prisme de la croissance, des gains de productivité et des profits. L’IA telle qu’elle est développée perpétue cependant les discriminations, aggrave les inégalités, détruit la planète et alimente un système d’exploitation global. Parce que ces constats ne figureront pas au programme officiel du Sommet mondial sur l’IA [qui se tient à Paris les 10 et 11 février 2025], nous, organisations de la société civile, vous les rappelons ici.

Se concentrer uniquement sur d’éventuels futurs risques existentiels à venir de l’IA est un leurre : ces technologies ont déjà des effets très concrets pour les populations les plus vulnérables et les plus discriminées et portent largement atteinte aux droits humains. En s’appuyant sur des bases de données biaisées et en intégrant les préjugés de ses concepteurs, l’IA perpétue les stéréotypes, renforce les inégalités sociales et limite l’accès aux ressources et opportunités. A cela s’ajoute le fait que le déploiement de ces systèmes d’IA s’inscrit dans le contexte des structures discriminatoires et inégalitaires qui existent dans les sociétés du monde entier. Le recours à ces technologies, souvent sur fond de politiques d’austérité, amplifie les discriminations dans l’accès à la santé, à l’emploi, aux services publics ou aux prestations sociales. En témoignent les scandales ayant éclaté ces dernières années : biais sexistes et racistes des algorithmes de santé, algorithme des services de l’emploi autrichien qui refuse d’orienter les femmes vers le secteur informatique, profilage et discrimination des usagers de la Caisse nationale des allocations familiales en France, au Danemark ou aux Pays-Bas.

Or les technologies sont rarement la solution à des problèmes en réalité systémiques. Il est préférable de s’attaquer à la racine de ces problèmes plutôt que de prendre le risque d’aggraver les violations des droits humains avec des systèmes d’IA. Tandis que l’on confie de plus en plus de décisions aux algorithmes, leurs biais peuvent avoir des conséquences dramatiques sur nos vies. Les IA prédictives se substituent à la justice et à la police, risquant d’amplifier le racisme systémique. Par exemple, aux Etats-Unis, une IA calculant les risques de récidive désignait deux fois plus les accusés noirs comme étant « à haut risque » que les accusés blancs. Et quand bien même on réduirait ces biais, se concentrer sur les outils prédictifs nous empêche de penser à des réformes plus globales du système carcéral.

Ces systèmes sont aussi utilisés à des fins de surveillance et d’identification dans le cadre du contrôle des frontières ou de conflits, comme Lavender, cette IA qui, en désignant des cibles terroristes, a provoqué la mort de milliers de civils gazaouis. Et bien souvent, ces technologies sont développées par les pays occidentaux, comme les outils créés par des pays européens utilisés pour surveiller la population ouïghoure en Chine.

Les systèmes d’IA générative sont également instrumentalisés à des fins de désinformation et de déstabilisation par des régimes répressifs et des acteurs privés. « Bots » utilisés pour manipuler l’information sur des questions liées à la santé, désinformation à caractère raciste durant les dernières élections européennes, deepfakes audios et vidéo mettant en scène des candidats aux élections : ces technologies sont autant de menaces pour l’Etat de droit. Les montages crédibles générés par IA sont aussi un danger pour les femmes et les enfants : 96 % de ces deepfakes sont des contenus non consentis à caractère sexuel [selon le rapport 2019 du cabinet de conseil en gestion de risques DeepTrace], massivement utilisés dans le but de nuire aux femmes et de générer des contenus pédocriminels.

Par ailleurs, ces effets s’inscrivent dans un système d’exploitation global. L’IA, et notamment l’IA générative, constitue un véritable désastre pour l’environnement. D’ici à 2027, l’IA générative nécessitera une alimentation en électricité équivalente à celle de pays comme l’Argentine ou les Pays-Bas [comme le rapporte un article du New York Times d’octobre 2023]. Les émissions de CO2 des « géants de la tech » ont augmenté de 30 à 50 % en 2024 en raison du développement fulgurant de ces technologies. Et ce sont les pays du Sud global qui sont les premiers touchés : les data centers y pullulent, et l’extraction de minerais, comme le cobalt, utilisé entre autres dans les batteries, met en péril la santé des populations, entraîne la pollution des eaux et des terres et alimente violences et conflits armés.

Les inégalités entre les pays du Nord et du Sud sont également aggravées par les technologies déployées pour la modération de contenus en ligne. Les géants du numérique qui allouent plus de moyens aux pays du Nord privilégient ainsi certaines langues et récits culturels, déjà dominants, au détriment des autres. Enfin, n’oublions pas que ces systèmes d’IA sont majoritairement entraînés par des travailleurs et travailleuses du Sud global, exploités et sous-payés. Selon les informations du magazine Time, la société OpenAI a ainsi rémunéré des Kényans moins de deux dollars (1,95 euro) de l’heure pour labelliser des contenus toxiques, un travail particulièrement violent et éprouvant.

Face à ces constats alarmants, le règlement européen sur l’IA, présenté comme un instrument de protection des droits et libertés, reste très imparfait, notamment sur les questions de surveillance et de police prédictive. Par ailleurs ce règlement ne s’appliquera pas hors des frontières de l’Union européenne, alors même que la menace pour les droits humains et l’environnement est globale et que l’exportation des IA de surveillance génère du profit pour les entreprises européennes.

Nos gouvernements ne cessent de parler de souveraineté de l’IA, mais les défis posés par ces systèmes transcendent les frontières. Loin d’être un sujet technologique, l’IA est l’affaire de toutes et tous. Tout le monde doit pouvoir choisir la direction de ses développements, quitte à les refuser s’ils ne correspondent pas à notre projet de société. Un cadre contraignant élaboré démocratiquement, dans une perspective de solidarité internationale et avec les communautés les plus touchées, qui place les droits humains et la justice environnementale au cœur de la régulation de l’IA, voilà le véritable progrès.

Voir la liste des signataires.

Lettre ouverte à l’attention de la Free Software Foundation

Nous avons signé cette lettre ouverte demandant la révocation du conseil d’administration de la Fondation pour le logiciel libre (FSF) ainsi que le retrait de Richard M. Stallman de tous les postes de direction, y compris du projet GNU.

Cette lettre fait suite au retour de Richard Stallman au conseil d’administration de la FSF plus tôt cette semaine, à la grande surprise de la communauté du logiciel libre. RMS avait démissioné de ce poste en Septembre 2019 sous la pression de la communauté. RMS est connu depuis de longues années pour son comportement déplacé envers les femmes, et a exprimé plusieurs fois des propos inacceptables sur le viol et la pédophilie.

Réintégrer RMS au conseil d’administration de la FSF est incompatible avec les idéaux même de la FSF et le besoin impérieux de supprimer les comportements sexistes au sein des communautés du logiciel libre. 

Nous avons pris la liberté de traduire le texte de cette lettre ouverte en français pour plus d’accessibilité.

Richard M. Stallman, fréquemment connu sous le nom de RMS, est depuis longtemps une menace dans la communauté du logiciel libre. Il s’est montré misogyne, validiste et transphobe, parmi d’autres accusations graves de conduites inappropriées. Ce genre de croyances n’a pas sa place dans les communautés du logiciel libre, des droits numériques et de la tech. Suite à sa récente réintégration au sein du conseil d’administration de la Free Software Foundation, nous demandons que l’ensemble du conseil d’administration de la FSF démissionne et que RMS soit démis de toutes ses fonctions de direction.

Nous, les soussigné·e·s, croyons en la nécessité de l’autonomie numérique et au rôle important que joue la liberté des utilisatrices et utilisateurs dans la protection de nos droits humains fondamentaux. Afin de mettre en œuvre la vision de tout ce que les logiciels libres rendent possible, il doit y avoir un changement radical au sein de la communauté. Nous croyons en un présent et un avenir où toutes les technologies donnent du pouvoir aux gens, au lieu de les opprimer. Nous savons que cela n’est possible que dans un monde où la technologie est construite pour respecter nos droits à ses niveaux les plus fondamentaux. Bien que ces idées aient été popularisées d’une certaine façon par Richard M. Stallman, il ne parle pas en notre nom. Nous n’approuvons pas ses actions et ses opinions. Nous ne reconnaissons pas son leadership ni celui de la Free Software Foundation telle qu’elle existe aujourd’hui.
Il y a eu suffisamment de tolérance envers les idées et le comportement répugnants de RMS. Nous ne pouvons pas continuer à laisser une seule personne ruiner le sens de notre travail. Nos communautés n’ont pas de place pour des personnes comme Richard M. Stallman, et nous ne continuerons pas à tolérer son comportement, à lui donner un rôle de leader, ou à le considérer comme acceptable, lui et son idéologie blessante et dangereuse.

Nous demandons la démission de l’ensemble du conseil d’administration de la Free Software Foundation. Ce sont ces gens qui ont donné moyens et pouvoir à RMS pendant des années. Ils nous le montrent à nouveau en lui permettant de réintégrer le conseil de la FSF. Il est temps pour RMS de se retirer des communautés du logiciel libre, des questions éthiques autour de la tech, des droits numériques et des communautés tech car il ne peut pas avoir le rôle de guide dont nous avons besoin. Nous demandons également que Richard M. Stallman soit retiré de tous les postes de direction, y compris au sein du projet GNU.

Nous demandons instamment à ceux qui sont en mesure de le faire de cesser de soutenir la Free Software Foundation. Refusez de contribuer aux projets liés à la FSF et à RMS. Ne faites pas de présentation et n’assistez pas aux événements de la FSF, ou aux événements qui accueillent RMS et l’intolérance qu’il porte avec lui. Nous demandons aux contributeur·ice·s aux projets de logiciels libres de prendre position contre les idées réactionnaires et la haine au sein de leurs projets. En faisant tout cela, dites pourquoi à ces communautés et à la FSF.

Nous avons détaillé plusieurs incidents publics du comportement de RMS. Certain·es d’entre nous ont nos propres histoires au sujet de RMS et de nos interactions avec lui, des choses qui ne sont ni enregistrées dans des fils de discussion ni dans des vidéos. Nous espérons que vous lirez ce qui a été partagé et que vous prendrez en compte le mal qu’il a fait à notre communauté et aux autres.

Pour signer, veuillez envoyer un courriel à digitalautonomy at riseup.net ou soumettre une pull request.

Interview dans Korii

Nous avons été interviewées par Elsa Gambin pour Korii sur la création de notre association et sur les violences numériques. En voici un extrait :

Quand on n’a pas soi-même expérimenté une situation de cyberviolence, on ne se rend pas forcément compte de ce que connaissent les victimes et de ce qui est important pour elles. On pense qu’il faut combattre la surveillance de masse, mais aussi s’attaquer à l’utilisation abusive de la technologie contre les minorités. Le numérique ne doit pas devenir un énième outil de domination.

Vous pouvez lire l’article complet sur Korii : Echap, des outils pour aider les femmes à s’émanciper des cyberviolences.

Merci à Elsa Gambin pour son travail.

À propos de la fonctionnalité « Notifications Covid-19 » apparue sur nos téléphones

Nous avons vu plusieurs personnes sur les médias sociaux être inquiètes à cause de l’apparition de la fonctionnalité « Notification Covid-19 » sur leur téléphone Android ou iPhone. Voici donc un court article pour expliquer ce que c’est et pourquoi ce n’est pas un problème.

Capture d'écran d'un smartphone décrivant le fonctionnement du service "Notifications COVID-19"
"Pour activer les notifications d'exposition au COVID-19, ouvrez une application disponible.
Votre téléphone doit utiliser le Bluetooth pour collecter des ID aléatoires et les partager avec d'autres téléphones à proximité de manière sécurisée. Ces ID aléatoires sont automatiquement supprimés après 14 jours.
La localisation de l'appareil doit être activée pour que les appareils Bluetooth à proximité puissent être détectés. Toutefois, le système de notifications d'exposition au COVID-19 n'utilise pas la position de l'appareil.
L’application peut vous avertir si vous vous êtes trouvé à proximité d'une personne ayant signalé un résultat positif au test de dépistage du COVID-19.
La date et la durée d'une exposition ainsi que la proximité physique, révélée par l'intensité du signal, seront partagées avec l'application.
Si vous êtes testé positif au COVID-19, vous pouvez choisir de partager les ID aléatoires de votre téléphone avec I'application que vous avez au préalable autorisée, afin que celle-ci puisse envoyer des notifications sur d'autres téléphones de manière anonyme."

Capture d’écran Notifications COVID-19 sur Android (dans Paramètres > Google > Notifications d’exposition COVID-19)

COVID-19 et la solution Apple/Google pour le traçage de contacts

Beaucoup de pays ont émis l’idée d’utiliser une application pour smartphone afin de tracer les contacts entre les personnes et identifier des personnes porteuses du COVID-19 et asymptomatiques. La principale solution qui a été développée se base sur des messages envoyés par Bluetooth. Le Bluetooth est un protocole de communication sans fil de courte portée (souvent utilisé pour connecter des enceintes à un smartphone, par exemple). L’idée est de l’utiliser pour émettre des messages en permanence et enregistrer les messages des smartphones à proximité. Lorsqu’une personne est identifiée porteuse du COVID-19, ses messages sont utilisés pour alerter les personnes qu’elle a croisées qu’elles peuvent être à risque.

Il y a eu beaucoup de débats autour de la façon de mettre en place ce système et vous pouvez lire sur le traçage anonyme, les arguments de La Quadrature du Net ou cet article du Monde par exemple. En ce qui concerne le traçage, un problème qui s’est posé c’est que les applications ne peuvent techniquement pas utiliser le Bluetooth en arrière plan à cause de limitations posées par Apple et Google. Pour répondre à ça, Google et Apple ont mis en place un service qui peut être utilisé par certaines applications. Ce service appelé « Notifications COVID-19 » a été déployé en mai sur la majorité des téléphones Android et iPhone.

Le service « Notifications COVID-19 » ne fait rien si vous n’avez pas installé une application qui l’utilise. Donc si vous n’installez pas une application de traçage de contacts, le service n’est pas activé et ne change rien à la sécurité de votre téléphone.

Et en France ?

La France a mis en place cette semaine une application de traçage de contacts pour iPhone et Android appelée StopCovid. Nous avons beaucoup de critiques vis à vis de cette application. À notre sens, l’approche dans son développement est problématique, et elle n’offre aujourd’hui pas de garantie sur l’anonymat des données recueillies. Nous avons également peu de recul sur les abus qui peuvent être commis lors de son utilisation, notamment dans le cadre de violences faites contre les femmes.

Libre à chacune de peser les avantages et inconvénients de cet outil. Dans notre collectif tout le monde a décidé de refuser de l’utiliser à cause du manque de garantie de sécurité pour notre vie privée.

Dans tous les cas, l’application StopCovid n’utilise pas le service « Notifications Covid-19 » mis en place par Apple et Google. Même en utilisant l’application, cette fonctionnalité dans votre téléphone est inactive et ne change donc rien à sa sécurité.

En résumé

En résumé, cette fonctionnalité apparue dans les téléphones Android et iPhone est inactive par défaut et ne change en rien la sécurité de votre appareil. Si vous êtes en France, l’application StopCovid n’utilise pas non plus cette fonctionnalité, donc il est assez improbable qu’elle soit un jour utilisée sur votre téléphone. Quant à l’application StopCovid, nous recommandons de ne pas l’installer, mais libre à vous de vous faire votre propre opinion.