Mars 2024 : l’ONU adopte une résolution historique pour une IA « sûre et digne de confiance ». Trois mois plus tard, le Conseil de l’Europe frappe un grand coup avec le premier traité international contraignant sur l’IA, ouvert à la signature en septembre 2024. Le texte, négocié avec 46 États + l’UE, vise à protéger les droits humains face aux dérives algorithmiques, une réponse directe aux scandales comme Clearview AI ou les logiciels de reconnaissance faciale utilisés contre des dissidents.
Le traité impose des garde-fous 🔐 :
- Transparence des systèmes à haut risque (santé, justice) ;
- Interdiction de l’IA « sociale scoring » façon Black Mirror ;
- Audits indépendants.
Mais il a un talon d’Achille : aucune sanction directe 😳. La mise en œuvre dépendra de la bonne volonté des signataires… dont les États-Unis, pourtant réticents à toute entrave à leurs géants tech. L’UE, elle, double la mise avec son règlement IA adopté en juin 2024 (qui classe les systèmes par niveaux de risque, des jouets connectés aux drones militaires).
Pendant ce temps, le Global Partnership on AI (GPAI), réunissant 29 pays, tente d'harmoniser les pratiques. Mais le bilan est mitigé 🥴 : les recommandations ne sont pas contraignantes et les pays émergents dénoncent un club de riches. La Chine, absente des négociations occidentales, pousse ses propres standards via l’initiative « IA responsable » de la BRI, un soft power technologique qui inquiète Washington.
↪️ Résultat ? Une mosaïque de normes où chaque bloc tente d’imposer son modèle. Les entreprises naviguent à vue entre le RGPD européen, le laissez-faire américain et le firewall chinois. Et si le traité du Conseil de l’Europe marque un pas historique, il ressemble encore à une déclaration d’intentions… à l’épreuve de la realpolitik.