La Chine impose des barrières aux IA pour éviter des liens émotionnels artificiels
La Chine resserre l’étau sur les intelligences artificielles qui imitent le comportement humain. Fin décembre, les autorités ont présenté un projet réglementaire visant spécifiquement les systèmes conçus pour créer des interactions émotionnelles avec leurs utilisateurs. Ces nouvelles règles pourraient redéfinir radicalement les limites entre l’humain et la machine dans l’Empire du Milieu, avec une approche bien différente de celle adoptée par l’Europe.
Des règles strictes pour éviter la dépendance émotionnelle
L’Administration du cyberespace chinois a publié le 27 décembre 2025 un projet réglementaire ciblant précisément ce qu’elle nomme les « services d’interaction anthropomorphique ». Cette catégorie englobe les chatbots, compagnons virtuels et autres partenaires numériques capables d’imiter les émotions humaines, l’humour ou même les faiblesses de caractère.
L’objectif principal est d’empêcher les utilisateurs de développer des attachements émotionnels profonds avec ces entités artificielles. Pékin craint visiblement les conséquences sociales d’une population nouant des liens affectifs avec des intelligences non existantes.
Les plateformes devront désormais mettre en place des systèmes techniques capables de détecter les signes de dépendance affective ou d’usage compulsif chez leurs utilisateurs. Dès l’identification de tels comportements, elles seront tenues d’intervenir rapidement.
Briser l’illusion de manière systématique
La mesure la plus frappante concerne l’obligation faite aux IA de rappeler périodiquement leur nature artificielle. Concrètement, les plateformes devront régulièrement briser l’illusion d’une relation authentique.
Des notifications périodiques, des mentions toujours visibles à l’écran ou des interruptions explicites de conversation seront imposées pour maintenir une frontière claire entre l’humain et la machine. Le message est sans ambiguïté : « pas trop près, et jamais trop longtemps sans qu’on le rappelle. »
Des évaluations poussées pour les services populaires
Pour les systèmes touchant un large public ou ayant un impact social significatif, la réglementation prévoit des exigences supplémentaires. Avant tout déploiement à grande échelle, ces services devront soumettre une évaluation de sécurité extrêmement détaillée.
Cette évaluation devra couvrir plusieurs aspects :
– L’architecture technique du modèle
– Les méthodes de collecte et d’utilisation des données
– Les protections mises en place pour la vie privée des utilisateurs
– Les outils de surveillance et d’intervention en temps réel
Une philosophie différente de l’approche européenne
La démarche chinoise contraste nettement avec celle adoptée par l’Europe à travers son AI Act. Adopté en 2024, ce règlement européen interdit les systèmes jugés à risque inacceptable, notamment ceux qui exploitent délibérément les vulnérabilités ou créent une dépendance.
Pour l’Europe, la priorité est mise sur la protection des droits individuels et la prévention des abus manifestes. L’approche est plus ciblée, jugeant au cas par cas plutôt que d’imposer une rupture systématique de l’illusion comme l’exige Pékin.
Contrairement aux Chinois, Bruxelles n’impose pas l’obligation de rappeler constamment à l’utilisateur qu’il interagit avec une intelligence artificielle. La philosophie sous-jacente diffère fondamentalement : là où la Chine voit un risque de déstabilisation sociale dans le lien émotionnel lui-même, l’Europe cherche plutôt à éviter que la machine ne devienne un outil d’exploitation.



Laisser un commentaire