Chargement en cours

Deepfake sexuel : l’Europe serre la vis sur l’IA scandaleuse

Régulation numérique et protection des données

La montée en puissance de l’intelligence artificielle s’accompagne de dérives inquiétantes. Parmi elles, la fabrication d’images à caractère sexuel à partir de photographies authentiques, sans l’accord des personnes concernées. Face à cette menace grandissante, les institutions européennes accélèrent pour poser un cadre légal strict.

Une offensive législative contre les applications de « nudification »

Le Parlement européen franchit une étape décisive dans la lutte contre les deepfakes sexuels. Les commissions des libertés civiles et du marché intérieur ont approuvé un amendement ciblant spécifiquement les systèmes de « nudification ».

Ces technologies exploitent l’intelligence artificielle pour fabriquer ou modifier des photographies intimes en se basant sur des individus réels et identifiables. Le tout, bien évidemment, sans leur consentement.

Le texte doit encore être soumis au vote en séance plénière le 26 mars. S’il est validé, des discussions avec les États membres s’ouvriront pour aboutir à une version définitive et contraignante.

Des voix s’élèvent pour protéger les victimes

L’eurodéputé Michael McNamara ne mâche pas ses mots. Il dénonce des applications qui génèrent « beaucoup de souffrances au bénéfice de quelques-uns ».

De son côté, Kim van Sparrentak salue une avancée majeure pour la défense des femmes et des mineurs, particulièrement exposés à ces pratiques malveillantes.

Le scandale Grok comme déclencheur

Ce durcissement réglementaire intervient dans un climat de controverses récentes. L’une d’elles concerne Grok, l’outil développé par xAI sur le réseau social d’Elon Musk.

Pendant un temps, cette plateforme permettait de générer des images sexualisées à partir de clichés réels, y compris de femmes et d’enfants. La révélation a provoqué une vive réaction en Europe et l’ouverture d’une enquête.

xAI a depuis restreint l’accès et bloqué la production d’images à caractère sexuel, mais uniquement dans les juridictions où ces contenus sont illégaux.

Une mobilisation coordonnée à l’échelle européenne

En parallèle de l’initiative parlementaire, les États membres de l’Union européenne ont validé une proposition portée conjointement par la France et l’Espagne.

Cette proposition vise à bannir les services d’intelligence artificielle capables de produire des images sexuelles non consenties et des contenus pédopornographiques.

Cette convergence entre le Parlement et les gouvernements nationaux témoigne d’une volonté politique commune d’encadrer rigoureusement les applications sensibles de l’IA. La protection des victimes potentielles devient une priorité affichée.

Laisser un commentaire