Stars armées contre les deepfakes : YouTube déploie un arsenal technologique
L’intelligence artificielle permet désormais de reproduire à l’identique le visage et la voix de n’importe quelle personnalité publique. Face à cette menace croissante, les procédures judiciaires traditionnelles se révèlent inefficaces, trop lentes et onéreuses pour endiguer le phénomène. Les stars du cinéma, de la musique et du sport cherchent des solutions rapides pour défendre leur image.
La plateforme vidéo de Google franchit une étape décisive en élargissant l’accès à son système de détection automatique des contenus frauduleux.
Une ouverture stratégique aux professionnels du divertissement
YouTube met désormais à disposition son outil de détection des deepfakes à l’ensemble de l’industrie du spectacle. Acteurs, musiciens, sportifs professionnels, mais aussi agences de talent et sociétés de management peuvent désormais l’utiliser.
Cette technologie avait d’abord été testée auprès des plus importants créateurs de contenu présents sur la plateforme. Les personnalités politiques ont ensuite bénéficié de cet accès prioritaire avant l’ouverture générale.
Un système inspiré de la protection des droits d’auteur
Le fonctionnement s’inspire directement de Content ID, l’outil que YouTube exploite depuis des années pour identifier les violations de droits d’auteur. La détection des clones numériques repose sur des principes similaires d’analyse automatisée.
Toutefois, un signalement ne conduit pas systématiquement à une suppression. YouTube conserve son système d’arbitrage pour examiner chaque cas individuellement.
La satire reste autorisée
Les règles d’utilisation de la communauté préservent explicitement la parodie et la satire. Ces formats créatifs bénéficient d’une protection particulière.
Les suppressions visent principalement les clones numériques qui se substituent au travail réel d’un artiste ou d’un interprète, portant ainsi préjudice à son activité professionnelle.
Des demandes variées pendant la phase test
Durant le programme pilote, les créateurs ont formulé des requêtes dépassant le simple cadre de l’usurpation d’identité. Nombreux sont ceux qui ont réclamé le retrait de contenus jugés négatifs ou dégradants.
Ces sollicitations révèlent les multiples dimensions du problème posé par les deepfakes, au-delà de la seule question technique de la détection.
Vers une monétisation des contenus générés par IA
Mary Ellen Coe, directrice commerciale de YouTube, esquisse une vision prospective du traitement des deepfakes. L’entreprise envisage d’offrir aux ayants droit une alternative à la suppression pure et simple.
Cette option permettrait aux célébrités de percevoir des revenus sur les contenus générés par intelligence artificielle utilisant leur image, plutôt que d’exiger leur retrait systématique.
Un modèle économique qui pourrait transformer radicalement la gestion des droits à l’image à l’ère de l’IA générative.



Laisser un commentaire