Chargement en cours

Fabrication d’interview par IA : le scandale secoue le journalisme asiatique

intelligence_artificielle_journalisme

Le monde du journalisme vit un tournant controversé. L’utilisation de l’intelligence artificielle dans la production de contenus médiatiques franchit parfois des lignes rouges, soulevant des questions éthiques fondamentales. Un magazine asiatique vient d’en faire la démonstration avec une affaire qui scandalise la profession.

Un magazine invente de toutes pièces une interview

En mars dernier, Esquire Singapore a publié un entretien avec Mackenyu Arata, l’interprète de Roronoa Zoro dans l’adaptation Netflix du célèbre manga One Piece. Un problème de taille : l’acteur n’a jamais répondu aux questions posées.

La rédaction a en réalité confié cette tâche à des logiciels d’intelligence artificielle. Une démarche assumée, mais qui pose de sérieuses interrogations sur les limites de l’usage de ces technologies dans le journalisme.

Des algorithmes mis à contribution pour générer des réponses

La méthodologie employée révèle toute l’ampleur du stratagème. Les équipes du magazine ont d’abord alimenté les IA Claude et Copilot avec des réponses issues d’anciennes interviews authentiques de l’acteur nippo-américain.

Puis, ils ont soumis de nouvelles questions à ces outils pour obtenir des réponses inédites, créées de toutes pièces. Le magazine a d’ailleurs précisé que « l’interview a été produite avec Claude, Copilot et éditée par des humains ».

Une justification surprenante de la rédaction

Joy Ling, la journaliste signataire de l’article, a tenté d’expliquer ce choix éditorial. « Nous étions ravis de passer du temps avec l’acteur nippo-américain mais son emploi du temps ne le permettait pas », écrit-elle dans le papier litigieux.

Elle poursuit : « Nous avions le shooting photo mais rien de directement prononcé par le jeune homme de 29 ans. Face à l’urgence d’un article, nous avons été créatifs. » Une créativité qui confine à la fabrication pure et simple.

Des sujets intimes abordés sans consentement

Le contenu même de cette pseudo-interview aggrave considérablement la situation. L’intelligence artificielle a généré des propos sur des thèmes profondément personnels, touchant à la vie privée de Mackenyu Arata.

Parmi les sujets traités figuraient son expérience récente de paternité, les pressions qu’il ressent dans sa carrière, mais surtout le souvenir de son père disparu, Sonny Chiba, légende des arts martiaux et icône du cinéma d’action japonais.

Des mots qui n’ont jamais été prononcés

L’algorithme a notamment fait dire à l’acteur qu’il « veut rendre son père fier ». Des paroles chargées d’émotion qui n’ont pourtant jamais franchi les lèvres du principal intéressé dans ce contexte spécifique.

La rédaction a ainsi permis à une machine d’inventer des sentiments sur le deuil d’un homme, sans son accord ni sa validation. L’agence de l’acteur n’a même pas été consultée.

Un scandale éthique majeur pour la profession

Cette affaire illustre parfaitement les dérives potentielles de l’intelligence artificielle dans le journalisme. Mackenyu Arata n’a d’ailleurs jamais répondu aux courriels envoyés par Esquire Singapore, probablement ignorant jusqu’à la publication que ses propos seraient fabriqués.

Les observateurs du secteur médiatique dénoncent unanimement ce « dérapage éditorial » sans précédent. Le magazine a littéralement fabriqué les mots d’une personne réelle sur des sujets intimes et les a publiés sous son identité.

Un exemple à ne surtout pas suivre

Cette histoire devient rapidement un cas d’école de ce qu’il ne faut absolument pas faire avec l’IA dans le journalisme. Elle soulève des questions cruciales sur l’authenticité, le consentement et le respect de la parole des personnes interviewées.

L’incident rappelle que si l’intelligence artificielle peut être un outil précieux pour les médias, son utilisation doit impérativement respecter des limites éthiques fondamentales, notamment quand il s’agit de faire parler des individus réels.

Laisser un commentaire