Procès en vue pour Nvidia : IA entraînée avec des données piratées?
L’essor fulgurant de l’intelligence artificielle soulève des questions juridiques inédites. Au cœur de ces débats : l’origine des données massives utilisées pour entraîner les modèles. Nvidia, géant américain des processeurs graphiques, se retrouve aujourd’hui dans la tourmente judiciaire, accusé d’avoir nourri ses algorithmes avec des contenus protégés par le droit d’auteur.
Des auteurs montent au créneau
Plusieurs écrivains américains, parmi lesquels Susan Orlean et Brian Keene, ont déposé une plainte retentissante début 2024. Leur cible : les pratiques d’entraînement du modèle NeMo Megatron-GPT développé par Nvidia.
Les plaignants brandissent des preuves qui semblent accablantes. Ils ont mis la main sur des échanges internes au sein de l’entreprise, révélant notamment une prise de contact avec Anna’s Archive, une plateforme controversée.
L’objectif présumé ? Obtenir un accès express à plusieurs centaines de téraoctets de données. D’autres sites figurent également dans le dossier : LibGen, Sci-Hub ou encore Z-Library, tous connus pour héberger des contenus piratés.
Une défense qui mise sur le flou juridique
Face à ces accusations, Nvidia contre-attaque. Le 29 janvier dernier, l’entreprise a déposé une motion pour faire rejeter la plainte en bloc.
Selon ses avocats, les éléments présentés ne démontrent aucune violation caractérisée du droit d’auteur. Discuter de sources potentielles ou évaluer leur pertinence ne constitue pas une preuve d’utilisation effective.
Le manque de précision dans les accusations
Nvidia enfonce le clou : les plaignants restent flous sur l’essentiel. Quelles œuvres précises auraient été copiées ? À quel moment ? Dans quels modèles spécifiques se retrouveraient-elles ?
Ces accusations jugées trop vagues ne répondraient pas aux exigences strictes du droit américain, argue la défense.
L’argument du « fair use » en ligne de mire
La stratégie juridique de Nvidia s’appuie également sur le concept d’usage loyal, le fameux « fair use ». L’entreprise soutient que les livres ne sont pas reproduits à l’identique dans ses modèles.
Ils seraient plutôt transformés en corrélations statistiques abstraites, perdant ainsi leur forme originale. Cette ligne de défense n’est pas nouvelle : Anthropic l’avait déjà adoptée l’année précédente face à des accusations similaires.
Un procès aux enjeux colossaux
L’audience sur la motion de rejet est fixée au 2 avril 2026. La décision du juge pourrait avoir des répercussions considérables sur l’ensemble de l’industrie technologique.
Deux scénarios se dessinent. Soit le tribunal ouvre la porte à une enquête approfondie sur les pratiques internes de Nvidia, permettant d’examiner en détail les méthodes d’entraînement.
Des conséquences pour toute l’industrie
Soit la justice renforce les barrières procédurales, compliquant la tâche des auteurs qui souhaiteraient contester l’utilisation de leurs œuvres dans le développement de l’IA.
L’ensemble du secteur technologique suit ce dossier avec une attention soutenue. Les arbitrages à venir pourraient redéfinir le cadre légal du développement de l’intelligence artificielle et fixer les limites de ce qui est permis en matière d’entraînement des modèles.



Laisser un commentaire