Chargement en cours

Google accusé de désinformation médicale : l’IA en cause sur des sujets sensibles

Salle Attente Lumineuse

L’intelligence artificielle de Google fait à nouveau parler d’elle, mais pas pour les bonnes raisons. Une récente enquête pointe du doigt la fiabilité des résumés automatiques générés par AI Overviews, particulièrement sur des sujets de santé où les informations erronées pourraient avoir des conséquences graves pour les utilisateurs.

Des erreurs médicales potentiellement dangereuses

L’enquête menée par le Guardian révèle des inexactitudes préoccupantes dans les réponses fournies par l’outil d’intelligence artificielle de Google. Les AI Overviews, ces résumés qui apparaissent en tête des résultats de recherche, contiennent parfois des informations médicales complètement erronées qui pourraient influencer négativement les décisions de santé des internautes.

Parmi les exemples les plus frappants, l’IA recommandait aux patients atteints de cancer du pancréas d’éviter les aliments riches en matières grasses, alors que les conseils médicaux standards préconisent généralement l’inverse pour ces patients qui luttent souvent contre la perte de poids.

D’autres erreurs concernent les tests hépatiques, où l’outil présente des fourchettes de résultats « normaux » sans préciser que ces valeurs varient considérablement selon l’âge, le sexe ou l’origine ethnique du patient.

Des conseils dangereux sur des sujets sensibles

L’enquête révèle également des problèmes concernant les cancers féminins. L’IA affirme à tort que le frottis cervical est un test de dépistage approprié pour le cancer du vagin, une information incorrecte qui pourrait retarder un diagnostic vital.

Plus inquiétant encore, les résumés de Google fournissent des conseils potentiellement dangereux sur des sujets de santé mentale, notamment concernant des troubles graves comme la psychose ou les troubles du comportement alimentaire.

Une confiance aveugle des utilisateurs

Le danger de ces inexactitudes est amplifié par la confiance croissante que les internautes accordent aux réponses générées par l’intelligence artificielle. Une étude du MIT citée dans l’enquête indique qu’une large majorité d’adultes se tournent désormais vers internet pour des questions de santé.

« Les utilisateurs considèrent souvent les réponses de l’IA comme fiables, sans vérifier leur exactitude auprès de sources médicales reconnues », souligne l’étude.

Des résultats instables et imprévisibles

Un autre problème mis en lumière concerne l’instabilité des résultats. Pour une même requête, l’IA peut fournir des réponses différentes selon le moment ou les sources consultées, créant une incertitude préoccupante pour les utilisateurs en quête d’informations médicales précises.

Google assure investir massivement dans l’amélioration continue de la qualité de son service, tout en reconnaissant que des erreurs peuvent survenir. Cependant, les implications potentielles de ces erreurs sont particulièrement graves dans le domaine médical.

Google à l’offensive sur l’IA

Cette polémique survient alors que Google multiplie ses initiatives dans le domaine de l’intelligence artificielle. Le co-fondateur Sergey Brin est récemment sorti de sa retraite partielle pour rediriger l’entreprise vers l’IA, face à la montée en puissance de concurrents comme ChatGPT, qui capte désormais 80% du trafic mondial lié à l’intelligence artificielle.

Parallèlement, Google développe d’autres services basés sur l’IA, comme l’essayage virtuel dans Google Shopping utilisant des selfies, ou encore des outils de traduction en temps réel pour briser les barrières linguistiques.

Des risques sanitaires réels

Le risque le plus préoccupant reste celui de voir des personnes atteintes de maladies graves se considérer à tort en bonne santé en suivant les conseils de l’IA. Les informations médicales erronées pourraient retarder des consultations essentielles ou conduire à des décisions thérapeutiques inappropriées, avec des conséquences potentiellement graves.

Cette situation soulève des questions fondamentales sur la responsabilité des géants technologiques dans la diffusion d’informations de santé, ainsi que sur la nécessité d’une régulation plus stricte de l’IA dans ce domaine sensible.

Laisser un commentaire