Chargement en cours

OpenAI sécurise ChatGPT : une IA anti-jeunes pour protéger les mineurs en ligne

Sécurité Numérique Lumineuse

Face aux préoccupations croissantes concernant la sécurité en ligne des jeunes utilisateurs, OpenAI prend des mesures concrètes. L’entreprise derrière ChatGPT réagit après plusieurs incidents graves impliquant des mineurs et adapte sa plateforme pour offrir un environnement plus sûr tout en préservant l’accès aux outils d’intelligence artificielle.

Une technologie innovante pour identifier les jeunes utilisateurs

ChatGPT s’apprête à intégrer un système d’estimation d’âge sophistiqué. Contrairement aux méthodes traditionnelles exigeant une pièce d’identité dès l’inscription, cette approche repose sur un modèle prédictif analysant le comportement des utilisateurs.

Le système évaluera plusieurs paramètres pour déterminer si un compte appartient à un mineur. Parmi ces critères figurent « l’ancienneté du compte, les horaires de connexion ou encore les schémas d’utilisation observés sur la durée ». Ces informations seront croisées avec l’âge déclaré lors de l’inscription.

Des garde-fous automatiques pour un environnement sécurisé

Lorsqu’un utilisateur est identifié comme mineur, ChatGPT activera automatiquement des protections spécifiques. L’objectif affiché par OpenAI est de maintenir l’accès aux fonctionnalités éducatives et créatives tout en limitant l’exposition à des contenus inappropriés.

Contenus sensibles désormais filtrés

La plateforme restreindra l’accès à plusieurs catégories de contenus potentiellement préjudiciables, notamment :
– Les échanges liés à la violence graphique
– Les discussions autour de l’automutilation
– Les jeux de rôle romantiques ou sexuels
– Les défis viraux encourageant des comportements dangereux

OpenAI souhaite également réduire la visibilité des contenus promouvant « des standards de beauté extrêmes ou des pratiques alimentaires à risque », particulièrement problématiques pour les adolescents.

Un contexte de vigilance accrue

Cette initiative intervient dans un environnement réglementaire de plus en plus exigeant. OpenAI fait actuellement face à plusieurs procédures judiciaires et enquêtes, particulièrement aux États-Unis, concernant l’impact de ses technologies sur les adolescents.

L’annonce s’inscrit également dans le cadre des discussions européennes sur l’encadrement de l’accès des jeunes aux services numériques, notamment les dispositions du RGPD.

Solution pour les utilisateurs mal identifiés

Pour éviter les restrictions injustifiées, OpenAI prévoit un mécanisme permettant aux utilisateurs adultes incorrectement identifiés comme mineurs de retrouver un accès complet. La vérification pourra se faire « via un selfie ou le téléchargement d’un document officiel ».

Vers une expérience différenciée selon l’âge

Le déploiement de ce système sera progressif en Europe, avec une attention particulière aux exigences réglementaires locales. Cette nouvelle approche marque également le début d’une stratégie de segmentation plus fine des services d’OpenAI.

Parallèlement, l’entreprise prépare l’introduction d’un « mode adulte » destiné aux utilisateurs majeurs. Ce mode permettra d’accéder à des contenus plus sensibles tout en maintenant les garde-fous nécessaires pour les mineurs.

Il est spécialisé dans les outils d’IA appliqués au travail et à l’entrepreneuriat. Automatisation, no-code, assistants intelligents, IA pour les entreprises : il explore les solutions qui font gagner du temps et améliorent l’efficacité. Sa priorité : proposer des conseils pratiques, testés et réellement utiles.

Laisser un commentaire