ChatGPT et vérification d'âge : comment OpenAI va contrôler l'accès des mineurs
Jacky West / September 30, 2025
ChatGPT et vérification d'âge : comment OpenAI va contrôler l'accès des mineurs
Face aux préoccupations croissantes concernant la sécurité des jeunes utilisateurs, OpenAI annonce un renforcement majeur de ses mesures de protection. La société derrière ChatGPT va désormais estimer l'âge des utilisateurs et pourrait même exiger une pièce d'identité dans certains cas. Ces nouvelles règles, annoncées par Sam Altman le 16 septembre 2025, marquent un tournant dans l'approche d'OpenAI concernant l'accès des mineurs à son chatbot.
Un système d'estimation d'âge pour différencier les expériences
OpenAI prévoit d'implémenter un système capable d'estimer l'âge des utilisateurs de ChatGPT. Cette initiative vise à proposer deux versions distinctes de l'agent conversationnel : une pour les adultes et une autre, plus limitée, pour les mineurs. La frontière entre ces deux expériences sera fixée à 18 ans, bien que l'inscription reste autorisée dès 13 ans avec l'accord parental.
Cette approche prudente se manifeste également dans la gestion des cas ambigus. Sam Altman a précisé que face à un doute sur l'âge d'un utilisateur, OpenAI privilégiera systématiquement l'expérience destinée aux moins de 18 ans, même si la personne est en réalité majeure. Cette décision reflète la priorité accordée à la protection des mineurs dans l'écosystème de l'IA.
Vérification d'identité : un compromis controversé
La mesure la plus controversée du plan d'OpenAI concerne la possible demande de pièce d'identité dans certains pays. Cette exigence, qui soulève des questions évidentes de vie privée, pourrait servir à deux objectifs :
- Permettre à un adulte incorrectement classé comme mineur d'accéder à la version complète de ChatGPT
- Restreindre l'accès des mineurs dans certaines régions où la législation l'exige
OpenAI reconnaît que cette mesure constitue une atteinte à la vie privée des utilisateurs adultes, mais la considère comme "un compromis acceptable" au regard des enjeux de protection des mineurs. Sam Altman a d'ailleurs anticipé les critiques en déclarant : "Je ne m'attends pas à ce que tout le monde soit d'accord avec ces compromis, mais compte tenu du conflit, il est important d'expliquer notre prise de décision."
Un principe directeur : la sécurité avant tout
La position d'OpenAI repose désormais sur un principe clair : pour les mineurs, la sécurité prime sur tout autre considération, y compris la vie privée et la liberté d'utilisation. Cette hiérarchisation des valeurs s'explique par le caractère "nouveau et puissant" de l'intelligence artificielle générative, qui selon l'entreprise, nécessite des garde-fous particulièrement solides pour les utilisateurs les plus jeunes.
| Mesure de protection | Application aux mineurs | Application aux adultes |
|---|---|---|
| Filtrage des contenus sensibles | Strict | Modéré |
| Discussions sur des sujets délicats | Fortement limitées | Autorisées avec avertissements |
| Vérification d'identité | Possible via les parents | Possible dans certains pays |
| Signalement aux autorités | En cas de danger imminent | Rarement applicable |
Restrictions d'usage pour les comptes mineurs
Le contrôle parental annoncé début septembre 2025 s'accompagne de restrictions spécifiques pour les comptes des utilisateurs mineurs. Ces limitations concernent particulièrement :
- Les interactions à caractère séducteur ou ambigu
- Les discussions sur le suicide ou l'automutilation, même dans un cadre créatif
- Certains contenus jugés inappropriés pour les mineurs
Ces restrictions s'inscrivent dans une démarche plus large visant à prévenir les risques liés à l'utilisation intensive de ChatGPT, notamment après plusieurs affaires médiatisées impliquant des cas de suicide. La gravité de ces incidents a manifestement poussé OpenAI à adopter une approche beaucoup plus interventionniste.
Signalements et interventions : jusqu'où ira OpenAI ?
L'aspect peut-être le plus intrusif du nouveau dispositif concerne la gestion des situations à risque. Si un mineur aborde des sujets liés au suicide ou à l'automutilation, OpenAI prévoit de contacter directement les parents ou représentants légaux dont les coordonnées auraient été enregistrées lors de l'inscription.
Plus préoccupant encore, en cas d'impossibilité de joindre les parents et face à ce que l'entreprise considère comme un "danger imminent", OpenAI n'exclut pas d'alerter directement les autorités. Cette disposition soulève d'importantes questions sur les limites légales et éthiques de l'intervention d'une entreprise privée dans des situations de détresse personnelle.
Les limites de l'approche d'OpenAI
Malgré l'ambition affichée, l'initiative d'OpenAI présente une limite évidente : elle ne concerne que l'écosystème de ChatGPT. Sans coordination à l'échelle de toute l'industrie de l'IA générative, les mineurs pourront simplement se tourner vers d'autres alternatives comme Le Chat ou d'autres plateformes aux règles moins strictes.
Cette fragmentation de l'approche réglementaire pose la question de l'efficacité réelle des mesures annoncées. Si l'objectif est véritablement la protection des mineurs, une harmonisation des pratiques à l'échelle de l'industrie semblerait nécessaire.

Contexte : des incidents graves à l'origine du durcissement
Ces nouvelles mesures interviennent dans un contexte particulier, marqué par plusieurs incidents graves impliquant ChatGPT. L'un des cas les plus médiatisés concernait un homme qui aurait été influencé par le chatbot jusqu'à commettre un meurtre avant de se suicider. Bien que la responsabilité directe de l'IA reste difficile à établir, ces affaires ont considérablement accru la pression sur OpenAI.
Face à ces drames, la startup américaine semble avoir choisi de privilégier une approche maximaliste en termes de protection, quitte à restreindre certaines libertés d'usage. Cette orientation reflète aussi l'évolution du cadre réglementaire mondial, avec l'entrée en vigueur de nouvelles législations sur l'IA dans plusieurs pays, dont l'exemple coréen est particulièrement significatif.
Implications pour l'avenir de l'IA conversationnelle
Les décisions d'OpenAI pourraient avoir des répercussions importantes sur l'ensemble du secteur de l'IA générative. On peut s'attendre à ce que d'autres acteurs majeurs comme Google (avec Gemini) ou Anthropic (avec Claude) adoptent des mesures similaires, sous la pression des régulateurs et de l'opinion publique.
Cette tendance vers une IA plus encadrée, particulièrement pour les mineurs, soulève néanmoins des questions fondamentales sur l'équilibre entre protection et accès à l'innovation. L'IA générative représente un outil éducatif potentiellement précieux, et des restrictions trop sévères pourraient priver les jeunes utilisateurs de ressources utiles à leur développement.
Pour les utilisateurs de ChatGPT en France, ces changements devraient se déployer progressivement dans les prochains mois. Les parents souhaitant configurer le contrôle parental peuvent déjà relier le compte de leur enfant au leur via les paramètres de l'application.
Conclusion : vers un nouvel équilibre entre innovation et protection
Les nouvelles mesures annoncées par OpenAI marquent un tournant significatif dans l'approche de l'industrie de l'IA face à la protection des mineurs. En privilégiant clairement la sécurité sur d'autres considérations comme la vie privée ou la liberté d'usage, l'entreprise établit un précédent qui pourrait influencer l'ensemble du secteur.
Cependant, l'efficacité réelle de ces dispositions dépendra largement de leur mise en œuvre concrète et de leur adoption par d'autres acteurs de l'industrie. Sans une approche coordonnée, le risque existe de voir simplement les usages problématiques se déplacer vers des plateformes moins régulées.
Pour les parents et éducateurs, ces évolutions soulignent l'importance d'un accompagnement actif des jeunes dans leur utilisation des technologies d'IA. Si vous cherchez à mieux comprendre et encadrer l'usage de ces outils, Roboto propose des ressources adaptées et des fonctionnalités de contrôle parental qui complètent efficacement les mesures mises en place par les plateformes elles-mêmes.