AI Act : Nouvelles obligations pour les modèles d'IA à usage général depuis août 2025
Jacky West / August 9, 2025
AI Act : Nouvelles obligations pour les modèles d'IA à usage général depuis août 2025
Depuis le 2 août 2025, une nouvelle étape importante du Règlement européen sur l'Intelligence Artificielle (RIA ou AI Act) est entrée en vigueur. Cette phase d'application concerne particulièrement les fournisseurs de modèles d'IA à usage général, avec des obligations renforcées en matière de transparence et de respect du droit d'auteur. Découvrons ensemble ce que ces nouvelles exigences impliquent concrètement pour les entreprises et les utilisateurs.
Qu'est-ce que l'AI Act et quelles sont ses ambitions ?
L'AI Act représente la première législation complète au monde visant à encadrer le développement et l'utilisation de l'intelligence artificielle. Adopté par les États membres de l'Union européenne en 2024, ce règlement établit un cadre juridique progressif basé sur une approche par les risques.
La Direction Générale des Entreprises (DGE), qui a participé activement aux négociations et à l'élaboration du cadre réglementaire, joue désormais un rôle clé dans la sensibilisation et l'accompagnement des organisations françaises vers la conformité. C'est dans ce contexte que la DGE a récemment alerté sur l'entrée en vigueur de nouvelles obligations depuis le 2 août 2025.
L'AI Act classe les systèmes d'IA selon quatre niveaux de risque :
- Risque inacceptable
- Risque élevé
- Risque limité
- Risque minimal ou nul
Les nouvelles obligations pour les modèles d'IA à usage général
Depuis le 2 août 2025, les fournisseurs de modèles d'IA à usage général sont soumis à de nouvelles obligations, particulièrement en matière de transparence et de respect du droit d'auteur. Ces exigences s'appliquent avant même celles concernant les systèmes d'IA à haut risque, qui entreront en vigueur ultérieurement.
Obligation de transparence pour les chatbots et outils génératifs
L'une des principales obligations concerne la transparence des interactions. Concrètement, les IA en interaction directe avec des utilisateurs « doivent signaler clairement que le contenu produit est issu d'une IA ». Cette exigence s'applique aux :
- Chatbots conversationnels
- Générateurs d'images
- Générateurs de vidéos
- Autres outils génératifs
Comme l'explique la DGE, ces contraintes de transparence permettent « aux utilisateurs de savoir avec quoi ils interagissent ». Cette mesure vise à lutter contre la désinformation et à garantir que les utilisateurs puissent distinguer clairement le contenu généré par une IA du contenu humain. Les assistants vocaux comme ChatGPT et Copilot devront donc clairement s'identifier comme des intelligences artificielles.
Obligations renforcées pour les modèles à risque systémique
Au-delà des modèles à usage général, l'AI Act introduit une catégorie spécifique : les modèles à risque systémique. Ces derniers sont définis comme « susceptibles d'avoir un impact sociétal majeur du fait de leurs capacités, leur sophistication ou leur diffusion ».
Pour ces modèles particulièrement puissants, des obligations renforcées s'appliquent également depuis le 2 août 2025. Ces exigences visent à garantir que ces systèmes, qui pourraient avoir des conséquences importantes sur la société, soient développés et déployés de manière responsable.
| Type de modèle d'IA | Obligations depuis le 2 août 2025 | Exemples |
|---|---|---|
| Modèles à usage général | Transparence et respect du droit d'auteur | ChatGPT, Midjourney, DALL-E |
| Modèles à risque systémique | Obligations renforcées (évaluations d'impact, tests, documentation) | GPT-5, Gemini Ultra, Claude 3 Opus |
| Systèmes à haut risque | Pas encore applicables (2026) | IA pour recrutement, crédit, éducation |
Qui est considéré comme fournisseur de modèle d'IA ?
Une question importante se pose : qui est exactement soumis à ces nouvelles obligations ? Contrairement au RGPD qui cible principalement les responsables de traitements, l'AI Act s'adresse aux fournisseurs de modèles d'IA.
Cependant, le simple fait de modifier un modèle existant ne fait pas automatiquement d'une entreprise un fournisseur de modèle. La DGE, s'appuyant sur les lignes directrices de la Commission européenne, précise les conditions pour être qualifié de fournisseur.
Le critère de la puissance de calcul
Pour qu'une entreprise qui modifie un modèle d'IA à usage général (par exemple via fine-tuning) soit considérée comme fournisseur, il faut que « la modification implique une puissance de calcul dépassant le tiers de celle mobilisée pour l'entraînement initial du modèle ».
Ce critère technique permet de distinguer les simples utilisateurs qui adaptent légèrement des modèles existants des véritables développeurs qui transforment significativement ces modèles. Les nouvelles architectures d'IA qui révolutionnent les LLM pourraient d'ailleurs faciliter ces modifications substantielles.
Le calendrier de déploiement progressif de l'AI Act
L'application de l'AI Act suit un calendrier progressif, avec plusieurs échéances clés :
- 2 août 2025 : Application des obligations pour les modèles à usage général et à risque systémique
- 2 août 2026 : Application complète de la réglementation pour les systèmes d'IA à haut risque déjà identifiés
- 2 août 2027 : Application aux systèmes d'IA à haut risque incorporés dans certains produits réglementés (jouets, dispositifs médicaux, machines)
Les bacs à sable réglementaires : un soutien à l'innovation
L'AI Act ne se contente pas d'imposer des contraintes. Il prévoit également des mesures de soutien à l'innovation, notamment à travers la mise en place de « bacs à sable réglementaires » à partir du 2 août 2026.
Ces espaces de test encadrés et supervisés par un régulateur permettront aux entreprises, particulièrement aux PME, de bénéficier d'une « souplesse temporaire des règles » pour expérimenter et développer leurs solutions d'IA dans un environnement contrôlé. Cette approche rappelle les initiatives similaires mises en place dans le secteur financier avec les regulatory sandboxes pour les fintechs.

Les entreprises développant des solutions d'IA pour la vidéosurveillance, par exemple, pourraient bénéficier de ces espaces pour tester leurs innovations tout en s'assurant de leur conformité réglementaire.
L'impact de l'AI Act sur les entreprises françaises
Pour les entreprises françaises utilisant ou développant des solutions d'IA, l'entrée en vigueur progressive de l'AI Act implique une adaptation constante de leurs pratiques et de leurs produits.
Accompagnement et sensibilisation
La DGE joue un rôle crucial dans l'accompagnement des organisations vers la conformité. Elle propose des ressources et des guides pour aider les entreprises à comprendre leurs obligations et à mettre en œuvre les mesures nécessaires.
Les entreprises françaises doivent désormais intégrer ces exigences réglementaires dans leur stratégie de développement d'IA, en accordant une attention particulière à la transparence et au respect du droit d'auteur. Les outils d'IA pour l'écriture devront par exemple clairement indiquer leur nature artificielle.
Opportunités pour l'écosystème français
Si l'AI Act impose de nouvelles contraintes, il crée également des opportunités pour les entreprises françaises. En établissant un cadre clair et harmonisé au niveau européen, il offre une sécurité juridique propice à l'innovation responsable.
De plus, la conformité à ces exigences peut devenir un avantage concurrentiel, notamment face à des acteurs non européens. Les entreprises françaises peuvent se positionner comme des fournisseurs de solutions d'IA éthiques et conformes aux standards européens, à l'image de Plume AI dans le domaine de l'écriture assistée.
Vers une IA responsable et transparente
L'entrée en vigueur des nouvelles obligations de l'AI Act marque une étape importante dans la régulation de l'intelligence artificielle en Europe. En imposant des exigences de transparence et de respect du droit d'auteur aux fournisseurs de modèles d'IA à usage général, le règlement vise à garantir un développement responsable de ces technologies.
Pour les utilisateurs, ces mesures offrent une meilleure protection et une plus grande clarté sur la nature des contenus avec lesquels ils interagissent. Pour les entreprises, elles impliquent une adaptation de leurs pratiques mais ouvrent également des perspectives pour se différencier par une approche éthique et conforme.
Le déploiement progressif de l'AI Act, avec ses différentes échéances jusqu'en 2027, permettra une adaptation graduelle de l'écosystème européen de l'IA. Les prochaines étapes, notamment la mise en place des bacs à sable réglementaires en 2026, contribueront à équilibrer l'impératif de régulation avec le soutien à l'innovation.
Vous souhaitez générer du contenu conforme aux nouvelles exigences de l'AI Act ? Inscrivez-vous gratuitement à Roboto pour créer des textes, images et vidéos qui respectent automatiquement les obligations de transparence.