AI Act en 2025 : pourquoi les entreprises européennes demandent une pause

AI Act en 2025 : pourquoi les entreprises européennes demandent une pause

L'AI Act, présenté comme le premier cadre législatif structuré sur l'intelligence artificielle au monde, fait face à une opposition grandissante alors que son entrée en vigueur approche. Ce texte, autrefois applaudi par les États membres, les ONG et les entreprises technologiques européennes, se retrouve aujourd'hui au cœur d'une controverse. Des startups aux grands groupes industriels, nombreux sont ceux qui demandent désormais un report de son application. Analysons pourquoi ce revirement s'opère et quelles sont les implications pour l'écosystème tech européen.

Du consensus à la fronde : le revirement spectaculaire

Le point de bascule s'est produit en juillet 2025, lorsque 33 entrepreneurs et fondateurs de startups européennes ont signé une lettre ouverte appelant à "geler l'horloge réglementaire". Quelques jours plus tard, cinquante dirigeants de grands groupes européens, dont des acteurs majeurs de la tech, ont rejoint ce mouvement. Parmi eux figurent des entreprises comme Airbus, Publicis, TotalEnergies, BNP Paribas, AXA et Siemens.

Ce front uni dénonce plusieurs aspects problématiques :

  • Une mise en œuvre trop rapide sans clarté suffisante
  • L'absence de standards techniques finalisés
  • Des risques juridiques élevés pour les entreprises
  • Des coûts de mise en conformité disproportionnés

"Procéder sans clarté peut laisser les entreprises bloquées entre interprétations contradictoires, compromettre l'innovation et décourager les investissements", écrivent les signataires, pointant un paradoxe fondamental : une régulation censée protéger l'innovation européenne risque de l'étouffer.

Le piège technique : réguler sans référentiel

L'AI Act repose sur un principe en apparence simple : tout système d'IA classé comme "à haut risque" doit démontrer sa conformité à une série d'exigences (transparence, sécurité, supervision humaine, robustesse). Pour appliquer ce principe, le texte s'appuie sur des standards techniques censés offrir un cadre de référence commun.

Mais voilà le problème majeur : ces standards, confiés au CEN et au CENELEC (organismes européens de normalisation), ne seront pas disponibles avant 2026. Les entreprises devront donc prouver leur conformité... sans référentiel clair pour le faire.

Obligation Problème d'application Impact sur les entreprises
Démontrer la conformité des systèmes IA à haut risque Absence de standards techniques finalisés Incertitude juridique, risque d'interprétations divergentes
Documentation technique exhaustive Manque de clarté sur le niveau de détail requis Mobilisation excessive de ressources techniques et juridiques
Évaluation des risques Méthodologie non standardisée Impossibilité de garantir la validité de l'approche
Supervision humaine Critères d'efficacité non définis Mise en place de processus potentiellement inadaptés

En l'absence de "présomption de conformité" que procureraient ces standards, le poids de la preuve repose entièrement sur les producteurs. Pour une startup, cela signifie mobiliser des équipes juridiques, auditer chaque ligne de code et documenter des processus évolutifs. Le coût estimé s'élève à environ 200 000 euros par an, une somme considérable pour des structures en développement.

Le paradoxe Mistral AI : champion européen en difficulté

Le cas de Mistral AI, valorisée à plus de 2 milliards d'euros et perçue comme le champion français de l'IA open source, illustre parfaitement ce paradoxe. La startup, dont le cofondateur Arthur Mensch figure parmi les signataires de l'appel à une pause, était pourtant présentée comme l'un des bénéficiaires naturels du cadre européen.

L'AI Act devait offrir un espace réglementaire protecteur pour les acteurs émergents face aux géants américains. Aujourd'hui, Mistral AI alerte sur les effets d'une application mal calibrée, notamment pour les modèles open source. Dans sa version actuelle, l'AI Act ne distingue pas clairement les obligations applicables aux modèles d'IA généraux (GPAI) selon qu'ils soient propriétaires ou ouverts.

Cette ambiguïté pourrait exposer des projets communautaires comme DeepCoder-14B à des contraintes juridiques similaires à celles imposées à des géants comme OpenAI ou Google DeepMind, sans en avoir les moyens. Un modèle open source comme celui de Mistral pourrait être considéré comme "à haut risque" s'il est intégré dans certaines applications, créant une responsabilité juridique disproportionnée.

Une coalition d'États membres rejoint la contestation

La fronde ne vient pas uniquement des entreprises. Plusieurs États membres expriment désormais des réserves explicites sur l'AI Act, en particulier sur son calendrier d'application et sa faisabilité technique :

  • Danemark : Depuis le 1er juillet, le pays qui assure la présidence tournante du Conseil de l'Union européenne s'est aligné sur la demande de pause. La ministre au Numérique Caroline Stage s'est faite porte-parole de 44 entreprises danoises appelant à un gel de la mise en œuvre.
  • Suède : Le Premier ministre Ulf Kristersson plaide également pour une pause réglementaire.
  • Italie : Des voix critiques s'élèvent au sein de l'écosystème tech et associatif, dénonçant le flou juridique et les effets dissuasifs du texte sur l'innovation.
  • Allemagne : Si le gouvernement reste officiellement favorable à l'AI Act, les géants industriels comme Siemens, SAP, Mercedes-Benz ou Lufthansa se sont publiquement ralliés aux appels à un ajustement du texte.

Ce front nordique et industriel élargi isole progressivement la Commission européenne, prise entre l'urgence politique de maintenir son calendrier et la pression économique croissante.

Le décalage entre ambition réglementaire et réalité économique

La critique la plus sévère formulée par les signataires témoigne d'un décalage fondamental : l'AI Act a été pensé comme si l'Europe était déjà leader mondial de l'IA. Or, la réalité est bien différente :

  • Dépendance à l'égard des États-Unis pour les puces et infrastructures de calcul
  • Dépendance vis-à-vis de la Chine pour certains composants critiques
  • Startups structurellement plus petites et moins capitalisées
  • Écosystème moins outillé juridiquement face à la complexité réglementaire
  • Investissements en IA significativement inférieurs à ceux des États-Unis et de la Chine

Comme le souligne un récent rapport sur la crise des capacités IA en 2025, l'Europe fait déjà face à des défis majeurs en termes d'infrastructure et de compétitivité. Dans ce contexte, réguler ce que l'on ne maîtrise pas encore, sans outiller ceux qui doivent appliquer la règle, revient à décourager ceux qu'on prétend protéger.

Illustration complémentaire sur AI Act

Le risque d'un exode des talents et des projets

Les conséquences potentielles vont au-delà des simples difficultés administratives. L'incertitude juridique et les coûts de mise en conformité pourraient accélérer :

  1. L'exode des talents européens vers des environnements réglementaires plus prévisibles
  2. La relocalisation de projets innovants hors d'Europe
  3. La réorientation des investissements vers des marchés moins contraints
  4. Le ralentissement de l'adoption des technologies d'IA par les entreprises européennes

Ces risques sont d'autant plus préoccupants que les avancées technologiques se poursuivent à un rythme soutenu aux États-Unis et en Chine, creusant potentiellement l'écart avec l'Europe.

La réponse insuffisante de la Commission européenne

Face à la pression croissante, la Commission européenne tente de rassurer sans pour autant modifier substantiellement son approche. Thomas Regnier, porte-parole de la CE, a annoncé plusieurs mesures :

  • Lancement d'un "AI Act Service Desk" pour accompagner les entreprises
  • Étude d'un "Digital Simplification Omnibus Package" pour alléger certaines contraintes
  • Possible report du code de conduite GPAI prévu pour août 2025 à fin 2025

Mais ces ajustements restent insuffisants aux yeux des critiques, car les règles contraignantes de l'AI Act demeurent valides juridiquement. Les entreprises devront les respecter même en l'absence de standards officiels, comme l'a clairement rappelé Thomas Regnier : « a legal text is a legal text. Legal deadlines are legal deadlines. Adopted by our co-legislators. »

Cette position rigide fait craindre que l'Europe ne répète avec l'IA les erreurs commises lors de précédentes vagues d'innovation technologique, où elle s'est positionnée en régulatrice sans parvenir à développer ses propres champions.

Vers une solution équilibrée ?

Pour sortir de cette impasse, plusieurs propositions émergent de l'écosystème tech européen :

  1. Approche séquentielle : Appliquer d'abord les règles aux acteurs les plus importants (comme le fait le Digital Markets Act) avant de les étendre progressivement
  2. Moratoire technique : Suspendre les obligations de conformité jusqu'à la finalisation des standards techniques
  3. Approche sectorielle : Prioriser les domaines où les risques sont les plus élevés (santé, sécurité) avant d'étendre la régulation
  4. Sandbox réglementaire : Créer des espaces d'expérimentation où les entreprises peuvent tester leur conformité sans risque juridique

Ces propositions visent toutes à préserver l'esprit de l'AI Act – protéger les citoyens européens des risques liés à l'IA – tout en évitant d'étouffer l'innovation dans un secteur stratégique.

Conclusion : l'équilibre délicat entre protection et innovation

L'AI Act illustre le dilemme fondamental auquel fait face l'Europe : comment protéger ses valeurs et ses citoyens tout en restant compétitive dans la course mondiale à l'innovation technologique ? Si l'intention de créer un cadre éthique et sécurisé pour le développement de l'IA est louable, son exécution précipitée risque de produire l'effet inverse de celui recherché.

La fronde actuelle n'est pas un rejet du principe de régulation, mais un appel à une mise en œuvre plus pragmatique et progressive. L'Europe a l'opportunité de créer un modèle de régulation intelligent qui protège sans entraver, mais cela nécessite d'écouter les préoccupations de son écosystème tech et d'adapter son approche.

Pour les entreprises européennes développant des solutions d'IA, l'incertitude actuelle impose de se préparer tout en restant vigilantes quant aux évolutions réglementaires. Si vous souhaitez naviguer efficacement dans cet environnement complexe, Roboto propose des outils d'IA qui vous aideront à générer du contenu conforme aux exigences réglementaires tout en maintenant votre productivité.

L'avenir dira si l'Europe parviendra à transformer cette crise en opportunité pour créer un cadre réglementaire qui soit à la fois protecteur et favorable à l'innovation. En attendant, le débat autour de l'AI Act rappelle que dessiner le terrain ne suffit pas à créer une équipe gagnante – il faut aussi lui donner les moyens de jouer.



Vous aimerez aussi

Ce site utilise des cookies afin d’améliorer votre expérience de navigation.