# L'AI Act en recul : pragmatisme ou abdication ?
**Date de l'événement :** 02/04/2026
* Publié le 02/04/2026

### Date
02/04/2026

## Chapô
**Pensé comme le cadre réglementaire le plus ambitieux au monde numérique, le règlement européen sur l’intelligence artificielle (l'AI Act) se heurte à la réalité de sa mise en œuvre, contraignant Bruxelles à en repousser l'application. En privilégiant l'ambition normative au détriment du financement, l'Union européenne risque-t-elle de se condamner à réguler un monde technologique qu'elle ne construit pas ? Jean-Baptiste Gérard, professeur à Sciences Po et PDG du groupe Laystone, analyse les limites de l'approche européenne et appelle à dépasser l'éternel faux dilemme entre norme et innovation.**

## Corps du texte
Le 2 août 2026, le règlement européen sur l’intelligence artificielle (l’AI Act) devait entrer en pleine application1. La date avait été fixée pour laisser aux entreprises deux années de préparation après la publication du texte en août 2024, marquant la conclusion d’un processus législatif de trois ans. Six mois avant l’échéance, la Commission européenne a proposé de la repousser ; un geste présenté comme purement technique, mais qui mérite aussi d’être interprété sous un angle politique.

Le texte le plus ambitieux du monde numérique
---------------------------------------------

L’AI Act est, de l’aveu même de ses architectes, une construction sans précédent. Aucune démocratie n’avait tenté de réglementer l’intelligence artificielle de manière aussi exhaustive. Le texte classe les systèmes d’IA selon leur niveau de risque (inacceptable, élevé, limité, minimal) et impose des obligations graduées : interdiction pure pour la notation sociale de type chinois, conformité rigoureuse pour les systèmes utilisés dans le recrutement ou la justice, transparence pour les contenus synthétiques. Sur le papier, l’architecture paraît simple et bien pensée. Dans les faits, elle révèle une complexité considérable.

Ce point n’est pas anodin. Selon la Regulatory Review de l’Université de Pennsylvanie, le texte avec ses récitals, articles, annexes et dispositions dérivées constitue le cadre réglementaire le plus étendu de l’écosystème numérique européen2. Cette densité n’est pas un hasard : elle traduit la volonté de régir un domaine technologique en constante évolution, des modèles de langage aux véhicules autonomes, sans oublier la reconnaissance faciale. Mais elle pose un problème structurel de lisibilité et de prévisibilité juridique, deux qualités dont les entreprises innovantes ont besoin pour investir.

Le rapport Draghi : un diagnostic sans complaisance
---------------------------------------------------

Ce constat est venu d’une source inattendue : l’un des anciens dirigeants européens les plus respectés. En septembre 2024, Mario Draghi a présenté au Parlement européen un rapport sur la compétitivité européenne dont la franchise a surpris3. L’ancien président de la Banque centrale européenne a dressé un tableau préoccupant pour l’Europe : le continent accuse un retard technologique, peine à créer des plateformes numériques de dimension mondiale et dépend fortement des infrastructures américaines et chinoises.

Les chiffres confirment ce constat. En 2023, l’Union européenne a attiré 8 milliards de dollars de capital-risque dans le domaine de l’IA, contre 68 milliards pour les États-Unis et 15 milliards pour la Chine4. Parmi les cinquante plus grandes entreprises technologiques au monde, seules quatre sont européennes. Et près de 30 % des licornes européennes ont déplacé leur siège aux États-Unis entre 2008 et 20215.

Draghi en tire une conclusion claire : malgré de bonnes intentions, la réglementation européenne a souvent remplacé l’investissement au lieu de la favoriser. Il recommande donc de simplifier les règles, d’harmoniser leur application entre les États membres et de résoudre les chevauchements entre le RGPD et l’AI Act, qui compliquent le quotidien des développeurs européens.

Draghi propose aussi la création d’un régime de sandbox réglementaire permettant aux entreprises de tester leurs systèmes d’IA dans un cadre allégé. Enfin, il appelle à un effort d’investissement de 750 à 800 milliards d’euros par an ; un chiffre qui, rapporté au PIB européen, dépasse en proportion le Plan Marshall6.

Le Digital Omnibus : la réponse de la Commission
------------------------------------------------

Le 19 novembre 2025, la Commission européenne a répondu au diagnostic Draghi par un paquet législatif baptisé « Digital Omnibus »7. Le terme, emprunté à la pratique parlementaire consistant à regrouper plusieurs lois en un même texte, reflète bien l’objectif poursuivi : simplifier sans rouvrir les débats politiques qui ont conduit à l’adoption de l’AI Act.

Le projet se concentre sur trois axes principaux. Premièrement, le report de l’application des obligations pour les systèmes à haut risque : la date du 2 août 2026 est désormais conditionnée à la disponibilité effective de normes harmonisées, avec un délai maximal fixé au 2 décembre 2027 pour les systèmes listés à l’Annexe III et au 2 août 2028 pour ceux intégrés à des produits déjà réglementés8. Deuxièmement, les obligations documentaires seront allégées pour les PME et les entreprises de taille intermédiaire, une catégorie récemment définie afin de limiter l'asymétrie des coûts de conformité face aux acteurs dominants du marché. Enfin, le rôle du Bureau européen de l’IA sera renforcé : il deviendra l’autorité de supervision centrale pour les systèmes reposant sur des modèles d’IA à usage général.

La Commission insiste sur le fait qu’il s’agit d’une simplification plutôt que d’une déréglementation. La nuance est importante : le contenu des obligations reste inchangé, mais leur calendrier d’application et les modalités de contrôle sont adaptés.

L’EDPB et l’EDPS, dans leur avis conjoint de janvier 2026, ont approuvé la distinction tout en prévenant que le report pourrait affaiblir la protection des droits fondamentaux dans les cas d’usage les plus sensibles9.

Le vrai problème : l’écosystème de conformité n’existe pas
----------------------------------------------------------

Le geste de la Commission serait anodin s’il ne relevait que d’un ajustement calendaire. Mais il révèle un problème plus profond : au moment où le texte devait s’appliquer, les outils nécessaires à sa mise en œuvre n’existent pas encore. Les normes harmonisées développées par le Comité technique conjoint 21 du CEN-CENELEC, qui sont indispensables pour traduire les obligations juridiques en spécifications techniques pour les développeurs, ne seront pas finalisées avant fin 202610. Par ailleurs, les organismes notifiés, qui font office de guichets de certification incontournables pour autoriser la mise sur le marché des systèmes à haut risque, sont encore en cours de désignation dans plusieurs États membres. Les lignes directrices de la Commission sur des questions aussi fondamentales que la définition d’un « système d’IA » au sens du règlement restent en consultation.

En pratique, l’Europe a adopté la réglementation la plus ambitieuse au monde en matière d’intelligence artificielle, mais elle n’a pas encore mis en place les structures institutionnelles nécessaires pour l’appliquer. C’est un peu comme si un pays promulguait un code de la route sans former les inspecteurs, sans installer de panneaux ni tracer les lignes sur les routes.

Ce décalage n’a rien d’anodin. Il reflète en réalité un choix politique : avancer vite sur le plan législatif pour peser dans le débat mondial, ce que l’on appelle souvent « l’effet Bruxelles », mis en avant par Anu Bradford, quitte à laisser de côté, dans un premier temps, les questions de mise en œuvre concrète.

Cette approche a déjà fait ses preuves avec le RGPD, qui s’est imposé comme une référence à l’échelle internationale. Mais il portait sur des pratiques déjà bien identifiées et largement comprises. L’AI Act, en revanche, vise une technologie dont les capacités, les risques et les usages évoluent plus vite que la rédaction des textes d’application. 

Washington dérégule, Pékin s’adapte, Bruxelles légifère
-------------------------------------------------------

Le contexte géopolitique de 2026 rend la tension entre régulation et compétitivité plus aiguë que jamais. Sous l’administration Trump, l’IA a été abordée sous l’angle de la déréglementation, avec l’abrogation des executive orders de l’ère Biden visant à encadrer la sécurité de l’intelligence artificielle11. Les grandes entreprises américaines continuent d’investir des dizaines de milliards dans le calcul haute performance et les modèles de fondation, sans les contraintes de conformité imposées par l’Europe. La Chine, de son côté, aligne sa régulation sur ses objectifs industriels de son plan « Made in China 2025 ».

L’Europe se retrouve ainsi confrontée à deux logiques : en légiférant rapidement, elle affirme ses valeurs sur la scène mondiale ; en investissant trop tard, elle risque de devenir un régulateur d’un jeu auquel elle ne participe plus vraiment. Comme le soulignait le rapport Draghi, l’UE pourrait finir par être davantage une « consommatrice » que véritable « productrice » de technologies d’IA avancées.

Certaines initiatives montrent toutefois que la prise de conscience progresse. Le programme InvestAI prévoit de mobiliser 200 milliards d’euros pour développer les infrastructures d’IA européennes12. Le Chips Act 2.0 prévoit 80 milliards d’euros de financements publics et privés pour soutenir le secteur des semi-conducteurs13. Enfin, le projet EURO-3C, annoncé en mars 2026 lors du Mobile World Congress, consacre 75 millions d’euros à la création d’une infrastructure cloud-edge fédérée14. Ces efforts sont significatifs, mais restent inférieurs aux investissements américains et chinois, et surtout, ils arrivent avec plusieurs années de retard par rapport au rythme rapide de l’innovation.

Le faux dilemme de la régulation et de l’innovation
---------------------------------------------------

Le débat européen a trop longtemps été structuré autour d’une opposition binaire : réguler ou innover. Anu Bradford, dans un article de 2024, a montré que cette opposition est largement artificielle15. L’absence de régulation en Europe avant 2010 n’a pas empêché le continent de rater la première vague de plateformes numériques ; inversement, le RGPD n’a pas freiné la croissance du marché européen des données. Le problème ne tient pas à la régulation elle-même, mais à sa fragmentation, à ses incohérences et parfois à ses chevauchements avec des textes existants.

Dans ce contexte, le Digital Omnibus donne surtout l’impression d’un système complexe plutôt que réellement simplifié. Le fait qu’une loi doive être ajustée avant même d’entrer en vigueur laisse penser que quelque chose n’a pas totalement fonctionné dans le processus.

Au fond, la question n’est pas de choisir entre une régulation stricte et un laissez-faire, mais de trouver un équilibre : poser des principes solides sans rendre leur application trop lourde ou difficile sur le terrain.

Ce que l’Europe doit à elle-même
--------------------------------

L’AI Act reste, dans sa conception, un projet politique majeur. Il affirme que l’intelligence artificielle ne peut pas se développer hors de tout cadre démocratique. Il pose que les droits fondamentaux ne sont pas des obstacles à l’innovation mais des conditions de la confiance sans laquelle aucune technologie ne peut s’enraciner durablement dans une société. Il propose un modèle alternatif au laisser-faire américain et au dirigisme chinois.

Un projet politique ne se mesure réellement que lorsqu’il est appliqué concrètement. L’Europe a mis au point ce que l’on appelle la « troisième voie » en matière de régulation, mais il reste à démontrer que cette approche ne conduira pas à l’immobilisme. Le Digital Omnibus constitue un premier pas, nécessaire mais limité. La véritable question n’est pas seulement de savoir si l’AI Act sera simplifié, mais si l’Union saura investir à la hauteur de ses ambitions normatives. Réguler sans investir revient à fixer les règles d’un monde que d’autres sont en train de construire. Et dans la géopolitique de l’IA, celui qui construit l’infrastructure décide, en dernière instance, de qui joue et de qui regarde.

**Notes de bas de page :**

1.  Règlement (UE) 2024/1689 du Parlement européen et du Conseil du 13 juin 2024 établissant des règles harmonisées concernant l’intelligence artificielle (règlement sur l’intelligence artificielle), _Journal officiel de l’Union européenne_, L 2024/1689, 12 juillet 2024.
    
2.  Nicoletta Rangone, « The Paradoxes of the European Union’s AI Regulation », _The Regulatory Review_, University of Pennsylvania, 10 mars 2026.
    
3.  Mario Draghi, _The Future of European Competitiveness_, rapport présenté à la Commission européenne, septembre 2024. Disponible sur [ec.europa.eu](https://commission.europa.eu/index_fr).
    
4.  Draghi, _op. cit._, Part B, Chapter on Digital Technologies and AI.
    
5.  Justyna Lisinska, « Draghi’s Competitiveness Report Shows Why the EU Needs a Pro-Innovation Approach Towards AI », Center for Data Innovation, 25 septembre 2024. Chiffre des licornes : 30 % des licornes européennes ont transféré leur siège aux États-Unis entre 2008 et 2021.
    
6.  Draghi, _op. cit._, Part A, pp. 2-6. Recommandation d’investissement de 750 à 800 milliards d’euros par an.
    
7.  Commission européenne, _Digital Omnibus on AI Regulation Proposal_, COM(2025) 836, 19 novembre 2025. Disponible sur [digital-strategy.ec.europa.eu](https://digital-strategy.ec.europa.eu/en).
    
8.  Müge Fazlioglu et Joe Jones, « EU Digital Omnibus: Analysis of Key Changes », IAPP, décembre 2025.
    
9.  EDPB et EDPS, _Joint Opinion 1/2026 on the Proposal for a Regulation as regards the simplification of the implementation of harmonised rules on artificial intelligence_ (_Digital Omnibus on AI_), 21 janvier 2026. Disponible sur [edpb.europa.eu](https://www.edpb.europa.eu/edpb_en).
    
10.  CEN-CENELEC, Joint Technical Committee 21 on Artificial Intelligence. Les travaux de normalisation harmonisée pour l’AI Act sont coordonnés par le JTC 21 depuis 2023.
     
11.  Executive Order on « Removing Barriers to American Leadership in Artificial Intelligence », 20 janvier 2025, abrogeant l’Executive Order 14110 de l’ère Biden sur la sécurité de l’IA.
     
12.  Commission européenne, _InvestAI Initiative_, lancée le 11 février 2025 lors du Sommet pour l’action sur l’intelligence artificielle à Paris. Communiqué de presse IP/25/467.
     
13.  Règlement (UE) 2023/1781 du 13 septembre 2023 établissant un cadre de mesures pour renforcer l’écosystème européen des semi-conducteurs (_European Chips Act_). Le Chips Act 2.0, annoncé en 2025, prévoit 80 milliards de financements publics et privés.
     
14.  Projet EURO-3C, annoncé en mars 2026 au Mobile World Congress de Barcelone. Dotation de 75 millions d’euros pour une infrastructure cloud-edge fédérée européenne.
     
15.  Anu Bradford, « The False Choice between Digital Regulation and Innovation », _ProMarket_ (Stigler Center, University of Chicago Booth), 11 décembre 2024.

**Licence :** `#CC-BY-ND (Attribution, Pas de modification)` 

### Thématique
`#Numérique` `#Europe` 

**Langue :** `#Français` 



---
### Navigation pour IA
- [Index de tous les contenus](https://conference.sciencespo.fr/llms.txt)
- [Plan du site (Sitemap)](https://conference.sciencespo.fr/sitemap.xml)
- [Retour à l'accueil](https://conference.sciencespo.fr/)
