L’IA dans les infrastructures critiques : on veut l’automatiser avant d’avoir appris à l’encadrer
L’IA s’intègre dans les infrastructures critiques (énergie, transport, santé) plus vite que les règles pour l’encadrer. Analyse des risques systémiques, des enjeux de gouvernance et du défi entre automatisation et contrôle.
Introduction
L’intelligence artificielle s’impose progressivement dans tous les secteurs. Après avoir transformé les usages bureautiques, le marketing ou encore le développement logiciel, elle s’infiltre désormais dans un domaine beaucoup plus sensible :
les infrastructures critiques.
Énergie, eau, transport, santé, télécommunications… Ces systèmes sont au cœur du fonctionnement de nos sociétés. Leur stabilité conditionne la continuité économique, la sécurité des populations et la souveraineté des États.
Et pourtant, en 2026, une tendance claire se dessine :
l’IA est intégrée dans ces systèmes plus rapidement que les cadres de gouvernance capables de l’encadrer.
Ce décalage pose une question centrale :
sommes-nous en train d’automatiser des systèmes critiques sans en maîtriser pleinement les risques ?
Qu’est-ce qu’une infrastructure critique ?
Les infrastructures critiques désignent les systèmes essentiels au fonctionnement d’un pays.
On y retrouve notamment :
- réseaux électriques
- systèmes de distribution d’eau
- infrastructures de transport
- réseaux de télécommunications
- systèmes de santé
- infrastructures financières
Ces systèmes partagent plusieurs caractéristiques :
- forte interconnexion
- dépendance à des systèmes informatiques (IT)
- intégration croissante de systèmes industriels (OT)
- besoin de continuité de service
Une défaillance peut entraîner :
- des perturbations économiques majeures
- des risques pour la sécurité des personnes
- des effets en cascade sur d’autres systèmes
L’arrivée de l’IA dans les systèmes critiques
L’IA n’est pas nouvelle dans ces environnements.
Mais son rôle change profondément.
Avant :
- systèmes experts
- automatisation simple
- règles prédéfinies
Aujourd’hui :
- modèles prédictifs
- systèmes adaptatifs
- automatisation décisionnelle
- optimisation en temps réel
Exemples d’usage :
- prédiction de la demande énergétique
- maintenance prédictive des infrastructures
- gestion du trafic en temps réel
- détection d’anomalies dans les réseaux
- automatisation des réponses aux incidents
L’objectif est clair :
améliorer l’efficacité, réduire les coûts, anticiper les incidents.
Le problème : une adoption plus rapide que la gouvernance
En parallèle de cette adoption rapide, les cadres de régulation peinent à suivre.
Le NIST (National Institute of Standards and Technology) travaille actuellement sur un profil spécifique du AI Risk Management Framework dédié aux infrastructures critiques.
Ce travail souligne un constat important :
- les systèmes critiques intègrent déjà de l’IA
- les risques sont encore mal définis
- les pratiques de gouvernance sont hétérogènes
Autrement dit :
l’IA est déjà là, mais les règles ne sont pas encore stabilisées.
Pourquoi l’IA change la nature du risque
L’introduction de l’IA dans les infrastructures critiques ne se contente pas d’ajouter une couche technologique.
Elle transforme le système.
1. Perte de déterminisme
Les systèmes traditionnels sont :
- prévisibles
- basés sur des règles explicites
- audités facilement
Les systèmes IA sont :
- probabilistes
- adaptatifs
- parfois opaques
Cela complique :
- la compréhension des décisions
- la traçabilité
- l’audit
2. Automatisation de la décision
L’IA ne se limite plus à suggérer.
Elle agit.
- ajustement automatique de réseaux
- déclenchement d’actions correctives
- optimisation en temps réel
Cela réduit l’intervention humaine.
Mais augmente le risque :
une erreur peut être amplifiée à grande échelle.
3. Interconnexion accrue
Les systèmes critiques sont interconnectés.
Une décision IA dans un système peut :
- impacter un autre système
- créer des effets en cascade
- générer des instabilités imprévues
4. Surface d’attaque élargie
L’IA introduit de nouveaux vecteurs d’attaque :
- manipulation des données d’entraînement
- attaques adversariales
- injection de biais
- exploitation des modèles
Cela transforme la cybersécurité.
Le risque systémique
Ce qui rend la situation particulièrement critique, c’est la combinaison de ces facteurs.
Un système IA dans une infrastructure critique peut :
- prendre des décisions à grande échelle
- agir rapidement
- interagir avec d’autres systèmes
- être difficile à auditer
Cela crée un risque systémique.
Exemple théorique :
- une IA mal calibrée dans un réseau électrique
- une décision d’optimisation erronée
- propagation de l’instabilité
- impact sur d’autres infrastructures
Le défi de la gouvernance
Encadrer l’IA dans ces environnements pose plusieurs défis.
1. Comprendre les systèmes
Les modèles IA peuvent être complexes :
- deep learning
- modèles hybrides
- systèmes distribués
Cela rend leur compréhension difficile.
2. Définir la responsabilité
En cas de problème :
- qui est responsable ?
- le fournisseur ?
- l’opérateur ?
- le développeur ?
La responsabilité devient floue.
3. Mettre en place des standards
Les standards existent (NIST, ISO, ENISA), mais :
- ils évoluent rapidement
- ils ne sont pas toujours harmonisés
- leur adoption est variable
4. Maintenir un contrôle humain
Le concept de “human-in-the-loop” devient central.
Mais dans des systèmes automatisés :
- l’humain intervient moins
- les décisions sont rapides
- la supervision devient complexe
Une tension entre performance et sécurité
L’IA apporte des gains réels :
- optimisation
- réduction des coûts
- amélioration des performances
Mais elle introduit aussi :
- de l’incertitude
- de la complexité
- des risques nouveaux
Les organisations sont donc face à un arbitrage :
maximiser l’efficacité ou maîtriser le risque.
Vers une approche plus responsable
Plusieurs pistes émergent pour encadrer l’IA dans les infrastructures critiques.
1. Auditabilité
- traçabilité des décisions
- documentation des modèles
- validation indépendante
2. Robustesse
- tests en conditions extrêmes
- simulations
- validation continue
3. Sécurité by design
- intégration de la cybersécurité dès la conception
- protection contre les attaques adversariales
4. Gouvernance claire
- rôles définis
- responsabilités identifiées
- processus de décision encadrés
5. Supervision humaine
- capacité d’intervention
- systèmes de contrôle
- fallback manuel
Une transformation inévitable
Malgré les risques, l’intégration de l’IA est inévitable.
Les infrastructures critiques doivent :
- gérer des volumes de données croissants
- s’adapter en temps réel
- optimiser leur fonctionnement
L’IA devient un outil clé.
La question n’est donc pas :
faut-il utiliser l’IA ?
Mais :
comment l’utiliser sans perdre le contrôle ?
Conclusion
L’IA marque une nouvelle étape dans l’évolution des infrastructures critiques.
Elle apporte :
- puissance
- automatisation
- optimisation
Mais aussi :
- opacité
- complexité
- risque systémique
Aujourd’hui, le décalage est clair :
nous savons intégrer l’IA plus vite que nous savons l’encadrer.
Et dans des systèmes critiques, ce décalage peut avoir des conséquences majeures.
Le véritable enjeu n’est donc pas technologique.
Il est politique, organisationnel et stratégique.
Sources
- NIST – AI Risk Management Framework
https://www.nist.gov - European Union Agency for Cybersecurity (ENISA)
https://www.enisa.europa.eu - OECD – AI Systems and Risk
https://www.oecd.org - ISO/IEC AI Standards
https://www.iso.org