L’IA dans les infrastructures critiques : on veut l’automatiser avant d’avoir appris à l’encadrer

L’IA s’intègre dans les infrastructures critiques (énergie, transport, santé) plus vite que les règles pour l’encadrer. Analyse des risques systémiques, des enjeux de gouvernance et du défi entre automatisation et contrôle.

L’IA dans les infrastructures critiques : on veut l’automatiser avant d’avoir appris à l’encadrer

Introduction

L’intelligence artificielle s’impose progressivement dans tous les secteurs. Après avoir transformé les usages bureautiques, le marketing ou encore le développement logiciel, elle s’infiltre désormais dans un domaine beaucoup plus sensible :

les infrastructures critiques.

Énergie, eau, transport, santé, télécommunications… Ces systèmes sont au cœur du fonctionnement de nos sociétés. Leur stabilité conditionne la continuité économique, la sécurité des populations et la souveraineté des États.

Et pourtant, en 2026, une tendance claire se dessine :

l’IA est intégrée dans ces systèmes plus rapidement que les cadres de gouvernance capables de l’encadrer.

Ce décalage pose une question centrale :

sommes-nous en train d’automatiser des systèmes critiques sans en maîtriser pleinement les risques ?


Qu’est-ce qu’une infrastructure critique ?

Les infrastructures critiques désignent les systèmes essentiels au fonctionnement d’un pays.

On y retrouve notamment :

  • réseaux électriques
  • systèmes de distribution d’eau
  • infrastructures de transport
  • réseaux de télécommunications
  • systèmes de santé
  • infrastructures financières

Ces systèmes partagent plusieurs caractéristiques :

  • forte interconnexion
  • dépendance à des systèmes informatiques (IT)
  • intégration croissante de systèmes industriels (OT)
  • besoin de continuité de service

Une défaillance peut entraîner :

  • des perturbations économiques majeures
  • des risques pour la sécurité des personnes
  • des effets en cascade sur d’autres systèmes

L’arrivée de l’IA dans les systèmes critiques

L’IA n’est pas nouvelle dans ces environnements.

Mais son rôle change profondément.

Avant :

  • systèmes experts
  • automatisation simple
  • règles prédéfinies

Aujourd’hui :

  • modèles prédictifs
  • systèmes adaptatifs
  • automatisation décisionnelle
  • optimisation en temps réel

Exemples d’usage :

  • prédiction de la demande énergétique
  • maintenance prédictive des infrastructures
  • gestion du trafic en temps réel
  • détection d’anomalies dans les réseaux
  • automatisation des réponses aux incidents

L’objectif est clair :

améliorer l’efficacité, réduire les coûts, anticiper les incidents.

Le problème : une adoption plus rapide que la gouvernance

En parallèle de cette adoption rapide, les cadres de régulation peinent à suivre.

Le NIST (National Institute of Standards and Technology) travaille actuellement sur un profil spécifique du AI Risk Management Framework dédié aux infrastructures critiques.

Source : https://www.nist.gov/programs-projects/concept-note-ai-rmf-profile-trustworthy-ai-critical-infrastructure

Ce travail souligne un constat important :

  • les systèmes critiques intègrent déjà de l’IA
  • les risques sont encore mal définis
  • les pratiques de gouvernance sont hétérogènes

Autrement dit :

l’IA est déjà là, mais les règles ne sont pas encore stabilisées.

Pourquoi l’IA change la nature du risque

L’introduction de l’IA dans les infrastructures critiques ne se contente pas d’ajouter une couche technologique.

Elle transforme le système.

1. Perte de déterminisme

Les systèmes traditionnels sont :

  • prévisibles
  • basés sur des règles explicites
  • audités facilement

Les systèmes IA sont :

  • probabilistes
  • adaptatifs
  • parfois opaques

Cela complique :

  • la compréhension des décisions
  • la traçabilité
  • l’audit

2. Automatisation de la décision

L’IA ne se limite plus à suggérer.

Elle agit.

  • ajustement automatique de réseaux
  • déclenchement d’actions correctives
  • optimisation en temps réel

Cela réduit l’intervention humaine.

Mais augmente le risque :

une erreur peut être amplifiée à grande échelle.

3. Interconnexion accrue

Les systèmes critiques sont interconnectés.

Une décision IA dans un système peut :

  • impacter un autre système
  • créer des effets en cascade
  • générer des instabilités imprévues

4. Surface d’attaque élargie

L’IA introduit de nouveaux vecteurs d’attaque :

  • manipulation des données d’entraînement
  • attaques adversariales
  • injection de biais
  • exploitation des modèles

Cela transforme la cybersécurité.


Le risque systémique

Ce qui rend la situation particulièrement critique, c’est la combinaison de ces facteurs.

Un système IA dans une infrastructure critique peut :

  • prendre des décisions à grande échelle
  • agir rapidement
  • interagir avec d’autres systèmes
  • être difficile à auditer

Cela crée un risque systémique.

Exemple théorique :

  • une IA mal calibrée dans un réseau électrique
  • une décision d’optimisation erronée
  • propagation de l’instabilité
  • impact sur d’autres infrastructures

Le défi de la gouvernance

Encadrer l’IA dans ces environnements pose plusieurs défis.

1. Comprendre les systèmes

Les modèles IA peuvent être complexes :

  • deep learning
  • modèles hybrides
  • systèmes distribués

Cela rend leur compréhension difficile.


2. Définir la responsabilité

En cas de problème :

  • qui est responsable ?
  • le fournisseur ?
  • l’opérateur ?
  • le développeur ?

La responsabilité devient floue.


3. Mettre en place des standards

Les standards existent (NIST, ISO, ENISA), mais :

  • ils évoluent rapidement
  • ils ne sont pas toujours harmonisés
  • leur adoption est variable

4. Maintenir un contrôle humain

Le concept de “human-in-the-loop” devient central.

Mais dans des systèmes automatisés :

  • l’humain intervient moins
  • les décisions sont rapides
  • la supervision devient complexe

Une tension entre performance et sécurité

L’IA apporte des gains réels :

  • optimisation
  • réduction des coûts
  • amélioration des performances

Mais elle introduit aussi :

  • de l’incertitude
  • de la complexité
  • des risques nouveaux

Les organisations sont donc face à un arbitrage :

maximiser l’efficacité ou maîtriser le risque.

Vers une approche plus responsable

Plusieurs pistes émergent pour encadrer l’IA dans les infrastructures critiques.

1. Auditabilité

  • traçabilité des décisions
  • documentation des modèles
  • validation indépendante

2. Robustesse

  • tests en conditions extrêmes
  • simulations
  • validation continue

3. Sécurité by design

  • intégration de la cybersécurité dès la conception
  • protection contre les attaques adversariales

4. Gouvernance claire

  • rôles définis
  • responsabilités identifiées
  • processus de décision encadrés

5. Supervision humaine

  • capacité d’intervention
  • systèmes de contrôle
  • fallback manuel

Une transformation inévitable

Malgré les risques, l’intégration de l’IA est inévitable.

Les infrastructures critiques doivent :

  • gérer des volumes de données croissants
  • s’adapter en temps réel
  • optimiser leur fonctionnement

L’IA devient un outil clé.

La question n’est donc pas :

faut-il utiliser l’IA ?

Mais :

comment l’utiliser sans perdre le contrôle ?

Conclusion

L’IA marque une nouvelle étape dans l’évolution des infrastructures critiques.

Elle apporte :

  • puissance
  • automatisation
  • optimisation

Mais aussi :

  • opacité
  • complexité
  • risque systémique

Aujourd’hui, le décalage est clair :

nous savons intégrer l’IA plus vite que nous savons l’encadrer.

Et dans des systèmes critiques, ce décalage peut avoir des conséquences majeures.

Le véritable enjeu n’est donc pas technologique.

Il est politique, organisationnel et stratégique.


Sources