1. « L’IA ? Un soutien à l’expertise humaine, une aide à la décision » - Sfen

1. « L’IA ? Un soutien à l’expertise humaine, une aide à la décision »

Publié le 29 avril 2024 - Mis à jour le 14 mai 2024
  • Applications
  • centrale nucléaire
  • Data
  • Intelligence artificielle
  • Jumeau numérique

Un champ infini d’applications s’ouvre à nous en matière d’aide à la décision, de maintenance prédictive, d’inspection visuelle ou de traitement du signal… Partout où des données sont disponibles en nombre, l’intelligence artificielle peut apporter une puissance inédite pour assister les humains.

L’Intelligence artificielle (IA) est omniprésente aujourd’hui, permettant d’automatiser efficacement les processus logiciels et matériels ou de réaliser des tâches répétitives et parfois dangereuses via la robotique. L’exploitation de données massives qu’elle permet, que ces données soient structurées ou non, maximise son efficacité. En augmentant cette productivité, l’IA peut soutenir la croissance économique en créant de nouveaux emplois et en transformant les anciens, transformation qu’il est néanmoins nécessaire d’accompagner. Cela touche pratiquement à tout, le transport avec les voitures à conduite automatisée, la santé avec l’imagerie médicale, mais aussi la fabrication manufacturière ou la gestion de déchets. Sans compter, évidemment, le commerce électronique fondé sur l’utilisation de l’intelligence artificielle, les assurances et la finance, qui s’appuient également  sur l’IA, et la justice, la sécurité, l’armement et la gestion des réseaux électriques.

L’IA, centrale pour les centrales

L’IA trouve des applications importantes dans le nucléaire, en particulier dans l’optimisation des opérations de centrales. Cependant, son efficacité dépend de la disponibilité des données. Basée sur l’apprentissage statistique, l’IA nécessite des ensembles de données volumineux, tandis que des méthodes traditionnelles telles que les réseaux bayésiens1 et les systèmes de règles peuvent être utilisées lorsque les données sont limitées. L’utilisation de l’IA dans le nucléaire vise à améliorer l’efficacité des processus opérationnels grâce à une analyse optimisée des données disponibles.

Dans divers domaines, l’IA contribue à la prise de décision et à l’amélioration des processus. Elle offre un support à l’humain en présentant des éléments de décision extraits des données, comme dans l’interprétation d’images pour laquelle l’IA classe les données pour validation par l’utilisateur. La maintenance prédictive est un secteur-clé, permettant d’anticiper les opérations de maintenance et d’économiser des ressources. L’IA est efficace en outre dans l’inspection visuelle et le traitement des signaux, détectant les anomalies et permettant une analyse approfondie des raisons sous-jacentes. Dans le domaine de la  radioprotection, elle facilite la détection des radiations anormales, contribuant ainsi à la prévention des incidents. On peut aussi utiliser l’IA pour la simulation via des jumeaux numériques, permettant d’optimiser les décisions et l’évolution des systèmes avec l’IA.

Les principales techniques

Les données provenant de diverses sources sont riches en informations. Si elles sont structurées, non structurées, si elles contiennent des images, des dessins, ou du texte, des méthodes différentes seront employées, mais tout cela peut être analysé et synthétisé par des systèmes d’IA. La sûreté, la sécurité – cybersécurité comprise – dans le domaine nucléaire ou non sont des sujets cruciaux, que l’IA permet de consolider significativement.

Les techniques de l’IA, une discipline ancienne qui a connu ses balbutiements en 1956, se concentrent aujourd’hui principalement sur l’apprentissage statistique et reposent souvent sur l’utilisation de réseaux de neurones formels, des fonctions mathématiques complexes, pour classifier les données. Cette classification s’effectue par l’entraînement sur des données, permettant aux systèmes d’identifier des motifs qui ne sont pas toujours directement perceptibles par les humains, ni préétablis par eux. Au lieu de chercher des caractéristiques spécifiques, l’IA utilise une approche statistique pour reconnaître des schémas récurrents, des régularités dans les données, offrant ainsi une méthode d’apprentissage et de classification sophistiquée. Trois grandes techniques peuvent être utilisées, parfois conjointement :

1. L’apprentissage supervisé, qui consiste à entraîner un système sur de vastes ensembles de données étiquetées pour effectuer des classifications. Les poids synaptiques du réseau de neurones sont ajustés itérativement pendant la phase d’apprentissage (ou d’entraînement) pour minimiser une fonction de perte par rétropropagation2, permettant de classifier les données avec une certaine précision.

2. L’apprentissage non supervisé (ou auto supervisé) qui implique que le système explore les données sans connaître les classifications désirées à l’avance. Contrairement à l’apprentissage supervisé, il n’y a pas de fonction d’optimisation préétablie. Le système découvre lui-même des régularités dans les données, à travers des méthodes comme le clustering, qui regroupe des données similaires en amas. Par exemple, dans une représentation colorée des données, le système peut identifier des classes basées sur les couleurs. Le processus est itératif, avec le système comparant continuellement les données pour les regrouper en classes en fonction de similitudes, ou en créer de nouvelles.

3. L’apprentissage par renforcement qui permet d’optimiser une décision séquentielle en fonction de récompenses reçues dans un environnement dynamique. L’objectif est de maximiser la récompense totale au fil du temps. Le système prend des décisions qui influencent l’état de l’environnement, recevant des récompenses positives, négatives ou nulles selon l’effet de ses actions pour atteindre un objectif. C’est un processus itératif où le système ajuste les paramètres de ses actions pour maximiser la récompense totale. Cette méthode est utilisée dans divers domaines, tels que les jeux comme les échecs ou le go, ainsi que dans la robotique pour apprendre des mouvements précis. En ajustant les paramètres comme les degrés de liberté, la méthode identifie itérativement les meilleures actions à prendre dans différentes situations, démontrant son utilité dans une variété de contextes.

Il faut toujours répéter que la statistique identifie des corrélations entre les éléments des données, mais n’identifie pas la causalité. Elle ne peut pas dire pourquoi le résultat est ce qu’il est. L’IA peut simplement énoncer qu’« étant donné la manière dont les choses se corrèlent dans les données, il peut être prédit telle ou telle chose sur les nouvelles données nous parvenant, qui se corrèlent plus ou moins bien avec les données antérieures ». L’apprentissage profond utilise des réseaux de neurones à plusieurs couches, ce qui lui permet de traiter efficacement de grandes quantités de données et de distinguer des modèles plus complexes. Le nombre de couches et de neurones influe sur la capacité du système à capturer l’information et à réaliser des prédictions précises.

Le langage naturel

Le traitement du langage naturel a longtemps résisté à l’IA. Comprendre le langage implique l’interprétation du contexte, car la signification des mots en dépend. Pour cela, on construit un « grand modèle de langage » statistique basé sur des quantités de données gigantesques. Elles sont généralement collectées sur Internet en utilisant une architecture de réseaux de neurones particuliers, les « transformers ». Les mots sont décomposés en séquences de caractères, des « tokens », puis encodés en vecteurs numériques. Des calculs vectoriels sont utilisés pour analyser les similarités entre les données introduites dans les requêtes pour interroger le système et celles qui ont été modélisées. Cette architecture, développée par Google en 2017 et popularisée en particulier par OpenAI avec ChatGPT, permet de générer des réponses en se basant sur des modèles  statistiques massifs, maximisant la probabilité que les réponses produites correspondent aux données introduites.

Cette méthode générative produit des réponses en fonction des données d’entrée, mais la gestion de la cohérence et de la qualité des réponses reste un défi.

Les limites de l’apprentissage statistique

Les limites de l’apprentissage statistique résident dans le fait qu’il dépend d’abord fortement des données utilisées, qui doivent être représentatives de la population étudiée, pour construire les modèles. Deuxièmement, les corrélations identifiées peuvent ne pas refléter de causalité réelle mais de la simple corrélation, conduisant à des résultats erronés. Par exemple, un système de traitement d’images peut identifier incorrectement le genre d’une personne en se basant sur des données biaisées. Si les images fournies représentent plus d’hommes que de femmes devant des ordinateurs, le système peut associer un écran d’ordinateur à un homme, même si une femme est présente. Cela soulève des questions sur le biais des données et sa signification sociale. Il devient dans cette optique crucial de distinguer les biais statistiques des biais sociaux. À défaut de quoi, même si un modèle statistique n’est pas biaisé par rapport à une situation spécifique, il peut refléter des inégalités sociales. Cela souligne l’importance de la prudence dans l’utilisation des données et la compréhension de leur impact social.

La « sensibilité au bruit » constitue une autre limite des systèmes d’IA. Un exemple : des images représentant un bus, une volaille ou un temple sont modifiées avec un léger bruit au niveau des pixels. Pour nous, les images originales et modifiées semblent identiques, mais un système d’IA entraîné sur de nombreuses données pourra interpréter toutes les images bruitées comme étant des autruches, dont les images auront été présentes lors de l’apprentissage. Ce phénomène découle du caractère corrélatif des modèles d’IA, où de petites modifications de paramètres peuvent entraîner des changements drastiques dans la corrélation des données. Ainsi, de légers changements de « bruit » peuvent produire des résultats radicalement différents. Cela souligne le manque de robustesse de ces systèmes et met en garde contre une interprétation trop hâtive des résultats. Cela invite en conséquence à se garder d’une utilisation directe des systèmes pour la prise de décision.

Une aide mais ni un substitut ni un miracle

En somme, l’IA n’est pas la solution miracle à tout. N’oublions jamais que c’est une technique extrêmement puissante, mais qu’il faut utiliser avec prudence et de manière adaptée. Il s’agit désormais de rendre le système plus robuste, plus stable et y intégrer des éléments de compréhension pour identifier pourquoi ou comment le système est parvenu à telle conclusion. Par ailleurs, et c’est évident, il nous faut des mécanismes de vérification et de validation solides ainsi qu’une gouvernance appropriée, surtout  dans des applications critiques comme le nucléaire. L’IA, si l’on en doutait encore, n’est pas seulement une technologie comme une autre. C’est une technologie qui peut avoir, si elle n’est pas utilisée à bon escient, des conséquences graves. C’est pour cela qu’il est nécessaire de mettre en place des méthodes de gouvernance et une législation appropriées, comme le règlement européen sur l’IA a commencé de le faire.


1. Les réseaux bayésiens sont des modèles graphiques probabilistes permettant de représenter les dépendances probabilistes entre variables aléatoires et de raisonner sur elles.
2. Une fonction de perte par rétropropagation mesure l’écart entre les prédictions d’un réseau de neurones et les valeurs réelles pour guider l'apprentissage.

Par Raja Chatila, professeur émérite d’intelligence artificielle, de robotique et d’éthique à Sorbonne Université

Photo © ANDRA I Des étudiants de l’école des Mines de Nancy présentent le robot Spot sur un site de l’Andra – Revue Générale Nucléaire #1 | Printemps 2024

  • Applications
  • centrale nucléaire
  • Data
  • Intelligence artificielle
  • Jumeau numérique