Les agents IA

Types d'agents IA

Aujourd’hui, l’intelligence artificielle (IA) s’impose dans le quotidien : assistants vocaux, recommandations personnalisées, systèmes de diagnostic, outils de création de contenu, véhicules autonomes, etc. Derrière une grande partie de ces applications se cache une notion centrale mais parfois mal définie, celle d’agent d’intelligence artificielle.

 

Définition et concepts

Ce terme est aujourd’hui utilisé dans des contextes variés, parfois de manière très large, parfois de façon rigoureuse selon les définitions issues de l’informatique théorique et de l’IA classique. Dans les discours marketing, un simple chatbot peut être qualifié d’agent ; dans la recherche académique, un agent est un système autonome capable de percevoir son environnement, de prendre des décisions et d’agir pour atteindre un objectif.

Si l’on s’inspire de la définition donnée par Russell et Norvig, un agent est une entité qui perçoit son environnement à l’aide de capteurs et agit sur lui à l’aide d’effecteurs pour maximiser la réalisation d’un objectif.

Un agent d’intelligence artificielle est donc un agent dont le comportement repose sur des mécanismes computationnels permettant une forme d’adaptation, de raisonnement ou d’apprentissage. Il n’est donc pas un programme qui calcule une sortie à partir d’une entrée. Il est caractérisé par :

  • Une interaction continue avec un environnement
  • Une certaine autonomie décisionnelle
  • Un objectif ou une fonction de performance
  • Éventuellement une capacité d’apprentissage.

Un agent IA repose généralement sur quatre éléments fondamentaux :

  • L’environnement, qui peut être physique (route pour une voiture autonome), numérique (jeu vidéo, système informatique) ou social (interaction avec des humains).

  • Les perceptions (capteurs) sont les informations que l’agent reçoit : données textuelles, images, signaux, états internes d’un système, etc.

  • Les actions (effecteurs) sont ce que l’agent peut faire : envoyer un message, déplacer un robot, modifier une base de données, appeler une API…

  • Le mécanisme de décision est un peu le cerveau de l’agent : règles, algorithmes, réseaux de neurones, modèles probabilistes, etc.

Distinguons plusieurs notions souvent confondues.

  • Un modèle d’IA (par exemple un réseau de neurones ou un grand modèle de langage) est un composant de calcul, pas un agent en soi.

  • Un programme classique exécute des instructions prédéfinies, sans autonomie réelle.

  • Un agent IA peut intégrer un ou plusieurs modèles, mais surtout il agit, observe, décide et parfois apprend dans un contexte donné.

Par exemple, un modèle comme GPT n’est pas un agent en tant que tel. En revanche, un système qui utilise GPT pour analyser une situation, décider d’actions successives, interagir avec des outils et atteindre un objectif peut être qualifié d’agent IA.

 

Types

Les agents IA peuvent être classés selon différents critères : leur complexité, leur capacité d’apprentissage, leur autonomie ou encore leur mode de raisonnement.

Les agents réactifs simples fonctionnent selon des règles conditionnelles. Si telle situation est observée, alors effectuer telle action. Ils ne possèdent pas de mémoire interne complexe ni de représentation explicite du monde. C’est par exemple un thermostat qui allume le chauffage si la température est inférieure à un seuil ou un bot qui répond automatiquement à un message précis. L’exécution est fiable si l’environnement est très contrôlé mais un agent simple n’apprend pas et ne sais pas gérer des situations complexes.

Les agents à base de modèles disposent d’un modèle interne de l’environnement, ce qui leur permet d’anticiper les conséquences de leurs actions. Ils ne se contentent plus de réagir mais ils raisonnent sur l’état du monde. C’est par exemple un système de planification logistique ou un agent de jeu d’échecs qui simule plusieurs coups à l’avance. Il existe donc une certaine adaptabilité et le prise de décision est cohérente mais le coût computationnel est plus élevé que celui d’un agent simple et il nécessite des modèles fiables.

échecs

Les agents orientés objectifs cherchent explicitement à atteindre un objectif défini (par exemple : minimiser un coût, atteindre une destination ou résoudre un problème). Ils utilisent des algorithmes de recherche, de planification ou d’optimisation. C’est par exemple un agent de planification industrielle ou un GPS qui calcule l’itinéraire optimal.

Les agents basés sur l’utilité vont plus loin que les précédents. Ils évaluent la qualité de différents résultats possibles à l’aide d’une fonction d’utilité. Ils ne cherchent pas seulement à atteindre un objectif, mais à l’atteindre le mieux possible.  En d’autres termes, ils peuvent gérer des compromis entre le temps, le coût et le risque, par exemple. Ce sont des agents complexes qui permettent des décisions nuancées mais il est souvent délicat de définir une fonction d’utilité.

Les agents apprenants améliorent leurs performances au fil du temps grâce à l’expérience (apprentissage supervisé, non supervisé ou par renforcement). Ce peut être des agents de jeux vidéo, des systèmes de recommandation ou des robots adaptatifs. Comme ils s’adaptent, ils améliorent leurs performances avec le temps. Mais ils ont besoin de beaucoup de données.

Les agents LLM utilisent un modèle linguistique comme moteur de raisonnement, combiné à une mémoire, des outils externes et des boucles de décision. On parle souvent d’agents autonomes ou agents cognitifs. Un agent basé sur un LLM comprend généralement :

  • Un LLM central (raisonnement, génération de plans)
  • Un gestionnaire de mémoire (court et long terme)
  • Un ensemble d’outils (API, bases de données, moteurs de calcul)
  • Une boucle perception puis décision puis action.

Ces agents peuvent décomposer une tâche complexe en sous-tâches, appeler des outils, évaluer leurs propres résultats et s’auto-corriger.

Les avantages sont une grande flexibilité, la capacité à traiter des tâches non structurées et une interaction naturelle avec l’humain. En revanche, les agents LLM ont un coût computationnel élevé et le risque existe que des erreurs passent inaperçues.

 

Exemples d’utilisation

  • Industrie et les services : optimisation de chaînes logistiques, maintenance prédictive, assistants virtuels pour le support client…
  • Robotique : robots industriels, drones autonomes, véhicules autonomes…
  • Numérique : agents de cybersécurité, agents de trading, agents de surveillance de systèmes…
  • Assistance humaine : assistants personnels, tuteurs pédagogiques, agents médicaux d’aide à la décision…

 

Création

Avant toute implémentation, il faut répondre à des questions simples :

  • Quel est l’objectif de l’agent ?
  • Dans quel environnement évolue-t-il ?
  • Quelles actions sont possibles ?

Selon le contexte, on retient un type d’agent comme vu plus haut (ou un agent hybride).

Puis on conçoit la boucle de décision. Un agent apprenant fonctionne selon le schéma suivant…

  • Observer : l’agent perçoit l’état actuel de l’environnement
  • Décider : il choisit une action selon sa politique / stratégie
  • Agir : il exécute cette action
  • Évaluer : il mesure le résultat (récompense, erreur, performance)
  • Apprendre : il met à jour ses paramètres, règles ou modèles
  • Observer (à nouveau) : il perçoit le nouvel état de l’environnement, qui est la conséquence directe de l’action précédente.

Les technologies courantes incluent des outils de programmation (par exemple la bibliothèque PyTorch de Python) et des frameworks d’agents.

Enfin, un agent IA doit être testé sur des scénarios variés, surveillé en production et encadré par des règles de sécurité.

 

robot avec agent IA