Techniques et concepts de l'entreprise, de la finance et de l'économie 
(et fondements mathématiques)

Le critère AIC

logo

 

 

 

 

 

 

 

 

 

 

AIC (Akaike Information Criterion)

L’une des grandes préoccupations des statisticiens est d’évaluer leur travail. Pas de vantardise prématurée, ce n’est pas parce qu’ils ont plus de conscience professionnelle que les autres mais parce qu’ils établissent des modèles ad hoc. Un analyste financier ne s’amuse pas à valider son ratio de rentabilité car il sait pertinemment qu’il peut compter sur lui alors que le statisticien se situe dans une autre démarche. Il a bâti un modèle, par exemple à partir d'une régression multiple, et la moindre des choses est de savoir ce que vaut celui-ci.

Parfois, les données sont suffisamment nombreuses pour être séparées en un échantillon d’apprentissage et un échantillon de test. Cette saine pratique fait partie de la démarche d'élaboration du scoring sur base de données. Il est alors possible de tester plusieurs modèles avec de vraies valeurs, en retirant telle variable ou en regroupant plusieurs modalités. Mais la plupart du temps on ne dispose pas de données en nombre suffisant, ce qui nécessite des outils spécifiques d'évaluation.

L’AIC est l’un d’eux. Son utilisation est assez fréquente et, ce qui ne gâche rien, cet indicateur est polyvalent. Grâce à lui, on évalue la bonne adéquation d’un modèle et surtout on peut comparer plusieurs modèles entre eux.

Ce critère permet par exemple d’évaluer des régressions multiples (à l’instar du R² ajusté), des prévisions sur séries chronologiques ou encore des régressions logistiques.

L’AIC utilise le maximum de vraisemblance, mais en pénalisant les modèles comportant trop de variables, qui « surapprennent » les données et généralisent mal (voir page robustesse). C’est pourquoi on parle de « vraisemblance pénalisée ». Pour les spécialistes, précisons que c’est une technique de minimisation de la divergence (ou dissemblance) de Kullback (voir démonstrations sur « le Modèle linéaire par l’exemple », J.-M. Azaïs et J.-M. Bardet, Dunod 2005).

Sa formulation est la suivante : AIC = -2 ln L(θ) + 2k

En version française : « moins deux » fois la log-vraisemblance plus deux fois le nombre de paramètres.

Si les erreurs sont distribuées normalement, on peut directement utiliser l'erreur quadratique moyenne (MSE) : AIC = n ln(MSE) + 2k.

Le modèle à retenir est celui qui montre l’AIC le plus faible.

Il est habituel de présenter ce critère avec le BIC de Schwarz, qui pénalise davantage le surparamétrage.

Précisons enfin qu’il existe plusieurs versions du critère AIC « corrigé », notamment pour s'ajuster à de petits échantillons. L’une d’elles est la suivante :

AIC corrigé

Logiciels

Attention à ne pas faire une confiance aveugle à l’AIC lorsqu’il est calculé sur un petit nombre de données !

Utilisation avec SAS/STAT pour la sélection d’un modèle de régression :

http://analytics.ncsu.edu/sesug/2005/SA01_05.PDF

XLSTAT fournit quant à lui le critère AIC des régressions (linéaire et logistique) à partir de la version 2008.

Statgraphics Centurion permet de choisir un modèle prévisionnel en fonction du critère AIC (régression, lissages, ARIMA).

 

AIC

 

© JY Baudot - Droits d'auteur protégés