Techniques et concepts de l'entreprise, de la finance et de l'économie 
(et fondements mathématiques)

La matrice hessienne

logo

 

 

 

 

 

 

 

 

 

 

Dérivées partielles d'ordre 2

Cette page introduit un outil de base employé pour résoudre de nombreux problèmes d’optimisation. Comme je ne montre pas  ici comment il est utilisé, sa compréhension ne nécessite pas un effort intellectuel épuisant.

Vous avez appris en classe de première qu’une fonction d’une variable pouvait être dérivée (du moins là où elle est dérivable). Vous savez aussi que l’on peut souvent dériver successivement une fonction, parfois même indéfiniment (la dérivée de la dérivée étant une dérivée SECONDE).

Une fonction de deux variables admet quant à elle deux dérivées partielles, l’une par rapport à la première variable et l’autre par rapport à la seconde. Il n'existe donc pas UN nombre dérivé comme avec une fonction d’une seule variable mais un COUPLE de valeurs, c’est-à-dire un vecteur que l’on nomme « gradient ».

Une fonction de deux variables admet elle aussi des dérivées secondes, mais cette fois-ci il y en a quatre !

Soit une fonction f(x , y) définie sur un ouvert.

Supposons que f peut être dérivée deux fois par x, deux fois par y, par x puis par y et enfin par y puis par x.

Il y a malheureusement de nombreuses façons d’écrire ces dérivées partielles secondes. À titre d’exemple, voici un échantillon de notations pour écrire la première d’entre elles (celle qui est dérivée deux fois par x) :

notations

En revanche, je vous ai réservé une bonne nouvelle. Si les dérivées secondes suivantes sont continues, des calculs seront évités en vertu du théorème de Schwarz :

théorème de Schwarz

La matrice hessienne est la matrice 2×2 de ces quatre dérivées partielles en un point. Elle est symétrique puisque nous venons de voir que les deux dérivées croisées sont identiques.

hessienne

Tout ceci se généralise sans difficulté aux fonctions à n variables. La hessienne est alors une matrice carrée d’ordre n, symétrique pour peu que toutes les dérivées croisées soient continues au voisinage du point qui nous intéresse.

Grâce aux matrices hessiennes, il est possible d'étudier la convexité d'une fonction de deux variables ou plus et donc de résoudre des problèmes d'optimisation.

Pour simplifier les écritures, on utilise parfois la notation de Monge. La dérivée première par rapport à x est notée p et la dérivée par rapport à y est notée q. Quant à la hessienne...

notation de Monge

Exemple

Soit f(x , y) = xy – ln(x² + y²). Déterminer la hessienne au point (1 ; 2).

Je suppose que vous connaissez suffisamment bien les opérations sur dérivées pour rendre inutiles les détails de calcul :

f'(x)

f'(y)

Les dérivées secondes étant dans cet exemple un peu plus compliquées à établir, je détaille leur calcul. Celui-ci nécessite en effet un petit entraînement quand on est en présence d’une forme (u / v)’ = (u’v – v’u) / v²) car la confusion guette…

f''(x)

f''(y)

Et enfin, dérivons f’(x) par rapport à y :

dérivées croisées

Libre à vous de dériver f’(y) par rapport à x pour vérifier si Hermann Amandus Schwarz disait vrai.

Il nous reste à remplacer x par 1 et y par 2, ce qui donne ce spectaculaire résultat…

hessienne

Rideau.

 

noir

 

© JY Baudot - Droits d'auteur protégés