Trouver le minimum d’une fonction
Une technique pour trouver le minimum d’une fonction est de trouver le point où sa dérivée \(=0\).
Par contre, cela ne trouve pas nécessairement un minimum. Il y a des fonctions avec plusieurs points où la dérivée est 0. Les minimums et les maximums ont des dérivées \(= 0\). Il y a aussi plus qu’un minimum.
Comment trouver \(h^*\)
Il faut trouver \(h_{\mathbf{w}}^*\), le modèle avec les meilleurs valeurs pour les paramètres internes \(\mathbf{w}\). Ceci implique trouver le \(\mathbf{w}\) qui donne le meilleur hyperplan frontière. C’est un problème d’optimisation mathématique.
L’optimisation est formulée à l’aide d’une fonction de perte ou de coût.
Soit la fonction de perte suivante : \[L(w_0, w_1) = w_0^2 + w_1^2 + 20\]
Optimiser une perte implique trouver le point \((w_0, w_1)\) qui donne le minimum globale de la fonction de perte. Dans ce cas, le minimum est \(20\) lorsque \((w_0, w_1) = (0,0)\).
Soit la fonction de perte suivante : \[ L(w_0, w_1 |x_0, x_1) = \exp\left(-{(w_0 - x_0)^2 + (w_1 - x_1)^2}\right) + \exp\left(-{(w_0 - x_0)^2 + (w_1 - x_1)^2}\right) \]
Trouver le minimum globale est moins évident. Essayons d’identifier une méthode analytique de trouver le minimum d’une fonction.