Gradientný zostup je základný optimalizačný algoritmus používaný v strojovom učení a štatistike. Pomocou gradientného zostupu sa snažíme minimalizovať cieľovú funkciu \(f(x)\) iteratívnym pohybom v smere gradientu (záporného smeru pre minimalizáciu). Počnúc náhodným počiatočným bodom aktualizujeme parametre podľa vzorca:
\[ x_{k+1} = x_k - \alpha \nabla f(x_k) \tag{1} \label{eq:gradient} \]
kde \(\alpha\) je učiaca rýchlosť a \(\nabla f(x_k)\) je gradient funkcie v bode \(x_k\).
Odkaz na rovnicu demonštruje aktualizačný vzorec v gradientnom zostupe.