4 Stochastisches Gradientenverfahren
Das stochastische Gradientenverfahren formuliert den Fall, dass im \(k\)-ten Schritt anstelle des eigentlichen Gradienten \(\nabla f(x_k)\in \mathbb R^{n}\) eine Schätzung \(g(x_k, \xi)\in \mathbb R^{n}\) vorliegt, die eine zufällige Komponente in Form einer Zufallsvariable \(\xi\) hat. Dabei wird angenommen, dass \(g(x_k, \xi)\) erwartungstreu ist, das heißt \[\begin{equation*} \mathbb E_\xi [g(x_k, \xi)] = \nabla f(x_k), \end{equation*}\] wobei \(\mathbb E_\xi\) den Erwartungswert bezüglich der Variablen \(\xi\) beschreibt.
4.1 Motivation und Algorithmus
Im Maschinellen Lernen oder allgemeiner in der nichtlinearen Regression spielt die Minimierung von Zielfunktionalen in Summenform \[\begin{equation*} Q(w) = \frac{1}{N}\sum_{i=1}^N Q_i(w) \end{equation*}\] eine Rolle, wobei der Parametervektor \(w\in \mathbb R^n\), der \(Q\) minimiert, gefunden oder geschätzt werden soll. Jede der Summandenfunktionen \(Q_i\) ist typischerweise assoziiert mit einem \(i\)-ten Datenpunkt (einer Beobachtung) beispielsweise aus einer Menge von Trainingsdaten.
Sei beispielsweise eine parametrisierte nichtlineare Funktion \(T_w\colon \mathbb R^{m}\to \mathbb R^{n}\) gegeben die durch Optimierung eines Parametervektors \(w\) an Datenpunkte \((x_i, y_i)\subset \mathbb R^{n}\times \mathbb R^{m}\), \(i=1, \dotsc, N\), gefittet werden soll, ist die mittlere quadratische Abweichung \[\begin{equation*} \mathsf{MSE}\,(w) := \frac 1N \sum_{i=1}^N \|N(x_i)-y_i\|_2^2 \end{equation*}\] genannt mean squared error, ein naheliegendes und oft gewähltes Optimierungskriterium.
Um obige Kriterien zu minimieren, würde ein sogenannter Gradientenabstiegsverfahren den folgenden Minimierungsschritt
\[\begin{equation*} w^{k+1} := w^{k} - \eta \nabla Q(w^k) = w^k - \eta \frac{1}{N} \sum_{i=1}^N \nabla Q_i(w^k), \end{equation*}\] iterativ anwenden, wobei \(\eta\) die Schrittweite ist, die besonders in der ML community oft auch learning rate genannt wird.
Die Berechnung der Abstiegsrichtung erfordert hier also in jedem Schritt die Bestimmung von \(N\) Gradienten \(\nabla Q_i(w^k)\) der Summandenfunktionen. Wenn \(N\) groß ist, also beispielsweise viele Datenpunkte in einer Regression beachtet werden sollen, dann ist die Berechnung entsprechend aufwändig.
Andererseits entspricht die Abstiegsrichtung \[\begin{equation*} \frac{1}{N} \sum_{i=1}^N \nabla Q_i(w^k) \end{equation*}\] dem Mittelwert der Gradienten aller \(Q_i\)s am Punkt \(w_k\), der durch ein kleineres Sample
\[\begin{equation*} \frac{1}{N} \sum_{i=1}^N \nabla Q_i(w^k) \approx \frac{1}{|\mathcal J|} \sum_{j\in \mathcal J} \nabla Q_j(w^k), \end{equation*}\]
angenähert werden könnte, wobei \(\mathcal J \subset \{1, \dotsc, N\}\) eine Indexmenge ist, die den batch der zur Approximation gewählten \(Q_i\)s beschreibt.
4.2 Stochastisches Abstiegsverfahren
Beim stochastischen (oder “Online”) Gradientenabstieg wird der wahre Gradient von \(Q(w^k)\) durch einen Gradienten bei einer einzelnen Probe angenähert: \[\begin{equation*} w^{k+1} = w^k-\eta \nabla Q_j(w^k), \end{equation*}\] mit \(j\in \{1,\dotsc, N\}\) zufällig gewählt (ohne zurücklegen).
Während der Algorithmus den Trainingssatz durchläuft, führt er die obige Aktualisierung für jede Trainingsprobe durch. Es können mehrere Durchgänge (sogenannte epochs) über den Trainingssatz gemacht werden, bis der Algorithmus konvergiert. Wenn dies getan wird, können die Daten für jeden Durchlauf gemischt werden, um Zyklen zu vermeiden. Typische Implementierungen verwenden zudem eine adaptive Lernrate, damit der Algorithmus überhaupt oder schneller konvergiert.
Die wesentlichen Schritte als Algorithmus sehen wie folgt aus:
###################################################
# The basic steps of a stochastic gradient method #
###################################################
= ... # initialize the weight vector
w = ... # choose the learning rate
eta = [1, 2, ..., N] # the full index set
I
for k in range(number_epochs):
= shuffle(I) # shuffle the indices
J for j in J:
# compute the gradient of Qj at current w
= nabla(Q(j, w))
gradjk # update the w vector
= w - eta*gradjk
w if convergence_criterion:
break
###################################################
Die Konvergenz des stochastischen Gradientenabstiegsverfahren als Kombination von stochastischer Approximation und numerischer Optimierung ist gut verstanden. Allgemein und unter bestimmten Voraussetzung lässt sich sagen, dass das stochastische Verfahren ähnlich konvergiert wie das exakte Verfahren mit der Einschränkung, dass die Konvergenz fast sicher stattfindet.
In der Praxis hat sich der Kompromiss etabliert, der anstelle des Gradienten eines einzelnen Punktes \(\nabla Q_j(w_k)\), den Abstieg aus dem Mittelwert über mehrere Samples berechnet, also (wie oben beschrieben) \[\begin{equation*} \frac{1}{N} \sum_{i=1}^N \nabla Q_i(w^k) \approx \frac{1}{|\mathcal J|} \sum_{j\in \mathcal J} \nabla Q_j(w^k). \end{equation*}\] Im Algorithmus wird dann anstelle der zufälligen Indices \(j \in \{1, \dotsc, N\}\), über zufällig zusammengestellte Indexmengen \(\mathcal J \subset \{1, \dotsc, N\}\) iteriert.
Da die einzelnen Gradienten \(\nabla Q_j(w^K)\) unabhängig voneinander berechnet werden können, kann so ein batch Verfahren effizient auf Computern mit mehreren Prozessoren realisiert werden. Die Konvergenztheorie ist nicht wesentlich verschieden vom eigentlichen stochastischen Gradientenabstiegsverfahren, allerdings erscheint die beobachte Konvergenz weniger erratisch, da der Mittelwert statistische Ausreißer ausmitteln kann.
4.3 Konvergenzanalyse
Wir betrachten den einfachsten Fall wie im obigen Algorithmus beschrieben, dass im \(k\)-ten Schritt, die Schätzung \[g(x_k, \xi)=g(x_k, i(\xi))=:\nabla Q_{i(\xi)}(x_k)\] also dass der Gradient von \(\frac 1N \nabla \sum Q_i\) geschätzt wird durch den Gradienten der \(i(\xi)\)-ten Komponentenfunktion, wobei \(i(\xi)\) zufällig aus der Indexmenge \(I=\{1, 2, \dotsc, N\}\) gezogen wird.
Im folgenden Beweis wird verwendet werden, dass zurückgelegt wird, also dass im \(k\)-ten Schritt alle möglichen Indizes gezogen werden können. Das ist notwendig um zu schlussfolgern, dass \[\begin{equation*} \mathbb E_{i(\xi)} [g(x_k, k_\xi)] = \nabla Q(x_k) \end{equation*}\] In der Praxis (und oben im Algorithmus) wir nicht zurückgelegt, es gilt also \(I_{k+1} = I_k \setminus \{k_\xi\}\). Der Grund dafür ist, dass gerne gesichert wird, dass auch in wenig Iterationsschritten alle Datenpunkte besucht werden.
Und die Iteration lautet \[\begin{equation*} x_{k+1} = x_k - \eta_k g(x_k, i(\xi)). \end{equation*}\]
Theorem 4.1 (Konvergenz des stochastischen Gradientenabstiegsverfahren) Sei \(Q:=\frac 1N \sum_{i=1}^NQ_i\) zweimal stetig differenzierbar und streng konvex mit Modulus \(m>0\) und es gebe eine Konstante \(M\) mit \(\frac 1N \sum_{i=1}^N \|\nabla Q_i \|_2^2 \leq M\). Ferner sei \(x^*\) das Minimum von \(Q\). Dann konvergiert das einfache stochastische Gradientenabstiegsverfahren mit \(\eta_k := \frac{1}{km}\) linear im Erwartungswert des quadrierten Fehlers, d.h. es gilt \[\begin{equation*} a_{k+1} := \frac 12 \mathbb E [\| x_{k+1} - x^*\|^2 ] \leq \frac {C}{k} \end{equation*}\] für eine Konstante \(C\).
Proof. Streng konvex mit Modulus \(m>0\) bedeutet, dass alle Eigenwerte der Hessematrix \(H_Q\) größer als \(m\) sind. Insbesondere gilt, dass \[\begin{equation*} Q(z) \leq Q(x) + \nabla Q(x)^T(z-x) + \frac12 m \|z-x\|^2 \end{equation*}\] für alle \(z\) und \(x\) aus dem Definitionsbereich von \(Q\).
Zunächst erhalten wir aus der Definition der 2-norm, dass \[\begin{equation*} \begin{split} \frac 12 \|x_{k+1} - x^* \|^2 &= \frac 12 \|x_{k} - \eta_k \nabla Q_{i(k;\xi)}(x_k) - x^* \|^2 \\ &= \frac 12 \|x_{k} - x^* \|^2 - \eta_k \nabla Q_{i(k;\xi)}(x_k)^T( x_{k} -x^*) + \eta_k^2 \|\nabla Q_{i(k;\xi)}(x_k)\|^2 \end{split} \end{equation*}\]
Im nächsten Schritt nehmen wir den Erwartungswert dieser Terme. Dabei ist zu beachten, dass auch die \(x_k\) zufällig (aus der Sequenz der zufällig gezogenen Richtungen) erzeugt wurden. Dementsprechend müssen wir zwischen \(\mathbb E\) (als Erwartungswert bezüglich aller bisherigen zufälligen Ereignisse für \(\ell=0, 1, \dotsc, k-1\)) und zwischen \(\mathbb E_{i(k;\xi)}\) (was wir im \(k\)-ten Schritt bezüglich der aktuellen Auswahl der Richtung erwarten können) unterscheiden.
In jedem Fall ist der Erwartungswert eine lineare Abbildung, sodass wir die einzelnen Terme der Summe separat betrachten können.
Für den Mischterm erhalten wir \[\begin{equation*} \eta_k \mathbb E[ \nabla Q_{i(k;\xi)}(x_k)^T( x_{k} -x^*) ] = \eta_k \mathbb E\bigl [\mathbb E_{i(k;\xi)}[ \nabla Q_{i(k;\xi)}(x_k)^T( x_{k} -x^*)\,|\, x_k ]\bigr ] \end{equation*}\] wobei der innere Term die Erwartung ist unter der Bedingung das \(x_k\) eingetreten ist (folgt aus dem Satz der iterated expectation). Da im inneren Term nur noch die Wahl von \(i\) zufällig ist und wegen der Linearität des Erwartungswertes bekommen wir \[\begin{equation*} \begin{split} \mathbb E_{i(k;\xi)}[ \nabla Q_{i(k;\xi)}(x_k)^T( x_{k} -x^*)\,|\, x_k ] &= \mathbb E_{i(k;\xi)}[ \nabla Q_{i(k;\xi)}(x_k)^T\,|\, x_k ]( x_{k} -x^*) \\ & = \nabla Q(x_k)^T(x_k - x^*). \end{split} \end{equation*}\] sodass mit der \(m\)-Konvexität gilt dass \[\begin{equation} \mathbb E[ \nabla Q_{i(k;\xi)}(x_k)^T( x_{k} -x^*) ] \geq m \mathbb E[\|x_k - x^*\|^2]; \tag{4.1} \end{equation}\] vergleiche die Übungsaufgabe unten.
Diese Manipulation mit den Erwartungswerten ist der formale Ausdruck dafür, dass, egal woher das \(x_k\) kam, die zufällige Wahl der aktuellen Richtung führt im statistischen Mittel auf \(\nabla Q(x_k)\).
Mit gleichen Argumenten und der Annahme der Beschränktheit \(\|\nabla Q(x)\|^2 < M\), bekommen wir für die erwartete quadratische Abweichung \(a_k\), dass \[\begin{equation*} \begin{split} \frac 12 \|x_{k+1} - x^* \|^2 \leq (1-2\eta_k m) \frac 12 \|x_{k} - x^*\| + \frac 12 \eta_k^2 M^2 \end{split} \end{equation*}\] beziehungsweise \[\begin{equation*} a_{k+1} \leq (1-2\eta_km)a_k + \frac 12\eta_k^2M. \end{equation*}\]
Insbesondere wegen des konstanten Terms in der Fehlerrekursion, bedarf es bis zur \(1/k\)-Konvergenz weiterer Abschätzungen. Wir zeigen induktiv, dass für \(\eta_k=\frac{1}{km}\) gilt, dass \[\begin{equation*} a_{k+1} \leq \frac{c}{2k}, \quad c = \max\{\| x_1 - x^*\|^2, \frac{M}{m^2} \}. \end{equation*}\] Für \(k=1\) (und damit \(\eta_k = \frac 1m\)) gilt die Abschätzung da \[\begin{equation*} a_2 \leq (1-2)a_1 + \frac 12 \frac{1}{m^2}M = (-1)\frac 12 \|x_i-x^*\|^2 + \frac 12 \frac{M}{m^2} < \frac{M}{2 m^2} \leq \frac c2. \end{equation*}\]
Für \(k\geq 2\) gilt mit \(\eta_k = \frac{1}{mk}\) \[\begin{equation*} \begin{split} a_{k+1} \leq & (1-2m \eta_k)a_k + \frac 12 \eta_k^2 M = (1-\frac 2k)a_k + \frac 12 \frac{1}{k^2m^2}M \\ \leq& (1-\frac 2k) \frac c{2k} + \frac c2 \frac{1}{k^2} = \frac {k-1}{2k^2}c = \frac{k^2-1}{k^2}\frac{1}{k+1} \\ \leq& \frac {c}{2(k+1)} \leq \frac{c}{2k} \end{split} \end{equation*}\] sodass der Beweis erbracht ist mit \(C:=\frac c2\).
Zum Abschluss schätzen wir noch aus der erhaltenen Konvergenzart und –rate, wie lange iteriert werden muss um den Fehler unter einen vorgegebenen Wert \(\epsilon\) zu bekommen.
Dazu sei \(e_{n}\) der Fehler nach der \(n\)-ten Iteration und entsprechend \(e_0\) der Fehler zum Startwert.
Für lineare Konvergenz gilt \(e_n \leq qe_{n-1} \leq q^n e_0\) und damit \[\begin{equation*} q^n e_0 = e_n< \epsilon \quad \leftrightarrow \quad n > \frac{\log \epsilon - \log e_0}{\log q} \end{equation*}\]
Für quadratische Konvergenz folgt aus \(e_n \leq ae_{n-1}^2 \leq a^n e_0^{2n}\), dass \[\begin{equation*} a^n e_0^{2n} = e_n< \epsilon \quad \leftrightarrow \quad n > \frac{\log \epsilon}{\log a + 2\log e_0} \end{equation*}\]
Für “\(1/k\)” mit \(e_n\leq \frac {C}{n}\) gilt dann \[\begin{equation*} e_n < \epsilon \leftrightarrow n > \frac{C}{\epsilon} \end{equation*}\]
Wir lesen ab, dass für lineare Konvergenz der Startwert nur entscheidend für die Anzahl der Iteration, während für quadratische Konvergenz \(\log a + 2 \log e_0 < 0 \leftrightarrow a < \sqrt e_0\) wichtig ist um überhaupt Konvergenz zu haben. Abschließend zu bemerken ist dass, unter den getätigten Annahmen, für den stochastischen Gradientenabstieg der quadratische Fehler mit “1/k” konvergiert. Dementsprechend muss entsprechend von \(n\sim \frac{1}{\epsilon^2}\) ausgegangen werden.
Diese schlechte Konvergenz ist auch ein Grund dafür, dass das Lernen von neuronalen Netzen sehr rechenintensiv ist. Abhilfe schaffen hier Algorithmen, die Richtungsinformationen 2. Ordnung einbeziehen (z.B. über ein Momentum wie im ADAM Algorithmus) sowie der Rückgriff auf low-precision Arithmetik (was naheliegend ist, wenn kleine \(\epsilon\,\)s ohnehin quasi unerreichbar sind).
4.4 Übungen
Eine Funktion heißt \(L\)-glatt (\(L\)-smooth) wenn sie stetig differenzierbar ist und der Gradient Lipschitz-stetig mit Konstante \(L\) ist. Zeigen Sie, dass für ein \(L\)-glatte Funktion, die zweimal differenzierbar ist, gilt:
- \(f(y) \leq f(x) + \nabla f(x)^T(y-x) + \frac L2 \|y-x\|^2\) für alle \(x\) und \(y\) aus dem Definitionsbereich.
- \(-LI \leq H_f(x) \leq LI\) für alle \(x\), für die Hesse-Matrix \(H_f\) und für “\(\leq\)” im Sinne der Loewner-Halbordnung definiter Matrizen.
Zeigen Sie, dass aus m-Konvexität von \(Q\colon \mathbb R^{n}\to \mathbb R^{}\) und \(\mathbb E_\xi [g(\xi)] = \nabla Q(x)\) folgt, dass im Minimum \(x^*\) von \(Q\) gilt, dass \[\begin{equation*} \mathbb E_\xi[g(\xi)^T(x-x^*)] \geq Q(x)-Q(x^*) + \frac m2\|x - x^*\|^2 \geq m\|x - x^*\|^2, \end{equation*}\] für alle \(x\).
((super)-Quadratische Kovergenz für glatte konvexe Funktionen) Sei \(f\colon \mathbb R^{n}\to \mathbb R^{}\) konvex und \(L\)-glatt und sei \(x^*\) die Lösung von \(f(x)\to \min\). Zeigen Sie, dass Gradientenverfahren mit der Schrittweite \(\frac 1L\) eine Folge \(\{x_k\}_{k\in \mathbb N}\subset \mathbb R^{n}\) erzeugt für die gilt \[\begin{equation*} f(x_N)-f(x^*) \leq \frac{L}{2T} \|x_0 - x^*\|^2, \quad N=1, 2, \dotsc . \end{equation*}\]
Berechnen sie näherungsweise den Gradienten der Beispielfunktion \[\begin{equation*} f(x_1, x_2, x_3) = \sin(x_1) + x_3\cos(x_2) - 2x_2 + x_1^2 + x_2^2 + x_3^2 \end{equation*}\] im Punkt \((x_1, x_2, x_3) = (1, 1, 1)\), indem sie die partiellen Ableitungen durch den Differenzenquotienten, z.B., \[\begin{equation*} \frac{\partial g}{\partial x_2}(1, 1, 1) \approx \frac{g(1, 1+h, 1) - g(1, 1,1)}{h} \end{equation*}\] für \(h\in\{10^{-3}, 10^{-6}, 10^{-9}, 10^{-12}\}\) berechnen. Berechnen sie auch die Norm der Differenz zum exakten Wert von \(\nabla g(1, 1, 1)\) (s.o.) und interpretieren sie die Ergebnisse.
Hier schon mal ein Codegerüst.
import numpy as np
def gfun(x):
return np.sin(x[0]) + x[2]*np.cos(x[1]) \
- 2*x[1] + x[0]**2 + x[1]**2 \
+ x[2]**2
def gradg(x):
return np.array([np.NaN,
-x[2]*np.sin(x[1]) - 2 + 2*x[1],
3, 1))
np.NaN]).reshape((
# Inkrement
= 1e-3
h
# der x-wert und das h-Inkrement in der zweiten Komponente
= np.ones((3, 1))
xzero = xzero + np.array([0, h, 0]).reshape((3, 1))
xzeroh
# partieller Differenzenquotient
= 1/h*(gfun(xzeroh) - gfun(xzero))
dgdxtwo # Alle partiellen Ableitungen ergeben den Gradienten
= np.array([np.NaN, dgdxtwo, np.NaN]).reshape((3, 1))
hgrad
# Analytisch bestimmter Gradient
= gradg(xzero)
gradx
# Die Differenz in der Norm
= np.linalg.norm((hgrad-gradx)[1])
hdiff # bitte alle Kompenenten berechnen
# und dann die Norm ueber den ganzen Vektor nehmen
print(f'h={h:.2e}: diff in gradient {hdiff.flatten()[0]:.2e}')