Aus dem Kurs: Machine Learning Grundlagen

Erhalten Sie Zugriff auf diesen Kurs – mit einer kostenlosen Probeversion

Werden Sie noch heute Mitglied und erhalten Sie Zugriff auf mehr als 25.300 Kurse von Branchenfachleuten.

Lernen im Neuron: Backpropagation

Lernen im Neuron: Backpropagation

Aus dem Kurs: Machine Learning Grundlagen

Lernen im Neuron: Backpropagation

Wie bereits erwähnt, ist Backpropagation ein inkrementelles Verfahren, um den Gradienten zu berechnen, welcher uns wiederum hilft, uns in Richtung Minimum der Fehlerfunktion zu bewegen. Das heißt, das Ziel ist es, die Gewichte graduell so zu verfeinern, dass der Fehler, also die Differenz zwischen korrekter Vorhersage und unsere Vorhersage, minimal wird. Wir haben bereits erwähnt, dass für Gradient Descent eine differenzierbare Aktivierungsfunktion wie die Sigmoidfunktion benötigt wird, aber auch unsere Fehlerfunktion sollte möglichst einfach zu differenzieren sein, dadurch dass wir uns damit später das Ableiten vereinfachen. Daher werden wir eine neue Fehlerfunktion verwenden, den sogenannten Squared Error oder auch quadratischen Fehler. Dieser ist definiert als einhalbmal die Differenz aus Target und Observed zum Quadrat. Die Summe, die wir hier über i=1 bis n gebildet haben, wird benötigt, wenn wir mehr als ein Outputneuron haben in unserem neuronalen Netz. Dies wird später…

Inhalt