Künstliche neuronale Netze bestehen aus mehreren, miteinander verketteten Funktionen. Wie diese Funktionen miteinander verknüpft werden, wird gerne als gerichtete Graph aus Knoten (stehen für Funktionen) und Kanten (stehen für die Weitergabe von Werten) dargestellt. [br][br]In dem untenstehenden Diagramm kannst du sehen, wie Funktionen in dem kleinen Netzwerk miteinander verknüpft sind, welche Eingangswerte sie erhalten und welche Funktionswerte sie ausgeben.
Gebe unterschiedliche Werte für [math]x[/math] ein und betrachte die daraus berechneten Funktionswerte. Du kannst auch direkt den Punkt [math]P[/math] verschieben.
Beschreibe das Verhalten der Funktionswerte von [math]H_{1,1}[/math], [math]H_{1,2}[/math] und [math]H_{1,3}[/math] in Abhängigkeit von dem Wert von [math]x[/math].[br]
Die Funktion des letzten Knotens in diesem Netzwerk [math]H_{2,1}[/math] ist sehr einfach aufgebaut: Sie multipliziert die eingehenden Werte jeweils mit einer festen Zahl [math]w_i[/math] und addiert die Ergebnisse anschließend mit einem festen Wert [math]b[/math] zusammen:[br][math]H_{2,1}\left(x\right)=w_1\cdot H_{1,1}\left(x\right)+w_2\cdot H_{1,2}\left(x\right)+w_3\cdot H_{1,3}\left(x\right)+b[/math]
Nun wollen wir den Einfluss der Parameter [math]w_1[/math], [math]w_2[/math], [math]w_3[/math] und [math]b[/math] untersuchen.