Methode der kleinsten Fehlerquadrate

Die [b]Methode der kleinsten Quadrate[/b] (kurz [b]KQ-Methode[/b]) ist das [url=https://de.wikipedia.org/wiki/Mathematik]mathematische[/url] Standardverfahren zur [url=https://de.wikipedia.org/wiki/Ausgleichungsrechnung]Ausgleichungsrechnung[/url]. Dabei wird zu einer [url=https://de.wikipedia.org/wiki/Streudiagramm]Datenpunktwolke[/url] eine Kurve gesucht, die möglichst nahe an den Datenpunkten verläuft (wikipedia). [br]Messwerte P,Q,R im Koordinatensystem. Gemessen werden die Abstände ([math]\textcolor{#004225}{r_i}[/math]Residuen) Messwert (x,y) zur Ausgleichsgeraden g(x) die möglichst "gut" an die Punkte angenähert werden soll. [br]Die Summe der Residuenquadrate r[sub]i[/sub]=(g(x[sub]i[/sub])-y[sub]i[/sub])[sup]2[/sup] soll minimiert werden.[br][math]g\left(x\right)=a_1x+a_0[/math][br][math]Q_k = \sum_{i=1}^{n}r_i[/math] r[sub]i[/sub]=(g(x[sub]i[/sub])-y[sub]i[/sub])[sup]2[/sup]
Abstandsquadrate minimieren
Minimiere Residuenquadrate [math]Q:\left(g\left(X_i\right)-Y_i\right)^2[/math] durch partielle Ableitung nach den Funktionskoeffizienten dQ={ [math]dQ \ da_0 = 0[/math] , [math]dQ \ da_1 =0[/math]}. Die Lösung dieses LGS liefert die Koeffizienten a[sub]i[/sub] der gesuchten Funktion.[br][br]Ab Zeile 18 entwickle ich die Normalengleichung. Durch Einsetzen der gegebenen Punkte [math]f\left(X_i\right)=Y_i[/math] in die allgemeine Funktionengleichung [math]f\left(x\right)=a_1x+a_0[/math] erhalte ich die Koeffizientenmatrix [f(X[sub]i[/sub])]=A und [math]b=Y_i[/math] für A a[sub]i[/sub] = b.[br][br]Die Matrixversion der Ableitungen dQ stellt sich als Normalengleichung [math]A^TA \cdot ( ^{a_1}_{a_0}) =A^Tb[/math] dar und damit berechne ich ebenfalls die Koeffizienten der Regressionsfunktion.[br][br]Die Normalengleichung löse ich durch die Inverse [math] ( ^{a_1}_{a_0}) =(A^TA)^{-1} \cdot A^Tb[/math].[br][br][icon]/images/ggb/toolbar/mode_fitline.png[/icon][url=https://www.geogebra.org/m/YjjE9nwR]Allgemeine Version für Polynomregression[/url][math]\nwarrow[/math][br]  [url=https://www.geogebra.org/m/xsdmrmzq]Version Exponential-Power-Regression-Model[/url][math]\nwarrow[/math][br][br]Ändern Datenmodell: X,Y (Werte Listen) mit neuen Daten belegen!
Einfache Regression für eine Gerade
[math]a_1 = \frac{\sum\limits_{i=1}^{n}\left(X\left(i \right) - X_m \right) \; \left(Y\left(i \right) - Y_m \right)}{\sum\limits_{i=1}^{n}\left(X\left(i \right) - X_m \right)^{2}} \to a_0 = Y_m - X_m \; a_1[/math][br][br]AlgebraView (CAS mit List-Index Element())[br]XY: {(10, 1), (25, 7 / 5), (45, 5 / 2), (60, 3)}[br]X: x(XY)[br]Y: y(XY)[br]n: length(X)[br]X_m:mean(X)[br]Y_m:mean(Y)[br]a_1: Sum((X(i)-X_m)(Y(i) -Y_m) ,i,1,n)/sum((X(i)-X_m)^2,i,1,n)[br]f(x):=(Y_m - a_1 X_m) + a_1 x[br][br]CorrelationCoefficient(XY)[br][math]r = \frac{\sum\limits_{i=1}^{n}\left(x_{i} - x_{m} \right) \; \left(y_{i} - y_{m} \right)}{\sqrt{\sum_{i=1}^{n}\left(x_{i} - x_{m} \right)^{2} \; \sum_{i=1}^{n}\left(y_{i} - y_{m} \right)^{2}}}[/math][br]r=Sum((X(i)-X_m)(Y(i)-Y_m),i,1,n)/sqrt(Sum((X(i)-X_m)^2,i,1,n)Sum((Y(i)-Y_m)^2,i,1,n))

Information: Methode der kleinsten Fehlerquadrate