Unterschiede zwischen OLS und MLE Unterschied zwischen

Anonim

OLS vs MLE

Wir versuchen oft zu verschwinden, wenn es um Statistiken geht. Für einige ist der Umgang mit Statistiken wie eine erschreckende Erfahrung. Wir hassen die Zahlen, die Linien und die Graphen. Trotzdem müssen wir uns diesem großen Hindernis stellen, um die Schule zu beenden. Wenn nicht, wäre deine Zukunft dunkel. Keine Hoffnung und kein Licht. Um Statistiken zu passieren, begegnen wir oft OLS und MLE. "OLS" steht für "ordinary least squares", während "MLE" für "maximum likelihood estimation" steht. "Normalerweise sind diese beiden statistischen Begriffe miteinander verwandt. Lassen Sie uns etwas über die Unterschiede zwischen gewöhnlichen kleinsten Quadraten und maximalen Wahrscheinlichkeitsschätzungen lernen.

Die kleinsten Quadrate (OLS) können auch als lineare kleinste Quadrate bezeichnet werden. Dies ist eine Methode zur ungefähren Bestimmung der unbekannten Parameter in einem linearen Regressionsmodell. Gemäß statistischen Büchern und anderen Online-Quellen werden die kleinsten Quadrate erhalten, indem die Summe der quadratischen vertikalen Abstände zwischen den beobachteten Antworten innerhalb des Datensatzes und den durch die lineare Näherung vorhergesagten Antworten minimiert wird. Durch eine einfache Formel können Sie den resultierenden Schätzer, insbesondere den einzelnen Regressor, auf der rechten Seite des linearen Regressionsmodells ausdrücken.

Zum Beispiel haben Sie eine Menge von Gleichungen, die aus mehreren Gleichungen besteht, die unbekannte Parameter haben. Sie können die gewöhnliche Methode der kleinsten Quadrate verwenden, da dies der Standardansatz ist, um die ungefähre Lösung für Ihre überbestimmten Systeme zu finden. Mit anderen Worten, es ist Ihre Gesamtlösung, die Summe der Fehlerquadrate in Ihrer Gleichung zu minimieren. Datenanpassung kann Ihre am besten geeignete Anwendung sein. Online-Quellen haben angegeben, dass die Daten, die am besten zu den kleinsten Quadraten passen, die Summe der quadrierten Residuen minimieren. "Residual" ist "die Differenz zwischen einem beobachteten Wert und dem angepassten Wert eines Modells. "

Maximum Likelihood Estimation, oder MLE, ist eine Methode zur Schätzung der Parameter eines statistischen Modells und zur Anpassung eines statistischen Modells an Daten. Wenn Sie die Höhenmessung jedes Basketballspielers an einem bestimmten Ort finden möchten, können Sie die Maximum-Likelihood-Schätzung verwenden. Normalerweise würden Sie auf Probleme wie Kosten- und Zeitbeschränkungen stoßen. Wenn Sie es sich nicht leisten könnten, alle Höhen der Basketballspieler zu messen, wäre die Schätzung der maximalen Wahrscheinlichkeit sehr nützlich. Mit der Maximum-Likelihood-Schätzung können Sie den Mittelwert und die Varianz der Höhe Ihrer Probanden schätzen. Die MLE würde den Mittelwert und die Varianz als Parameter bei der Bestimmung der spezifischen Parameterwerte in einem gegebenen Modell festlegen.

Zusammenfassend umfasst die Maximum-Likelihood-Schätzung eine Menge von Parametern, die zur Vorhersage der in einer Normalverteilung benötigten Daten verwendet werden können. Ein gegebener, fester Satz von Daten und sein Wahrscheinlichkeitsmodell würden wahrscheinlich die vorhergesagten Daten erzeugen. Die MLE würde uns bei der Schätzung einen einheitlichen Ansatz geben. In einigen Fällen können wir die Maximum-Likelihood-Schätzung jedoch aufgrund erkannter Fehler nicht verwenden, oder das Problem existiert tatsächlich gar nicht in der Realität.

Weitere Informationen zu OLS und MLE finden Sie in den Statistikbüchern für weitere Beispiele. Online-Enzyklopädie Websites sind auch eine gute Quelle für zusätzliche Informationen.

Zusammenfassung:

  1. "OLS" steht für "ordinary least squares", während "MLE" für "maximum likelihood estimation" steht. "

  2. Die kleinsten Quadrate (OLS) können auch als lineare kleinste Quadrate bezeichnet werden. Dies ist eine Methode zur ungefähren Bestimmung der unbekannten Parameter in einem linearen Regressionsmodell.

  3. Maximum Likelihood Estimation, oder MLE, ist eine Methode zur Schätzung der Parameter eines statistischen Modells und zur Anpassung eines statistischen Modells an Daten.