Różnice między OLS i MLE

Anonim

OLS vs MLE

Często próbujemy zniknąć, gdy temat dotyczy statystyk. Dla niektórych radzenie sobie ze statystykami jest jak przerażające doświadczenie. Nienawidzimy liczb, linii i wykresów. Musimy jednak stawić czoła tej wielkiej przeszkodzie, aby ukończyć szkołę. Jeśli nie, twoja przyszłość będzie ciemna. Bez nadziei i bez światła. Aby móc przekazywać statystyki, często napotykamy OLS i MLE. "OLS" oznacza "zwykłe najmniejsze kwadraty", a "MLE" oznacza "maksymalne oszacowanie prawdopodobieństwa". Zazwyczaj te dwa terminy statystyczne są ze sobą powiązane. Dowiemy się o różnicach pomiędzy zwykłymi ocenami najmniejszych kwadratów i maksymalnych prawdopodobieństw.

Zwykłe najmniejsze kwadraty lub OLS można nazwać liniowymi najmniejszymi kwadratami. Jest to metoda do w przybliżeniu określania nieznanych parametrów znajdujących się w modelu regresji liniowej. Zgodnie z książkami statystycznymi i innymi źródłami online, zwykłe najmniejsze kwadraty uzyskuje się przez zminimalizowanie całkowitej kwadratowej odległości w pionie pomiędzy obserwowanymi odpowiedziami w obrębie zestawu danych i odpowiedziami przewidywanymi przez przybliżenie liniowe. Za pomocą prostej formuły można wyrazić wynikowy estymator, szczególnie pojedynczy regresor, znajdujący się po prawej stronie modelu regresji liniowej.

Na przykład masz zestaw równań, który składa się z kilku równań, które mają nieznane parametry. Możesz użyć zwykłej metody najmniejszych kwadratów, ponieważ jest to najbardziej standardowe podejście do znajdowania przybliżonego rozwiązania twoich nadmiernie zdeterminowanych systemów. Innymi słowy, jest to twoje ogólne rozwiązanie polegające na minimalizowaniu sumy kwadratów błędów w równaniu. Dopasowanie danych może być najbardziej odpowiednią aplikacją. Źródła internetowe stwierdziły, że dane, które najlepiej pasują do zwykłych najmniejszych kwadratów, minimalizują sumę kwadratów reszt. "Residual" to "różnica między wartością obserwowaną a dopasowaną wartością dostarczoną przez model."

Estymacja maksymalnego prawdopodobieństwa (MLE) jest metodą stosowaną do estymacji parametrów modelu statystycznego oraz do dopasowania modelu statystycznego do danych. Jeśli chcesz znaleźć pomiar wysokości każdego koszykarza w określonej lokalizacji, możesz użyć oszacowania maksymalnego prawdopodobieństwa. Zwykle napotykasz na problemy, takie jak ograniczenia kosztów i czasu. Gdybyś nie był w stanie zmierzyć wszystkich wysokości koszykarzy, maksymalne oszacowanie prawdopodobieństwa byłoby bardzo przydatne. Korzystając z oszacowania maksymalnego prawdopodobieństwa, można oszacować średnią i wariancję wysokości obiektów. MLE ustawiłby średnią i wariancję jako parametry w określaniu określonych wartości parametrycznych w danym modelu.

Podsumowując, oszacowanie maksymalnej wiarygodności obejmuje zestaw parametrów, które można wykorzystać do przewidywania danych potrzebnych w rozkładzie normalnym. Dany, ustalony zestaw danych i jego model prawdopodobieństwa prawdopodobnie wygenerują przewidywane dane. MLE dałoby nam zunifikowane podejście, jeśli chodzi o oszacowanie. Ale w niektórych przypadkach nie możemy użyć oszacowania maksymalnego prawdopodobieństwa z powodu rozpoznanych błędów lub problem faktycznie nie istnieje nawet w rzeczywistości.

Więcej informacji na temat OLS i MLE można znaleźć w podręcznikach statystycznych, aby uzyskać więcej przykładów. Internetowe encyklopedia Strony internetowe są również dobrym źródłem dodatkowych informacji.

Streszczenie:

  1. "OLS" oznacza "zwykłe najmniejsze kwadraty", a "MLE" oznacza "maksymalne oszacowanie prawdopodobieństwa".

  2. Zwykłe najmniejsze kwadraty lub OLS można nazwać liniowymi najmniejszymi kwadratami. Jest to metoda do w przybliżeniu określania nieznanych parametrów znajdujących się w modelu regresji liniowej.

  3. Estymacja maksymalnego prawdopodobieństwa (MLE) jest metodą wykorzystywaną do estymacji parametrów modelu statystycznego i do dopasowania modelu statystycznego do danych.