Regresja logistyczna
Z Wikipedii
Regresja logistyczna - jedna z metod regresji używanych w statystyce w przypadku, gdy zmienna objaśniana jest na skali dychotomicznej (przyjmuje tylko dwie wartości).
Zwykle wartości zmiennej objaśnianej wskazują na wystąpienie, lub brak wystąpienia pewnego zdarzenia, które chcemy prognozować. Regresja logistyczna pozwala wówczas na obliczanie prawdopodobieństwa tego zdarzenia (tzw. prawdopodobieństwo sukcesu).
Formalnie model regresji logistycznej jest uogólnionym modelem liniowym (GLM), w którym użyto logitu jako funkcji wiążącej.
Spis treści |
[edytuj] Iloraz szans
Regresja logistyczna opiera się na specyficznym sposobie wyrażania prawdopodobieństwa, zwanym ilorazem szans (ang. odds ratio, OR).
Zamiast określać prawdopodobieństwo klasycznie, za pomocą stosunku liczby sukcesów do liczby wszystkich prób, oblicza się iloraz szans, czyli stosunek liczby sukcesów do liczby porażek.
Można go łatwo wyliczyć ze zwykłego prawdopodobieństwa:
Istnieje też odwrotne przekształcenie:
Iloraz szans ma pewną zaletę w porównaniu ze zwykłym zapisem prawdopodobieństwa — przyjmuje dla 0 < p < 1 wartości z zakresu a jego logarytm wartości z zakresu .
Dzięki temu można stosować do szacowania logarytmu ilorazu szans metody regresji nie ograniczone do przedziału [0,1] (np. regresję liniową).
Funkcja przekształcająca prawdopodobieństwo na logarytm ilorazu szans zwana jest logitem:
Funkcja odwrotna:
[edytuj] Model regresji logistycznej
Regresja logistyczna zakłada, że zmienna objaśniana ma rozkład dwupunktowy:
- dla
gdzie liczba prób w procesie Bernoulliego ni jest znana, a prawdopodobieństwo sukcesu pi jest nieznane. Przykładem tej sytuacji jest rozkład odsetka kwiatów, które zakwitną, wśród ni sadzonek.
Model zakłada, że dla każdej próby Bernoulliego (wartość i), istnieje zbiór k zmiennych objaśniających, które niosą pewną informację na temat prawdopodobieństwa sukcesu. Te zmienne objaśniające można uważać za k-elementowy wektor losowy Xi. Model przyjmuje wówczas postać:
Logit nieznanego prawdopodobieństwa sukcesu pi jest modelowany jako liniowa funkcja Xi:
Do modelu można wprowadzić stałą, tworząc zmienną objaśniającą, mającą wszędzie wartość 1, czyli ustawiając xj,i = 1 dla pewnego j i wszystkich i. Nieznane parametry βj są zwykle estymowane metodą największej wiarygodności.
Interpretacją estymowanego parametru βj jest addytywny wpływ, jaki ma jednostkowa zmiana zmiennej j na logarytm odds ratio
W przypadku zmiennych objaśniających na skali dychotomicznej (np. płeć), eβ jest estymacją ilorazu szans, powiedzmy, mężczyzn w porównaniu z kobietami.
Model posiada równoważne sformułowanie w postaci:
Ta forma funkcjonalna jest znana jako perceptron lub jednowarstwowa sieć neuronowa.
[edytuj] Rozszerzenia
Istnieją rozszerzenia modelu, pozwalające na użycie także zmiennych objaśniających na skali nominalnej oraz porządkowej.
Inne rozszerzenie pozwala na zmienną objaśnianą przyjmującą więcej niż dwie wartości (tzw. multinomial logit)
Odmianą jest regresja probitowa, w której zamiast funkcji logit stosuje się odwrotną dystrybuantę rozkładu normalnego (tzw. probit)
[edytuj] Zobacz też
[edytuj] Linki zewnętrzne
- (en) Kalkulator on-line regresji logistycznej
- (en) Pakiet Javy o nazwie Mallet, zawiera moduł regresji logistycznej
[edytuj] Bibliografia
- Alan. Agresti: Categorical Data Analysis. New York: Wiley-Interscience, 2002. ISBN 0-471-36093-7.
- T. Amemiya: Advanced Econometrics. Harvard University Press, 1985. ISBN 0-674-00560-0.
- N. Balakrishnan: Handbook of the Logistic Distribution. Marcel Dekker, Inc., 1991. ISBN 978-0-8247-8587-1.
- William H. Green: Econometric Analysis, fifth edition. Prentice Hall, 2003. ISBN 0-13-066189-9.
- David W. Hosmer: Applied Logistic Regression, 2nd ed.. New York; Chichester, Wiley, 2000. ISBN 0-471-35632-8.