Maximum-likelihood módszere

Innen: testwiki
Ugrás a navigációhoz Ugrás a kereséshez

Sablon:Hunfn

  1. Sablon:Label A maximum-likelihood (ML) módszer egy statisztikai becslési technika, amelyet a paraméterek optimális becslésére használnak egy adott valószínűségi eloszlás keretein belül. A módszer célja, hogy megtalálja a paramétereket, amelyek a legvalószínűbbé teszik a megfigyelt adatokat.
Főbb lépések

1. Valószínűségi sűrűségfüggvény (PDF): Kezdjük el egy olyan eloszlás megválasztásával, amely jellemzi a megfigyelt adatokat. Legyen a valószínűségi sűrűségfüggvény (PDF) vagy valószínűségi tömegfüggvény (PMF) f(x;θ), ahol θ a paraméterek halmaza.

2. Likelihood függvény: A likelihood függvény a megfigyelt adatok alapján a paraméterek valószínűségét adja meg: L(θ)=P(X=x1,X=x2,,X=xn|θ)=i=1nf(xi;θ) ahol x1,x2,,xn a megfigyelt adatok.

3. Log-likelihood: A számítás egyszerűsítése érdekében gyakran a log-likelihood függvényt használjuk: (θ)=logL(θ)=i=1nlogf(xi;θ)

4. Optimalizálás: A következő lépés a maximum keresése, azaz a log-likelihood függvény maximumának meghatározása. Ezt a folyamatot a deriváltak felhasználásával végezhetjük el: d(θ)dθ=0 A derivált nullára állítása után a második derivált segítségével ellenőrizhetjük, hogy maximumról van-e szó.

5. Becslés: A legnagyobb likelihood értéket adó paramétert θ^ jelöli, amely a legvalószínűbb becslés a paraméterekre a megfigyelt adatok alapján.

Példa
Tegyük fel, hogy egy kísérlet során megfigyeltünk egy mintaátlagot, és azt szeretnénk megbecsülni, hogy a populáció normális eloszlású, amelynek várható értéke μ és szórása σ. A valószínűségi sűrűségfüggvény: f(x;μ,σ)=12πσ2exp((xμ)22σ2) A log-likelihood függvény:

(μ,σ)=n2log(2π)nlog(σ)12σ2i=1n(xiμ)2

Ezt a függvényt a μ és σ paraméterek szerint optimalizálva megkapjuk a legjobb becsléseket. Sablon:Hunl