Suurima tõenäosuse hinnang

Lang L: none (table-of-contents):

Anonim

Maksimaalse tõenäosuse hinnang (VLE) on üldmudel tõenäosusjaotuse parameetrite hindamiseks, mis sõltub valimis leiduvatest tähelepanekutest.

Teisisõnu maksimeerib EMV tihedusfunktsioonide parameetrite tõenäosust, mis sõltuvad tõenäosuse jaotusest ja valimis leiduvatest tähelepanekutest.

Kui räägime maksimaalse tõenäosuse hindamisest, peame rääkima ka funktsioon maksimaalne tõenäosus. Matemaatiliselt on antud valim x = (x1,…, Xn) ja parameetrid, θ = (θ1,…, Θn), siis

Ära paanitse! See sümbol tähendab sama, mis summade liitmine. Sel juhul sõltub kõigi tihedusfunktsioonide korrutamine proovivaatlustest (xi) ja parameetrid θ.

Mida suurem on L (θ | x) väärtus, see tähendab maksimaalse tõenäosuse funktsiooni väärtus, seda tõenäolisem on valimipõhised parameetrid.

EMV logaritmiline funktsioon

Suurima tõenäosushinnangu leidmiseks peame diferentseerima (tuletama) tihedusfunktsioonide korrutised ja see pole kõige mugavam viis seda teha.

Kui puutume kokku keeruliste funktsioonidega, saame teha monotoonse teisenduse. Teisisõnu, see oleks nagu tahtmine joonistada Euroopat reaalses plaanis. Peaksime selle vähendama, et see mahuks paberilehele.

Sel juhul teeme monotoonse teisenduse, kasutades looduslikke logaritme, kuna need on monotoonsed ja suurendavad funktsioone. Matemaatiliselt,

Logaritmide omadused võimaldavad meil ülaltoodud korrutust väljendada tihedusfunktsioonidele rakendatud looduslike logaritmide summana.

Nii et monotoonne teisendamine logaritmide abil on lihtsalt "skaala muutus" väiksemateks arvudeks.

Parameetrite hinnanguline väärtus, mis maksimeerib logaritmidega maksimaalse tõenäosuse funktsiooni parameetrite tõenäosust, on samaväärne nende parameetrite hinnangulise väärtusega, mis maksimeerivad algse maksimaalse tõenäosuse funktsiooni parameetrite tõenäosuse.

Niisiis, alati tegeleme maksimaalse tõenäosuse funktsiooni monotoonse muutmisega, arvestades selle suuremat arvutust.

Uudishimu

Nii keeruline kui kummaline, kui see EMV võib tunduda, rakendame seda pidevalt ise aru andmata.

Millal?

Kõigis lineaarse regressiooni parameetrite hinnangutes klassikaliste eelduste kohaselt. Tuntum kui tavalised kõige väiksemad väljakud (OLS).

Teisisõnu, kui rakendame OLS-i, siis rakendame kaudselt EMV-d, kuna mõlemad on järjepidevuse poolest samaväärsed.

Rakendus

Nagu muud meetodid, põhineb ka EMV iteratsioonil. See tähendab, et teatud toimingu kordamine nii palju kordi kui vaja funktsiooni maksimaalse või minimaalse väärtuse leidmiseks. Selle protsessi suhtes võidakse parameetrite lõplikke väärtusi piirata. Näiteks, et tulemus on suurem või võrdne nulliga või et kahe parameetri summa peab olema väiksem kui üks.

Sümmeetriline GARCH-mudel ja selle erinevad laiendid rakendavad EMV-d, et leida parameetrite hinnanguline väärtus, mis maksimeerib tihedusfunktsioonide parameetrite tõenäosuse.