Jeg kæmper for at forstå begrebet asymptotisk varians. Konteksten er den geofysiske behandling af tidsserier med robuste metoder, der anvendes.
Metoder med et meget højt nedbrydningspunkt har normalt en mindre asymptotisk relativ effektivitet ved Gauss-fordelingen end LS. Dette betyder, at jo højere estimatorens robusthed er, jo højere er den asymptotiske variation. For at opnå den samme parameterusikkerhed ved den robuste procedure kræves der flere målinger.
Kan nogen forklare dette?
Kommentarer
- Det er ikke klart, hvad din forvirring er om " asymptotisk varians " pr. sige. Du ser ud til at være forvirret af begrebet asymptotisk relativ effektivitet, ikke asymptotisk afvigelse.
- @ De to er nært beslægtede, da A.R.E. er et forhold mellem asymptotiske afvigelser. (Også jeg tror du mener " per se " der.)
- @ Glen_b ja, jeg mener i sig selv, og ja, de er meget beslægtede, men selvfølgelig på hjemmebane af gaussiske baserede, ikke-robuste metoder, robuste metoder kræver flere prøver. Jeg ville præcisere, hvad der var kontraintuitivt, men jeg kan se, at der er et accepteret svar, så jeg Matt var i stand til at komme til problemet.
- Asymptotisk relativ effektivitet .
Svar
En robust estimator er en, der er uændret eller ændres meget lidt, når nye data introduceres, eller antagelser overtrædes. For eksempel er medianen en mere robust estimator end gennemsnittet, for hvis du tilføjer en relativt stor observation til dit datasæt, vil din median ændre meget lidt, mens dit gennemsnit vil ændre sig meget mere.
Når du tilpasser en lineær regressionsmodel, får vi parameterestimater og tilhørende standardfejl i vores estimater. En af forudsætningerne for den lineære regressionsmodel er lighed for varians – det vil sige, uanset $ x $ -værdien, fordeles fejlene med gennemsnit $ 0 $ og standardafvigelse $ \ sigma $. I det tilfælde, hvor denne antagelse er overtrådt, foretrækker vi måske at bruge robuste standardfejl som er generelt større standardfejl, der tegner sig for enhver krænkelse af vores antagelse om ligestilling. (Denne overtrædelse kaldes heteroscedasticitet.)
Når vi bruger robuste standardfejl, er vores standardfejl (og ligeledes vores afvigelser) generelt større end de ville være, hvis vi ikke “t bruger robuste standardfejl. Lad os betegne den robuste standardfejl som $ \ frac {\ sigma_R} {\ sqrt {n}} $ og den” typiske “(ikke-robuste) standardfejl som $ \ frac {\ sigma_T } {\ sqrt {n}} $. Det skal være klart, at når den robuste standardfejl er større, $ \ frac {\ sigma_R} {\ sqrt {n}} > \ frac {\ sigma_T} {\ sqrt { n}} $. Det bør også være klart, at den robuste standardfejl asymptotisk vil være større end den “typiske” standardfejl, fordi vi kan annullere $ \ sqrt {n} $ ud på begge sider.
Lad os sig, at vores “typiske” standardfejl er $ k = \ frac {\ sigma_T} {\ sqrt {n}} $. Derefter $ k < \ frac {\ sigma_R} {\ sqrt {n}} $. For at den robuste standardfejl skal svare til $ k $, skal vi gøre $ n $ større (også indsamle flere observationer / prøve).
Håber det giver mening!
EDIT: Se det medfølgende link og kommentarerne nedenfor for en kort diskussion om, hvornår de robuste standardfejl vil faktisk være større end de “typiske” (ikke-robuste) standardfejl. http://chrisauld.com/2012/10/31/the-intuition-of-robust-standard-errors/
Kommentarer
- Det er muligt at konstruere tilfælde, hvor de robuste standardfejl faktisk er mindre end standardfejlene!
- Christoph, jeg vil redigere min svar passende . Jeg ' er interesseret i at vide, hvornår en større $ \ sigma $ korrelerer med en mindre $ (x_i- \ bar {x}) $, fordi det virker kontraintuitivt og, selvom det ikke er umuligt, ekstremt usandsynlig. Det ser ud til, at du antyder lige så meget i dit svar – at det er muligt at konstruere en sådan sag, at dette sker – men det ville være interessant at se, hvor ofte dette opstår i reelle data og ikke patologiske tilfælde.