Jeg sliter med å forstå begrepet asymptotisk varians. Konteksten er den geofysiske tidsseriebehandlingen med robuste metoder som brukes.
Metoder med et veldig høyt nedbrytingspunkt har vanligvis en mindre asymptotisk relativ effektivitet ved den gaussiske fordelingen enn LS. Dette betyr at jo høyere robustheten til estimatoren er, desto høyere er den asymptotiske avviket. For å oppnå den samme parameterusikkerheten ved den robuste prosedyren, er det nødvendig med flere målinger.
Kan noen forklare dette?
Kommentarer
- Det er ikke klart hva din forvirring er om " asymptotisk avvik " per si. Du ser ut til å være forvirret av begrepet Asymptotic Relative Efficiency, ikke Asymptotic Variance.
- @Hey de to er nært beslektede, siden A.R.E. er et forhold mellom asymptotiske avvik. (Også jeg tror du mener " per se " der.)
- @ Glen_b ja, jeg mener i og for seg, og ja, de er veldig beslektede, men selvfølgelig på hjemmebanen til gaussiske, ikke-robuste metoder, robuste metoder krever flere prøver. Jeg ønsket å avklare hva med dette var kontraintuitivt, men jeg ser at det er et akseptert svar, så jeg Matt klarte å komme til saken.
- Asymptotisk relativ effektivitet .
Svar
En robust estimator er en som er uendret eller endres veldig lite når nye data blir introdusert eller antakelser blir brutt. For eksempel er medianen en mer robust estimator enn gjennomsnittet. Hvis du legger til en relativt stor observasjon i datasettet ditt, vil medianen din endre seg veldig lite, mens gjennomsnittet vil endre seg mye mer.
Når du tilpasser en lineær regresjonsmodell, får vi parameterestimater og tilhørende standardfeil i våre estimater. En av forutsetningene for den lineære regresjonsmodellen er lik varians – det vil si, uavhengig av $ x $ -verdien, vil feilene fordeles med gjennomsnittlig $ 0 $ og standardavvik $ \ sigma $. I tilfelle der denne antagelsen brytes, foretrekker vi kanskje å bruke robuste standardfeil som er generelt større standardfeil som vil utgjøre ethvert brudd på vår antagelse om likestilling. (Dette bruddet kalles heteroscedasticity.)
Når vi bruker robuste standardfeil, er standardfeilene våre (og tilsvarende, våre avvik) generelt større enn de ville vært hvis vi ikke gjorde det «t bruker robuste standardfeil. La oss betegne den robuste standardfeilen som $ \ frac {\ sigma_R} {\ sqrt {n}} $ og den» typiske «(ikke-robuste) standardfeilen som $ \ frac {\ sigma_T } {\ sqrt {n}} $. Det bør være klart at når den robuste standardfeilen er større, $ \ frac {\ sigma_R} {\ sqrt {n}} > \ frac {\ sigma_T} {\ sqrt { n}} $. Det bør også være klart at den robuste standardfeilen asymptotisk vil være større enn den «typiske» standardfeilen fordi vi kan avbryte $ \ sqrt {n} $ ut på begge sider.
La oss si at vår «typiske» standardfeil er $ k = \ frac {\ sigma_T} {\ sqrt {n}} $. Deretter $ k < \ frac {\ sigma_R} {\ sqrt {n}} $. For at den robuste standardfeilen skal tilsvare $ k $, må vi gjøre $ n $ større (aka samle flere observasjoner / prøve).
Håper dette er fornuftig!
EDIT: Se den medfølgende lenken og kommentarene nedenfor for en kort diskusjon om når de robuste standardfeilene vil faktisk være større enn de «typiske» (ikke-robuste) standardfeilene. http://chrisauld.com/2012/10/31/the-intuition-of-robust-standard-errors/
Kommentarer
- Det er mulig å konstruere tilfeller der de robuste standardfeilene faktisk er mindre enn de vanlige!
- Christoph, jeg vil redigere min svar riktig . Jeg ' er interessert i å vite når en større $ \ sigma $ korrelerer med en mindre $ (x_i- \ bar {x}) $ fordi det virker kontraintuitivt og, selv om det ikke er umulig, ekstremt lite sannsynlig. Det ser ut til at du antyder like mye i svaret ditt – at det er mulig å konstruere en sak slik at dette skjer – men det ville være interessant å se hvor ofte dette oppstår i reelle data og ikke patologiske tilfeller.