Ik heb moeite om het concept van asymptotische variantie te begrijpen. De context is de geofysische tijdreeksverwerking waarbij robuuste methoden worden gebruikt.
Methoden met een zeer hoog doorslagpunt hebben gewoonlijk een kleinere asymptotische relatieve efficiëntie bij de Gauss-verdeling dan LS. Dit betekent dat hoe hoger de robuustheid van de schatter, hoe hoger de asymptotische variantie. Om dezelfde parameteronzekerheden te bereiken door de robuuste procedure, zijn meer metingen vereist.
Kan iemand dit uitleggen?
Opmerkingen
- Het is niet duidelijk wat uw verwarring is over de " asymptotische variantie " per woord. Je lijkt in de war te zijn door het concept van asymptotische relatieve efficiëntie, niet door asymptotische variantie.
- @Bey de twee zijn nauw verwant, aangezien de A.R.E. is een verhouding van asymptotische varianties. (Ik denk ook dat je bedoelt " per se " daar.)
- @Glen_b ja, ik bedoel per se, en ja, ze zijn erg verwant, maar natuurlijk op de thuisbasis van gaussiaanse, niet-robuuste methoden, robuust methoden vereisen meer monsters. Ik wilde verduidelijken dat dit contra-intuïtief was, maar ik zie dat er een geaccepteerd antwoord is, dus ik kon Matt op het probleem ingaan.
- Asymptotische relatieve efficiëntie .
Antwoord
Een robuuste schatter is er een die ongewijzigd is of verandert zeer weinig wanneer nieuwe gegevens worden geïntroduceerd of aannames worden geschonden. De mediaan is bijvoorbeeld een robuustere schatter dan het gemiddelde, want als u een relatief grote waarneming aan uw gegevensset toevoegt, zal uw mediaan heel weinig veranderen, terwijl uw gemiddelde veel meer zal veranderen.
Bij het aanpassen van een lineair regressiemodel, we krijgen parameterschattingen en bijbehorende standaardfouten van onze schattingen. Een van de aannames van het lineaire regressiemodel is gelijkheid van variantie – dat wil zeggen, ongeacht de $ x $ waarde, zullen de fouten worden verdeeld met een gemiddelde $ 0 $ en de standaarddeviatie $ \ sigma $. In het geval dat deze aanname wordt geschonden, kunnen we er de voorkeur aan geven om robuuste standaardfouten te gebruiken, die over het algemeen grotere standaardfouten zijn die elke schending van onze aanname van gelijkheid van varianties verklaren. (Deze overtreding staat bekend als heteroscedasticiteit.)
Wanneer we robuuste standaardfouten gebruiken, zijn onze standaardfouten (en equivalent onze varianties) over het algemeen groter dan ze zouden zijn als we dat niet zouden doen “geen robuuste standaardfouten gebruiken. Laten we de robuuste standaardfout aanduiden als $ \ frac {\ sigma_R} {\ sqrt {n}} $ en de” typische “(niet-robuuste) standaardfout als $ \ frac {\ sigma_T } {\ sqrt {n}} $. Het moet duidelijk zijn dat, wanneer de robuuste standaardfout groter is, $ \ frac {\ sigma_R} {\ sqrt {n}} > \ frac {\ sigma_T} {\ sqrt { n}} $. Het moet ook duidelijk zijn dat, asymptotisch, de robuuste standaardfout groter zal zijn dan de “typische” standaardfout, omdat we de $ \ sqrt {n} $ out aan beide kanten kunnen annuleren.
Laten we s stel dat onze “typische” standaardfout $ k = \ frac {\ sigma_T} {\ sqrt {n}} $ is. Dan is $ k < \ frac {\ sigma_R} {\ sqrt {n}} $. Om ervoor te zorgen dat de robuuste standaardfout gelijk is aan $ k $, moeten we $ n $ groter maken (oftewel meer observaties / monsters verzamelen).
Ik hoop dat dit logisch is!
BEWERKEN: Zie de meegeleverde link en de opmerkingen hieronder voor een korte bespreking over wanneer de robuuste standaardfouten eigenlijk groter zijn dan de “typische” (niet-robuuste) standaardfouten. http://chrisauld.com/2012/10/31/the-intuition-of-robust-standard-errors/
Opmerkingen
- Het is mogelijk gevallen te construeren waarin de robuuste standaardfouten eigenlijk kleiner zijn dan de standaardfouten!
- Christoph, ik zal mijn antwoord op de juiste manierIk ' ben geïnteresseerd om te weten wanneer een grotere $ \ sigma $ correleert met een kleinere $ (x_i- \ bar {x}) $ omdat dat contra-intuïtief lijkt en, hoewel niet onmogelijk, extreem onwaarschijnlijk. Het lijkt erop dat u zoveel in uw antwoord impliceert – dat het mogelijk is om een casus zo te construeren dat dit gebeurt – maar het zou interessant zijn om te zien hoe vaak dit voorkomt in echte gegevens en niet in pathologische gevallen.