Als de steekproefomvang toeneemt (bijvoorbeeld een handelsstrategie met een voordeel van 80%), waarom doet de standaard afwijking van resultaten kleiner worden? Kan iemand alsjeblieft uitleggen waarom de standaarddeviatie kleiner wordt en de resultaten dichter bij het ware gemiddelde komen … misschien een eenvoudig, intuïtief wiskundig voorbeeld geven.
Opmerkingen
- Mogelijk duplicaat van Welke intuïtieve verklaring is er voor de centrale limietstelling?
- ” De standaarddeviatie van resultaten ” is dubbelzinnig (welke resultaten ??) – en dus de zeer algemene bewering in de titel is strikt onjuist (er zijn duidelijke tegenvoorbeelden; het is ‘ slechts soms waar). Het is misschien beter om een bepaald voorbeeld te specificeren (zoals de steekproefverdeling van steekproefgemiddelden, die wel de eigenschap heeft dat de standaarddeviatie afneemt naarmate de steekproefomvang toeneemt).
- De standaarddeviatie is niet ‘ wordt niet noodzakelijk kleiner naarmate de steekproef groter wordt. De standaardfout van het gemiddelde betekent echter dat ‘ is waarnaar u ‘ verwijst, in dat geval zijn we zekerder waar de gemiddelde is wanneer de steekproefomvang toeneemt.
- Ja, ik moet in plaats daarvan de standaardfout hebben bedoeld. Waarom neemt de steekproeffout van het gemiddelde af? Kunt u alstublieft wat eenvoudige, niet-abstracte wiskunde geven om visueel te laten zien waarom? Waarom krijgen we ‘ zekerder ‘ waar het gemiddelde is naarmate de steekproefomvang toeneemt (in mijn geval zijn de resultaten eigenlijk een betere weergave van een 80% winstpercentage) hoe gebeurt dit?
Antwoord
Als de steekproefomvang toeneemt (bijvoorbeeld een handelsstrategie met een voordeel van 80%), waarom wordt de standaarddeviatie van de resultaten dan kleiner?
Het sleutelbegrip hier is “resultaten”. Wat zijn deze resultaten ? De resultaten zijn de varianties van schatters van populatieparameters zoals gemiddelde $ \ mu $.
Als u bijvoorbeeld de steekproefvariantie $ s ^ 2_j $ van waarden meet $ x_ {i_j} $ in uw steekproef $ j $, wordt deze niet kleiner met grotere steekproefomvang $ n_j $: $$ s ^ 2_j = \ frac 1 {n_j-1} \ sum_ {i_j} (x_ { i_j} – \ bar x_j) ^ 2 $$ waarbij $ \ bar x_j = \ frac 1 n_j \ sum_ {i_j} x_ {i_j} $ een steekproefgemiddelde is.
De schatter van de variantie $ s ^ 2_ \ mu $ van een steekproef gemiddelde $ \ bar x_j $ zal afnemen met de steekproefomvang: $$ \ frac 1 n_js ^ 2_j $$
De uitleg van de leek gaat als volgt. Stel dat de hele populatie $ n $ is. Als we naar elke waarde $ x_ {j = 1 \ dots n} $ hadden gekeken, zou ons steekproefgemiddelde gelijk zijn geweest aan het ware gemiddelde: $ \ bar x_j = \ mu $. Met andere woorden, de onzekerheid zou nul zijn, en de variantie van de schatter zou ook nul zijn: $ s ^ 2_j = 0 $
Als je echter alleen kijkt naar de steekproef van grootte $ n_j $ . U berekent de steekproefgemiddelde schatter $ \ bar x_j $ met onzekerheid $ s ^ 2_j > 0 $. Dus ergens tussen steekproefomvang $ n_j $ en $ n $ de onzekerheid (variantie ) van het steekproefgemiddelde $ \ bar x_j $ afgenomen van niet-nul naar nul. Dat is de eenvoudigste verklaring die ik kan bedenken.
Antwoord
Misschien is de gemakkelijkste manier om erover na te denken, het verschil tussen een populatie en een steekproef. Als ik je vraag wat het gemiddelde is van een variabele in je steekproef , geef je me toch geen schatting? Je berekent het gewoon en vertel het me, want je hebt per definitie alle de gegevens waaruit de steekproef bestaat en kunnen daarom direct de statistiek van belang waarnemen. Correlatiecoëfficiënten zijn in die zin niet anders: als ik je vraag wat de correlatie is tussen X en Y in jouw steekproef , en ik het maakt duidelijk niet uit wat het is buiten de steekproef en in de grotere populatie (reëel of metafysisch) waaruit het is getrokken, dan kraak je gewoon de cijfers en vertel me, er is geen kansrekening bij betrokken.
Nu, wat als we ons bekommeren om de correlatie tussen deze twee variabelen buiten de steekproef, dwz in een niet-geobserveerde populatie of in de niet-waarneembare en in zekere zin constante causale dynamiek van de werkelijkheid? (Als we het opnieuw opvatten als de laatste dan is de populatie een “superpopulatie”; zie bijvoorbeeld https://www.jstor.org/stable/2529429 .) Dan doen we natuurlijk significantietests en gebruiken we anders wat we weten, in de steekproef, om te schatten wat we niet weten in de populatie, inclusief de standaarddeviatie van de populatie die begint op te lopen uw vraag.
Maar laten we er eerst eens over nadenken vanuit het andere uiterste, waar we een steekproef verzamelen die zo groot is dat het simpelweg de populatie wordt.Stel je censusgegevens voor als de onderzoeksvraag gaat over de hele werkelijke bevolking van het land, of misschien is het een algemene wetenschappelijke theorie en hebben we een oneindige steekproef: als ik dan nogmaals wil weten hoe de wereld werkt, maak ik gebruik van mijn almacht en bereken, in plaats van slechts een schatting te maken van mijn interessestatistiek. Wat als ik dan een hersenscheurt heb en niet langer almachtig ben, maar er nog steeds dichtbij ben, zodat ik één observatie mis, en mijn steekproef nu één observatie is om de hele populatie niet vast te leggen? Nu moet ik opnieuw schattingen maken, met een reeks waarden die het zou kunnen aannemen met verschillende waarschijnlijkheden – ik kan het niet langer vaststellen – maar wat ik schat, is in werkelijkheid nog steeds een enkel getal – een punt op het getal lijn, geen bereik – en ik heb nog steeds heel veel gegevens, dus ik kan met 95% vertrouwen zeggen dat de werkelijke statistiek van belang ergens binnen een heel klein bereik ligt. Het hangt natuurlijk allemaal af van wat de waarde (n) van dat de laatste observatie is toevallig, maar het is maar één observatie, dus het zou waanzinnig buitengewoon moeten zijn om mijn statistiek van belang veel te veranderen, wat natuurlijk onwaarschijnlijk is en wordt weerspiegeld in mijn beperkte betrouwbaarheidsinterval.
De andere kant van deze medaille vertelt hetzelfde verhaal: de berg aan gegevens die ik heb, zou door puur toeval ertoe kunnen leiden dat ik steekproefstatistieken bereken die heel anders zijn dan wat ik zou berekenen als ik zou die gegevens gewoon kunnen aanvullen met de observatie (s) die ik mis, maar de kans dat ik heb zo een misleidende, bevooroordeelde steekproef getrokken puur door toeval zijn echt heel erg laag. Dat is eigenlijk waar ik verantwoording over afleg en communiceer als ik mijn zeer nauwe betrouwbaarheidsinterval rapporteer voor waar de bevolkingsstatistiek van belang echt ligt.
Als we vanaf daar achteruit lopen, begint het vertrouwen natuurlijk afnemen, en dus begint het interval van plausibele populatiewaarden – ongeacht waar dat interval op de getallenlijn ligt – groter te worden. Mijn steekproef is nog steeds deterministisch zoals altijd, en ik kan steekproefgemiddelden en correlaties berekenen, en ik kan die statistieken behandelen alsof het beweringen zijn over wat ik zou berekenen als ik volledige gegevens over de populatie had, maar hoe kleiner de steekproef, hoe sceptischer ik moet zijn over die beweringen, en hoe meer geloof ik moet hechten aan de mogelijkheid dat wat Ik zou echt zien dat de bevolkingsgegevens ver verwijderd zijn van wat ik in deze steekproef zie. Dit alles is om je vraag in omgekeerde volgorde te beantwoorden: onze schattingen van statistieken die buiten de steekproef vallen, krijgen meer vertrouwen en komen samen op één punt , rep het kwalijk nemen van bepaalde kennis met volledige gegevens, om dezelfde reden dat ze minder zeker worden en groter worden naarmate we minder gegevens hebben.
Het is ook belangrijk om te begrijpen dat de standaarddeviatie van een statistiek verwijst specifiek naar en kwantificeert de waarschijnlijkheid van het verkrijgen van verschillende steekproefstatistieken in verschillende steekproeven die allemaal willekeurig zijn getrokken uit dezelfde populatie, die zelf weer slechts één echte waarde heeft voor die statistiek van belang. Er is helemaal geen standaarddeviatie van die statistiek in de populatie zelf – het is een constant getal en varieert niet. Een variabele heeft daarentegen een geheel eigen standaarddeviatie, zowel in de populatie als in een bepaalde steekproef, en dan is er de schatting van die standaarddeviatie van de populatie die je kunt maken gegeven de bekende standaarddeviatie van die variabele binnen een bepaalde steekproef van een bepaalde grootte. Het is dus belangrijk om alle verwijzingen recht te houden als u een standaarddeviatie (of liever een standaardfout) rond een puntschatting van een populatie kunt hebben de standaarddeviatie van de variabele, gebaseerd op de standaarddeviatie van die variabele in uw steekproef. Er is gewoon geen eenvoudiger manier om erover te praten.
En merk ten slotte op dat het zeker mogelijk is voor een steekproef om u een vertekende weergave te geven van de varianties in de populatie, dus hoewel het relatief onwaarschijnlijk is, is het altijd mogelijk dat een kleinere steekproef niet alleen tegen u liegt over de bevolkingsstatistiek van belang, maar ook tegen u over hoeveel u mag verwachten dat die statistiek van belang varieert van samp le om te bemonsteren. Daar is geen ontkomen aan. Zie het als iemand die iets claimt en dan vraag je hem of hij liegt. Misschien zeggen ze ja, in welk geval je er zeker van kunt zijn dat ze je niets vertellen dat het overwegen waard is. Maar als ze nee zeggen, ben je een beetje terug bij af. Of ze liegen of ze liegen niet, en als je niemand anders hebt om het te vragen, moet je gewoon kiezen of je ze wel of niet wilt geloven. (Bayesianen lijken te denken dat ze een betere manier hebben om die beslissing te nemen, maar ik ben het er nederig mee oneens.)