Når prøvestørrelsen øker, hvorfor blir standardavviket til resultatene mindre? Kan noen gi et lekmanneksempel og forklare hvorfor

Når størrelsen på prøven øker (for eksempel en handelsstrategi med 80% kant), hvorfor øker standarden avvik på resultat blir mindre? Kan noen forklare hvorfor standardavvik blir mindre og resultatene kommer nærmere det sanne gjennomsnittet … kanskje gi et enkelt, intuitivt matematisk eksempel på lekmenn.

Kommentarer

  • Mulig duplikat av Hvilken intuitiv forklaring er det for den sentrale grenseteoremet?
  • » Standardavviket for resultat » er tvetydig (hvilke resultater ??) – og så den veldig generelle uttalelsen i tittelen er strengt usann (åpenbare moteksempler eksisterer; det er ‘ bare noen ganger sant). Det kan være bedre å spesifisere et bestemt eksempel (for eksempel samplingsfordeling av prøveinnretninger, som har den egenskapen at standardavviket reduseres når prøvestørrelsen øker).
  • Standardavviket ‘ t reduseres nødvendigvis ettersom prøvestørrelsen blir større. Standardfeilen til gjennomsnittet gjør imidlertid kanskje at ‘ er det du ‘ refererer til, i så fall er vi mer sikre på hvor mener er når prøvestørrelsen øker.
  • Ja, jeg må ha ment standardfeil i stedet. Hvorfor reduseres prøvefeilen til gjennomsnittet? Kan du gi litt enkel, ikke-abstrakt matematikk for å visuelt vise hvorfor. Hvorfor får vi ‘ sikrere ‘ der gjennomsnittet er når prøvestørrelsen øker (i mitt tilfelle blir resultatene faktisk en nærmere representasjon til 80% vinningsgrad) hvordan skjer dette?

Svar

Når utvalgets størrelse øker (for eksempel en handelsstrategi med 80% kant), hvorfor blir standardavviket for resultatene mindre?

Nøkkelbegrepet her er «resultater». Hva er disse resultatene ? resultatene er avvikene fra estimatorer for populasjonsparametere som gjennomsnitt $ \ mu $.

For eksempel, hvis du måler prøvevariansen $ s ^ 2_j $ av verdiene $ x_ {i_j} $ i eksemplet $ j $, det blir ikke mindre med større utvalgstørrelse $ n_j $: $$ s ^ 2_j = \ frac 1 {n_j-1} \ sum_ {i_j} (x_ { i_j} – \ bar x_j) ^ 2 $$ hvor $ \ bar x_j = \ frac 1 n_j \ sum_ {i_j} x_ {i_j} $ er et eksempelmiddel.

Imidlertid er estimatoren for variansen $ s ^ 2_ \ mu $ av et eksempel betyr at $ \ bar x_j $ vil reduseres med størrelsen på prøven: $$ \ frac 1 n_js ^ 2_j $$

Legmannsforklaringen går slik. Anta at hele befolkningsstørrelsen er $ n $. Hvis vi så på hver verdi $ x_ {j = 1 \ dots n} $, ville gjennomsnittet vårt ha vært lik det sanne gjennomsnittet: $ \ bar x_j = \ mu $. Usikkerheten vil med andre ord være null, og variansen til estimatoren vil også være null: $ s ^ 2_j = 0 $

Når du bare ser på prøven på størrelse $ n_j $ Du beregner eksemplets middelestimator $ \ bar x_j $ med usikkerhet $ s ^ 2_j > 0 $. Så et sted mellom prøvestørrelsen $ n_j $ og $ n $ usikkerheten (varians ) av eksemplet betyr $ \ bar x_j $ redusert fra ikke-null til null. Det er den enkleste forklaringen jeg kan komme på.

Svar

Kanskje den enkleste måten å tenke på det er med hensyn til forskjellen mellom en populasjon og et utvalg. Hvis jeg spør deg hva gjennomsnittet av en variabel er i prøven din , gir du meg ikke et estimat, gjør du? Du bare beregner det og forteller meg, for per definisjon har du alle dataene som utgjør prøven og derfor direkte kan observere statistikken over interesse. Korrelasjonskoeffisienter er ikke forskjellige i denne forstand: hvis jeg spør deg hva korrelasjonen er mellom X og Y i prøven din og jeg klart ikke bryr seg om hva det er utenfor prøven og i den større populasjonen (ekte eller metafysisk) som den er hentet fra, så knuser du bare tallene og forteller meg, ingen sannsynlighetsteori involvert.

Hva om vi bryr oss om sammenhengen mellom disse to variablene utenfor prøven, dvs. i en eller annen ikke-observert populasjon eller i den ikke-observerbare og på en eller annen måte konstant kausal dynamikk i virkeligheten? (Hvis vi tenker på den som den siste da er befolkningen en «superpopulasjon»; se for eksempel https://www.jstor.org/stable/2529429 .) Så selvfølgelig gjør vi signifikansetester og bruker ellers det vi vet, i utvalget, for å estimere hva vi ikke har i befolkningen, inkludert befolkningens standardavvik som begynner å komme til ditt spørsmål.

Men la oss først tenke på det fra det andre ekstreme, der vi samler et utvalg som er så stort at det ganske enkelt blir populasjonen.Tenk deg folketellingsdata hvis forskningsspørsmålet handler om hele landets reelle befolkning, eller kanskje det er en generell vitenskapelig teori, og vi har et uendelig «utvalg»: Så igjen, hvis jeg vil vite hvordan verden fungerer, utnytter jeg min allmakt og bare beregne, snarere enn bare å estimere, min statistikk over interesse. Hva om jeg da har en hjernefart og ikke lenger er allmektig, men fortsatt er nær den, slik at jeg mangler en observasjon, og utvalget mitt er nå en observasjon som mangler å fange hele befolkningen? Nå må jeg lage estimater igjen, med en rekke verdier som det kan ta med varierende sannsynlighet – jeg kan ikke lenger finne ut av det – men det jeg anslår er fortsatt, i virkeligheten, et enkelt tall – et punkt på tallet linje, ikke et område – og jeg har fortsatt tonnevis av data, så jeg kan med 95% tillit si at den virkelige statistikken over interesse ligger et eller annet sted innenfor et veldig lite område. Alt avhenger selvfølgelig av verdien (e) av det siste observasjon var tilfeldigvis, men det er bare en observasjon, så det må være vanvittig utenom det vanlige for å endre min statistikk over interesse mye, noe som selvfølgelig er lite sannsynlig og gjenspeiles i mitt smale konfidensintervall.

Den andre siden av denne mynten forteller den samme historien: Datafjellet jeg har, kan ved ren tilfeldighet føre til at jeg beregner eksempler på statistikk som er veldig forskjellig fra det jeg ville beregnet hvis jeg kunne bare øke dataene med observasjonen (e) jeg mangler, men oddsen for å ha tegnet en slik villedende, partisk prøve utelukkende ved en tilfeldighet er veldig, veldig lav. Det er i utgangspunktet det jeg gjør rede for og kommuniserer når jeg rapporterer om det veldig smale konfidensintervallet mitt for hvor populasjonsstatistikken virkelig ligger.

Nå hvis vi går bakover derfra, selvfølgelig, begynner selvtilliten for å redusere, og dermed begynner intervallet med troverdige populasjonsverdier – uansett hvor intervallet ligger på tallinjen – å utvide. Utvalget mitt er fremdeles deterministisk som alltid, og jeg kan beregne eksemplets middel og sammenhenger, og jeg kan behandle den statistikken som om de er påstander om hva jeg ville beregne hvis jeg hadde fullstendige data om befolkningen, men jo mindre utvalget, jo mer skeptisk må jeg være om disse påstandene, og jo mer troverdighet må jeg gi til muligheten for at det Jeg vil virkelig se at populasjonsdata vil være langt unna det jeg ser i dette eksemplet. Så alt dette er for å svare på spørsmålet ditt omvendt: våre estimater av statistikk utenfor prøven blir mer selvsikker og konvergerer på et enkelt punkt , rep motsette seg viss kunnskap med komplette data, av samme grunn at de blir mindre sikre og spenner bredere jo mindre data vi har.

Det er også viktig å forstå at standardavviket til en statistikk refererer spesifikt til og kvantifiserer sannsynlighetene for å få forskjellig utvalgstatistikk i forskjellige prøver, alt tilfeldig hentet fra samme populasjon, som igjen, selv, bare har en sann verdi for den statistikken av interesse. Det er ikke noe standardavvik for denne statistikken i det hele tatt i befolkningen – den er et konstant antall og varierer ikke. En variabel har derimot et helt standardavvik, både i populasjonen og i et hvilket som helst gitt utvalg, og så er det estimatet det populasjonsstandardavviket du kan lage gitt det kjente standardavviket til den variabelen innenfor et gitt utvalg av en gitt størrelse. Så det er viktig å holde alle referansene rette når du kan ha et standardavvik (eller rettere sagt en standardfeil) rundt et poengestimat av en populasjon variabels standardavvik, basert på standardavviket til variabelen i utvalget ditt. Det er bare ingen enklere måte å snakke om det.

Og til slutt, merk at ja, det er absolutt mulig for et utvalg for å gi deg en partisk fremstilling av avvikene i befolkningen, så selv om det er relativt lite sannsynlig, er det alltid mulig at et mindre utvalg ikke bare vil lyve for deg om populasjonsstatistikken, men også lyve for deg om hvor mye du kan forvente at statistikken over interesse vil variere fra samp le å prøve. Det er ingen vei rundt det. Tenk på det som om noen fremsetter krav og da spør du dem om de lyver. Kanskje de sier ja, i så fall kan du være sikker på at de ikke forteller deg noe som er verdt å tenke på. Men hvis de sier nei, er du ganske tilbake på første plass. Enten lyver de eller ikke, og hvis du ikke har noen andre å spørre, må du bare velge om du vil tro dem eller ikke. (Bayesianere ser ut til å tro at de har en bedre måte å ta den avgjørelsen på, men jeg er ydmyk uenig.)

Legg igjen en kommentar

Din e-postadresse vil ikke bli publisert. Obligatoriske felt er merket med *