Når prøvestørrelsen øges, hvorfor bliver standardafvigelsen for resultater mindre? Kan nogen give et lægeksempel og forklare, hvorfor

Når stikprøvestørrelsen stiger (f.eks. En handelsstrategi med en kant på 80%), hvorfor øges standarden afvigelse af resultater bliver mindre? Kan nogen forklare, hvorfor standardafvigelsen bliver mindre, og resultaterne kommer tættere på det sande gennemsnit … måske give et simpelt, intuitivt matematisk eksempel på lægmænd.

Kommentarer

  • Mulig duplikat af Hvilken intuitiv forklaring er der på den centrale grænsesætning?
  • ” Standardafvigelsen for resultater ” er tvetydig (hvilke resultater ??) – og så den meget generelle erklæring i titlen er strengt usand (der er åbenlyse modeksempler; det er ‘ kun undertiden sandt). Det kan være bedre at specificere et bestemt eksempel (f.eks. Prøveuddelingen af prøveorganer, der har den egenskab, at standardafvigelsen falder, når prøvestørrelsen øges).
  • Standardafvigelsen betyder ikke ‘ t falder nødvendigvis, efterhånden som stikprøvestørrelsen bliver større. Standardfejlen i middelværdien gør dog måske, at ‘ er, hvad du ‘ henviser til, i så fald er vi mere sikre på, hvor middelværdien er, når stikprøvestørrelsen stiger.
  • Ja, jeg må have ment standardfejl i stedet. Hvorfor falder prøvefejlen for gennemsnittet? Kan du venligst give nogle enkle, ikke-abstrakte matematik for visuelt at vise hvorfor. Hvorfor får vi ‘ mere sikre ‘ hvor gennemsnittet er, når prøvestørrelsen stiger (i mit tilfælde er resultaterne faktisk en nærmere repræsentation af en 80% vindprocent) hvordan sker dette?

Svar

Når stikprøvestørrelsen stiger (for eksempel en handelsstrategi med en kant på 80%), hvorfor bliver standardafvigelsen for resultater mindre?

Nøglekonceptet her er “resultater”. Hvad er disse resultater ? resultaterne er afvigelser fra estimatorer for populationsparametre som gennemsnit $ \ mu $.

For eksempel, hvis du måler prøvevariansen $ s ^ 2_j $ af værdier $ x_ {i_j} $ i din prøve $ j $, det bliver ikke mindre med større stikstørrelse $ n_j $: $$ s ^ 2_j = \ frac 1 {n_j-1} \ sum_ {i_j} (x_ { i_j} – \ bar x_j) ^ 2 $$ hvor $ \ bar x_j = \ frac 1 n_j \ sum_ {i_j} x_ {i_j} $ er et eksempelværdi.

Imidlertid er estimatoren for variansen $ s ^ 2_ \ mu $ af en prøve betyder, at $ \ bar x_j $ falder med prøvestørrelsen: $$ \ frac 1 n_js ^ 2_j $$

Lægmandsforklaringen følger sådan. Antag at hele befolkningsstørrelsen er $ n $. Hvis vi kiggede på hver værdi $ x_ {j = 1 \ dots n} $, ville vores prøve gennemsnit have været lig med det sande gennemsnit: $ \ bar x_j = \ mu $. Usikkerheden ville med andre ord være nul, og estimatorens varians ville også være nul: $ s ^ 2_j = 0 $

Når du kun ser på prøven af størrelsen $ n_j $ Du beregner eksemplets middelestimator $ \ bar x_j $ med usikkerhed $ s ^ 2_j > 0 $. Så et sted mellem prøvestørrelse $ n_j $ og $ n $ usikkerheden (varians ) af prøven betyder $ \ bar x_j $ faldet fra ikke-nul til nul. Det er den enkleste forklaring, jeg kan komme med.

Svar

Måske er den nemmeste måde at tænke på det med hensyn til forskellen mellem en population og en prøve. Hvis jeg spørger dig, hvad gennemsnittet af en variabel er i din prøve , giver du mig ikke et skøn, gør du? Du beregner det bare og fortæller mig, fordi du pr. Definition har alle de data, der omfatter prøven og derfor direkte kan observere statistikken over interesse. Korrelationskoefficienter er ikke anderledes i denne forstand: hvis jeg spørger dig, hvad sammenhængen er mellem X og Y i din prøve , og jeg klart ligeglad med, hvad det er uden for stikprøven og i den større population (reel eller metafysisk), hvorfra den er trukket, så knuser du bare tallene og fortæller mig, ingen sandsynlighedsteori er involveret.

Hvad nu, hvis vi bryr os om sammenhængen mellem disse to variabler uden for stikprøven, dvs. enten i en eller anden ikke-observeret population eller i den ikke-observerbare og i en eller anden forstand konstant konstante kausale dynamik i virkeligheden? så er befolkningen en “superpopulation”; se for eksempel https://www.jstor.org/stable/2529429 .) Så naturligvis foretager vi signifikansforsøg og bruger ellers det, vi kender, i stikprøven til at estimere, hvad vi ikke har i befolkningen, inklusive befolkningens standardafvigelse, der begynder at komme til dit spørgsmål.

Men lad os først tænke over det fra den anden ekstremitet, hvor vi samler en prøve, der er så stor, at den simpelthen bliver befolkningen.Forestil dig data om folketælling, hvis forskningsspørgsmålet drejer sig om landets hele virkelige befolkning, eller måske er det en generel videnskabelig teori, og vi har en uendelig “prøve”: Så igen, hvis jeg vil vide, hvordan verden fungerer, udnytter jeg min almægtighed og bare beregne, snarere end blot at estimere, min statistik over interesse. Hvad hvis jeg så har en hjernefart og ikke længere er allmægtig, men stadig er tæt på den, så jeg mangler en observation, og min prøve er nu en observation, der mangler at fange hele befolkningen? Nu er jeg nødt til at lave skøn igen med en række værdier, som det kan tage med forskellige sandsynligheder – jeg kan ikke længere lokalisere det – men det, jeg estimerer, er i virkeligheden stadig et enkelt tal – et punkt på tallet linje, ikke et interval – og jeg har stadig masser af data, så jeg kan med 95% tillid sige, at den sande statistik over interesse ligger et eller andet sted inden for et meget lille interval. Det afhænger naturligvis af, hvilken værdi (er) deraf sidste observation tilfældigvis er, men det er bare en observation, så det skulle være skørt ud over det sædvanlige for at ændre min statistik over interesse meget, hvilket naturligvis er usandsynligt og afspejles i mit snævre tillidsinterval.

Den anden side af denne mønt fortæller den samme historie: bjerget af data, som jeg har, kunne ved rent tilfældigt få mig til at beregne stikprøvestatistikker, der er meget forskellige fra det, jeg ville beregne, hvis jeg kunne bare udvide disse data med den eller de observationer, jeg mangler, men oddsene for at have tegnet sådan en vildledende, partisk prøve rent tilfældigt er virkelig, meget lav. Det er dybest set det, jeg regner med og kommunikerer, når jeg rapporterer om mit meget snævre tillidsinterval for, hvor befolkningsstatistikken for interesse virkelig ligger.

Nu hvis vi går baglæns derfra, begynder selvfølgelig tilliden at falde, og dermed begynder intervallet af sandsynlige befolkningsværdier – uanset hvor dette interval ligger på nummerlinjen – at udvide. Min prøve er stadig deterministisk som altid, og jeg kan beregne stikprøveværdier og sammenhænge, og jeg kan behandle disse statistikker som om de er påstande om, hvad jeg ville beregne, hvis jeg havde komplette data om befolkningen, men jo mindre prøven er, jo mere skeptisk skal jeg være om disse påstande, og jo mere troværdighed skal jeg give til muligheden for, at hvad Jeg ville virkelig se, at befolkningsdata ville være langt væk fra det, jeg ser i denne stikprøve. Så alt dette er for at svare på dit spørgsmål i omvendt retning: vores estimater af statistikker uden for stikprøven bliver mere selvsikker og konvergerer på et enkelt punkt , rep afsky af viden med komplette data af samme grund, at de bliver mindre sikre og strækker sig bredere jo færre data vi har.

Det er også vigtigt at forstå, at standardafvigelsen for en statistik specifikt henviser til og kvantificerer sandsynlighederne for at få forskellige stikprøvestatistikker i forskellige prøver, der alle er tilfældigt trukket fra den samme population, hvilket igen i sig selv kun har en sand værdi for den statistik af interesse. Der er overhovedet ingen standardafvigelse for denne statistik i befolkningen selv – den er et konstant antal og varierer ikke. En variabel har derimod en helt standardafvigelse, både i populationen og i en hvilken som helst given prøve, og så er der estimatet for den populationsstandardafvigelse, du kan lave givet den kendte standardafvigelse for denne variabel inden for en given prøve af en given størrelse. Så det er vigtigt at holde alle referencerne lige, når du kan have en standardafvigelse (eller rettere sagt en standardfejl) omkring et punktestimat af en population variabel “s standardafvigelse, baseret på standardafvigelsen for denne variabel i din prøve. Der er bare ingen enklere måde at tale om det.

Og til sidst bemærk, at ja, det er bestemt muligt for en prøve for at give dig en forudindtaget repræsentation af variationerne i befolkningen, så selvom det er relativt usandsynligt, er det altid muligt, at en mindre prøve ikke bare lyver for dig om befolkningsstatistikken, men også lyver for dig om hvor meget du kan forvente, at denne statistik af interesse varierer fra samp le at prøve. Der er ingen vej uden om det. Tænk på det, som om nogen fremsætter krav, og så spørger du dem, om de lyver. Måske siger de ja, i hvilket tilfælde du kan være sikker på, at de ikke fortæller dig noget, der er værd at overveje. Men hvis de siger nej, er du lidt tilbage på pladsen. Enten lyver de, eller de lyver ikke, og hvis du ikke har nogen anden at spørge, skal du bare vælge, om du vil tro på dem eller ej. (Bayesianere synes at tro, at de har en bedre måde at træffe denne beslutning på, men jeg er ydmygt uenig.)

Skriv et svar

Din e-mailadresse vil ikke blive publiceret. Krævede felter er markeret med *