Conforme o tamanho da amostra aumenta, por que o desvio padrão dos resultados fica menor? Alguém pode fornecer um exemplo leigo e explicar por que

Conforme o tamanho da amostra aumenta (por exemplo, uma estratégia de negociação com uma margem de 80%), por que o padrão o desvio dos resultados fica menor? Alguém pode explicar por que o desvio padrão fica menor e os resultados se aproximam da média verdadeira … talvez forneça um exemplo matemático simples e intuitivo para leigos.

Comentários

  • Possível duplicata de Que explicação intuitiva existe para o teorema do limite central?
  • ” O desvio padrão dos resultados ” é ambíguo (quais resultados ??) – e portanto, a declaração muito geral no título é estritamente falsa (existem contra-exemplos óbvios; ela ‘ só às vezes é verdadeira). Pode ser melhor especificar um exemplo particular (como a distribuição amostral das médias da amostra, que tem a propriedade de que o desvio padrão diminui à medida que o tamanho da amostra aumenta).
  • O desvio padrão não ‘ t necessariamente diminui conforme o tamanho da amostra aumenta. O erro padrão da média, no entanto, talvez seja ‘ o que você ‘ referenciando, nesse caso temos mais certeza de onde média é quando o tamanho da amostra aumenta.
  • Sim, devo ter me referido ao erro padrão. Por que o erro amostral da média diminui? Você pode fornecer alguma matemática simples e não abstrata para mostrar visualmente o porquê. Por que obtemos ‘ mais certos ‘ onde a média é conforme o tamanho da amostra aumenta (no meu caso, os resultados são, na verdade, uma representação mais próxima de uma taxa de ganho de 80%) como isso ocorre?

Resposta

Conforme o tamanho da amostra aumenta (por exemplo, uma estratégia de negociação com uma margem de 80%), por que o desvio padrão dos resultados fica menor?

O conceito-chave aqui é “resultados”. O que são esses resultados ? Os resultados são as variâncias dos estimadores dos parâmetros populacionais, como a média $ \ mu $.

Por exemplo, se você estiver medindo a variância da amostra $ s ^ 2_j $ dos valores $ x_ {i_j} $ em sua amostra $ j $, não fica menor com tamanho de amostra maior $ n_j $: $$ s ^ 2_j = \ frac 1 {n_j-1} \ sum_ {i_j} (x_ { i_j} – \ bar x_j) ^ 2 $$ onde $ \ bar x_j = \ frac 1 n_j \ sum_ {i_j} x_ {i_j} $ é uma média de amostra.

No entanto, o estimador da variância $ s ^ 2_ \ mu $ de uma média de amostra $ \ bar x_j $ diminuirá com o tamanho da amostra: $$ \ frac 1 n_js ^ 2_j $$

A explicação do leigo é assim. Suponha que o tamanho total da população seja $ n $. Se olharmos para cada valor $ x_ {j = 1 \ dots n} $, nossa média de amostra teria sido igual à média verdadeira: $ \ bar x_j = \ mu $. Em outras palavras, a incerteza seria zero e a variância do estimador também seria zero: $ s ^ 2_j = 0 $

No entanto, quando você está apenas olhando para a amostra de tamanho $ n_j $ . Você calcula o estimador médio da amostra $ \ bar x_j $ com incerteza $ s ^ 2_j > 0 $. Então, em algum lugar entre o tamanho da amostra $ n_j $ e $ n $ a incerteza (variância ) da média da amostra $ \ bar x_j $ diminuiu de diferente de zero para zero. Essa é a explicação mais simples que posso apresentar.

Resposta

Talvez a maneira mais fácil de pensar sobre isso seja com relação à diferença entre uma população e uma amostra. Se eu te perguntar qual é a média de uma variável em sua amostra , você não me dá uma estimativa, não é? Você apenas calcula e me diz, porque, por definição, você tem tudo os dados que compõem a amostra e podem, portanto, observar diretamente a estatística de interesse. Os coeficientes de correlação não são diferentes neste sentido: se eu perguntar qual é a correlação entre X e Y em sua amostra , e I claramente não se preocupa com o que está fora da amostra e na população maior (real ou metafísica) da qual é extraído, então você apenas processa os números e me diga, nenhuma teoria da probabilidade envolvida.

Agora, o que aconteceria se nos importássemos com a correlação entre essas duas variáveis fora da amostra, ou seja, em alguma população não observada ou na dinâmica causal da realidade não observável e em algum sentido constante? (Se estamos concebendo-a como a última então a população é uma “superpopulação”; consulte, por exemplo, https://www.jstor.org/stable/2529429 .) Então, claro, fazemos testes de significância e de outra forma usamos o que sabemos, na amostra, para estimar o que não fazemos, na população, incluindo o desvio padrão da população que começa a chegar a sua pergunta.

Mas primeiro vamos pensar do outro extremo, onde reunimos uma amostra que é tão grande que simplesmente se torna a população.Imagine os dados do censo se a pergunta da pesquisa for sobre toda a população real do país, ou talvez seja “uma teoria científica geral e temos uma” amostra “infinita: então, novamente, se eu quiser saber como o mundo funciona, eu aproveito minha onipotência e apenas calcular, em vez de meramente estimar, minha estatística de interesse. E se eu tiver uma ideia e não for mais onipotente, mas ainda estiver perto disso, de modo que estou perdendo uma observação, e minha amostra está agora a uma observação a menos de capturar toda a população? Agora preciso fazer estimativas novamente, com uma gama de valores que poderia assumir com probabilidades variáveis – não posso mais identificá-la – mas o que estou estimando ainda é, na realidade, um único número – um ponto no número linha, não um intervalo – e eu ainda tenho toneladas de dados, então posso dizer com 95% de confiança que a verdadeira estatística de interesse está em algum lugar dentro de um intervalo muito pequeno. Tudo depende, é claro, de quais são os valores disso Acontece que a última observação é, mas é apenas uma observação, então ela precisaria ser loucamente fora do comum a fim de mudar muito minha estatística de interesse, o que, é claro, é improvável e se reflete em meu estreito intervalo de confiança.

O outro lado desta moeda conta a mesma história: a montanha de dados que tenho poderia, por mera coincidência, estar me levando a calcular estatísticas amostrais que são muito diferentes daquelas que eu calcularia se eu poderia apenas aumentar esses dados com as observações que estou perdendo, mas as chances de ter retiradas uma amostra tão enganosa e tendenciosa puramente por acaso são muito, muito baixas. Isso é basicamente o que estou explicando e comunicando quando relato meu intervalo de confiança muito estreito para onde a estatística da população de interesse realmente se encontra.

Agora, se andarmos para trás a partir daí, é claro, a confiança começa diminuir e, portanto, o intervalo de valores plausíveis da população – não importa onde esse intervalo esteja na reta numérica – começa a aumentar. Minha amostra ainda é determinística como sempre, e posso calcular médias e correlações amostrais e posso tratar essas estatísticas como se fossem afirmações sobre o que eu estaria calculando se tivesse dados completos sobre a população, mas quanto menor a amostra, mais cético preciso ser sobre essas afirmações e mais crédito preciso dar à possibilidade de que Eu realmente veria que os dados populacionais estariam muito longe do que vejo nesta amostra. Então, tudo isso é para responder à sua pergunta ao contrário: nossas estimativas de qualquer estatística fora da amostra ficam mais confiantes e convergem para um único ponto , representante reenviar determinado conhecimento com dados completos, pela mesma razão que eles se tornam menos certos e variam mais amplamente quanto menos dados temos.

Também é importante entender que o desvio padrão de uma estatística refere-se especificamente e quantifica as probabilidades de obter estatísticas de amostra diferentes em amostras diferentes, todas retiradas aleatoriamente da mesma população, que, novamente, tem apenas um valor verdadeiro para essa estatística de interesse. Não há desvio padrão dessa estatística na própria população – é um número constante e não varia. Uma variável, por outro lado, tem um desvio padrão próprio, tanto na população quanto em qualquer amostra, e então há a estimativa de desse desvio padrão populacional que você pode fazer dado o desvio padrão conhecido dessa variável dentro de uma determinada amostra de um determinado tamanho. Portanto, é importante manter todas as referências corretas, quando você pode ter um desvio padrão (ou melhor, um erro padrão) em torno de uma estimativa pontual de uma população desvio padrão da variável, com base no desvio padrão dessa variável em sua amostra. Não há maneira mais simples de falar sobre isso.

E, por último, observe que, sim, certamente é possível para uma amostra para lhe dar uma representação tendenciosa das variâncias na população, então, embora seja relativamente improvável, é sempre possível que uma amostra menor não apenas mentirá para você sobre a estatística da população de interesse, mas também mentirá para você sobre quanto você deve esperar que a estatística de interesse varie de samp le para amostra. Não há maneira de contornar isso. Pense nisso como se alguém fizesse uma reclamação e depois você perguntasse se ela estava mentindo. Talvez eles digam sim e, nesse caso, você pode ter certeza de que não estão dizendo nada que valha a pena considerar. Mas se eles disserem não, você está de volta à estaca zero. Ou estão mentindo ou não, e se você não tem mais ninguém a quem perguntar, basta escolher se vai ou não acreditar neles. (Bayesianos parecem pensar que têm uma maneira melhor de tomar essa decisão, mas eu discordo humildemente.)

Deixe uma resposta

O seu endereço de email não será publicado. Campos obrigatórios marcados com *