¿Cuál ' es la diferencia entre un intervalo de confianza y un intervalo creíble?

El intercambio de Joris y Srikant aquí me hizo preguntarme (de nuevo) si mi las explicaciones de la diferencia entre los intervalos de confianza y los intervalos creíbles eran las correctas. ¿Cómo explicarías la diferencia?

Respuesta

I de acuerdo completamente con la explicación de Srikant. Para darle un giro más heurístico:

Los enfoques clásicos generalmente postulan que el mundo es unidireccional (por ejemplo, un parámetro tiene un valor verdadero en particular) y tratan de realizar experimentos cuya conclusión resultante, sin importar el valor verdadero del parámetro – será correcto con al menos una probabilidad mínima.

Como resultado, para expresar incertidumbre en nuestro conocimiento después de un experimento, el enfoque frecuentista utiliza un «intervalo de confianza» – un rango de valores diseñado para incluir el valor verdadero del parámetro con alguna probabilidad mínima, digamos 95%. Un frecuentista diseñará el experimento y el procedimiento del intervalo de confianza del 95% de modo que de cada 100 experimentos ejecutados de principio a fin, se espera que al menos 95 de los intervalos de confianza resultantes incluyan el valor real del parámetro. Las otras 5 pueden estar un poco equivocadas, o pueden ser una completa tontería; formalmente hablando, está bien en lo que respecta al enfoque, siempre que 95 de cada 100 inferencias sean correctas (por supuesto, preferiríamos que fueran un poco incorrecto, no una tontería total.)

Los enfoques bayesianos formulan el problema de manera diferente. En lugar de decir que el parámetro simplemente tiene un valor verdadero (desconocido), un método bayesiano dice que el valor del parámetro es fijo pero ha sido elegido de alguna distribución de probabilidad, conocida como distribución de probabilidad previa. (Otra forma de decir eso es que antes de tomar cualquier medida, el bayesiano asigna una distribución de probabilidad, a la que llaman estado de creencia, sobre cuál es el verdadero valor del parámetro). Este «previo» podría ser conocido (imagínese intentando para estimar el tamaño de un camión, si conocemos la distribución general de tamaños de camiones del DMV) o podría ser una suposición extraída de la nada. La inferencia bayesiana es más simple: recopilamos algunos datos y luego calculamos la probabilidad de diferentes valores del parámetro DADO los datos. Esta nueva distribución de probabilidad se denomina «probabilidad a posteriori» o simplemente «posterior». Los enfoques bayesianos pueden resumir su incertidumbre dando un rango de valores en la distribución de probabilidad posterior que incluye el 95% de la probabilidad; esto se denomina «intervalo de credibilidad del 95%».

Un partidario bayesiano podría criticar la intervalo de confianza frecuentista como este: «Entonces, ¿qué pasa si 95 de 100 experimentos arrojan un intervalo de confianza que incluye el valor real? No me importan 99 experimentos que NO HICE; me importa este experimento que HICE. Su regla permite que 5 de los 100 sean una completa tontería [valores negativos, valores imposibles] siempre que los otros 95 sean correctos; eso es «ridículo».

Un frecuentista acérrimo podría criticar el intervalo de credibilidad bayesiano así: «Entonces, ¿qué pasa si el 95% de la probabilidad posterior se incluye en este rango? ¿Qué pasa si el valor verdadero es, digamos, 0.37? Si es así, entonces su método, ejecutar de principio a fin, será INCORRECTO el 75% del tiempo. Su respuesta es, «Bueno, está bien porque según lo anterior es muy raro que el valor sea 0.37», y puede ser así, pero quiero un método que funcione para CUALQUIER valor posible del parámetro. No me importan los 99 valores del parámetro que NO TIENE; Me preocupo por el valor verdadero que TIENE. Ah, también, por cierto, tus respuestas solo son correctas si lo anterior es correcto. Si simplemente lo saca de la nada porque se siente bien, puede estar muy lejos «.

En cierto sentido, estos dos partidarios tienen razón en sus críticas de los métodos de los demás, pero le recomendaría Piense matemáticamente sobre la distinción, como explica Srikant.


Aquí hay un ejemplo extendido de esa charla que muestra la diferencia precisamente en un ejemplo discreto.

Cuando Yo era un niño que mi madre solía sorprenderme de vez en cuando al pedir un tarro de galletas con chispas de chocolate para que me enviaran por correo. La empresa de mensajería tenía cuatro tipos diferentes de tarros de galletas: tipo A, tipo B, tipo C y tipo D , y estaban todos en el mismo camión y nunca estaba seguro del tipo que obtendría. Cada frasco tenía exactamente 100 galletas, pero la característica que distinguía los diferentes frascos de galletas era su distribución respectiva de chispas de chocolate por galleta. Si buscaba en un frasco y sacó una sola galleta uniformemente al azar, estas son las distribuciones de probabilidad que obtendría t en el número de chips:

texto alternativo

Un tarro de galletas tipo A, por ejemplo, tiene 70 cookies con dos chips cada uno, y no galletas con cuatro chips o más.Un tarro de galletas tipo D tiene 70 galletas con un chip cada una. Observe cómo cada columna vertical es una función de masa de probabilidad: la probabilidad condicional del número de fichas que obtendría, dado que el tarro = A, o B, o C, o D, y cada columna suma 100.

Me encantaba jugar un juego tan pronto como el repartidor dejaba mi nuevo tarro de galletas. Sacaba una sola galleta al azar del frasco, contaba las fichas de la galleta y trataba de expresar mi incertidumbre – al nivel del 70% – de qué frascos podría ser. Por lo tanto, es la identidad del recipiente (A, B, C o D) que es el valor del parámetro estimado. La cantidad de chips (0, 1, 2, 3 o 4) es el resultado o la observación o la muestra .

Originalmente jugaba a este juego usando un intervalo de confianza frecuentista del 70%. Dicho intervalo debe garantizar que no importa el valor verdadero del parámetro, lo que significa que no importa qué tarro de galletas obtuve, el intervalo cubriría ese valor verdadero con al menos un 70% de probabilidad.

Un intervalo, por supuesto, es una función que relaciona un resultado (una fila) con un conjunto de valores del parámetro (un conjunto de columnas). Pero para construir el intervalo de confianza y garantizar una cobertura del 70%, debemos trabajar «verticalmente «- mirando cada columna por turno, y asegurándose de que el 70% de la función de masa de probabilidad esté cubierto de modo que el 70% del tiempo, La identidad de esa columna será parte del intervalo que resulte. Recuerde que son las columnas verticales las que forman un pmf

Entonces, después de hacer ese procedimiento, terminé con estos intervalos:

ingrese la descripción de la imagen aquí

Por ejemplo, si el número de fichas de la galleta que extrajo es 1, mi intervalo de confianza será {B, C, D}. Si el número es 4, mi intervalo de confianza será {B, C}. Observe que, dado que cada columna suma un 70% o más, no importa en qué columna estemos realmente (sin importar en qué frasco haya dejado el repartidor), el intervalo resultante de este procedimiento incluirá el jar con al menos un 70% de probabilidad.

Observe también que el procedimiento que seguí al construir los intervalos tenía cierta discreción. En la columna para el tipo B, podría haberme asegurado con la misma facilidad de que los intervalos que incluido B sería 0,1,2,3 en lugar de 1,2,3,4. Eso habría resultado en una cobertura del 75% para los frascos de tipo B (12 + 19 + 24 + 20), aún cumpliendo el límite inferior de 70%.

Mi hermana Bayesia pensó que esta aplicación Sin embargo, la cucaracha estaba loca. «Hay que considerar al repartidor como parte del sistema», dijo. «Tratemos la identidad del tarro como una variable aleatoria en sí misma, y» supongamos «que el repartidor elige entre ellos de manera uniforme, lo que significa que tiene los cuatro en su camión y cuando recibe a nuestra casa, elige uno al azar, cada uno con probabilidad uniforme «.

» Con esa suposición, ahora veamos las probabilidades conjuntas de todo el evento: el tipo jar y la cantidad de chips que extraes de tu primera galleta», dijo, dibujando la siguiente tabla:

ingrese la descripción de la imagen aquí

Observe que la tabla completa ahora es una función de masa de probabilidad, lo que significa que toda la tabla suma al 100%.

» Ok «, dije,» ¿a dónde vas con esto? «

» Has estado mirando la probabilidad condicional del número de fichas, dado el tarro «, dijo Bayesia. «¡Eso está mal! Lo que realmente te importa es la probabilidad condicional de qué frasco es, ¡dada la cantidad de chips en la galleta! Su intervalo del 70% debe incluir simplemente los frascos de la lista que, en total, tienen un 70% de probabilidad de ser el frasco verdadero. ¿No es mucho más simple e intuitivo? «

» Seguro, pero ¿cómo lo calculamos? » Pregunté.

«Digamos que sabemos que tienes 3 fichas. Luego, podemos ignorar todas las demás filas de la tabla y simplemente tratar esa fila como una función de masa de probabilidad. Sin embargo, «tendremos que aumentar las probabilidades proporcionalmente para que cada fila sume 100». Ella lo hizo:

ingrese la descripción de la imagen aquí

«Observe cómo cada fila ahora es un pmf y sumas al 100%. Nosotros «cambié la probabilidad condicional de lo que comenzaste; ahora es la probabilidad de que el hombre haya dejado un frasco determinado, dada la cantidad de chips en la primera galleta».

«Interesante, » Yo dije. «¿Así que ahora solo circulamos suficientes frascos en cada fila para obtener hasta un 70% de probabilidad?» Hicimos precisamente eso, haciendo estos intervalos de credibilidad:

ingrese la descripción de la imagen aquí

Cada intervalo incluye un conjunto de frascos que, a posteriori , suma un 70% de probabilidad de ser el verdadero frasco.

«Bueno, espera», dije. «No estoy convencido.Pongamos los dos tipos de intervalos uno al lado del otro y comparemos la cobertura y, suponiendo que el repartidor elija cada tipo de frasco con la misma probabilidad, credibilidad «.

Aquí están:

Intervalos de confianza:

ingrese la descripción de la imagen aquí

Intervalos de credibilidad:

ingrese la descripción de la imagen aquí

«¿Ves lo locos que son tus intervalos de confianza?» dijo Bayesia. «¡Ni siquiera tienes una respuesta sensata cuando dibujas una galleta sin chips!» Simplemente dices que es el intervalo vacío. Pero eso es obviamente incorrecto: tiene que ser uno de los cuatro tipos de frascos. ¿Cómo puedes vivir contigo mismo, indicando un intervalo al final del día en el que sabes que el intervalo es incorrecto? Y lo mismo cuando extraes una galleta con 3 fichas, tu intervalo solo es correcto el 41% de las veces. Llamar a esto un intervalo de confianza del «70%» es una tontería «.

» Bueno, oye «, respondí.» Es correcto el 70% de las veces, sin importar qué frasco haya dejado el repartidor. Eso «Mucho más de lo que puede decir sobre sus intervalos de credibilidad. ¿Y si el frasco es de tipo B? ¡Entonces su intervalo será incorrecto el 80% de las veces y solo se corregirá el 20% de las veces! «

» Esto parece un gran problema «, continué,» porque sus errores estarán correlacionados con el tipo de tarro. Si envía 100 robots «bayesianos» para evaluar qué tipo de frasco tiene, cada robot muestrea una cookie, me está diciendo que en los días de tipo B, esperará que 80 de los robots obtengan la respuesta incorrecta, cada uno tener> 73% de fe en su conclusión incorrecta. Eso es problemático, especialmente si quieres que la mayoría de los robots estén de acuerdo en la respuesta correcta. «

» ADEMÁS, tuvimos que suponer que el repartidor se comporta uniformemente y selecciona cada tipo de frasco al azar «, dije.» ¿De dónde vino eso? ¿Y si está mal? No ha hablado con él; no lo ha entrevistado. Sin embargo, todas sus afirmaciones de probabilidad a posteriori se basan en esta afirmación sobre su comportamiento. No tuve que hacer tales suposiciones, y mi intervalo cumple con su criterio incluso en el en el peor de los casos «.

» Es cierto que mi intervalo de credibilidad funciona mal en los frascos de tipo B «, dijo Bayesia. «¿Pero y qué? Los frascos de tipo B ocurren sólo el 25% de las veces. Se compensa con mi buena cobertura de los frascos de tipo A, C y D». Y nunca publico tonterías «.

» Es cierto que mi intervalo de confianza funciona mal cuando «dibujé una galleta con cero fichas», dije. «¿Pero y qué? Las cookies sin chip ocurren, como máximo, el 27% de las veces en el peor de los casos (un frasco tipo D). Puedo permitirme el lujo de decir tonterías sobre este resultado porque NINGÚN tarro dará como resultado una respuesta incorrecta más del 30% de las veces «.

» Las sumas de las columnas importan «, dije.

«Las sumas de las filas importan», dijo Bayesia.

«Puedo ver que estamos en un punto muerto», dije. «Ambos tenemos razón en las afirmaciones matemáticas que estamos haciendo, pero no estamos de acuerdo sobre la forma adecuada de cuantificar la incertidumbre».

«Eso es cierto», dijo mi hermana. «¿Quieres una galleta? «

Comentarios

  • Buena respuesta: solo un punto menor, dices » …. En lugar de decir que el parámetro tiene un valor verdadero, un método bayesiano dice que el valor se elige de alguna distribución de probabilidad ….. » Esto no es cierto. Un bayesiano se ajusta a la distribución de probabilidad para expresar la incertidumbre sobre el valor fijo, desconocido y verdadero. Esto dice qué valores son plausibles, dado lo que se sabía antes de observar los datos. El enunciado de probabilidad real es $ Pr [\ theta_0 \ in (\ theta, \ theta + d \ theta) | I] $, donde $ \ theta_0 $ es el valor verdadero, y $ \ theta $ el hipotético, basado en información $ I $.
  • … cont ‘ d … pero es mucho más conveniente escribir $ p (\ theta) $, con la comprensión de wha t significa » en el fondo «. Claramente, esto puede causar mucha confusión.
  • Lamento revivir esta publicación súper antigua, pero una pregunta rápida, en su publicación en la sección donde el frecuentista critica el enfoque bayesiano, dice: » ¿Qué pasa si el valor verdadero es, digamos, 0,37? Si es así, entonces su método, ejecutar de principio a fin, será INCORRECTO el 75% de las veces. » ¿Cómo obtuvo esos números? ¿Cómo corresponde 0.37 a 75% incorrecto? ¿Está esto fuera de algún tipo de curva de probabilidad? Gracias
  • @ BYS2, cuando el autor dice que "What if the true value is, say, 0.37? If it is, then your method, run start to finish, will be WRONG 75% of the time", solo están dando ejemplos de números que inventaron. En este caso particular, se estarían refiriendo a alguna distribución anterior que tenía un valor muy bajo en 0.37, con la mayor parte de su densidad de probabilidad en otra parte. Y asumimos que nuestra distribución de ejemplo funcionaría muy mal cuando el verdadero valor del parámetro sea 0.37, de manera similar a cómo los intervalos de credibilidad de Bayesia ‘ fallaron estrepitosamente cuando el frasco resultó ser de tipo B.
  • El autor dice "you will expect 80 of the robots to get the wrong answer, each having >73% belief in its incorrect conclusion!", pero esto debería haber sido >72% creencia, ya que 72% es la credibilidad mínima en la tabla de intervalos de credibilidad.

Respuesta

Mi entendimiento es el siguiente:

Antecedentes

Suponga que tiene algunos datos $ x $ y está tratando de estimar $ \ theta $. Tiene un proceso de generación de datos que describe cómo $ x $ se genera condicional a $ \ theta $. En otras palabras, conoce la distribución de $ x $ (digamos, $ f (x | \ theta) $.

Problema de inferencia

Su problema de inferencia es: ¿Qué valores de $ \ theta $ son razonables dados los datos observados $ x $?

Intervalos de confianza

Los intervalos de confianza son una respuesta clásica al problema anterior. En este enfoque, asume que hay verdadero , valor fijo de $ \ theta $. Dada esta suposición, utiliza los datos $ x $ para obtener una estimación de $ \ theta $ (digamos, $ \ hat {\ theta} $). Una vez que haya su estimación desea evaluar dónde está el valor real en relación con su estimación.

Tenga en cuenta que bajo este enfoque el valor real es no una variable aleatoria. Es una variable fija pero cantidad desconocida. Por el contrario, su estimación es una variable aleatoria, ya que depende de sus datos $ x $ que se generaron a partir de su proceso de generación de datos. Por lo tanto, se da cuenta de que obtiene diferentes estimaciones cada vez que repita su estudio.

La comprensión anterior conduce a la siguiente metodología para evaluar dónde está el verdadero parámetro en relación con su estimación. Defina un intervalo, $ I \ equiv [lb (x), ub (x)] $ con la siguiente propiedad:

$ P (\ theta \ in I) = 0.95 $

Un intervalo construido como el anterior es lo que se llama intervalo de confianza. Dado que el valor verdadero es desconocido pero fijo, el valor verdadero está dentro o fuera del intervalo. Entonces, el intervalo de confianza es una declaración sobre la probabilidad de que el intervalo que obtenemos tenga realmente el valor verdadero del parámetro. Por lo tanto, la declaración de probabilidad trata sobre el intervalo (es decir, las posibilidades de que el intervalo tenga el valor verdadero o no) en lugar de sobre la ubicación del valor verdadero del parámetro.

En este paradigma, no tiene sentido hablar sobre la probabilidad de que un valor verdadero sea menor o mayor que algún valor, ya que el valor verdadero no es una variable aleatoria.

Intervalos creíbles

En contraste con el enfoque clásico, en el enfoque bayesiano asumimos que el valor verdadero es una variable aleatoria. Por lo tanto, capturamos nuestra incertidumbre sobre el valor verdadero del parámetro imponiendo una distribución previa al vector del parámetro verdadero (digamos $ f (\ theta) $).

Usando el teorema de bayes, construimos la distribución posterior para el vector de parámetros combinando el anterior y los datos que tenemos (brevemente el posterior es $ f (\ theta | -) \ propto f (\ theta) f (x | \ theta) $).

Luego llegamos a una estimación puntual usando la distribución posterior (por ejemplo, use la media de la distribución posterior). Sin embargo, dado que bajo este paradigma, el verdadero vector de parámetros es una variable aleatoria, también queremos saber el grado de incertidumbre que tenemos en nuestra estimación puntual. Por lo tanto, construimos un intervalo tal que se cumpla lo siguiente:

$ P (l (\ theta) \ le {\ theta} \ le ub (\ theta)) = 0.95 $

Lo anterior es un intervalo creíble.

Resumen

Los intervalos creíbles capturan nuestra incertidumbre actual en la ubicación del valores de parámetro y, por lo tanto, puede interpretarse como una declaración probabilística sobre el parámetro.

Por el contrario, los intervalos de confianza capturan la incertidumbre sobre el intervalo que hemos obtenido (es decir, si contiene el valor verdadero o no). Por lo tanto, no pueden interpretarse como una declaración probabilística sobre los valores verdaderos de los parámetros.

Comentarios

  • Un intervalo de confianza del 95% por definición cubre el parámetro verdadero valor en el 95% de los casos, como ha indicado correctamente. Por lo tanto, la probabilidad de que su intervalo cubra el valor real del parámetro es del 95%. A veces, puede decir algo sobre la posibilidad de que el parámetro sea mayor o menor que cualquiera de los límites, en función de las suposiciones que hace al construir el intervalo (muy a menudo la distribución normal de su estimación). Puede calcular P (theta > ub) o P (ub < theta). La declaración es sobre el límite, de hecho, pero puedes hacerlo.
  • Joris, no puedo ‘ estar de acuerdo. Sí, para cualquier valor del parámetro, habrá > 95% de probabilidad de que el intervalo resultante cubra el valor real.Eso no ‘ t significa que después de tomar una observación particular y calcular el intervalo, todavía hay una probabilidad condicional del 95% dados los datos de que ESE intervalo cubre el valor verdadero. Como dije a continuación, formalmente sería perfectamente aceptable que un intervalo de confianza arrojara [0, 1] el 95% del tiempo y el conjunto vacío el otro 5%. Las ocasiones en las que obtuviste el conjunto vacío como intervalo, hay ‘ t 95% de probabilidad de que el valor verdadero esté dentro.
  • Joris, estaba usando » data » como sinónimo de » muestra, » así que creo que estamos de acuerdo. Mi punto es que ‘ s posible estar en situaciones, después de tomar la muestra, en las que puede probar con absoluta certeza que su intervalo es incorrecto, que no cubre el verdadero valor. Esto no significa que no sea un intervalo de confianza del 95% válido. Por lo tanto, puede ‘ t decir que el parámetro de confianza (el 95%) le dice algo sobre la probabilidad de cobertura de un intervalo en particular después de que ‘ he hecho el experimento y obtuve el intervalo. Solo una probabilidad a posteriori, informada por un previo, puede hablar de eso.
  • En uno de los artículos de Jaynes bayes.wustl.edu/etj/articles/ trust.pdf Construye un intervalo de confianza y luego muestra que para la muestra en particular puede estar 100% seguro de que el valor real no se encuentra en el » intervalo de confianza «. Eso no ‘ t significa que el CI es » incorrecto «, es solo que un intervalo de confianza frecuentista no es una respuesta a la pregunta » ¿cuál es el intervalo que contiene el valor real de la estadística con una probabilidad del 95% «. Lamentablemente, esa es la pregunta que nos gustaría hacer, razón por la cual el IC a menudo se interpreta como si fuera una respuesta a esa pregunta. 🙁
  • @svadalli: el enfoque bayesiano no considera que $ \ theta $ sea aleatorio . No es $ \ theta $ lo que se distribuye ($ \ theta $ es fijo pero desconocido), es la incertidumbre sobre $ \ theta $ la que se distribuye, condicionada a un estado de conocimiento sobre $ \ theta $. El enunciado de probabilidad real que $ f (\ theta) $ está capturando es $ Pr (\ theta \ text {está en el intervalo} (\ theta, \ theta + d \ theta) | I) = f (\ theta) d \ theta $. En De hecho, el mismo argumento se aplica exactamente a $ X $, también puede considerarse fijo, pero desconocido.

Respuesta

No estoy de acuerdo con la respuesta de Srikant en un punto fundamental. Srikant declaró esto:

«Problema de inferencia: Su problema de inferencia es: ¿Qué valores de θ son razonables dados los datos observados x?»

De hecho, este es el PROBLEMA DE INFERENCIA BAYESIANA. En la estadística bayesiana buscamos calcular P (θ | x) es decir, la probabilidad del valor del parámetro dados los datos observados (muestra). El INTERVALO CREDIBLE es un intervalo de θ que tiene un 95% de probabilidad (u otra) de contener el valor verdadero de θ dadas las diversas suposiciones subyacentes al problema.

El PROBLEMA DE INFERENCIA FRECUENTE es este:

¿Son razonables los datos observados x dados los valores hipotéticos de θ?

En las estadísticas frecuentistas buscamos calcular P (x | θ), es decir, la probabilidad de observar los datos (muestra) dados los valores de los parámetros hipotéticos. El INTERVALO DE CONFIANZA (quizás un nombre inapropiado) se interpreta como: si el experimento que generó la muestra aleatoria x se repitiera muchas veces, el 95% (u otro) de tales intervalos construidos a partir de esas muestras aleatorias contendrían el valor verdadero del parámetro.

¿Te metiste en la cabeza? Ese es el problema con las estadísticas frecuentistas y lo principal que tiene la estadística bayesiana.

Como señala Sikrant, P (θ | x) y P (x | θ) están relacionados de la siguiente manera:

P (θ | x) = P (θ) P (x | θ)

Donde P (θ) es nuestra probabilidad previa; P (x | θ) es la probabilidad de los datos condicionados a ese previo y P (θ | x) es la probabilidad posterior. El previo P (θ) es inherentemente subjetivo, pero ese es el precio del conocimiento sobre el Universo, en un sentido muy profundo.

Las otras partes de las respuestas de Sikrant y Keith son excelentes.

Comentarios

  • Técnicamente, está en lo correcto, pero tenga en cuenta que el intervalo de confianza da el conjunto de valores de parámetros para los cuales la hipótesis nula es verdadera. Por lo tanto, » ¿son los datos observados x razonables dada nuestra hipótesis sobre theta? » se puede reformular como » ¿Qué valores verdaderos de theta serían una hipótesis compatible dada la observación ed data x? » Tenga en cuenta que la pregunta reformulada no implica necesariamente que se asuma que theta es una variable aleatoria.La pregunta reformulada explota el hecho de que realizamos pruebas de hipótesis nula al inspeccionar si el valor hipotetizado cae en el intervalo de confianza.
  • @svadali – los intervalos de confianza evalúan datos para un hipótesis. Por lo tanto, al cambiar la » fija » parte de la ecuación, si no tiene en cuenta la probabilidad de la hipótesis antes de observar su datos, entonces seguramente encontrará inconsistencias y resultados incoherentes. La probabilidad condicional no está » restringida » al cambiar las condiciones (por ejemplo, al cambiar las condiciones, puede cambiar una probabilidad condicional de 0 a 1) . La probabilidad previa tiene en cuenta esta arbitrariedad. El condicionamiento en X se realiza porque estamos seguros de que X ha ocurrido; ¡observamos X!

Respuesta

El Las respuestas proporcionadas anteriormente son muy útiles y detalladas. Aquí está mi $ 0.25.

El intervalo de confianza (IC) es un concepto basado en la definición clásica de probabilidad (también llamada «definición frecuente») de que la probabilidad es como proporción y se basa en el sistema axiomático de Kolmogrov (y otros).

Se puede considerar que los intervalos creíbles (densidad posterior más alta, HPD) tienen sus raíces en la teoría de la decisión, basada en los trabajos de Wald y de Finetti (y ampliados mucho por otros).

Como las personas en este hilo han hecho un gran trabajo al dar ejemplos y la diferencia de hipótesis en el caso bayesiano y frecuentista, solo enfatizaré algunos puntos importantes.

  1. Los IC se basan en el hecho de que DEBE hacerse inferencia en todas las posibles repeticiones de un experimento que se pueda ver y NO solo en los datos observados, ya que los HPD se basan TOTALMENTE en los datos observados (y obviamente en nuestras suposiciones anteriores).

  2. En general, los IC NO son coherentes (se explicará más adelante) mientras que los HPD son coherentes (debido a sus raíces en la teoría de la decisión). Coherencia (como le explicaría a mi abuela) significa: dado un problema de apuestas en un valor de parámetro, si un estadístico clásico (frecuentista) apuesta por CI y un bayesiano apuesta por HPD, el frecuentista ESTÁ OBLIGADO a perder (excluyendo el caso trivial) cuando HPD = CI). En resumen, si desea resumir los hallazgos de su experimento como una probabilidad basada en los datos, la probabilidad TIENE que ser una probabilidad posterior (basada en una probabilidad previa). Hay un teorema (cf Heath y Sudderth, Annals of Statistics, 1978) que (aproximadamente) establece: La asignación de probabilidad a $ \ theta $ basada en datos no hará un perdedor seguro si y solo si se obtiene de una manera bayesiana.

  3. Como los IC no condicionan los datos observados (también llamado CP del «principio de condicionalidad»), pueden ser ejemplos paradójicos. Fisher fue un gran partidario de CP y también encontró muchos ejemplos paradójicos cuando esto NO se siguió (como en el caso de CI). Esta es la razón por la que usó valores p para la inferencia, en lugar de CI. En su opinión, los valores p se basaron en los datos observados (se puede decir mucho sobre los valores p, pero ese no es el enfoque aquí). Dos de los ejemplos paradójicos más famosos son: (4 y 5)

  4. Ejemplo de Cox (Annals of Math. Stat., 1958): $ X_i \ sim \ mathcal {N} (\ mu, \ sigma ^ 2) $ (iid) para $ i \ in \ {1, \ dots, n \} $ y queremos esti compañero $ \ mu $ . $ n $ NO es fijo y se elige lanzando una moneda. Si el resultado del lanzamiento de una moneda es H, se elige 2; de lo contrario, se elige 1000. La estimación de «sentido común»: la media de la muestra es una estimación no sesgada con una varianza de $ 0.5 \ sigma ^ 2 + 0.0005 \ sigma ^ 2 $ . ¿Qué usamos como varianza de la media de la muestra cuando $ n = 1000 $ ? ¿No es mejor (o sensato) utilizar la varianza del estimador de la media de la muestra como $ 0.001 \ sigma ^ 2 $ (varianza condicional) en lugar de la varianza real del estimador? , que es ENORME !! ( $ 0.5 \ sigma ^ 2 + 0.0005 \ sigma ^ 2 $ ). Esta es una ilustración simple de CP cuando usamos la varianza como $ 0.001 \ sigma ^ 2 $ cuando $ n = 1000 $ . $ n $ independiente no tiene importancia o no tiene información para $ \ mu $ y $ \ sigma $ (es decir, $ n $ es un accesorio para ellos) pero DADO su valor, sabes mucho sobre la «calidad de los datos». Esto se relaciona directamente con CI, ya que implican la varianza que no debería estar condicionada a $ n $ , es decir, terminaremos usando la varianza más grande, por lo tanto más conservadora.

  5. Ejemplo de Welch: este ejemplo funciona para cualquier $ n $ , pero tomaremos $ n = 2 $ para simplificar. $ X_1, X_2 \ sim \ mathcal {U} (\ theta – 1/2, \ theta + 1/2) $ (iid), $ \ theta $ pertenece a la línea Real. Esto implica $ X_1 – \ theta \ sim \ mathcal {U} (- 1/2, 1/2) $ (iid). $ \ frac {1} {2} ( X_1 + X_2) {\ bar x} – \ theta $ (tenga en cuenta que esto NO es una estadística) tiene una distribución independiente de $ \ theta $ . Podemos elegir $ c > 0 $ st $ \ text {Prob} _ \ theta (-c < = {\ bar x} – \ theta < = c) = 1- \ alpha (\ approx 99 \%) $ , lo que implica que $ ({\ bar x} – c, {\ bar x} + c) $ es el IC del 99% de $ \ theta $ . La interpretación de este CI es: si tomamos muestras repetidamente, obtendremos diferentes $ {\ bar x} $ y 99% (al menos) veces que contendrá verdadero $ \ theta $ , PERO (el elefante en la habitación) para un dato DADO, NO «sabemos la probabilidad de que CI contenga $ \ theta $ . Ahora, considere los siguientes datos: $ X_1 = 0 $ y $ X_2 = 1 $ , como $ | X_1 – X_2 | = 1 $ , sabemos CON SEGURIDAD que el intervalo $ (X_1, X_2) $ contiene $ \ theta $ (una posible crítica, $ \ text { Prob} (| X_1 – X_2 | = 1) = 0 $ , pero podemos manejarlo matemáticamente y no lo discutiré). Este ejemplo también ilustra maravillosamente el concepto de coherencia. Si eres un estadístico clásico, definitivamente apostará al IC del 99% sin mirar el valor de $ | X_1 – X_2 | $ (asumiendo que eres fiel a tu profesión). Sin embargo, un bayesiano apostará por el IC solo si el valor de $ | X_1 – X_2 | $ está cerca de 1. Si condicionamos en $ | X_1 – X_2 | $ , el intervalo es coherente y el jugador ya no será un perdedor seguro (similar al teorema de Heath y Sudderth).

  6. Fisher tenía una recomendación para tales problemas: use CP. Para el ejemplo de Welch, Fisher sugirió la condición de $ X_2-X_1 $ . Como vemos, $ X_2-X_1 $ es auxiliar para $ \ theta $ , pero proporciona información sobre theta. Si $ X_2-X_1 $ es PEQUEÑO, no hay mucha información sobre $ \ theta $ en los datos. Si $ X_2-X_1 $ es GRANDE, hay mucha información sobre $ \ theta $ en el datos. Fisher extendió la estrategia de condicionamiento en la estadística auxiliar a una teoría general llamada inferencia fiducial (también llamada su mayor fracaso, cf Zabell, Stat. Sci. 1992), pero no se hizo popular debido a falta de generalidad y flexibilidad. Fisher estaba tratando de encontrar una manera diferente tanto de la estadística clásica (de la escuela Neyman) como de la escuela bayesiana (de ahí el famoso adagio de Savage: «Fisher quería hacer una tortilla bayesiana (es decir, usando CP) sin rompiendo los huevos bayesianos «). El folclore (sin pruebas) dice: Fisher en sus debates atacó a Neyman (por error de Tipo I y Tipo II y CI) llamándolo chico de control de calidad en lugar de Científico , ya que los métodos de Neyman no condicionaron los datos observados, en su lugar analizaron todas las posibles repeticiones.

  7. Los estadísticos también quieren utilizar el principio de suficiencia ( SP) además del CP. Pero SP y CP juntos implican el principio de probabilidad (LP) (cf Birnbaum, JASA, 1962), es decir, dado CP y SP , uno debe ignorar el espacio muestral y mirar solo la función de probabilidad. Por lo tanto, solo necesitamos mirar los datos dados y NO el espacio muestral completo (mirar el espacio muestral completo es similar al muestreo repetido). Esto ha llevado a conceptos como Observed Fisher Information (cf. Efron y Hinkley, AS, 1978) que miden la información sobre los datos desde una perspectiva frecuentista. La cantidad de información en los datos es un concepto bayesiano (y por lo tanto relacionado con HPD), en lugar de CI.

  8. Kiefer hizo un trabajo fundamental sobre CI a fines de la década de 1970, pero sus extensiones no se han vuelto populares. Una buena fuente de referencia es Berger («¿Podrían estar de acuerdo Fisher, Neyman y Jeffreys sobre la prueba de hipótesis?», Stat Sci, 2003).


Resumen:

(como lo señalaron Srikant y otros)
Los IC no pueden interpretarse como probabilidad y no «No digo nada sobre el parámetro desconocido DADO los datos observados. Los IC son declaraciones sobre experimentos repetidos.

Los HPD son intervalos probabilísticos basados en la distribución posterior del parámetro desconocido y tienen una interpretación basada en la probabilidad basada en los datos dados.

La propiedad Frequentist (muestreo repetido) es una propiedad deseable y los HPD (con los antecedentes apropiados) y los CI ambos los tienen. Los HPD también condicionan los datos proporcionados al responder las preguntas sobre el parámetro desconocido

(Objetivo NO subjetivo) Los bayesianos están de acuerdo con los estadísticos clásicos en que hay un único valor VERDADERO del parámetro. Sin embargo, ambos difieren en la forma en que hacen inferencias sobre este parámetro verdadero.

Los HPD bayesianos nos brindan una buena forma de condicionar los datos, pero si no están de acuerdo con el frecuentista propiedades de CI no son muy útiles (analogía: una persona que usa HPD (con algunos previos) sin una buena propiedad frecuentista, está destinada a estar condenada como un carpintero que solo se preocupa por el martillo y olvida el destornillador)

Por fin, he visto personas en este hilo (comentarios del Dr. Joris: «… las suposiciones involucradas implican un previo difuso, es decir, una falta total de conocimiento sobre el verdadero parámetro») hablando de la falta de conocimiento sobre el verdadero parámetro es equivalente a usar un previo difuso. NO SÉ si puedo estar de acuerdo con la afirmación (el Dr. Keith está de acuerdo conmigo). Por ejemplo, en el caso de los modelos lineales básicos, algunas distribuciones se pueden obtener utilizando un previo uniforme (que algunas personas llamaron difuso), PERO NO «T significa que la distribución uniforme puede considerarse como un PREVIO DE BAJA INFORMACIÓN. En general, la prioridad NO INFORMATIVA (objetiva) no significa que tenga poca información sobre el parámetro.

Nota: Muchos de estos puntos se basan sobre las conferencias de uno de los prominentes bayesianos. Todavía soy un estudiante y podría haberlo entendido mal de alguna manera. Por favor, acepte mis disculpas por adelantado.

Comentarios

  • » el frecuentista ESTÁ OBLIGADO a perder » Mirando la respuesta más votada, yo ‘ d asumir que esto depende de la función de utilidad (por ejemplo, no si la optimización del arrepentimiento está sucediendo). Intuitivamente, también podría depender de la capacidad de determinar la función anterior …
  • » el frecuentista ESTÁ OBLIGADO a perder » … * condicionado a tener el previo apropiado * (que, en general, no es tan fácil) . Ejemplo perfecto: los adictos al juego están 99% seguros de que su suerte cambiará esta vez. Aquellos que incorporan esta previa en a su análisis de decisiones tienden a no hacerlo tan bien a largo plazo.
  • No ‘ no creo que deba abreviar los intervalos de confianza como IC en una respuesta sobre la distinción entre intervalos creíbles e intervalos de confianza.

Respuesta

Siempre es divertido participar en un poco de filosofía. Me gusta bastante la respuesta de Keith, sin embargo, diría que está tomando la posición de «Sr. olvidadizo Bayesia». La mala cobertura cuando el tipo B y el tipo C solo puede ocurrir si aplica la misma distribución de probabilidad en cada prueba, y se niega a actualizar su anterior.

Puede ver esto con bastante claridad, ya que los frascos tipo A y tipo D hacen «predicciones definitivas», por así decirlo (para 0-1 y 2- 3 chips respectivamente), mientras que los frascos tipo B y C dan básicamente una distribución uniforme de chips. Por lo tanto, en las repeticiones del experimento con algún «frasco verdadero» fijo (o si tomamos una muestra de otra galleta), una distribución uniforme de chips proporcionará evidencia para tarros tipo B o C.

Y desde el punto de vista «práctico», los tipos B y C requerirían una muestra enorme para poder distinguir entre ellos. Las divergencias KL entre las dos distribuciones son $ KL ( B || C) \ approx 0.006 \ approx KL (C || B) $. Esta es una divergencia equivalente a dos distribuciones normales, ambas con varianza $ 1 $ y una diferencia en media de $ \ sqrt {2 \ times 0.006} = 0.11 $. Por lo tanto, no se puede esperar que podamos discriminar sobre la base de una muestra (para el caso normal, necesitaríamos un tamaño de muestra de 320 para detectar esta diferencia con un nivel de significancia del 5%). Por lo tanto, podemos colapsar justificadamente el tipo B y escriba C juntos, hasta el momento en que tengamos una muestra lo suficientemente grande.

Ahora, ¿qué sucede con esos intervalos creíbles? ¡De hecho, ahora tenemos una cobertura del 100% de «B o C»! ¿Qué pasa con los intervalos frecuentistas ? La cobertura no ha cambiado ya que todos los intervalos contenían tanto B como C o ninguno, por lo que todavía está sujeto a las críticas en la respuesta de Keith: se observaron 59% y 0% para 3 y 0 chips.

Pero seamos pragmáticos aquí.Si optimiza algo con respecto a una función, no se puede esperar que funcione bien para una función diferente. Sin embargo, tanto el intervalo frecuentista como el bayesiano logran el nivel de credibilidad / confianza deseado en promedio. Tenemos $ (0+ 99 + 99 + 59 + 99) /5=71.2$ – por lo que el frecuentista tiene la credibilidad promedio adecuada. También tenemos $ (98 + 60 + 66 + 97) /4=80.3$ – el bayesiano tiene una cobertura promedio apropiada.

Otro punto que me gustaría enfatizar es que el bayesiano no dice que «el parámetro es aleatorio» al asignar una distribución de probabilidad. Para el bayesiano (bueno, al menos para mí de todos modos) una distribución de probabilidad es una descripción de lo que se sabe acerca de ese parámetro. La noción de «aleatoriedad» no existe realmente en la teoría bayesiana, solo las nociones de «saber» y «no saber». Los «conocidos» entran en las condiciones, y los «desconocidos» son para qué calculamos las probabilidades, si es de interés, y marginamos si es una molestia. Por lo tanto, un intervalo creíble describe lo que se sabe sobre un parámetro fijo, promediando lo que no se conoce sobre él. Entonces, si tomáramos la posición de la persona que empacó el tarro de galletas y supiéramos que es del tipo A, su intervalo de credibilidad sería [A], independientemente de la muestra y sin importar cuántas muestras se tomaron. ¡Y serían 100% precisos!

Un intervalo de confianza se basa en la «aleatoriedad» o variación que existe en las diferentes muestras posibles. Como tal, la única variación que tienen en cuenta es la de una muestra. Por lo tanto, el intervalo de confianza no ha cambiado para la persona que empacó el tarro de galletas y es nuevo que era del tipo A. Entonces, si sacó la galleta con 1 chip del tarro tipo A, el frecuentista afirmaría con un 70% de confianza que el tipo era no A, ¡aunque saben que el frasco es de tipo A! (si mantuvieron su ideología e ignoraron su sentido común). Para ver que este es el caso, tenga en cuenta que nada en esta situación ha cambiado la distribución del muestreo; simplemente hemos tomado la perspectiva de una persona diferente con información «no basada en datos» sobre un parámetro.

Confianza Los intervalos cambiarán solo cuando los datos cambien o el modelo / distribución de muestreo cambie. Los intervalos de credibilidad pueden cambiar si se tiene en cuenta otra información relevante.

Tenga en cuenta que este comportamiento loco no es ciertamente lo que haría un defensor de los intervalos de confianza; pero demuestra una debilidad en la filosofía que subyace al método en un caso particular. Los intervalos de confianza funcionan mejor cuando no se sabe mucho acerca de un parámetro más allá de la información contenida en un conjunto de datos. Además, los intervalos de credibilidad no podrán mejorar mucho en los intervalos de confianza a menos que haya información previa que el intervalo de confianza pueda «No tomar en cuenta, o encontrar las estadísticas auxiliares suficientes es difícil.

Comentarios

  • Puedo ‘ t digo que entendí la explicación de Keith ‘ del ejemplo de jar, una pregunta rápida: repito el experimento $ m $ veces, recogí $ m $ muestras diferentes, así que ahora ‘ Después de calcular $ m $ IC diferentes (cada uno con un nivel de confianza del 95%), ¿qué es el IC? ¿Significa que el 95% de los $ m $ IC deben cubrir el valor real?
  • @loganecolss: esto es cierto, pero solo en el límite de $ m \ a \ infty $. Esto concuerda con la » probabilidad » = » frecuencia de largo plazo » interpretación subyacente de los IC.
  • Sí, en el límite. Luego, para una o solo un par de muestras, los IC no ‘ significan nada, ¿verdad? Entonces, ¿cuál ‘ es el punto de calcular el CI, si no ‘ no tengo toneladas de muestras?
  • @loganecolss – esa ‘ es la razón por la que ‘ soy bayesiano.
  • @nazka – más o menos. Yo diría que siempre es mejor utilizar un enfoque bayesiano independientemente de la cantidad de datos que tenga. Si esto puede aproximarse bien mediante un procedimiento frecuentista, utilícelo. Bayesiano no es sinónimo de lento.

Respuesta

Según tengo entendido: un intervalo creíble es una declaración del rango de valores para la estadística de interés que siguen siendo plausibles dada la muestra particular de datos que realmente hemos observado. Un intervalo de confianza es una declaración de la frecuencia con la que el valor real se encuentra en el intervalo de confianza cuando el experimento se repite una gran cantidad de veces, cada vez con una muestra diferente de datos de la misma población subyacente.

Normalmente, la pregunta que queremos responder es «qué valores de la estadística son consistentes con los datos observados», y el intervalo creíble da una respuesta directa a esa pregunta: el valor real de la estadística se encuentra en un intervalo creíble del 95% con probabilidad 95%.El intervalo de confianza no da una respuesta directa a esta pregunta; No es correcto afirmar que la probabilidad de que el valor real de la estadística se encuentre dentro del intervalo de confianza del 95% sea del 95% (a menos que coincida con el intervalo creíble). Sin embargo, esta es una mala interpretación muy común de un intervalo de confianza frecuentista, ya que es la interpretación que sería una respuesta directa a la pregunta.

El artículo de Jayne que analizo en otra pregunta da un buen ejemplo de Esto (ejemplo # 5), donde se construye un intervalo de confianza perfectamente correcto, donde la muestra particular de datos en la que se basa descarta cualquier posibilidad de que el valor verdadero de la estadística esté en el intervalo de confianza del 95%. problema si el intervalo de confianza se interpreta incorrectamente como un estado de valores plausibles de la estadística sobre la base de la muestra particular que hemos observado.

Al final del día, se trata de «caballos para cursos «, y qué intervalo es mejor depende de la pregunta que desea que se responda; simplemente elija el método que responda directamente a esa pregunta.

Sospecho que los intervalos de confianza son más útiles cuando se analizan experimentos repetibles [diseñados] (ya que es solo la suposición subyacente al intervalo de confianza), y los intervalos creíbles son mejores al analizar datos de observación, pero eso es solo una opinión (yo uso ambos tipos de intervalos en mi propio trabajo, pero no me describiría como un experto en ninguno de los dos).

Comentarios

  • El problema con los intervalos de confianza en experimentos repetidos es que para que funcionen, las condiciones del experimento repetible deben permanecer iguales (y ¿Quién lo creería?), mientras que el intervalo bayesiano (si se usa correctamente) condiciona los datos observados y, por lo tanto, permite los cambios que ocurren en el mundo real (a través de los datos). Creo que son las reglas de condicionamiento de la estadística bayesiana las que hacen que sea tan difícil superarlo (creo que es imposible: solo se puede lograr la equivalencia), y la maquinaria automática que logra esto lo que lo hace parecer tan hábil.

Respuesta

Encontré que muchas interpretaciones sobre el intervalo de confianza y el conjunto creíble son incorrectas. Por ejemplo, el intervalo de confianza no se puede expresar en este formato $ P (\ theta \ in CI) $. Si observa de cerca las «distribuciones» en la inferencia de frecuentista y bayesiano, verá trabajos de Frequentist sobre distribución de muestreo en los datos, mientras que Bayesian trabaja en distribución (posterior) del parámetro. Se definen en un espacio muestral y un álgebra Sigma totalmente diferentes.

Así que sí, puede decir «Si repite el experimento muchas veces, aproximadamente el 95% de los IC del 95% cubrirán el parámetro verdadero». Aunque en bayesiano puedes decir «el valor real de la estadística se encuentra en un intervalo creíble del 95% con una probabilidad del 95%», esta probabilidad del 95% (en bayesiano) en sí misma es solo una estimación. (Recuerde que se basa en la distribución de condiciones dados estos datos específicos, no en la distribución de muestreo). Este estimador debe tener un error aleatorio debido a una muestra aleatoria.

Bayesian intenta evitar el problema del error de tipo I. Bayesiano siempre dice que no tiene sentido hablar de error tipo I en bayesiano. Esto no es enteramente verdad. Los estadísticos siempre quieren medir la posibilidad o el error de que «Sus datos le sugieran que tome una decisión, pero la población sugiere lo contrario». Esto es algo que Bayesian no puede responder (detalles omitidos aquí). Desafortunadamente, esto puede ser lo más importante que debería responder un estadístico. Los estadísticos no solo sugieren una decisión. Los estadísticos también deberían poder abordar en qué medida puede salir mal la decisión.

Tengo que inventar la siguiente tabla y términos para explicar el concepto. Espero que esto pueda ayudar a explicar la diferencia entre el intervalo de confianza y el conjunto creíble.

Tenga en cuenta que la distribución posterior es $ P (\ theta_0 | Data_n) $, donde $ \ theta_0 $ se define a partir del $ P anterior (\ theta_0) $. En frecuentista, la distribución muestral es $ P (Data_n; \ theta) $. La distribución muestral de $ \ hat {\ theta} $ es $ P (\ hat {\ theta} _n; \ theta) $. El subíndice $ n $ es el tamaño de la muestra. No use la notación $ P (Data_n | \ theta) $ para presentar la distribución de muestreo en frecuentista. Puede hablar de datos aleatorios en $ P (Data_n; \ theta) $ y $ P (\ hat {\ theta} _n; \ theta) $ pero no puede hablar de datos aleatorios en $ P (\ theta_0 | Data_n) $.

Intervalo de confianza frente a conjunto creíble

El «???????» explica por qué no podemos evaluar el error de tipo I (o algo similar) en bayesiano.

Tenga en cuenta también que se pueden utilizar conjuntos creíbles para aproximar los intervalos de confianza en algunas circunstancias. Sin embargo, esto es solo una aproximación matemática. La interpretación debe ir con frecuentista. La interpretación bayesiana en este caso ya no funciona.


La notación de Thylacoleo «s en $ P (x | \ theta) $ no es frecuentista. Esto sigue siendo bayesiano. Esto la notación causa un problema fundamental en la teoría de la medida cuando se habla de frecuentista.

Estoy de acuerdo con la conclusión de Dikran Marsupial . Si eres el Revisor de la FDA, siempre desea saber la posibilidad de que apruebe una solicitud de medicamento, pero el medicamento en realidad no es eficaz. Esta es la respuesta que el bayesiano no puede proporcionar, al menos en el bayesiano clásico / típico.

Respuesta

Regiones confiables y confiables genéricas y consistentes. http://dx.doi.org/10.6084/m9.figshare.1528163 con código en http://dx.doi.org/10.6084/m9.figshare.1528187

Proporciona una descripción de intervalos creíbles y de confianza intervalos para la selección de conjuntos junto con el código R genérico para calcular tanto la función de verosimilitud como algunos datos observados. una estadística de prueba que brinda intervalos creíbles y de confianza de tamaño óptimo que son consistentes entre sí.

En resumen y evitando fórmulas. El intervalo creíble bayesiano se basa en la probabilidad de los parámetros dados datos . Recopila los parámetros que tienen una alta probabilidad en el conjunto / intervalo creíble. El intervalo de credibilidad del 95% contiene parámetros que juntos tienen una probabilidad de 0,95 dados los datos.

El intervalo de confianza frecuentista se basa en el probabilidad de los datos dados algunos parámetros . Para cada parámetro (posiblemente infinitos), primero genera el conjunto de datos que es probable que se observe dado el parámetro. Luego verifica para cada parámetro, si los datos de alta probabilidad seleccionados contienen los datos observados. Si los datos de alta probabilidad contienen los datos observados, el parámetro correspondiente se agrega al intervalo de confianza. Por tanto, el intervalo de confianza es la colección de parámetros para los que no podemos descartar la posibilidad de que el parámetro haya generado los datos. Esto da una regla tal que, si se aplica repetidamente a problemas similares, el intervalo de confianza del 95% contendrá el valor verdadero del parámetro en el 95% de los casos.

Conjunto de 95% de credibilidad y 95% de confianza para un ejemplo de una distribución binomial negativa 95% Conjunto creíble y 95% Conjunto de confianza para distribución binomial negativa

Comentarios

  • La descripción de los intervalos de confianza no es correcta. El » 95% » proviene de la probabilidad de que una muestra de la población produzca un intervalo que contenga el valor real del parámetro.
  • @jlimahaverford: la descripción es correcta, al igual que la suya. Para hacer el enlace a lo que describe, agregué » Esto da una regla tal que, si se aplica repetidamente a problemas similares, el intervalo de 95% de credibilidad contendrá el valor verdadero del parámetro en 95 % de los casos. »
  • No estaba hablando de su descripción de intervalos creíbles, estaba hablando de intervalos de confianza. ‘ ahora estoy notando que en la mitad de su párrafo sobre los intervalos de confianza comienza a hablar de lo creíble de nuevo, y creo que esto es un error. La idea importante es esta » Si este fuera el verdadero valor del parámetro, ¿cuál es la probabilidad de que extraiga una muestra de este extremo o más? Si la respuesta es superior al 5%, ‘ s en el intervalo de confianza. »
  • @jlimahaverford – aggree y corregido – Gracias.
  • hmm, no veo que se corrija.

Responder

Esto es más un comentario pero demasiado largo. En el siguiente artículo: El amanecer de la era de la estocasticidad (David Mumford) Mumford tiene el siguiente comentario interesante:

Si bien se estaban haciendo todos estos usos realmente interesantes de las estadísticas, la mayoría de los propios estadísticos, liderados por Sir RA Fisher, se estaban atando las manos a la espalda, insistiendo en que las estadísticas no se podían usar en situaciones que no fueran totalmente reproducibles y luego solo usando los datos empíricos. Esta es la llamada escuela «frecuentista» que luchó con la escuela bayesiana que creía que se podrían utilizar a priori y que el uso de la inferencia estadística se extendió enormemente Este enfoque niega que la inferencia estadística pueda tener algo que ver con el pensamiento real porque las situaciones de la vida real siempre están enterradas en variables contextuales y no pueden repetirse.Afortunadamente, la escuela bayesiana no murió del todo, siendo continuada por DeFinetti, E.T. Jaynes, y otros.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *