Sé que generalmente la incertidumbre en la media de una muestra debe ser igual a:
$ \ frac {V_ {max} – V_ {min}} {2} $
donde $ V_ {max} $ es el valor máximo y $ V_ {min} $ el mínimo valor de la muestra de datos. Sin embargo, ¿qué pasa si cada valor tiene su propia incertidumbre? Por ejemplo, tengo los valores:
$ R1 = 12.8 \ pm 0.2 $ m
$ R2 = 13.6 \ pm 0.4 $ m
La media sería ser de $ 13,2 $ m, pero ¿qué pasa con la incertidumbre? ¿Será el rango $ 1.4 / 2 $ o será la incertidumbre combinada de cada medida?
Respuesta
Si tienen dos no correlacionadas cantidades $ x $ y $ y $ con incertidumbres $ \ delta x $ y $ \ delta y $, entonces su suma $ z = x + y $ tiene incertidumbre
$$ \ delta z = \ sqrt {(\ delta x) ^ 2 + (\ delta y) ^ 2} $$
El promedio tendría entonces incertidumbre $$ \ frac {\ delta z} {2} = \ frac {\ sqrt {(\ delta x) ^ 2 + (\ delta y) ^ 2} } {2} $$
Intuitivamente, uno podría imaginar que
$$ \ delta z = \ delta x + \ delta y $$
Sin embargo, esto sobreestima la incertidumbre en $ z $. Si $ x $ y $ y $ no están correlacionados, entonces es muy poco probable que sus errores se sumen constructivamente de esta manera. Por supuesto, es posible que $ x $ y $ y $ estén correlacionados, pero luego se requiere un análisis más complicado.
Comentarios
- ¿Podría proporcionar ¿Una razón (o una referencia a una fuente confiable) de por qué ese es el caso?
- La razón es que típicamente se supone que las cantidades medidas corresponden a variables aleatorias distribuidas normalmente, y la incertidumbre es la desviación estándar. Agregar dos de estas variables aleatorias da como resultado una variable aleatoria con desviación estándar dada por la fórmula anterior. Esto se puede encontrar en prácticamente cualquier referencia sobre técnicas experimentales, como esta .