Ich weiß, dass die Unsicherheit im Mittelwert einer Stichprobe im Allgemeinen gleich sein sollte:
$ \ frac {V_ {max} – V_ {min}} {2} $
wobei $ V_ {max} $ der Maximalwert und $ V_ {min} $ der Minimalwert ist Wert der Datenstichprobe. Was ist jedoch, wenn jeder Wert seine eigene Unsicherheit hat? Zum Beispiel muss ich folgende Werte festlegen:
$ R1 = 12,8 \ pm 0,2 $ m
$ R2 = 13,6 \ pm 0,4 $ m
Der Mittelwert würde $ 13,2 $ m sein, aber was ist mit der Unsicherheit? Wird es der Bereich $ 1.4 / 2 $ sein oder wird es die kombinierte Unsicherheit jeder Messung sein?
Antwort
Wenn Sie haben zwei unkorrelierte Mengen $ x $ und $ y $ mit Unsicherheiten $ \ delta x $ und $ \ delta y $, dann hat ihre Summe $ z = x + y $ Unsicherheit
$$ \ delta z = \ sqrt {(\ delta x) ^ 2 + (\ delta y) ^ 2} $$
Der Durchschnitt hätte dann eine Unsicherheit $$ \ frac {\ delta z} {2} = \ frac {\ sqrt {(\ delta x) ^ 2 + (\ delta y) ^ 2} } {2} $$
Intuitiv könnte man sich vorstellen, dass
$$ \ delta z = \ delta x + \ delta y $$
Dies überschätzt jedoch die Unsicherheit in $ z $. Wenn $ x $ und $ y $ nicht korreliert sind, ist es sehr unwahrscheinlich, dass sich ihre Fehler auf diese Weise konstruktiv addieren. Es ist natürlich möglich, dass $ x $ und $ y $ korreliert sind, aber dann ist eine kompliziertere Analyse erforderlich.
Kommentare
- Könnten Sie angeben ein Grund (oder ein Verweis auf eine seriöse Quelle), warum dies der Fall ist?
- Der Grund ist, dass angenommen wird, dass gemessene Größen normalerweise normalverteilten Zufallsvariablen entsprechen und die Unsicherheit die Standardabweichung ist. Das Hinzufügen von zwei solchen Zufallsvariablen führt zu einer Zufallsvariablen mit einer Standardabweichung, die durch die obige Formel gegeben ist. Dies kann im Wesentlichen in jeder Referenz zu experimentellen Techniken gefunden werden, wie z. B. this .