Jeg ved, at usikkerheden generelt i gennemsnittet af en prøve skal være lig med:
$ \ frac {V_ {max} – V_ {min}} {2} $
hvor $ V_ {max} $ er den maksimale værdi og $ V_ {min} $ det mindste værdi af stikprøven af data. Men hvad hvis hver værdi har sin egen usikkerhed? For eksempel skal jeg værdier:
$ R1 = 12.8 \ pm 0.2 $ m
$ R2 = 13.6 \ pm 0.4 $ m
Middelværdien ville være $ 13,2 $ m, men hvad med usikkerheden? Vil det være området $ 1,4 / 2 $ eller vil det være den kombinerede usikkerhed for hver måling?
Svar
Hvis du har to ukorreleret mængder $ x $ og $ y $ med usikkerhed $ \ delta x $ og $ \ delta y $, så har deres sum $ z = x + y $ usikkerhed
$$ \ delta z = \ sqrt {(\ delta x) ^ 2 + (\ delta y) ^ 2} $$
Gennemsnittet ville så have usikkerhed $$ \ frac {\ delta z} {2} = \ frac {\ sqrt {(\ delta x) ^ 2 + (\ delta y) ^ 2} } {2} $$
Intuitivt kan man forestille sig, at
$$ \ delta z = \ delta x + \ delta y $$
Dette overvurderer dog usikkerheden i $ z $. Hvis $ x $ og $ y $ ikke er korreleret, er det meget usandsynligt, at deres fejl konstruktivt tilføjer på denne måde. Det er naturligvis muligt, at $ x $ og $ y $ er korreleret, men så kræves der mere kompliceret analyse.
Kommentarer
- Kan du give en grund (eller en henvisning til en velrenommeret kilde) til, hvorfor det er tilfældet?
- Årsagen er, at målte størrelser typisk antages at svare til normalt fordelte tilfældige variabler, og usikkerheden er standardafvigelsen. Tilføjelse af to sådanne tilfældige variabler resulterer i en tilfældig variabel med standardafvigelse givet ved ovenstående formel. Dette kan findes i stort set enhver henvisning til eksperimentelle teknikker, såsom denne .