Tudom, hogy a minta átlaga bizonytalanságának általában meg kell egyeznie:
$ \ frac {V_ {max} – V_ {min}} {2} $
ahol $ V_ {max} $ a maximális érték és $ V_ {min} $ a minimum az adatminta értéke. Mi van azonban akkor, ha minden értéknek megvan a maga bizonytalansága? Például meg kell adnom a következő értékeket:
$ R1 = 12.8 \ pm 0.2 $ m
$ R2 = 13.6 \ pm 0.4 $ m
Az átlag legyen 13,2 USD m, de mi lesz a bizonytalansággal? Ez az $ 1.4 / 2 $ tartomány lesz, vagy az egyes mérések együttes bizonytalansága?
Válasz
Ha van két korrelálatlan mennyisége $ x $ és $ y $ bizonytalansággal $ \ delta x $ és $ \ delta y $, akkor az összegük $ z = x + y $ bizonytalanságot mutat
$$ \ delta z = \ sqrt {(\ delta x) ^ 2 + (\ delta y) ^ 2} $$
Az átlagnak akkor bizonytalansága lenne $$ \ frac {\ delta z} {2} = \ frac {\ sqrt {(\ delta x) ^ 2 + (\ delta y) ^ 2} } {2} $$
Intuitív módon elképzelhető, hogy
$$ \ delta z = \ delta x + \ delta y $$
Ez azonban túlbecsüli a $ z $ bizonytalanságát. Ha a $ x $ és a $ y $ nincs korrelálva, akkor nagyon valószínűtlen, hogy hibáik konstruktív módon hozzáadódnának ilyen módon. Természetesen lehetséges, hogy a $ x $ és a $ y $ összefüggenek, de akkor bonyolultabb elemzésre van szükség.
Megjegyzések
- Meg tudná adni ok (vagy hivatkozás jó hírű forrásra), hogy miért van ez így?
- Ennek oka, hogy a mért mennyiségeket általában feltételezzük, hogy megfelelnek a normálisan elosztott véletlenszerű változóknak, és a bizonytalanság a szórás. Két ilyen véletlen változó összeadása egy véletlen változót eredményez, amelynek szórása a fenti képlet által megadott. Ez megtalálható gyakorlatilag a kísérleti technikák bármely hivatkozásában, például ez .