Universo Científico

Versión completa: Incertidumbre de una medida
Usted se encuentra viendo este tópico en una versión reducida de contenido. Ver la versión completa con un formato apropiado.


Incertidumbre de una medida
La incertidumbre o error de una medida, es un valor que estima los posibles valores de una medida. Se suele denotar con la letra griega delta minúscula \( (\delta) \).

Forma general:
$$ (a ± \delta a) b $$

Siendo:
· \( a \) = la medida.
· \( \delta a \) = la incertidumbre de la medida.
· \( b \) = la unidad de la medida.

Ejemplo:
Cuando medimos con una regla (las reglas generalmente tienen una incertidumbre de \(\delta l = ± 0,1 cm \)), si medimos 10 cm de algo, la longitud de ese tal algo, será de \( (10 ± 1) cm \).
Reglas para expresar una medida y su error:
1. Todo resultado experimental o medida hecha en el laboratorio debe de ir acompañada del valor estimado del error de la medida y a continuación, las unidades empleadas.
2. Los errores se deben dar solamente con una única cifra significativa.
3. La última cifra significativa en el valor de una magnitud física y en su error, expresados en las mismas unidades, deben de corresponder al mismo orden de magnitud (centenas, decenas, unidades, décimas, centésimas).

Ejemplos:
\( (15,6 ± 0,6) cm^{2} \)
\( (6,0 ± 0,2) s \)
Teorema de propagación de errores:



Lo sentimos, pero sólo los usuarios registrados pueden tener acceso a este contenido. Si aún no eres usuario, puedes registrarte haciendo click aquí, y si ya lo eres, simplemente debes loguearte.