Mencione la diferencia entre error e incertidumbre en el proceso de la medición.
Respuestas a la pregunta
Contestado por
1
En la literatura técnica y científica, el término error se utiliza frecuentemente con dos significados bastante diferentes. En algunos casos se utiliza para cuantificar la diferencia entre el resultado de una medida y el considerado como valor de la misma (valor verdadero, valor real o estándar) mientras que en otras se utiliza para denominar la incertidumbre del resultado de una medida, es decir, para cuantificar la imperfección del método e instrumento de medida empleado. Los términos error e incertidumbre no son sinónimos, sino que representan conceptos completamente distintos, y por tanto, no deben confundirse entre sí ni utilizarse incorrectamente, uno en lugar del otro (CEM, 2000). A este respecto, el VIM define el término error de medida como la diferencia entre un valor medido de una magnitud y un valor de referencia (valor convencional o valor verdadero), mientras que define la incertidumbre de medida como un parámetro no negativo que caracteriza la dispersión de los valores atribuidos a un mensurando, a partir de la información que se utiliza. Si bien el error es teóricamente desconocido, la incertidumbre sí que puede ser evaluada. Conviene no confundir también el error de medida con un error humano o equivocación.
Otras preguntas
Matemáticas,
hace 1 mes
Derecho ,
hace 1 mes
Matemáticas,
hace 1 mes
Matemáticas,
hace 1 mes
Historia,
hace 8 meses
Ciencias Sociales,
hace 8 meses