Categorías: Todo - precisión - mediciones - desviación - incertidumbre

por VALERIA PEREZ CASTILLO hace 2 años

115

MEDICIONES ELECTRICAS

En el ámbito de las mediciones eléctricas, el término 'error' no lleva las connotaciones negativas habituales, sino que se refiere a la incertidumbre inherente en cualquier medición.

MEDICIONES ELECTRICAS

MEDICIONES ELECTRICAS

Escala y Tipo de errores

Por su propia naturaleza, los valores eléctricos no pueden medirse por observación directa. Por ello se utiliza alguna propiedad de la electricidad para producir una fuerza física susceptible de ser detectada y medida. En los aparatos de medidas analógicos las indicaciones se efectúan sobre una escala graduada en unidades, múltiplos o submúltiplos de la unidad medida. Las escalas se clasifican de muchas maneras pero la más importante es la que se puede hacer en función de la disposición de las divisiones que son
Escalas Lineares

Se utilizan en aparatos de medida magnetoeléctricos de cuadro móvil y en aparatos de medida electrodinámicos cuando se emplean como medidores de potencia.

Figura de escalas

Con zona muerta

Comprimida

Fraccionada

Cuadratica

Lineal

Otro tipo de errores

Error por Influencia
Se debe principalmente a la influencia del medio ambiente, campo eléctrico y campo magnético.
Erros de Conexión
Cuando no se tiene cuidado en las conexiones de los instrumentos.
Error de Posición ó Error de Paralaje
Este error es importante el primero es la indebida posición del instrumento y el otro error es en instrumentos de los cuales el eje es horizontal o vertical y la vista debe mirar de forma perpendicular al instrumento de medición.

Errores de medición

Errores Residuales
Se presentan sorpresivamente y a veces se desconoce la causa y magnitud.
Errores Personales
Pueden deberse a limitaciones físicas del observador, estado anímico, fenómeno de paralaje.
Errores Ambientales
Variación de la Temperatura, presión, humedad, atmosférica, etc.
Errores instrumentales
Propios de la construcción del instrumento o ajuste de los mismos.
Errores Teóricos
De conocimiento o imperfecciones en el método de medida.
Errores Sistemáticos
Es un hecho conocido que al repetir una medición utilizando el mismo proceso de medición (el mismo instrumento, operador, excitación, método, etc.) no se logra el mismo resultado. En este caso, los errores sistemáticos se mantienen constantes, y las diferencias obtenidas se deben a efectos fortuitos, denominados errores aleatorios (mal llamados accidentales).
Errores Aleatorios
Invariablemente, tienen la misma magnitud y signo, bajo las mismas condiciones.

Por ejemplo

Los errores de calibración de escalas, en general, por otras causas medibles con precisión. La detección y corrección de estos errores se efectúa por comparación o contraste con instrumentos patrones.

Errores relativos

Es la relacion entre el error absoluto ( ∆) y el valor de la magnitud verdadera (VR).
Ƹr% = (∆ /VR ) x 100
Ejemplo Aplicativo: Tenemos un instrumento de clase 0.5, cuyo rango máximo es de 500 voltios, debe medir una tensión de 350 voltios. Determinar el Error Absoluto y el Error Relativo. Sabemos que B = ( ∆ / Vmax. Escala) x 100 Reemplazando los datos 0.5 = (∆ /500)x 100 Por lo tanto obtendremos ∆ = 2.5 voltios Luego Ƹr = ∆ / VR entonces Ƹr = (2.5 v./ 350 v.) = 0.0071 y expresado en porcentaje seria Ƹr = (2.5 v./ 350 v.) x 100 Ƹr = 0.71%
Ƹr = ∆ / VR

Errores absolutos

Es la diferencia entre la magnitud leída en el instrumento (VL) y la magnitud verdadera medida (VR)
∆= VL - VR

Teoría de errores

En resumen cuanco se mide una magnitud, ya directa, ya indirecta, la medida que se obtiene no es necesario el valor exacto de tal medida, ya que el resultado obtenido estara afectado por errores debido a multitud de factores.
Entonces el error es definido la diferencia entre un valor que se obtiene de una medición y un valor verdadero. El error de las medidas es la incertidumbre que tienen estas medidas y deben darse siempre junto con el valor de la medida.

Los fabricantes de instrumento de medición, garantizan que los valores reales de las magnitudes medidas, en condiciones experimentales determinados, están comprendidos dentro de ciertos limites referidos al resultado de la medición.

El uso común de la palabra "error" generalmente tiene un sentido desagradable, Puede significar confusión, ofensa moral o creencia equivocada. Pero cuando se trata de medidas eléctricas nunca tiene ninguno de estos significados.
Entonces, en la practica, siempre se debe indicar el error de medida en una medición.

En toda medición existe error. Si la precisión del equipo de medida es el conveniente, independientemente de su exactitud, siempre se observara una discrepancia entre los resultados de dos medidas.

La palabra "discrepancia" no es sinónimo de "error".

Por ejemplo la discrepancia entre el valor medido para la resistencia por unidad de longitud de un hilo de cobre estándar y el valor que aparece en las tablas no es necesariamente un error de medida. Las características del cobre utilizado para este experimento pueden ser diferentes de las del utilizado para confeccionar las tablas.

Si dos personas obtienen resultados diferentes para la misma cantidad se puede decir que existe discrepancia entre ambos resultados, pero el error introducido por cualquiera de ellos puede ser mayor que dicha discrepancia.

La incertidumbre es la "duda del metrólogo" acerca de la calidad o exactitud de la medición realizada, la cual, cuantifica a fin de comunicarse con sus homólogos. Un valor medido no tiene incertidumbre el que la tiene es quien realizo la medición y a fin de comunicación.

Se debe prestar atención y tener clara la diferencia entre error e incertidumbre.

Por ejemplo el resultado de una medicion luego de aplicar una correcion (por los errores sistematicos) pueden estar muy cerca dl valor de la cantidad, aunque no lo odemos saber, es decir con un error pequeno, aunque puede existir, debido a los metodos e instrumentos utilizados en la medicion, una gran incertiurmbre.

Cuantitativamente el error de medida se expresa, normalmente, utilizando una medida acertada de la incertidumbre que se define matemáticamente. La mas corriente de tales medidas en el trabajo científico es la desviación del patrón (desviación estándar). En otras mediciones se consideran otro tipo de desviación. La repetición de una medida bajo las mismas condiciones nunca dará el mismo resultado.

Hay dos razones principales para estudiar el error de medida.

Estudiar como puede calcularse la veracidad de los resultados.

Hallar la forma de reducirlos