Sie sind auf Seite 1von 6

Definiciones en control

Los trminos empleados dependen las caractersticas propias de medida y de


control y las estticas y
Dinmicas de los diversos instrumentos utilizados:
Indicadores, registradores, controladores, transmisores y vlvulas de control.
La terminologa empleada se ha unificado con el fin de que los fabricantes, los
usuarios y los organismos o entidades que intervienen directa o indirectamente en
el campo de la instrumentacin
Industrial empleen el mismo lenguaje.
Campo de medida
El campo de medida (range) es el espectro o conjunto de valores de la variable
medida que estn comprendidos dentro de los lmites superior e inferior de la
capacidad de medida, de recepcin o de transmisin del instrumento. Viene
expresado estableciendo los dos valores extremos.
Otro trmino derivado es el de dinmica de medida o rangeabilidad (rangeability),
que es el cociente entre el valor de medida superior e inferior de un instrumento.
Alcance
El alcance (span) es la diferencia algebraica entre los valores superior e inferior
del campo de medida del instrumento.
Error
El error de la medida es la desviacin que presentan las medidas prcticas de
una variable de proceso con relacin a las medidas tericas o ideales, como
resultado de las imperfecciones de los aparatos y de las variables parsitas que
afectan al proceso. Es decir:
Error = Valor ledo en el instrumento - Valor ideal de la variable medida
El error absoluto es:
Error absoluto = Valor ledo - Valor verdadero
El error relativo representa la calidad de la medida y es:
Error relativo = Error absoluto / Error verdadero
Si el proceso est en condiciones de rgimen permanente existe el llamado error
esttico.
En condiciones dinmicas el error vara considerablemente debido a que los
instrumentos tienen caractersticas comunes a los sistemas bsicos: absorben
energa del proceso y esta transferencia requiere cierto tiempo para ser
transmitida, lo cual da lugar a retardos en la lectura del aparato. Siempre que las
condiciones sean dinmicas, existir en mayor o menor grado el llamado error
dinmico (diferencia entre el valor instantneo y el indicado por el instrumento): su
valor depende del tipo de fluido del proceso, de su velocidad, del elemento
primario (termopar, bulbo y capilar), de los medios de proteccin (vaina), etc. El
error medio del instrumento es la media aritmtica de los errores en cada punto de

la medida determinados para todos los valores crecientes y decrecientes de la


variable medida.
Incertidumbre de la medida
Cuando se realiza una operacin de calibracin, se compara el instrumento a
calibrar con un aparato patrn para averiguar si el error (diferencia entre el valor
ledo por el instrumento y el verdadero valor medido con el aparato patrn) se
encuentra dentro de los lmites dados por el fabricante de instrumento.
Entre las fuentes de incertidumbre se encuentran:
Influencia de las condiciones ambientales.
Lecturas diferentes de instrumentos analgicos realizadas por los operadores.
Variaciones en las observaciones repetidas de la medida en condiciones
aparentemente idnticas.
Valores inexactos de los instrumentos patrn.
Muestra del producto no representativa. Por ejemplo, en la medida de
temperatura con un termmetro patrn de vidrio, la masa del bulbo cambia la
temperatura de la muestra del proceso cuya temperatura desea medirse.
As pues, la incertidumbre es la dispersin de los valores que pueden ser
atribuidos razonablemente al verdadero valor de la magnitud medida.
En el clculo de la incertidumbre intervienen la distribucin estadstica de los
resultados de series de mediciones, las caractersticas de los equipos (deriva en
funcin de la tensin de alimentacin o en funcin de la temperatura, etc.), etc.
En el clculo de la incertidumbre se usa el trmino mensurando que significa:
magnitud particular objeto de una medicin. Puede ser medido directamene o bien
de forma indirecta a partir de otras magnitudes relacionadas de forma matemtica
o funcional (por ejemplo, la medida de la densidad a travs de la relacin
masa/volumen del cuerpo). El mensurando es, pues, funcin de una serie de
magnitudes de entrada y la expresin de esta funcin puede ser experimental o
ser un algoritmo de clculo o bien una combinacin.
Hay dos incertidumbres A y B presentes en la medicin. Las A se relacionan con
fuentes de error aleatorios y pueden ser evaluadas a partir de distribuciones
estadsticas (lecturas en el instrumento), mientras que las B estn asociadas a
errores de tipo sistemtico y corresponden a la incertidumbre del calibrador, la
resolucin del instrumento y la influencia de otras magnitudes.
Incertidumbre tipo A. La evaluacin de la incertidumbre estndar se efecta por
anlisis estadstico de una serie de observaciones independientes de la magnitud
de entrada, bajo las mismas condiciones de medida. Si no existen componentes
evaluadas estadsticamente la evaluacin de tipo A corresponde a la repetibilidad
del instrumento a calibrar.
Incertidumbre tipo B. La incertidumbre se determina en base a la informacin
disponible procedente de varias fuentes, tales como:
Datos de medidas anteriores.
Experiencia y conocimiento de los instrumentos.

Especificaciones del fabricante.


Valores de incertidumbre de manuales tcnicos.
El mtodo exige un juicio basado en la experiencia y en conocimientos generales.
Exactitud
La exactitud (accuracy) es la cualidad de un instrumento de medida por la que
tiende a dar lecturas prximas al valor verdadero de la magnitud medida.
En otras palabras, es el grado de conformidad de un valor indicado a un valor
estndar aceptado o valor ideal, considerando este valor ideal como si fuera el
verdadero. El grado de conformidad independiente es la desviacin mxima entre
la curva de calibracin de un instrumento y una curva caracterstica especificada,
posicionada de tal modo tal que se reduce al mnimo dicha desviacin mxima.
La exactitud (accuracy) define los lmites de los errores cometidos cuando el
instrumento se emplea en condiciones normales de servicio durante un perodo de
tiempo determinado (normalmente
1 ao). La exactitud vara en cada punto del campo de medida s bien, el
fabricante la especfica, en todo el margen del instrumento, indicando a veces su
valor en algunas zonas de la escala. Cuando se desea obtener la mxima
exactitud del instrumento en un punto determinado de la escala, puede calibrarse
nicamente para este punto de trabajo, sin considerar los valores restantes del
campo de medida.
Hay que sealar que los valores de la exactitud de un instrumento se consideran,
en general, establecidos para el usuario, es decir, son los proporcionados por los
fabricantes de los instrumentos. Sin embargo, estos ltimos tambin suelen
considerar los valores de calibracin en fbrica y de inspeccin.
Precisin
La precisin es la cualidad de un instrumento por la que tiende a dar lecturas
muy prximas unas a otras, es decir, es el grado de dispersin de las mismas. Un
instrumento puede tener una pobre exactitud, pero una gran precisin.
Por lo tanto, los instrumentos de medida estarn diseados por los fabricantes
para que sean precisos, y como peridicamente se descalibran, deben reajustarse
para que sean exactos. A sealar que el trmino precisin es sinnimo de
repetibilidad.
Zona muerta
La zona muerta (dead zone o dead band) es el campo de valores de la variable
que no hace variar la indicacin o la seal de salida del instrumento, es decir, que
no produce su respuesta. Viene dada en tanto por ciento del alcance de la medida.
Sensibilidad
La sensibilidad (sensitivity) es la razn entre el incremento de la seal de salida o
de la lectura y el
Incremento de la variable que lo-ocasiona, despus de haberse alcanzado el
estado de reposo.

Hay que sealar que no debe confundirse la sensibilidad con el trmino de zona
muerta; son definiciones bsicamente distintas que antes era fcil confundir
cuando la definicin inicial de la sensibilidad era valor mnimo en que se ha de
modificar la variable para apreciar un cambio medible en el ndice o en la pluma de
registro de los instrumentos.
Repetibilidad
La repetibilidad (repeatibility) es la capacidad de reproduccin de las posiciones
de la pluma o del ndice o de la seal de salida del instrumento, al medir
repetidamente valores idnticos de la variable en las mismas condiciones de
servicio y en el mismo sentido de variacin, recorriendo todo el campo. La
repetibilidad es sinnimo de precisin. A mayor repetibilidad, es decir, a un menor
valor numrico los valores de la indicacin o seal de salida estarn ms
concentrados, es decir, habr menos dispersin y una mayor precisin.
La repetibilidad se expresa en tanto por ciento del alcance; un valor
representativo es el de 0,1%. Ntese que el trmino repetibilidad no incluye la
histresis. Para determinarla, el fabricante comprueba la diferencia entre el valor
verdadero de la variable y la indicacin o seal de salida del instrumento
recorriendo todo el campo, y partiendo, para cada determinacin, desde el valor
mnimo del campo de medida.
Histresis
La histresis (hysteresis) es la diferencia mxima que se observa en los valores
indicados por el ndice o la pluma del instrumento o la seal de salida para el
mismo valor cualquiera del campo de medida, cuando la variable recorre toda la
escala en los dos sentidos, ascendente y descendente.
Se expresa en tanto por ciento del alcance de la medida.
Otros trminos
Otros trminos empleados en las especificaciones de los instrumentos son los
siguientes:
Deriva
Es una variacin en la seal de salida que se presenta en un perodo de tiempo
determinado mientras se mantienen constantes la variable medida y todas las
condiciones ambientales. Se suelen considerar la deriva de cero (variacin en la
seal de salida para el valor cero de la medida atribuible
a cualquier causa interna) y la deriva trmica de cero (variacin en la seal de
salida a medida cero, debida a los efectos nicos de la temperatura).
La deriva est expresada usualmente en porcentaje de la seal de salida de la
escala total a la temperatura ambiente, por unidad, o por intervalo de variacin de
la temperatura. Por ejemplo, la deriva trmica de cero de un instrumento en
condiciones de temperatura ambiente durante 1 mes fue de 0,2% del alcance.
Fiabilidad

Medida de la probabilidad de que un instrumento contine comportndose dentro


de lmites especificados de error a lo largo de un tiempo determinado y bajo unas
condiciones especificadas.
Resolucin
Es la menor diferencia de valor que el instrumento puede distinguir. En los
instrumentos analgicos interviene el operador segn donde observe la posicin
de la aguja, su error de paralaje en la lectura efectuada y la distancia entre los
valores marcados en la escala.
Por ejemplo, en un indicador de nivel de 0% a 100% graduado cada 1% de la
escala, con la aguja indicadora, que el observador considera en la mitad entre las
divisiones 52% y 53%, y que el afirma que es capaz de discriminar valores del
0,5%, podr considerarse la resolucin como (0,5/100) = 0,05%.
En los instrumentos digitales, la resolucin es el cambio de valor de la variable
que ocasiona que el dgito menos significativo se modifique.
Trazabilidad
Propiedad del resultado de las mediciones efectuadas con un instrumento o con
un patrn, tal que puede relacionarse con patrones nacionales o internacionales,
mediante una cadena ininterrumpida de comparaciones y con todas las
incertidumbres determinadas.
Ruido
Cualquier perturbacin elctrica o seal accidental no deseada que modifica la
transmisin, indicacin o registro de los datos deseados. Un caso especial es la
interferencia de radiotransmisores RFI (Radio Frequency Interference). Puede
expresarse en unidades de la seal de salida o en tanto por ciento del alcance.
Clases de instrumentos
Los instrumentos de medicin y de control son relativamente complejos y su
funcin puede comprenderse bien si estn incluidos dentro de una clasificacin
adecuada. Como es lgico, pueden existir varias formas para clasificar los
instrumentos, cada una de ellas con sus propias ventajas y limitaciones.
En funcin del instrumento:
De acuerdo con la funcin del instrumento, obtenemos las formas siguientes:
Instrumentos ciegos, son aquellos que no tienen indicacin visible de la variable.
Son ciegos los instrumentos de alarma, tales como presostatos y termostatos.
Los instrumentos indicadores disponen de un ndice y de una escala graduada en
la que puede leerse el valor de la variable. Segn la amplitud de la escala se
dividen en indicadores concntricos y excntricos.

Los instrumentos registradores registran con trazo continuo o a puntos la


variable, y pueden ser circulares o de grafico rectangular o alargado segn sea la
forma del grfico.
Los registradores de grfico circular suelen tener el grfico de 1 revolucin en 24
horas mientras que en los de grfico rectangular la velocidad normal del grfico es
de unos 20 mm/hora.
Los sensores captan el valor de la variable de proceso y envan una seal de
salida predeterminada.
El sensor puede formar parte de otro instrumento (por ejemplo, un transmisor) o
bien puede estar separado. Tambin se denomina detector o elemento primario
por estar en contacto con la variable, con lo que utiliza o absorbe energa del
medio controlado para dar, al sistema de medicin, una indicacin en respuesta a
la variacin de la variable.
Los transmisores captan la variable de proceso a travs del elemento primario y la
transmiten a distancia en forma de seal neumtica de margen 3 a 15 psi (libras
por pulgada cuadrada) o electrnica de 4 a 20 mA de corriente continua o digital.
En funcin de la variable de proceso
Expresados en funcin de la variable del proceso, los instrumentos se dividen en
instrumentos de caudal, nivel, presin, temperatura, densidad y peso especfico,
humedad y punto de roco, viscosidad, posicin, velocidad, pH, conductividad,
frecuencia, fuerza, turbidez, etc.
Esta clasificacin corresponde especficamente al tipo de las seales medidas
siendo independiente del sistema empleado en la conversin de la seal de
proceso.

Das könnte Ihnen auch gefallen