ClubEnsayos.com - Ensayos de Calidad, Tareas y Monografias
Buscar

Instrumentacion


Enviado por   •  21 de Mayo de 2013  •  941 Palabras (4 Páginas)  •  382 Visitas

Página 1 de 4

Rangos (LRV y URV) y Trim en transmisores digitales: solución rápida de problemas y calibración

El que los transmisores "inteligentes" contengan microprocesadores han sido un gran avance para la instrumentación industrial. Estos dispositivos tienen la capacidad de realizar diganósticos, gran presición (debido a las compensaciones digitales a las no linealidades del sensor), y la capacidad de poder comunicarse digitalmente con dispositivos host para reportar varios parametros.

Un diagrama simplificado de un transmisor de presion "inteligente" se muestra en la siguiente figura:

Es importante darnos cuenta de todos los ajustes en este dispositivo, y como se puede comparar con la realitva simplicidad de un transmisor de presión analógico:

Demonos cuenta que la calibración de transmisores analógicos se hace mediante dos únicos ajustes que son el "zero" y el "span". Claramente este no es el caso de transmisores inteligentes. No solo podemos configurar los valores de rango bajo y alto (LVR y UVR) en un transmisor inteligente, sino que tambien es posible calibrar los conversores analogos-digitales y digitales-analógicos independientemente cada uno. Lo que esto significa es que para realizar una calibración de un transmisor inteligente el instrumentista requiere potencialmente realizar mas trabajo y un buena cantidad de ajustes que en los transmisores analógicos.

Un error común cometido por muchos estudiantes y tambien por instrumentistas experimentados es confundir la configuración de rangos (LVR y URV) para realizar una calibración real. Solo por que digitamos un valor de LRV en un transmisor de presión en 0.00 PSI y su URV en 100.00 PSI no quiere decir necesariamente que registrará con presición medidas en ese rango!. En el ejemplo siguiente explicaremos esta falencia.

Supongamos que tenemos un transmisor de presión inteligente rangueado de 0 a 100 PSI con una salida analógica de 4-20 mA, pero el sensor de este transmisor de presión presenta problemas de presición de sensado, quizas por un largo tiempo de uso, y cuando se le aplica una señal de entrada de 100 PSI genera una señal que el conversor analogo-digital solo la interpreta como 96 PSI. Asumiendo que todo lo demas en el transmisor esta en perfectas condiciones, con una perfecta calibracion, la señal de salida siempre tedrá un error.

Aqui podemos ver como la calibración mas sofisticada en un transmisor digital podría ser corrupta a pesar de realizar una pefecta calibración de los conversores análogos-digitales y digitales-análogos, y una perfecta configuración del rango en el procesador. El microprocesador "piensa" que la presión aplicada es de 96 PSI, y responde acorde con esa lectura y tiene una señal de salida de 19.36mA. La única manera que un instrumentista podría saber que este transmisor tiene una respuesta incorrecta a 100 PSI es en realidad aplicar un valor conocido de fluido de presión de 100 PSI en el sensor y darse cuenta de la respuesta incorrecta. La lección aqui debería ser clara: la configuración

...

Descargar como (para miembros actualizados) txt (6 Kb)
Leer 3 páginas más »
Disponible sólo en Clubensayos.com