Suscríbete
Suscríbete
Cálculos en tiempo real y análisis de datos optimizan procesos sin la instalación de elementos físicos

Sensores virtuales: la nueva frontera de la monitorización industrial

Datos AEIoct24 123rf1
Los sensores virtuales revolucionan la monitorización industrial al ofrecer datos en tiempo real sin necesidad de dispositivos físicos, optimizando procesos y reduciendo costes en la Industria 4.0.
|

En la era de la industria 4.0, los sensores virtuales emergen como aquella tecnología que promete transformar la manera en que se monitorizan los procesos industriales. A diferencia de los sensores e instrumentos físicos tradicionales, los sensores virtuales utilizan modelos matemáticos y algoritmos avanzados para calcular variables de proceso en tiempo real, basándose en datos de otros sensores y sistemas. Esta capacidad de inferencia permite obtener información crítica sin la necesidad de instalar costosos y, en ocasiones, inviables dispositivos de medición en el campo.

 

Con las siguientes cinco preguntas, exploramos, de la mano de Schneider Electric y Emerson, el estado de los sensores virtuales, analizando sus principios de funcionamiento, las tecnologías subyacentes y las aplicaciones más destacadas.

 

PREGUNTAS

 

1. ¿Qué principios matemáticos y algoritmos se utilizan comúnmente en el desarrollo de sensores virtuales?

2. ¿Cómo se integran los sensores virtuales con los sistemas de control y monitoreo existentes en una planta industrial?

3. ¿Qué tipos de datos de entrada son necesarios para que un sensor virtual funcione correctamente?

4. ¿Cuáles son las aplicaciones más comunes de los sensores virtuales en la industria y qué beneficios específicos aportan?

5. ¿Qué avances recientes en inteligencia artificial y machine learning han influido en el desarrollo de sensores virtuales?

 

Absel Hernández Molina, Solution Architect en Schneider Electric

 

Absel Hernandez Schneider Electric
Absel Hernández Molina, Solution Architect en Schneider Electric.

1.- Tradicionalmente, se han usado modelos matemáticos basados en ecuaciones diferenciales y métodos estadísticos avanzados. Sin embargo, la tendencia actual es utilizar algoritmos de inteligencia artificial (IA) como redes neuronales y árboles de decisión, que están demostrando muy buenos resultados. Estos algoritmos de IA aprovechan el histórico de otras medidas del proceso para crear correlaciones que permiten inferir la lectura del sensor virtual, adaptándose a la naturaleza y complejidad de los datos. Para casos más simples también es posible el uso de regresiones lineales.

 

2.- La integración de un sensor virtual está condicionada por la arquitectura de sistemas existente y el posible acceso a soluciones basadas en la nube. Cuando es necesario implementar soluciones locales, lo habitual es instalar equipos en el Edge que ponen a disposición de los sistemas de control el resultado del sensor virtual. Los protocolos de comunicación suelen ser los habituales en la industria, como OPC, MQTT, Modbus, etc.

Por otra parte, cada vez es más frecuente desplegar modelos más complejos aprovechando la potencia disponible en la nube, brindando mayor rendimiento y precisión. Las aplicaciones de inteligencia artificial en la nube automatizan la recogida de datos, el análisis y mejora constante de los modelos de sensores virtuales, así como su ejecución, poniendo a disposición de otros sistemas la medida inferida. El resultado final puede ser consultado bajo demanda por los sistemas de supervisión y control mediante interfaces basadas en API Rest e implementando medidas de ciberseguridad para evitar exponerlos directamente a internet.

 

3.- Para el modelado de un sensor virtual, es esencial proporcionar datos de las medidas del proceso (digitales o analógicas) que tengan más correlación con el objetivo del sensor virtual. La detección del nivel de correlación puede hacerla tanto una persona experta en la materia concreta del proceso del sensor como automáticamente, determinando el propio sistema las medidas más adecuadas.
 

4.- Existen muchas aplicaciones, pero las más habituales aparecen en el ámbito de la calidad y la energía. En el caso de la calidad, los sensores simulan el resultado de un análisis del producto final en laboratorio. Esto permite disponer de la medida en tiempo real para la detección de incidencias en la producción, evitando posibles mermas y optimizando la rentabilidad. De forma análoga, en energía, se busca detectar aquellas desviaciones en el proceso que impliquen un mayor consumo energético, permitiendo actuar rápidamente y devolver el proceso a sus umbrales óptimos. En este caso, el sensor virtual modela el consumo energético del proceso.

En otros casos, el uso de sensores virtuales se debe a la imposibilidad de utilizar uno real. Por ejemplo, en minería es habitual su uso para predecir el tamaño del grano en los molinos, los cuales trituran rocas en un entorno demasiado abrupto para un sensor real. Las mediciones virtuales permiten mejorar el proceso, detectando anomalías que afecten la calidad final del producto.

 

5.- Los algoritmos basados en inteligencia artificial están experimentando un auge en los últimos años, principalmente por las mejoras en el campo del aprendizaje profundo (deep learning), pues permiten modelar sistemas muy complejos. Sin embargo, la verdadera revolución ha venido de la mano de la integración de las tecnologías de información y operaciones (IT/OT), permitiendo que las aplicaciones de operaciones, típicamente aisladas, utilicen de forma segura los recursos disponibles en las plataformas en la nube, democratizando el acceso a los mismos. Esto actúa como catalizador para desplegar modelos complejos sin necesidad de programación, aprovechando el conocimiento del proceso del usuario. Esta integración es fundamental, ya que no siempre es fácil acceder a científicos de datos con conocimientos específicos en cada industria para generar estos modelos de forma ágil.

Además, los modelos, cada vez más optimizados en lo que respecta a los requerimientos de la infraestructura, están permitiendo desplegar algoritmos cerca del proceso, en las propias instalaciones, convergiendo en arquitecturas habilitadas para el Edge Computing.


Rodolfo Oliveira, Technical Specialist Control and Performance, y Vicente Rios, Sales Manager Process Simulation, en Emerson

 

559 sensu00f3rica
Rodolfo Oliveira, Technical Specialist Control and Performance, y Vicente Rios, Sales Manager Process Simulation, de Emerson

1.- Desde los inicios de la tecnología de cálculo inferencial y su aplicación en el control de procesos, el PLS lineal (Partial Least Squares) y FPMs (First-Principles Models) se han utilizado ampliamente para determinar la relación entre las variables de proceso y sus propiedades inferidas, como la calidad o especificación del producto. En muchos casos, ambos métodos pueden cumplir con los requerimientos, siempre que el diseño del proceso y el histórico de datos hayan sido analizado cuidadosamente. Sin embargo, en situaciones donde existen no linealidades significativas relevantes, se emplean métodos más robustos para considerar desviaciones de la norma. Algunos ejemplos son:

 

  • Modelos PLS no lineales difusos
  • Modelos híbridos (combinados) de FMPs y de datos.
  • Modelos híbridos (combinados) de PLS lineal y redes neuronales (una red neuronal proporciona correcciones no lineales al modelo lineal).
  • Modelos de redes neuronales monótonas: se garantiza que la dirección de respuesta de la variable inferida frente a cualquier cambio en una variable independiente del modelo sea consistente en todos los puntos de operación.

 

Los algoritmos de redes neuronales pueden ser GRU (Gated Recurrent Unit) o LSTM (Long Short-Term Memory), por ejemplo. LSTM sobresale en la relación a largo plazo entre variables, y GRU puede procesar grandes volúmenes de datos de forma más rápida simplificando la estructura utilizada en LSTM.

Generalmente, se reduce a determinar qué método obtiene el mejor resultado, cuál será más fácil de actualizar cuando las condiciones del proceso cambian o hay un nuevo conjunto de datos que incluir. Dada la alta potencia computacional disponible hoy en día, los algoritmos pueden probarse con el mismo conjunto de datos.

 

2.- El cálculo se desarrolla y despliega en un servidor externo al DCS, para luego transferir el resultado al sistema de control a través de protocolos estándares como OPC o MODBUS.

Para ello, es necesario programar módulos específicos en el DCS que aporten tolerancia al fallo, como una alarma permanente que informe al operador de que la comunicación con el modelo se ha interrumpido. Actualmente, existen dos formas de implementación del cálculo inferencial en tiempo real:

  • Para la ayuda al operador en el ajuste manual de la planta
  • En combinación con una aplicación de tipo APC (Advanced Process Control)
     

La primera opción permite al operador determinar cómo un cambio en el proceso afecta la calidad del producto y actuar en consecuencia, ajustando manualmente las condiciones de la planta. Ofrece información adicional sobre la calidad del producto, pero requiriendo ajuste manual del sistema de control. También se pueden configurar alarmas que informen, por ejemplo, sobre productos fuera de especificación.

El APC permite no solo monitorear la planta en tiempo real, sino también controlar los puntos de ajuste para lograr la operación óptima, manteniendo la calidad del producto. Para realizar estas tareas, se utilizan cálculos inferenciales que predicen el perfil de calidad del producto. Los datos de laboratorio (si están disponibles) se utilizan para validar y actualizar el modelo inferencial.

 

3.- La recopilación y el análisis de datos son una de las tareas más importantes al crear un cálculo inferencial. Esta tarea, que parece sencilla, puede marcar la diferencia entre un buen o mal inferencial.

  • Realizar una investigación inicial para determinar todos los parámetros que afectan el inferencial y asegurarse de que se recopilen todos los datos relevantes.
  • Los datos deben ser representativos de todo el rango normal de operación del proceso. Si solo se usa un subconjunto específico, obtenido en condiciones muy particulares, el cálculo no será lo suficientemente robusto para manejar diferentes condiciones de proceso.
  • Es necesario eliminar los valores atípicos. Cualquier condición de proceso que haya resultado en una alteración de un resultado normal debe descartarse. Por ejemplo, un cierre de planta en una unidad aguas arriba puede causar una alteración en la calidad del producto. Estos eventos deben discriminarse o eliminarse.
  • Para inferenciales relacionados con la calidad del producto o datos de laboratorio, el método preferido para obtener los datos es un plan de campaña inferencial. En dicho plan se detalla:

◦ Cuándo el operador debe realizar un cambio en el proceso (por ejemplo, aumentar la entrada de producto).

◦ Cuándo tomar la muestra de laboratorio.

◦ Qué anotar cuando se toma la muestra (número de muestra, fecha, condiciones anormales, etc.).

◦ Cuánto tiempo debe transcurrir antes de realizar otro cambio en el proceso.

 

4.- El cálculo inferencial puede aportar mejoras significativas, especialmente cuando se utiliza junto a un sistema APC. Puede ayudar a optimizar el consumo energético y reducir los desvíos en la calidad del producto. El APC controlará continuamente la planta en su punto óptimo, utilizando el cálculo inferencial para mantener el producto dentro de las especificaciones.

Los cálculos inferenciales también pueden utilizarse para optimizar entornos en tiempo real, ya que aportan información valiosa para apoyar los procesos de toma de decisiones. Además, pueden supervisar parámetros críticos, verificar y probar diferentes escenarios de planta, convirtiéndose así en un factor importante para mejorar el funcionamiento del proceso.

 

5.- La utilización de modelos inferenciales de tipo GRU y LSTM en procesos con una alta no linealidad ha sido posible gracias a los avances en inteligencia artificial y las mejoras en la adquisición de datos. Los cálculos inferenciales se han vuelto así mucho más robustos, pudiendo incorporar una mayor cantidad de entradas al modelo que, de otro modo, habrían sido descartadas con modelos anteriores como el ya comentado PLS.

 

----

 

Este artículo aparece publicado en el nº 559 de Automática e Instrumentación págs. 48 a 51.

   El sensor MPB10 de SICK evita paradas no programadas mediante su sistema de monitorización y control para motores
   Advantech presenta sus sensores de tecnología LoRaWAN inalámbrica de la serie EVA-2000 para una monitorización ambiental de precisión

Comentarios

Guillem Peris Sener 2
Guillem Peris Sener 2
Sener

“La IA juega un papel fundamental en la optimización del consumo energético en la industria”

Ces pepperl 240916
Ces pepperl 240916
Pepperl+Fuchs

Ofrecen medición precisa y supervisión avanzada para optimizar la productividad

Tekniker Optimar 767x431
Tekniker Optimar 767x431
Tekniker

La iniciativa, financiada por el CDTI, busca optimizar la producción de energía offshore e integrar tecnología avanzada de IA y ciberseguridad

ABB Ability™ Awards Digitalización y Sostenibilidad
ABB Ability™ Awards Digitalización y Sostenibilidad
ABB

También a Carme Artigas, experta en big data e IA, por su visibilización y empoderamiento femenino en el liderazgo en el campo tecnológico.

ABB Ability™ Awards Digitalización y Sostenibilidad
ABB Ability™ Awards Digitalización y Sostenibilidad
ABB

También a Carme Artigas, experta en big data e IA, por su visibilización y empoderamiento femenino en el liderazgo en el campo tecnológico.

Foto Inauguracion DEX 1
Foto Inauguracion DEX 1
Siemens

Soluciones tecnológicas para una industria más ágil y adaptable

Rittal
Rittal
Rittal

Friedhelm Loh Group lo ha incorporado a su Consejo de Administración 

Revista Automática e Instrumentación
NÚMERO 559 // Octubre 2024

Empresas destacadas

Acepto recibir comunicaciones comerciales relacionadas con el sector.

REVISTA