1. ¿Qué principios matemáticos y algoritmos se utilizan comúnmente en el desarrollo de sensores virtuales?
2. ¿Cómo se integran los sensores virtuales con los sistemas de control y monitoreo existentes en una planta industrial?
3. ¿Qué tipos de datos de entrada son necesarios para que un sensor virtual funcione correctamente?
4. ¿Cuáles son las aplicaciones más comunes de los sensores virtuales en la industria y qué beneficios específicos aportan?
5. ¿Qué avances recientes en inteligencia artificial y machine learning han influido en el desarrollo de sensores virtuales?
1.- Tradicionalmente, se han usado modelos matemáticos basados en ecuaciones diferenciales y métodos estadísticos avanzados. Sin embargo, la tendencia actual es utilizar algoritmos de inteligencia artificial (IA) como redes neuronales y árboles de decisión, que están demostrando muy buenos resultados. Estos algoritmos de IA aprovechan el histórico de otras medidas del proceso para crear correlaciones que permiten inferir la lectura del sensor virtual, adaptándose a la naturaleza y complejidad de los datos. Para casos más simples también es posible el uso de regresiones lineales.
2.- La integración de un sensor virtual está condicionada por la arquitectura de sistemas existente y el posible acceso a soluciones basadas en la nube. Cuando es necesario implementar soluciones locales, lo habitual es instalar equipos en el Edge que ponen a disposición de los sistemas de control el resultado del sensor virtual. Los protocolos de comunicación suelen ser los habituales en la industria, como OPC, MQTT, Modbus, etc.
Por otra parte, cada vez es más frecuente desplegar modelos más complejos aprovechando la potencia disponible en la nube, brindando mayor rendimiento y precisión. Las aplicaciones de inteligencia artificial en la nube automatizan la recogida de datos, el análisis y mejora constante de los modelos de sensores virtuales, así como su ejecución, poniendo a disposición de otros sistemas la medida inferida. El resultado final puede ser consultado bajo demanda por los sistemas de supervisión y control mediante interfaces basadas en API Rest e implementando medidas de ciberseguridad para evitar exponerlos directamente a internet.
3.- Para el modelado de un sensor virtual, es esencial proporcionar datos de las medidas del proceso (digitales o analógicas) que tengan más correlación con el objetivo del sensor virtual. La detección del nivel de correlación puede hacerla tanto una persona experta en la materia concreta del proceso del sensor como automáticamente, determinando el propio sistema las medidas más adecuadas.
4.- Existen muchas aplicaciones, pero las más habituales aparecen en el ámbito de la calidad y la energía. En el caso de la calidad, los sensores simulan el resultado de un análisis del producto final en laboratorio. Esto permite disponer de la medida en tiempo real para la detección de incidencias en la producción, evitando posibles mermas y optimizando la rentabilidad. De forma análoga, en energía, se busca detectar aquellas desviaciones en el proceso que impliquen un mayor consumo energético, permitiendo actuar rápidamente y devolver el proceso a sus umbrales óptimos. En este caso, el sensor virtual modela el consumo energético del proceso.
En otros casos, el uso de sensores virtuales se debe a la imposibilidad de utilizar uno real. Por ejemplo, en minería es habitual su uso para predecir el tamaño del grano en los molinos, los cuales trituran rocas en un entorno demasiado abrupto para un sensor real. Las mediciones virtuales permiten mejorar el proceso, detectando anomalías que afecten la calidad final del producto.
5.- Los algoritmos basados en inteligencia artificial están experimentando un auge en los últimos años, principalmente por las mejoras en el campo del aprendizaje profundo (deep learning), pues permiten modelar sistemas muy complejos. Sin embargo, la verdadera revolución ha venido de la mano de la integración de las tecnologías de información y operaciones (IT/OT), permitiendo que las aplicaciones de operaciones, típicamente aisladas, utilicen de forma segura los recursos disponibles en las plataformas en la nube, democratizando el acceso a los mismos. Esto actúa como catalizador para desplegar modelos complejos sin necesidad de programación, aprovechando el conocimiento del proceso del usuario. Esta integración es fundamental, ya que no siempre es fácil acceder a científicos de datos con conocimientos específicos en cada industria para generar estos modelos de forma ágil.
Además, los modelos, cada vez más optimizados en lo que respecta a los requerimientos de la infraestructura, están permitiendo desplegar algoritmos cerca del proceso, en las propias instalaciones, convergiendo en arquitecturas habilitadas para el Edge Computing.
1.- Desde los inicios de la tecnología de cálculo inferencial y su aplicación en el control de procesos, el PLS lineal (Partial Least Squares) y FPMs (First-Principles Models) se han utilizado ampliamente para determinar la relación entre las variables de proceso y sus propiedades inferidas, como la calidad o especificación del producto. En muchos casos, ambos métodos pueden cumplir con los requerimientos, siempre que el diseño del proceso y el histórico de datos hayan sido analizado cuidadosamente. Sin embargo, en situaciones donde existen no linealidades significativas relevantes, se emplean métodos más robustos para considerar desviaciones de la norma. Algunos ejemplos son:
Los algoritmos de redes neuronales pueden ser GRU (Gated Recurrent Unit) o LSTM (Long Short-Term Memory), por ejemplo. LSTM sobresale en la relación a largo plazo entre variables, y GRU puede procesar grandes volúmenes de datos de forma más rápida simplificando la estructura utilizada en LSTM.
Generalmente, se reduce a determinar qué método obtiene el mejor resultado, cuál será más fácil de actualizar cuando las condiciones del proceso cambian o hay un nuevo conjunto de datos que incluir. Dada la alta potencia computacional disponible hoy en día, los algoritmos pueden probarse con el mismo conjunto de datos.
2.- El cálculo se desarrolla y despliega en un servidor externo al DCS, para luego transferir el resultado al sistema de control a través de protocolos estándares como OPC o MODBUS.
Para ello, es necesario programar módulos específicos en el DCS que aporten tolerancia al fallo, como una alarma permanente que informe al operador de que la comunicación con el modelo se ha interrumpido. Actualmente, existen dos formas de implementación del cálculo inferencial en tiempo real:
La primera opción permite al operador determinar cómo un cambio en el proceso afecta la calidad del producto y actuar en consecuencia, ajustando manualmente las condiciones de la planta. Ofrece información adicional sobre la calidad del producto, pero requiriendo ajuste manual del sistema de control. También se pueden configurar alarmas que informen, por ejemplo, sobre productos fuera de especificación.
El APC permite no solo monitorear la planta en tiempo real, sino también controlar los puntos de ajuste para lograr la operación óptima, manteniendo la calidad del producto. Para realizar estas tareas, se utilizan cálculos inferenciales que predicen el perfil de calidad del producto. Los datos de laboratorio (si están disponibles) se utilizan para validar y actualizar el modelo inferencial.
3.- La recopilación y el análisis de datos son una de las tareas más importantes al crear un cálculo inferencial. Esta tarea, que parece sencilla, puede marcar la diferencia entre un buen o mal inferencial.
◦ Cuándo el operador debe realizar un cambio en el proceso (por ejemplo, aumentar la entrada de producto).
◦ Cuándo tomar la muestra de laboratorio.
◦ Qué anotar cuando se toma la muestra (número de muestra, fecha, condiciones anormales, etc.).
◦ Cuánto tiempo debe transcurrir antes de realizar otro cambio en el proceso.
4.- El cálculo inferencial puede aportar mejoras significativas, especialmente cuando se utiliza junto a un sistema APC. Puede ayudar a optimizar el consumo energético y reducir los desvíos en la calidad del producto. El APC controlará continuamente la planta en su punto óptimo, utilizando el cálculo inferencial para mantener el producto dentro de las especificaciones.
Los cálculos inferenciales también pueden utilizarse para optimizar entornos en tiempo real, ya que aportan información valiosa para apoyar los procesos de toma de decisiones. Además, pueden supervisar parámetros críticos, verificar y probar diferentes escenarios de planta, convirtiéndose así en un factor importante para mejorar el funcionamiento del proceso.
5.- La utilización de modelos inferenciales de tipo GRU y LSTM en procesos con una alta no linealidad ha sido posible gracias a los avances en inteligencia artificial y las mejoras en la adquisición de datos. Los cálculos inferenciales se han vuelto así mucho más robustos, pudiendo incorporar una mayor cantidad de entradas al modelo que, de otro modo, habrían sido descartadas con modelos anteriores como el ya comentado PLS.
----
Este artículo aparece publicado en el nº 559 de Automática e Instrumentación págs. 48 a 51.
La fecha límite para la presentación de candidaturas es el 24 de enero de 2025
La iniciativa, financiada por el CDTI, busca optimizar la producción de energía offshore e integrar tecnología avanzada de IA y ciberseguridad
También a Carme Artigas, experta en big data e IA, por su visibilización y empoderamiento femenino en el liderazgo en el campo tecnológico.
También a Carme Artigas, experta en big data e IA, por su visibilización y empoderamiento femenino en el liderazgo en el campo tecnológico.
Comentarios