Las nuevas tecnologías de información y telecomunicaciones, el cálculo distribuido en paralelo, la disminución de los costes de procesamiento y almacenaje de datos y el abaratamiento de los sensores está propiciando la aparición de un nuevo paradigma a nivel empresarial.

Se está multiplicando el número de empresas que son capaces de acceder a ingente información de su negocio, monitorizar en tiempo real sus procesos, obtener información valiosa de sus clientes, etc. El objetivo es claro: lograr una ventaja competitiva, ya sea por ahorro en costes, mejora de calidad del proceso/producto, mejora en la satisfacción del cliente, etcétera.

Sin embargo, la mejora tecnológica por sí sola no garantiza el éxito, es indispensable hacer un alarde de autocrítica y preguntarnos: ¿Estamos “exprimiendo” nuestros datos?

Un ejemplo real: la monitorización industrial de procesos

Por ejemplo, en la monitorización industrial de procesos se acomete una importante inversión en equipos de medición, servidores, licencias, etc. para lograr una infraestructura capaz de monitorizar miles de variables de proceso con una elevada frecuencia de muestreo. No obstante, en muchos casos se continúa utilizando el control estadístico tradicional que no es capaz de aprovechar el potencial de los datos obtenidos.

Tradicionalmente el control estadístico de procesos se ha basado en los gráficos de Shewhart, CUSUM, EWMA y enfoques derivados, para la monitorización de unas pocas variables clave de calidad y/o de proceso. Estos gráficos de control son muy útiles cuando se manejan unas pocas variables, ya que permiten detectar situaciones anormales y realizar una acción correctiva una vez detectada la posible desviación.

Sin embargo, ¿Qué ocurre con los procesos con cantidades masivas de datos almacenados como consecuencia de la alta frecuencia de muestreo y el gran número de variables? No tiene sentido tener cientos de gráficos monitorizando cada variable, el ojo humano no está preparado para ello.

Además, monitorizando individualmente cada variable no podemos observar las rupturas de correlación entre las mismas, que suele ser indicativo de un cambio en el proceso.

En este contexto, la monitorización multivariante de procesos es una eficiente herramienta estadística para el control de procesos, ya que reduce el número de gráficos de control a un par, a la vez que considera la totalidad de las variables. En esta línea, no es solo capaz de identificar que se ha producido una anomalía sino identificar cual o cuales variables son responsables de la misma, siendo una eficaz herramienta de diagnóstico.

El análisis multivariante también ayuda a entender mejor nuestros datos, ya que permite analizar los procesos complejos (muchas variables y muchas muestras) al mostrar mediante gráficos la relación entre individuos y la relación entre variables.

Como conclusión, en el contexto actual el abaratamiento en los sistemas de obtención y tratamiento de la información, ha “popularizado” la obtención de una ingente cantidad de información a nivel incluso de pequeñas y medianas empresas. Es una cuestión estratégica someter a revisión los procedimientos para “sacar jugo” a dicha información.

Como se señala en [1], [2] y en numerosos estudios. La eficacia de las herramientas de análisis multivariante está claramente contrastada. Perder ese tren implica una desventaja estratégica que no nos podemos permitir.

En futuros artículos hablaremos de esta poderosa herramienta aplicada a otros ámbitos no industriales.

[1] Nomikos, P. & MacGregor, J. F. Multivariate SPC charts for monitoring batch processes Technometrics, Taylor & Francis, 1995

[2] Ferrer, A. Multivariate statistical process control based on principal component analysis (MSPC-PCA): Some reflections and a case study in an autobody assembly process Quality Engineering, Taylor & Francis, 2007.