Estadística en ingeniería: calidad y fiabilidad

El adagio “Lo que no se mide, no se conoce y no se puede mejorar” tiene plena vigencia en el ámbito de la calidad de los productos y servicios que, en la actualidad, son producidos y prestados por industrias, empresas y administraciones.  ¿Cómo gestionar y tomar las decisiones más adecuadas para una organización sin saber cómo evolucionan medidas e indicadores claves? El instinto y la experiencia, aun siendo cualidades útiles en la toma de decisiones,  son garantía, por sí solos, para la perpetuación de los mismos errores.

Hasta comienzos del siglo XX, la calidad dependía de los esfuerzos individuales de los artesanos. A partir de la organización de la producción en pequeñas tareas y la producción masiva, surge la preocupación por la calidad. Uno de las primeras aplicaciones de la estadística al control de calidad tuvo lugar en el contexto de la competencia entre dos marcas de cerveza: Ginnes y Carling. Afortunadamente para la primera, entre sus trabajadores dedicados a la mejora de la calidad se encontraba William Gosset. Sus trabajos no sólo fueron importantes para prolongar la frescura de la cerveza, sino que sirvieron para que, en 1908, introdujera la distribución t y el test t-student para el análisis estadístico de muestras pequeñas, una de las contribuciones más destacadas a la estadística en el siglo XX.

Al mismo tiempo, compañías como Ford y AT&T en Estados Unidos implementaron acciones para un control sistemático de la calidad.  El desarrollo de métodos estadísticos y su aplicación a la mejora de la calidad continuó ligada al estudio de situaciones reales. Así, por ejemplo,  Walter Shewhart, empleado de la compañía telefónica Bell,  diseña y aplica en 1924 los conocidos gráficos de control.

Todo producto (o servicio) posee un número de características que describen lo que un cliente o usuario considera como calidad. Un fabricante de electrodomésticos exigirá a su proveedor de láminas metálicas que estas posean un determinado grosor, resistencia, etc. Las unidades suministradas cumpliendo con estas especificaciones serán consideradas de calidad, mientras que aquellas que se alejen podrán llegar a ser descartadas. De este modo, la calidad de un producto se medirá como la adecuación de este con las especificaciones.

Una de las razones que dificulta proporcionar un producto o servicio de calidad es la variabilidad en los productos. Difícilmente dos productos, o servicios, son completamente idénticos. Debido a que el estudio de la variabilidad desde un punto científico corresponde a la estadística, esta juega un papel preponderante en la evaluación y en la mejora de la calidad. Se puede afirmar que la variabilidad es el principal enemigo de la calidad. Esta máxima rige la metodología para gestionar la calidad 6 sigma, que propugna una toma de decisiones basada en hechos y datos.

Un aspecto estrechamente relacionado con la calidad es la fiabilidad, que se puede definir como la calidad mantenida a lo largo del tiempo y se mide como una probabilidad. La fiabilidad del producto o servicio tiene una importancia vital y puede conferir una ventaja competitiva decisiva para la empresa. Un análisis riguroso de fiabilidad es imprescindible para el establecimiento de periodos de garantía de los productos y servicios. Los análisis de fiabilidad son tan importantes que, en ocasiones, han preocupado a dirigentes políticos y a la opinión pública en general.  Es el caso de los accidentes de los transbordadores espaciales Columbia y Challenger, que fueron estudiados por comisiones de investigación (¡de las de verdad!) y cuyos resultados provocaron cambios en la gestión de la fiabilidad y calidad de las misiones espaciales y, en general, de los programas espaciales de la NASA.

Por último, echemos un vistazo al futuro del control de calidad y, por extensión, al seguimiento y mejora de procesos. El uso creciente de nuevas tecnologías posibilita la recogida de datos en tiempo real y de un modo continuo. La ingente cantidad de datos generados requiere de nuevas metodologías y procedimientos estadísticos para ser tratados computacionalmente con eficacia. Sin duda, la edad de oro para la estadística ya ha comenzado.

 

Esta entrada ha sido elaborada por Fermín Mallor Giménez, catedrático de Estadística e Investigación Operativa del Departamento de Estadística, Informática y Matemáticas de la Universidad Pública de Navarra (UPNA) e investigador del Instituto de Smart Cities (ISC)

Generación eléctrica distribuida, donde las energías renovables y la economía se dan la mano

La tristemente famosa planta nuclear de Fukushima constaba de seis reactores nucleares (cuatro de ellos, de 786 MW). En la vecina China, la presa de las Tres Gargantas es la de mayor capacidad de producción eléctrica en el mundo gracias a 32 generadores de 700 MW. Las dos cantidades son sorprendentemente similares a pesar de tratarse de tecnologías muy distintas. ¿No tendría sentido construir menos generadores de mayor tamaño? ¿O utilizar un número mayor producido en serie? Es posible hacerlo. De hecho, hay generadores de diferentes tamaños adaptados a cada necesidad, pero la principal restricción es económica y no técnica. Se busca que la energía eléctrica sea lo más barata posible y eso define cuál es el tamaño de generador más eficiente. Economía y tecnología se dan la mano en un equilibrio inestable y siempre cambiante.

La historia de la producción eléctrica ha venido marcada por un aumento considerable en el tamaño de las instalaciones de producción y de las propias empresas eléctricas. Las razones son múltiples, y de larga explicación, pero podemos decir que tienen su origen en una combinación de rentabilidad económica y limitaciones técnicas. El rápido desarrollo de las energías renovables ha servido para revivir este proceso delante de nuestros ojos. Por ejemplo, el tamaño de los aerogeneradores lleva dos décadas creciendo en busca de un menor coste para la energía producida. Cada unidad tiene un precio mayor, pero queda compensado por el incremento en la capacidad productiva. Esto tiene otras consecuencias económicas y sociales. Se hace difícil pensar que un particular utilice la energía eólica para producir su propia electricidad. El tamaño óptimo, el que produce la energía más barata, es demasiado grande.

¿Se trata de un hecho inevitable? ¿Se van a reproducir las mismas formas de producción y comercialización de la energía que hemos heredado del siglo XX? Lo cierto es que aún no lo sabemos. En el campo de la energía eólica, hay propuestas novedosas como la de la empresa holandesa Vandebron. Esta firma actúa como intermediara entre pequeños productores locales y los consumidores. La producción procede, principalmente, de grandes aerogeneradores, distribuidos en pequeños parques de dos a cinco aerogeneradores, que son propiedad de granjeros locales. El uso de nuevas tecnologías de comunicación y control permite que los consumidores elijan a quien desean como productor.

Pero la tecnología más revolucionaria en esta área es la solar fotovoltaica. Un gran parque solar sigue teniendo algunas ventajas y permite una reducción de costes respecto a un panel individual. Sin embargo, esta reducción es muy inferior a la que encontramos en otras tecnologías. Sumando los costes de la red de transporte y distribución, la ventaja empieza a ser dudosa. El mismo razonamiento puede aplicarse al almacenamiento de energía en baterías, una tecnología emergente de creciente importancia. Los modelos de acumuladores para el hogar, propuestos por empresas como Tesla o Nissan, puede ser más interesantes que una gran instalación de almacenamiento centralizado. El proyecto más importante en este sentido es la Virtual Power Plant, una colaboración público-privada promovida en 2018 por la administración del estado de South Australia. El objetivo es instalar paneles solares de 5 KW junto con baterías de 13,5 kWh en, al menos, 50.000 viviendas. Con una capacidad total de 250 MW, se trataría de la mayor instalación de generación distribuida del mundo. Cuando esté en funcionamiento, se espera que produzca energía a un coste un 30% inferior al actual y que contribuya decisivamente a mantener la estabilidad en el suministro eléctrico a los consumidores, un problema que también existe en otras zonas como el norte de Navarra.

Es muy difícil, más bien imposible, hacer predicciones cuando la tecnología está avanzando tan rápidamente.  Sin embargo, podemos estar seguros de que los mismos mecanismos económicos del siglo XX siguen actuando hoy en día. Es muy probable, salvo barreras legales insalvables, que el modelo más económico y eficiente triunfe. Y es posible que la generación distribuida tenga una oportunidad de convertirse en ese modelo.

 

Esta entrada ha sido elaborada por Ambros Liceaga Elizalde, miembro de la Comisión Ejecutiva del Instituto de Smart Cities (ISC) de la Universidad Pública de Navarra (UPNA), donde trabaja como investigador

 

Estadística para la sociedad

Fermín Mallor Giménez, catedrático del Departamento de Estadística e Investigación Operativa de la Universidad Pública de Navarra (UPNA), donde es investigador del Instituto de Smart Cities (ISC), fue entrevistado hace unas semanas en la emisora de Onda Cero en Pamplona. Aquí tienes la entrevista completa.

En esta entrevista, este experto, que también es investigador del Instituto de Investigación Sanitaria de Navarra (IdiSNA), describió su trabajo de investigación, centrado en el análisis, la simulación y la optimización de sistemas complejos y sus aplicaciones a industria, energía y servicios.

La estadística y la matemática son herramientas que se utilizan para analizar los sistemas complejos. Estos se definen como aquellos que constan de diversos elementos relacionados entre sí, pero cuyas relaciones a veces no son bien comprendidas o producen resultados impredecibles para quien toma decisiones. Además, evolucionan en el tiempo de un modo cambiante y en contextos de incertidumbre donde no todos los factores del propio sistema y del entorno son conocidos.

Cualquier sistema real puede ser complejo. Por ejemplo, procesos de producción, sistemas de energías renovables o sistemas de salud lo son. Así, en el servicio de urgencias de un hospital, ningún día se sabe previamente el número de pacientes que van a llegar, con qué gravedad y patologías, qué medios se van a necesitar para atenderlos…

Gracias al análisis de estos sistemas complejos, el equipo de investigación dirigido por Fermín Mallor (DECYL-Datos, Estadística, Calidad y Logística) desarrolla herramientas cuantitativas de apoyo a la toma de decisiones. En el caso de Urgencias, por ejemplo, con técnicas estadísticas, se puede analizar cómo llegan esos pacientes. Es verdad que cada día son enfermos distintos, pero hay patrones repetitivos. Su equipo de investigación identifica el patrón de probabilidad con el fin de reproducirlo en un ordenador. Reproduce igualmente la atención que presta el personal sanitario, el flujo de los pacientes, los recursos utilizados… Y a partir de todo ello, se construyen modelos de simulación implementados en un ordenador, los cuales son útiles para determinar el efecto de cambios en el tamaño de la plantilla, en la afluencia de pacientes, en la disponibilidad de recursos, o para evaluar un nuevo modo de gestionar el servicio.

Cualquier decisión de mejora se puede probar con anticipación en un ordenador para conocer “a priori” sus consecuencias. Por ejemplo, cómo cambiaría la atención mediante la contratación de un médico más, o qué equipamiento sería más conveniente y dónde localizarlo… La finalidad de estos análisis: la mejora de los sistemas y su adecuación a las condiciones cambiantes. Se trata de buscar la calidad y la eficiencia de los sistemas: en otras palabras, hacer más y mejor con lo mismo, contribuyendo así a que el sistema sea sostenible.

El desarrollo de estas metodologías centradas en resolver problemas reales implica la utilización combinada de varias técnicas para para lograr una aproximación global a los problemas: el análisis de datos, la probabilidad, el modelado matemático, las técnicas clásicas de optimización, la inteligencia artificial, la simulación… Dichas metodologías son las que proporcionan el soporte para la toma de decisiones.

Dentro de un equipo multidisciplinar, los investigadores de la UPNA desarrollan técnicas y metodologías nuevas para analizar estos sistemas complejos en los contextos mencionados anteriormente. Actualmente, una de sus áreas prioritarias de trabajo es la sanitaria. De hecho, llevan varios años colaborando con el Complejo Hospitalario de Navarra (UCI, Servicio de Urgencias…). “Los sistemas de salud representan una oportunidad investigadora pues están inmersos en profundos cambios impulsados por la aplicación de las nuevas tecnologías y por la demanda creciente de una población cada vez más envejecida que requiere más y mejores servicios. La sostenibilidad de los servicios públicos va a depender del uso eficiente de los recursos asignados. En España, es escasa la aplicación del enfoque cuantitativo propuesto por nuestro grupo de investigación, aunque en países avanzados de nuestro entorno europeo sí lo es. Nuestro grupo se ha integrado en la comunidad científica europea con el fin de lograr nuestro empeño, que es introducir y desarrollar estas técnicas aquí para la mejora de nuestros servicios de salud”, asegura Fermín Mallor.

Este post ha sido editado por la Unidad de Cultura Científica (UCC) de la Universidad Pública de Navarra