Estadística en ingeniería: calidad y fiabilidad

El adagio “Lo que no se mide, no se conoce y no se puede mejorar” tiene plena vigencia en el ámbito de la calidad de los productos y servicios que, en la actualidad, son producidos y prestados por industrias, empresas y administraciones.  ¿Cómo gestionar y tomar las decisiones más adecuadas para una organización sin saber cómo evolucionan medidas e indicadores claves? El instinto y la experiencia, aun siendo cualidades útiles en la toma de decisiones,  son garantía, por sí solos, para la perpetuación de los mismos errores.

Hasta comienzos del siglo XX, la calidad dependía de los esfuerzos individuales de los artesanos. A partir de la organización de la producción en pequeñas tareas y la producción masiva, surge la preocupación por la calidad. Uno de las primeras aplicaciones de la estadística al control de calidad tuvo lugar en el contexto de la competencia entre dos marcas de cerveza: Ginnes y Carling. Afortunadamente para la primera, entre sus trabajadores dedicados a la mejora de la calidad se encontraba William Gosset. Sus trabajos no sólo fueron importantes para prolongar la frescura de la cerveza, sino que sirvieron para que, en 1908, introdujera la distribución t y el test t-student para el análisis estadístico de muestras pequeñas, una de las contribuciones más destacadas a la estadística en el siglo XX.

Al mismo tiempo, compañías como Ford y AT&T en Estados Unidos implementaron acciones para un control sistemático de la calidad.  El desarrollo de métodos estadísticos y su aplicación a la mejora de la calidad continuó ligada al estudio de situaciones reales. Así, por ejemplo,  Walter Shewhart, empleado de la compañía telefónica Bell,  diseña y aplica en 1924 los conocidos gráficos de control.

Todo producto (o servicio) posee un número de características que describen lo que un cliente o usuario considera como calidad. Un fabricante de electrodomésticos exigirá a su proveedor de láminas metálicas que estas posean un determinado grosor, resistencia, etc. Las unidades suministradas cumpliendo con estas especificaciones serán consideradas de calidad, mientras que aquellas que se alejen podrán llegar a ser descartadas. De este modo, la calidad de un producto se medirá como la adecuación de este con las especificaciones.

Una de las razones que dificulta proporcionar un producto o servicio de calidad es la variabilidad en los productos. Difícilmente dos productos, o servicios, son completamente idénticos. Debido a que el estudio de la variabilidad desde un punto científico corresponde a la estadística, esta juega un papel preponderante en la evaluación y en la mejora de la calidad. Se puede afirmar que la variabilidad es el principal enemigo de la calidad. Esta máxima rige la metodología para gestionar la calidad 6 sigma, que propugna una toma de decisiones basada en hechos y datos.

Un aspecto estrechamente relacionado con la calidad es la fiabilidad, que se puede definir como la calidad mantenida a lo largo del tiempo y se mide como una probabilidad. La fiabilidad del producto o servicio tiene una importancia vital y puede conferir una ventaja competitiva decisiva para la empresa. Un análisis riguroso de fiabilidad es imprescindible para el establecimiento de periodos de garantía de los productos y servicios. Los análisis de fiabilidad son tan importantes que, en ocasiones, han preocupado a dirigentes políticos y a la opinión pública en general.  Es el caso de los accidentes de los transbordadores espaciales Columbia y Challenger, que fueron estudiados por comisiones de investigación (¡de las de verdad!) y cuyos resultados provocaron cambios en la gestión de la fiabilidad y calidad de las misiones espaciales y, en general, de los programas espaciales de la NASA.

Por último, echemos un vistazo al futuro del control de calidad y, por extensión, al seguimiento y mejora de procesos. El uso creciente de nuevas tecnologías posibilita la recogida de datos en tiempo real y de un modo continuo. La ingente cantidad de datos generados requiere de nuevas metodologías y procedimientos estadísticos para ser tratados computacionalmente con eficacia. Sin duda, la edad de oro para la estadística ya ha comenzado.

 

Esta entrada ha sido elaborada por Fermín Mallor Giménez, catedrático de Estadística e Investigación Operativa del Departamento de Estadística, Informática y Matemáticas de la Universidad Pública de Navarra (UPNA) e investigador del Instituto de Smart Cities (ISC)

Generación eléctrica distribuida, donde las energías renovables y la economía se dan la mano

La tristemente famosa planta nuclear de Fukushima constaba de seis reactores nucleares (cuatro de ellos, de 786 MW). En la vecina China, la presa de las Tres Gargantas es la de mayor capacidad de producción eléctrica en el mundo gracias a 32 generadores de 700 MW. Las dos cantidades son sorprendentemente similares a pesar de tratarse de tecnologías muy distintas. ¿No tendría sentido construir menos generadores de mayor tamaño? ¿O utilizar un número mayor producido en serie? Es posible hacerlo. De hecho, hay generadores de diferentes tamaños adaptados a cada necesidad, pero la principal restricción es económica y no técnica. Se busca que la energía eléctrica sea lo más barata posible y eso define cuál es el tamaño de generador más eficiente. Economía y tecnología se dan la mano en un equilibrio inestable y siempre cambiante.

La historia de la producción eléctrica ha venido marcada por un aumento considerable en el tamaño de las instalaciones de producción y de las propias empresas eléctricas. Las razones son múltiples, y de larga explicación, pero podemos decir que tienen su origen en una combinación de rentabilidad económica y limitaciones técnicas. El rápido desarrollo de las energías renovables ha servido para revivir este proceso delante de nuestros ojos. Por ejemplo, el tamaño de los aerogeneradores lleva dos décadas creciendo en busca de un menor coste para la energía producida. Cada unidad tiene un precio mayor, pero queda compensado por el incremento en la capacidad productiva. Esto tiene otras consecuencias económicas y sociales. Se hace difícil pensar que un particular utilice la energía eólica para producir su propia electricidad. El tamaño óptimo, el que produce la energía más barata, es demasiado grande.

¿Se trata de un hecho inevitable? ¿Se van a reproducir las mismas formas de producción y comercialización de la energía que hemos heredado del siglo XX? Lo cierto es que aún no lo sabemos. En el campo de la energía eólica, hay propuestas novedosas como la de la empresa holandesa Vandebron. Esta firma actúa como intermediara entre pequeños productores locales y los consumidores. La producción procede, principalmente, de grandes aerogeneradores, distribuidos en pequeños parques de dos a cinco aerogeneradores, que son propiedad de granjeros locales. El uso de nuevas tecnologías de comunicación y control permite que los consumidores elijan a quien desean como productor.

Pero la tecnología más revolucionaria en esta área es la solar fotovoltaica. Un gran parque solar sigue teniendo algunas ventajas y permite una reducción de costes respecto a un panel individual. Sin embargo, esta reducción es muy inferior a la que encontramos en otras tecnologías. Sumando los costes de la red de transporte y distribución, la ventaja empieza a ser dudosa. El mismo razonamiento puede aplicarse al almacenamiento de energía en baterías, una tecnología emergente de creciente importancia. Los modelos de acumuladores para el hogar, propuestos por empresas como Tesla o Nissan, puede ser más interesantes que una gran instalación de almacenamiento centralizado. El proyecto más importante en este sentido es la Virtual Power Plant, una colaboración público-privada promovida en 2018 por la administración del estado de South Australia. El objetivo es instalar paneles solares de 5 KW junto con baterías de 13,5 kWh en, al menos, 50.000 viviendas. Con una capacidad total de 250 MW, se trataría de la mayor instalación de generación distribuida del mundo. Cuando esté en funcionamiento, se espera que produzca energía a un coste un 30% inferior al actual y que contribuya decisivamente a mantener la estabilidad en el suministro eléctrico a los consumidores, un problema que también existe en otras zonas como el norte de Navarra.

Es muy difícil, más bien imposible, hacer predicciones cuando la tecnología está avanzando tan rápidamente.  Sin embargo, podemos estar seguros de que los mismos mecanismos económicos del siglo XX siguen actuando hoy en día. Es muy probable, salvo barreras legales insalvables, que el modelo más económico y eficiente triunfe. Y es posible que la generación distribuida tenga una oportunidad de convertirse en ese modelo.

 

Esta entrada ha sido elaborada por Ambros Liceaga Elizalde, miembro de la Comisión Ejecutiva del Instituto de Smart Cities (ISC) de la Universidad Pública de Navarra (UPNA), donde trabaja como investigador

 

Probabilidad y el triste caso de Sally Clark

El 15 de marzo de 2007 murió Sally Clark, natural de Cheshire y abogada de 42 años, por un fallo cardíaco provocado por una excesiva ingesta de alcohol, después de haber sido acusada erróneamente de matar a sus dos hijos: Harry, de 8 semanas (muerto en 1988) y Christopher, de 11 semanas  de edad (muerto en 1996). Habían pasado cuatro años desde que fuera acusada de asesinato por asfixia de sus dos hijos. Fue juzgada en Inglaterra el 9 de noviembre de 1999.

En realidad, se trataba de la muerte súbita de dos bebés en una misma familia, situación calificada de altamente improbable por el tribunal de Chester que la juzgó a cadena perpetua con ocho votos a favor y dos en contra, ya que interpretó que, si la muerte súbita de un bebé es de 1/8543, la de dos bebés es 1/8543*1/8543 es decir de 1 entre 73 millones.  En aquella época, el número de nacimientos en Inglaterra, Gales y Escocia era de 700.000 nacimientos al año, por lo que la probabilidad de ocurrencia por azar de este suceso era de 1 cada 100 años.

Tres años después, fue puesta en libertad al revocarse la sentencia, que fue calificada de uno de los mayores errores judiciales de la historia moderna de Gran Bretaña. Era el error denominado como «prosecutor fallacy», es decir, el error probabilístico cometido en los juzgados por un falso razonamiento científico. En octubre de 2001, la Real  Sociedad Estadística Británica expresó públicamente su preocupación por el mal uso de la estadística en los juzgados. En enero de 2002, su presidente escribió a Lord Chancellor, ministro de la Corona, comunicándole su interés en replantear el uso adecuado de la evidencia estadística en el sistema judicial. Como consecuencia de ello, se revisó el caso.

Estudios posteriores pusieron en evidencia que la muerte del primer hijo de Sally fue provocada por una infección respiratoria y que la muerte de su segundo hijo se debió a una infección bacteriana. Pero para Sally fue demasiado tarde. Había pasado tres años en prisión. El error judicial consistió en interpretar que la muerte súbita de un bebé nada tenía que ver con la de su hermano, aunque fuese de la misma familia. Es decir, se interpretaron ambos sucesos como independientes, lo que llevó a pensar que era prácticamente imposible que ambas muertes fueran accidentales. Esta fue la interpretación que hizo el pediatra Sir Roy Meadow, ignorando que pudiera existir una correlación entre ambos sucesos, en cuyo caso cambiaría drásticamente la probabilidad de ocurrencia de muerte súbita.  Como consecuencia de su erróneo razonamiento, Roy Meadow fue eliminado del registro británico de médicos.

De hecho, el pediatra no conocía que, si existe algún defecto genético, la probabilidad de muerte súbita del segundo hermano habiendo sucedido la del primero, era  aproximadamente de 1 entre 100, por lo que la probabilidad de muerte súbita de los dos bebés era de 1/85000, es decir 86 veces superior a la inicialmente estimada. Esta estimación se debió a Ray Hill, un estadístico de la Universidad de Salford. Ray Hill concluyó que la probabilidad de dos muertes súbitas seguidas era entre 4,5 y 9 veces más probable que dos infanticidios seguidos.

El caso de Sally Clark no fue el único. Angela Cannings fue encausada por la muerte de dos de sus hijos, de los tres que habían fallecido por muerte súbita. En su juicio, no se utilizó explícitamente el razonamiento estadístico, aunque sí se dijo que la muerte súbita de los tres niños era muy muy rara. Afortunadamente, Angela también fue liberada en 2003 gracias a la investigación que se hizo de varias muertes súbitas acaecidas con sus mismas bisabuelas paternas y maternas.

Trupti Patel, una farmacéutica de origen paquistaní, fue igualmente condenada por la muerte de tres de sus hijos, cuando en realidad habían fallecido por muerte súbita.

Una muerte súbita es 17 veces más frecuente que un asesinato. Dos muertes súbitas son 9 veces más probables que dos asesinatos y tres muertes súbitas suceden solamente dos veces más que tres asesinatos, pero eso no significa que necesariamente tres muertes súbitas sean asesinatos.

La probabilidad refleja un grado de creencia de la ocurrencia de un suceso y, por pequeña que sea, siempre ha de tenerse en cuenta. Es ahí donde radica la calidad de un razonamiento científico.

Esta entrada ha sido elaborada por Ana Fernández Militino, catedrática del Departamento de Estadística, Informática y Matemáticas e investigadora del Instituto de Materiales Avanzados (InaMat) de la Universidad Pública de Navarra 

 

El trabajo forzado de cautivos en poder del Ejército sublevado durante la Guerra Civil y la posguerra

Los batallones de trabajos forzados organizados por los sublevados en la Guerra Civil y la posguerra se convirtieron en el mayor sistema de trabajos en cautividad de la España contemporánea. Nacieron como un modo de derivar parte del ingente número de prisioneros que desbordaban los depósitos y campos de concentración, y llegaron a incorporar a decenas de miles de personas (en 1939, estuvieron cerca de alcanzar los 100.000). Entre ellos, no solo hubo prisioneros de la Guerra Civil, sino que, una vez terminada la contienda, también se explotó de esta forma a jóvenes que debían realizar el servicio militar y fueron clasificados como “desafectos” al nuevo régimen y a parte de los sancionados por la Fiscalía de Tasas, que perseguía el estraperlo.

El origen del trabajo forzado en el sistema de campos de concentración se sitúa en 1937 con la creación de su principal institución impulsora: la Inspección de Campos de Concentración de Prisioneros de Guerra y fue progresivamente desapareciendo durante la primera mitad de la década de los 40.

Los trabajos forzados iban orientados, en unos casos, a las necesidades logísticas estrictamente bélicas (fortificaciones, apertura de trincheras, recuperación de material, intendencia…); en otros casos, cumplían necesidades militares (carreteras, puentes…) y, una vez acabada la guerra, quedaron para uso civil o directamente fueron “trabajos civiles” (labores agrícolas, repoblaciones, pantanos…).

El Estado fue el gran beneficiado de este sistema de trabajo, dado que el Ejército fue uno de los grandes empleadores, seguido de las autoridades civiles y, en menor medida, las empresas, eclesiásticos y particulares. Al tratarse de un recurso limitado, no se prestaba de forma ligera, ni mucho menos gratuita, y correspondía a Francisco Franco, desde el Cuartel General del Generalísimo, la decisión última sobre dónde serían empleados los cautivos y bajo qué condiciones. Las autoridades civiles, particulares, empresas y eclesiásticos debían pagar al Estado por el uso de los cautivos, además de darles techo y vigilarlos. No obstante, se beneficiaban porque obtenían mano de obra (entonces escasa) más barata, experimentada, disciplinada y profesionales con oficio.

Aunque queda pendiente el reto de conocer el número total de personas afectadas por el sistema de trabajos forzados, se ha podido contabilizar los volúmenes mensuales de mano de obra entre 1937 y 1945. Así, a comienzos de 1939, cerca de 250.000 cautivos estaban encerrados en campos de concentración (100.000 de ellos, derivados al trabajo forzado). El número de cautivos trabajadores no descendió de los 30.000 hasta 1942 y se mantuvo en cifras cercanas a los 50.000 hasta esa fecha. Hubo, al menos, 291 batallones de trabajo forzado, a los que se suman decenas de unidades que, sin la estructura de batallón, cumplieron funciones muy diversas durante la guerra, a disposición de los diferentes cuerpos del Ejército, regimientos, comandancias militares y otras entidades castrenses, así como fábricas militares y militarizadas.

Ha quedado un recuerdo de la experiencia subjetiva del trabajo forzado a través de las memorias y autobiografías de quienes experimentaron este tipo de explotación. Existen testimonios sobre la corrupción, los castigos físicos y psicológicos, las relaciones con la población civil y la situación de los cautivos, obligados a trabajar largas jornadas en condiciones climáticas y humanas que algunos ni siquiera habían vivido durante la guerra, en las que la humedad, el frío, los accidentes, las enfermedades o las agresiones físicas iban afectando a sus cuerpos.

 

Esta entrada ha sido elaborada por Juan Carlos García-Funes, licenciado en Historia, Máster en Historia Contemporánea y doctor por la UPNA con una tesis doctoral sobre los trabajos forzados durante la Guerra Civil y la posguerra españolas

Estadística y toma de decisiones en Economía

La Estadística tiene su origen en el desarrollo y uso de información numérica referida a los estados. De hecho, el término Estadística deriva de la palabra alemana “statistik”, que se utiliza para designar el análisis de datos estatales. Las principales decisiones de Política Económica (presupuestos, impuestos, pensiones…) se toman basándose en indicadores económicos que se han construido con información estadística.

Pensemos en dos de estos indicadores: el IPC (Índice de Precios de Consumo) y la tasa de paro. La evolución de estos indicadores se toma como referencia para disminuir la incertidumbre en la toma de decisiones de las autoridades públicas y de los principales agentes privados.

Por ejemplo, el índice de precios de consumo mide la evolución de los precios en un país o comunidad autónoma en un determinado periodo de tiempo. Para su elaboración, se observan las variaciones de precios de una serie de productos que constituyen la llamada “cesta de la compra”, que representa los hábitos de compra del consumidor promedio de ese país o comunidad. Su utilidad es indiscutible. Se emplea como referencia para fijar salarios en los convenios colectivos, para ajustar las pensiones públicas; para modificar los contratos de alquiler, etc.

El Instituto Nacional de Estadística informa de la tasa de variación mensual (variación de precios respecto al mes anterior) o la tasa interanual (variación de precios respecto del mismo mes un año antes). La primera tiene el inconveniente de que no informa de comportamientos estacionales, pudiendo dar a entender tendencias que no son tales, sino cambios puntuales debidos a la estacionalidad (por ejemplo, descenso de precios en el mes de enero, debido a las rebajas y no a una tendencia decreciente).

El índice interanual, por el contrario, refleja esa componente estacional, pero también oculta posibles cambios de tendencia que hayan sucedido durante el año. A veces, se interpreta de forma errónea y se considera que el IPC refleja la variación de precios que ha experimentado cada individuo en sus compras, cuando, en realidad, son valores promedio que tratan de representar el comportamiento conjunto, nunca individual. En el caso del IPC, cada uno de nosotros tenemos nuestra propia “cesta de la compra” y, si bien es cierto que hay  precios, como el de la gasolina, cuyas variaciones nos afectan a todos, también lo es que hay determinados bienes y servicios que nos afectan de distinta manera según sean las pautas de consumo que tengamos. Por ejemplo, las variaciones de precio de los servicios hoteleros solo afectarán a los individuos que utilicen esos servicios y soportarán una inflación distinta de aquellos que no los usan.

Respecto al otro indicador citado, la tasa de paro, se estima el número de parados como la diferencia entre la población activa (mayores de 16 años que trabajan o que buscan empleo) y la población ocupada (mayores de 16 años con empleo remunerado). En ocasiones, un aumento en el número de parados se interpreta como “destrucción de empleo” y, sin embargo, no tiene por qué ser así. El número de parados puede aumentar debido a un crecimiento de la población activa, a una disminución de la población ocupada o a ambas causas.

Las variaciones de este indicador son una referencia fundamental para la toma de decisiones de política económica, su aumento genera normalmente iniciativas ligadas a aumentar la inversión pública y favorecer el consumo privado para estimular la actividad e incrementar la producción. Se fomenta, también, el seguro de desempleo, para proteger a los ciudadanos que se han quedado sin trabajo.

En definitiva, el contar con estadísticas públicas fiables permite definir indicadores cuya evolución sirve como señal para intervenir en la economía. Los decisores públicos y privados, empresas y consumidores, los utilizan para tomar decisiones que afectan al conjunto de la sociedad. Saber interpretar correctamente los indicadores económicos es una tarea imprescindible para el buen gobierno de nuestra sociedad. La estadística afecta a nuestras vidas más de lo que podemos imaginar.

 

Esta entrada ha sido elaborada por Carmen García Olaverri, catedrática del Departamento de Estadística, Informática y Matemáticas e investigadora del Instituto INARBE (Institute for Advanced Research in Business and Economics) de la Universidad Pública de Navarra (UPNA)