“Yo quiero ser científica”: vídeo sobre Ada Lovelace

El blog “Traductor de Ciencia” prosigue con la divulgación de la vida y obra de científicas del pasado con Ada Lovelace, la primera programadora de la historia. Es una de las protagonistas de la obra de teatro “Yo quiero ser científica”, en la que nueve  profesoras que imparten docencia en diferentes titulaciones de ingeniería de la Universidad Pública de Navarra (UPNA) rescatan la vida y la obra de mujeres científicas de siglos pasados.

La UPNA, con la colaboración de la Fundación Española para la Ciencia y la Tecnología (FECYT)-Ministerio de Ciencia, Innovación y Universidades, se suma a este homenaje a científicas del pasado, difundiendo vídeos desenfadados sobre sus vidas y obras, como el que aparece a continuación.

“Yo quiero ser científica”: vídeo sobre Maria Sibylla Merian

El blog “Traductor de Ciencia” continúa con su homenaje a científicas del pasado con Maria Sibylla Merian, la primera entomóloga experimental de la historia. Es una de las protagonistas de la obra de teatro “Yo quiero ser científica”, en la que nueve  profesoras que imparten docencia en diferentes titulaciones de ingeniería de la Universidad Pública de Navarra (UPNA) rescatan la vida y la obra de mujeres científicas de siglos pasados.

La UPNA, con la colaboración de la Fundación Española para la Ciencia y la Tecnología (FECYT)-Ministerio de Ciencia, Innovación y Universidades, se suma a este homenaje a científicas del pasado, difundiendo vídeos desenfadados sobre sus vidas y obras, como el que aparece a continuación.

“Yo quiero ser científica”: vídeo sobre Hipatia de Alejandría

Nueve profesoras que imparten docencia en diferentes titulaciones de ingeniería de la Universidad Pública de Navarra (UPNA) son las autoras e intérpretes de la obra de teatro titulada “Yo quiero ser científica”, en la que rescatan la vida y la obra de mujeres científicas de siglos pasados. La función busca dar visibilidad a mujeres científicas con el doble fin de revelar una parte de la historia de la ciencia poco o nada conocida y potenciar que las niñas puedan identificarse con figuras femeninas del ámbito científico y tecnológico, sirviéndoles así de inspiración.

La UPNA, con la colaboración de la Fundación Española para la Ciencia y la Tecnología (FECYT)-Ministerio de Ciencia, Innovación y Universidades, se suma a este homenaje a científicas del pasado, difundiendo vídeos desenfadados sobre sus vidas y obras. En este capítulo: Hipatia de Alejandría, la primera científica de la historia.

Ensayos clínicos, experimentos estadísticos

Las autoridades que controlan la distribución de los medicamentos deben estar convencidas de su calidad antes de autorizarlos. ¿Qué procedimientos científicos permiten asegurar que un medicamento es eficaz y que no va a producir efectos secundarios graves?

La legislación europea, mucho antes de que cualquier medicamento llegue a las farmacias, obliga a que un equipo de profesionales conteste a esa misma pregunta mediante un procedimiento bien regulado. Tras los obligados ensayos de laboratorio y preclínicos (en animales), este procedimiento contempla la realización de ensayos clínicos que, en el caso de medicamentos, son estudios realizados con seres humanos para determinar o confirmar su eficacia y su no toxicidad. El manual de buena práctica clínica prevé un plan estadístico para realizar el ensayo.

El ensayo que responde a la pregunta “¿Son los genéricos tan eficaces y seguros como los medicamentos de marca?” es un ejemplo paradigmático de experimento estadístico en ciencias de la salud.

En primer lugar, para realizar el ensayo, se toma un grupo de pacientes (muestra) y se asigna a una parte de ellos el medicamento de marca y a la otra parte, el genérico. El investigador observa las respuestas de los pacientes, por ejemplo, si se curan o el grado de mejoría en su enfermedad. Tengamos en cuenta que, ante una misma dosis de medicamento, las respuestas de los pacientes pueden resultar muy distintas o, como preferimos decir en estadística, dispersas o variables. Los procedimientos estadísticos permiten analizar esa variabilidad.

Después, el investigador compara los resultados obtenidos en la muestra con ambos medicamentos y llega a una conclusión sobre si son igualmente efectivos y seguros. Esta conclusión afecta a todos los pacientes, hayan participado o no en el experimento, ya que, si la Agencia Española de Medicamentos y Productos Sanitarios considera que el ensayo se ha realizado adecuadamente, la conclusión obtenida permitirá o no la comercialización del medicamento.

El procedimiento mediante el que se extienden las conclusiones procedentes de la muestra a todos los pacientes se denomina inferencia estadística. Pero hay un elemento más en los ensayos clínicos que los hace peculiares dentro de la estadística: la ética.

Antes de la Segunda Guerra Mundial, los medicamentos se consideraban buenos o malos según el dictamen realizado por un médico con prestigio entre sus colegas. Pero este procedimiento dejaba mucho espacio a la subjetividad. Además, las aberraciones realizadas por los nazis durante la contienda bélica en las investigaciones clínicas fueron desencadenantes de un acuerdo por el que, por encima del beneficio científico, estuviera la dignidad y el bienestar de los sujetos con los que se experimenta. Este acuerdo se plasmó en la denominada Declaración de Helsinki de la Asociación Médica Mundial en 1964. A ella queda sujeta, también por ley, la experimentación clínica mundial.

Las consideraciones éticas requieren que sea el paciente quien decida su participación en el ensayo tras ser informado de los posibles riesgos. También exigen que pueda abandonarlo en cualquier momento. Por otra parte, el equipo clínico debe valorar la aceptación o no de un paciente en el ensayo. Como consecuencia, la muestra no se escoge al azar entre todos los pacientes y esto conlleva cambios en los procedimientos estadísticos clásicos cuyo estudio constituye un campo amplio y muy actual de investigación.

En conclusión, los ensayos clínicos son, en gran medida, experimentos estadísticos de gran trascendencia por sus implicaciones en la salud. Las agencias estatales, mediante protocolos muy exigentes, vigilan las buenas prácticas clínicas entre las que se encuentran el plan estadístico y la supervisión de un comité ético. Es importante disponer de buenas técnicas estadísticas para que los ensayos clínicos consigan sus objetivos con más eficiencia, en menos tiempo y reduciendo en lo posible los riesgos para las personas que participan en ellos.

 

Esta entrada ha sido elaborada por José Antonio Moler Cuiral, profesor del Departamento de Estadística, Informática y Matemáticas e investigador en el Instituto de Smart Cities (ISC) de la Universidad Pública de Navarra (UPNA), y Fernando Plo Alastrué, profesor del Departamento de Métodos Estadísticos de la Universidad de Zaragoza

 

Gestión inteligente de tráfico en “smart cities”

La población humana presenta una clara tendencia a concentrarse en núcleos urbanos. Esta situación magnifica ciertos problemas que repercuten directamente en la calidad de vida de los habitantes de las ciudades, tales como la polución, el acceso de las personas a recursos y servicios, la congestión del tráfico, la seguridad y la movilidad de personas y mercancías, entre otros. Las “smart cities” pueden conjugar una serie de tecnologías, en continuo desarrollo, para contribuir a la resolución de dichos problemas. Algunas de las tecnologías más relevantes son los sensores ubicuos, capaces de suministrar información sobre magnitudes de interés; las comunicaciones, que permiten conectar multitud de dispositivos a Internet; los sistemas de ayuda a la decisión, para procesar los datos y asistir a usuarios, empresas y administraciones a tomar decisiones; los sistemas de control, que también procesan datos y permiten gobernar en tiempo real sistemas como el alumbrado inteligente o la red de semáforos; y los interfaces con los usuarios, que, en forma de aplicaciones para dispositivos móviles o paneles en la vía pública, suministran información de interés para la toma de decisiones.

La gestión inteligente del tráfico es un aspecto transversal en las “smart cities”, puesto que favorece la resolución de muchos de los problemas planteados, en el que pueden aplicarse las mencionadas tecnologías.

La congestión del tráfico puede paliarse por medio de la aplicación de los sistemas inteligentes de transporte. Se trata de una herramienta exitosa que combina diferentes tecnologías para recabar datos en tiempo real de personas, vehículos e infraestructuras, comunicarla a través de Internet, almacenarla y procesarla, informar a los usuarios y ayudarles en la toma de decisiones, así como controlar dispositivos automáticos de regulación del tráfico.

Entre los medios utilizados para recabar datos de los agentes involucrados en el tráfico en las ciudades y de las infraestructuras viarias, destacan las videocámaras y diferentes tipos de dispositivos como sensores piezoeléctricos, magnéticos, inductivos, de infrarrojos, de microondas, radar, acústicos, e incluso sistemas que detectan dispositivos móviles e inalámbricos activos en el interior de los vehículos.

También existen diferentes herramientas para la ayuda en la toma de decisiones relacionadas con la gestión de tráfico. En este sentido, merece destacarse el modelado, la simulación y la optimización. Hay diferentes tipologías de simuladores de tráfico: desde los microscópicos, que analizan el comportamiento de agentes individuales, hasta los macroscópicos, donde el comportamiento del tráfico es simulado en su conjunto, pasando por los mesoscópicos, que combinan características de ambos tipos. Este rango de técnicas de simulación permite elegir el nivel de detalle en la simulación, la precisión de los resultados y el tiempo de cómputo necesario para completar una simulación.

Como aplicaciones de dichos simuladores, es posible estimar el efecto, en el tráfico en “smart cities”, de decisiones como la peatonalización de ciertas calles, la instalación de nuevos semáforos, la realización de trabajos viales o los cambios en el sentido de circulación de ciertas vías. Además, las empresas logísticas se benefician, porque pueden evaluar el éxito de diferentes estrategias de distribución, número y tipología de los vehículos disponibles o la elección de diferentes políticas de almacenamiento de producto o de mantenimiento de vehículos.

Entre las aplicaciones de los sistemas inteligentes de transporte, existen varias que presentan una contrastada influencia en la gestión de tráfico en ciudades inteligentes. Por ejemplo, la posibilidad de aplicar automáticamente sanciones por incumplimiento de las normas de circulación, tales como invadir carriles reservados, pisar una línea continua, incumplir una señal de stop o saltarse un semáforo en rojo. Cámaras con reconocimiento facial y de matrículas permiten identificar el vehículo y el conductor infractor.

Asimismo, se pueden destacar otras tecnologías relacionadas con la gestión del tráfico en “smart cities”: los paneles viales, que ofrecen datos de congestión de tráfico en vías próximas y tiempos estimados de tránsito; los semáforos con reprogramación centralizada, que permiten adaptar su temporización en tiempo real para dar prioridad a los carriles más congestionados o facilitar el paso de vehículos de emergencia; las aplicaciones para móviles que informan a los conductores sobre la localización de plazas de aparcamiento libres o que presentan una elevada probabilidad de estar libres en función de un histórico de datos, la hora del día o meteorología; la generación de alertas sobre peligros o catástrofes inminentes, así como la colaboración con los servicios de emergencia y la evacuación de zonas en riesgo.

Dentro del ámbito de la gestión inteligente del tráfico, existen otras tecnologías aún en desarrollo como las comunicaciones entre vehículos y entre vehículos y la infraestructura vial, a través de Internet. Por ejemplo, vehículos dotados de esta tecnología podrán transmitir a otros próximos datos sobre su posición, velocidad, aceleración y trayectoria estimada. De esta forma, los coches podrán generar alertas de riesgo de colisión en condiciones de escasa visibilidad por obstáculos, ángulos muertos o meteorología adversa.

Además, los vehículos podrán comunicar a la infraestructura vial datos sobre su posición y velocidad, incidencias en la conducción, o los aparcamientos que se ocupen. Así, se podrán generar datos precisos sobre el nivel de ocupación de las vías, avisar a otros usuarios sobre las incidencias encontradas o almacenar datos históricos sobre el nivel de ocupación de los aparcamientos que mejoren la previsión de ocupación en el futuro para informar a los potenciales usuarios.

Por otra parte, los vehículos podrán recibir de la infraestructura vial información sobre el nivel de congestión de las vías en tiempo real, así como sugerencias de rutas alternativas coordinadas con las propuestas a otros conductores para evitar congestionar también estas rutas alternativas, que podrían ser de menor capacidad. También se informará a los vehículos de plazas de aparcamiento libres o con elevada probabilidad de estarlo. Los conductores recibirán alertas sobre semáforos o señales viales, evitando infracciones por despiste, sobre la presencia de peatones en la calzada, accidentes o incidencias e, incluso, recomendaciones de velocidad específicas para cada vehículo.

Otra tecnología en desarrollo es la de los vehículos de conducción autónoma, entre cuyas ventajas futuras se pueden citar una mayor seguridad, mejor ocupación de la vía, menor probabilidad de embotellamientos y, posiblemente, una reducción en el estrés de los ocupantes.

 

Esta entrada ha sido elaborada por Ignacio Latorre Biel, profesor del Departamento de Ingeniería en el campus de Tudela de la Universidad Pública de Navarra (UPNA) e investigador en el Instituto de Smart Cities (ISC)

Energías renovables y baterías de litio

El funcionamiento del sistema eléctrico tradicional se basa en una generación centralizada mediante grandes centrales, como son las nucleares, hidráulicas, de gas natural y de carbón. Esta electricidad se transporta mediante redes de alta tensión hasta los centros de consumo, situados en las ciudades y polígonos industriales, con objeto de producir bienes, desarrollar la actividad de comercios y empresas y suministrar energía a los hogares. El buen funcionamiento y la fiabilidad de este sistema eléctrico tradicional son indiscutibles. Sin embargo, al estar basado principalmente en combustibles fósiles y nucleares, dicho sistema no puede considerarse sostenible.

Las energías renovables son herramientas clave que van a permitir un cambio en este paradigma energético. Estas tecnologías rompen con las economías de escala que incentivaban la construcción de grandes plantas de generación eléctrica, permitiendo así la instalación de pequeñas centrales cercanas a los puntos de consumo y reduciendo, de esta forma, la necesidad de redes de alta tensión. Esta menor necesidad de redes de transporte eléctrico cobra especial relevancia si se tiene en cuenta el notable aumento en el consumo eléctrico que supondrá la inminente llegada de la movilidad eléctrica que, de otra manera, requeriría una importante inversión en redes de transporte eléctrico. A nivel económico, las renovables ya son competitivas al haber alcanzado un precio inferior a la generación eléctrica convencional, tal y como lo demuestran los 8.737 MW (megavatios) renovables sin prima adjudicados durante el año 2017 en España. Superado el reto económico, los siguientes desafíos de las renovables son su almacenamiento y gestión.

La amplia variedad de sistemas de almacenamiento, desde grandes centrales de bombeo hidráulico hasta pequeñas baterías para teléfonos móviles, ofrece un interesante abanico de posibilidades. En un escenario de generación descentralizada, merecen especial atención los sistemas de almacenamiento locales destinados a conseguir una adaptación perfecta entre la generación local (poco gestionable por ser de origen renovable) y el consumo, que tampoco se puede gestionar al antojo de frentes de nubes o rachas de viento. Este es el terreno de las baterías, sistemas de almacenamiento que se pueden instalar en los puntos de la red eléctrica donde sean más necesarios. Existen diversos tipos de baterías, aunque son las de plomo−ácido las más utilizadas hasta hace pocos años debido a su bajo coste.

Recientemente, ha tomado fuerza un feroz competidor del plomo en la fabricación de baterías: el litio, el metal más pequeño y ligero de la tabla periódica. Las baterías de iones de litio presentan mejores prestaciones que las de plomo−ácido en cuanto a tiempo de vida y eficiencia. La tecnología de las baterías de litio cuenta ya con una trayectoria comercial de casi tres décadas, en la que su espectacular desarrollo ha hecho que las baterías actuales y las que se desarrollaban hace pocos años sólo tengan en común su elemento portador de carga: el litio.

Las primeras baterías de litio se pusieron en el mercado a principios de la década de los 90 y se utilizaban para ordenadores portátiles, teléfonos, etc. El conocimiento adquirido y las mejoras tecnológicas realizadas durante las décadas de los 90 y los 2000, unidos a las posibilidades de abaratamiento detectadas en este tipo de baterías, han hecho que los fabricantes de vehículos eléctricos (bicicletas, ciclomotores, patinetes, coches, autobuses urbanos, etc.) se hayan inclinado, de forma prácticamente unánime, por diferentes tipos de baterías de litio. La curva de aprendizaje y las economías de escala derivadas de esta decidida apuesta están dando lugar a una rápida reducción de costes.

En concreto, la Agencia Internacional de la Energía pone números a esta tendencia. En un estudio publicado en 2017, esta agencia constata una reducción en el coste de fabricación de baterías de litio desde 860 euros por kWh (kilovatio/hora) en 2008 hasta 215 euros por kWh (kilovatio/hora) en 2016, lo que se traduce en una reducción de costes del 75% en solo ocho años. Esto significa que el coste de fabricación de una buena batería para un hogar (3 kWh) es de 645 euros. El precio de venta suele ser algo más alto, superando normalmente los 2.000 euros.

A día de hoy, desde el sector de las energías renovables se ve a las baterías de litio como la solución para su principal problema: la gestión de la energía generada. Sin embargo, el coste de estas baterías produce una reducción en la rentabilidad económica de las instalaciones renovables. Por ello, cada vez hay más fábricas de baterías de litio a nivel mundial (entre las que destacan las llamadas gigafábricas), compitiendo por conseguir producir la batería más barata y con mejores prestaciones del mercado. Se está planteando también una interesante opción que consiste en instalar, en plantas de generación renovable, baterías desechadas de coches eléctricos, cuyo precio es bastante menor que el de una batería nueva, a pesar de que sus prestaciones no sean tan buenas.

En este contexto es fundamental saber seleccionar para cada aplicación la mejor batería que ofrece el mercado, elegir el tamaño más conveniente y gestionarla de tal forma que se le saque el máximo partido, pero sin que ocurra lo que a menudo sucede con las baterías de los teléfonos móviles: el hecho de que, un año después de estrenarlos, la batería ya está en sus últimos días de vida.

 

Esta entrada ha sido elaborada por Alberto Berrueta Irigoyen, profesor del Departamento de Ingeniería Eléctrica, Electrónica y de Comunicación e investigador en el Instituto de Smart Cities (ISC) de la Universidad Pública de Navarra (UPNA)

Una herramienta para medir el abuso de poder en los Servicios Sociales

El compromiso ético de las trabajadoras y los trabajadores sociales es su principal seña de identidad. Por ello, son capaces de diferenciar el paternalismo positivo del paternalismo negativo. El paternalismo negativo es ese que se prohíbe en su código deontológico y que consiste en hacer el bien a la persona usuaria sin tener en cuenta en ningún caso qué opina sobre su bienestar (“lo hago por tu bien, pero sin tenerte en cuenta”). En cambio, el paternalismo positivo es aquel que es permitido a las y los profesionales por código deontológico y que consiste en priorizar el bienestar de la persona usuaria a su autonomía en los supuestos indicados en él.

Efectivamente, en la mayoría de sus intervenciones sociales, las y los profesionales eran capaces de identificar esos dos tipos de fenómenos: paternalismo positivo y paternalismo negativo. Pero, a través de diferentes investigaciones, constatamos que tenían dificultades para identificar los diferentes tipos de abusos de poder en los que podían incurrir en cada una de esas categorías. Por ese motivo, ideamos la Escala de Violencia a la Persona Usuaria (EVU) para facilitar la identificación de toda esa gama de comportamientos que van desde el paternalismo más negativo al más positivo.

La escala contempla diferentes tipos de comportamiento que van desde la mala praxis al comportamiento moral por excelencia. Posee dos extremos: la violencia paternalista y la violencia antipaternalista. La primera se refiere al comportamiento profesional en el que únicamente se vela por hacer el bien a la persona usuaria, prescindiendo de prestar atención a su decisión autónoma. Por su parte, la violencia antipaternalista se sitúa en el extremo opuesto: se le da prioridad a la decisión autónoma de la persona usuaria sin tener en cuenta las consecuencias que ello vaya a tener para su bienestar.

Estos dos extremos, que van desde la imposición a la dejadez de las y los profesionales, son los comportamientos de mayor virulencia en la escala.

Con un rango de virulencia menor, le siguen la violencia metafísica paternalista y la violencia metafísica antipaternalista. La violencia metafísica se refiere a la predisposición cognitiva que las y los profesionales tienen al abuso de poder. Así, la violencia metafísica paternalista es la que nos predispone a la violencia paternalista y la violencia metafísica antipaternalista a la violencia antipaternalista. Es decir, cuando pensamos en dar prioridad exclusiva al principio de bienestar, nos referiríamos a la violencia metafísica paternalista y, cuando pensamos en dar prioridad únicamente al principio de autonomía, estaríamos hablando de violencia metafísica antipaternalista.

Los siguientes grados de la escala son el paternalismo benigno y el antipaternalismo benigno. El calificativo de benigno se refiere a que son comportamientos paternalistas o antipaternalistas permitidos en el código deontológico de la profesión. Es decir, el paternalismo benigno consiste en dar prioridad al bienestar de la persona usuaria prescindiendo de su decisión autónoma, basándonos en los supuestos indicados en el código deontológico. En cambio, en el extremo opuesto, el antipaternalismo benigno daría prioridad a la autonomía de la persona usuaria sin prestar atención a su bienestar, siguiendo los supuestos señalados en el código.

Por último, el no paternalismo es el comportamiento ético por excelencia al que todas y todos los profesionales debemos aspirar y consiste en velar por el bienestar de la persona usuaria teniendo en cuenta su decisión autónoma.

Para conocer el grado de abuso de poder en el que tienden a incurrir las y los profesionales, ideamos el Cuestionario de Violencia a la persona Usuaria (C-IVU). El C-IVU permite identificar la tendencia de cada profesional de un modo sencillo. Se responde a las diferentes afirmaciones del cuestionario a través de una escala Likert, se suman las puntuaciones dadas a cada una de tales afirmaciones y se divide en cada categoría, según se indica en la plantilla en la que se realiza el cómputo final. Así, la puntuación más elevada es la que da cuenta de la tendencia principal del profesional.

La herramienta es fundamental en la formación ética de las y los profesionales, así como para el asesoramiento llevado a cabo por los Comités de Ética y las Comisiones Deontológicas, ya que permite concienciar al colectivo sobre el abuso de poder en el que pueden incurrir. El C-IVU ha sido diseñado y nuevamente validado en la Universidad Pública de Navarra (Revista de Treball Social, 2018, nº 212, “Reflexiones sobre Trabajo Social y Poder”, pp. 95-114) y busca sensibilizar a las trabajadoras y los trabajadores sociales sobre la importancia de la formación ética y deontológica para el logro de la excelencia profesional.

Esta investigación, pionera en España, ha sido financiada por el Ministerio de Economía y Competitividad del Gobierno central y se prevé la creación y desarrollo de una aplicación que posibilite la medición del abuso de poder de cada profesional desde cualquier dispositivo tecnológico.

 

Esta entrada ha sido realizada por Francisco Idareta Goldaracena, investigador del Departamento de Sociología y Trabajo Social, presidente de la Comisión Deontológica del Consejo General del Trabajo Social y autor de la “Escala de Violencia a la persona Usuaria” (EVU) y del “Cuestionario de Violencia a la persona Usuaria” (C-IVU)

Estadística en ingeniería: calidad y fiabilidad

El adagio “Lo que no se mide, no se conoce y no se puede mejorar” tiene plena vigencia en el ámbito de la calidad de los productos y servicios que, en la actualidad, son producidos y prestados por industrias, empresas y administraciones.  ¿Cómo gestionar y tomar las decisiones más adecuadas para una organización sin saber cómo evolucionan medidas e indicadores claves? El instinto y la experiencia, aun siendo cualidades útiles en la toma de decisiones,  son garantía, por sí solos, para la perpetuación de los mismos errores.

Hasta comienzos del siglo XX, la calidad dependía de los esfuerzos individuales de los artesanos. A partir de la organización de la producción en pequeñas tareas y la producción masiva, surge la preocupación por la calidad. Uno de las primeras aplicaciones de la estadística al control de calidad tuvo lugar en el contexto de la competencia entre dos marcas de cerveza: Ginnes y Carling. Afortunadamente para la primera, entre sus trabajadores dedicados a la mejora de la calidad se encontraba William Gosset. Sus trabajos no sólo fueron importantes para prolongar la frescura de la cerveza, sino que sirvieron para que, en 1908, introdujera la distribución t y el test t-student para el análisis estadístico de muestras pequeñas, una de las contribuciones más destacadas a la estadística en el siglo XX.

Al mismo tiempo, compañías como Ford y AT&T en Estados Unidos implementaron acciones para un control sistemático de la calidad.  El desarrollo de métodos estadísticos y su aplicación a la mejora de la calidad continuó ligada al estudio de situaciones reales. Así, por ejemplo,  Walter Shewhart, empleado de la compañía telefónica Bell,  diseña y aplica en 1924 los conocidos gráficos de control.

Todo producto (o servicio) posee un número de características que describen lo que un cliente o usuario considera como calidad. Un fabricante de electrodomésticos exigirá a su proveedor de láminas metálicas que estas posean un determinado grosor, resistencia, etc. Las unidades suministradas cumpliendo con estas especificaciones serán consideradas de calidad, mientras que aquellas que se alejen podrán llegar a ser descartadas. De este modo, la calidad de un producto se medirá como la adecuación de este con las especificaciones.

Una de las razones que dificulta proporcionar un producto o servicio de calidad es la variabilidad en los productos. Difícilmente dos productos, o servicios, son completamente idénticos. Debido a que el estudio de la variabilidad desde un punto científico corresponde a la estadística, esta juega un papel preponderante en la evaluación y en la mejora de la calidad. Se puede afirmar que la variabilidad es el principal enemigo de la calidad. Esta máxima rige la metodología para gestionar la calidad 6 sigma, que propugna una toma de decisiones basada en hechos y datos.

Un aspecto estrechamente relacionado con la calidad es la fiabilidad, que se puede definir como la calidad mantenida a lo largo del tiempo y se mide como una probabilidad. La fiabilidad del producto o servicio tiene una importancia vital y puede conferir una ventaja competitiva decisiva para la empresa. Un análisis riguroso de fiabilidad es imprescindible para el establecimiento de periodos de garantía de los productos y servicios. Los análisis de fiabilidad son tan importantes que, en ocasiones, han preocupado a dirigentes políticos y a la opinión pública en general.  Es el caso de los accidentes de los transbordadores espaciales Columbia y Challenger, que fueron estudiados por comisiones de investigación (¡de las de verdad!) y cuyos resultados provocaron cambios en la gestión de la fiabilidad y calidad de las misiones espaciales y, en general, de los programas espaciales de la NASA.

Por último, echemos un vistazo al futuro del control de calidad y, por extensión, al seguimiento y mejora de procesos. El uso creciente de nuevas tecnologías posibilita la recogida de datos en tiempo real y de un modo continuo. La ingente cantidad de datos generados requiere de nuevas metodologías y procedimientos estadísticos para ser tratados computacionalmente con eficacia. Sin duda, la edad de oro para la estadística ya ha comenzado.

 

Esta entrada ha sido elaborada por Fermín Mallor Giménez, catedrático de Estadística e Investigación Operativa del Departamento de Estadística, Informática y Matemáticas de la Universidad Pública de Navarra (UPNA) e investigador del Instituto de Smart Cities (ISC)

Generación eléctrica distribuida, donde las energías renovables y la economía se dan la mano

La tristemente famosa planta nuclear de Fukushima constaba de seis reactores nucleares (cuatro de ellos, de 786 MW). En la vecina China, la presa de las Tres Gargantas es la de mayor capacidad de producción eléctrica en el mundo gracias a 32 generadores de 700 MW. Las dos cantidades son sorprendentemente similares a pesar de tratarse de tecnologías muy distintas. ¿No tendría sentido construir menos generadores de mayor tamaño? ¿O utilizar un número mayor producido en serie? Es posible hacerlo. De hecho, hay generadores de diferentes tamaños adaptados a cada necesidad, pero la principal restricción es económica y no técnica. Se busca que la energía eléctrica sea lo más barata posible y eso define cuál es el tamaño de generador más eficiente. Economía y tecnología se dan la mano en un equilibrio inestable y siempre cambiante.

La historia de la producción eléctrica ha venido marcada por un aumento considerable en el tamaño de las instalaciones de producción y de las propias empresas eléctricas. Las razones son múltiples, y de larga explicación, pero podemos decir que tienen su origen en una combinación de rentabilidad económica y limitaciones técnicas. El rápido desarrollo de las energías renovables ha servido para revivir este proceso delante de nuestros ojos. Por ejemplo, el tamaño de los aerogeneradores lleva dos décadas creciendo en busca de un menor coste para la energía producida. Cada unidad tiene un precio mayor, pero queda compensado por el incremento en la capacidad productiva. Esto tiene otras consecuencias económicas y sociales. Se hace difícil pensar que un particular utilice la energía eólica para producir su propia electricidad. El tamaño óptimo, el que produce la energía más barata, es demasiado grande.

¿Se trata de un hecho inevitable? ¿Se van a reproducir las mismas formas de producción y comercialización de la energía que hemos heredado del siglo XX? Lo cierto es que aún no lo sabemos. En el campo de la energía eólica, hay propuestas novedosas como la de la empresa holandesa Vandebron. Esta firma actúa como intermediara entre pequeños productores locales y los consumidores. La producción procede, principalmente, de grandes aerogeneradores, distribuidos en pequeños parques de dos a cinco aerogeneradores, que son propiedad de granjeros locales. El uso de nuevas tecnologías de comunicación y control permite que los consumidores elijan a quien desean como productor.

Pero la tecnología más revolucionaria en esta área es la solar fotovoltaica. Un gran parque solar sigue teniendo algunas ventajas y permite una reducción de costes respecto a un panel individual. Sin embargo, esta reducción es muy inferior a la que encontramos en otras tecnologías. Sumando los costes de la red de transporte y distribución, la ventaja empieza a ser dudosa. El mismo razonamiento puede aplicarse al almacenamiento de energía en baterías, una tecnología emergente de creciente importancia. Los modelos de acumuladores para el hogar, propuestos por empresas como Tesla o Nissan, puede ser más interesantes que una gran instalación de almacenamiento centralizado. El proyecto más importante en este sentido es la Virtual Power Plant, una colaboración público-privada promovida en 2018 por la administración del estado de South Australia. El objetivo es instalar paneles solares de 5 KW junto con baterías de 13,5 kWh en, al menos, 50.000 viviendas. Con una capacidad total de 250 MW, se trataría de la mayor instalación de generación distribuida del mundo. Cuando esté en funcionamiento, se espera que produzca energía a un coste un 30% inferior al actual y que contribuya decisivamente a mantener la estabilidad en el suministro eléctrico a los consumidores, un problema que también existe en otras zonas como el norte de Navarra.

Es muy difícil, más bien imposible, hacer predicciones cuando la tecnología está avanzando tan rápidamente.  Sin embargo, podemos estar seguros de que los mismos mecanismos económicos del siglo XX siguen actuando hoy en día. Es muy probable, salvo barreras legales insalvables, que el modelo más económico y eficiente triunfe. Y es posible que la generación distribuida tenga una oportunidad de convertirse en ese modelo.

 

Esta entrada ha sido elaborada por Ambros Liceaga Elizalde, miembro de la Comisión Ejecutiva del Instituto de Smart Cities (ISC) de la Universidad Pública de Navarra (UPNA), donde trabaja como investigador

 

Probabilidad y el triste caso de Sally Clark

El 15 de marzo de 2007 murió Sally Clark, natural de Cheshire y abogada de 42 años, por un fallo cardíaco provocado por una excesiva ingesta de alcohol, después de haber sido acusada erróneamente de matar a sus dos hijos: Harry, de 8 semanas (muerto en 1988) y Christopher, de 11 semanas  de edad (muerto en 1996). Habían pasado cuatro años desde que fuera acusada de asesinato por asfixia de sus dos hijos. Fue juzgada en Inglaterra el 9 de noviembre de 1999.

En realidad, se trataba de la muerte súbita de dos bebés en una misma familia, situación calificada de altamente improbable por el tribunal de Chester que la juzgó a cadena perpetua con ocho votos a favor y dos en contra, ya que interpretó que, si la muerte súbita de un bebé es de 1/8543, la de dos bebés es 1/8543*1/8543 es decir de 1 entre 73 millones.  En aquella época, el número de nacimientos en Inglaterra, Gales y Escocia era de 700.000 nacimientos al año, por lo que la probabilidad de ocurrencia por azar de este suceso era de 1 cada 100 años.

Tres años después, fue puesta en libertad al revocarse la sentencia, que fue calificada de uno de los mayores errores judiciales de la historia moderna de Gran Bretaña. Era el error denominado como “prosecutor fallacy”, es decir, el error probabilístico cometido en los juzgados por un falso razonamiento científico. En octubre de 2001, la Real  Sociedad Estadística Británica expresó públicamente su preocupación por el mal uso de la estadística en los juzgados. En enero de 2002, su presidente escribió a Lord Chancellor, ministro de la Corona, comunicándole su interés en replantear el uso adecuado de la evidencia estadística en el sistema judicial. Como consecuencia de ello, se revisó el caso.

Estudios posteriores pusieron en evidencia que la muerte del primer hijo de Sally fue provocada por una infección respiratoria y que la muerte de su segundo hijo se debió a una infección bacteriana. Pero para Sally fue demasiado tarde. Había pasado tres años en prisión. El error judicial consistió en interpretar que la muerte súbita de un bebé nada tenía que ver con la de su hermano, aunque fuese de la misma familia. Es decir, se interpretaron ambos sucesos como independientes, lo que llevó a pensar que era prácticamente imposible que ambas muertes fueran accidentales. Esta fue la interpretación que hizo el pediatra Sir Roy Meadow, ignorando que pudiera existir una correlación entre ambos sucesos, en cuyo caso cambiaría drásticamente la probabilidad de ocurrencia de muerte súbita.  Como consecuencia de su erróneo razonamiento, Roy Meadow fue eliminado del registro británico de médicos.

De hecho, el pediatra no conocía que, si existe algún defecto genético, la probabilidad de muerte súbita del segundo hermano habiendo sucedido la del primero, era  aproximadamente de 1 entre 100, por lo que la probabilidad de muerte súbita de los dos bebés era de 1/85000, es decir 86 veces superior a la inicialmente estimada. Esta estimación se debió a Ray Hill, un estadístico de la Universidad de Salford. Ray Hill concluyó que la probabilidad de dos muertes súbitas seguidas era entre 4,5 y 9 veces más probable que dos infanticidios seguidos.

El caso de Sally Clark no fue el único. Angela Cannings fue encausada por la muerte de dos de sus hijos, de los tres que habían fallecido por muerte súbita. En su juicio, no se utilizó explícitamente el razonamiento estadístico, aunque sí se dijo que la muerte súbita de los tres niños era muy muy rara. Afortunadamente, Angela también fue liberada en 2003 gracias a la investigación que se hizo de varias muertes súbitas acaecidas con sus mismas bisabuelas paternas y maternas.

Trupti Patel, una farmacéutica de origen paquistaní, fue igualmente condenada por la muerte de tres de sus hijos, cuando en realidad habían fallecido por muerte súbita.

Una muerte súbita es 17 veces más frecuente que un asesinato. Dos muertes súbitas son 9 veces más probables que dos asesinatos y tres muertes súbitas suceden solamente dos veces más que tres asesinatos, pero eso no significa que necesariamente tres muertes súbitas sean asesinatos.

La probabilidad refleja un grado de creencia de la ocurrencia de un suceso y, por pequeña que sea, siempre ha de tenerse en cuenta. Es ahí donde radica la calidad de un razonamiento científico.

Esta entrada ha sido elaborada por Ana Fernández Militino, catedrática del Departamento de Estadística, Informática y Matemáticas e investigadora del Instituto de Materiales Avanzados (InaMat) de la Universidad Pública de Navarra