Probabilidad y el triste caso de Sally Clark

El 15 de marzo de 2007 murió Sally Clark, natural de Cheshire y abogada de 42 años, por un fallo cardíaco provocado por una excesiva ingesta de alcohol, después de haber sido acusada erróneamente de matar a sus dos hijos: Harry, de 8 semanas (muerto en 1988) y Christopher, de 11 semanas  de edad (muerto en 1996). Habían pasado cuatro años desde que fuera acusada de asesinato por asfixia de sus dos hijos. Fue juzgada en Inglaterra el 9 de noviembre de 1999.

En realidad, se trataba de la muerte súbita de dos bebés en una misma familia, situación calificada de altamente improbable por el tribunal de Chester que la juzgó a cadena perpetua con ocho votos a favor y dos en contra, ya que interpretó que, si la muerte súbita de un bebé es de 1/8543, la de dos bebés es 1/8543*1/8543 es decir de 1 entre 73 millones.  En aquella época, el número de nacimientos en Inglaterra, Gales y Escocia era de 700.000 nacimientos al año, por lo que la probabilidad de ocurrencia por azar de este suceso era de 1 cada 100 años.

Tres años después, fue puesta en libertad al revocarse la sentencia, que fue calificada de uno de los mayores errores judiciales de la historia moderna de Gran Bretaña. Era el error denominado como “prosecutor fallacy”, es decir, el error probabilístico cometido en los juzgados por un falso razonamiento científico. En octubre de 2001, la Real  Sociedad Estadística Británica expresó públicamente su preocupación por el mal uso de la estadística en los juzgados. En enero de 2002, su presidente escribió a Lord Chancellor, ministro de la Corona, comunicándole su interés en replantear el uso adecuado de la evidencia estadística en el sistema judicial. Como consecuencia de ello, se revisó el caso.

Estudios posteriores pusieron en evidencia que la muerte del primer hijo de Sally fue provocada por una infección respiratoria y que la muerte de su segundo hijo se debió a una infección bacteriana. Pero para Sally fue demasiado tarde. Había pasado tres años en prisión. El error judicial consistió en interpretar que la muerte súbita de un bebé nada tenía que ver con la de su hermano, aunque fuese de la misma familia. Es decir, se interpretaron ambos sucesos como independientes, lo que llevó a pensar que era prácticamente imposible que ambas muertes fueran accidentales. Esta fue la interpretación que hizo el pediatra Sir Roy Meadow, ignorando que pudiera existir una correlación entre ambos sucesos, en cuyo caso cambiaría drásticamente la probabilidad de ocurrencia de muerte súbita.  Como consecuencia de su erróneo razonamiento, Roy Meadow fue eliminado del registro británico de médicos.

De hecho, el pediatra no conocía que, si existe algún defecto genético, la probabilidad de muerte súbita del segundo hermano habiendo sucedido la del primero, era  aproximadamente de 1 entre 100, por lo que la probabilidad de muerte súbita de los dos bebés era de 1/85000, es decir 86 veces superior a la inicialmente estimada. Esta estimación se debió a Ray Hill, un estadístico de la Universidad de Salford. Ray Hill concluyó que la probabilidad de dos muertes súbitas seguidas era entre 4,5 y 9 veces más probable que dos infanticidios seguidos.

El caso de Sally Clark no fue el único. Angela Cannings fue encausada por la muerte de dos de sus hijos, de los tres que habían fallecido por muerte súbita. En su juicio, no se utilizó explícitamente el razonamiento estadístico, aunque sí se dijo que la muerte súbita de los tres niños era muy muy rara. Afortunadamente, Angela también fue liberada en 2003 gracias a la investigación que se hizo de varias muertes súbitas acaecidas con sus mismas bisabuelas paternas y maternas.

Trupti Patel, una farmacéutica de origen paquistaní, fue igualmente condenada por la muerte de tres de sus hijos, cuando en realidad habían fallecido por muerte súbita.

Una muerte súbita es 17 veces más frecuente que un asesinato. Dos muertes súbitas son 9 veces más probables que dos asesinatos y tres muertes súbitas suceden solamente dos veces más que tres asesinatos, pero eso no significa que necesariamente tres muertes súbitas sean asesinatos.

La probabilidad refleja un grado de creencia de la ocurrencia de un suceso y, por pequeña que sea, siempre ha de tenerse en cuenta. Es ahí donde radica la calidad de un razonamiento científico.

Esta entrada ha sido elaborada por Ana Fernández Militino, catedrática del Departamento de Estadística, Informática y Matemáticas e investigadora del Instituto de Materiales Avanzados (InaMat) de la Universidad Pública de Navarra 

 

El trabajo forzado de cautivos en poder del Ejército sublevado durante la Guerra Civil y la posguerra

Los batallones de trabajos forzados organizados por los sublevados en la Guerra Civil y la posguerra se convirtieron en el mayor sistema de trabajos en cautividad de la España contemporánea. Nacieron como un modo de derivar parte del ingente número de prisioneros que desbordaban los depósitos y campos de concentración, y llegaron a incorporar a decenas de miles de personas (en 1939, estuvieron cerca de alcanzar los 100.000). Entre ellos, no solo hubo prisioneros de la Guerra Civil, sino que, una vez terminada la contienda, también se explotó de esta forma a jóvenes que debían realizar el servicio militar y fueron clasificados como “desafectos” al nuevo régimen y a parte de los sancionados por la Fiscalía de Tasas, que perseguía el estraperlo.

El origen del trabajo forzado en el sistema de campos de concentración se sitúa en 1937 con la creación de su principal institución impulsora: la Inspección de Campos de Concentración de Prisioneros de Guerra y fue progresivamente desapareciendo durante la primera mitad de la década de los 40.

Los trabajos forzados iban orientados, en unos casos, a las necesidades logísticas estrictamente bélicas (fortificaciones, apertura de trincheras, recuperación de material, intendencia…); en otros casos, cumplían necesidades militares (carreteras, puentes…) y, una vez acabada la guerra, quedaron para uso civil o directamente fueron “trabajos civiles” (labores agrícolas, repoblaciones, pantanos…).

El Estado fue el gran beneficiado de este sistema de trabajo, dado que el Ejército fue uno de los grandes empleadores, seguido de las autoridades civiles y, en menor medida, las empresas, eclesiásticos y particulares. Al tratarse de un recurso limitado, no se prestaba de forma ligera, ni mucho menos gratuita, y correspondía a Francisco Franco, desde el Cuartel General del Generalísimo, la decisión última sobre dónde serían empleados los cautivos y bajo qué condiciones. Las autoridades civiles, particulares, empresas y eclesiásticos debían pagar al Estado por el uso de los cautivos, además de darles techo y vigilarlos. No obstante, se beneficiaban porque obtenían mano de obra (entonces escasa) más barata, experimentada, disciplinada y profesionales con oficio.

Aunque queda pendiente el reto de conocer el número total de personas afectadas por el sistema de trabajos forzados, se ha podido contabilizar los volúmenes mensuales de mano de obra entre 1937 y 1945. Así, a comienzos de 1939, cerca de 250.000 cautivos estaban encerrados en campos de concentración (100.000 de ellos, derivados al trabajo forzado). El número de cautivos trabajadores no descendió de los 30.000 hasta 1942 y se mantuvo en cifras cercanas a los 50.000 hasta esa fecha. Hubo, al menos, 291 batallones de trabajo forzado, a los que se suman decenas de unidades que, sin la estructura de batallón, cumplieron funciones muy diversas durante la guerra, a disposición de los diferentes cuerpos del Ejército, regimientos, comandancias militares y otras entidades castrenses, así como fábricas militares y militarizadas.

Ha quedado un recuerdo de la experiencia subjetiva del trabajo forzado a través de las memorias y autobiografías de quienes experimentaron este tipo de explotación. Existen testimonios sobre la corrupción, los castigos físicos y psicológicos, las relaciones con la población civil y la situación de los cautivos, obligados a trabajar largas jornadas en condiciones climáticas y humanas que algunos ni siquiera habían vivido durante la guerra, en las que la humedad, el frío, los accidentes, las enfermedades o las agresiones físicas iban afectando a sus cuerpos.

 

Esta entrada ha sido elaborada por Juan Carlos García-Funes, licenciado en Historia, Máster en Historia Contemporánea y doctor por la UPNA con una tesis doctoral sobre los trabajos forzados durante la Guerra Civil y la posguerra españolas

Estadística y toma de decisiones en Economía

La Estadística tiene su origen en el desarrollo y uso de información numérica referida a los estados. De hecho, el término Estadística deriva de la palabra alemana “statistik”, que se utiliza para designar el análisis de datos estatales. Las principales decisiones de Política Económica (presupuestos, impuestos, pensiones…) se toman basándose en indicadores económicos que se han construido con información estadística.

Pensemos en dos de estos indicadores: el IPC (Índice de Precios de Consumo) y la tasa de paro. La evolución de estos indicadores se toma como referencia para disminuir la incertidumbre en la toma de decisiones de las autoridades públicas y de los principales agentes privados.

Por ejemplo, el índice de precios de consumo mide la evolución de los precios en un país o comunidad autónoma en un determinado periodo de tiempo. Para su elaboración, se observan las variaciones de precios de una serie de productos que constituyen la llamada “cesta de la compra”, que representa los hábitos de compra del consumidor promedio de ese país o comunidad. Su utilidad es indiscutible. Se emplea como referencia para fijar salarios en los convenios colectivos, para ajustar las pensiones públicas; para modificar los contratos de alquiler, etc.

El Instituto Nacional de Estadística informa de la tasa de variación mensual (variación de precios respecto al mes anterior) o la tasa interanual (variación de precios respecto del mismo mes un año antes). La primera tiene el inconveniente de que no informa de comportamientos estacionales, pudiendo dar a entender tendencias que no son tales, sino cambios puntuales debidos a la estacionalidad (por ejemplo, descenso de precios en el mes de enero, debido a las rebajas y no a una tendencia decreciente).

El índice interanual, por el contrario, refleja esa componente estacional, pero también oculta posibles cambios de tendencia que hayan sucedido durante el año. A veces, se interpreta de forma errónea y se considera que el IPC refleja la variación de precios que ha experimentado cada individuo en sus compras, cuando, en realidad, son valores promedio que tratan de representar el comportamiento conjunto, nunca individual. En el caso del IPC, cada uno de nosotros tenemos nuestra propia “cesta de la compra” y, si bien es cierto que hay  precios, como el de la gasolina, cuyas variaciones nos afectan a todos, también lo es que hay determinados bienes y servicios que nos afectan de distinta manera según sean las pautas de consumo que tengamos. Por ejemplo, las variaciones de precio de los servicios hoteleros solo afectarán a los individuos que utilicen esos servicios y soportarán una inflación distinta de aquellos que no los usan.

Respecto al otro indicador citado, la tasa de paro, se estima el número de parados como la diferencia entre la población activa (mayores de 16 años que trabajan o que buscan empleo) y la población ocupada (mayores de 16 años con empleo remunerado). En ocasiones, un aumento en el número de parados se interpreta como “destrucción de empleo” y, sin embargo, no tiene por qué ser así. El número de parados puede aumentar debido a un crecimiento de la población activa, a una disminución de la población ocupada o a ambas causas.

Las variaciones de este indicador son una referencia fundamental para la toma de decisiones de política económica, su aumento genera normalmente iniciativas ligadas a aumentar la inversión pública y favorecer el consumo privado para estimular la actividad e incrementar la producción. Se fomenta, también, el seguro de desempleo, para proteger a los ciudadanos que se han quedado sin trabajo.

En definitiva, el contar con estadísticas públicas fiables permite definir indicadores cuya evolución sirve como señal para intervenir en la economía. Los decisores públicos y privados, empresas y consumidores, los utilizan para tomar decisiones que afectan al conjunto de la sociedad. Saber interpretar correctamente los indicadores económicos es una tarea imprescindible para el buen gobierno de nuestra sociedad. La estadística afecta a nuestras vidas más de lo que podemos imaginar.

 

Esta entrada ha sido elaborada por Carmen García Olaverri, catedrática del Departamento de Estadística, Informática y Matemáticas e investigadora del Instituto INARBE (Institute for Advanced Research in Business and Economics) de la Universidad Pública de Navarra (UPNA)

Actuaciones para prevenir y afrontar agresiones al personal sanitario

La violencia contra el personal sanitario es una realidad de alta prevalencia y graves consecuencias psicológicas y laborales en los profesionales. El colectivo de enfermeras es uno de los que presenta mayores tasas de agresiones. Según la Organización Colegial de Enfermería, en España, en el transcurso de un año, el 33% de las enfermeras habían sufrido alguna agresión física o verbal. Además, la persona agresora era en el 49,8% de los casos un familiar o acompañante; en el 47,3%, el propio paciente, y en el 2,9%, otra persona. Si bien todas las categorías profesionales del sector salud están expuestas a la violencia laboral, las enfermeras y, concretamente, las que trabajan en servicios de emergencias, hospitales psiquiátricos, unidades de ancianos y centros de rehabilitación de adictos son quienes presentan mayor riesgo de sufrir agresiones.

Hay tres grupos de factores que facilitan o propician la violencia en el ámbito sanitario: los que dependen del propio paciente (carácter, alteraciones psicológicas o barreras comunicacionales); los que dependen del profesional sanitario, tanto por sus características personales (carácter, alteraciones y problemas, falta de habilidades, etc.) como por sus circunstancias laborales (estrés, insatisfacción o experiencias negativas previas); y los que dependen del entorno o contexto y que tienen que ver o bien con características organizativas (tiempos de espera, políticas y normas del centro, etc.), o bien con los recursos de los centros (disponibilidad de un médico, cantidad de personal en horarios de noche, fin de semana…).

Por ello, María Altemir, enfermera en el hospital de Barbastro y graduada en Enfermería por la Universidad Pública de Navarra, y quien esto suscribe hemos creado un protocolo de actuación para prevenir y afrontar agresiones al personal sanitario. Este protocolo es un instrumento de sencillo manejo para las personas que trabajan en el sector sanitario, de modo que pueda ser consultado y aplicado de manera ágil y sencilla.

A diferencia de otros protocolos existentes en nuestro país y que están orientados hacia cómo actuar cuando ya se ha sufrido la agresión, el protocolo que hemos diseñado establece, además, una serie de pautas que deberían ser tenidas en cuenta ante distintas situaciones de riesgo con los pacientes. Algunas de ellas ya se recogen en algunos de los dispositivos de salud en nuestro país, pero no habían sido presentados ni publicados en revistas científicas. En este caso, ha sido publicado en la revista “Enfermería Clínica”, revista de referencia en el sector sanitario.

Por un lado, se indican pautas preventivas, que ayuden a evitar conductas agresivas. Se incluyen aquí, entre otras, tanto pautas relacionadas con la organización de los servicios (evitar las salas de espera demasiado pequeñas o no acondicionadas, la acumulación de pacientes en los pasillos, las interrupciones en las consultas y los fallos burocráticos de horarios o trámites), como pautas para detectar la hostilidad (identificar señales como deambulación ansiosa, cambios bruscos de actividad, posturas y gestos, expresiones malsonantes, provocadoras o amenazantes, lenguaje no verbal, interrupciones al interlocutor, etc.).

Por otro lado, el protocolo propone distintas estrategias que puedan ayudar a abordar la conducta hostil y a controlarla, desde el punto de vista de la comunicación verbal y no verbal, y con estrategias de control (por ejemplo, colocarse fuera del espacio personal de la persona hostil, no dar la espalda o evitar la presencia de ‘espectadores’).

En cualquier caso, además de proporcionar y explicar este instrumento a los profesionales, resulta aconsejable que se lleven a cabo acciones formativas complementarias, incluyendo técnicas conductuales y de comunicación, en las que se explique y entrene en el manejo de las distintas estrategias que se exponen en dicho protocolo

 

Esta entrada ha sido realizada por Alfonso Arteaga Olleta, investigador y profesor del Departamento de Ciencias de la Salud de la Universidad Pública de Navarra

La ley de Benford en el manejo de datos estadísticos

La Estadística necesita de datos para obtener la información necesaria que permita construir hipótesis e inferir resultados para los problemas que pretenda analizar. Los datos son un elemento esencial en cualquier concepción estadística.

Dentro de esta necesidad de estructurar los datos, aparece la ley de Benford, que describe la distribución de los dígitos 1, 2, 3, …, 9 dentro de las cifras significativas (aquellas de más importancia dentro de un número, excluyendo los ceros) de una colección de datos numéricos. Esta ley fue inicialmente observada por el astrónomo y matemático canadiense Simon Newcomb en 1881, quien, manejando manuales que contenían tablas de logaritmos, observó que las páginas que contenían los números con primeras cifras 1 y 2 estaban mucho más manoseadas y eran más oscuras por el uso que aquellas con las primeras cifras 8 y 9. Esto indicaba que los manuales de tablas de logaritmos eran más empleados para números con cifras significativas pequeñas (1, 2 y 3) que para cifras significativas grandes (8 y 9).

En particular, se dio cuenta de que la observación de un primer dígito igual a 1 aparecía un 30% de las veces, mientras que la de que fuera un 9 sólo aparecía un 4,6%. Esta ley fue formalmente establecida en 1938 por el físico Frank Benford, a quien debe su nombre, ya que estuvo recogiendo datos durante varios semestres, y publicó en ese año un artículo en “Proceedings of the American Philosophical Society”, en el que, basándose en 20.229 observaciones de origen diverso (cuencas de ríos, estadísticas de la liga americana de béisbol, pesos atómicos de elementos…), mostró que esta ley se cumplía en una gran cantidad de conjuntos de datos.

En la Figura 1, se muestra una aplicación de la ley de Benford en la medición de la población de los países del mundo.

No sé conoce aún la razón precisa de por qué grandes cantidades de conjuntos de datos cumplen esta ley mientras otros no lo hacen. No obstante, se han observado algunas características que permiten delimitar la naturaleza de los conjuntos de datos que siguen la ley de Benford:

1. Datos provenientes de procesos de crecimiento exponencial. Estos datos suelen tener órdenes de magnitud muy diferentes (es decir, hay datos muy pequeños, junto con otros muy grandes: 0,005 y 10.000.000, por ejemplo), lo que suele ser un rasgo muy común de los conjuntos que siguen esta ley. Habitualmente, los conjuntos de datos que presentan valores acotados dentro de un rango (por ejemplo, poblaciones entre 1.000 y 5.000 habitantes) no suelen seguir la distribución de Benford.

2. Datos que presentan invariancia respecto a la escala. Esta situación se presenta cuando los conjuntos de datos incluyen tanto a los que se presentan en una unidad de medida como en otra. Es decir, da lo mismo expresar los datos en centímetros o en metros, por ejemplo, porque, en ambas situaciones, se cumple la ley de Benford.

De esta forma, una amplia variedad de conjuntos de datos siguen la ley de Benford: facturas de electricidad, direcciones de calles, precios de acciones en la bolsa, tamaños de poblaciones, ratios de defunciones, longitudes de ríos, constantes físicas y matemáticas, por nombrar algunos de ellos.

Por otra parte, la ley de Benford puede aplicarse en diferentes casos prácticos:

a. Detección de fraude contable. Dado que los datos contables siguen esta ley, cuando estos han sido manipulados, habitualmente se observa una mayor presencia de primeros dígitos con valores 8 y 9 que la proporción indicada por la distribución de Benford.

b. Análisis de resultados electorales. La ley de Benford sirvió como evidencia de fraude en las elecciones de Irán en 2009.

c. Control de datos macroeconómicos. Los datos macroeconómicos proporcionados por el Gobierno griego antes de ingresar en la Unión Europea en 1980 fueron considerados fraudulentos a causa de esta ley.

Finalmente, es importante señalar que la evidencia de que un conjunto de datos no siga la ley de Benford, cuando se esperaría que sí lo hiciera, debe hacerse siempre con la conveniente prudencia, fruto de la aplicación cuidadosa de la inferencia estadística, dado que los datos siempre muestran una realidad parcial de un fenómeno determinado.

 

Esta entrada ha sido elaborada por Javier Faulín Fajardo, catedrático del Departamento de Estadística, Informática y Matemáticas y secretario del Instituto de Smart Cities (ISC) de la Universidad Pública de Navarra (UPNA)

Hipatia de Alejandría, la primera científica de la historia

¿Qué nombre de científica importante destacarías de la historia? Casi todos responderíamos el mismo nombre: Marie Curie. Sin embargo, además de ella, ¿conoces alguna más? Es difícil recordar muchos más nombres de mujeres que hayan destacado en la ciencia y la tecnología, y, sin embargo, existen y han aportado muchas cosas importantes. Queremos conocerlas, queremos que las conozcáis y, por eso, les hemos dado vida en una obra de teatro.

En concreto, somos nueve profesoras e investigadoras de la Universidad Pública de Navarra (UPNA), y cada una de nosotras hemos elegido representar a una científica con la que nos sentimos identificada. Pero, además, para que podáis conocerlas más en profundidad, iniciamos, con esta entrada, una serie de breves biografías sobre las científicas a las que representamos, de tal modo que os podáis enamorar de ellas de la misma forma que lo hemos hecho nosotras.

Comenzaremos con la que se considera la primera científica de la historia: Hipatia de Alejandría, nacida aproximadamente en el siglo IV en dicha ciudad egipcia. Por aquel entonces, la metrópoli fundada por Alejandro Magno era la capital de Egipto y se la conocía por su museo, su enorme biblioteca y sus grandes templos. Fue precisamente en la biblioteca donde Hipatia pasó la mayor parte de sus horas, ya que su padre, Teón, trabajaba allí. Así, Hipatia, como muchos científicos de la época, se dedicó a ordenar y reescribir a mano las obras más importantes de la Antigüedad. Una reescritura que conllevaba mucho más que una simple copia: los copistas se dedicaban a hacer comentarios manuscritos al margen, que muchas veces suponían aportaciones originales.

Las mayores contribuciones de Hipatia, y gracias a las cuales se convirtió en una científica de renombre en la época, fueron en los ámbitos de las matemáticas y la astronomía. Destacan el Comentario de la “Aritmética” de Diofanto, que dio un impulso decisivo al álgebra con la creación de unos signos matemáticos que simplificaban y agilizaban sus operaciones; las aportaciones al trabajo de Apolonio de Pérgamo, introductor de la geometría de las figuras cónicas, crucial para el posicionamiento de los cuerpos celestes; y la contribución, junto con su padre, a los trece libros de Comentarios del Almagesto, donde se recoge el estudio de la obra de Ptolomeo, primer tratado matemático que dio una explicación completa, detallada y cuantitativa de todos los movimientos celestes. Los comentarios de esta última obra se cree, además, que influenciaron en la revolución copernicana, uno de los momentos cruciales en el desarrollo del heliocentrismo.

Aparte de los comentarios a importantes obras, Hipatia tuvo tiempo para más. Así, sabemos, a través de los escritos de sus discípulos, que confeccionó un planisferio celeste gracias a un astrolabio que desarrolló ella misma, y también inventó un hidroscopio para pesar líquidos. Pero no sólo eso: Hipatia también invertía parte de su tiempo en impartir clases. Unas clases que se pueden definir como poco convencionales. No eran como las actuales, sino que se trataba de diálogos en los que ella discutía con los alumnos sobre filosofía, matemáticas, astronomía, ética o religión. En estas clases, se trasmitía la doctrina neoplatónica, influenciada, a su vez, por los pitagóricos, por lo que se apoyaba la igualdad de género y se fomentaba la educación de todas las personas, independientemente de su cultura, clase social o género. Este hecho atraía a intelectuales de diferentes partes del mundo, quienes acudían a la ciudad para formarse sobre las diferentes concepciones filosóficas y científicas.

De esta manera, a pesar de que, por la época en la que vivió, en su historia se mezclan la realidad y la leyenda, podemos afirmar que Hipatia fue una matemática, filósofa y astrónoma que, gracias a su constancia y trabajo, se convirtió en una de las mejores científicas de la época. De hecho, son muchas las fuentes que señalan que Hipatia destacó por encima de su padre y otros científicos de la época no sólo en talento, sino también en logros científicos. Consiguió un renombre y una influencia tal que se cree que fue la razón de su desgraciado asesinato ya en el siglo V.

Para finalizar, dejamos al lector con una reflexión que se atribuye a esta científica: “Conserva tu derecho a reflexionar, porque incluso el hecho de pensar erróneamente es mejor que no pensar en absoluto”.

 

Esta entrada ha sido elaborada por Leyre Catalán Ros, investigadora del Departamento de Ingeniería y del Instituto de Smart Cities (ISC) de la Universidad Pública de Navarra (UPNA), presidenta de la Asociación para la Promoción de las Energías Renovables en Navarra (APERNA) y actriz de la obra de teatro “Yo quiero ser científica”, en la que interpreta a Hipatia de Alejandría

 

Nota: el blog Mujeres con ciencia, impulsado por la Cátedra de Cultura Científica de la Universidad del País Vasco (UPV/EHU) y editado por la profesora de esta institución Marta Macho Stadler, repasa periódicamente vidas, obras y reflexiones de diversas mujeres científicas, actuales e históricas

Tecnología y sociedad

¿Por qué unas tecnologías levantan grandes polémicas sociales, mientras que otras se adoptan masivamente sin más? Aquellos que no comprenden por qué algunas tecnologías provocan recelos en la sociedad suelen expresar su sorpresa argumentando aquello de que “la tecnología no tiene ideología”. Aunque aceptásemos esa premisa, es imposible obviar que los grupos/instituciones/personas que promueven una opción tecnológica sí que tienen una ideología determinada (i.e. un conjunto de emociones, ideas y creencias colectivas que describen y postulan modos de actuar sobre la realidad colectiva). Dado que las tecnologías no se instalan en el vacío, si no que se insertan en una sociedad concreta en un momento concreto, será este contexto social el que determine que una misma tecnología tenga o no una recepción parecida en distintas sociedades. Por otro lado, las tecnologías difieren en su potencial para alterar el tejido social y los modos de vida, concitar interés o preocupación, generar negocios o provocar la desaparición de otros, etc. En suma, tecnología y sociedad necesariamente interactúan y se transforman mutuamente.

Esa es la pregunta que el proyecto “History of Nuclear Energy and Society” (HoNESt) contribuye a responder, en el ámbito concreto de la energía nuclear en Europa. HoNESt es un consorcio de 25 instituciones de quince países europeos financiados por el programa de la UE Horizonte 2020 y Euratom.

La energía nuclear tiene niveles de aceptación muy diferentes en Europa. El viejo continente alberga algunos de los países con más energía nuclear producida, tanto en términos absolutos (Francia) como relativos (Eslovaquia, Hungría, Bélgica, Suecia…), pero también incluye países que optaron relativamente temprano por no implantar energía nuclear en su territorio (Austria, Dinamarca, Portugal), otros que decidieron moratorias para contener su expansión (España) o planificar su abandono (Alemania), así como el único caso en el mundo de un país que cerró sus nucleares de golpe después de más de veinte años de operación (Italia). Mientras tanto, Francia sigue apostando por la energía nuclear y Reino Unido, Hungría, Polonia y Bulgaria tienen proyectos en activo para construir nuevas centrales nucleares. Lejos de ser un tema controvertido del pasado, la energía nuclear todavía está en la primera página en el presente y lo seguirá siendo en el futuro. ¿Qué hace tan diferentes las reacciones de las sociedades europeas con respecto a la energía nuclear?

Al comparar los distintos casos europeos, HoNESt trata de comprender las motivaciones, las formas de participación que se llevaron a cabo, qué actores estuvieron involucrados, el contexto en el que ocurrieron (económico y sociopolítico) y cómo fueron de “exitosos” para los diferentes grupos de interés (es decir, ¿quién se beneficia y cómo?). En general (si bien con alguna excepción), hemos observado una falta de interacción entre los actores sociales sobre temas sensibles y éticos provocados por el cambio tecnológico. Históricamente, las estrategias gubernamentales e industriales de “limitación de la información” han permitido el “éxito” en el corto plazo, pero han sido ineficaces para asegurar el apoyo social y/o ganar la confianza de la sociedad en los promotores de los proyectos nucleares en el largo plazo. En el desarrollo e implantación de la energía nuclear, como de otras muchas tecnologías, los promotores optaron con frecuencia por enfoques del tipo “decidir-anunciar-defender”, donde la falta de participación democrática crea la sensación, potencialmente legítima, de ausencia de justicia energética. En contraste, las oportunidades para debatir, deliberar y participar en un diálogo más abierto conducen, según la literatura de ciencias sociales y los casos nacionales que manejamos en HoNESt, a una gobernanza energética más constructiva y sostenible en el tiempo. Una presunta falta de honestidad, las restricciones en el acceso a la información y la dejadez frente a las preocupaciones y prioridades de los ciudadanos han sido identificadas en nuestro análisis comparativo como factores de protección a corto plazo contra las polémicas socio-tecnológicas. Pero también son las semillas de dificultades seguras en el largo plazo.

Los análisis de los investigadores de HoNESt también destacan que el apoyo y/o la oposición a la energía nuclear, tanto de los ciudadanos como de los gobiernos, es dinámica. Las preferencias cambian según las condiciones ambientales, sociales o económicas. Como resultado, lo que se percibe como “exitoso” con respecto al avance tecnológico en un momento puede pasar a percibirse como un estruendoso fracaso años más tarde, y viceversa. Los posicionamientos sobre la energía nuclear varían también en función del momento histórico y del contexto en el que se produjeron: mientras que, en la Europa del sur y central, la izquierda se ha tendido a posicionar frente a la energía nuclear, en la actual Europa del Este es la derecha liberal y pro-europea la que con más vehemencia se ha opuesto a la energía nuclear. Esto no es más que el reflejo de lo que advertíamos al comienzo: las tecnologías no se insertan en el vacío, sino que, en cada país, las alianzas que se configuran para promover una cierta opción tecnológica condicionan en parte qué grupos se posicionarán en sentido opuesto.

Finalmente, los aspectos industriales y económicos han desempeñado un papel importante en el desarrollo nuclear, como se ha identificado en otras partes de la literatura. Sin embargo, también es indicativo de la experiencia derivada de los varios países estudiados que poner el foco únicamente sobre tales objetivos, por encima de los de justicia social y participación pública, arriesga la legitimidad democrática (y con ello, la aceptación) de tales desarrollos, la eficacia de la interacción civil-nuclear asociada y las respuestas de la sociedad a la tecnología en el largo plazo. La equidad en los procesos que resuelven disputas y asignan recursos deben estar presentes si el objetivo es obtener una gobernanza energética responsable y duradera en el tiempo.

 

Esta entrada ha sido elaborada por Mª del Mar Rubio Varas, responsable de la Secretaría Científica de HoNESt, profesora titular de Historia e Instituciones Económicas e investigadora del Institute for Advanced Research in Business and Economics (INARBE) de la Universidad Pública de Navarra

Bioestadística: transformando hipótesis en resultados científicos

La bioestadística, definida como la aplicación de métodos estadísticos en las ciencias de la vida, ocupa un lugar de enorme importancia en la investigación médica, debido al papel fundamental que juega en el proceso de convertir la observación, intuición y experiencia de los profesionales sanitarios en resultados científicos contrastados. Podríamos decir que, en investigación clínica, la estadística es una herramienta esencial que permite dar respuesta a preguntas científicas.

Para conocer la función que desempeña la estadística en la investigación médica, repasemos antes el modo de proceder de los profesionales sanitarios en la investigación de enfermedades. Se puede resumir en tres fases. En la primera, observan las características de los pacientes y de sus enfermedades, identifican qué aspectos son desconocidos y merecen ser investigados, y formulan hipótesis que deben ser contrastadas. En la segunda, diseñan un estudio que les permitirá comprobar, a partir de la información que tienen de sus pacientes, si sus hipótesis se corroboran. Finalmente, obtienen resultados y extraen conclusiones que comparten con otros investigadores de su área mediante publicaciones en revistas científicas. Si bien la primera fase es casi exclusivamente biomédica, el uso de la estadística es crucial tanto en el diseño del estudio como en la obtención de resultados. Pensemos en dos ejemplos prácticos: el estudio del patrón geográfico del riesgo de mortalidad por cáncer y el estudio de los factores que influyen en la evolución de los pacientes diabéticos.

Todos nosotros conocemos a personas que han padecido cáncer. Incluso muchos nos hemos alarmado pensando que el número de personas fallecidas por cáncer en nuestro pueblo, barrio o comunidad en un determinado año ha sido muy elevado. Estas mismas cuestiones se plantean también los responsables de la salud pública, que diseñan estudios para investigar, por ejemplo, si existen zonas que tienen un mayor riesgo de mortalidad por alguna causa. Para llevarlos a cabo, utilizan los registros de mortalidad: grandes bases de datos que recogen información sobre los fallecidos como la causa de la muerte, su lugar de residencia, su edad o su sexo. La estadística entra en juego aquí para analizar los datos y transformarlos en información científicamente válida, como, por ejemplo, detectar qué zonas de Navarra tienen un riesgo alto de mortalidad por cáncer. Después de utilizar técnicas complejas, la estadística nos proporciona algo tan sencillo de interpretar como un mapa coloreado indicando las zonas con un riesgo alto de mortalidad en tonos más oscuros. Además, en estos estudios, se pueden incluir otras características del municipio (socio-económicas, ambientales o relativas a la propia atención sanitaria), y valorar si estas tienen relación con el mayor o menor riesgo de mortalidad de algunas zonas, guiando estudios específicos posteriores.

La estadística también está presente en los estudios clínicos. Pensemos en los pacientes con diabetes, una enfermedad que afecta al 10% de la población navarra mayor de 30 años. Conocer de qué factores, además del tratamiento, depende la evolución de estos pacientes es una cuestión de gran interés de la que indudablemente todos ellos pueden beneficiarse. Para ello, la estadística dispone de toda una batería de herramientas que transforman la compleja información procedente de la observación clínica en resultados útiles en la práctica. Es precisamente esta ciencia la que permite determinar si el hecho de tener hipertensión arterial, obesidad o insuficiencia cardíaca puede conducir a un peor control de los niveles de glucosa en sangre, o si practicar ejercicio físico lo mejora.

Por último, merece la pena destacar el papel que juega la estadística en la evaluación de los servicios sanitarios, cuyo objetivo es determinar si la práctica médica está respondiendo de forma óptima a las necesidades de la población, y si lo está haciendo de forma justa, equitativa, eficaz y eficiente. Estos estudios, que generalmente requieren de modelos estadísticos sofisticados, permiten identificar áreas de mejora en la planificación sanitaria, contribuyendo así a proporcionar una mejor atención a la población.

 

Esta entrada ha sido elaborada por Berta Ibáñez Beroiz (Unidad de Metodología de Navarrabiomed, centro de investigación biomédica de la Universidad Pública de Navarra y el Gobierno de Navarra) y Tomás Goicoa Mangado (profesor del Departamento de Estadística, Informática y Matemáticas de la Universidad Pública de Navarra)