Estadística en ingeniería: calidad y fiabilidad

El adagio “Lo que no se mide, no se conoce y no se puede mejorar” tiene plena vigencia en el ámbito de la calidad de los productos y servicios que, en la actualidad, son producidos y prestados por industrias, empresas y administraciones.  ¿Cómo gestionar y tomar las decisiones más adecuadas para una organización sin saber cómo evolucionan medidas e indicadores claves? El instinto y la experiencia, aun siendo cualidades útiles en la toma de decisiones,  son garantía, por sí solos, para la perpetuación de los mismos errores.

Hasta comienzos del siglo XX, la calidad dependía de los esfuerzos individuales de los artesanos. A partir de la organización de la producción en pequeñas tareas y la producción masiva, surge la preocupación por la calidad. Uno de las primeras aplicaciones de la estadística al control de calidad tuvo lugar en el contexto de la competencia entre dos marcas de cerveza: Ginnes y Carling. Afortunadamente para la primera, entre sus trabajadores dedicados a la mejora de la calidad se encontraba William Gosset. Sus trabajos no sólo fueron importantes para prolongar la frescura de la cerveza, sino que sirvieron para que, en 1908, introdujera la distribución t y el test t-student para el análisis estadístico de muestras pequeñas, una de las contribuciones más destacadas a la estadística en el siglo XX.

Al mismo tiempo, compañías como Ford y AT&T en Estados Unidos implementaron acciones para un control sistemático de la calidad.  El desarrollo de métodos estadísticos y su aplicación a la mejora de la calidad continuó ligada al estudio de situaciones reales. Así, por ejemplo,  Walter Shewhart, empleado de la compañía telefónica Bell,  diseña y aplica en 1924 los conocidos gráficos de control.

Todo producto (o servicio) posee un número de características que describen lo que un cliente o usuario considera como calidad. Un fabricante de electrodomésticos exigirá a su proveedor de láminas metálicas que estas posean un determinado grosor, resistencia, etc. Las unidades suministradas cumpliendo con estas especificaciones serán consideradas de calidad, mientras que aquellas que se alejen podrán llegar a ser descartadas. De este modo, la calidad de un producto se medirá como la adecuación de este con las especificaciones.

Una de las razones que dificulta proporcionar un producto o servicio de calidad es la variabilidad en los productos. Difícilmente dos productos, o servicios, son completamente idénticos. Debido a que el estudio de la variabilidad desde un punto científico corresponde a la estadística, esta juega un papel preponderante en la evaluación y en la mejora de la calidad. Se puede afirmar que la variabilidad es el principal enemigo de la calidad. Esta máxima rige la metodología para gestionar la calidad 6 sigma, que propugna una toma de decisiones basada en hechos y datos.

Un aspecto estrechamente relacionado con la calidad es la fiabilidad, que se puede definir como la calidad mantenida a lo largo del tiempo y se mide como una probabilidad. La fiabilidad del producto o servicio tiene una importancia vital y puede conferir una ventaja competitiva decisiva para la empresa. Un análisis riguroso de fiabilidad es imprescindible para el establecimiento de periodos de garantía de los productos y servicios. Los análisis de fiabilidad son tan importantes que, en ocasiones, han preocupado a dirigentes políticos y a la opinión pública en general.  Es el caso de los accidentes de los transbordadores espaciales Columbia y Challenger, que fueron estudiados por comisiones de investigación (¡de las de verdad!) y cuyos resultados provocaron cambios en la gestión de la fiabilidad y calidad de las misiones espaciales y, en general, de los programas espaciales de la NASA.

Por último, echemos un vistazo al futuro del control de calidad y, por extensión, al seguimiento y mejora de procesos. El uso creciente de nuevas tecnologías posibilita la recogida de datos en tiempo real y de un modo continuo. La ingente cantidad de datos generados requiere de nuevas metodologías y procedimientos estadísticos para ser tratados computacionalmente con eficacia. Sin duda, la edad de oro para la estadística ya ha comenzado.

 

Esta entrada ha sido elaborada por Fermín Mallor Giménez, catedrático de Estadística e Investigación Operativa del Departamento de Estadística, Informática y Matemáticas de la Universidad Pública de Navarra (UPNA) e investigador del Instituto de Smart Cities (ISC)

El trabajo forzado de cautivos en poder del Ejército sublevado durante la Guerra Civil y la posguerra

Los batallones de trabajos forzados organizados por los sublevados en la Guerra Civil y la posguerra se convirtieron en el mayor sistema de trabajos en cautividad de la España contemporánea. Nacieron como un modo de derivar parte del ingente número de prisioneros que desbordaban los depósitos y campos de concentración, y llegaron a incorporar a decenas de miles de personas (en 1939, estuvieron cerca de alcanzar los 100.000). Entre ellos, no solo hubo prisioneros de la Guerra Civil, sino que, una vez terminada la contienda, también se explotó de esta forma a jóvenes que debían realizar el servicio militar y fueron clasificados como “desafectos” al nuevo régimen y a parte de los sancionados por la Fiscalía de Tasas, que perseguía el estraperlo.

El origen del trabajo forzado en el sistema de campos de concentración se sitúa en 1937 con la creación de su principal institución impulsora: la Inspección de Campos de Concentración de Prisioneros de Guerra y fue progresivamente desapareciendo durante la primera mitad de la década de los 40.

Los trabajos forzados iban orientados, en unos casos, a las necesidades logísticas estrictamente bélicas (fortificaciones, apertura de trincheras, recuperación de material, intendencia…); en otros casos, cumplían necesidades militares (carreteras, puentes…) y, una vez acabada la guerra, quedaron para uso civil o directamente fueron “trabajos civiles” (labores agrícolas, repoblaciones, pantanos…).

El Estado fue el gran beneficiado de este sistema de trabajo, dado que el Ejército fue uno de los grandes empleadores, seguido de las autoridades civiles y, en menor medida, las empresas, eclesiásticos y particulares. Al tratarse de un recurso limitado, no se prestaba de forma ligera, ni mucho menos gratuita, y correspondía a Francisco Franco, desde el Cuartel General del Generalísimo, la decisión última sobre dónde serían empleados los cautivos y bajo qué condiciones. Las autoridades civiles, particulares, empresas y eclesiásticos debían pagar al Estado por el uso de los cautivos, además de darles techo y vigilarlos. No obstante, se beneficiaban porque obtenían mano de obra (entonces escasa) más barata, experimentada, disciplinada y profesionales con oficio.

Aunque queda pendiente el reto de conocer el número total de personas afectadas por el sistema de trabajos forzados, se ha podido contabilizar los volúmenes mensuales de mano de obra entre 1937 y 1945. Así, a comienzos de 1939, cerca de 250.000 cautivos estaban encerrados en campos de concentración (100.000 de ellos, derivados al trabajo forzado). El número de cautivos trabajadores no descendió de los 30.000 hasta 1942 y se mantuvo en cifras cercanas a los 50.000 hasta esa fecha. Hubo, al menos, 291 batallones de trabajo forzado, a los que se suman decenas de unidades que, sin la estructura de batallón, cumplieron funciones muy diversas durante la guerra, a disposición de los diferentes cuerpos del Ejército, regimientos, comandancias militares y otras entidades castrenses, así como fábricas militares y militarizadas.

Ha quedado un recuerdo de la experiencia subjetiva del trabajo forzado a través de las memorias y autobiografías de quienes experimentaron este tipo de explotación. Existen testimonios sobre la corrupción, los castigos físicos y psicológicos, las relaciones con la población civil y la situación de los cautivos, obligados a trabajar largas jornadas en condiciones climáticas y humanas que algunos ni siquiera habían vivido durante la guerra, en las que la humedad, el frío, los accidentes, las enfermedades o las agresiones físicas iban afectando a sus cuerpos.

 

Esta entrada ha sido elaborada por Juan Carlos García-Funes, licenciado en Historia, Máster en Historia Contemporánea y doctor por la UPNA con una tesis doctoral sobre los trabajos forzados durante la Guerra Civil y la posguerra españolas

Estadística y toma de decisiones en Economía

La Estadística tiene su origen en el desarrollo y uso de información numérica referida a los estados. De hecho, el término Estadística deriva de la palabra alemana “statistik”, que se utiliza para designar el análisis de datos estatales. Las principales decisiones de Política Económica (presupuestos, impuestos, pensiones…) se toman basándose en indicadores económicos que se han construido con información estadística.

Pensemos en dos de estos indicadores: el IPC (Índice de Precios de Consumo) y la tasa de paro. La evolución de estos indicadores se toma como referencia para disminuir la incertidumbre en la toma de decisiones de las autoridades públicas y de los principales agentes privados.

Por ejemplo, el índice de precios de consumo mide la evolución de los precios en un país o comunidad autónoma en un determinado periodo de tiempo. Para su elaboración, se observan las variaciones de precios de una serie de productos que constituyen la llamada “cesta de la compra”, que representa los hábitos de compra del consumidor promedio de ese país o comunidad. Su utilidad es indiscutible. Se emplea como referencia para fijar salarios en los convenios colectivos, para ajustar las pensiones públicas; para modificar los contratos de alquiler, etc.

El Instituto Nacional de Estadística informa de la tasa de variación mensual (variación de precios respecto al mes anterior) o la tasa interanual (variación de precios respecto del mismo mes un año antes). La primera tiene el inconveniente de que no informa de comportamientos estacionales, pudiendo dar a entender tendencias que no son tales, sino cambios puntuales debidos a la estacionalidad (por ejemplo, descenso de precios en el mes de enero, debido a las rebajas y no a una tendencia decreciente).

El índice interanual, por el contrario, refleja esa componente estacional, pero también oculta posibles cambios de tendencia que hayan sucedido durante el año. A veces, se interpreta de forma errónea y se considera que el IPC refleja la variación de precios que ha experimentado cada individuo en sus compras, cuando, en realidad, son valores promedio que tratan de representar el comportamiento conjunto, nunca individual. En el caso del IPC, cada uno de nosotros tenemos nuestra propia “cesta de la compra” y, si bien es cierto que hay  precios, como el de la gasolina, cuyas variaciones nos afectan a todos, también lo es que hay determinados bienes y servicios que nos afectan de distinta manera según sean las pautas de consumo que tengamos. Por ejemplo, las variaciones de precio de los servicios hoteleros solo afectarán a los individuos que utilicen esos servicios y soportarán una inflación distinta de aquellos que no los usan.

Respecto al otro indicador citado, la tasa de paro, se estima el número de parados como la diferencia entre la población activa (mayores de 16 años que trabajan o que buscan empleo) y la población ocupada (mayores de 16 años con empleo remunerado). En ocasiones, un aumento en el número de parados se interpreta como “destrucción de empleo” y, sin embargo, no tiene por qué ser así. El número de parados puede aumentar debido a un crecimiento de la población activa, a una disminución de la población ocupada o a ambas causas.

Las variaciones de este indicador son una referencia fundamental para la toma de decisiones de política económica, su aumento genera normalmente iniciativas ligadas a aumentar la inversión pública y favorecer el consumo privado para estimular la actividad e incrementar la producción. Se fomenta, también, el seguro de desempleo, para proteger a los ciudadanos que se han quedado sin trabajo.

En definitiva, el contar con estadísticas públicas fiables permite definir indicadores cuya evolución sirve como señal para intervenir en la economía. Los decisores públicos y privados, empresas y consumidores, los utilizan para tomar decisiones que afectan al conjunto de la sociedad. Saber interpretar correctamente los indicadores económicos es una tarea imprescindible para el buen gobierno de nuestra sociedad. La estadística afecta a nuestras vidas más de lo que podemos imaginar.

 

Esta entrada ha sido elaborada por Carmen García Olaverri, catedrática del Departamento de Estadística, Informática y Matemáticas e investigadora del Instituto INARBE (Institute for Advanced Research in Business and Economics) de la Universidad Pública de Navarra (UPNA)

Salvad@s por la fibra (I)

La fibra óptica es un cable que guía la información a través de la luz y está cada vez más presente en muchos de nuestros hogares para servicios de telecomunicación. De hecho, actualmente es la forma de transmisión de información más rápida y efectiva que existe, y es por esto que tenemos kilómetros de ella rodeando el planeta bajo nuestros mares y océanos. En esta web podéis ver, diariamente, los diferentes cables que se están distribuyendo a día de hoy entre los continentes, para mejorar la velocidad de transmisión de los datos en todo el globo.

Según esto, aparentemente, este cable “sólo” sirve para navegar por internet a alta velocidad y ver series de televisión o partidos de fútbol. Lo que quizá no pocos imaginamos es que la fibra óptica también puede servirnos para vestir, para decorar nuestras casas y, lo que es más importante: para curarnos.

De hecho, son varias las aplicaciones médicas que, a día de hoy, usan este cable para hacer terapia o diagnosticar pacientes. Un ejemplo de ello es la iluminación de los endoscopios que nos introducen cuando quieren observar el interior de nuestro tubo digestivo o respiratorio. También podemos encontrar fibra óptica guiando luz en aplicaciones estéticas, como en las máquinas que eliminan tatuajes, o en aplicaciones terapéuticas, bien a la hora de eliminar varices internas (técnica de endoláser) o bien a la hora de tratar incrementos anómalos, pero benignos, en la próstata de hombres con cierta edad.

Las técnicas anteriormente mencionadas se basan en lanzar chorros de luz más o menos potentes a través de la fibra óptica. Pero, ¿cómo se propaga la luz dentro de ella?

A diferencia de los cables de cobre, la fibra está hecha de vidrio. Su grosor habitual es de 125 micrómetros, equivalente a un pelo del cuero cabelludo, lo que la hace bastante flexible. Se compone de dos partes principales (ver Figura 1): el núcleo y la cubierta, que podrían ser equivalentes al vivo y al neutro de un cable coaxial de televisión. La cubierta presenta un índice de refracción (n), una especie de “resistencia al paso de la luz”, ligeramente inferior al del núcleo. Esto permite el confinamiento de la luz en el interior del núcleo mediante el fenómeno de reflexión total interna (RTI). Este fenómeno es el mismo que ocurre cuando lanzamos luz láser a un chorro de agua que sale de una botella, tal y como ocurre en el vídeo que os muestro en este enlace.

La teoría, conocida como “Ley de Snell”, asume que no se pierde nada de luz en este fenómeno de RTI. Sin embargo, esto sería cierto si los materiales fueran ideales. Al no serlo, hay siempre una mínima pérdida en estas reflexiones, con lo que siempre hay una mínima cantidad de energía que se acopla y propaga en esa frontera entre el núcleo y la cubierta. Es lo que se denominaremos “luz evanescente” (ver Figura 1).

Afortunadamente, la existencia de esta luz evanescente permite que podamos usar la fibra óptica como sensor y, más concretamente, como biosensor. Es decir, un aparato que podría diagnosticarnos si tenemos alguna enfermedad o si la podemos padecer en algún momento de nuestra vida.

Sin embargo, y dado que estamos de vacaciones, mejor dejamos el tema de las enfermedades para más adelante y vamos a disfrutar del verano.

Lo que está claro es que la fibra óptica, que nos gusta tanto estudiarla en el grado y en el máster en Ingeniería de Telecomunicación de la UPNA, puede servirnos tanto para mantenernos al día de lo que pasa en el mundo, como para mejorar nuestra calidad de vida y nuestra salud.

¡Que paséis felices vacaciones!

Esta entrada ha sido elaborada por Abián Bentor Socorro Leránoz, investigador del Instituto de Smart Cities (ISC) de la Universidad Pública de Navarra (UPNA) y profesor del Departamento de Ingeniería Eléctrica, Electrónica y de Comunicación.

¿Por qué parece tan grande la plaza del Ayuntamiento de Pamplona?

Todo visitante de Pamplona fuera de las fiestas de San Fermín suele hacer el mismo comentario: “¡Qué pequeña es la plaza del Ayuntamiento!”. Entonces, ¿por qué parece tan grande cuando la vemos por la tele el día del Chupinazo?

Se trata de un “truco” de la percepción. Cuando recibimos información del mundo a través de nuestros sentidos, no nos comportamos como una cámara de vídeo que se limita a registrar lo que ocurre. Las personas construimos la percepción y, en ese proceso de construcción, incorporamos multitud de informaciones diferentes. En general, somos mucho mejores apreciando diferencias que valores absolutos. Millones de años de evolución han ido seleccionando la capacidad de decidir qué fruta está más madura, qué animal es más grande o qué planta es más alta, mientras que no importaba el valor preciso de esa altura, peso o color.

En la percepción del tamaño de un objeto, nos vemos influidos por el contexto. Un ejemplo clásico es la ilusión de Ebbinghaus Titchener, descrita a finales del siglo XIX.

En ella, un círculo del mismo tamaño objetivo lo percibimos mayor cuando está rodeado de círculos pequeños que cuando lo está de otras mucho mayores.

En este vídeo de la serie “Ciencia en el bar”, protagonizado por Javier Armentia Fructuoso, astrofísico y director del Planetario de Pamplona, y Joaquín Sevilla Moróder, profesor, investigador y responsable de Divulgación del Conocimiento de la Universidad Pública de Navarra (UPNA), se pretende mostrar este efecto en el caso de la plaza que acoge el Chupinazo que da comienzo a los Sanfermines.

En él, los dos divulgadores explican que dicha sensación es un fenómeno que se debe a la percepción integrada o global que el ser humano tiene de los espacios y de los elementos contenidos en ellos. En el caso de la Plaza del Ayuntamiento de Pamplona, tenemos una especie de ilusión de Ebbinghaus al revés: en vez de ser el continente el que condiciona la percepción del contenido, es lo que hay dentro (una muchedumbre) lo que influye en la percepción del recinto, que lo presuponemos mucho más grande para alojar a tanta gente. Y es que los “trucos” de la percepción no sólo ocurren en situaciones de laboratorio diseñadas para engañar; ocurren en la vida cotidiana.

 

Esta entrada ha sido editada por Joaquín Sevilla Moróder,  responsable de Divulgación del Conocimiento de la Universidad Pública de Navarra (UPNA)

 

Videojuegos para enseñar Historia

A lo largo del tiempo que llevo trabajando con videojuegos en las aulas, he podido ir topando con opiniones diversas acerca de mi trabajo. He detectado en primera persona que el uso educativo de los videojuegos sigue siendo un tema controvertido. Compañeros de profesión han llegado a sentirse casi ofendidos por la sola idea de “jugar a maquinitas”, al entender que la enseñanza con videojuegos elimina el esfuerzo del alumno de la “ecuación” educativa, o que incluso con ello se pretende algún tipo de “revolución” que niega los efectos de las enseñanzas tradicionales. Por todo ello, conviene aclarar que la utilización de un videojuego en un aula debe tener un sentido, y que debe estar orientada a conseguir objetivos que otras metodologías no aportan. No se pretende desterrar las demás metodologías, sino señalar que determinados videojuegos, en determinadas circunstancias y con una acción didáctica complementaria, permiten aprendizajes concretos de un alto nivel de cognición que serían muy difíciles de conseguir con otras metodologías. Es decir, se ha demostrado que los videojuegos pueden aportar aspectos complementarios interesantes en la enseñanza y, también en concreto en la enseñanza de la Historia.

De hecho, el uso de videojuegos ambientados en diferentes etapas del pasado permite al alumnado de Educación Primaria y Secundaria entender conceptos complejos de la Historia, como aquellos relacionados con el tiempo (cambios, duraciones o sucesiones), y también realidades de las sociedades históricas asociadas a lo cotidiano (economía, desigualdad social o cultura). Así se constata en una investigación desarrollada en la Universidad Pública de Navarra (UPNA) basada en varios talleres didácticos con estudiantes de entre 12 y 14 años de seis centros educativos de la Comunidad Foral: Cardenal Ilundáin y San Juan de la Cadena (ambos de Pamplona), Francisco Javier Sáenz de Oiza (Cáseda), Doña Álvara Álvarez (Falces), Santa María la Real-Maristas (Sarriguren) y el IESO de Berriozar.

La investigación siguió una doble línea de trabajo. Por un lado, se analizaron las representaciones sociales del Medievo, perceptibles en los propios videojuegos, en las producciones electrónicas de los “gamers” o jugadores (por ejemplo, foros, chats o diversos portales) y en la publicidad de estos juegos. Por otro lado, se buscó conocer el impacto de los videojuegos en las aulas, por medio de talleres realizados en centros de Educación Primaria y Secundaria. Los resultados del proyecto se pueden encontrar en la web www.historiayvideojuegos.com.

En estos talleres, no sólo se analizaron las respuestas de los alumnos a sencillas encuestas, sino que, además, se intentaron realizar pequeñas propuestas didácticas con la finalidad de enseñar Historia utilizando, junto a otros recursos más clásicos, videojuegos comerciales ambientados en épocas del pasado, en este caso, medieval. Es lo que se denomina Aprendizaje basado en juegos.

Por lo tanto, la utilización de los videojuegos puede ser una herramienta didáctica más, integrada dentro de las programaciones docentes ordinarias, para reforzar la comprensión de fenómenos históricos complejos no ligados a la Historia factual. Podemos afirmar que las estrategias lúdicas (gamificación, aprendizaje basado en juegos, juegos serios…) permiten lograr aprendizajes efectivos, interesantes, motivadores, diferentes y complementarios y, por tanto, deberían poder integrarse en todas las etapas educativas, si bien, hoy en día, suelen restringirse a Educación Infantil y Primaria.

 

Más información:

 

Esta entrada ha sido elaborada por Íñigo Mugueta Moreno, profesor del Departamento de Ciencias Humanas y de la Educación e investigador de la UPNA

Las consecuencias jurídicas de las infecciones asociadas a la asistencia sanitaria

Entre los incidentes negativos o “eventos adversos” que pueden perjudicar a los pacientes, las infecciones asociadas a la asistencia sanitaria (en inglés, Health Care-Associated Infection -HCAI-), y especialmente las hospitalarias o nosocomiales, son, según la OMS, los que se producen con mayor frecuencia en el mundo. Entre las infecciones hospitalarias, las cuatro endémicas más comunes son las urinarias, las del sitio de una intervención quirúrgica, la neumonía y las relacionadas con el uso de catéteres intravasculares. En España, constituyen la segunda causa de eventos adversos, por detrás de la relacionada con la medicación, según el Estudio Nacional sobre los Efectos Adversos ligados a la Hospitalización (ENEAS), de 2005.

Estas infecciones representan un serio problema, tanto desde la perspectiva de la salud pública (agravado por el incremento de la resistencia a los antibióticos), como desde el punto de vista económico. La Unión Europea recoge en la Recomendación de 9 de junio de 2009, del Consejo de la Unión Europea, sobre la seguridad de los pacientes, en particular la prevención y lucha contra las infecciones relacionadas con la asistencia sanitaria (2009/C 151/01), que, según estimaciones del European Centre for Disease Prevention and Control (ECDC), anualmente en Europa las infecciones hospitalarias afectan a unos 4,1 millones de pacientes y causan directamente unas 37.000 muertes. A ello debe añadirse la producción de pérdidas de aproximadamente 7 billones de euros solo en costes directos. En España, el reciente estudio EPINE-EPPS 2017 de la Sociedad Española de Medicina Preventiva, Salud Pública e Higiene, realizado sobre 313 hospitales y 61.673 pacientes, informa que el pasado año la prevalencia de pacientes con infección nosocomial en España era del 7,74%, solo ligeramente inferior al 7,88% de 1995.

Sin embargo, y a pesar de su relevancia, se trata de un problema prevenible y evitable en un porcentaje que, en Europa, se estima en el 20-30%, lo que explica, primero, que la tasa actual de infecciones nosocomiales se considere inaceptable y, segundo, los numerosos programas que se han puesto en marcha desde principios de este siglo con el objetivo de reducir su incidencia. En España, las iniciativas para combatirlo se incluyen actualmente en la Estrategia de Seguridad del Paciente del Sistema Nacional de Salud (2015-2020) del Ministerio de Sanidad, Servicios Sociales e Igualdad.

Desde la perspectiva de los pacientes afectados, las infecciones nosocomiales pueden originar daños como la ceguera o la amputación de algún miembro, un agravamiento del proceso que motivó inicialmente la asistencia sanitaria, la prolongación de la hospitalización o, incluso, el fallecimiento del enfermo. También pueden provocar otros daños económicos o morales; por ejemplo, cuando implican inactividad profesional o pérdida de habilidades para el paciente.

Se entiende así que el enfermo o sus familiares se planteen reclamar la indemnización de los perjuicios derivados de la infección hospitalaria. Sin embargo, mientras el sistema sanitario español está reaccionando seriamente ante el problema en lo que le corresponde, la respuesta de la jurisprudencia a las pretensiones individuales de los perjudicados por infecciones nosocomiales resulta más confusa: no siempre se entiende por qué en unos casos la reclamación prospera y en otros no, o por qué las cuantías del baremo de accidentes de circulación son en unos casos adecuadas y en otros, no; y lo mismo ocurre con la insegura aplicación de la doctrina del daño desproporcionado, o de la antijuridicidad de la lesión… Tampoco parece posible anticipar si una mera referencia genérica, en el consentimiento informado firmado por el paciente, a la posibilidad de contraer “infecciones” se considerará o no como información “adecuada y suficiente” que libere de responsabilidad al prestador del servicio.

Lo cierto es que un paciente hospitalizado se ve sometido a un riesgo de infecciones nosocomiales cuya magnitud generalmente ignora. Salvo los supuestos infrecuentes de riesgo totalmente desconocido e imprevisible para la ciencia médica (en su día lo fue el contagio de VIH), que excluye lógicamente cualquier medida previa, en la mayoría de las ocasiones las infecciones nosocomiales son, bien debidas a negligencias o fallos -y por ello evitables-, bien conocidas y previsibles -pero inevitables por producirse, a pesar de la perfecta corrección técnica de los tratamientos o intervenciones y de la adopción de todas las medidas razonablemente exigibles-.

En el primer caso, si las infecciones pudieron y debieron haberse evitado, resulta razonable indemnizar sus consecuencias. En estos supuestos, uno de los problemas de mayor interés práctico radica en determinar si las dudas acerca de la causa del daño o de la negligencia supuestamente cometida -cuando esta es también necesaria- deben perjudicar al demandante (paciente, familiares) o al demandado (titular privado o público del centro, profesionales). Aunque el punto de partida es que la carga de la prueba corresponde al demandante, en ocasiones puede invertirse (aspecto en el que las sentencias no siempre resultan coincidentes), siendo entonces el demandado quien, para resultar absuelto, deba demostrar ser ajeno a la causa del daño o haber actuado diligentemente.

En el segundo caso –infecciones previsibles, pero inevitables-, parece que solo la asunción del riesgo por un paciente informado debiera permitir exonerar de responsabilidad al prestador del servicio. Pero la dificultad de este tipo de casos reside en precisar los límites de la información sanitaria legalmente exigible, porque, superada ya la idea de que aquella deba ser “exhaustiva”, hay que admitir que una información parcial puede resultar legalmente suficiente. Conviene recordar, de todas formas, que la falta de la información debida suele considerarse causa de un daño moral específico y distinto de los relacionados con el problema de salud, y que sería propiamente el perjuicio indemnizable.

 

Esta entada ha sido realizada por María Luisa Arcos Vieira, profesora titular de Derecho civil, investigadora del Instituto INARBE (Institute for Advanced Research in Business and Economics) de la UPNA y autora del libro “Responsabilidad civil por infecciones asociadas a la asistencia sanitaria”

 

 

Radiografía de las poetas navarras de hoy

En Navarra, aunque “a priori” pueda pensarse lo contrario, el listado de poetas navarras en castellano que han publicado entre 1975 y 2015 es significativo, sobre todo, si tenemos en cuenta que cada una de ellas cuenta con tres o cuatro poemarios.

Así, en dicho periodo, se contabilizan catorce autoras nacidas en Navarra: en los años 30, María Blanca Ferrer García y María Sagrario Ochoa Medina; en los 50, Marina Aoiz Monreal, Rosa Barasoain Asurmendi, Charo Fuentes Caballero, Julia Guerra Lacunza, Socorro Latasa Miranda y Maite Pérez Larumbe; y en los 70, Irati Iturritza Errea, Uxue Juárez Gaztelu, Margarita Leoz Munilla, Trinidad Lucea Ferrer, Leire Olkotz Vicente y Regina Salcedo Irurzun. A ellas se suman tres poetas afincadas en la Comunidad Foral: Isabel Blanco Ollero, Fátima Frutos Moreira y Ana Jaka García.

A pesar de vivir épocas diferentes, todas ellas comparten temática. Hablan de la reivindicación de la mujer como sujeto activo. En sus poemas, tratan el amor y la maternidad desde un punto de vista feminista y sus personajes femeninos son más libres. También abordan el cuerpo sin miedo, sin tapujos, y persiguen cuál es el concepto de la vida en la búsqueda personal, lejos de la religión.

Desde el punto de vista del lenguaje, se percibe una evolución en las tres generaciones: primero fue más simbólico y, posteriormente, más sencillo, más cercano a la realidad. Sí es destacable el lenguaje rompedor de la generación de los 70. Las nacidas en dicha década apuestan por nuevas formas de expresión y de renovación, por el verso libre y la ruptura de los convencionalismos del lenguaje, o la experimentación y la conjugación interdisciplinar de las artes hasta lograr la construcción de una voz y de un lenguaje propios.

En los últimos años, ha sido muy destacable la influencia de las nuevas tecnologías. De hecho, Internet ha sido una puerta muy importante para dar a conocer la poesía, un género que se está revitalizando, con casos como los del madrileño Marwan y de la segoviana Elvira Sastre, dos poetas muy seguidos por los adolescentes, que hablan de la tristeza, del día a día y de problemas cotidianos, lo que favorece la conexión con el público.

Por ello, para las poetas navarras, la difusión de los contenidos no se enfoca tanto a la publicación del papel, sino al intercambio de poemas y puntos de vista con autores de otros países a través de internet y de plataformas “online” como blogs o redes sociales.

Además, las poetas navarras actuales, al igual que ocurre en el ámbito nacional, apuestan por una evolución de la concepción de la poesía. Ya no se centran exclusivamente en la palabra, sino que se muestran partidarias de combinar poesía con otras formas de reivindicación cultural como la música, el teatro o la experimentación (“performance”), es decir, expresiones artísticas más cercanas a la realidad.

Este estudio (originalmente, una tesis doctoral defendida en la Universidad Pública de Navarra) despertó el interés de publicación de la Editorial Torremozas, especialista en edición de obras literarias de mujeres, cuando el pasado febrero lanzó una antología que recoge los poemas de las autoras seleccionados por la antóloga del estudio, Isabel Logroño. Asimismo, se prevé para este 2018 el lanzamiento del contenido de investigación incluido en la tesis bajo el formato libro, con el título “Búsqueda de identidad. Mujeres poetas de Navarra (1975-2017)”, editado por el Servicio de Publicaciones del Gobierno de Navarra.

 

 

Esta entrada ha sido realizada por Isabel Logroño Carrascosa, doble licenciada en Filología Hispánica y en Comunicación Audiovisual y doctora por la UPNA con una tesis sobre la poesía femenina actual de Navarra en castellano entre 1975 y 2015