«Yo quiero ser científica»: vídeo sobre Hipatia de Alejandría

Nueve profesoras que imparten docencia en diferentes titulaciones de ingeniería de la Universidad Pública de Navarra (UPNA) son las autoras e intérpretes de la obra de teatro titulada “Yo quiero ser científica”, en la que rescatan la vida y la obra de mujeres científicas de siglos pasados. La función busca dar visibilidad a mujeres científicas con el doble fin de revelar una parte de la historia de la ciencia poco o nada conocida y potenciar que las niñas puedan identificarse con figuras femeninas del ámbito científico y tecnológico, sirviéndoles así de inspiración.

La UPNA, con la colaboración de la Fundación Española para la Ciencia y la Tecnología (FECYT)-Ministerio de Ciencia, Innovación y Universidades, se suma a este homenaje a científicas del pasado, difundiendo vídeos desenfadados sobre sus vidas y obras. En este capítulo: Hipatia de Alejandría, la primera científica de la historia.

Gestión inteligente de tráfico en «smart cities»

La población humana presenta una clara tendencia a concentrarse en núcleos urbanos. Esta situación magnifica ciertos problemas que repercuten directamente en la calidad de vida de los habitantes de las ciudades, tales como la polución, el acceso de las personas a recursos y servicios, la congestión del tráfico, la seguridad y la movilidad de personas y mercancías, entre otros. Las “smart cities” pueden conjugar una serie de tecnologías, en continuo desarrollo, para contribuir a la resolución de dichos problemas. Algunas de las tecnologías más relevantes son los sensores ubicuos, capaces de suministrar información sobre magnitudes de interés; las comunicaciones, que permiten conectar multitud de dispositivos a Internet; los sistemas de ayuda a la decisión, para procesar los datos y asistir a usuarios, empresas y administraciones a tomar decisiones; los sistemas de control, que también procesan datos y permiten gobernar en tiempo real sistemas como el alumbrado inteligente o la red de semáforos; y los interfaces con los usuarios, que, en forma de aplicaciones para dispositivos móviles o paneles en la vía pública, suministran información de interés para la toma de decisiones.

La gestión inteligente del tráfico es un aspecto transversal en las “smart cities”, puesto que favorece la resolución de muchos de los problemas planteados, en el que pueden aplicarse las mencionadas tecnologías.

La congestión del tráfico puede paliarse por medio de la aplicación de los sistemas inteligentes de transporte. Se trata de una herramienta exitosa que combina diferentes tecnologías para recabar datos en tiempo real de personas, vehículos e infraestructuras, comunicarla a través de Internet, almacenarla y procesarla, informar a los usuarios y ayudarles en la toma de decisiones, así como controlar dispositivos automáticos de regulación del tráfico.

Entre los medios utilizados para recabar datos de los agentes involucrados en el tráfico en las ciudades y de las infraestructuras viarias, destacan las videocámaras y diferentes tipos de dispositivos como sensores piezoeléctricos, magnéticos, inductivos, de infrarrojos, de microondas, radar, acústicos, e incluso sistemas que detectan dispositivos móviles e inalámbricos activos en el interior de los vehículos.

También existen diferentes herramientas para la ayuda en la toma de decisiones relacionadas con la gestión de tráfico. En este sentido, merece destacarse el modelado, la simulación y la optimización. Hay diferentes tipologías de simuladores de tráfico: desde los microscópicos, que analizan el comportamiento de agentes individuales, hasta los macroscópicos, donde el comportamiento del tráfico es simulado en su conjunto, pasando por los mesoscópicos, que combinan características de ambos tipos. Este rango de técnicas de simulación permite elegir el nivel de detalle en la simulación, la precisión de los resultados y el tiempo de cómputo necesario para completar una simulación.

Como aplicaciones de dichos simuladores, es posible estimar el efecto, en el tráfico en “smart cities”, de decisiones como la peatonalización de ciertas calles, la instalación de nuevos semáforos, la realización de trabajos viales o los cambios en el sentido de circulación de ciertas vías. Además, las empresas logísticas se benefician, porque pueden evaluar el éxito de diferentes estrategias de distribución, número y tipología de los vehículos disponibles o la elección de diferentes políticas de almacenamiento de producto o de mantenimiento de vehículos.

Entre las aplicaciones de los sistemas inteligentes de transporte, existen varias que presentan una contrastada influencia en la gestión de tráfico en ciudades inteligentes. Por ejemplo, la posibilidad de aplicar automáticamente sanciones por incumplimiento de las normas de circulación, tales como invadir carriles reservados, pisar una línea continua, incumplir una señal de stop o saltarse un semáforo en rojo. Cámaras con reconocimiento facial y de matrículas permiten identificar el vehículo y el conductor infractor.

Asimismo, se pueden destacar otras tecnologías relacionadas con la gestión del tráfico en “smart cities”: los paneles viales, que ofrecen datos de congestión de tráfico en vías próximas y tiempos estimados de tránsito; los semáforos con reprogramación centralizada, que permiten adaptar su temporización en tiempo real para dar prioridad a los carriles más congestionados o facilitar el paso de vehículos de emergencia; las aplicaciones para móviles que informan a los conductores sobre la localización de plazas de aparcamiento libres o que presentan una elevada probabilidad de estar libres en función de un histórico de datos, la hora del día o meteorología; la generación de alertas sobre peligros o catástrofes inminentes, así como la colaboración con los servicios de emergencia y la evacuación de zonas en riesgo.

Dentro del ámbito de la gestión inteligente del tráfico, existen otras tecnologías aún en desarrollo como las comunicaciones entre vehículos y entre vehículos y la infraestructura vial, a través de Internet. Por ejemplo, vehículos dotados de esta tecnología podrán transmitir a otros próximos datos sobre su posición, velocidad, aceleración y trayectoria estimada. De esta forma, los coches podrán generar alertas de riesgo de colisión en condiciones de escasa visibilidad por obstáculos, ángulos muertos o meteorología adversa.

Además, los vehículos podrán comunicar a la infraestructura vial datos sobre su posición y velocidad, incidencias en la conducción, o los aparcamientos que se ocupen. Así, se podrán generar datos precisos sobre el nivel de ocupación de las vías, avisar a otros usuarios sobre las incidencias encontradas o almacenar datos históricos sobre el nivel de ocupación de los aparcamientos que mejoren la previsión de ocupación en el futuro para informar a los potenciales usuarios.

Por otra parte, los vehículos podrán recibir de la infraestructura vial información sobre el nivel de congestión de las vías en tiempo real, así como sugerencias de rutas alternativas coordinadas con las propuestas a otros conductores para evitar congestionar también estas rutas alternativas, que podrían ser de menor capacidad. También se informará a los vehículos de plazas de aparcamiento libres o con elevada probabilidad de estarlo. Los conductores recibirán alertas sobre semáforos o señales viales, evitando infracciones por despiste, sobre la presencia de peatones en la calzada, accidentes o incidencias e, incluso, recomendaciones de velocidad específicas para cada vehículo.

Otra tecnología en desarrollo es la de los vehículos de conducción autónoma, entre cuyas ventajas futuras se pueden citar una mayor seguridad, mejor ocupación de la vía, menor probabilidad de embotellamientos y, posiblemente, una reducción en el estrés de los ocupantes.

 

Esta entrada ha sido elaborada por Juan Ignacio Latorre Biel, profesor del Departamento de Ingeniería en el campus de Tudela de la Universidad Pública de Navarra (UPNA) e investigador en el Instituto de Smart Cities (ISC)

Energías renovables y baterías de litio

El funcionamiento del sistema eléctrico tradicional se basa en una generación centralizada mediante grandes centrales, como son las nucleares, hidráulicas, de gas natural y de carbón. Esta electricidad se transporta mediante redes de alta tensión hasta los centros de consumo, situados en las ciudades y polígonos industriales, con objeto de producir bienes, desarrollar la actividad de comercios y empresas y suministrar energía a los hogares. El buen funcionamiento y la fiabilidad de este sistema eléctrico tradicional son indiscutibles. Sin embargo, al estar basado principalmente en combustibles fósiles y nucleares, dicho sistema no puede considerarse sostenible.

Las energías renovables son herramientas clave que van a permitir un cambio en este paradigma energético. Estas tecnologías rompen con las economías de escala que incentivaban la construcción de grandes plantas de generación eléctrica, permitiendo así la instalación de pequeñas centrales cercanas a los puntos de consumo y reduciendo, de esta forma, la necesidad de redes de alta tensión. Esta menor necesidad de redes de transporte eléctrico cobra especial relevancia si se tiene en cuenta el notable aumento en el consumo eléctrico que supondrá la inminente llegada de la movilidad eléctrica que, de otra manera, requeriría una importante inversión en redes de transporte eléctrico. A nivel económico, las renovables ya son competitivas al haber alcanzado un precio inferior a la generación eléctrica convencional, tal y como lo demuestran los 8.737 MW (megavatios) renovables sin prima adjudicados durante el año 2017 en España. Superado el reto económico, los siguientes desafíos de las renovables son su almacenamiento y gestión.

La amplia variedad de sistemas de almacenamiento, desde grandes centrales de bombeo hidráulico hasta pequeñas baterías para teléfonos móviles, ofrece un interesante abanico de posibilidades. En un escenario de generación descentralizada, merecen especial atención los sistemas de almacenamiento locales destinados a conseguir una adaptación perfecta entre la generación local (poco gestionable por ser de origen renovable) y el consumo, que tampoco se puede gestionar al antojo de frentes de nubes o rachas de viento. Este es el terreno de las baterías, sistemas de almacenamiento que se pueden instalar en los puntos de la red eléctrica donde sean más necesarios. Existen diversos tipos de baterías, aunque son las de plomo−ácido las más utilizadas hasta hace pocos años debido a su bajo coste.

Recientemente, ha tomado fuerza un feroz competidor del plomo en la fabricación de baterías: el litio, el metal más pequeño y ligero de la tabla periódica. Las baterías de iones de litio presentan mejores prestaciones que las de plomo−ácido en cuanto a tiempo de vida y eficiencia. La tecnología de las baterías de litio cuenta ya con una trayectoria comercial de casi tres décadas, en la que su espectacular desarrollo ha hecho que las baterías actuales y las que se desarrollaban hace pocos años sólo tengan en común su elemento portador de carga: el litio.

Las primeras baterías de litio se pusieron en el mercado a principios de la década de los 90 y se utilizaban para ordenadores portátiles, teléfonos, etc. El conocimiento adquirido y las mejoras tecnológicas realizadas durante las décadas de los 90 y los 2000, unidos a las posibilidades de abaratamiento detectadas en este tipo de baterías, han hecho que los fabricantes de vehículos eléctricos (bicicletas, ciclomotores, patinetes, coches, autobuses urbanos, etc.) se hayan inclinado, de forma prácticamente unánime, por diferentes tipos de baterías de litio. La curva de aprendizaje y las economías de escala derivadas de esta decidida apuesta están dando lugar a una rápida reducción de costes.

En concreto, la Agencia Internacional de la Energía pone números a esta tendencia. En un estudio publicado en 2017, esta agencia constata una reducción en el coste de fabricación de baterías de litio desde 860 euros por kWh (kilovatio/hora) en 2008 hasta 215 euros por kWh (kilovatio/hora) en 2016, lo que se traduce en una reducción de costes del 75% en solo ocho años. Esto significa que el coste de fabricación de una buena batería para un hogar (3 kWh) es de 645 euros. El precio de venta suele ser algo más alto, superando normalmente los 2.000 euros.

A día de hoy, desde el sector de las energías renovables se ve a las baterías de litio como la solución para su principal problema: la gestión de la energía generada. Sin embargo, el coste de estas baterías produce una reducción en la rentabilidad económica de las instalaciones renovables. Por ello, cada vez hay más fábricas de baterías de litio a nivel mundial (entre las que destacan las llamadas gigafábricas), compitiendo por conseguir producir la batería más barata y con mejores prestaciones del mercado. Se está planteando también una interesante opción que consiste en instalar, en plantas de generación renovable, baterías desechadas de coches eléctricos, cuyo precio es bastante menor que el de una batería nueva, a pesar de que sus prestaciones no sean tan buenas.

En este contexto es fundamental saber seleccionar para cada aplicación la mejor batería que ofrece el mercado, elegir el tamaño más conveniente y gestionarla de tal forma que se le saque el máximo partido, pero sin que ocurra lo que a menudo sucede con las baterías de los teléfonos móviles: el hecho de que, un año después de estrenarlos, la batería ya está en sus últimos días de vida.

 

Esta entrada ha sido elaborada por Alberto Berrueta Irigoyen, profesor del Departamento de Ingeniería Eléctrica, Electrónica y de Comunicación e investigador en el Instituto de Smart Cities (ISC) de la Universidad Pública de Navarra (UPNA)

Estadística en ingeniería: calidad y fiabilidad

El adagio “Lo que no se mide, no se conoce y no se puede mejorar” tiene plena vigencia en el ámbito de la calidad de los productos y servicios que, en la actualidad, son producidos y prestados por industrias, empresas y administraciones.  ¿Cómo gestionar y tomar las decisiones más adecuadas para una organización sin saber cómo evolucionan medidas e indicadores claves? El instinto y la experiencia, aun siendo cualidades útiles en la toma de decisiones,  son garantía, por sí solos, para la perpetuación de los mismos errores.

Hasta comienzos del siglo XX, la calidad dependía de los esfuerzos individuales de los artesanos. A partir de la organización de la producción en pequeñas tareas y la producción masiva, surge la preocupación por la calidad. Uno de las primeras aplicaciones de la estadística al control de calidad tuvo lugar en el contexto de la competencia entre dos marcas de cerveza: Ginnes y Carling. Afortunadamente para la primera, entre sus trabajadores dedicados a la mejora de la calidad se encontraba William Gosset. Sus trabajos no sólo fueron importantes para prolongar la frescura de la cerveza, sino que sirvieron para que, en 1908, introdujera la distribución t y el test t-student para el análisis estadístico de muestras pequeñas, una de las contribuciones más destacadas a la estadística en el siglo XX.

Al mismo tiempo, compañías como Ford y AT&T en Estados Unidos implementaron acciones para un control sistemático de la calidad.  El desarrollo de métodos estadísticos y su aplicación a la mejora de la calidad continuó ligada al estudio de situaciones reales. Así, por ejemplo,  Walter Shewhart, empleado de la compañía telefónica Bell,  diseña y aplica en 1924 los conocidos gráficos de control.

Todo producto (o servicio) posee un número de características que describen lo que un cliente o usuario considera como calidad. Un fabricante de electrodomésticos exigirá a su proveedor de láminas metálicas que estas posean un determinado grosor, resistencia, etc. Las unidades suministradas cumpliendo con estas especificaciones serán consideradas de calidad, mientras que aquellas que se alejen podrán llegar a ser descartadas. De este modo, la calidad de un producto se medirá como la adecuación de este con las especificaciones.

Una de las razones que dificulta proporcionar un producto o servicio de calidad es la variabilidad en los productos. Difícilmente dos productos, o servicios, son completamente idénticos. Debido a que el estudio de la variabilidad desde un punto científico corresponde a la estadística, esta juega un papel preponderante en la evaluación y en la mejora de la calidad. Se puede afirmar que la variabilidad es el principal enemigo de la calidad. Esta máxima rige la metodología para gestionar la calidad 6 sigma, que propugna una toma de decisiones basada en hechos y datos.

Un aspecto estrechamente relacionado con la calidad es la fiabilidad, que se puede definir como la calidad mantenida a lo largo del tiempo y se mide como una probabilidad. La fiabilidad del producto o servicio tiene una importancia vital y puede conferir una ventaja competitiva decisiva para la empresa. Un análisis riguroso de fiabilidad es imprescindible para el establecimiento de periodos de garantía de los productos y servicios. Los análisis de fiabilidad son tan importantes que, en ocasiones, han preocupado a dirigentes políticos y a la opinión pública en general.  Es el caso de los accidentes de los transbordadores espaciales Columbia y Challenger, que fueron estudiados por comisiones de investigación (¡de las de verdad!) y cuyos resultados provocaron cambios en la gestión de la fiabilidad y calidad de las misiones espaciales y, en general, de los programas espaciales de la NASA.

Por último, echemos un vistazo al futuro del control de calidad y, por extensión, al seguimiento y mejora de procesos. El uso creciente de nuevas tecnologías posibilita la recogida de datos en tiempo real y de un modo continuo. La ingente cantidad de datos generados requiere de nuevas metodologías y procedimientos estadísticos para ser tratados computacionalmente con eficacia. Sin duda, la edad de oro para la estadística ya ha comenzado.

 

Esta entrada ha sido elaborada por Fermín Mallor Giménez, catedrático de Estadística e Investigación Operativa del Departamento de Estadística, Informática y Matemáticas de la Universidad Pública de Navarra (UPNA) e investigador del Instituto de Smart Cities (ISC)

El trabajo forzado de cautivos en poder del Ejército sublevado durante la Guerra Civil y la posguerra

Los batallones de trabajos forzados organizados por los sublevados en la Guerra Civil y la posguerra se convirtieron en el mayor sistema de trabajos en cautividad de la España contemporánea. Nacieron como un modo de derivar parte del ingente número de prisioneros que desbordaban los depósitos y campos de concentración, y llegaron a incorporar a decenas de miles de personas (en 1939, estuvieron cerca de alcanzar los 100.000). Entre ellos, no solo hubo prisioneros de la Guerra Civil, sino que, una vez terminada la contienda, también se explotó de esta forma a jóvenes que debían realizar el servicio militar y fueron clasificados como “desafectos” al nuevo régimen y a parte de los sancionados por la Fiscalía de Tasas, que perseguía el estraperlo.

El origen del trabajo forzado en el sistema de campos de concentración se sitúa en 1937 con la creación de su principal institución impulsora: la Inspección de Campos de Concentración de Prisioneros de Guerra y fue progresivamente desapareciendo durante la primera mitad de la década de los 40.

Los trabajos forzados iban orientados, en unos casos, a las necesidades logísticas estrictamente bélicas (fortificaciones, apertura de trincheras, recuperación de material, intendencia…); en otros casos, cumplían necesidades militares (carreteras, puentes…) y, una vez acabada la guerra, quedaron para uso civil o directamente fueron “trabajos civiles” (labores agrícolas, repoblaciones, pantanos…).

El Estado fue el gran beneficiado de este sistema de trabajo, dado que el Ejército fue uno de los grandes empleadores, seguido de las autoridades civiles y, en menor medida, las empresas, eclesiásticos y particulares. Al tratarse de un recurso limitado, no se prestaba de forma ligera, ni mucho menos gratuita, y correspondía a Francisco Franco, desde el Cuartel General del Generalísimo, la decisión última sobre dónde serían empleados los cautivos y bajo qué condiciones. Las autoridades civiles, particulares, empresas y eclesiásticos debían pagar al Estado por el uso de los cautivos, además de darles techo y vigilarlos. No obstante, se beneficiaban porque obtenían mano de obra (entonces escasa) más barata, experimentada, disciplinada y profesionales con oficio.

Aunque queda pendiente el reto de conocer el número total de personas afectadas por el sistema de trabajos forzados, se ha podido contabilizar los volúmenes mensuales de mano de obra entre 1937 y 1945. Así, a comienzos de 1939, cerca de 250.000 cautivos estaban encerrados en campos de concentración (100.000 de ellos, derivados al trabajo forzado). El número de cautivos trabajadores no descendió de los 30.000 hasta 1942 y se mantuvo en cifras cercanas a los 50.000 hasta esa fecha. Hubo, al menos, 291 batallones de trabajo forzado, a los que se suman decenas de unidades que, sin la estructura de batallón, cumplieron funciones muy diversas durante la guerra, a disposición de los diferentes cuerpos del Ejército, regimientos, comandancias militares y otras entidades castrenses, así como fábricas militares y militarizadas.

Ha quedado un recuerdo de la experiencia subjetiva del trabajo forzado a través de las memorias y autobiografías de quienes experimentaron este tipo de explotación. Existen testimonios sobre la corrupción, los castigos físicos y psicológicos, las relaciones con la población civil y la situación de los cautivos, obligados a trabajar largas jornadas en condiciones climáticas y humanas que algunos ni siquiera habían vivido durante la guerra, en las que la humedad, el frío, los accidentes, las enfermedades o las agresiones físicas iban afectando a sus cuerpos.

 

Esta entrada ha sido elaborada por Juan Carlos García-Funes, licenciado en Historia, Máster en Historia Contemporánea y doctor por la UPNA con una tesis doctoral sobre los trabajos forzados durante la Guerra Civil y la posguerra españolas

Estadística y toma de decisiones en Economía

La Estadística tiene su origen en el desarrollo y uso de información numérica referida a los estados. De hecho, el término Estadística deriva de la palabra alemana “statistik”, que se utiliza para designar el análisis de datos estatales. Las principales decisiones de Política Económica (presupuestos, impuestos, pensiones…) se toman basándose en indicadores económicos que se han construido con información estadística.

Pensemos en dos de estos indicadores: el IPC (Índice de Precios de Consumo) y la tasa de paro. La evolución de estos indicadores se toma como referencia para disminuir la incertidumbre en la toma de decisiones de las autoridades públicas y de los principales agentes privados.

Por ejemplo, el índice de precios de consumo mide la evolución de los precios en un país o comunidad autónoma en un determinado periodo de tiempo. Para su elaboración, se observan las variaciones de precios de una serie de productos que constituyen la llamada “cesta de la compra”, que representa los hábitos de compra del consumidor promedio de ese país o comunidad. Su utilidad es indiscutible. Se emplea como referencia para fijar salarios en los convenios colectivos, para ajustar las pensiones públicas; para modificar los contratos de alquiler, etc.

El Instituto Nacional de Estadística informa de la tasa de variación mensual (variación de precios respecto al mes anterior) o la tasa interanual (variación de precios respecto del mismo mes un año antes). La primera tiene el inconveniente de que no informa de comportamientos estacionales, pudiendo dar a entender tendencias que no son tales, sino cambios puntuales debidos a la estacionalidad (por ejemplo, descenso de precios en el mes de enero, debido a las rebajas y no a una tendencia decreciente).

El índice interanual, por el contrario, refleja esa componente estacional, pero también oculta posibles cambios de tendencia que hayan sucedido durante el año. A veces, se interpreta de forma errónea y se considera que el IPC refleja la variación de precios que ha experimentado cada individuo en sus compras, cuando, en realidad, son valores promedio que tratan de representar el comportamiento conjunto, nunca individual. En el caso del IPC, cada uno de nosotros tenemos nuestra propia “cesta de la compra” y, si bien es cierto que hay  precios, como el de la gasolina, cuyas variaciones nos afectan a todos, también lo es que hay determinados bienes y servicios que nos afectan de distinta manera según sean las pautas de consumo que tengamos. Por ejemplo, las variaciones de precio de los servicios hoteleros solo afectarán a los individuos que utilicen esos servicios y soportarán una inflación distinta de aquellos que no los usan.

Respecto al otro indicador citado, la tasa de paro, se estima el número de parados como la diferencia entre la población activa (mayores de 16 años que trabajan o que buscan empleo) y la población ocupada (mayores de 16 años con empleo remunerado). En ocasiones, un aumento en el número de parados se interpreta como “destrucción de empleo” y, sin embargo, no tiene por qué ser así. El número de parados puede aumentar debido a un crecimiento de la población activa, a una disminución de la población ocupada o a ambas causas.

Las variaciones de este indicador son una referencia fundamental para la toma de decisiones de política económica, su aumento genera normalmente iniciativas ligadas a aumentar la inversión pública y favorecer el consumo privado para estimular la actividad e incrementar la producción. Se fomenta, también, el seguro de desempleo, para proteger a los ciudadanos que se han quedado sin trabajo.

En definitiva, el contar con estadísticas públicas fiables permite definir indicadores cuya evolución sirve como señal para intervenir en la economía. Los decisores públicos y privados, empresas y consumidores, los utilizan para tomar decisiones que afectan al conjunto de la sociedad. Saber interpretar correctamente los indicadores económicos es una tarea imprescindible para el buen gobierno de nuestra sociedad. La estadística afecta a nuestras vidas más de lo que podemos imaginar.

 

Esta entrada ha sido elaborada por Carmen García Olaverri, catedrática del Departamento de Estadística, Informática y Matemáticas e investigadora del Instituto INARBE (Institute for Advanced Research in Business and Economics) de la Universidad Pública de Navarra (UPNA)

Salvad@s por la fibra (I)

La fibra óptica es un cable que guía la información a través de la luz y está cada vez más presente en muchos de nuestros hogares para servicios de telecomunicación. De hecho, actualmente es la forma de transmisión de información más rápida y efectiva que existe, y es por esto que tenemos kilómetros de ella rodeando el planeta bajo nuestros mares y océanos. En esta web podéis ver, diariamente, los diferentes cables que se están distribuyendo a día de hoy entre los continentes, para mejorar la velocidad de transmisión de los datos en todo el globo.

Según esto, aparentemente, este cable “sólo” sirve para navegar por internet a alta velocidad y ver series de televisión o partidos de fútbol. Lo que quizá no pocos imaginamos es que la fibra óptica también puede servirnos para vestir, para decorar nuestras casas y, lo que es más importante: para curarnos.

De hecho, son varias las aplicaciones médicas que, a día de hoy, usan este cable para hacer terapia o diagnosticar pacientes. Un ejemplo de ello es la iluminación de los endoscopios que nos introducen cuando quieren observar el interior de nuestro tubo digestivo o respiratorio. También podemos encontrar fibra óptica guiando luz en aplicaciones estéticas, como en las máquinas que eliminan tatuajes, o en aplicaciones terapéuticas, bien a la hora de eliminar varices internas (técnica de endoláser) o bien a la hora de tratar incrementos anómalos, pero benignos, en la próstata de hombres con cierta edad.

Las técnicas anteriormente mencionadas se basan en lanzar chorros de luz más o menos potentes a través de la fibra óptica. Pero, ¿cómo se propaga la luz dentro de ella?

A diferencia de los cables de cobre, la fibra está hecha de vidrio. Su grosor habitual es de 125 micrómetros, equivalente a un pelo del cuero cabelludo, lo que la hace bastante flexible. Se compone de dos partes principales (ver Figura 1): el núcleo y la cubierta, que podrían ser equivalentes al vivo y al neutro de un cable coaxial de televisión. La cubierta presenta un índice de refracción (n), una especie de “resistencia al paso de la luz», ligeramente inferior al del núcleo. Esto permite el confinamiento de la luz en el interior del núcleo mediante el fenómeno de reflexión total interna (RTI). Este fenómeno es el mismo que ocurre cuando lanzamos luz láser a un chorro de agua que sale de una botella, tal y como ocurre en el vídeo que os muestro en este enlace.

La teoría, conocida como “Ley de Snell”, asume que no se pierde nada de luz en este fenómeno de RTI. Sin embargo, esto sería cierto si los materiales fueran ideales. Al no serlo, hay siempre una mínima pérdida en estas reflexiones, con lo que siempre hay una mínima cantidad de energía que se acopla y propaga en esa frontera entre el núcleo y la cubierta. Es lo que se denominaremos “luz evanescente” (ver Figura 1).

Afortunadamente, la existencia de esta luz evanescente permite que podamos usar la fibra óptica como sensor y, más concretamente, como biosensor. Es decir, un aparato que podría diagnosticarnos si tenemos alguna enfermedad o si la podemos padecer en algún momento de nuestra vida.

Sin embargo, y dado que estamos de vacaciones, mejor dejamos el tema de las enfermedades para más adelante y vamos a disfrutar del verano.

Lo que está claro es que la fibra óptica, que nos gusta tanto estudiarla en el grado y en el máster en Ingeniería de Telecomunicación de la UPNA, puede servirnos tanto para mantenernos al día de lo que pasa en el mundo, como para mejorar nuestra calidad de vida y nuestra salud.

¡Que paséis felices vacaciones!

Esta entrada ha sido elaborada por Abián Bentor Socorro Leránoz, investigador del Instituto de Smart Cities (ISC) de la Universidad Pública de Navarra (UPNA) y profesor del Departamento de Ingeniería Eléctrica, Electrónica y de Comunicación.

¿Por qué parece tan grande la plaza del Ayuntamiento de Pamplona?

Todo visitante de Pamplona fuera de las fiestas de San Fermín suele hacer el mismo comentario: “¡Qué pequeña es la plaza del Ayuntamiento!”. Entonces, ¿por qué parece tan grande cuando la vemos por la tele el día del Chupinazo?

Se trata de un “truco” de la percepción. Cuando recibimos información del mundo a través de nuestros sentidos, no nos comportamos como una cámara de vídeo que se limita a registrar lo que ocurre. Las personas construimos la percepción y, en ese proceso de construcción, incorporamos multitud de informaciones diferentes. En general, somos mucho mejores apreciando diferencias que valores absolutos. Millones de años de evolución han ido seleccionando la capacidad de decidir qué fruta está más madura, qué animal es más grande o qué planta es más alta, mientras que no importaba el valor preciso de esa altura, peso o color.

En la percepción del tamaño de un objeto, nos vemos influidos por el contexto. Un ejemplo clásico es la ilusión de Ebbinghaus Titchener, descrita a finales del siglo XIX.

En ella, un círculo del mismo tamaño objetivo lo percibimos mayor cuando está rodeado de círculos pequeños que cuando lo está de otras mucho mayores.

En este vídeo de la serie “Ciencia en el bar”, protagonizado por Javier Armentia Fructuoso, astrofísico y director del Planetario de Pamplona, y Joaquín Sevilla Moróder, profesor, investigador y responsable de Divulgación del Conocimiento de la Universidad Pública de Navarra (UPNA), se pretende mostrar este efecto en el caso de la plaza que acoge el Chupinazo que da comienzo a los Sanfermines.

En él, los dos divulgadores explican que dicha sensación es un fenómeno que se debe a la percepción integrada o global que el ser humano tiene de los espacios y de los elementos contenidos en ellos. En el caso de la Plaza del Ayuntamiento de Pamplona, tenemos una especie de ilusión de Ebbinghaus al revés: en vez de ser el continente el que condiciona la percepción del contenido, es lo que hay dentro (una muchedumbre) lo que influye en la percepción del recinto, que lo presuponemos mucho más grande para alojar a tanta gente. Y es que los “trucos” de la percepción no sólo ocurren en situaciones de laboratorio diseñadas para engañar; ocurren en la vida cotidiana.

 

Esta entrada ha sido editada por Joaquín Sevilla Moróder,  responsable de Divulgación del Conocimiento de la Universidad Pública de Navarra (UPNA)

 

Videojuegos para enseñar Historia

A lo largo del tiempo que llevo trabajando con videojuegos en las aulas, he podido ir topando con opiniones diversas acerca de mi trabajo. He detectado en primera persona que el uso educativo de los videojuegos sigue siendo un tema controvertido. Compañeros de profesión han llegado a sentirse casi ofendidos por la sola idea de “jugar a maquinitas”, al entender que la enseñanza con videojuegos elimina el esfuerzo del alumno de la “ecuación” educativa, o que incluso con ello se pretende algún tipo de “revolución” que niega los efectos de las enseñanzas tradicionales. Por todo ello, conviene aclarar que la utilización de un videojuego en un aula debe tener un sentido, y que debe estar orientada a conseguir objetivos que otras metodologías no aportan. No se pretende desterrar las demás metodologías, sino señalar que determinados videojuegos, en determinadas circunstancias y con una acción didáctica complementaria, permiten aprendizajes concretos de un alto nivel de cognición que serían muy difíciles de conseguir con otras metodologías. Es decir, se ha demostrado que los videojuegos pueden aportar aspectos complementarios interesantes en la enseñanza y, también en concreto en la enseñanza de la Historia.

De hecho, el uso de videojuegos ambientados en diferentes etapas del pasado permite al alumnado de Educación Primaria y Secundaria entender conceptos complejos de la Historia, como aquellos relacionados con el tiempo (cambios, duraciones o sucesiones), y también realidades de las sociedades históricas asociadas a lo cotidiano (economía, desigualdad social o cultura). Así se constata en una investigación desarrollada en la Universidad Pública de Navarra (UPNA) basada en varios talleres didácticos con estudiantes de entre 12 y 14 años de seis centros educativos de la Comunidad Foral: Cardenal Ilundáin y San Juan de la Cadena (ambos de Pamplona), Francisco Javier Sáenz de Oiza (Cáseda), Doña Álvara Álvarez (Falces), Santa María la Real-Maristas (Sarriguren) y el IESO de Berriozar.

La investigación siguió una doble línea de trabajo. Por un lado, se analizaron las representaciones sociales del Medievo, perceptibles en los propios videojuegos, en las producciones electrónicas de los “gamers” o jugadores (por ejemplo, foros, chats o diversos portales) y en la publicidad de estos juegos. Por otro lado, se buscó conocer el impacto de los videojuegos en las aulas, por medio de talleres realizados en centros de Educación Primaria y Secundaria. Los resultados del proyecto se pueden encontrar en la web www.historiayvideojuegos.com.

En estos talleres, no sólo se analizaron las respuestas de los alumnos a sencillas encuestas, sino que, además, se intentaron realizar pequeñas propuestas didácticas con la finalidad de enseñar Historia utilizando, junto a otros recursos más clásicos, videojuegos comerciales ambientados en épocas del pasado, en este caso, medieval. Es lo que se denomina Aprendizaje basado en juegos.

Por lo tanto, la utilización de los videojuegos puede ser una herramienta didáctica más, integrada dentro de las programaciones docentes ordinarias, para reforzar la comprensión de fenómenos históricos complejos no ligados a la Historia factual. Podemos afirmar que las estrategias lúdicas (gamificación, aprendizaje basado en juegos, juegos serios…) permiten lograr aprendizajes efectivos, interesantes, motivadores, diferentes y complementarios y, por tanto, deberían poder integrarse en todas las etapas educativas, si bien, hoy en día, suelen restringirse a Educación Infantil y Primaria.

 

Más información:


 

Esta entrada ha sido elaborada por Íñigo Mugueta Moreno, profesor del Departamento de Ciencias Humanas y de la Educación e investigador de la UPNA

Las consecuencias jurídicas de las infecciones asociadas a la asistencia sanitaria

Entre los incidentes negativos o “eventos adversos” que pueden perjudicar a los pacientes, las infecciones asociadas a la asistencia sanitaria (en inglés, Health Care-Associated Infection -HCAI-), y especialmente las hospitalarias o nosocomiales, son, según la OMS, los que se producen con mayor frecuencia en el mundo. Entre las infecciones hospitalarias, las cuatro endémicas más comunes son las urinarias, las del sitio de una intervención quirúrgica, la neumonía y las relacionadas con el uso de catéteres intravasculares. En España, constituyen la segunda causa de eventos adversos, por detrás de la relacionada con la medicación, según el Estudio Nacional sobre los Efectos Adversos ligados a la Hospitalización (ENEAS), de 2005.

Estas infecciones representan un serio problema, tanto desde la perspectiva de la salud pública (agravado por el incremento de la resistencia a los antibióticos), como desde el punto de vista económico. La Unión Europea recoge en la Recomendación de 9 de junio de 2009, del Consejo de la Unión Europea, sobre la seguridad de los pacientes, en particular la prevención y lucha contra las infecciones relacionadas con la asistencia sanitaria (2009/C 151/01), que, según estimaciones del European Centre for Disease Prevention and Control (ECDC), anualmente en Europa las infecciones hospitalarias afectan a unos 4,1 millones de pacientes y causan directamente unas 37.000 muertes. A ello debe añadirse la producción de pérdidas de aproximadamente 7 billones de euros solo en costes directos. En España, el reciente estudio EPINE-EPPS 2017 de la Sociedad Española de Medicina Preventiva, Salud Pública e Higiene, realizado sobre 313 hospitales y 61.673 pacientes, informa que el pasado año la prevalencia de pacientes con infección nosocomial en España era del 7,74%, solo ligeramente inferior al 7,88% de 1995.

Sin embargo, y a pesar de su relevancia, se trata de un problema prevenible y evitable en un porcentaje que, en Europa, se estima en el 20-30%, lo que explica, primero, que la tasa actual de infecciones nosocomiales se considere inaceptable y, segundo, los numerosos programas que se han puesto en marcha desde principios de este siglo con el objetivo de reducir su incidencia. En España, las iniciativas para combatirlo se incluyen actualmente en la Estrategia de Seguridad del Paciente del Sistema Nacional de Salud (2015-2020) del Ministerio de Sanidad, Servicios Sociales e Igualdad.

Desde la perspectiva de los pacientes afectados, las infecciones nosocomiales pueden originar daños como la ceguera o la amputación de algún miembro, un agravamiento del proceso que motivó inicialmente la asistencia sanitaria, la prolongación de la hospitalización o, incluso, el fallecimiento del enfermo. También pueden provocar otros daños económicos o morales; por ejemplo, cuando implican inactividad profesional o pérdida de habilidades para el paciente.

Se entiende así que el enfermo o sus familiares se planteen reclamar la indemnización de los perjuicios derivados de la infección hospitalaria. Sin embargo, mientras el sistema sanitario español está reaccionando seriamente ante el problema en lo que le corresponde, la respuesta de la jurisprudencia a las pretensiones individuales de los perjudicados por infecciones nosocomiales resulta más confusa: no siempre se entiende por qué en unos casos la reclamación prospera y en otros no, o por qué las cuantías del baremo de accidentes de circulación son en unos casos adecuadas y en otros, no; y lo mismo ocurre con la insegura aplicación de la doctrina del daño desproporcionado, o de la antijuridicidad de la lesión… Tampoco parece posible anticipar si una mera referencia genérica, en el consentimiento informado firmado por el paciente, a la posibilidad de contraer «infecciones» se considerará o no como información «adecuada y suficiente» que libere de responsabilidad al prestador del servicio.

Lo cierto es que un paciente hospitalizado se ve sometido a un riesgo de infecciones nosocomiales cuya magnitud generalmente ignora. Salvo los supuestos infrecuentes de riesgo totalmente desconocido e imprevisible para la ciencia médica (en su día lo fue el contagio de VIH), que excluye lógicamente cualquier medida previa, en la mayoría de las ocasiones las infecciones nosocomiales son, bien debidas a negligencias o fallos -y por ello evitables-, bien conocidas y previsibles -pero inevitables por producirse, a pesar de la perfecta corrección técnica de los tratamientos o intervenciones y de la adopción de todas las medidas razonablemente exigibles-.

En el primer caso, si las infecciones pudieron y debieron haberse evitado, resulta razonable indemnizar sus consecuencias. En estos supuestos, uno de los problemas de mayor interés práctico radica en determinar si las dudas acerca de la causa del daño o de la negligencia supuestamente cometida -cuando esta es también necesaria- deben perjudicar al demandante (paciente, familiares) o al demandado (titular privado o público del centro, profesionales). Aunque el punto de partida es que la carga de la prueba corresponde al demandante, en ocasiones puede invertirse (aspecto en el que las sentencias no siempre resultan coincidentes), siendo entonces el demandado quien, para resultar absuelto, deba demostrar ser ajeno a la causa del daño o haber actuado diligentemente.

En el segundo caso –infecciones previsibles, pero inevitables-, parece que solo la asunción del riesgo por un paciente informado debiera permitir exonerar de responsabilidad al prestador del servicio. Pero la dificultad de este tipo de casos reside en precisar los límites de la información sanitaria legalmente exigible, porque, superada ya la idea de que aquella deba ser “exhaustiva”, hay que admitir que una información parcial puede resultar legalmente suficiente. Conviene recordar, de todas formas, que la falta de la información debida suele considerarse causa de un daño moral específico y distinto de los relacionados con el problema de salud, y que sería propiamente el perjuicio indemnizable.

 

Esta entada ha sido realizada por María Luisa Arcos Vieira, profesora titular de Derecho civil, investigadora del Instituto INARBE (Institute for Advanced Research in Business and Economics) de la UPNA y autora del libro “Responsabilidad civil por infecciones asociadas a la asistencia sanitaria”