Radiografía de las poetas navarras de hoy

En Navarra, aunque “a priori” pueda pensarse lo contrario, el listado de poetas navarras en castellano que han publicado entre 1975 y 2015 es significativo, sobre todo, si tenemos en cuenta que cada una de ellas cuenta con tres o cuatro poemarios.

Así, en dicho periodo, se contabilizan catorce autoras nacidas en Navarra: en los años 30, María Blanca Ferrer García y María Sagrario Ochoa Medina; en los 50, Marina Aoiz Monreal, Rosa Barasoain Asurmendi, Charo Fuentes Caballero, Julia Guerra Lacunza, Socorro Latasa Miranda y Maite Pérez Larumbe; y en los 70, Irati Iturritza Errea, Uxue Juárez Gaztelu, Margarita Leoz Munilla, Trinidad Lucea Ferrer, Leire Olkotz Vicente y Regina Salcedo Irurzun. A ellas se suman tres poetas afincadas en la Comunidad Foral: Isabel Blanco Ollero, Fátima Frutos Moreira y Ana Jaka García.

A pesar de vivir épocas diferentes, todas ellas comparten temática. Hablan de la reivindicación de la mujer como sujeto activo. En sus poemas, tratan el amor y la maternidad desde un punto de vista feminista y sus personajes femeninos son más libres. También abordan el cuerpo sin miedo, sin tapujos, y persiguen cuál es el concepto de la vida en la búsqueda personal, lejos de la religión.

Desde el punto de vista del lenguaje, se percibe una evolución en las tres generaciones: primero fue más simbólico y, posteriormente, más sencillo, más cercano a la realidad. Sí es destacable el lenguaje rompedor de la generación de los 70. Las nacidas en dicha década apuestan por nuevas formas de expresión y de renovación, por el verso libre y la ruptura de los convencionalismos del lenguaje, o la experimentación y la conjugación interdisciplinar de las artes hasta lograr la construcción de una voz y de un lenguaje propios.

En los últimos años, ha sido muy destacable la influencia de las nuevas tecnologías. De hecho, Internet ha sido una puerta muy importante para dar a conocer la poesía, un género que se está revitalizando, con casos como los del madrileño Marwan y de la segoviana Elvira Sastre, dos poetas muy seguidos por los adolescentes, que hablan de la tristeza, del día a día y de problemas cotidianos, lo que favorece la conexión con el público.

Por ello, para las poetas navarras, la difusión de los contenidos no se enfoca tanto a la publicación del papel, sino al intercambio de poemas y puntos de vista con autores de otros países a través de internet y de plataformas “online” como blogs o redes sociales.

Además, las poetas navarras actuales, al igual que ocurre en el ámbito nacional, apuestan por una evolución de la concepción de la poesía. Ya no se centran exclusivamente en la palabra, sino que se muestran partidarias de combinar poesía con otras formas de reivindicación cultural como la música, el teatro o la experimentación (“performance”), es decir, expresiones artísticas más cercanas a la realidad.

Este estudio (originalmente, una tesis doctoral defendida en la Universidad Pública de Navarra) despertó el interés de publicación de la Editorial Torremozas, especialista en edición de obras literarias de mujeres, cuando el pasado febrero lanzó una antología que recoge los poemas de las autoras seleccionados por la antóloga del estudio, Isabel Logroño. Asimismo, se prevé para este 2018 el lanzamiento del contenido de investigación incluido en la tesis bajo el formato libro, con el título “Búsqueda de identidad. Mujeres poetas de Navarra (1975-2017)”, editado por el Servicio de Publicaciones del Gobierno de Navarra.

 

 

Esta entrada ha sido realizada por Isabel Logroño Carrascosa, doble licenciada en Filología Hispánica y en Comunicación Audiovisual y doctora por la UPNA con una tesis sobre la poesía femenina actual de Navarra en castellano entre 1975 y 2015

 

La biomasa forestal, fuente de energía sostenible

La biomasa forestal es el combustible más antiguo usado en el mundo, pero gestionado con criterios técnicos modernos. Leña, carbón vegetal, serrín, virutas… son productos que han sido tradicionalmente utilizados en talleres y hogares durante décadas, incluso siglos, para producir calor. Sin embargo, a partir de los años 60 del siglo XX, con la urbanización, el abandono de los pueblos y la reducción de la actividad en el medio rural, el origen de la principal fuente de calor ha ido pasando al gasoil y al gas natural. El uso de la leña ha quedado reducido al ámbito rural.

Sin embargo, hay una oportunidad única de recuperar y potenciar el uso de la biomasa forestal como una fuente de energía sostenible. Esto se debe a una combinación de factores: la gestión de los montes realizada en el pasado, la situación del mercado de los combustibles fósiles o el desarrollo tecnológico del sector, con nuevos tipos de combustible a partir de la leña y el serrín como astillas de tamaños homogéneos, briquetas y “pellets”, que son pequeñas pellas cilíndricas de serrín prensado. Estos nuevos combustibles han homogeneizado e industrializado la oferta de biomasa y las nuevas calderas e instalaciones han aumentado la eficiencia de este combustible, con rendimientos del 85 o 90%, de tal forma que generan más calor por unidad de leña.

Estos factores explican por qué el uso de la biomasa forestal como energía se está extendiendo rápidamente en el ámbito rural y de las pymes (pequeñas y medianas empresas), aunque queda como reto su desarrollo en ambientes urbanos e industriales.

No obstante, el uso de la biomasa tiene que hacerse de forma sostenible, es decir, que no provoque un deterioro de las condiciones ambientales, económicas y sociales. En la actualidad, existen herramientas cualitativas y cuantitativas para valorar la sostenibilidad del uso de esta energía de forma combinada en los ámbitos ecológicos, económicos y sociales.

Sin embargo, los principales retos para la sostenibilidad de esta fuente de energía son triples: ambientales, económicos y sociales. Ambientalmente, hay que mantener el funcionamiento del ecosistema y la biodiversidad del bosque a largo plazo para asegurar que su capacidad productiva no se reduce. A ello se suma que, económicamente, es necesario asegurar que existe una demanda suficiente para mantener la producción de biomasa, sin que desborde la capacidad de producción del medio ambiente y del sector industrial. Finalmente, desde el punto de vista social, la biomasa tiene que ser utilizada de forma que se ponga en valor un recurso local y se potencie la economía y el empleo rural, sin poner en peligro otros usos del monte. En definitiva, la viabilidad de la biomasa como una fuente de energía sostenible depende de los condicionantes particulares de cada monte, usuario y zona.

 

 

Este post ha sido realizado por Juan A. Blanco Vaca, investigador del Instituto de Innovación y Sostenibilidad en la Cadena Agroalimentaria (IS-FOOD) de la UPNA y coordinador del libro “Usando la biomasa forestal como una fuente de energía sostenible”

 

Fraude electoral… en el siglo XIX

Las elecciones en Navarra de diputados a Cortes a lo largo del reinado de Isabel II (1833-1868) se caracterizaron por las prácticas fraudulentas, como en el resto del país. Fueron ejercidas por los distintos partidos —cuyos miembros pugnaban por hacerse con el control de las mesas electorales para poder amañar los resultados— o realizadas a través de presiones y medidas arbitrarias ejercidas por el Gobierno, en especial a través del gobernador civil de turno y de sus agentes, y por la Diputación.

Los procesos de sufragio, a lo largo de las 22 convocatorias electorales del reinado isabelino, estaban regidos por un sistema censitario liberal, que restringía el censo a un escaso número de hombres pudientes —quienes pagaban un determinado nivel de impuestos— y al denominado grupo de las “capacidades” o individuos que desarrollaban una profesión intelectual, avalada, en general, por estudios superiores. El censo, no obstante, varió según las diferentes leyes electorales que tuvieron vigencia a lo largo del periodo: del Estatuto Real de 1834 a las que se derivaron de la Constitución progresista de 1837 y de la moderada de 1845.

Para entender las limitaciones que tenía este sistema electoral censitario, reducido a una minoría de votantes contribuyentes, resulta ilustrativo indicar que el censo electoral de Navarra nunca superó los 20.000 electores. Llegó a oscilar entre los 3.095, asignados en 1839, y los 19.060 que tuvieron derecho a voto en su momento más popular, los comicios de 1844, sobre una población oficial de la provincia que osciló durante esa época, de 1833 a 1868, entre los 221.000 y los 300.000 habitantes.

Precisamente, la inclusión o exclusión interesada de electores en el censo era una de las prácticas fraudulentas de estos comicios, junto a la distribución de distritos para favorecer a una determinada opción política. Además, en esta época, van a surgir algunos candidatos navarros que anuncian ya la figura del cacique; entre otros, Tomás Jaén, progresista, y Nazario Carriquiri, moderado. No obstante, Navarra aportó en esta época grandes figuras políticas a nivel nacional, surgidas de las urnas, que llegaron a ostentar diversas carteras ministeriales, como los moderados: Agustín Armendáriz, Fermín Arteta, Joaquín I. Mencos o García Goyena, que llegó a presidente del Gobierno; y entre los progresistas, Pascual Madoz o José Alonso.

La burguesía liberal monopolizó la representación electoral de Navarra durante la mayor parte del periodo, a través de los dos grandes partidos que vertebraron el sistema: el moderado y el progresista, a los que luego se sumará, desde una posición centrista, la Unión Liberal. No obstante, hubo un carlismo latente en Navarra, que se manifestó puntualmente en circunstancias favorables, como la ampliación del censo electoral, en las elecciones de 1844, o en las últimas convocatorias del reinado, las de 1865 y 1867, ante la agudizada crisis del sistema censitario que se llevó por delante a la propia reina, sostenida por un moderantismo cada vez más autoritario y conservador, frente al resto de las fuerzas liberales.

 

Esta entrada ha sido elaborada por Jesús Balduz Calleja, diplomado en Magisterio, licenciado en Historia y doctor por la Universidad Pública de Navarra (UPNA) con una tesis sobre las elecciones en Navarra de diputados a Cortes a lo largo del reinado de Isabel II

Ejercicio físico: la pastilla milagrosa que previene y cura enfermedades

Las llamadas enfermedades no transmisibles matan a 38 millores de personas cada año, especialmente en los países de ingresos bajos y medios. Según la Organización Mundial de la Salud (OMS), las enfermedades cardiovasculares son las más prevalentes (17,5 millones cada año), seguidas del cáncer, las enfermedades respiratorias y la diabetes.

La mayoría de las intervenciones para prevenir estas enfermedades se han centrado en reducir el consumo de tabaco y alcohol, en promover comportamientos saludables como el consumo de frutas y verduras y en la práctica de ejercicio físico regular. Uno de los comportamientos saludables recomendados para prevenir dichas dolencias es el ejercicio físico. Recientemente, se han publicado varios estudios que muestran que aquellos programas que incluyen sesiones con entrenamiento interválico de alta intensidad (o “High-Intensity Interval Training”-HIIT) generan mejores respuestas fisiológicas, metabólicas y hormonales que las que se asocian con el entrenamiento tradicional continuo moderado-intenso de alto volumen. Este tipo de entrenamientos “HIIT” consiste en repetir de cuatro a seis veces ejercicios de corta duración (desde treinta segundos hasta cuatro minutos), a alta intensidad (por encima del 85-95% de la frecuencia cardiaca máxima), con entre tres y cuatro minutos de recuperación.

El entrenamiento interválico fue descrito, por primera vez, por Reindell y Roskamm en Alemania y, posteriormente, fue popularizado por el campeón olímpico en pruebas de fondo Emil Zátopek en 1950. Desde una perspectiva de salud pública, los llamados protocolos “HIIT” tienen una importante relevancia científica, ya que “la falta de tiempo” y “el sedentarismo” siguen siendo dos de las barreras comúnmente más citadas para realizar ejercicio de forma regular en todas las edades.

Entrenamientos interválicos

A corto plazo, los programas que incluyen protocolos tipo “HIIT” han demostrado ser unos métodos seguros que producen mejoras significativas en varios índices de salud relacionados con la edad, como, por ejemplo, en la capacidad cardiorrespiratoria, la composición corporal, la función endotelial (que juega un importantísimo papel en la regulación, mantenimiento y control de las funciones cardiocirculatorias) y en los marcadores del control de la glucosa en sangre y de los lípidos (colesterol, triglicéridos), tanto en individuos sanos como en aquellos en riesgo cardiovascular (sedentarismo, exceso de peso o dieta inadecuada) o en sujetos afectados por algún tipo de enfermedad cardiometabólica (hipertensión arterial, fallo cardiaco congestivo o síndrome metabólico).

Actualmente, el Grupo de investigación en Biomecánica y Fisiología del Movimiento (BIOFIM) de la UPNA, dirigido por el catedrático Mikel Izquierdo, en colaboración con el profesor Robinson Ramírez Vélez, del Centro de Estudios en Medición de la Actividad Física (CEMA) de la Universidad del Rosario de Bogotá (Colombia), ha iniciado un proyecto de investigación denominado “Entrenamiento interválico de alta intensidad para la mejora de la salud Cardiometabólica en pacientes con sobrepeso (Cardiometabolic HIIT-RT Study)”. Su objetivo es evaluar los efectos de diferentes intervenciones de ejercicio físico e intensidades sobre la función endotelial, la variabilidad de la frecuencia cardiaca y varios biomarcadores del metabolismo de los lípidos y los carbohidratos (unos tipos de nutrientes) en adultos con exceso de peso. Esta iniciativa examinará la respuesta individual de las personas a este tipo de entrenamiento para realizar en un futuro un programa de entrenamiento “a la carta” y personalizado.

Los primeros resultados de este proyecto muestran que el HIITT, respecto al entrenamiento tradicional continuo moderado-intenso de alto volumen, tiene efectos superiores en el incremento el flujo sanguíneo, lo que favorece la vasodilatación y previene enfermedades como la hipertensión arterial y el fallo cardiaco. Otras adaptaciones cardiacas tras un entrenamiento con “HIIT” han sido la reducción de la frecuencia cardiaca en reposo (bradicardia).

Con los resultados obtenidos de este proyecto de colaboración entre la Universidad Pública de Navarra y la Universidad del Rosario de Bogotá (Colombia) se podrá contribuir a dilucidar posibles mecanismos implicados en el desarrollo de las enfermedades no transmisibles y proporcionar información para el diseño e implementación de intervenciones encaminadas a prevenirlas en cualquier etapa de la vida.

 

Esta entrada ha sido realizada por Mikel Izquierdo Redín, catedrático del Departamento de Ciencias de la Salud de la Universidad Pública de Navarra (UPNA)

 

 

“Smart Cities”

“Smart Cities” es un término, ya generalizado a nivel mundial, por el que se conocen a aquellas ciudades que pretenden ofrecen una mejor calidad de vida a sus ciudadanos, combinando una buena política de eficiencia energética y un cuidado del medio ambiente, utilizando para ello tecnologías y servicios inteligentes, integrándolos adecuadamente en la ciudad actual. En algunas fuentes añaden el matiz de que las “Smart Cities” pretenden aumentar la felicidad de sus ciudadanos, teniéndolos más atendidos, con las necesidades cubiertas y resolviendo los problemas casi antes de que los ciudadanos puedan percibirlos.

Mejoras en servicios como transporte (ahora entendido como un nuevo concepto más global de movilidad urbana); tratamiento de residuos urbanos y sistemas de reciclaje; control de todo el sistema de aguas de una ciudad (incluyendo suministro de aguas de boca, riego de jardines y zonas verdes de la ciudad, depuradoras de aguas residuales, etc.); potenciación de generación y almacenamiento de energías verdes; monitorización y optimización del uso de la energía; mejora de la atención sanitaria (que tiende a ser mucho más personalizada); y todos los trámites con la administración pública (ya sea local, comarcal, autonómica o nacional) van convirtiéndose, poco a poco, en una realidad a la que fácilmente nos podemos acostumbrar.

El imaginario futurista ha sido siempre bastante amplio pero ahora ya se trata de la realidad cotidiana, y todas las propuestas, sean tecnológicas o no, pasan, y pasarán, el filtro de la sociedad, que decidirá, imperturbable, si le mejora o no la vida y si está entre las opciones que pueden continuar y se instaurarán en esa sociedad del futuro próximo.

Muchas de las propuestas tecnológicas ya empiezan a ser una realidad: coches eléctricos y autónomos conectados a su entorno, compras “online” generalizadas con una potenciación de todos los sistemas logísticos de reparto; control del tráfico rodado y de personas por las carreteras y ciudades; sistemas de seguridad y vigilancia cada vez más complejos; sistemas de iluminación de ciudades inteligentes y más eficientes, etc., pero todavía queda mucho trecho por recorrer.

Sin embargo, no todo tiene que pasar por soluciones necesariamente tecnológicas, ya que, en muchos casos, la información que se pretende conseguir con la tecnología ya la tienen las administraciones (ayuntamientos, comunidades autónomas, gobiernos, etc.), o una aproximación bastante real, y únicamente hace falta tratarla de una manera “inteligente” para que resulte realmente de utilidad.

Hoy en día, la administración sabe dónde vivimos, dónde trabajamos, si tenemos vivienda en propiedad o no, si tenemos hijos o no, si utilizamos mucho o poco los servicios de transporte, atención primaria sanitaria, bibliotecas públicas, comercios locales, etc. Con todos esos datos, debidamente anonimizados, podría gestionarse la ciudad de una manera muchísimo más eficiente, pudiendo, por ejemplo, prever de una forma muy sencilla y rápida, en un día laboral o festivo, los movimientos de la población, priorizando unas vías frente a otras en horas punta. También se podría evaluar el efecto del corte de ciertas calles a ciertas horas, planificar el transporte urbano de una forma más eficiente, etc.

En concreto, para mejorar y controlar todo lo relativo a la movilidad urbana, sería necesario desarrollar un modelo de movilidad urbana integral (que, a día de hoy, no existe) que nos permitiera evaluar las nuevas propuestas de movilidad: vehículos eléctricos compartidos, líneas rápidas de transporte urbano, reconsideración de las actuales líneas urbanas, localización de hub’s de transporte de personas y mercancías, planificación de carriles bici, peatonalización de ciertas calles o zonas, aparcamientos disuasorios y sus sistemas de lanzaderas, instalación de escaleras o rampas mecánicas, ascensores, etc. Con este modelo debidamente desarrollado y los datos que ya dispone la administración, tendríamos información más que suficiente para mejorar ostensiblemente la movilidad de los ciudadanos.

Son muchos los cambios que se avecinan. Muchos de ellos ya los tenemos aquí y, probablemente, todavía no los hemos descubierto. Vayamos, pues, poco a poco, incorporando los que ya tenemos y evaluando las propuestas que se nos puedan ir haciendo, para conseguir que, realmente, las nuevas tecnologías supongan una mejora significativa de nuestra calidad de vida.

 

Esta entrada ha sido elaborada por Carlos del Río Bocio, director del Instituto de Smart Cities (ISC) de la UPNA

 

¿Cómo es la Tierra de grande?

A todos nos cuesta mucho hacernos una idea real de los valores numéricos muy alejados de nuestra experiencia cotidiana: billones de euros, cientos de millones de kilómetros, milmillonésimas de metro… Una forma de irse aproximando a la comprensión de dichos valores extremos (quizá la única) consiste en escalarlos: modificarlos en una proporción determinada de forma que la versión a escala sí caiga en la experiencia cotidiana. Esta es la idea que hay detrás de este vídeo, que parte de las siguientes cuestiones: ¿a qué distancia está la Luna de la Tierra? ¿Cuántas veces cabría la Tierra en el hueco que las separa?… Entre copas y aceitunas, se explica una aproximación al sistema Tierra-Luna.


No es posible dibujar a escala la distancia que separa la Tierra de la Luna en una sola figura y que se aprecie bien todo. Por ello, es muy habitual representar la Tierra y la Luna a escala, pero no la distancia que las separa. Esta se acorta muchísimo. La inmensa mayoría de las figuras que se utilizan para explicar los eclipses adolecen de este problema. Eso hace que, generalmente, tengamos una idea preconcebida falsa de esta distancia. A partir de los datos reales (ver tabla adjunta) se pueden realizar múltiples ejercicios para conseguir una apreciación más realista de las proporciones entre estas distancias y tamaños.

Aparte de la pregunta del vídeo, podemos cuestionarnos cómo queda la cosa si la Tierra fuera un balón de baloncesto (la Luna queda como una pelota de tenis, separada 11 metros), cómo quedarían ambos cuerpos si la distancia de separación fuera un metro, etc.

Enlaces de interés:

  • Interesante vídeo sobre este tema (en inglés, con subtítulos en español).
  • Otro vídeo (en inglés, con subtítulos en español) que comienza igual y luego enfatiza los efectos gravitatorios en la Estación Espacial Internacional.
  • Otro interesante vídeo en el que se pone el acento en que la órbita no es enteramente circular y cómo se conocen con precisión las distancias.
  • La Luna fotografiada día a día durante un año. Montaje de las fotos en 2,5 minutos. Además de las fases, se aprecian muy bien pequeños movimientos que no solemos considerar.
  • Artículo de la Wikipedia sobre la Luna, con mucha información y algunas animaciones muy interesantes.

 

Este post ha sido editado por la Unidad de Cultura Científica (UCC) de la Universidad Pública de Navarra

La resiliencia económica de las regiones

La resiliencia es un término relativamente nuevo en economía. Aunque el concepto se ha utilizado durante tiempo en otros ámbitos como la ecología, últimamente ha atraído la atención de analistas regionales y economistas espaciales y geógrafos, especialmente desde la última crisis económica internacional. En términos generales, la idea principal lo que nos dice es que diferentes grados de resiliencia explican las diferentes tendencias de crecimiento económico en las regiones de un país.

Aunque no existe una definición universalmente aceptada de resiliencia económica regional, hay tres formas de interpretar el concepto. La más frecuente es la “resiliencia de la ingeniería” que se centra en la resistencia que tiene, en este caso una región, ante un shock económico y la velocidad de recuperación. Para medir la resiliencia regional los dos indicadores más comunes que se emplean son el PIB y el empleo de una región. En concreto, la tasa de variación del PIB o del empleo de una región en relación con la tasa de variación del país para un período concreto de tiempo.

Evolución PIB per capita 1980-2015

Estudiar el caso de las regiones españolas resulta interesante, ya que existen diferencias entre las mismas en términos de PIB y de empleo durante los períodos de crisis. La última crisis económica ha afectado a España de manera más dura que en otros países europeos y ha dejado altas tasas de desempleo y grandes diferencias entre las comunidades autónomas.

Evolución tasa de empleo (1980-2015) en comunidades autónomas España

La estructura productiva de una región es uno de los factores principales a la hora de explicar la resiliencia regional; de hecho, los efectos de una crisis pueden diferir sustancialmente entre industrias. La industria manufacturera, la minería, energía y construcción son sectores que tienden a comportarse peor que el sector servicios. Baleares, Canarias y Madrid, cuya especialización es el sector servicios, son las comunidades autónomas más resilientes de España en las últimas crisis económicas (1992-93, 2008-2013). Diferentes estudios confirman que el turismo es un factor que afecta positivamente a la capacidad de afrontar una recesión económica. Asimismo, la resiliencia de las islas, como Baleares y Canarias, se debe principalmente a la industria del turismo, que supone un pilar fundamental para la recuperación de las economías ante las crisis.

Enlaces de interés

 

Este post ha sido realizado por Yolanda Ubago Martínez, licenciada en Economía y doctora por la Universidad Pública de Navarra

¿Cuál es el objeto más lejano del Universo?

Hace pocos años se observó y estudió una galaxia que batió el récord de objeto más antiguo conocido: se formó casi a la vez que la luz empezó a recorrer el Universo, pero ¿cómo fue posible verla? Javier Armentia y Joaquín Sevilla lo explican en este vídeo de la serie divulgativa Ciencia en el Bar

La luz que se recoge partió de dicha galaxia en una fase muy temprana del universo, muy poco después de que la luz empezara a viajar por el espacio. En etapas anteriores, la densidad y temperatura de la materia la mantenía en estado de plasma y, entre cargas libres, la luz no viaja: es absorbida y reemitida continuamente por las cargas y no progresa.

Esa luz se ha ido esparciendo por el Universo. Si podemos verla hoy desde la Tierra es gracias a una afortunada casualidad y a una consecuencia sorprendente de la teoría de la relatividad general de Einstein: el efecto de lente gravitatoria.

La consecuencia de la relatividad es que la luz es atraída por la gravedad y, al pasar cerca de objetos muy masivos, su trayectoria se curva. De esta forma, puede ocurrir que en una región del espacio haya una gran concentración de materia que actúe como una lupa, reconcentrando tras ella los rayos que le llegaban divergentes.

Eso es lo que ocurre con un cúmulo de galaxias que hay entre el objeto antiquísimo (MACS0647-JD) y la Tierra. Como estas gigantescas lentes no se pueden mover a voluntad es por una (afortunada) casualidad que la tierra queda en el foco en el que el cúmulo de galaxias reconcentra la luz del MACS0647-JD.

Enlaces de interés

 

Este post ha sido editado por la Unidad de Cultura Científica (UCC) de la Universidad Pública de Navarra

Técnicas para ayudar en la toma de decisiones

La sociedad de la que formamos parte confía cada vez más en sistemas tecnológicos complejos para prestar servicios y producir bienes de consumo. Podemos pensar en sistemas de gestión de tráfico y flotas de vehículos, sistemas de producción, puertos y aeropuertos, sistemas de mantenimiento industrial, redes de telefonía, sistemas de gestión médica y hospitalaria, sistemas de gestión de recursos en catástrofes naturales, etc.

Estos sistemas complejos deben ser diseñados y operados de manera que satisfagan las expectativas de los usuarios, que suelen ser muy exigentes, por lo que es necesario que su funcionamiento sea óptimo o, al menos, que utilicen de forma eficiente los recursos disponibles.

El diseño y la operación de estos sistemas exigen tomar numerosas decisiones, ya que suelen presentar muchos grados de libertad que deben ser configurados. Por ejemplo, al operar un sistema productivo es preciso definir el tipo de productos que se van a fabricar en cada momento, las materias primas y otros recursos, los flujos de información, recursos y productos, etc. Al diseñar un sistema productivo es necesario definir el tipo y número de máquinas que se instalarán, su ubicación y cómo será la operación de dicho sistema.

Problemas y dificultades

Uno de los problemas más difíciles en el contexto de la toma de decisiones en sistemas complejos es predecir cuáles serán las consecuencias de tal o cual decisión, especialmente en escenarios con alta incertidumbre. En ocasiones, una mala decisión puede tener consecuencias nefastas para la seguridad de las personas o para la supervivencia de una empresa.

Existen diversas técnicas que ayudan a tomar decisiones basándose en predicciones. Una de ellas está sustentada en modelos de simulación. Este concepto se basa en el desarrollo de una descripción cuantitativa del sistema complejo de interés. Puede realizarse por medio de un algoritmo, de un grafo (en la imagen inferior se muestra un tipo particular de grafos de sistemas complejos llamados redes de Petri) o de expresiones matemáticas como ecuaciones diferenciales o ecuaciones de estado para sistemas de eventos discretos.

 

Los modelos se pueden configurar con las decisiones que se deseen tomar y su evolución puede simularse en periodos de tiempo virtual, permitiendo así conocer los efectos de dichas decisiones. El grado de precisión de la predicción dependerá de lo fiel y detallado que sea el modelo respecto del sistema original, así como del grado de incertidumbre en la información disponible para construir el modelo.

Una dificultad añadida al problema de la toma de decisiones en sistemas complejos es la llamada explosión combinatoria. Este problema surge cuando se pueden construir soluciones al problema de decisión completo combinando soluciones parciales a cada grado de libertad del sistema. El número de combinaciones posibles en ese contexto puede ser gigantesco y es lo que define el tamaño del espacio de soluciones.

Selección de soluciones

La exploración exhaustiva del espacio de soluciones llevaría demasiado tiempo, por lo que solo suele ser posible analizar un pequeño número de ellas. Estas soluciones permiten configurar el modelo y simularlo para predecir los efectos de dicha decisión. La selección de las soluciones a simular se suele hacer de forma intuitiva. La intuición puede ser de personas expertas en el ámbito del problema, aunque también es posible utilizar la “intuición” de un algoritmo, como en el caso de las heurísticas y las metaheurísticas. Algunas de ellas imitan fenómenos naturales como el de la evolución de las especies, el comportamiento de colonias de hormigas, enjambres de partículas o el recocido de metales.

Una vez explorado un cierto número de soluciones prometedoras y evaluados los efectos de cada una de ellas en relación con los objetivos del sistema, es posible jerarquizar las soluciones analizadas o escoger una de ellas para una toma de decisiones. Este tipo de metodología ha sido planteado y aplicado satisfactoriamente por investigadores de la UPNA a sistemas de fabricación, industria alimentaria, industria 4.0, gestión de tráfico y redes logísticas, entre otros.

 

Este post ha sido realizado por Juan Ignacio Latorre Biel, profesor del Departamento de Ingeniería Mecánica, Energética y de Materiales de la Universidad Pública de Navarra (UPNA) y miembro del Institute of Smart Cities (ISC)

¿Qué es la materia oscura?

El profesor e investigador Joaquín Sevilla y el astrofísico Javier Armentia utilizan el café para contarnos qué es la materia oscura. El objetivo de este vídeo de la serie divulgativa “Ciencia en el bar” es explicar ese concepto y por qué se postula su existencia a pesar de ser “oscura”; es decir, invisible.


La observación astronómica actual proporciona unos datos muy precisos de posición y movimiento de las estrellas. Las galaxias son agrupaciones de estrellas que se mueven conjuntamente debido a que la atracción gravitatoria de unas respecto de otras proporciona una cierta cohesión al conjunto.

El análisis detallado de los datos, sin embargo, muestra que el movimiento de las estrellas en las galaxias es más compacto del que correspondería exclusivamente a la atracción gravitatoria de las estrellas. Para que las observaciones cuadren con las previsiones derivadas de la gravedad es necesario suponer que hay más materia ejerciendo atracción gravitatoria. Pero esa materia extra no se observa en los telescopios; es como si no interaccionara con la luz (de ninguna frecuencia observable). Por lo primero, por ser objeto de la atracción gravitatoria, se le llama “materia”, mientras que por lo segundo, por su invisibilidad, se le llama “oscura” (quizá un adjetivo poco afortunado). Y así queda para este concepto el nombre de “materia oscura”.

Enlaces de interés

 

Este post ha sido editado por la Unidad de Cultura Científica (UCC) de la Universidad Pública de Navarra