Corcheas iguales pero diferentes: el secreto de Pau Casals desvelado por el ordenador

Igor Saenz Abarzuza, profesor del Área de Música del Departamento de Ciencias Humanas y de la Educación de la Universidad Pública de Navarra

 

Pau Casals fotografiado por Ferdinand Schmutzer en 1914.
Wikimedia Commons 

Pau Casals fue un activista: reconocida figura del catalanismo, se exilió en Prades (Francia) en su mejor momento profesional. Era una estrella del violonchelo cuando decidió hacer un estricto boicot artístico a los países que reconocían el régimen dictatorial de Franco, lo que lo dejó sin muchas opciones.

Curiosamente, el que fuera protegido de la reina María Cristina y compañero de pupitre de Alfonso XIII, posteriormente sería acérrimo defensor de la legítima II República. Casals, tenaz en su empeño y convicciones, no paró de ayudar a los exiliados y de presionar allí donde era escuchado.

Queda en el imaginario colectivo un nonagenario Casals tocando su Cant dels Ocells o dando el famoso discurso en la ONU en 1971 pidiendo paz. Rodeado siempre de destacadas figuras intelectuales, políticas y musicales de su tiempo, fue tal la importancia del Casals más militante, que su inmenso legado musical ha quedado en un segundo plano.

Reconocido por colegas, discípulos y público, su nombre se escribe con letras de oro en la historia de la música tanto por su contribución al violonchelo, como por su labor musical más allá de su instrumento.

Revisión crítica

A falta de una revisión crítica de su vida y obra, la gran parte de sus biografías (publicadas antes de la muerte de Casals), idealizan su persona ocultando partes controvertidas como los devenires de su matrimonio con Susan Metcalfe, la relación con Frasquita de Capdevila o su vínculo con la también violonchelista Guillermina Suggia. También queda por dilucidar su papel en la Operación Serenidad en Puerto Rico, país natal de su madre.

Estos asuntos han sido revisados críticamente por la profesora de la Universidad de Montana Silvia Lazo, para poder, más allá de su vida personal, descubrir al músico que hay detrás del mito.

Pau Casals en 1915.
Wikimedia Commons / Library of Congress

Autodidacta y solidario

El músico Pau Casals, o Pablo, como se le conocía en el extranjero, atesora destacados logros: fue el primer concertista profesional del violonchelo de la historia, un eminente director de orquesta y también compositor, un virtuoso prácticamente autodidacta. Con una clara conciencia social, se preocupó de llevar la música clásica de calidad a los más humildes, creando y financiando su propia orquesta en Barcelona.

Destaca el hito de ser el primero en grabar las Seis Suites para violonchelo solo de Johann Sebastian Bach, y el primero también en registrar una obra completa de tal envergadura. Lo que parecía a priori una mala estrategia comercial, resultó un acierto que otros músicos se apresuraron a imitar.

Análisis computacional

Con una personalidad arrolladora que se dejaba oír en su música, Casals sabía perfectamente lo que hacía cuando tocaba el violonchelo, como se ha podido demostrar gracias a los actuales medios de análisis. En concreto, la investigación realizada con medios computacionales sobre su interpretación de la Sarabande de la 5ª Suite, uno de los 36 movimientos que forman el conjunto de las Suites, demuestra su minucioso control del tiempo.

Esta obra, compuesta de 108 notas, tiene la peculiaridad de que 100 de estas notas tienen el valor rítmico de corchea, es decir, duran lo mismo sobre el papel. En otras palabras, la obra tiene poca variedad en cuanto a las duraciones de cada nota se refiere, pero esto es solo aparentemente.

Corcheas infinitesimalmente distintas

Según la partitura, todas estas corcheas deberían durar lo mismo, pero es aquí donde entra en juego el intérprete musical. Viendo los resultados del tiempo usado en el análisis de la Sarabande, la interpretación de Pau Casals se puede explicar a unos niveles que no son perceptibles a tiempo real.

Hoy, los ordenadores permiten analizar lo que pasa inadvertido para el común de los oyentes, pero que genios como Casals hacían deliberadamente. Gracias al programa libre Sonic Visualiser, un proyecto emprendido por la Universidad de Londres y que cuenta con equipos por todo el mundo, hay disponibles plugins que analizan diferentes parámetros del sonido: entre estos, los que permiten medir las duraciones hasta la mínima expresión.

El genio intuitivo de Casals

En el caso de la Sarabande, nos fijamos en cuánto dura cada una de las 108 notas. Es ahí, en el detalle, donde se ve al genio: tomándose la libertad de hacer durar diferente las 108 notas, esta variedad no impide a Casals respetar en todo momento la partitura de Bach.

Es más, parece que lo de saber qué hacer con cada nota no es genuino del intérprete catalán, sino uno de los secretos de los grandes maestros y de las grandes maestras. En otra reciente investigación publicada en 2021, y que parte de la mencionada anteriormente, se compara la interpretación que Pau Casals hizo con la Sarabande registrada por la violonchelista y pedagoga francesa Anne Gastinel.

La interpretación de Casals de 1939 y la de Gastinel de 2007 se llevan 68 años. Si reparamos en la duración de la grabación en el disco, la de la violonchelista francesa dura 2 minutos y 44,977 segundos, mientras que la de Casals, 2 minutos y 47,626 segundos. Por tanto, la diferencia es tan solo de 2,649 segundos.

Es paradójica esta práctica coincidencia en la duración total, ya que Bach, quien con su muerte en 1750 marca el final del barroco, no especificó la velocidad con la que la Sarabande debía ser interpretada y por eso otras versiones tienen duraciones que varían mucho más. Hay que recordar que la costumbre de especificar la velocidad con un metrónomo tardaría todavía unos años, no estandarizándose hasta Beethoven.

Iguales pero muy diferentes

¿Coincidencia? Este escaso margen de duración entre las dos versiones de la Sarabande las hace idóneas para compararlas en busca de convergencias y divergencias. Con esto ya surge la pregunta: ¿hay diferencias entre ambas interpretaciones? Sí las hay: el resultado del análisis computacional muestra las diferentes posibilidades que manejan los dos genios con la misma obra y en el mismo lapso de tiempo. Sin hacer lo mismo, tanto Pau Casals como Anne Gastinel tocan sin duda lo que Bach escribió.

Queda demostrado: Casals y Gastinel sabían perfectamente lo que se hacían en cada segundo y por debajo del mismo. Ahí están las manos del intérprete y de la intérprete. Así, las dos versiones de la Sarabande están llenas de variedad en el mínimo detalle que nos ofrece el microscopio de los datos de las duraciones de cada nota al milisegundo.

En casi el mismo tiempo, dos propuestas diferentes. Por lo tanto, como demuestran ambos maestros, hay margen para la interpretación musical. Un reproductor MIDI haría iguales todas las corcheas y una inteligencia artificial haría tres cuartos de lo mismo, por lo que el factor humano prevalece (al menos de momento). Estas investigaciones corroboran lo que tantas veces repetía Casals:

“Toda la fantasía que quieran… ¡pero con orden!”

 

Igor Saenz Abarzuza, Profesor Ayudante Doctor del Área de Música, Universidad Pública de Navarra

Este artículo fue publicado originalmente en The Conversation. Lea el original.

¿Por qué ahora los incendios son mayores y más peligrosos?

Rosa Maria Canals Tresserras, profesora del área de Producción Vegetal del Departamento de Agronomía, Biotecnología y Alimentación de la Universidad Pública de Navarra (UPNA)

Tiempo de lectura estimado: 4 minutos

Es necesario gestionar el paisaje para combatir los incendios de gran magnitud

 

Los incendios precisan oxígeno, combustible y una fuente de ignición. Son procesos naturales, que han estado siempre ahí, originados por un rayo o por las propias actividades humanas. Aunque siempre hemos convivido con ellos, hoy en día los incendios son más grandes, más impredecibles y destructivos que hace tan solo unas décadas. Su comportamiento errático y su severidad desconcierta a los servicios de emergencia de todo el planeta, a pesar de su alto nivel de preparación. Dejan tras ellos miles y miles de hectáreas quemadas y, en muchos casos, también vidas. ¿Por qué han cambiado los incendios? Rosa Maria Canals, profesora de la Universidad Pública de Navarra y especialista en ecología y gestión de recursos naturales, alerta del gran peligro que suponen y defiende que hay que intervenir en el entorno natural para poner freno a los grandes fuegos.

Canadá, Portugal, Grecia u Oregón son tan solo algunos de los lugares que han sufrido en los últimos tiempos incendios de unas dimensiones enormes. ¿Están cambiando los incendios en el mundo?
Sí. En los años 60, teníamos incendios de categoría 1 y 2, pero con el paso del tiempo, estos incendios han ido incrementando en categoría y ya, en las últimas décadas, sufrimos incendios muy severos de quinta y sexta generación. Los de quinta generación pueden provocar diferentes focos simultáneos, como ocurrió en Grecia en el 2007. Los de sexta generación liberan tal cantidad de energía que son capaces de desarrollar un comportamiento propio e, incluso, generar vientos erráticos que les posibilita propagarse en direcciones, velocidades y sentidos imprevisibles. Fue lo que sucedió en el incendio de Portugal en 2017 o en el de Chile, también el mismo año, en el que, en apenas una noche, el fuego arrasó más de 100.000 hectáreas.

¿Podemos combatir incendios de esta magnitud?
En la extinción de estos grandes incendios se depende totalmente de los factores meteorológicos, de que cambie la dirección y la intensidad del viento, de que empiece a llover… Es lo único que puede frenarlos. Además, estos megaincendios se convierten en fenómenos globales, cuyo impacto puede producirse también a miles de kilómetros de distancia. Por ejemplo, el humo de los incendios de California y Oregón del pasado verano llegó hasta Europa. Los incendios de los suelos de turba de Indonesia o de Siberia están acabando con uno de los principales sumideros de carbono del planeta….

¿Por qué ocurre esto? ¿Por qué ahora hay más incendios y son más peligrosos?
Ahora hay más incendios debido al cambio global que incluye factores tan determinantes como el cambio climático y el cambio en la gestión del suelo. Por un lado, vivimos olas de calor más intensas en verano y periodos de sequía más prolongados, que hacen que la vegetación esté más seca. Por otro, cada vez viven menos personas en el entorno rural, se utilizan menos los recursos naturales y decae el pastoreo y los herbívoros, que son quienes desde siempre nos han ayudado a consumir y controlar la vegetación, es decir, el combustible. Además, la agricultura ha disminuido también, provocando una variación en nuestros paisajes que han dejado de ser un mosaico de teselas a ser más homogéneos. Las masas forestales arboladas, los bosques, se están recuperando rápidamente, desaparecen los espacios abiertos, disminuye la transitabilidad, se pierde biodiversidad a nivel de paisaje y se acumula mucha más biomasa combustible.

Y a todo ello, le sumamos la pasión del ser humano por vivir rodeado de Naturaleza, sin pensar en que un incendio se puede llevar por delante todo…
Todos tenemos en mente urbanizaciones como las que se dan en las zonas costeras mediterráneas o en nuestros archipiélagos, en las que las viviendas están rodeadas de bosques y densos pinares. Me imagino que una persona que se va a vivir a una casa perdida en el monte o a una urbanización pensará que, si se produce un incendio, tendrán que ir enseguida a rescatarle. Y, la pregunta es: ¿realmente nos lo podemos permitir?

Hagámosla entonces… ¿Realmente nos lo podemos permitir?
Pues difícilmente podemos. Los incendios actuales superan muchas veces nuestra capacidad de extinción, pero también nuestra capacidad de predicción: no es posible predecir hacia dónde van a ir, o cuántos focos se van a producir, lo que dificulta planificar una evacuación. Además, en lugares poco poblados, podemos organizar evacuaciones en plazos de tiempo muy cortos, como ha ocurrido en el norte de Canadá o en Oregón, pero un megaincendio en zonas con mayor densidad poblacional, es complejísimo. O se trabaja en protección civil, o se trabaja en extinción y control del incendio. No se llega a todo. Europa está muy poblada y los riesgos asociados a un incendio de estas características se multiplican. La gente está acostumbrada a sentirse protegida y no se da cuenta de que las cosas, quizá, no siempre van a ser así.

Entonces, en nuestro país, ¿no están los bomberos y servicios de emergencias preparados para extinguir estos fuegos?
En España siempre hemos sufrido incendios y existe mucho conocimiento y experiencia. Nuestras brigadas de bomberos están muy bien formadas y contamos con empresas pioneras a nivel mundial en el desarrollo de tecnología destinada a la prevención y extinción de incendios. Pero también tenemos una serie de hándicaps. Somos un país con mucha población diseminada en el entorno natural, especialmente en áreas mediterráneas, lo que supone mucha interfaz urbano-forestal, a lo que hay que añadir que, en el diseño de las urbanizaciones, no se ha tenido en cuenta el riesgo de los incendios. Nuestro clima es cálido y seco en verano, la vegetación es pirófita, -arde fácilmente- y, finalmente, se ha producido un tremendo abandono del uso de los recursos naturales (madera, leña, pastos…). El pastoreo extensivo y el aprovechamiento de nuestros bosques ha caído en picado. Es decir, existe una buena preparación para la extinción, pero tenemos unas condiciones que hacen que los incendios puedan adquirir categorías de quinta y sexta generación, que se encuentran fuera de la capacidad de extinción.

¿Y qué es lo que tenemos que hacer para impedir el enorme daño que un incendio de quinta o sexta generación podría hacer?
Tenemos que prevenir gestionando el paisaje más humanizado. El riesgo para nosotros mismos, la especie humana, es muy alto si se abandona nuestro entorno rural y natural. Es vital mantener paisajes en mosaico, aprovechar sosteniblemente los recursos maderables, pastables, etc. En definitiva, crear paisajes resilientes a los megaincendios y al cambio climático, dos grandes amenazas interconectadas. Gestión implica humanos (guardianes) viviendo en un entorno rural y aprovechando y gestionando sosteniblemente los recursos que ese entorno les ofrece. La solución pasa por recuperar el medio rural, el aprovechamiento forestal, la agricultura, la ganadería y, en el entorno de las áreas urbanas, crear cinturones verdes de muy baja carga combustible.

¿Existe conciencia en la sociedad de este peligro?
Falta mucho camino por recorrer porque somos una sociedad eminentemente urbana y muy desconocedora de nuestro entorno natural. Aunque nos gusta disfrutarlo, no entendemos su funcionamiento, su dinámica, su ecología… La Unión Europea es conocedora del grave riesgo de los megaincendios favorecidos por el cambio climático y por el cambio de usos del suelo y está apostando cada vez más por la investigación aplicada y la tecnología destinada a enfrentarnos a este riesgo.

Descubre más sobre este tema escuchando el podcast “¿Por qué ahora los incendios son mayores y más peligrosos? , de Ciencia al punto, el podcast de divulgación científica de la UPNA.

Más información: 

Adams MA (2013) Megafires, tipping points and ecosystem services: Managing forests and woodlands in an undertain future. Forest Ecology and Management, 294: 250-261.

Barbero R, et al (2015) Climate change presents increased potential for very large fires in the contiguous United States. International Journal of Wildland Fire, 24: 892-899.
Bond WJ, Keeley LE (2005) Fire as a global “herbivore”: the ecology and evolution of flammable ecosystems. Trends in Ecology and Evolution, 20: 387-394.

Calkin D, et al. (2014) How risk-management can prevent future wildfire disasters in the wildland-urban interface. Proceedings of the National Academy of Sciences of the EUA, 111: 746-751.

Canals RM (2016) El fuego en el paisaje: Aprendiendo del pasado para gestionar el futuro. En: Usando la biomasa forestal como fuente de energía sostenible. Blanco J (ed.). pp. 31-45. Ediciones de la Universidad Pública de Navarra. Pamplona.

Canals RM (2019) Landscape in motion: revisiting the role of key disturbances for the preservation of mountain ecosystems. Geographical Research Letters, 45: 515-531.
Pausas JG (2012) Los Incendios Forestales. 128 pp. Consejo Superior de Investigaciones Científicas.

Pausas JG (2018) Incendios forestales, encrucijada natural y social. En: Ecología de la regeneración de zonas incendiadas (García Novo F, Casal M. Pausas JG). pp. 9-14. Academia de Ciencias Sociales y del Medio Ambiente de Andalucía.

Ikuspegia: una visión en perspectiva de la historia de las pandemias

Eloísa Ramírez Vaquero, Catedrática de Historia Medieval en la Universidad Pública de Navarra y Joaquín Sevilla Moróder, responsable de la Cátedra de Divulgación del Conocimiento y Cultura Científica de la Universidad Pública de Navarra (UPNA)

 

Instalación Ikuspegia.

La humanidad lleva conviviendo con microbios de diverso tipo toda su historia. Una convivencia que pasa por épocas más pacíficas y por momentos más turbulentos a los que denominamos epidemias o pandemias. En un momento como el actual, en que una de estas pandemias ha revolucionado nuestra forma de vida, es especialmente interesante echar un vistazo a esa historia e intentar sacar de ella alguna enseñanza.

Con esa finalidad se han puesto en marcha multitud de proyectos académicos en estos meses. Por citar algunos, es muy interesante la síntesis de 19 momentos históricos elegidos por el Grupo Epidemia de la Universidad de Oviedo, el libro “El día después de las grandes epidemias” del medievalista de la Universidad Autónoma de Barcelona, José Enrique Ruiz- Domènec, y el libro “Virus y pandemias” del microbiólogo de la Universidad de Navarra Ignacio López-Goñi.

En la Universidad Pública de Navarra, desde la Cátedra Laboral Kutxa de cultura científica, también nos hemos querido sumar a este tipo de iniciativas con una instalación artística que sirva para incitar a esa mirada con perspectiva del momento actual. La instalación consiste en una escultura en la que cinco anillos de acero, de dos metros de diámetro cada uno, pretenden simbolizar cinco momentos de la historia, cinco grandes pandemias.

Dentro de cada anillo, un disco sólido representa el porcentaje de la población mundial que pereció a causa de esa enfermedad. Por último, con un taladro en cada uno de esos discos se simboliza el porcentaje de personas fallecidas a causa de la covid-19. El conjunto muestra un túnel del tiempo en el que se hacen muy patentes las enfermedades como obstáculos que ha sido necesario sortear para seguir adelante.

instalación Ikuspegia-En perpectiva. 

La instalación se completa con un sitio web en el que se da un poco de información sobre cada una de las cinco pandemias escogidas. Una parte de esa información está disponible también como locuciones a las que se puede acceder con el teléfono móvil a través de códigos QR, uno de esos elementos tecnológicos que, aunque existían desde hace mucho, se han hecho populares precisamente por las restricciones derivadas de la pandemia actual.

La selección de solo cinco momentos históricos de los muchos que se han visto marcados por enfermedades puede basarse en múltiples criterios. En nuestro caso hemos intentado que se cubriera un período amplio de la historia, que fueran pandemias propiamente dichas (de alcance mundial) y que fueran situaciones de gran impacto.

Grandes pandemias de la historia. por número de fallecidos.
Infografía elaborada a partir de Visual Capitalist. (2020, 14 marzo). Visualizing the History of Pandemics.

De la viruela al sida

1. Comenzamos en el siglo II con la peste que vivió Galeno, que mató al emperador romano junto con cerca del 5 % de la población mundial y que fue causada, probablemente, por viruela hemorrágica. En un tiempo tan remoto es imposible disponer de datos precisos. Por eso, tanto la población mundial como el número de fallecidos y la enfermedad de la que se trataba han de ser estimados a partir de las crónicas disponibles. Esta incertidumbre es aún mayor para enfermedades más antiguas.

2. A mediados del siglo VI, mientras Justiniano era emperador en Constantinopla, una oleada de peste bubónica acabó con cerca del 30 % de la población. Tan terrible balance tuvo consecuencias enormes en la demografía, la economía y la organización social. Esta pandemia contribuyó de forma importante al colapso del Imperio bizantino y, con ello, a un radical cambio de equilibrio político y económico en todo el Mediterráneo y Oriente Medio.

Vestimenta que llevaban los médicos para tratar la peste. Wikimedia Commons 

3. La tercera pandemia que representamos en la instalación es la peste negra, sufrida a mediados del siglo XIV y que supuso una mortalidad monstruosa. Se considera que en Navarra pereció el 60 % de la población. Más de 100 localidades en esta comunidad quedaron despobladas. La incidencia promedio en Europa se estima en el entorno del 40 %. Los “médicos de la peste” de entonces empezaron a utilizar una característica vestimenta, la versión ancestral de los actuales EPI, que todavía hoy es el motivo principal de los disfraces en el carnaval de Venecia. La peste volvió en múltiples oleadas, vez tras vez, hasta hoy.

4. Saltamos al siglo XX sabiendo que dejamos fuera grandes historias como la influencia de las enfermedades en la conquista de América y la introducción del alcantarillado moderno para luchar contra el cólera en el Londres del XIX. La penúltima pandemia plasmada en la instalación es la gripe de 1918, una variante especialmente agresiva de la gripe estacional que seguimos padeciendo cada invierno. En plena guerra mundial, y difundida en gran medida por las tropas, la padeció un tercio de la población mundial y causó más muertes que la propia guerra. Entre 50 y 100 millones de personas (alrededor del 5 % de la población mundial) perdieron la vida por la enfermedad.

5. Concluimos nuestra panorámica de estos eventos terribles con el sida, una pandemia que aún no podemos dar por concluida aunque que se ha controlado mucho gracias a los avances científicos y de salud pública. Un virus que se transmite por fluidos corporales (vía sexual y sanguínea principalmente) que ha matado a 35 millones de personas desde que empezó a hacerse patente a comienzos de los años 1980.

Un contexto para la covid-19

Con este repaso por momentos tan dramáticos no se pretende, ni mucho menos, minimizar el momento que estamos viviendo, solo se busca proporcionar contexto. Cuarentenas, confinamientos, vestimentas especiales para evitar contagios y mascarillas han existido desde hace siglos. La incertidumbre ante nuevas enfermedades ha generado cultos a dioses y santos, pero también odios a minorías; ha generado inmensos descalabros económicos seguidos de grandes oportunidades de desarrollo.

Una perspectiva como esta no tiene una lectura canónica, cada persona que se asome a ese repaso histórico encontrará el ángulo con el que mejor sintonice. Desde una Cátedra de cultura científica no podemos evitar señalar que en la pandemia que estamos viviendo el papel del conocimiento científico está siendo extraordinario. Nunca hemos estado tan preparados científicamente. Se dispuso de una identificación del patógeno que causaba la enfermedad, incluyendo la secuenciación de su genoma, en semanas desde que se detectó.

Además, se está logrando la inmunidad de grupo sin tener que exponer a la enfermedad a toda la población. El desarrollo de vacunas, efectivas y seguras, de diferentes tecnologías, es algo nunca visto en esa historia. Su fabricación masiva y distribución a toda la población mundial tampoco. Esperemos que podamos ponerlo en breve en la lista de singularidades de la pandemia que vivimos hoy.

Joaquín Sevilla, Catedrático de Tecnología Electrónica, Universidad Pública de Navarra y Eloísa Ramírez Vaquero, Catedrática de Historia Medieval, Universidad Pública de Navarra

Este artículo fue publicado originalmente en The Conversation. Lea el original.

Fast ciencia: Tras el coronavirus, ¿ha perdido credibilidad la ciencia?

Joaquín Sevilla Moróder, responsable de la Cátedra de Divulgación del Conocimiento y Cultura Científica, catedrático del Departamento de Ingeniería Eléctrica, Electrónica y de Comunicación e investigador del Instituto de Smart Cities (ISC) de la Universidad Pública de Navarra (UPNA)

Tiempo estimado de lectura: 4 minutos

Lo normal es que a los medios de comunicación llegue el resultado final de confrontar estudios contradictorios. Con la urgencia de la pandemia, eso no sucede.

 

Con lupa. Así observamos a la comunidad científica desde que la pandemia de COVID-19 irrumpiera en nuestras vidas. Jamás habíamos estado tan pendientes de lo que hacen y lo cierto es que nunca habíamos conocido tan de cerca los resultados a los que llegan. Sin embargo, las conclusiones contradictorias se solapan, generando una gran confusión en la sociedad. ¿Vivimos en la era de la fast ciencia? ¿Nos llegan los resultados demasiado pronto sin estar suficientemente contrastados? Nos ayuda a comprender el momento actual Joaquín Sevilla, profesor de la UPNA y director de la Cátedra de Divulgación del Conocimiento y Cultura Científica Laboral Kutxa-UPNA.

¿Ha perdido la ciencia credibilidad?
No. El cambio fundamental es que estamos viviendo la ciencia bajo el microscopio. La estamos viendo en directo y nos llama la atención los mecanismos de funcionamiento interno que sigue, mecanismos que, normalmente, no salen a la luz pública. En contextos no tan urgentes, lo que nos llega son los resultados finales ya bien empaquetados en el consenso final. Ahora, la estamos viviendo en directo con todo el proceso de lucha interna entre las diferentes visiones hasta que, con el tiempo, se va asentando en base a la evidencia y se llega al descubrimiento definitivo.

¿Es bueno ver la ciencia en directo?
No sé si es bueno o malo, pero sí sé que es inevitable: como tenemos urgencia por conocer los resultados, estamos en la puerta esperándolos según salen. Esto provoca que nos encontremos con muchos estudios que otros diferentes van a desmentir. Es malo en el sentido de que vamos a ver muchas expectativas defraudadas y nos puede generar ansiedad; y es bueno porque los resultados interesantes los estamos conociendo antes, en el primer momento.

¿Es normal que existan resultados tan contradictorios?
Sí: la ciencia es así y lo normal es que haya resultados contradictorios. Cuando uno empieza a investigar un fenómeno desconocido, no sabe qué puede afectarle. Un equipo hace un tipo de experimentos y le sale un resultado; otro lo hace de otra forma y le salen otros resultados aparentemente contradictorios. El avance de la ciencia es ir realizando más experimentos para comprender mejor la realidad y, con el tiempo, resolver las disputas llegando a consensos y estableciendo el conocimiento más veraz posible, lo que, en otras palabras, es la ciencia. A los científicos no nos llama la atención que existan opiniones opuestas, porque en los congresos siempre hay este tipo de grescas. Sin embargo, ahora, como nos afecta tanto el resultado de la ciencia con la pandemia que estamos viviendo y la estamos siguiendo con lupa, esa confrontación resulta llamativa a la sociedad, pero, insisto, no a los científicos.

Así que los científicos, por naturaleza, dudan…
Así es: de hecho, es lo que diferencia a un científico de un vendehúmos. Cuando alguien tiene clarísimo que si te inyectas lejía vas a mejorar y otro te dice “es extremadamente improbable”, pero ni siquiera te dice “no o nunca”, solamente el uso de esa seguridad te da una idea de quién parte de un conocimiento claro (porque conoce hasta dónde llega y cuáles son sus límites) y quién parte de unas creencias que ha llevado más allá de lo razonable.

Sin embargo, asistimos a un baile de resultados tan opuestos, que la ciudadanía, en muchas ocasiones, no sabe qué creer. ¿Deberían estos estudios llegarnos más tarde?
No necesariamente. Quizá lo mejor sería que tuviéramos una educación y una cultura científica de cómo es el proceso de la ciencia para poder calibrar mejor el grado de veracidad de estos informes. Las recomendaciones que vienen de la fe y están escritas en libros sagrados no cambian nunca porque las dictó el profeta. En cambio, en la búsqueda de verdades científicas, precisamente el hecho de que las recomendaciones cambien, nos da una idea de que lo que hay detrás es el mejor conocimiento disponible. Pero este no es perfecto: no viene de Dios escrito en un libro. Si se van descubriendo nuevos aspectos, se va incorporando el conocimiento y se van cambiando las recomendaciones, de manera que estén a la última de lo que se sabe. Y se va sabiendo a medida que avanza el conocimiento.

¿Ha cambiado el coronavirus la manera en la que vamos a conocer los resultados de la ciencia en el futuro?
La forma en la que se publica la ciencia tiene tiempos muy largos. La estructura típica de los papers que recogen la información científica se estableció en tiempos de Pasteur y la manera de publicarlos, aproximadamente, en la Segunda Guerra Mundial. No me atrevo a decir que una tradición centenaria vaya a cambiar de la noche a la mañana, ya que su raíz es muy profunda y, de hecho, ha resistido muy bien la llegada de Internet, que ha revolucionado otros ámbitos, como el de la música o el cine. Sin embargo, el del documento científico sigue como si Internet no hubiera aparecido. Eso sí, lo que sí creo es que la pandemia ya ha traído consigo cambios en velocidades de publicación o en que se tomen los preprints más en consideración.

¿Cuál es el valor de los preprints?
Cuando estamos en pandemia y ganar dos semanas puede salvar vidas, es bueno acortar procesos. Los preprints posibilitan publicar antes el mismo artículo que envío para que me validen. Ese estudio seguirá el camino estándar de revisión por pares pero, mientras, ese conocimiento está circulando antes para que otros lo puedan aprovechar y acelerar las fases para hacer descubrimientos y combatir este maldito bicho que nos tiene atrapados en esta vida tan rara.

Entonces, ¿a favor de los preprints?
Totalmente. Me parece que el modo tradicional de publicación tenía mucho sentido en la era del papel, pero en la era de Internet sería más razonable un sistema de publicación en el que la sanción del resto de colegas, en vez de ser a prori, por unos pocos y en un procedimiento bastante oscuro, fuese a posteriori. Algo así como una especie de los likes de Facebook, pero en un entorno controlado. Cualquiera no podría darle un like a un artículo científico, pero lo ideal es que todo fueran preprints y que las valoraciones de otros científicos del campo se incorporaran como comentarios, de modo que fuera eso lo que sancionara o no ese conocimiento. Lo natural es que la ciencia avance en esta línea de socialización, en vez de estos procedimientos muy Gutenberg, basados en sobres lacrados y personajes secretos que, cada vez, tienen menos sentido.

¿Qué papel deberían jugar los medios de comunicación en estos momentos en los que los estudios van tan rápido que apenas están contrastados?
Me parece muy difícil decidir de qué se habla y cómo y ello requiere conocimiento y una cierta línea editorial. Los medios de comunicación deben ser muy profesionales e incorporar a periodistas especializados en ciencia. Es una gran responsabilidad saber a qué no dar visibilidad hasta que se aclare más o contarlo, ya que de todas formas otros medios más sensacionalistas lo van a publicar, pero añadiendo las contextualizaciones necesarias y contrastando la información con otros científicos.

Por último, ¿qué consejo le darías a un ciudadano para que pueda distinguir cuándo un estudio tiene verdadero valor y cuándo no?
En primer lugar, debe desconfiar de aquello que le gustaría que ocurriera. Y también de quien vende duros a pesetas porque, casi seguro, es mentira. Los problemas complejos tienen soluciones complejas y el que llega con la solución milagrosa, lo más probable es que sea mentira. Además, recomiendo buscar referentes, tanto medios como personas concretas, que nos merezcan confianza porque se la han ido ganando a lo largo del tiempo con opiniones sensatas y acertadas.

Descubre más sobre este tema escuchando el podcast “Con el coronavirus, ¿ha perdido credibilidad la ciencia?”, de Ciencia al punto, el podcast de divulgación científica de la UPNA.

Más información: 

“Virus en el sistema de publicaciones científicas”, Joaquín Sevilla, Alberto Nájera y Juan Ignacio Pérez. The Conversation 3 mayo 2020

“Toma de decisiones y pandemias: conforme agregamos conocimiento, perdemos certeza”, Joaquín Sevilla. The Conversation 21 marzo 2020

“Lessons from the influx of preprints during the early COVID-19 pandemic”, Liam Brierly, The Lancet, March, 2021

“The evolving role of preprints in the dissemination of COVID-19 research and their impact on the science communication landscape”,  Nicholas Fraser et al. PLOS Biology, April 2, 2021

¿Quién es el responsable de un accidente en un vehículo autónomo?

Francisco Javier Falcone Lanas, profesor del área de Teoría de la señal y comunicaciones del Departamento de Ingeniería Eléctrica, Electrónica y de Comunicación de la Universidad Pública de Navarra (UPNA)

Tiempo de lectura estimado: 3 minutos

Llevamos muchos años viajando en vehículos autónomos sin ser conscientes de ello

 

Actualmente, ya existen vehículos autónomos que circulan solos, sin que nadie los conduzca. De hecho, muchos de ellos ni siquiera tienen volante. Otros, conservan la figura del conductor o conductora, pero incorporan la posibilidad de ponerlos en automático y funcionar sin la intervención humana. La tecnología avanza y la legislación, tratando de seguirle el ritmo, corre veloz tras ella, porque son muchos los dilemas éticos que plantea la posibilidad de que en nuestras ciudades transiten vehículos autónomos. Desgranamos algunos de esos retos con Francisco Falcone, profesor del departamento de Energía eléctrica, Electrónica y Comunicación de la Universidad Pública de Navarra.

¿Tenemos a nuestro alrededor más ejemplos de vehículos autónomos de los que somos conscientes?
Sin duda. Un ejemplo de ello son los aviones. La gran mayoría de los trayectos que realizan los hacen en piloto automático: eso es un dron y un vehículo autónomo desde hace muchos años. Y nadie se plantea o pone en duda que está sobrevolando el Atlántico a 9.000 metros de altura presurizado y el piloto está durmiendo. O cuando vamos a aeropuerto de Barajas, el tren subterráneo que une la T4 con la T4 Satélite es un tren autónomo: no tiene conductor.

Sin embargo, los vehículos autónomos todavía no han dado el paso a nuestras calles y carreteras…
Poco a poco lo van haciendo. Los prototipos de coches autónomos ya existen. Por ejemplo, Google Car (ahora Waymo) tiene desde hace varios años un coche que es capaz de conducir solo. Ciertos modelos de Tesla ya son capaces de, en un momento determinado, circular solos mientras sus ocupantes, por ejemplo, se echan una siesta en la autopista. En Estados Unidos van más adelantados en este sentido porque su propia realidad comercial es diferente.

Si la tecnología ya permite que existan coches autónomos, ¿por qué no están más extendidos?
Porque todavía hay muchas cuestiones éticas que resolver. Los vehículos autónomos tienen múltiples sistemas que contribuyen en la labor de conducción como son los sensores, la captura de información del exterior para poder establecer rutas y un elemento decisor que ayuda a realizar diferentes operaciones como disminuir o aumentar la velocidad, girar o detenerse: es su propio razonador o inteligencia artificial. La duda se plantea cuando el razonador debe tomar una decisión que puede poner en peligro la vida de los ocupantes del vehículo o de quienes se encuentren fuera de él. ¿Cómo toma esa decisión y, en caso de que haya un accidente, quién es el responsable subsidiario? Es la gran cuestión legal que ahora se plantea con la utilización del vehículo autónomo como tal y, probablemente, un reto mayor que el propio tecnológico.

Y en caso de accidente, ¿quién es el responsable?
Ahí está el quid de la cuestión. Hoy, si tú tienes un accidente en tu coche, está claro que puedes ser el responsable dado que tú conduces. Pero si estás montado en un coche que no tiene pedales ni volante y sufres un percance, ¿quién es el responsable? ¿Lo es el fabricante del vehículo? ¿Lo es el gestor de la infraestructura de telecomunicaciones? ¿Lo es quien ha integrado el razonador? Son temas candentes que no tienen una respuesta sencilla.

¿Qué criterios debería seguir ese razonador ante, por ejemplo, un posible accidente?
Teóricamente, el razonador debería ponderar todas las variables incluidas las de coste humano y adoptar como respuesta aquella que le dé un daño humano mínimo. Por ejemplo, si voy a atropellar a cinco personas y, a cambio, yo sufro un accidente si no las atropello, pues lo que debería hacer el razonador es esquivar a esas personas.

¿En qué punto se encuentra hoy en día la legislación?
En China y en Estados Unidos nos llevan ventaja y, desde finales del 2020, ya está operativa la legislación que regula a los vehículos tipo 4, es decir, aquellos que son cuasiautónomos. En otras palabras, un coche normal que puede conducirse solo, pero en el que siempre su ocupante tiene la opción de tomar las riendas si lo desea. En Europa, en breve, dispondremos de la normativa para los vehículos autónomos de categoría 4 y trabajan para que la legislación de los vehículos totalmente autónomos (los llamados de categoría 5) esté lista para el año 2030.

Hablemos ahora de seguridad: ¿una máquina conduce mejor que un ser humano?
Yo creo que sí. No tanto porque sea la máquina quien toma la decisión, sino porque su agilidad y capacidad de cálculo para ponderar variables es más rápida que la del ser humano. Ante un imprevisto, el tiempo de respuesta de un conductor en plenas facultades puede ser de 200 milisegundos que, traducidos en metros recorridos, son una distancia considerable. En cambio, los últimos sistemas de comunicaciones 5G tienen un retardo objetivo de un milisegundo. Si a ello le sumas que una máquina detecta la presencia de un peatón con cámaras y sensores mejores que el ángulo de visión del ser humano, está claro que va a frenar antes. De hecho, ya es posible comprar vehículos autónomos de categoría 2 que incorporan sistemas de frenado automático, capaces de detectar a un peatón y detenerse solos. ¿Y por qué lo hace el coche por ti? Porque está claro que lo va a hacer antes que tú. Otra cuestión es que ese sistema pueda no valorar otros criterios que no sean matemáticos.

Viajar en un vehículo totalmente autónomos es un acto de fe: depositamos toda nuestra confianza en la tecnología. Pero ¿qué ocurre si esta falla?
¿Hay accidentes de avión? Sí, los hay. ¿Hay muchos? Si los comparamos en porcentaje con vehículos rodados, hay muchos menos. Los vehículos autónomos, si van a ser puramente autónomos, deberán tener sistemas de seguridad redundantes para que este tipo de fallos ocurran lo menos posible. En el proceso de diseño habrá mucha seguridad duplicada o triplicada. Pero estamos en ese camino. Mientras tanto, habrá que apostar por vehículos más parecidos a los del tipo 4, es decir, que en el caso de que tengan un fallo, te permitan retomar el control. Y así, si no te funciona el guiado automático, deberás ser tú mismo quien guíe al coche.

¿Realmente vamos a ver en un futuro inmediato autobuses autónomos sin nadie al volante?
Llegarán, pero ahí me atrevo a vaticinar que no será en el 2030 y, probablemente, tampoco en el 2040. Tardaremos en verlos precisamente por las salvaguardas que debemos tener. Pero llegarán. De hecho, ahora ya hay trenes donde no existen conductores. Lo que es indudable es que la tecnología va a tener que evolucionar y ser tan eficiente y segura que se le dé por hecho ese valor.

Descubre más sobre este tema escuchando el podcast “¿Te echarías una siesta en un coche autónomo en marcha?” de Ciencia al punto, el podcast de divulgación científica de la UPNA.

Más información:

Video descriptivo de Waymo

Legislación sobre vehículos autónomos (EE. UU.)

Movilidad conectada en Europa

¿Puede la fibra óptica diagnosticar (incluso predecir) enfermedades?

Abián Bentor Socorro, profesor del área de Tecnología Electrónica del Departamento de Ingeniería Eléctrica, Electrónica y de Comunicación  de la Universidad Pública de Navarra (UPNA)

“Con la ayuda de la fibra óptica, la nanotecnología y biosensores podemos llegar a predecir si vas a padecer determinadas enfermedades”

Tiempo estimado de lectura: 3,5 minutos

Es de sobra conocida la capacidad de la fibra óptica para transmitir datos: no podríamos navegar a alta velocidad a través de Internet sin ella. Sin embargo, sus múltiples facetas en el campo de la medicina permanecen más en la sombra. La fibra óptica, a través de impulsos de luz, es capaz de curarnos… e ir más allá logrando diagnosticar, e incluso predecir, enfermedades. Abián Bentor Socorro Leránoz, profesor de ingeniería en la Universidad Pública de Navarra e investigador en aplicaciones de fibra óptica y luz en el ámbito médico, nos ayuda a descubrir el potencial de la fibra óptica.

Cuando hablamos de fibra óptica…
…nos viene directamente a la cabeza el cable que nos trae a nuestras casas Internet. Sabemos que la fibra óptica propaga datos, pero lo que no sabemos es que sirve para curarnos. Podemos guiar su luz con diferentes intensidades y, por ejemplo, quemar o reparar tejidos, pero también, introducirla dentro del cuerpo a través de mínimas incisiones y operar, sin necesidad de abrir en canal al paciente. Es tan fina y flexible que nos permite llegar a ubicaciones del cuerpo humano que, de otro modo, sería muy complicado. Pero, además, podemos utilizar la fibra óptica para detectar enfermedades y saber si esa persona está sana o tiene una enfermedad.

Sabemos que, entre otros usos, la fibra óptica se emplea para eliminar varices o piedras del riñón, practicar endoscopias, realizar tratamientos de estética o hacer desaparecer tatuajes, pero ¿de qué manera es capaz de detectar enfermedades?
Empleando técnicas de química y nanotecnología y aplicando conocimientos de telecomunicaciones, podemos crear lo que se llaman “biosensores” ópticos. Con ellos somos capaces de recubrir la fibra óptica y generar fenómenos físicos que, luego, podemos medir, como absorción de luz, luminiscencia, interferometría o resonancias. Una vez generados estos fenómenos físicos, colocamos moléculas biológicas tales como anticuerpos, enzimas, proteínas o el propio ADN. En función de la relación unívoca que existe entre esas moléculas que depositamos en la fibra y aquellas para las que se sabe que están diseñadas, podemos llegar a descubrir si la persona está enferma o no y en qué estadío.

¿Puede la fibra óptica incluso predecir enfermedades, sin que se haya desarrollado la patología o exista el menor de los síntomas?
Así es. Somos genética y, dentro de nuestro código genético, están implementadas las enfermedades que podríamos llegar a sufrir en un futuro que, a veces, se manifiestan, y a veces, no. A través de un biosensor de fibra óptica podemos llegar a saber si tenemos predisposición a una enfermedad o vamos a llegar a padecerla. Si existe una manifestación química dentro del cuerpo, es posible detectar esa molécula que dice que voy a empezar a tener una cierta enfermedad y así, poder reaccionar.

Con todas las consecuencias éticas que esto tiene…
Hay personas que han querido saber qué enfermedades podrían llegar a tener y, en base a eso, sin esperar a los síntomas, actuar antes de tiempo. Llegar a saber que, por ejemplo, en un futuro podrías desarrollar Alzheimer, cambia tu vida y la de la gente que tienes alrededor. Quizá comenzaríamos a vivir mejor o hacer cosas que probablemente no haríamos en una situación normal. Para ello diseñamos los biosensores, para adelantarnos o, si ya hay síntomas, ponerle nombre a nuestra dolencia.

Un diagnóstico precoz supone ganar posibilidades frente a la enfermedad… ¿y también ahorrar costes?
Por supuesto. Detectar una enfermedad antes de que esta se manifieste y llenemos las UCIs, evitaría un sobrecoste al sistema sanitario. Además, identificar a tiempo enfermedades que son crónicas, como el Alzheimer, la diabetes, la celiaquía, etc. supone atender al paciente en Atención Primaria y evitar el traspaso a las urgencias o al hospital, lo que implica un coste añadido al sistema. No estamos en los mejores tiempos para gastar de más, y menos en el futuro, cuando la población esté más envejecida. Si lográramos disponer de estos biosensores en Atención Primaria, podríamos detectar enfermedades crónicas y retrasar, en la medida de lo posible, el ingreso en el hospital.

En esa línea, ¿en qué proyectos estáis trabajando desde la Universidad Pública de Navarra?
Actualmente, en la UPNA estamos desarrollando aplicaciones de fibra óptica para detectar enfermedades como Alzheimer, celiaquía, ictus y otras, colocando en cada caso el anticuerpo adecuado en la fibra. Incluso, a través del aliento, integrando tecnología de fibra óptica en un proyecto realizado con la empresa Eversens, colocando un sensor entre los pacientes y la máquina. Este sensor es capaz de medir diferentes parámetros para detectar enfermedades y ver el estadío en el que nos encontramos.

Tecnología y salud unidas… ¿Inseparables?
Nuestro objetivo es ayudar a los médicos a curar a las personas y es precisamente el trato con la ingeniería y la medicina lo que estamos tratando de introducir tanto en los grados de ingeniería biomédica como de medicina de la UPNA. El hecho de que los médicos sepan hablar en lenguaje ingeniero y la ingeniería sepa hablar el lenguaje médico, es esencial para que se puedan generar proyectos comunes en base a una necesidad médica. Los médicos hoy en día nos están salvando, pero también hay que tener en cuenta que, si lo están haciendo es porque tienen a su disposición una tecnología que se está desarrollando en grupos de investigación que convierten una base científica en tecnología para ayudar a los pacientes.

Descubre más sobre este tema escuchando el podcast ¿Podrá la fibra óptica detectar y predecir enfermedades?, el podcast de divulgación científica de la UPNA.

Más información:

Publicaciones Científicas CASEIB. En esta web es posible descargarse el libro de actas del Congreso Anual de la Sociedad Española de Ingeniería Biomédica del año 2017. Entre las páginas 455 y 458, se encuentra la comunicación oral en castellano que describe los últimos trabajos realizados por nuestro grupo de la Universidad Pública de Navarra. Estrictamente, su referencia es:

Ponencia oral: “Biosensores basados en tecnologías de fibra óptica recubierta con materiales nanoestructurados”, A.B. Socorro-Leránoz, I. Del Villar, C. Elosúa, P. Zubiate, J.M. Corres, C. Bariáin, J. Goicoechea, S. Díaz, C.R. Zamarreño, M. Hernáez, P.J. Rivero, A. Urrutia, P. Sánchez-Zabal, N. De Acha, J. Ascorbe, D. López, A. Ozcáriz, L. Ruete, F.J. Arregui, I.R. Matías, XXXV Congreso Anual de la Sociedad Española de Ingeniería Biomédica (CASEIB 2017), Bilbao (España), 29 noviembre – 1 de diciembre de 2017.

Fibra óptica para diagnosticar y curar. 6 de abril de 2015. Artículo de Abián Bentor Socorro Leránoz publicado en la revista Investigación y Ciencia.

Salvad@s por la fibra (I). 25 de julio de 2018. Artículo del autor en el blog Traductor de Ciencia.

Destellos de luz. Noviembre 2015. Libro de Abián Bentor que incluye un capítulo sobre los usos médicos de la luz, incluidas las técnicas que emplean fibra óptica.

Trends in the design of wavelength-based optical fibre biosensors. (2008–2018) A.B.Socorro-Leránozab D.Santanoa I.Del Villarab I.R.Matiasab.

Trends in Fibre-Optic Uses for Personal Healthcare and Clinical Diagnostics. A. B. Socorro, S. Díaz.

 

Smart cities: ¿Cómo serán las ciudades inteligentes del futuro?

Ignacio Matías Maestro, catedrático del Departamento de Ingeniería Eléctrica, Electrónica y de Comunicación e investigador del ISC (Institute of Smart Cities) de la Universidad Pública de Navarra.

“Debemos hacer más inteligentes y tecnológicas nuestras ciudades, sí, pero también más humanas”

Tiempo estimado de lectura: 3,5 minutos

¿Viviremos en una ciudad como las de las películas de ciencia ficción? ¿Estarán nuestras casas totalmente robotizadas? ¿Encenderemos los aparatos con la mente? ¿Habrá espacio para la libertad? Nos adentramos en el universo de las ciudades inteligentes con el profesor Ignacio Matías Maestro, quien fuera el primer director del Instituto de Smart Cities de la Universidad Pública de Navarra y quien, en esta entrevista, nos ofrece las claves para entender las múltiples posibilidades de las ciudades inteligentes… y las dudas que les rodean.

¿Qué necesita una ciudad para ser inteligente?
Una ciudad inteligente es aquella que integra a la sociedad con el gobierno de la propia ciudad y que, a través de sistemas inteligentes, detecta necesidades y genera soluciones, a ser posible, en tiempo real. Una smart city es aquella que usa la tecnología para ser más sostenible y mejorar la calidad de vida y el bienestar de las personas. Existen muchos factores que influyen para que una ciudad pueda llamarse inteligente como, por ejemplo, que tenga sistemas de ahorro de energía que permitan el consumo inteligente, el reciclaje, la reducción de residuos o emisión de gases; que en el campo médico apueste por la telemedicina o la teleasistencia o que, en el transporte, cuente con una gestión eficiente del tráfico, optimización de rutas de transporte público, infraestructuras sostenibles…

¿Cómo serán las ciudades inteligentes en el futuro?

Sinceramente, no lo sabemos. Es muy complicado prever cómo será la tecnología dentro de 50 años. Lo que se ha evolucionado en este último medio siglo, comparándolo con lo que vamos a avanzar en los próximos 50 años, si todo va bien, es infinito. Jamás habíamos tenido tantas posibilidades de crecimiento como ahora: tenemos tantas, que no sabemos por dónde vamos a ir. Para el ser humano, vivir en la actualidad es como un don y va a ser espectacular. Dentro de 30 años, miraremos atrás y todo nos va a parecer muy extraño. No sé cómo serán en el futuro las ciudades inteligentes, pero sí sé que las ciudades del futuro serán inteligentes.

¿Qué es lo que sí podemos predecir?

Sabemos que viviremos en ciudades porque es la única forma de preservar el resto de la Naturaleza, ya que, si nos extendemos por todo el territorio, mataremos lo que esté a nuestro alcance. En el año 2050, el 85% de la población mundial va a vivir en ciudades, fundamentalmente, porque el ser humano es un ser urbano y necesitamos vivir juntos para avanzar. Además, es evidente que tendremos que intentar ir al espacio, porque aquí no cabemos y ya estamos colapsando la Tierra. Por otra parte, sabemos que serán millones los objetos conectados en el mundo. Actualmente, ya hay unos 200 millones de sensores conectados: solo en el 2025, es posible que ya sean mil millones. Habrá muchos sensores, muchos datos, mucha tecnología.

Sensores, datos, tecnología…

Sí, por supuesto. Los datos son imprescindibles para poder hacer una buena gestión de la ciudad, por ello los sensores son fundamentales para obtener información, desde datos semafóricos, cuánta gente hay en la calle, contaminación, etc. Internet de las cosas es la única manera que tenemos actualmente para anticiparnos y resolver los problemas de las ciudades. Jugarán un papel esencial la inteligencia artificial, el machine learning y tecnologías como digital twins, edge computing o fog computing.

Las ciudades inteligentes van tomando forma y la tecnología avanza en todos los planos posibles, como el transporte. ¿Qué cambios veremos en este campo?

El transporte va a cambiar tanto que es muy posible que en el centro de las ciudades no puedan circular coches particulares y que el transporte público sea lo único que exista. Una vez que tengamos el control del tráfico de la ciudad y de sus semáforos, todo va a ser mucho más sencillo y automatizado. No habrá atascos o, si los hay, se podrán solucionar de una forma más eficiente que ahora. Por otra parte, no sabemos si habrá o no coches voladores, pero sí es seguro que contaremos con vehículos autónomos, y, si los coches van solos, es muy factibles que puedan volar.

Y en el ámbito de la seguridad, ¿podremos combatir mejor el crimen?

Por supuesto. En algunas ciudades de China ya controlan a quien va por la calle: saben en todo momento quién eres. Si hay un indicio de que se ha cometido un crimen o robo, enseguida lo pueden detectar e identificar a los culpables, lo cual, por otra parte, da cierto miedo. La seguridad es muy importante y con inteligencia artificial, sensores y cámaras, se puede avanzar mucho, pero siempre deberemos tener muy presente el límite de la libertad.

¿Vamos a estar totalmente controlados en una ciudad en la que haya más sensores que personas?

Ahí está el tema. La tecnología no es el problema: es la solución. El verdadero problema es la cuestión social. En el siglo XXI, los datos son la materia prima y quien los controle, tendrá mucho poder. ¿Quién puede controlar los datos que generamos nosotros mismos? Puede ser una ciudad, un Estado o una empresa. Una empresa, si sabe cómo nos comportamos, puede intentar vendernos sus productos. Si quien nos controla es una ciudad o un Estado, la situación es peor, porque nos pueden dirigir para intentar que pensemos de un modo concreto. A este respecto, ya la Unión Europea ha dado pasos para velar por que los datos sean nuestros, pero no me lo acabo de creer. Actualmente, simplemente cuando utilizamos cualquier aplicación, ya estamos cediendo nuestros datos.

¿Cuál es el verdadero peligro de que nuestros datos no nos pertenezcan?

La sociedad avanza si tiene libertad, pero si no somos capaces de preservarla y hay una inteligencia superior que controle nuestras libertades, podremos acomodarnos y actuar como borregos. Si los datos no son nuestros, van a coartar nuestra libertad. Por todo ello, cuando construyamos una ciudad inteligente, debemos intentar que sea una ciudad inteligente con alma, y no una ciudad tipo centro comercial.

¿Qué es más sencillo, crear una ciudad inteligente desde cero o hacer más inteligente a una ciudad que ya existe?

Una ciudad inteligente creada desde cero carece de alma. Una ciudad inteligente tiene que reforzar su identidad, pensar en las personas que habitan, estar viva y siempre en constante adaptación. En mi opinión, es mucho más importante hacer más inteligentes a ciudades ya existentes y lograr que sean inteligentes desde su punto de vista: es decir, que cuenten con su propia historia e inteligencia, como las personas, y desarrollen aquellos aspectos que, cada ciudad, de forma individual, quiera impulsar. Existen ejemplos de ciudades inteligentes creadas desde cero, como Songdo, en Corea del Sur, pero mucha gente no quiere vivir en ellas, quizá porque tienen miedo de vivir en una ciudad con tanta tecnología. Quizá prefieren vivir en una ciudad menos inteligente, pero con alma. Por todo ello, debemos hacer más inteligentes y tecnológicas nuestras ciudades, sí, pero también más humanas.

Descubre más sobre este tema escuchando el podcast ¿Cómo serán las ciudades inteligentes del futuro?, el podcast de divulgación científica de la UPNA.

Más información:

Kirimtat, O. Krejcar, A. Kertesz and M. F. Tasgetiren, “Future Trends and Current State of Smart City Concepts: A Survey,” in IEEE Access, vol. 8, pp. 86448-86467, 2020, doi: 10.1109/ACCESS.2020.2992441.

STARDUST: Holistic and Integrated urban model for smart cities. H2020 European Project.

Emilio Ontiveros, Diego Vizcaíno, Verónica López Sabater, “Las ciudades del futuro: inteligentes, digitales y sostenibles”. Fundación Telefónica, 2016.

Alex Steffen, El futuro compartido de las ciudades. Ted Talks.

Pablo E. Branchi, Carlos Fernández-Valdivielso, Ignacio R. Matías-Maestro, “Metodología para evaluar el impacto de la incorporación de nuevas tecnologías en ciudades inteligentes”, DYNA, vol 90(3), pp. 285-293, 2015.

Un modelo para predecir cuántas camas UCI harán falta durante cada oleada

Responde: Fermín Mallor Giménez, catedrático de Estadística e Investigación Operativa del Departamento de Estadística, Informática y Matemáticas de la Universidad Pública de Navarra (UPNA) y Daniel García de Vicuña Bilbao, estudiante de doctorado en el ISC (Institute of Smart Cities) de la UPNA.

Imagen de Fernando Zhiminaicela en Pixabay

La crisis financiera mundial de 2008 puso de moda en España el término económico “prima de riesgo”, hasta entonces desconocido. Del mismo modo, la pandemia ha popularizado expresiones y términos como “doblar la curva”, “incidencia acumulada” e incluso conceptos epidemiológicos más específicos como “el número efectivo de reproducción R₀”. Ocupan portadas de periódicos, así como espacios en noticiarios televisivos y radiofónicos. Constituyen una muestra del uso de las matemáticas para describir la evolución de la pandemia y para proporcionar indicadores con los que las autoridades políticas pueden fundamentar una toma de decisiones informada sobre medidas de distanciamiento social y restricciones a la movilidad.

Sin embargo, los modelos matemáticos no solo sirven para describir qué ha pasado o el estado actual de la pandemia, sino que pueden facilitar predicciones muy útiles sobre cómo va a evolucionar. Estas son útiles para la planificación de los recursos sanitarios necesarios para atender a paciente covid-19, como las camas UCI. La planificación facilita la utilización eficiente de recursos y, en consecuencia, proporcionar una mejor atención a todos los pacientes, covid y no covid.

Los modelos matemáticos más útiles para predecir variables relacionadas con la evolución de la pandemia son los de simulación. Estos modelos son capaces de representar características complejas de la realidad pandémica, como su aleatoriedad e incertidumbre, así como la variabilidad en el impacto que la enfermedad puede tener en distintas personas.

Modelos que simulan la actividad diaria de miles de individuos

Durante la pandemia se han popularizado algunos modelos de simulación basados en agentes, los cuales tratan de reproducir en el ordenador el comportamiento de un número muy elevado de personas (agentes) representativos de la sociedad de una región o país. Para ello, cada persona tiene creada (simulada) su red de contactos que reproducen los ámbitos familiares, de trabajo y social. Las personas están clasificadas en grupos que representan su estado en relación con la enfermedad.

La clasificación básica considera los grupos de infectados (y en disposición de contagiar), de susceptibles (que pueden ser contagiados) y de personas que ya han pasado la enfermedad y son inmunes o que han fallecido. El modelo matemático reproduce la dinámica diaria de contactos de cada agente y la posibilidad de contagio en cada uno de ellos para recrear la evolución global del número de personas contagiadas. Se trata de modelos que extienden, incorporando la aleatoriedad y la variabilidad citadas anteriormente, los modelos epidemiológicos compartimentales tipo SIR (susceptible-infected-removed).

Estos modelos, son muy útiles para evaluar las consecuencias de distintas políticas de distanciamiento social en la transmisión del virus y de distintas estrategias de vacunación en la población.

La dinámica hospitalaria reproducida por un modelo de simulación

Sin embargo, para predecir las necesidades de camas hospitalarias y de UCI son más adecuados modelos de simulación estocásticos de tipo mecanicista que se fundamentan en dar respuesta a las siguientes dos cuestiones:

  1. ¿Cuántos pacientes van a ingresar en el hospital cada uno de los próximos días?
  2. ¿Dónde y durante cuánto tiempo van a estar ingresados cada uno de estos pacientes?

La respuesta a la primera cuestión se consigue ajustando a la serie de datos de ingresos diarios de pacientes una curva que parte de cero, que experimenta un crecimiento exponencial, para posteriormente estabilizarse (en la llamada “meseta”) y finalmente decrecer de nuevo hacia cero.

Se utilizan curvas de crecimiento poblacional de tipo Gompertz, cuya derivada se muestra en la Figura 1. Con esta curva se estima cuántos pacientes, de media, van a ingresar cada uno de los días del futuro.

Una distribución de probabilidad de Poisson, con estos valores medios, facilita la simulación del número de pacientes (y con sus características de edad, sexo, etc.) que ingresa en el hospital cada día del futuro.

Figura 1. Ajuste estadístico a la serie diaria de hospitalizaciones.
Author provided

A la segunda cuestión se le da respuesta representando con precisión lo que ocurre puertas adentro del hospital (o conjunto de hospitales de una región).

La Figura 2 representa el flujo de pacientes por las instalaciones hospitalarias.

Un paciente COVID cuando ingresa en el hospital lo puede hacer directamente en UCI o bien en una planta para agudos. Desde aquí el paciente puede requerir un posterior ingreso en UCI, o bien ser dado de alta, por recuperación o por fallecimiento. Los pacientes que están ingresados en UCI pueden ser dados de alta bien por mejoría y terminar la recuperación en planta, o bien por fallecimiento.

En el gráfico se detallan todos los parámetros que son necesarios para recrear (simular) la trayectoria de un paciente COVID en el hospital: mediante letras “p” se denotan las probabilidades que determinan las trayectorias en las bifurcaciones y mediante letras mayúsculas, W, Y, X, los tiempos que el paciente permanece en las instalaciones.

Estos tiempos varían entre pacientes y son descritos mediante distribuciones de probabilidad que son estimadas, así como las probabilidades “p”, a partir de los datos observados en la evolución de la pandemia.

Figura 2. Flujo de pacientes COVID en el hospital.
Author provided

Predicción como resultado del análisis estadístico de miles de realidades futuras posibles

A partir del conocimiento de cuántos pacientes están actualmente hospitalizados y simulando llegadas futuras de pacientes y sus trayectorias hospitalarias se puede prever cuántas camas van a ser necesarias en las siguientes semanas de pandemia. La Figura 3 muestra el resultado de las predicciones y los valores reales observados realizados durante la primera ola pandémica en Navarra. Cada vez que se realiza una simulación se obtiene una realidad (de ocupación de camas) distinta para el futuro.

Del análisis estadístico de miles de esos posibles futuros resultan las predicciones medias y unas bandas de confianza.

Figura 3. Predicción de camas UCI a partir del tiempo marcado en negro: estimación mediana y bandas de confianza. En verde valores reales de ocupación.
Author provided

Modelos útiles en la práctica que sólo necesitan cuatro fechas por paciente

Este modelo de simulación ha sido utilizado durante las tres últimas olas pandémicas en Navarra y durante la segunda y tercera en La Rioja por los responsables de la planificación hospitalaria. El Ministerio de Sanidad español también ha recibido informes diarios de previsión de ocupación hospitalaria durante la duración de la tercera ola.

Los datos guían la calibración y actualización continua (aprendizaje) del modelo de simulación. Únicamente cuatro fechas por paciente, registradas por los sistemas de información hospitalarios, son necesarias para la construcción y ejecución del modelo: ingreso y alta hospitalaria, e ingreso y alta en UCI (en caso de producirse).

Este reducido conjunto de datos necesarios, y su disponibilidad en tiempo (casi) real en los sistemas de información hospitalarios, constituye uno de los puntos fuertes del modelo matemático en comparación con otros que precisan del conocimiento de multitud de parámetros y distribuciones de probabilidad que no están disponibles en tiempo real, y que, en todo caso, pueden ser estimados una vez que la pandemia ha pasado.

Sin duda, esta aplicación constituye una muestra más de la aportación que pueden realizar las matemáticas para mitigar los efectos de la pandemia. Otras aplicaciones de las matemáticas pueden encontrarse en la página web de la acción matemática contra el coronavirus y en la página web del grupo de investigación q-UPHS.

Fermín Mallor Giménez, Catedrático de Estadística e Investigación Operativa, Universidad Pública de Navarra y Daniel García de Vicuña Bilbao, Estudiante de doctorado en el Instituto de Smart Cities, Universidad Pública de Navarra

Este artículo fue publicado originalmente en The Conversation. Lea el original.

¿Es la energía de fusión la respuesta a nuestros problemas energéticos?

José Basilio Galván Herrera, profesor del área de Ingeniería de Sistemas y Automática del Departamento de Ingeniería de la Universidad Pública de Navarra y con experiencia en la división de fusión nuclear del CIEMAT.

Tiempo estimado de lectura: 2 minutos 30 segundos

Nuestro planeta tiene problemas de energía. Dependemos en gran medida de la tecnología que nos rodea y, sin embargo, los recursos energéticos con los que contamos son insuficientes: necesitamos urgentemente generar energía sana, libre de emisiones de carbono y a gran escala. Y es ahí, donde surge la gran pregunta: ¿es la energía de fusión la solución a nuestros problemas? José Basilio Galván Herrera, profesor del área de Ingeniería de Sistemas y Automática de la Universidad Pública de Navarra y con experiencia en la división de fusión nuclear del CIEMAT, analiza el presente y el futuro más inmediato de la energía de fusión y nos sumerge en las entrañas del ITER (International Thermonuclear Experimental Reactor), uno de los mayores y más caros experimentos científicos a nivel internacional.

¿Por qué hay tanta confianza depositada en la energía de fusión?
Si seguimos emitiendo gases de efecto invernadero a este ritmo, las consecuencias pueden ser horrorosas, como la subida del nivel del mar, la desertificación de grandes zonas o inmensas migraciones. Si conseguimos tener un reactor de fusión nuclear operativo (quedan años para ello), apoyándonos también en otro tipo de energías como la eólica, la solar o la geotérmica, podríamos tener un pull de energías relativamente limpias capaz, no ya de salvarnos del cambio climático, que ya está aquí, sino de lograr que el desastre no sea tan “desastroso”.

¿Es entonces la energía de fusión la solución?
Sinceramente, no lo sabemos todavía. Llevamos ya casi 70 años tratando de demostrar que es posible tener una reacción de fusión nuclear controlada y que dé energía. Sabemos hacer fusión nuclear de forma descontrolada (la famosa bomba H, mucho más potente que la bomba atómica), pero lo que se está tratando de lograr desde los años 50 es controlar esa reacción y mantenerla en el tiempo.

¿Y qué papel juega en ese reto el ITER?
El ITER es el mayor y más poderoso dispositivo de fusión nuclear por confinamiento magnético ideado para demostrar la viabilidad de la fusión como fuente de energía a gran escala y libre de emisiones de carbono. Comenzaron a construirlo en los 90, al sur de Francia, en Cadarache, son más de 35 los países que colaboran en él y, con una inversión prevista de 24.000 millones de euros, es uno de los experimentos científicos más caros de la historia. Esperamos que el ITER sea la última máquina de investigación que demuestre que se puede conseguir energía utilizando fusión nuclear de manera controlada.

En cierto modo, el objetivo del ITER es imitar la manera en la que el Sol genera energía. ¿Es posible recrear un sol en la Tierra?
No, porque nos quemaríamos. El Sol es capaz de generar energía de fusión porque, al tener mucha masa, atrae las partículas y las concentra mediante la gravedad (confinamiento gravitatorio), algo que no podemos hacer nosotros. Hay diversas propuestas, pero la que ofrece más esperanzas es la del confinamiento magnético que consiste en poner grandes campos magnéticos que mantengan esas partículas cargadas y concentradas y, aunque alcancen grandes velocidades, no se separen, con el fin de hacerlas chocar. El problema actual es que ese campo magnético termina desestabilizándose muy rápidamente debido a la presencia de partículas cargadas. Hace 70 años que intentamos solucionar ese problema y conseguir un campo magnético que se mantenga estable en esas condiciones.

¿Qué diferencia la energía de fusión con la de fisión, la que comúnmente conocemos como energía nuclear?
Para generar energía, en la de fisión tenemos que disparar contra los núcleos para romperlos, algo relativamente sencillo. En la de fusión, lo que debemos hacer es calentar los núcleos y hacer que se muevan muy deprisa, ya que, al estar cargados positivamente, tienden a repelerse. El reto es que, a pesar de esa repulsión, calentándolos, se acerquen, choquen, formen núcleos más pesados y conviertan parte de su masa en energía. El problema es el mantenimiento en el tiempo. Esto lo podemos conseguir un momento: es la bomba de hidrógeno. Pero el problema es tenerlos confinados moviéndose a miles de kilómetros por segundo sin que se vaya cada uno por su cuenta.

¿Es más segura la energía de fusión que la de fisión?
Por supuesto, es mucho más segura ya que, cuando se descontrola, se para, de modo que no provoca accidentes graves como los de Chernobyl o Fukushima. Además, produce 5 o 6 veces más energía que la fisión nuclear y la basura radiactiva es mucho menor. La basura radioactiva de la de fisión es muy peligrosa, altamente radiactiva y con medias de vida de hasta 100.000 años. La fusión nuclear, en cambio, produce algo de material radioactivo, pero de menor intensidad y con una vida media de decenas de años o de cien años a lo sumo, algo que sí somos capaces de gestionar.

¿Para cuándo se prevé alcanzar resultados reales en la generación de energía de fusión?
Hay una pequeña broma entre los físicos que dice que el momento de tener fusión nuclear controlada es una constante en el universo: siempre es dentro de 25 años. Ahora se dice dentro de 15. Parece que se acorta…

Sea como sea, aún cuando el experimento sea un éxito, todavía quedará camino por hacer…
Sí, y mucho, porque, una vez que logremos estabilizar el campo magnético y confirmar la tesis de que sí es posible generar energía a partir de la fusión, todavía nos quedará diseñar un prototipo de reactor nuclear y, posteriormente, reactores de fusión nuclear comerciales y hacerla accesible. Se estima que los experimentos de fusión, ya con material de deuterio y tritio, se produzcan en el 2035, pero todavía quedará recorrido hasta lograr diseñar una red comercial capaz de generar esta energía inagotable y libre de emisiones.

 

Descubre más sobre este tema escuchando el podcast ¿Es la energía de fusión la respuesta a nuestros problemas energéticos? en Ciencia al punto, el podcast de divulgación científica de la UPNA.

Más información:

Historia de un átomo, de Lawrence Krauss, Editorial Laetoli. No trata de la fusión nuclear por confinamiento magnético, sino que es la “historia” del nacimiento de un átomo de Oxígeno (como cualquiera de los que respiramos o forma parte de nuestro cuerpo) a partir de los átomos primigenios de Hidrógeno procedentes del Big Bang. Se explican las sucesivas fusiones de átomos en el corazón de diferentes estrellas hasta llegar a formarse el átomo de Oxígeno protagonista de la historia. Es aconsejable para quienes quieran tener información de lo que es la fusión nuclear y su funcionamiento en el interior de las estrellas.

– Para saber más del ITER, lo más conveniente es acudir a su página web oficial. Es una página muy completa en la que se puede encontrar desde información básica sobre fusión nuclear hasta la presentación del ITER y el estado actual del proyecto.
– Aunque el ITER es el proyecto más prometedor para conseguir energía de fusión nuclear viable, no es el único. Para saber más sobre otros proyectos, se puede acudir a un artículo de la revista Investigación y Ciencia (enero de 2017): La fusión alternativa.

– También, en la revista Investigación y Ciencia (mayo de 2010), podemos encontrar el artículo Las dificultades de la fusión nuclear. Trata de las dudas que persisten sobre la viabilidad de este tipo de energía.

– Para los forofos de Asimov, en Más cuentos de los Viudos Negros aparece el cuento Los tres números, una historia de misterio (no de ciencia ficción) basada en un problema de investigación sobre fusión nuclear controlada en el que ya entonces (1974) se habla de la necesidad de tener pronto este tipo de energía. Como se suele decir: “vamos tardados”.