Smart cities: ¿Cómo serán las ciudades inteligentes del futuro?

Ignacio Matías Maestro, catedrático del Departamento de Ingeniería Eléctrica, Electrónica y de Comunicación e investigador del ISC (Institute of Smart Cities) de la Universidad Pública de Navarra.

«Debemos hacer más inteligentes y tecnológicas nuestras ciudades, sí, pero también más humanas»

Tiempo estimado de lectura: 3,5 minutos

¿Viviremos en una ciudad como las de las películas de ciencia ficción? ¿Estarán nuestras casas totalmente robotizadas? ¿Encenderemos los aparatos con la mente? ¿Habrá espacio para la libertad? Nos adentramos en el universo de las ciudades inteligentes con el profesor Ignacio Matías Maestro, quien fuera el primer director del Instituto de Smart Cities de la Universidad Pública de Navarra y quien, en esta entrevista, nos ofrece las claves para entender las múltiples posibilidades de las ciudades inteligentes… y las dudas que les rodean.

¿Qué necesita una ciudad para ser inteligente?
Una ciudad inteligente es aquella que integra a la sociedad con el gobierno de la propia ciudad y que, a través de sistemas inteligentes, detecta necesidades y genera soluciones, a ser posible, en tiempo real. Una smart city es aquella que usa la tecnología para ser más sostenible y mejorar la calidad de vida y el bienestar de las personas. Existen muchos factores que influyen para que una ciudad pueda llamarse inteligente como, por ejemplo, que tenga sistemas de ahorro de energía que permitan el consumo inteligente, el reciclaje, la reducción de residuos o emisión de gases; que en el campo médico apueste por la telemedicina o la teleasistencia o que, en el transporte, cuente con una gestión eficiente del tráfico, optimización de rutas de transporte público, infraestructuras sostenibles…

¿Cómo serán las ciudades inteligentes en el futuro?

Sinceramente, no lo sabemos. Es muy complicado prever cómo será la tecnología dentro de 50 años. Lo que se ha evolucionado en este último medio siglo, comparándolo con lo que vamos a avanzar en los próximos 50 años, si todo va bien, es infinito. Jamás habíamos tenido tantas posibilidades de crecimiento como ahora: tenemos tantas, que no sabemos por dónde vamos a ir. Para el ser humano, vivir en la actualidad es como un don y va a ser espectacular. Dentro de 30 años, miraremos atrás y todo nos va a parecer muy extraño. No sé cómo serán en el futuro las ciudades inteligentes, pero sí sé que las ciudades del futuro serán inteligentes.

¿Qué es lo que sí podemos predecir?

Sabemos que viviremos en ciudades porque es la única forma de preservar el resto de la Naturaleza, ya que, si nos extendemos por todo el territorio, mataremos lo que esté a nuestro alcance. En el año 2050, el 85% de la población mundial va a vivir en ciudades, fundamentalmente, porque el ser humano es un ser urbano y necesitamos vivir juntos para avanzar. Además, es evidente que tendremos que intentar ir al espacio, porque aquí no cabemos y ya estamos colapsando la Tierra. Por otra parte, sabemos que serán millones los objetos conectados en el mundo. Actualmente, ya hay unos 200 millones de sensores conectados: solo en el 2025, es posible que ya sean mil millones. Habrá muchos sensores, muchos datos, mucha tecnología.

Sensores, datos, tecnología…

Sí, por supuesto. Los datos son imprescindibles para poder hacer una buena gestión de la ciudad, por ello los sensores son fundamentales para obtener información, desde datos semafóricos, cuánta gente hay en la calle, contaminación, etc. Internet de las cosas es la única manera que tenemos actualmente para anticiparnos y resolver los problemas de las ciudades. Jugarán un papel esencial la inteligencia artificial, el machine learning y tecnologías como digital twins, edge computing o fog computing.

Las ciudades inteligentes van tomando forma y la tecnología avanza en todos los planos posibles, como el transporte. ¿Qué cambios veremos en este campo?

El transporte va a cambiar tanto que es muy posible que en el centro de las ciudades no puedan circular coches particulares y que el transporte público sea lo único que exista. Una vez que tengamos el control del tráfico de la ciudad y de sus semáforos, todo va a ser mucho más sencillo y automatizado. No habrá atascos o, si los hay, se podrán solucionar de una forma más eficiente que ahora. Por otra parte, no sabemos si habrá o no coches voladores, pero sí es seguro que contaremos con vehículos autónomos, y, si los coches van solos, es muy factibles que puedan volar.

Y en el ámbito de la seguridad, ¿podremos combatir mejor el crimen?

Por supuesto. En algunas ciudades de China ya controlan a quien va por la calle: saben en todo momento quién eres. Si hay un indicio de que se ha cometido un crimen o robo, enseguida lo pueden detectar e identificar a los culpables, lo cual, por otra parte, da cierto miedo. La seguridad es muy importante y con inteligencia artificial, sensores y cámaras, se puede avanzar mucho, pero siempre deberemos tener muy presente el límite de la libertad.

¿Vamos a estar totalmente controlados en una ciudad en la que haya más sensores que personas?

Ahí está el tema. La tecnología no es el problema: es la solución. El verdadero problema es la cuestión social. En el siglo XXI, los datos son la materia prima y quien los controle, tendrá mucho poder. ¿Quién puede controlar los datos que generamos nosotros mismos? Puede ser una ciudad, un Estado o una empresa. Una empresa, si sabe cómo nos comportamos, puede intentar vendernos sus productos. Si quien nos controla es una ciudad o un Estado, la situación es peor, porque nos pueden dirigir para intentar que pensemos de un modo concreto. A este respecto, ya la Unión Europea ha dado pasos para velar por que los datos sean nuestros, pero no me lo acabo de creer. Actualmente, simplemente cuando utilizamos cualquier aplicación, ya estamos cediendo nuestros datos.

¿Cuál es el verdadero peligro de que nuestros datos no nos pertenezcan?

La sociedad avanza si tiene libertad, pero si no somos capaces de preservarla y hay una inteligencia superior que controle nuestras libertades, podremos acomodarnos y actuar como borregos. Si los datos no son nuestros, van a coartar nuestra libertad. Por todo ello, cuando construyamos una ciudad inteligente, debemos intentar que sea una ciudad inteligente con alma, y no una ciudad tipo centro comercial.

¿Qué es más sencillo, crear una ciudad inteligente desde cero o hacer más inteligente a una ciudad que ya existe?

Una ciudad inteligente creada desde cero carece de alma. Una ciudad inteligente tiene que reforzar su identidad, pensar en las personas que habitan, estar viva y siempre en constante adaptación. En mi opinión, es mucho más importante hacer más inteligentes a ciudades ya existentes y lograr que sean inteligentes desde su punto de vista: es decir, que cuenten con su propia historia e inteligencia, como las personas, y desarrollen aquellos aspectos que, cada ciudad, de forma individual, quiera impulsar. Existen ejemplos de ciudades inteligentes creadas desde cero, como Songdo, en Corea del Sur, pero mucha gente no quiere vivir en ellas, quizá porque tienen miedo de vivir en una ciudad con tanta tecnología. Quizá prefieren vivir en una ciudad menos inteligente, pero con alma. Por todo ello, debemos hacer más inteligentes y tecnológicas nuestras ciudades, sí, pero también más humanas.

Descubre más sobre este tema escuchando el podcast ¿Cómo serán las ciudades inteligentes del futuro?, el podcast de divulgación científica de la UPNA.

Más información:

Kirimtat, O. Krejcar, A. Kertesz and M. F. Tasgetiren, «Future Trends and Current State of Smart City Concepts: A Survey,» in IEEE Access, vol. 8, pp. 86448-86467, 2020, doi: 10.1109/ACCESS.2020.2992441.

STARDUST: Holistic and Integrated urban model for smart cities. H2020 European Project.

Emilio Ontiveros, Diego Vizcaíno, Verónica López Sabater, “Las ciudades del futuro: inteligentes, digitales y sostenibles”. Fundación Telefónica, 2016.

Alex Steffen, El futuro compartido de las ciudades. Ted Talks.

Pablo E. Branchi, Carlos Fernández-Valdivielso, Ignacio R. Matías-Maestro, “Metodología para evaluar el impacto de la incorporación de nuevas tecnologías en ciudades inteligentes”, DYNA, vol 90(3), pp. 285-293, 2015.

Un modelo para predecir cuántas camas UCI harán falta durante cada oleada

Responde: Fermín Mallor Giménez, catedrático de Estadística e Investigación Operativa del Departamento de Estadística, Informática y Matemáticas de la Universidad Pública de Navarra (UPNA) y Daniel García de Vicuña Bilbao, estudiante de doctorado en el ISC (Institute of Smart Cities) de la UPNA.

Imagen de Fernando Zhiminaicela en Pixabay

La crisis financiera mundial de 2008 puso de moda en España el término económico “prima de riesgo”, hasta entonces desconocido. Del mismo modo, la pandemia ha popularizado expresiones y términos como “doblar la curva”, “incidencia acumulada” e incluso conceptos epidemiológicos más específicos como “el número efectivo de reproducción R₀”. Ocupan portadas de periódicos, así como espacios en noticiarios televisivos y radiofónicos. Constituyen una muestra del uso de las matemáticas para describir la evolución de la pandemia y para proporcionar indicadores con los que las autoridades políticas pueden fundamentar una toma de decisiones informada sobre medidas de distanciamiento social y restricciones a la movilidad.

Sin embargo, los modelos matemáticos no solo sirven para describir qué ha pasado o el estado actual de la pandemia, sino que pueden facilitar predicciones muy útiles sobre cómo va a evolucionar. Estas son útiles para la planificación de los recursos sanitarios necesarios para atender a paciente covid-19, como las camas UCI. La planificación facilita la utilización eficiente de recursos y, en consecuencia, proporcionar una mejor atención a todos los pacientes, covid y no covid.

Los modelos matemáticos más útiles para predecir variables relacionadas con la evolución de la pandemia son los de simulación. Estos modelos son capaces de representar características complejas de la realidad pandémica, como su aleatoriedad e incertidumbre, así como la variabilidad en el impacto que la enfermedad puede tener en distintas personas.

Modelos que simulan la actividad diaria de miles de individuos

Durante la pandemia se han popularizado algunos modelos de simulación basados en agentes, los cuales tratan de reproducir en el ordenador el comportamiento de un número muy elevado de personas (agentes) representativos de la sociedad de una región o país. Para ello, cada persona tiene creada (simulada) su red de contactos que reproducen los ámbitos familiares, de trabajo y social. Las personas están clasificadas en grupos que representan su estado en relación con la enfermedad.

La clasificación básica considera los grupos de infectados (y en disposición de contagiar), de susceptibles (que pueden ser contagiados) y de personas que ya han pasado la enfermedad y son inmunes o que han fallecido. El modelo matemático reproduce la dinámica diaria de contactos de cada agente y la posibilidad de contagio en cada uno de ellos para recrear la evolución global del número de personas contagiadas. Se trata de modelos que extienden, incorporando la aleatoriedad y la variabilidad citadas anteriormente, los modelos epidemiológicos compartimentales tipo SIR (susceptible-infected-removed).

Estos modelos, son muy útiles para evaluar las consecuencias de distintas políticas de distanciamiento social en la transmisión del virus y de distintas estrategias de vacunación en la población.

La dinámica hospitalaria reproducida por un modelo de simulación

Sin embargo, para predecir las necesidades de camas hospitalarias y de UCI son más adecuados modelos de simulación estocásticos de tipo mecanicista que se fundamentan en dar respuesta a las siguientes dos cuestiones:

  1. ¿Cuántos pacientes van a ingresar en el hospital cada uno de los próximos días?
  2. ¿Dónde y durante cuánto tiempo van a estar ingresados cada uno de estos pacientes?

La respuesta a la primera cuestión se consigue ajustando a la serie de datos de ingresos diarios de pacientes una curva que parte de cero, que experimenta un crecimiento exponencial, para posteriormente estabilizarse (en la llamada “meseta”) y finalmente decrecer de nuevo hacia cero.

Se utilizan curvas de crecimiento poblacional de tipo Gompertz, cuya derivada se muestra en la Figura 1. Con esta curva se estima cuántos pacientes, de media, van a ingresar cada uno de los días del futuro.

Una distribución de probabilidad de Poisson, con estos valores medios, facilita la simulación del número de pacientes (y con sus características de edad, sexo, etc.) que ingresa en el hospital cada día del futuro.

Figura 1. Ajuste estadístico a la serie diaria de hospitalizaciones.
Author provided

A la segunda cuestión se le da respuesta representando con precisión lo que ocurre puertas adentro del hospital (o conjunto de hospitales de una región).

La Figura 2 representa el flujo de pacientes por las instalaciones hospitalarias.

Un paciente COVID cuando ingresa en el hospital lo puede hacer directamente en UCI o bien en una planta para agudos. Desde aquí el paciente puede requerir un posterior ingreso en UCI, o bien ser dado de alta, por recuperación o por fallecimiento. Los pacientes que están ingresados en UCI pueden ser dados de alta bien por mejoría y terminar la recuperación en planta, o bien por fallecimiento.

En el gráfico se detallan todos los parámetros que son necesarios para recrear (simular) la trayectoria de un paciente COVID en el hospital: mediante letras “p” se denotan las probabilidades que determinan las trayectorias en las bifurcaciones y mediante letras mayúsculas, W, Y, X, los tiempos que el paciente permanece en las instalaciones.

Estos tiempos varían entre pacientes y son descritos mediante distribuciones de probabilidad que son estimadas, así como las probabilidades “p”, a partir de los datos observados en la evolución de la pandemia.

Figura 2. Flujo de pacientes COVID en el hospital.
Author provided

Predicción como resultado del análisis estadístico de miles de realidades futuras posibles

A partir del conocimiento de cuántos pacientes están actualmente hospitalizados y simulando llegadas futuras de pacientes y sus trayectorias hospitalarias se puede prever cuántas camas van a ser necesarias en las siguientes semanas de pandemia. La Figura 3 muestra el resultado de las predicciones y los valores reales observados realizados durante la primera ola pandémica en Navarra. Cada vez que se realiza una simulación se obtiene una realidad (de ocupación de camas) distinta para el futuro.

Del análisis estadístico de miles de esos posibles futuros resultan las predicciones medias y unas bandas de confianza.

Figura 3. Predicción de camas UCI a partir del tiempo marcado en negro: estimación mediana y bandas de confianza. En verde valores reales de ocupación.
Author provided

Modelos útiles en la práctica que sólo necesitan cuatro fechas por paciente

Este modelo de simulación ha sido utilizado durante las tres últimas olas pandémicas en Navarra y durante la segunda y tercera en La Rioja por los responsables de la planificación hospitalaria. El Ministerio de Sanidad español también ha recibido informes diarios de previsión de ocupación hospitalaria durante la duración de la tercera ola.

Los datos guían la calibración y actualización continua (aprendizaje) del modelo de simulación. Únicamente cuatro fechas por paciente, registradas por los sistemas de información hospitalarios, son necesarias para la construcción y ejecución del modelo: ingreso y alta hospitalaria, e ingreso y alta en UCI (en caso de producirse).

Este reducido conjunto de datos necesarios, y su disponibilidad en tiempo (casi) real en los sistemas de información hospitalarios, constituye uno de los puntos fuertes del modelo matemático en comparación con otros que precisan del conocimiento de multitud de parámetros y distribuciones de probabilidad que no están disponibles en tiempo real, y que, en todo caso, pueden ser estimados una vez que la pandemia ha pasado.

Sin duda, esta aplicación constituye una muestra más de la aportación que pueden realizar las matemáticas para mitigar los efectos de la pandemia. Otras aplicaciones de las matemáticas pueden encontrarse en la página web de la acción matemática contra el coronavirus y en la página web del grupo de investigación q-UPHS.

Fermín Mallor Giménez, Catedrático de Estadística e Investigación Operativa, Universidad Pública de Navarra y Daniel García de Vicuña Bilbao, Estudiante de doctorado en el Instituto de Smart Cities, Universidad Pública de Navarra

Este artículo fue publicado originalmente en The Conversation. Lea el original.

La actriz a la que le debemos el GPS

Cada vez tenemos menos mujeres en las carreras llamadas STEM (que en inglés significa Ciencia, Tecnología, Ingeniería y Matemáticas). Sin embargo, en la totalidad del sistema universitario español, casi el 60% de los estudiantes son mujeres.

Podemos preguntarnos las causas de por qué ocurre esto. Por un lado, es muy importante la educación. Hay muchas familias, padres y madres, que consideran que las carreras STEM, como las ingenierías, son cosa de hombres. Sin embargo, esto no es cierto, ya que las carreras STEM tienen un elemento social muy valorado por las mujeres. Por ejemplo, en ingeniería queremos inventar nuevos dispositivos que puedan mejorar la calidad de vida de las personas y eso, sin lugar a dudas, tiene claramente un fin social, muy apreciado por la sociedad en general y, especialmente, por las mujeres. Además, se necesitan, y se van a necesitar para el año 2020, profesionales STEM que deberían ser mujeres al menos en un 50%.

Por otro lado, también está la carencia de referentes femeninos para explicar la falta de interés de las chicas por las carreras técnicas. Desgraciadamente, en las ingenierías de la universidad, las mujeres estamos en clara minoría dentro de las plantillas de personal docente e investigador y, si no hay maestras, no hay alumnas.

Conocer a las ingenieras del pasado

Por todo ello, es preciso movilizarse y hacer algo para visibilizar a las mujeres que trabajamos en STEM. En este sentido, hay que mencionar las acciones de fomento de las ciencias llevadas a cabo por la Real Academia de Ingeniería, con diversas actividades para potenciar la inclusión y la vocación de niñas y jóvenes en este ámbito con el fin de desterrar la concepción de que las mujeres que tienen vocación por esas áreas son raras o “frikis”.

La UPNA (Universidad Pública de Navarra) no se queda atrás en este campo. Así, ofrece a los centros de enseñanza un programa de charlas de divulgación científica, en las que el profesorado acude a los centros escolares. También organiza las Semanas de la Ciencia, durante el mes de noviembre, ofertando actividades para diferentes públicos, por citar dos ejemplos.

Otra actividad que quiero destacar es la obra de teatro titulada «Yo quiero ser científica«, en la que nueve profesoras de la Universidad damos vida a mujeres científicas del pasado. En ella, visibilizamos a estas mujeres y contamos su historia de una manera positiva, comentando los problemas que tuvieron que vencer en su época para poder desarrollarse como científicas. Esto concluye con un coloquio final, donde le contamos al público (fundamentalmente, escolares) a qué nos dedicamos en nuestra carrera investigadora actual y así poder dar a conocer el papel de la mujer en la ciencia en este momento.

Actriz e ingeniera

En esta obra de teatro interpreto a Hedy Lamarr, llamada, en realidad, Hedwig Eva Maria Kiesler. Esta austríaca, nacida en 1914, fue actriz de cine e inventora. Mujer adelantada a su tiempo, su gran contribución a la sociedad consistió en una patente que permitiría las comunicaciones inalámbricas.

Hedy Lamarr

Hedy era hija única de un matrimonio acomodado de origen judío. Su madre era pianista y su padre, banquero. Desde pequeña, destacó por su inteligencia y fue considerada por sus profesores como superdotada. Empezó sus estudios de ingeniería a los 16 años, pero los abandonó para dedicarse al mundo del escenario. Por eso, fue a Berlín para estudiar arte dramático.

Fue precisamente actuando donde conoció al que sería su marido, Friedrich Mandl, un rico y poderoso fabricante de armamento que arregló con sus padres un matrimonio de conveniencia, en contra de la voluntad de Lamarr. Fue tratada como una esclava y aprovechó su soledad para continuar sus estudios de ingeniería.

Finalmente, Lamarr se escapó de su marido refugiándose en París y, posteriormente, en Londres. Vendió sus joyas y huyó a los Estados Unidos. En el mismo barco en el que se trasladó a Estados Unidos, consiguió un contrato como actriz y comenzó a llamarse Hedy Lamarr.

Gracias, Lamarr, por la WIFI

Lamarr conocía los horrores del régimen nazi por su marido Mandl, simpatizante del fascismo, y por su condición de judía, y ofreció al gobierno de los Estados Unidos toda la información confidencial de la que disponía. Además, quería contribuir a la victoria aliada, por lo que se puso a trabajar para la consecución de nuevas tecnologías militares, elaborando un sistema de comunicaciones secreto.

Hedy Lamarr pasó a la historia no sólo por su aportación al séptimo arte, sino también por sus descubrimientos en el campo de la defensa militar y de las telecomunicaciones. Así, ideó junto a su amigo, el compositor George Antheil, un sistema de detección de los torpedos teledirigidos. Este sistema estaba inspirado en un principio musical. Funcionaba con ochenta y ocho frecuencias, equivalentes a las teclas del piano, y era capaz de hacer saltar señales de transmisión entre las frecuencias del espectro magnético. Fue patentado y le llamaron el Sistema Secreto de Comunicaciones. Estados Unidos lo utilizó por primera vez durante la crisis de Cuba y, después, como base para el desarrollo de las técnicas de defensa antimisiles.

Finalmente, se le dio utilidad civil en el campo de las telecomunicaciones, siendo precursor de las comunicaciones inalámbricas, el bluetooth, la comunicación de datos WIFI que disfrutamos todos hoy en día o el GPS que tan útil nos resulta cuando viajamos.

 

Esta entrada al blog ha sido elaborada por Silvia Díaz Lucas, doctora en Ingeniería de Telecomunicación, profesora del Departamento de Ingeniería Eléctrica, Electrónica y de Comunicación de la Universidad Pública de Navarra (UPNA), donde también es investigadora en el Instituto de Smart Cities (ISC) y subdirectora de la Escuela Técnica Superior de Ingenieros Industriales y de Telecomunicación (ETSIIT); es autora e intérprete de la obra “Yo quiero ser científica”, en la que da vida a la actriz y tecnóloga Hedy Lamarr

Nota: la versión original de este artículo se publicó en «The Conversation»

 

Movilidades, innovaciones sociales e ingenierías socioterritoriales

Las sociedades actuales están siendo profundamente transformadas por los flujos de información, personas y capitales, así como las nuevas tecnologías de la información y la comunicación. En conjunto, han favorecido una progresiva hibridación las dimensiones sociales y técnicas, globales y locales, rurales y urbanas. Pero muchos de los planteamientos con los que organizamos la realidad social, como las políticas territoriales o los mapas de servicios, responden en gran medida a las clasificaciones y conceptos estáticos de las antiguas sociedades en proceso de modernización.

Por ejemplo, la accesibilidad que procura el automóvil privado no solo configura unos territorios porosos, sino unos tiempos y espacios cotidianos más personalizados. También la integración de las economías regionales en las dinámicas internacionales (como las cadenas agroindustriales o el turismo global) han cambiado los factores para el desarrollo económico. Y la eclosión de movilidades al comienzo del nuevo siglo (migraciones, cambios residenciales, desplazamientos pendulares de larga distancia) condicionan las estructuras demográficas, la sostenibilidad y las formas de gobernanza regionales.

Vegas de Almenara, antiguo poblado de colonización en la Gran Vega de Sevilla.

El proyecto «Movilidades, diversidad social y sostenibilidad. Los retos de la agenda europea para el desarrollo rural», desarrollado en España y Portugal por investigadores del ámbito de la sociología, la arquitectura y la política territorial procedentes de la Universidad de Aveiro, la Universidad de Sevilla, la Universidad Pablo Olavide y la Universidad Pública de Navarra, explora el papel que juegan estos procesos en el cambio social que define nuestra sociedad posglobal.

Los estudios desarrollados en la Región litoral portuguesa de Aveiro, el área peri-urbana de Sevilla y la montaña pirenaica navarra descubren, por un lado, el impacto de las políticas territoriales y las organización de las accesibilidades sobre los proyectos vitales de los grupos locales. Por otro lado, muestra las experiencias de innovación social que plasman las estrategias sociales (laborales, residenciales, de cuidados, etc.) de diferentes perfiles sociológicos basadas en las movilidades e hibridaciones mencionadas. Sus conclusiones evidencian la necesidad de concebir fórmulas para el planeamiento (de recursos, servicios, accesibilidades, etc.) que contemplen estas dinámicas.

Freguesía de Sao Jacinto, municipio de Aveiro (Portugal).

Por ejemplo, las áreas peri-urbanas han sido tradicionalmente consideradas como anomalías que debían ser ordenadas bajo la dicotomía rural-urbana, dada la complejidad de procesos que albergan (dispersión residencial, estructuras fragmentadas de gobernanza, mezcla y competencia de usos, diversidad social). Sin embargo, su generalización y persistencia ha llevado a considerarlas cada vez más como espacios que requieren un tratamiento específico. Y muchas de las sociedades rurales de montaña y litorales afrontan las paradojas de unos territorios ricos en recursos, pero pobres en servicios. Regiones que acumulan valiosos patrimonios naturales, culturales e identitarios, pero presentan fuertes desigualdades de accesibilidad y profundas fragilidades demográficas y económicas.

El municipio navarro de Roncal (Valle de Roncal).

Nuestros resultados demuestran como el uso de las TIC (tecnologías de la información y las comunicaciones), el automóvil privado y los desplazamientos cotidianos, así como la combinación de residencias rurales y urbanas o las migraciones temporales, consolidan el capital social en el territorio, el arraigo juvenil, los negocios locales o la asistencia de mayores y niños en contextos rurales donde las políticas de recortes y la recesión económica se han prolongado durante la última década. Y que estas estrategias familiares pueden ser analizadas como formas de innovación social e incorporadas a las políticas públicas y la gobernanza del bienestar rural.

 

Esta entrada al blog ha sido elaborada por Jesús Oliva Serrano, profesor titular del Departamento de Sociología y Trabajo Social e investigador del Instituto de Smart Cities (ISC) de la Universidad Pública de Navarra (UPNA)

Ciudades accesibles y comprensibles, además de inteligentes

Llegas conduciendo a una ciudad desconocida. Con el navegador del teléfono, apareces fácilmente cerca del lugar al que tenías que ir. Das un par de vueltas y, afortunadamente, encuentras un lugar para aparcar en la calle. ¡Bien! Te fijas en el color del que están pintadas las zonas de aparcamiento y buscas el punto en el que hacerte con un tique de aparcamiento. A partir de ahí, las cosas dejan de ser tan sencillas. ¿Qué significa la zona naranja en esa ciudad? ¿Cuál es la tarifa en esta zona a estas horas? ¿Cómo se opera este aparato? Esas preguntas no son nada evidentes. Al día siguiente, decides ir en transporte público. ¿Cuál es el tipo de abono más conveniente para el tiempo que voy a estar? ¿Dónde se compran ese tipo de billetes? ¿Se puede pagar con tarjeta?

Para interaccionar con el entorno, hace falta información, un conocimiento que, en ocasiones, se obtiene de forma muy natural, pero en otras muchas, no tanto. Al estudio de esta cuestión, se le denomina “accesibilidad cognitiva”. Cuando pensamos en accesibilidad, normalmente no se incluye este aspecto. Parece que la accesibilidad se limita a disponer de rampas para que se pueda llegar a los sitios en silla de ruedas y, como mucho, alguna rotulación en Braille. Sin embargo, hay que pensar que todas las personas deberían ser capaces de interaccionar con el entorno de forma completa, hasta culminar la tarea de que se trate en cada caso.

Según Cristina Larraz, entendemos la accesibilidad cognitiva como el derecho a comprender la información que nos proporciona el entorno, a dominar la comunicación que mantenemos con él y a poder hacer con facilidad las actividades que en él se llevan a cabo sin discriminación por razones de edad, de idioma, de estado emocional o de capacidades cognitivas.

Las ciudades constituyen un hábitat especialmente proclive a generar problemas de accesibilidad cognitiva. Hay muchas actividades, muchos procedimientos, en ocasiones prolijos, con los que regular esas actividades comunes. No es raro que los responsables de todo ello no perciban la dificultad de comprensión que se genera. A fin de cuentas, ellos le dedican muchas horas a esas cosas y se las saben bien, pero un usuario casual de uno de esos servicios pude llegar a desesperarse. Seguro que a todos nos ha pasado más de una vez. Lo que ocurre es que tendemos a pensar que somos nosotros los que andamos “espesos” y no que el sistema está mal diseñado.

Trafic light tree. Escultura, instalada en Londres, del artista Pierre                        Vivant (foto de Diamond Greezer).

Aunque no sea un dispositivo real, ilustra muy bien la confusión que puede generar la yuxtaposición de demasiados elementos informativos; una ilustración magnífica de la ausencia de accesibilidad cognitiva.

También hay actuaciones excelentes desde el punto de vista de la accesibilidad cognitiva. Un ejemplo paradigmático son las instrucciones de montaje de los muebles de Ikea. Estas piezas de información consiguen transmitir la serie de instrucciones necesaria para realizar operaciones (a veces, de bastante complejidad) a personas enormemente variadas en cualquier lugar del mundo. Evitando lenguajes y símbolos con contextualizaciones culturales importantes, así como analizando muy bien el contenido que quieren comunicar, consiguen ese nivel tan alto de comprensión.

En resumen, las ciudades del futuro, como parte de su inteligencia, han de incorporar de manera natural la accesibilidad, en general, y la accesibilidad cognitiva ,en particular. Cualquier objeto o servicio al que se accede mal o no se comprende, difícilmente se le podrá calificar de inteligente.

 

Esta entrada al blog ha sido elaborada por Joaquín Sevilla Moróder, responsable de la Cátedra de Divulgación del Conocimiento y Cultura Científica, profesor titular del Departamento de Ingeniería Eléctrica, Electrónica y de Comunicación e investigador del Instituto de Smart Cities (ISC) de la Universidad Pública de Navarra (UPNA)

La privacidad de la nube para el internet de las cosas

El escándalo de Cambridge Analítica ha mostrado el peligro de la agregación de información. La empresa utilizó datos obtenidos de diferentes fuentes para enviar publicidad dirigida a influir en las elecciones de Estados Unidos. La información utilizada incluía datos de millones de usuarios de Facebook obtenidos de forma fraudulenta, pero, en cualquier caso, datos provenientes de una aplicación con la que los usuarios interactúan y son conscientes de haber compartido. Hasta cierto punto, nos preocupa de la información que tenemos en redes sociales, elegimos contraseñas decentes y protegemos con antivirus nuestros móviles y ordenadores. Bueno, al menos las cosas que parecen ordenadores…

En los últimos años, ha surgido un creciente número de dispositivos: termómetros, cámaras, alarmas… todo tipo de sensores y elementos que nos permiten observar y controlar lo que ocurre en el hogar. Incluso sin estar físicamente, podemos obtener la información y actuar desde un «smartphone». Esto implica, por supuesto, que estos dispositivos puedan comunicarse a través de la red, dando origen al término internet de las cosas o IoT (Internet of Things).

El primer problema de seguridad en estos dispositivos es precisamente ese: que los vemos como únicamente cosas. Un dispositivo capaz de comunicarse a través de internet es un ordenador. Aunque esté metido en una caja pequeña sin pantalla ni cables, tiene los mismos problemas de seguridad que un ordenador. A eso se añade que, al no interactuar directamente con el dispositivo, no nos daremos cuenta de si le pasa algo raro. No vemos si da mensajes extraños de error o si «va lento».

Para comunicarnos con estos dispositivos IoT, podríamos usar varias filosofías. Lo más natural sería pensar que, cuando estamos fuera, usamos una aplicación del móvil para establecer una comunicación con el dispositivo que está en casa. Con esta comunicación, el móvil obtendrá la información que ofrece el dispositivo (por ejemplo, la temperatura) o bien le dará las órdenes correspondientes (por ejemplo, encender la calefacción). Todo ello, protegido por el correspondiente intercambio de información de autenticación para proteger que no pueda ser controlado por cualquiera.

Sin embargo, hoy en día, las redes residenciales no permiten normalmente este funcionamiento. Se utilizan redes con direcciones internas privadas y dispositivos NAT en el router de acceso, que únicamente permiten que se inicien comunicaciones desde la red de casa hacia el exterior. La información puede fluir en los dos sentidos, pero lo que llamamos conexión sólo puede iniciarse desde el interior hacia el exterior.

Por eso, los fabricantes de la mayoría de dispositivos IoT en venta deciden utilizar una segunda filosofía de comunicaciones. Los dispositivos de casa inician la comunicación con servidores en la nube (perteneciente al fabricante del dispositivo). El servidor actúa de pasarela. Nuestros dispositivos le informan de las medidas que realizan y se mantienen en contacto por si deben recibir órdenes. Esta comunicación funciona, porque la inician los dispositivos desde nuestra red hacia el exterior.

El usuario que está fuera establece una comunicación con el servidor y puede consultar los datos de sus dispositivos o incluso darles órdenes. El servidor reenviará las órdenes a los dispositivos en casa y permite consultar la información que ha recibido de ellos.

Esto es cómodo y permite vender dispositivos listos para usarse con poca configuración, pero a costa de que los datos de nuestros sensores y el acceso al control de nuestra casa estén en manos de un intermediario. Estos intermediarios serán el blanco de ataques y filtraciones.

La alternativa será utilizar tecnologías que permitan comunicarnos con los dispositivos sin utilizar intermediarios. Esa es una de las ventajas del uso de la siguiente versión del protocolo IP, la versión 6, que no acaba de despegar en los últimos años. Quizá la proliferación de dispositivos de IoT sea la que genere el impulso definitivo a que los operadores ofrezcan conectividad con IPv6, permitiendo utilizar direcciones IP públicas en las redes residenciales y facilitando la comunicación sin intermediarios.

En este escenario, la vigilancia de la actividad y los flujos de comunicación en las redes residenciales será fundamental. La monitorización de este tipo de tráfico es una de las líneas de investigación del Grupo de Redes, sistemas y servicios telemáticos del Instituto de Smart Cities (ISC) de la Universidad Pública de Navarra (UPNA).

 

Esta entrada al blog ha sido elaborada por Mikel Izal Azcárate, profesor titular de Universidad del Departamento de Ingeniería Eléctrica, Electrónica y de Comunicación e investigador del Instituto de Smart Cities (ISC) de la Universidad Pública de Navarra (UPNA).

Gestión inteligente de tráfico en «smart cities»

La población humana presenta una clara tendencia a concentrarse en núcleos urbanos. Esta situación magnifica ciertos problemas que repercuten directamente en la calidad de vida de los habitantes de las ciudades, tales como la polución, el acceso de las personas a recursos y servicios, la congestión del tráfico, la seguridad y la movilidad de personas y mercancías, entre otros. Las “smart cities” pueden conjugar una serie de tecnologías, en continuo desarrollo, para contribuir a la resolución de dichos problemas. Algunas de las tecnologías más relevantes son los sensores ubicuos, capaces de suministrar información sobre magnitudes de interés; las comunicaciones, que permiten conectar multitud de dispositivos a Internet; los sistemas de ayuda a la decisión, para procesar los datos y asistir a usuarios, empresas y administraciones a tomar decisiones; los sistemas de control, que también procesan datos y permiten gobernar en tiempo real sistemas como el alumbrado inteligente o la red de semáforos; y los interfaces con los usuarios, que, en forma de aplicaciones para dispositivos móviles o paneles en la vía pública, suministran información de interés para la toma de decisiones.

La gestión inteligente del tráfico es un aspecto transversal en las “smart cities”, puesto que favorece la resolución de muchos de los problemas planteados, en el que pueden aplicarse las mencionadas tecnologías.

La congestión del tráfico puede paliarse por medio de la aplicación de los sistemas inteligentes de transporte. Se trata de una herramienta exitosa que combina diferentes tecnologías para recabar datos en tiempo real de personas, vehículos e infraestructuras, comunicarla a través de Internet, almacenarla y procesarla, informar a los usuarios y ayudarles en la toma de decisiones, así como controlar dispositivos automáticos de regulación del tráfico.

Entre los medios utilizados para recabar datos de los agentes involucrados en el tráfico en las ciudades y de las infraestructuras viarias, destacan las videocámaras y diferentes tipos de dispositivos como sensores piezoeléctricos, magnéticos, inductivos, de infrarrojos, de microondas, radar, acústicos, e incluso sistemas que detectan dispositivos móviles e inalámbricos activos en el interior de los vehículos.

También existen diferentes herramientas para la ayuda en la toma de decisiones relacionadas con la gestión de tráfico. En este sentido, merece destacarse el modelado, la simulación y la optimización. Hay diferentes tipologías de simuladores de tráfico: desde los microscópicos, que analizan el comportamiento de agentes individuales, hasta los macroscópicos, donde el comportamiento del tráfico es simulado en su conjunto, pasando por los mesoscópicos, que combinan características de ambos tipos. Este rango de técnicas de simulación permite elegir el nivel de detalle en la simulación, la precisión de los resultados y el tiempo de cómputo necesario para completar una simulación.

Como aplicaciones de dichos simuladores, es posible estimar el efecto, en el tráfico en “smart cities”, de decisiones como la peatonalización de ciertas calles, la instalación de nuevos semáforos, la realización de trabajos viales o los cambios en el sentido de circulación de ciertas vías. Además, las empresas logísticas se benefician, porque pueden evaluar el éxito de diferentes estrategias de distribución, número y tipología de los vehículos disponibles o la elección de diferentes políticas de almacenamiento de producto o de mantenimiento de vehículos.

Entre las aplicaciones de los sistemas inteligentes de transporte, existen varias que presentan una contrastada influencia en la gestión de tráfico en ciudades inteligentes. Por ejemplo, la posibilidad de aplicar automáticamente sanciones por incumplimiento de las normas de circulación, tales como invadir carriles reservados, pisar una línea continua, incumplir una señal de stop o saltarse un semáforo en rojo. Cámaras con reconocimiento facial y de matrículas permiten identificar el vehículo y el conductor infractor.

Asimismo, se pueden destacar otras tecnologías relacionadas con la gestión del tráfico en “smart cities”: los paneles viales, que ofrecen datos de congestión de tráfico en vías próximas y tiempos estimados de tránsito; los semáforos con reprogramación centralizada, que permiten adaptar su temporización en tiempo real para dar prioridad a los carriles más congestionados o facilitar el paso de vehículos de emergencia; las aplicaciones para móviles que informan a los conductores sobre la localización de plazas de aparcamiento libres o que presentan una elevada probabilidad de estar libres en función de un histórico de datos, la hora del día o meteorología; la generación de alertas sobre peligros o catástrofes inminentes, así como la colaboración con los servicios de emergencia y la evacuación de zonas en riesgo.

Dentro del ámbito de la gestión inteligente del tráfico, existen otras tecnologías aún en desarrollo como las comunicaciones entre vehículos y entre vehículos y la infraestructura vial, a través de Internet. Por ejemplo, vehículos dotados de esta tecnología podrán transmitir a otros próximos datos sobre su posición, velocidad, aceleración y trayectoria estimada. De esta forma, los coches podrán generar alertas de riesgo de colisión en condiciones de escasa visibilidad por obstáculos, ángulos muertos o meteorología adversa.

Además, los vehículos podrán comunicar a la infraestructura vial datos sobre su posición y velocidad, incidencias en la conducción, o los aparcamientos que se ocupen. Así, se podrán generar datos precisos sobre el nivel de ocupación de las vías, avisar a otros usuarios sobre las incidencias encontradas o almacenar datos históricos sobre el nivel de ocupación de los aparcamientos que mejoren la previsión de ocupación en el futuro para informar a los potenciales usuarios.

Por otra parte, los vehículos podrán recibir de la infraestructura vial información sobre el nivel de congestión de las vías en tiempo real, así como sugerencias de rutas alternativas coordinadas con las propuestas a otros conductores para evitar congestionar también estas rutas alternativas, que podrían ser de menor capacidad. También se informará a los vehículos de plazas de aparcamiento libres o con elevada probabilidad de estarlo. Los conductores recibirán alertas sobre semáforos o señales viales, evitando infracciones por despiste, sobre la presencia de peatones en la calzada, accidentes o incidencias e, incluso, recomendaciones de velocidad específicas para cada vehículo.

Otra tecnología en desarrollo es la de los vehículos de conducción autónoma, entre cuyas ventajas futuras se pueden citar una mayor seguridad, mejor ocupación de la vía, menor probabilidad de embotellamientos y, posiblemente, una reducción en el estrés de los ocupantes.

 

Esta entrada ha sido elaborada por Juan Ignacio Latorre Biel, profesor del Departamento de Ingeniería en el campus de Tudela de la Universidad Pública de Navarra (UPNA) e investigador en el Instituto de Smart Cities (ISC)

Energías renovables y baterías de litio

El funcionamiento del sistema eléctrico tradicional se basa en una generación centralizada mediante grandes centrales, como son las nucleares, hidráulicas, de gas natural y de carbón. Esta electricidad se transporta mediante redes de alta tensión hasta los centros de consumo, situados en las ciudades y polígonos industriales, con objeto de producir bienes, desarrollar la actividad de comercios y empresas y suministrar energía a los hogares. El buen funcionamiento y la fiabilidad de este sistema eléctrico tradicional son indiscutibles. Sin embargo, al estar basado principalmente en combustibles fósiles y nucleares, dicho sistema no puede considerarse sostenible.

Las energías renovables son herramientas clave que van a permitir un cambio en este paradigma energético. Estas tecnologías rompen con las economías de escala que incentivaban la construcción de grandes plantas de generación eléctrica, permitiendo así la instalación de pequeñas centrales cercanas a los puntos de consumo y reduciendo, de esta forma, la necesidad de redes de alta tensión. Esta menor necesidad de redes de transporte eléctrico cobra especial relevancia si se tiene en cuenta el notable aumento en el consumo eléctrico que supondrá la inminente llegada de la movilidad eléctrica que, de otra manera, requeriría una importante inversión en redes de transporte eléctrico. A nivel económico, las renovables ya son competitivas al haber alcanzado un precio inferior a la generación eléctrica convencional, tal y como lo demuestran los 8.737 MW (megavatios) renovables sin prima adjudicados durante el año 2017 en España. Superado el reto económico, los siguientes desafíos de las renovables son su almacenamiento y gestión.

La amplia variedad de sistemas de almacenamiento, desde grandes centrales de bombeo hidráulico hasta pequeñas baterías para teléfonos móviles, ofrece un interesante abanico de posibilidades. En un escenario de generación descentralizada, merecen especial atención los sistemas de almacenamiento locales destinados a conseguir una adaptación perfecta entre la generación local (poco gestionable por ser de origen renovable) y el consumo, que tampoco se puede gestionar al antojo de frentes de nubes o rachas de viento. Este es el terreno de las baterías, sistemas de almacenamiento que se pueden instalar en los puntos de la red eléctrica donde sean más necesarios. Existen diversos tipos de baterías, aunque son las de plomo−ácido las más utilizadas hasta hace pocos años debido a su bajo coste.

Recientemente, ha tomado fuerza un feroz competidor del plomo en la fabricación de baterías: el litio, el metal más pequeño y ligero de la tabla periódica. Las baterías de iones de litio presentan mejores prestaciones que las de plomo−ácido en cuanto a tiempo de vida y eficiencia. La tecnología de las baterías de litio cuenta ya con una trayectoria comercial de casi tres décadas, en la que su espectacular desarrollo ha hecho que las baterías actuales y las que se desarrollaban hace pocos años sólo tengan en común su elemento portador de carga: el litio.

Las primeras baterías de litio se pusieron en el mercado a principios de la década de los 90 y se utilizaban para ordenadores portátiles, teléfonos, etc. El conocimiento adquirido y las mejoras tecnológicas realizadas durante las décadas de los 90 y los 2000, unidos a las posibilidades de abaratamiento detectadas en este tipo de baterías, han hecho que los fabricantes de vehículos eléctricos (bicicletas, ciclomotores, patinetes, coches, autobuses urbanos, etc.) se hayan inclinado, de forma prácticamente unánime, por diferentes tipos de baterías de litio. La curva de aprendizaje y las economías de escala derivadas de esta decidida apuesta están dando lugar a una rápida reducción de costes.

En concreto, la Agencia Internacional de la Energía pone números a esta tendencia. En un estudio publicado en 2017, esta agencia constata una reducción en el coste de fabricación de baterías de litio desde 860 euros por kWh (kilovatio/hora) en 2008 hasta 215 euros por kWh (kilovatio/hora) en 2016, lo que se traduce en una reducción de costes del 75% en solo ocho años. Esto significa que el coste de fabricación de una buena batería para un hogar (3 kWh) es de 645 euros. El precio de venta suele ser algo más alto, superando normalmente los 2.000 euros.

A día de hoy, desde el sector de las energías renovables se ve a las baterías de litio como la solución para su principal problema: la gestión de la energía generada. Sin embargo, el coste de estas baterías produce una reducción en la rentabilidad económica de las instalaciones renovables. Por ello, cada vez hay más fábricas de baterías de litio a nivel mundial (entre las que destacan las llamadas gigafábricas), compitiendo por conseguir producir la batería más barata y con mejores prestaciones del mercado. Se está planteando también una interesante opción que consiste en instalar, en plantas de generación renovable, baterías desechadas de coches eléctricos, cuyo precio es bastante menor que el de una batería nueva, a pesar de que sus prestaciones no sean tan buenas.

En este contexto es fundamental saber seleccionar para cada aplicación la mejor batería que ofrece el mercado, elegir el tamaño más conveniente y gestionarla de tal forma que se le saque el máximo partido, pero sin que ocurra lo que a menudo sucede con las baterías de los teléfonos móviles: el hecho de que, un año después de estrenarlos, la batería ya está en sus últimos días de vida.

 

Esta entrada ha sido elaborada por Alberto Berrueta Irigoyen, profesor del Departamento de Ingeniería Eléctrica, Electrónica y de Comunicación e investigador en el Instituto de Smart Cities (ISC) de la Universidad Pública de Navarra (UPNA)

Estadística en ingeniería: calidad y fiabilidad

El adagio “Lo que no se mide, no se conoce y no se puede mejorar” tiene plena vigencia en el ámbito de la calidad de los productos y servicios que, en la actualidad, son producidos y prestados por industrias, empresas y administraciones.  ¿Cómo gestionar y tomar las decisiones más adecuadas para una organización sin saber cómo evolucionan medidas e indicadores claves? El instinto y la experiencia, aun siendo cualidades útiles en la toma de decisiones,  son garantía, por sí solos, para la perpetuación de los mismos errores.

Hasta comienzos del siglo XX, la calidad dependía de los esfuerzos individuales de los artesanos. A partir de la organización de la producción en pequeñas tareas y la producción masiva, surge la preocupación por la calidad. Uno de las primeras aplicaciones de la estadística al control de calidad tuvo lugar en el contexto de la competencia entre dos marcas de cerveza: Ginnes y Carling. Afortunadamente para la primera, entre sus trabajadores dedicados a la mejora de la calidad se encontraba William Gosset. Sus trabajos no sólo fueron importantes para prolongar la frescura de la cerveza, sino que sirvieron para que, en 1908, introdujera la distribución t y el test t-student para el análisis estadístico de muestras pequeñas, una de las contribuciones más destacadas a la estadística en el siglo XX.

Al mismo tiempo, compañías como Ford y AT&T en Estados Unidos implementaron acciones para un control sistemático de la calidad.  El desarrollo de métodos estadísticos y su aplicación a la mejora de la calidad continuó ligada al estudio de situaciones reales. Así, por ejemplo,  Walter Shewhart, empleado de la compañía telefónica Bell,  diseña y aplica en 1924 los conocidos gráficos de control.

Todo producto (o servicio) posee un número de características que describen lo que un cliente o usuario considera como calidad. Un fabricante de electrodomésticos exigirá a su proveedor de láminas metálicas que estas posean un determinado grosor, resistencia, etc. Las unidades suministradas cumpliendo con estas especificaciones serán consideradas de calidad, mientras que aquellas que se alejen podrán llegar a ser descartadas. De este modo, la calidad de un producto se medirá como la adecuación de este con las especificaciones.

Una de las razones que dificulta proporcionar un producto o servicio de calidad es la variabilidad en los productos. Difícilmente dos productos, o servicios, son completamente idénticos. Debido a que el estudio de la variabilidad desde un punto científico corresponde a la estadística, esta juega un papel preponderante en la evaluación y en la mejora de la calidad. Se puede afirmar que la variabilidad es el principal enemigo de la calidad. Esta máxima rige la metodología para gestionar la calidad 6 sigma, que propugna una toma de decisiones basada en hechos y datos.

Un aspecto estrechamente relacionado con la calidad es la fiabilidad, que se puede definir como la calidad mantenida a lo largo del tiempo y se mide como una probabilidad. La fiabilidad del producto o servicio tiene una importancia vital y puede conferir una ventaja competitiva decisiva para la empresa. Un análisis riguroso de fiabilidad es imprescindible para el establecimiento de periodos de garantía de los productos y servicios. Los análisis de fiabilidad son tan importantes que, en ocasiones, han preocupado a dirigentes políticos y a la opinión pública en general.  Es el caso de los accidentes de los transbordadores espaciales Columbia y Challenger, que fueron estudiados por comisiones de investigación (¡de las de verdad!) y cuyos resultados provocaron cambios en la gestión de la fiabilidad y calidad de las misiones espaciales y, en general, de los programas espaciales de la NASA.

Por último, echemos un vistazo al futuro del control de calidad y, por extensión, al seguimiento y mejora de procesos. El uso creciente de nuevas tecnologías posibilita la recogida de datos en tiempo real y de un modo continuo. La ingente cantidad de datos generados requiere de nuevas metodologías y procedimientos estadísticos para ser tratados computacionalmente con eficacia. Sin duda, la edad de oro para la estadística ya ha comenzado.

 

Esta entrada ha sido elaborada por Fermín Mallor Giménez, catedrático de Estadística e Investigación Operativa del Departamento de Estadística, Informática y Matemáticas de la Universidad Pública de Navarra (UPNA) e investigador del Instituto de Smart Cities (ISC)

Generación eléctrica distribuida, donde las energías renovables y la economía se dan la mano

La tristemente famosa planta nuclear de Fukushima constaba de seis reactores nucleares (cuatro de ellos, de 786 MW). En la vecina China, la presa de las Tres Gargantas es la de mayor capacidad de producción eléctrica en el mundo gracias a 32 generadores de 700 MW. Las dos cantidades son sorprendentemente similares a pesar de tratarse de tecnologías muy distintas. ¿No tendría sentido construir menos generadores de mayor tamaño? ¿O utilizar un número mayor producido en serie? Es posible hacerlo. De hecho, hay generadores de diferentes tamaños adaptados a cada necesidad, pero la principal restricción es económica y no técnica. Se busca que la energía eléctrica sea lo más barata posible y eso define cuál es el tamaño de generador más eficiente. Economía y tecnología se dan la mano en un equilibrio inestable y siempre cambiante.

La historia de la producción eléctrica ha venido marcada por un aumento considerable en el tamaño de las instalaciones de producción y de las propias empresas eléctricas. Las razones son múltiples, y de larga explicación, pero podemos decir que tienen su origen en una combinación de rentabilidad económica y limitaciones técnicas. El rápido desarrollo de las energías renovables ha servido para revivir este proceso delante de nuestros ojos. Por ejemplo, el tamaño de los aerogeneradores lleva dos décadas creciendo en busca de un menor coste para la energía producida. Cada unidad tiene un precio mayor, pero queda compensado por el incremento en la capacidad productiva. Esto tiene otras consecuencias económicas y sociales. Se hace difícil pensar que un particular utilice la energía eólica para producir su propia electricidad. El tamaño óptimo, el que produce la energía más barata, es demasiado grande.

¿Se trata de un hecho inevitable? ¿Se van a reproducir las mismas formas de producción y comercialización de la energía que hemos heredado del siglo XX? Lo cierto es que aún no lo sabemos. En el campo de la energía eólica, hay propuestas novedosas como la de la empresa holandesa Vandebron. Esta firma actúa como intermediara entre pequeños productores locales y los consumidores. La producción procede, principalmente, de grandes aerogeneradores, distribuidos en pequeños parques de dos a cinco aerogeneradores, que son propiedad de granjeros locales. El uso de nuevas tecnologías de comunicación y control permite que los consumidores elijan a quien desean como productor.

Pero la tecnología más revolucionaria en esta área es la solar fotovoltaica. Un gran parque solar sigue teniendo algunas ventajas y permite una reducción de costes respecto a un panel individual. Sin embargo, esta reducción es muy inferior a la que encontramos en otras tecnologías. Sumando los costes de la red de transporte y distribución, la ventaja empieza a ser dudosa. El mismo razonamiento puede aplicarse al almacenamiento de energía en baterías, una tecnología emergente de creciente importancia. Los modelos de acumuladores para el hogar, propuestos por empresas como Tesla o Nissan, puede ser más interesantes que una gran instalación de almacenamiento centralizado. El proyecto más importante en este sentido es la Virtual Power Plant, una colaboración público-privada promovida en 2018 por la administración del estado de South Australia. El objetivo es instalar paneles solares de 5 KW junto con baterías de 13,5 kWh en, al menos, 50.000 viviendas. Con una capacidad total de 250 MW, se trataría de la mayor instalación de generación distribuida del mundo. Cuando esté en funcionamiento, se espera que produzca energía a un coste un 30% inferior al actual y que contribuya decisivamente a mantener la estabilidad en el suministro eléctrico a los consumidores, un problema que también existe en otras zonas como el norte de Navarra.

Es muy difícil, más bien imposible, hacer predicciones cuando la tecnología está avanzando tan rápidamente.  Sin embargo, podemos estar seguros de que los mismos mecanismos económicos del siglo XX siguen actuando hoy en día. Es muy probable, salvo barreras legales insalvables, que el modelo más económico y eficiente triunfe. Y es posible que la generación distribuida tenga una oportunidad de convertirse en ese modelo.

 

Esta entrada ha sido elaborada por Ambros Liceaga Elizalde, miembro de la Comisión Ejecutiva del Instituto de Smart Cities (ISC) de la Universidad Pública de Navarra (UPNA), donde trabaja como investigador