La importancia de detectar cuanto antes las altas capacidades: el método asturiano

Durante el siglo XX se han desarrollado diferentes investigaciones sobre inteligencia, partiendo cada una de ellas desde diferentes marcos teóricos. Desde las teorías monolíticas que definen la inteligencia como única variable a las que definen inteligencia como una estructuración tridimensional (estímulo-organismo-respuesta), pasando por la teoría factorial (con los componentes de comprensión verbal, fluidez verbal, razonamiento abstracto, numérico o espacial) o los planteamientos jerárquicos.

Los primeros estudios específicos sobre altas capacidades nacen de forma paralela al estudio de la inteligencia. Para entender las altas capacidades intelectuales hay que comprender que son multidimensionales y que su detección y evaluación no consisten en el etiquetado en un momento determinado, sino que precisan un seguimiento continuo.

Ambas, la detección y el seguimiento, han de realizarse desde la escuela inclusiva y por medio de una enseñanza personalizada..

Habilidades y talentos

Ya en 1985, se planteó que la superdotación está asociada la mayoría de las veces con la habilidad intelectual general (g) mientras que el talento denota destrezas o aptitudes más específicas que evolucionan a lo largo del tiempo mediatizados por la familia, el colegio, la personalidad, los intereses, las actitudes.

A día de hoy, la mayoría de autores que examinan las altas capacidades diferencian varios aspectos dignos de destacar: precocidad (ritmo de desarrollo más rápido de lo habitual), talentos (alto nivel en uno o varios ámbitos de conocimiento) y superdotación (nivel elevado de recursos en todas las áreas del conocimiento)

Las tres áreas son: precocidad (ritmo de desarrollo más rápido de lo habitual), talentos (alto nivel en uno o varios ámbitos de conocimiento) y superdotación (nivel elevado de recursos en todas las áreas del conocimiento).
Representación de las tipologías de alumnado con altas capacidades. Departamento de Educación, Centro de Recursos de Educación Especial de Navarra. Gobierno de Navarra., Author provided (no reuse)

Vulnerabilidad y debilidades

Cabe pensar inicialmente que los superdotados y las personas con altas capacidades brillan en todos los campos. Sin embargo, estar incluidos en estos parámetros psicométricos no garantiza destacar en todas las áreas académicas ni conseguir un expediente brillante. Las altas capacidades pueden presentar una disincronía entre la parte intelectual y otras parcelas del desarrollo (académica, social, emocional o personal).

Descripción del fenómeno de las disincronías entendido como un desequilibrio en las capacidades de la niña y el niño, producido por una diferencia en el desarrollo que afecta tanto a su dimensión interna como a las relaciones con el entorno.
Descripción del fenómeno de las disincronías según Terrassier. Elaboración propia.

Los niños y niñas con altas capacidades presentan a veces un doble diagnóstico o doble excepcionalidad. Más allá de sus potencialidades, pueden mostrar también debilidades o necesidades educativas. Hablamos de dificultades específicas de aprendizaje (DEA)trastorno del espectro autista (TEA) o trastorno por déficit de atención e hiperactividad (TDAH).. Todo ello ha de ser tratado de forma coordinada por pediatras, psicólogos y pedagogos.

La atención a la diversidad como prioridad

No es de extrañar que los alumnos y alumnas con altas capacidades se sitúen dentro del perfil de alumnado con necesidades específicas de apoyo educativo (NEAE). Y por tanto será preciso realizar una evaluación psicopedagógica individualizada con el fin de concretar la potencialidad de la alumna o alumno y establecer una respuesta educativa ajustada a sus necesidades específicas. La identificación de las altas capacidades se centrará en la discrepancia existente entre el nivel de aptitud y su rendimiento. Ahí radica una de las claves.

A este respecto, conviene recordar que las leyes de educación contemplan las altas capacidades desde hace años y la LOMLOE promueve la atención a la diversidad establecida en la LOE. A su vez, determina que la escolarización del alumnado con necesidad específica de apoyo educativo deberá estar regida por principios tales como: inclusión y participación, calidad, no discriminación e igualdad efectiva en el acceso y permanencia en el sistema educativo, con accesibilidad universal para todo el alumnado. En otras palabras, lo que pretende la ley es reforzar las posibles medidas de intervención en el ámbito escolar.

¿Por qué razón lo hace? Si la legislación contempla esta realidad y la regula es porque es consciente del problema: existe en las aulas un perfil de alumnado que necesita determinados ajustes en la respuesta educativa, pero, si el sistema educativo no los detecta, entonces ¿cómo podemos ofrecerles la atención y tratamiento que requieren?

La detección temprana

Las altas capacidades se manifiestan frecuentemente en la primera infancia. Algunos autores advierten que el periodo idóneo para su detección es de los 4 a los 7 años. Los casos no siempre son evidentes y suele haber camuflajes, entre otras razones por la necesidad que sienten los niños de pertenecer a un grupo y de mimetizarse con su funcionamiento, intereses y competencias.

Desde que Martina Horner en 1972 describiera el llamado “miedo al éxito” de las chicas, han proliferado muchas investigaciones, también dentro de las altas capacidades. Estas alumnas, ante el temor del posible rechazo social, pueden bajar su rendimiento académico con el objetivo de ser aceptadas.

En la década de los años 70, el experto estadounidense Joseph Renzulli propuso el modelo de detección de los tres anillos: una capacidad intelectual superior a la media, un alto grado de motivación y de compromiso con la tarea y, por último, altos niveles de creatividad.

Rasgos definitorios

Este modelo, a pesar del tiempo que ha pasado, sigue vigente. El reto para el profesorado consistirá en advertir los rasgos definitorios. ¿Cómo hacerlo? Los alumnos con altas capacidades se podrán identificar tanto por sus capacidades intelectuales como por su forma de gestionarlas. Sin ignorar su heterogeneidad y teniendo presente que se manifiestan de modo personal y con diverso grado de intensidad.

¿Qué rasgos son más significativos? Quienes poseen altas capacidades se caracterizan por mostrar independencia de pensamiento y generar ideas múltiples. Además, utilizan procesos de pensamiento flexible. Su creatividad se demuestra a la hora de buscar de manera singular y estratégica las tareas de afrontamiento así como resolver de forma singular los desafíos. Aunque podría decirse que la creatividad no es un rasgo simple que pueda observarse superficialmente. Es multidimensional.

Esto puede verse reflejado en la habilidad que demuestran para pensar a partir del método holístico (del todo a las partes), y también por la gran capacidad de información que manejan y en cómo la gestionan buscando soluciones con gran iniciativa. Así mismo plantean independencia de pensamiento con posiciones fuera de lo habitual.

Por otra parte, si apelamos a la teoría de las inteligencias múltiples planteada por el psicólogo estadounidense Howard Gardner, advertimos que las capacidades de estos niños y niñas no son estáticas, sino más bien un potencial que puede desarrollarse con el tiempo.

Cultivar talentos, no perderlos

Restringir la detección a un enfoque basado únicamente en la evaluación del cociente intelectual (CI) y con criterio de 130 no es, por lo tanto, idóneo. La evaluación psicopedagógica debería recoger al menos cuatro variables: creatividad, capacidad, persistencia en la tarea, intereses y habilidades.

Detectar de manera precoz a los alumnos que poseen estas altas capacidades es importante porque los talentos que no se cultivan se pierden. La escuela del siglo XXI no puede limitarse a impartir contenidos, sino también ha de posibilitar a su alumnado desarrollar las capacidades y talentos tanto dentro como fuera del aula.

El nuevo método asturiano

Podemos resaltar el caso de Asturias, en España, donde recientemente se ha implantado un sistema de detección a través de la Unidad de altas capacidades (UA) dentro del Equipo Regional de ACNEAE (Alumnado con Necesidades Específicas de Apoyo Educativo) de la Consejería de Educación y Cultura. El objetivo estratégico ha sido en primer lugar formar a los docentes para que ayuden en la labor de detección.

El sistema implantado ha sido diseñado en tres fases: en la primera, los tutores identifican indicios; en la segunda, se realiza un seguimiento para que finalmente, con la colaboración de los departamentos de orientación, poder constatar las altas capacidades.

Metodología multinivel

Este novedoso sistema pretende desarrollar una enseñanza personalizada mediante una metodología multinivel dentro de las aulas. Los docentes deberán adecuar su enseñanza a los diferentes ritmos de aprendizaje.

Para evitar que los niños y niñas con altas capacidades pasen inadvertidos y puedan recibir una respuesta educativa adecuada a sus necesidades específicas, será preciso llevar a cabo en el contexto escolar procesos específicos de detección con una atención compartida entre el profesorado y las familias. Y en ese proceso, la colaboración y transparencia resultan claves. Realmente es mucho lo que hay en juego.

Este artículo fue publicado originalmente en The Conversation. Lea el original.

 

¿Hubo infanticidio de niñas en la historia reciente de España?

Cuando hablamos de infanticidios, nuestra mente evoca imágenes de países lejanos y con pobreza. Nos lleva, por ejemplo, a la India y a las niñas que se matan o se dejan morir al saber que no son varones, pero jamás pensamos que los infanticidios de niñas también han podido ocurrir en España. ¿Qué hay de verdad en ello?

A principios de la década de 1990, Amartya Sen, Nobel de Economía, acuñó el término missing women (mujeres desaparecidas) y denunció que más de cien millones de mujeres estarían vivas de haber tenido las mismas oportunidades sociales y económicas que los hombres. Desde entonces, numerosos estudios han denunciado los abortos selectivos, los infanticidios y las prácticas que elevan la mortalidad de las niñas durante la infancia en sociedades con una elevada preferencia por el varón.

Aunque este fenómeno parece que hoy en día se concentra en países como China o India, también hay presencia de abortos selectivos en Estados Unidos, Canadá, Inglaterra o España entre familias provenientes de culturas que discriminan a las niñas. Pero, además, en un pasado no tan lejano, la preferencia por los varones también caracterizó nuestras sociedades.

En este sentido, estudios recientes muestran que prácticas que derivaban en muerte prematura de niñas, como el infanticidio o la falta de cuidados necesarios para garantizar su supervivencia, tuvieron una mayor presencia en la historia de Europa de lo que se pensaba hasta ahora. Estas prácticas son, de hecho, claramente visibles en la España del siglo XIX y parecen haber persistido hasta bien entrado el siglo XX.

El déficit de nacimientos femeninos

La tasa de masculinidad al nacimiento que se observa en la España de principios del siglo XX, con valores próximos a 110 niños por cada 100 niñas, se sitúa muy lejos de los valores biológicos considerados normales, lo que sugiere que muchas niñas no superaban los primeros días de vida. La alternativa a la existencia de prácticas discriminatorias que derivan en muerte prematura es que las niñas estuvieran vivas, pero que no haya constancia de su existencia en el registro civil.

Pero ¿qué ocurría realmente en España? ¿Hubo infanticidios o subregistro de nacimientos femeninos? Esta es la pregunta que hemos querido responder en nuestro estudio publicado recientemente en Cliometrica, con título Economic development, female wages and missing female births in Spain, 1900–1930.

En España, a principios del siglo XX, las leyes obligaban a las familias a registrar a los recién nacidos y no hacerlo conllevaba una sanción económica, pero debían desplazarse hasta donde estuviera el registro; es decir, había que renunciar a ganar una parte del salario. En este sentido, la decisión de registrar o no al recién nacido dependería del coste relativo de hacerlo, por lo que se deduce que, en épocas de mayores salarios, el coste de registrar también sería mayor y observaríamos una menor presencia de niñas en las estadísticas motivada por el subregistro de nacimientos femeninos.

Pero, por otro lado, en una época en la que claramente se preferían los hijos varones, garantizar la supervivencia de las niñas dependería de disponer de los recursos económicos suficientes, no solo para permitir que existieran, sino incluso para cuidarlas y alimentarlas igual que a los niños y evitar que contrajeran enfermedades por negligencia y murieran en mayor proporción que los chicos. Por ello, podríamos encontrar una relación opuesta: ante aumentos salariales, observaríamos una mayor presencia de nacimientos femeninos en las estadísticas y este aumento estaría motivado por la disminución de muertes evitables de niñas.

¿Muertas o no registradas?

Para encontrar respuestas y discernir cuál era el peso que tenía el subregistro respecto al que tenía la muerte por negligencia o descuido en la desaparición de niñas de los registros de nacimientos, nuestro estudio compara la relación entre los salarios del momento con los datos de registros de nacimientos femeninos. Elegimos para ello la época de la Primera Guerra Mundial porque, durante ese periodo, España experimentó grandes shocks exógenos de demanda que implicaron fuertes fluctuaciones económicas (entre ellas, salariales), lo que supone un escenario idóneo para ser analizado.

Además, para identificar el efecto de los salarios en la proporción de nacimientos femeninos se tienen en cuenta divisiones históricas en la percepción del valor de la mujer en la sociedad y en la importancia que se daba en cada provincia a informar sobre el estatus laboral de las mujeres.

Combinando datos, este estudio descubre que, cuanto más suben los salarios, más aumentan los nacimientos femeninos. Es decir, que las prácticas que derivaban en muertes prematuras tenían un peso mayor que la no inscripción de su nacimiento en los registros.

El estudio también muestra cómo la relación entre los salarios y la proporción de nacimientos femeninos fue descendiendo durante los años 20 hasta ir desapareciendo, probablemente gracias a la mejora de las oportunidades laborales femeninas. Es decir, que el crecimiento económico de una región no es suficiente para que la discriminación desaparezca, ya que es necesario que aumenten las oportunidades económicas para las mujeres de manera que las familias dejen de percibirlas como “peores opciones” que tener un varón.

Este artículo fue publicado originalmente en The Conversation. Lea el original.

Enseñar a leer y entender: estrategias para la comprensión lectora

A los alumnos de primaria españoles les cuesta entender lo que leen.

Es la conclusión de los resultados del último informe de la Asociación Internacional para la Evaluación de Rendimiento Educativo (IEA) sobre el progreso de los estudiantes de cuarto de primaria en comprensión lectora. Este estudio (llamado PIRLS por sus siglas en inglés) evalúa las tendencias en el nivel de aprendizaje de los estudiantes, se desarrolla cada cinco años desde el 2001 y España participa desde 2006.

Comprender un texto es una tarea académica y constituye la base para aprender otras materias. Precisamente por esto nos preguntamos qué estamos haciendo mal y de qué manera se puede mejorar esta comprensión lectora.

Podemos utilizar, por ejemplo, esquemas de textos prototipos que nos permitan conocer cómo se organiza el texto. Incluir números, subrayados con distintos colores, etc., con la finalidad de ayudar a identificar al lector cuáles son las ideas principales y las ideas secundarias. Finalmente, plantearnos preguntas sobre el contenido que se acaba de leer.

Una lectura más profunda y activa

Los docentes disponemos de métodos contrastados para mejorar la comprensión. Estos métodos se basan en que los estudiantes empleen estrategias que les permitan leer de manera más activa y profunda. Destacamos algunas de ellos, propuestos por el equipo del psicólogo de la educación estadounidense Roger H. Bruning, una referencia en este campo:

  1. Promover la colaboración y la interacción entre los estudiantes para facilitar el aprendizaje mutuo.
  2. Fomentar un intercambio de preguntas y respuestas, creando un diálogo entre el docente y los estudiantes.
  3. Aprovechar las interacciones lúdicas con el objetivo desarrollar habilidades de aprendizaje autónomo.
  4. Desarrollar la comprensión de lectura a través del análisis y la comprensión de los conceptos clave presentes en el texto.

Una lectura por etapas

La mejora de la comprensión lectora se desarrolla a lo largo de tres etapas:

  1. En los momentos iniciales, antes de empezar a leer, podemos aplicar estrategias previas a la lectura. Por ejemplo: recapitular todo lo que ya conocemos del tema que vamos a leer, es decir, activar nuestros conocimientos previos; animarnos hacer predicciones –como por ejemplo “qué pasaría si…”–, anticipar posibles finales a un texto, hipotetizar sobre situaciones. Finalmente, plantearnos preguntas sobre qué sabemos sobre el texto al que nos enfrentamos. Por ejemplo, si voy a leer un texto del cambio climático qué sé del cambio climático.
  2. Estrategias durante la lectura: identificar partes relevantes del texto (con subrayados), utilizar estrategias de apoyo y repaso que nos ayuden a comprender y retener la información del texto. Por ejemplo, elaborar resúmenes, tomar notas, crear esquemas o mapas conceptuales, generar preguntas sobre el contenido, buscar definiciones de palabras desconocidas, entre otras.
  3. Finalmente, cuando terminamos de leer un texto es posible aplicar otras estrategias posteriores a la lectura. Por ejemplo: identificar la idea principal, crear un resumen esquemático, formular nuevas preguntas y responder a las formuladas al inicio del texto.

Algunas recomendaciones prácticas

El prestigioso psicólogo educativo estadounidense Richard Mayer recomienda utilizar organizadores previos para incrementar la comprensión lectora, enseñar estrategias importantes de modo explícito y animar a sus estudiantes a leer, a ser lectores activos y aprendices activos de vocabulario.

En esta línea, el psicólogo Fernando Doménech Betoret propone cinco estrategias básicas para fomentar la comprensión lectora:

  1. Determinar la importancia de lo que se está leyendo: subrayar con distintos colores la idea principal y las ideas secundarias, por ejemplo.
  2. Resumir la información: crear un texto nuevo diferente que represente la idea original del texto.
  3. Realizar inferencias: los textos dejan cosas sin decir y la comprensión depende de que deduzcamos la información no presente.
  4. Generar preguntas: los lectores competentes suelen hacerse preguntas sobre su comprensión.
  5. Supervisar la comprensión de forma constante, no esperar al final: los lectores competentes saben cuándo comprenden y cuándo no comprenden.
Los cinco pilares de la comprensión lectora son: determinar la importancia, resumir la información, realizar inferencias, generar preguntas y supervisar la comprensión.
Estrategias de comprensión lectora. Elaboración propiaAuthor provided

Algunas aplicaciones y páginas webs

Por último, los docentes pueden utilizar en sus clases diferentes aplicaciones que fomentan la comprensión lectora de forma lúdica y creativa:

  1. ReadUp: Aprender a leer y mejorar la lectura, Aprender a leer 2 Grin y Uipi.
  2. OXBOOKS, Cuentos cortos por OX.
  3. Galexia, Mejora de la Fluidez Lectora.
  4. Read Along, Sistema Lea.

También disponemos de materiales elaborados por los propios docentes que difunden en blogs. Algunas consejerías de Educación están elaborando materiales que los docentes pueden aplicar en sus aulas.

Finalmente, podemos fomentar la comprensión lectora desde clase y casa, con el uso de diversas estrategias que ayuden a los lectores a comprender, analizar y relacionarse con los textos de manera efectiva. Al aplicar estrategias específicas, los lectores pueden mejorar su capacidad para extraer significado, interpretar información y construir un conocimiento sólido a partir de lo que leen.

Este artículo fue publicado originalmente en The Conversation. Lea el original.

¿Se puede medir mediante palabras el sufrimiento por una guerra medieval?

Juego de Tronos popularizó el fenómeno de las luchas nobiliarias propias del último tramo de la Edad Media. Su autor se inspiró en el enfrentamiento entre las familias York y Lancaster (Stark/Lannister, en la popular saga), de la llamada Guerra de las Dos Rosas. Pero el fenómeno fue común en toda Europa, que conoció en el siglo XV un periodo de guerras civiles a pequeña y gran escala en diferentes territorios.

En el reino de Navarra, al norte de la Península Ibérica, esto se concretó en el enfrentamiento entre los bandos agramontés y beaumontés, que agrupaban a diferentes linajes, divididos en función de sus afinidades a diferentes candidatos al trono, y de sus amistades y enemistades dentro del sector nobiliario.

Los agramonteses se agruparon en torno a las familias Peralta y Navarra, y apoyaron desde 1450 al rey Juan II, viudo de la reina propietaria Blanca I (fallecida en 1441), cuyo linaje era castellano y aragonés, pero no navarro. Mientras tanto, los beaumonteses, agrupados en torno a la familia Beaumont, defendieron los derechos al trono del hijo de Juan II y Blanca I, Carlos, príncipe de Viana, verdadero heredero del linaje regio navarro.

Aportar algo diferente a la historia

Los historiadores, en la actualidad, nos enfrentamos a la necesidad de mejorar las interpretaciones sobre el pasado, pero partimos realmente de los mismos documentos escritos que ya utilizaron antes que nosotros otros historiadores de prestigio. Para aportar algo diferente sobre lo que ellos dedujeron y explicaron hoy contamos, primero, con nuevos enfoques teóricos y, en segundo lugar, con nuevas herramientas tecnológicas.

Los nuevos enfoques teóricos nos permiten hacer preguntas novedosas, con la pretensión de ir más allá de la simple (o no tan simple) reconstrucción cronológica de unos hechos. En el caso de los estudios sobre la guerra o la violencia en general, esto se traduce en que nos preguntemos por la responsabilidad de los hechos violentos: ¿Quién agitó la espada? ¿Quién recibió los golpes? ¿Cuál fue la intensidad de la violencia? ¿Podemos medirla?

En cuanto a las herramientas tecnológicas, estas nos permiten trabajar de forma automática con los documentos medievales. Para ello, debemos convertirlos en un texto digital (un archivo de Word o similar), bien tecleándolos a mano o bien leyéndolos en voz alta con un software de dictado.

Cuando contamos con un corpus importante de documentos transcritos (50, 100… o más), pasamos a tener en nuestro ordenador archivos que contienen miles de palabras que podemos codificar mediante un sencillo etiquetado. A partir de ahí, su exportación a un formato diferente (en forma de tabla, en Excel, por ejemplo), mediante un sencillo copiar y pegar, nos permite convertir el texto en una gran base de datos con miles y miles de palabras que, desde ese preciso momento, podríamos contabilizar para analizarlas estadísticamente.

La lucha en la Navarra del siglo XV

Si hemos etiquetado de manera correcta cada documento, indicando su fecha, su procedencia (lugar y bando nobiliario, por ejemplo), podremos preguntar a nuestra nueva base de datos sobre los diferentes hechos violentos. ¿Cuántas veces aparece la palabra muerte? ¿En qué periodo hubo más muertes? ¿Qué bando provocó más? ¿Cuántos hechos violentos documentamos?

Hasta el momento, este tipo de metodologías nos han permitido conocer mejor la evolución del conflicto civil navarro que tuvo lugar entre 1450 y 1522, como se verá en un trabajo de próxima publicación.

Hemos podido detectar un primer periodo que podemos definir como “guerra dinástica” (1350-1364), por el uso sistemático de la palabra obediencia (una obediencia dividida, hacia el Príncipe de Viana o hacia su padre, Juan II).

El segundo periodo puede considerarse una época de “lucha de bandos” (1464-1493), en el que detectamos el predominio de la palabra adherencia, o adhesión voluntaria a un bando o a otro.

Finalmente, hemos denominado al último periodo “guerra de Estado” (1494-1507), al recuperarse el concepto de obediencia, pero de una única obediencia (a los entonces ya únicos reyes posibles, Juan III y Catalina I), es decir, sin la aceptación de las dos posibles obediencias antagónicas del inicio.

Un hombre yace muerto y rodeado de hombres que le miran.
Muerte del príncipe de Viana, de Vicente Poveda y Juan. Museo del Prado

Seguir el rastro de los adjetivos

Cuando tratamos de depurar responsabilidades de los hechos violentos, podemos contabilizar el número de veces que un personaje o un colectivo es nombrado junto a una queja, una acusación o junto a un adjetivo peyorativo (traidormalvadosecuazmalhechor…).

De igual modo, podremos ponderar los discursos pacifistas (existentes también en esta época), contabilizando el número de veces que la palabra paz aparece en nuestro corpus, para demostrar que toda esta violencia se realizó en contra de unos principios morales dominantes (tomados de la filosofía clásica y del pensamiento cristiano), que condenaban la crueldad de algunos hechos.

Entre estos se encuentra el asesinato del obispo Nicolás de Echávarri a manos de Pierres de Peralta, que causó escándalo en la época por ser la víctima un eclesiástico de alto rango, por un lado, y producirse en un periodo de tregua, por otro.

También tuvieron gran impacto los castigos especialmente crueles (cruelcrudelísimo), como los cometidos por el conde de Lerín en Mendavia al torturar a varios vecinos. En una comunicación fechada el 16 de diciembre de 1494, el sacerdote de Mendavia, Martín Miguel, solicitaba ayuda a los reyes de Navarra declarando que los detenidos acabaron “como aquellos que en vida están soterrados y viviendo mueren”.

Por medio de la edición digital de fuentes escritas y de su tratamiento con metodologías lexicométricas como las anteriormente mencionadas, podemos aportar demostraciones inequívocas sobre la extensión del uso de una palabra (o incluso de un campo semántico entero), a lo largo del tiempo y la extensión de un territorio. Esto se hace en función de los descriptores temporales y geográficos que definamos y de su representación gráfica o cartográfica.

Así que volvemos a nuestra pregunta inicial: ¿podemos medir el sufrimiento de nuestros antepasados medievales en la guerra civil entre agramonteses y beaumonteses? La respuesta honesta es reconocer que no, puesto que no contamos con la posibilidad de realizar mediciones o elaborar encuestas objetivas en el pasado. Sin embargo, hoy sí podemos medir o contabilizar con objetividad algo relativamente similar: el sufrimiento, subjetivo, del que nuestros antepasados dejaron testimonio en las fuentes escritas de aquella época.

Este artículo fue publicado originalmente en The Conversation. Lea el original.

Movimientos revolucionarios colombianos: ¿hubo radicalización violenta o captación forzosa?

The ConversationSergio García Magariño, investigador del Instituto I-Communitas (Institute for Advanced Social Research-Instituto de Investigación Social Avanzada) de la Universidad Pública de Navarra (UPNA)

Foto de Flavia Carpio en Unsplash

Tiempo estimado de lectura: 2 minutos

Quienes viven en entornos rurales suelen estar más arraigados e integrados en comunidades. Por ello, los grupos guerrilleros adoptan una narrativa que conecta con esa realidad. Ellos plantean ser los únicos verdaderos defensores de la comunidad.

El conflicto colombiano es tan popular como complejo. Además, el estudio empírico de las formas de reclutamiento y de los procesos de radicalización violenta hacia los diferentes grupos armados, principalmente las Fuerzas Armadas Revolucionarias de Colombia (FARC) y el Ejército de Liberación Nacional (ELN), no ha estado exento de dificultades. Algunos académicos incluso han planteado que la noción de radicalización violenta no sirve para ese contexto, puesto que la incorporación a los grupos armados sería el resultado de un reclutamiento forzado o forzoso.

Sin embargo, quienes se han acercado al conflicto desde enfoques etnometodológicos plantean un panorama distinto. Aseguran que, aunque pudiera haber casos de reclutamiento forzoso, gran parte de los jóvenes que se unían a las FARC, al menos en las últimas etapas, lo hacían por la convicción de que la lucha armada era la única vía que les quedaba a los campesinos para reivindicar sus derechos, especialmente los relacionados con el uso de la tierra. Incluso, intentan desmitificar la noción de que quienes se unen a las FARC lo hacían por una expectativa económica. No niegan la adquisición de estatus como elemento motivacional para algunos jóvenes, especialmente frente a los no campesinos, pero rechazan la tesis de la oportunidad económica.

Al analizar el proceso de adhesión al otro grupo guerrillero más popular de Colombia, el Ejército de Liberación Nacional (ELN), de naturaleza eminentemente urbana, suele haber más apertura para aplicar la noción de radicalización violenta. Según el Center for Internacional Cooperation and Security (CICS) de la Universidad de Standford, sus orígenes, vinculados a movimientos estudiantiles y religiosos, así como algunos de sus fundadores y líderes históricos, han hecho que se le considere un grupo altamente ideologizado que combinaría el marxismo-leninismo y la teología de la liberación. En cuanto al perfil de los militantes, con el tiempo ha ido cambiando. De tener una militancia estudiantil, sindical y religiosa, ha pasado a engrosar sus filas explotando dos canteras: la ola de refugiados venezolanos y disidentes de las FARC.

Las vías de adhesión

Tras esta breve exploración de las FARC y el ELN de Colombia, se aplicará al caso la teoría esbozada en Violencia, política y religión: una teoría general de la radicalización violenta. Aunque el perfil de los militantes de estas dos organizaciones y las sendas que han conducido a las personas a unirse a las mismas sigue siendo un tema que requiere mayor estudio empírico, se podrían tipificar las supuestas vías de adhesión de la siguiente forma: captaciones forzosas, la convicción de que la lucha armada es la única vía para reivindicar los derechos campesinos, defender a los pobres con armas aduciendo interpretaciones religiosas, la búsqueda de incentivos económicos, deseo de estatus, lograr la justicia social mediante la lucha revolucionaria y encontrar sentido a través del activismo juvenil.

Estructura moral

Tal como se puede observar, menos en el caso del reclutamiento forzoso, donde no existiría un acto voluntario de radicalización, los otros pueden desglosarse a la luz de las nociones de estructura moral y de comunidad de propósito.

En cuanto a la estructura moral, esta tiene diferentes componentes que operan de forma sincrónica y sofisticada: conceptos, pautas de comportamiento, competencias de control emocional, motivaciones que dan dirección al propósito, análisis de las consecuencias de diferentes opciones, lenguaje.

En relación a los conceptos, en todos los casos señalados habría algunas nociones que se han interiorizado. Considerar que la lucha armada es la única vía para defender los derechos campesinos, por ejemplo, es una concepción. Asimismo, la adopción del marxismo-leninismo revolucionario como ideología política o acercarse, doctrinalmente desde una perspectiva religiosa, a la teología de la liberación (que incluye el uso de la violencia con fines políticos) implicaría también la interiorización de conceptos. Incluso quien se une a las FARC por incentivos económicos mantiene un concepto, aunque implícito, de que cualquier trabajo, aunque entrañe daño a otros y uso de la violencia, es legítimo, puesto que la búsqueda de la subsistencia individual y familiar sería un fin para el que todos los medios estarían justificados.

Algo similar puede decirse de quien busca estatus o protección uniéndose a la guerrilla: todo vale, con tal de tener reconocimiento y protección y de ganarse el respeto.

Las pautas de comportamiento, sentimiento y pensamiento, interiorizadas mediante procesos de socialización, también jugarían un papel importante, puesto que un número mucho más grande de personas que de militantes mantendría convicciones similares a las anteriores, pero un porcentaje muy pequeño decide dar el paso de la acción violenta. Aquí, quienes han experimentado procesos de mayor violencia (intrafamiliar, entrenamiento de artes marciales o militar, criminalidad) o tienen familiares, amigos y vecinos previamente radicalizados con quienes mantienen lazos estrechos, tendrían mayor probabilidad de dar el paso. Para ellos, la violencia no solo está justificada, sino que es familiar y saben ejercerla.

Las competencias de control emocional, la capacidad de analizar las consecuencias de diferentes cauces de acción y la posesión de un lenguaje rico para poder reflexionar con profundidad también son esenciales. Quienes no pueden controlar sus emociones, especialmente la ira, son menos introspectivos y tienen menos recursos cognitivos para reflexionar, dan el paso con mayor facilidad ante circunstancias similares. Los jóvenes estudiantes, por ejemplo, que sienten un resentimiento abstracto ante un enemigo idealizado (demonizado) son más vulnerables, sobre todo cuando no tienen conceptos o valores fuertes que deslegitiman el uso de la violencia.

Vinculación a una comunidad de propósito

En un segundo nivel se puede identificar con claridad también el papel que juega la vinculación a una comunidad de propósito. La radicalización hacia los grupos guerrilleros de Colombia no se produce en un vacío relacional, sino que acontece en grupo. La individualización de la vida colectiva y el desarraigo es más fuerte en los núcleos urbanos que en los rurales de Colombia. Por ello, los movimientos estudiantiles, sindicalistas y religiosos son una cantera importante para generar identidad y propósito y entrenarse en las dinámicas de la acción colectiva.

Los grupos radicalizados, además, proporcionan un entorno de mayor cohesión interior y sensación de solidaridad. La individualidad se difumina. Por ello, quienes adoptan una estructura moral más proclive a la violencia, cuando encuentran un grupo al que integrarse, canalizan más fácilmente su deseo de acción. Asimismo, la pertenencia a estos grupos moldea la estructura moral para legitimar la acción violenta. Los jóvenes, que se encuentran en una disponibilidad biográfica que favorece el activismo, por carecer de otros compromisos conyugales y familiares, son más fáciles de captar que los adultos con familia.

Quienes viven en entornos rurales suelen estar más arraigados e integrados en comunidades. Por ello, los grupos guerrilleros adoptan una narrativa que conecta con esa realidad. Ellos plantean ser los únicos verdaderos defensores de la comunidad. Estas referencias se acercan a las de los grupos yihadistas, cuando sostienen que actúan en nombre de la Umma imaginaria, de la comunidad de fieles transnacional.

Por ello, unirse a un grupo guerrillero desde una zona rural campesina también se relaciona con la inclusión dentro de una comunidad de propósito de la que extraer sentido, entrenamiento, reconocimiento, fuerza e identidad. De hecho, las zonas rurales han experimentado un proceso de erosión cultural como consecuencia de las fuerzas procedentes de la modernización, por lo que las propuestas que incluyen la pertenencia a un grupo y la provisión de identidad adquieren gran importancia.

Sergio García Magariño, Investigador de I-Communitas, Institute for Advanced Social Research, Universidad Pública de Navarra

Este artículo fue publicado originalmente en The Conversation. Lea el original.

La exclusión social, una bola que crece en España con cada crisis

Miguel Laparra Navarro, profesor titular del área de Trabajo Social y Servicios Sociales e investigador del I-COMMUNITAS – Institute for Advanced Social Research de la Universidad Pública de Navarra

Imagen de Myriams-Fotos en Pixabay
Tiempo estimado de lectura: 3 minutos

La “desconexión digital”, que afecta a uno de cada tres hogares, la mayor parte por falta de habilidades para el manejo de los dispositivos, es el nuevo proceso de exclusión social más relevante de este cuarto de siglo: es el nuevo analfabetismo del siglo XXI, que explica esa evolución en el mercado de trabajo.

¿Es hoy más difícil salir de la exclusión social? Es la pregunta que nos hacemos y que respondemos con un rotundo sí. Después de dos crisis intensas, la financiera de 2008-2014 y la de la Covid-19, y la irrupción de la última crisis, la de la inflación, se constata que el impacto sobre la exclusión social en España crece. De hecho, si la exclusión severa afectaba al 6,3 % de la población en España en 2007, ese porcentaje se duplica hasta un 12,7 % en 2021, afectando a 6 millones de personas.

Son datos que, ya en la primavera del 2022, apuntaba el informe de la Fundación Foessa. Se trata de la aproximación estadística al fenómeno de la exclusión social en España más completa que existe y que analiza, a través de 37 indicadores, no solo sus dimensiones económicas (los ingresos, el empleo o el consumo), sino también los derechos de ciudadanía (políticos y sociales, como educación, salud o vivienda) y las propias relaciones sociales interpersonales (situaciones de aislamiento y conflicto social). Toda una innovación metodológica en la que participa la Universidad Pública de Navarra y una buena herramienta para radiografiar la sociedad española en este largo periodo de crisis sucesivas.

Evolución del porcentaje de población en exclusión severa

Evolución del porcentaje de población en exclusión severa.
Fuente a partir de EINSFOESSA 2018 y 2021 (página 603)

¿Cómo nos han afectado las crisis vividas?

En resumen, mal. La reducción de la actividad económica a partir de 2008 se trasladó al desempleo y sus efectos sociales se vieron agravados por las políticas de austeridad y los recortes sociales, el llamado “austericidio”. La crisis de 2020 fue más intensa en reducción del PIB (una caída del 11 %), pero afectó menos al empleo (1/5 parte que la anterior) gracias a las políticas públicas y, de forma muy especial, a los ERTE, que llegaron a 3,5 millones de trabajadores, y a las ayudas a 1,5 millones de autónomos, que salvaron la inmensa mayoría de estos empleos.

Sin embargo, otras medidas para la población más vulnerable, como el Ingreso Mínimo Vital o las moratorias en alquileres e hipotecas, tuvieron mucho menor impacto del previsto.

Actualmente, hablamos ya de una tercera crisis, de naturaleza energética preferentemente, que se plasma en el aumento generalizado de los precios, especialmente de algunos productos básicos como la energía, la alimentación o la vivienda, que hacen que los hogares más vulnerables no puedan afrontar los suministros y se vean en situación de pobreza después de pagar el alquiler o en riesgo de pérdida de la vivienda o de un desahucio.

Nos encontramos sumidos, pues, en una dinámica en la que crisis económicas sucesivas generan un fuerte impacto que pone en riesgo la cohesión social. A lo que hay que sumar que, en los periodos de recuperación intermedios, no se han logrado superar los problemas generados y recuperar los niveles de igualdad y de integración social. Se ha producido así un efecto “bola de nieve” que hace que nos enfrentemos cada vez más a procesos de exclusión social no solo más amplios, sino también más intensos, con más acumulación de problemáticas diversas en los hogares, y más prolongados, con riesgo de cronificación.

Solo si somos conscientes de estos cambios y enfrentamos la cuestión con la prioridad que merece, mejorando la calidad de las políticas de inclusión, estaremos en condiciones de revertir esta perversa dinámica.

La transformación tecnológica pasa factura

Obviamente, cada crisis tiene su propio perfil. La crisis de la Covid-19 afectó de forma especial a diversos aspectos sanitarios. El 40 % de la población expresaba que su estado de ánimo había empeorado con la pandemia y quienes manifestaban tener problemas de salud mental habían pasado del 11% en 2018 al 14 % en 2021. Además, la proporción de hogares que no compraban medicinas o prótesis que necesitaban, o dejaba tratamientos o dietas, pasó del 9 % al 15 % en esa crisis.

Pero más allá del impacto de cada crisis, a partir de los análisis de la Fundación Foessa también pueden verse otros factores constantes que muestran sus efectos en el largo plazo. La gran transformación tecnológica, basada en la digitalización y las tecnologías de la información, se intensificó con la pandemia. Y este proceso, a pesar del discurso oficial, sí esta dejando gente atrás.

Los empleados menos cualificados tienen cinco veces más probabilidades de perder su puesto que los profesionales y técnicos. Y, una vez en el desempleo, es más difícil volver al trabajo: si en 2007 el 50 % de los parados encontraban un empleo antes de un año, en 2020 ese porcentaje se reducía al 29 %, y de ahí el aumento de la proporción de desempleados de larga duración.

La “desconexión digital”, que afecta a uno de cada tres hogares, la mayor parte por falta de habilidades para el manejo de los dispositivos, es el nuevo proceso de exclusión social más relevante de este cuarto de siglo: es el nuevo analfabetismo del siglo XXI, que explica esa evolución en el mercado de trabajo.

Porcentaje de hogares que han perdido alguna oportunidad por no tener posibilidad de conectarse a internet

Porcentaje de hogares que han perdido alguna oportunidad por no tener posibilidad de conectarse a internet.
Fuente a partir de EINSFOESSA 2021 (página 606)

¿A quién afecta la exclusión social?

El perfil de los sectores más afectados se ha mantenido bastante constante en todo este periodo, pero cada vez se amplían más las diferencias respecto del resto. La incidencia de la exclusión social severa es el doble en los hogares cuya sustentadora principal es una mujer (26 %), afecta principalmente a la infancia (22 %) y a las personas de menor nivel formativo (la ESO ya no es un nivel educativo suficiente que prevenga de la exclusión). Golpea también especialmente a las personas con problemas de salud mental (20 %) y repercute más en los barrios desfavorecidos (25 %).

Pero, sin duda, es el factor étnico el que más discrimina: un 38 % de la población inmigrante de origen extracomunitario está en situación de exclusión social severa y la incidencia en la comunidad gitana es todavía mayor.

En definitiva, todo un reto para la sociedad española que debemos afrontar seriamente porque hoy la exclusión social es más dura, más persistente, más crónica. Y no nos conviene.

Miguel Laparra Navarro, Profesor Titular del Departamento de Sociología y Trabajo Social, Universidad Pública de Navarra

Este artículo fue publicado originalmente en The Conversation. Lea el original.

Las redes 6G lo cambiarán todo

Francisco Javier Falcone Lanas, catedrático de Teoría de la señal y comunicaciones y  director del ISC- Instituto Smart Cities de la Universidad Pública de Navarra

Imagen de Gerd Altmann en Pixabay
Tiempo estimado de lectura: 2 minutos.

 

Un ejemplo: en el caso de 6G las señales inalámbricas (…) pueden servir no sólo para enviar información, sino también para localizar objetos, máquinas y personas con elevados grados de precisión, incluso en interiores. También para poder determinar el ritmo de respiración cardíaca de una persona.

Los teléfonos móviles, en su mayoría inteligentes, se han convertido en un elemento cotidiano de nuestro día a día. Nos asisten en multitud de tareas: comprar online, elegir la mejor ruta para poder acudir a una reunión, consultar nuestro saldo bancario y estar al tanto de las últimas tendencias. Todo esto es posible gracias a que son plataformas de procesamiento de información con capacidad de almacenamiento, comunicación e interacción con el entorno circundante. Además, integran diferentes tipos de sensores, como cámaras y acelerómetros.

Nuestros teléfonos son un miembro más de un conjunto de elementos dentro del concepto de internet de las cosas (IoT, por sus siglas en inglés). Gracias a las capacidades cada vez mayores de integración electrónica y de gestión de la información de las redes de comunicaciones, permiten que prácticamente cualquier dispositivo cuente con conectividad a internet, en cualquier lugar y momento.

El internet de las cosas ya cuenta con redes de sensores desplegadas por nuestras ciudades, entornos suburbanos y rurales. Así, monitoriza sistemas de transporte de mercancías, redes de distribución de luz, agua y gas y salud de infraestructuras como puentes. También asiste la gestión y el control de los sistemas de automatización en edificios.

Estas redes dependen de manera fundamental de las capacidades de las redes de comunicaciones inalámbricas y móviles, que posibilitan un despliegue ubicuo y, en función de la red de comunicaciones empleada, capacidades de movilidad.

¿Cómo debe ser una red inalámbrica?

Las redes inalámbricas han de poder garantizar la conectividad considerando condiciones de canal variables, tanto por la propia naturaleza inalámbrica del canal como por el comportamiento del usuario (por ejemplo, chatear dentro de un vagón de metro en el subsuelo).

Dado que hay una gran variedad de dispositivos conectables y de condiciones de operación (según el tipo de tráfico, tamaño del dispositivo y limitaciones de energía), contamos con diferentes redes:

  1. Redes de sensores (Low Power Wide Area Network, LPWAN, como LoRa/LoRaWAN o Sigfox).
  2. Redes inalámbricas de área local (Wireless Local Area Networks, coloquialmente conocidas como wifi).
  3. Redes de área corporal o personal (Bluetooth y Near Field Communications-NFC para identificación o pagos con el móvil).
  4. Las propias redes móviles.

En el caso de estas últimas nos encontramos inmersos en el despliegue de las redes 5G. Más concretamente, las que operan en las bandas de microondas por debajo de 6 GHz (conocida como NR FR1).

Desde que el 4 de abril de 1973 se realizó la primera llamada desde un teléfono celular, las redes móviles han evolucionado hasta convertirse en redes IP nativas, con capacidades de transmisión de datos de varios gigabits por segundo, con retardos en el entorno de milisegundos que permiten gestionar servicios diversos.

Todo ello, además, pendientes de que las nuevas evoluciones de la red 5G (fundamentalmente el despliegue de las redes en bandas milimétricas, 5G NR FR2) sean por fin una realidad.

Hacia el 6G

Entonces, ¿qué diferencia la red 6G de las generaciones previas?

La red 5G es ideal para manejar aplicaciones del internet de las cosas, ya que permite velocidades de transmisión que sirven para la gran mayoría de las aplicaciones y cuenta con tiempos de respuesta aptos para aquellas aplicaciones que son críticas en tiempo real.

La red 6G, cuyas primeras versiones operativas se proyectan para 2030, plantea velocidades de transmisión de datos en el rango de un terabit por segundo, latencias de 0,1 milisegundos, soporte de conectividad para vehículos con velocidades hasta 1000 km/h y niveles de fiabilidad del 99,99999 %.

Esto posibilita múltiples aplicaciones: sistemas de control en tiempo real de robots, conectividad masiva de todo tipo de dispositivos (electrodomésticos, mobiliario urbano, wearables, bicicletas), hasta 107 dispositivos por kilómetro cuadrado y la implementación de entornos de realidad mixta y realidad extendida, con aplicaciones tan espectaculares como las comunicaciones holográficas.

En este contexto surge en la definición de las redes 6G el concepto de capacidades conjuntas de comunicaciones y sensado como un claro elemento diferenciador e innovador.

Un ejemplo: en el caso de 6G las señales inalámbricas pueden alcanzar frecuencias en el orden de 3 THz (con propiedades más cercanas al infrarrojo que a las frecuencias de microondas y ondas milimétricas). Esto quiere decir que pueden servir no sólo para enviar información, sino también para localizar objetos, máquinas y personas con elevados grados de precisión, incluso en interiores. También para poder determinar el ritmo de respiración cardíaca de una persona.

De esta manera, la red 6G pasa a ser mucho mas que una red de comunicaciones y se convierte en un elemento vertebrador de nuevas formas de interacción, tanto con nuestro entorno real como en entornos virtuales. Eso sí, tendremos que esperar un tiempo para que se desarrollen tanto la tecnología como el contexto socioeconómico y cultural en el que conviviremos.

Francisco Javier Falcone Lanas, Director del Instituto de Investigación de Smart Cities. Profesor del Área de Teoría de la Señal y Comunicaciones del Departamento de Ingeniería Eléctrica, Electrónica y de Comunicación., Universidad Pública de Navarra

Este artículo fue publicado originalmente en The Conversation. Lea el original.

Ok, Google: ¿de verdad me importa mi privacidad?

Mónica Cortiñas, Profesora Titular Comercialización e Investigación de Mercados, Universidad Pública de Navarra (UPNA).

Shutterstock / Vantage_DS

Siri y Alexa se han colado en nuestras vidas: nos acompañan en nuestros smartphones, altavoces inteligentes, sistemas de navegación y dispositivos de domótica. Son asistentes virtuales de gran utilidad en muchos contextos. Por ejemplo, para utilizar nuestros teléfonos mientras cocinamos o para facilitar el acceso a internet a personas con diversidad funcional. Sin embargo, su uso no está exento de riesgos. Algunos, que quizá desconozcamos.

¿Hasta qué punto arriesgamos nuestra privacidad con ellos? ¿Realmente nos importa perder nuestra intimidad?

 

La cara B de los asistentes virtuales

 

Dada la variedad de dispositivos en los que se incorporan, es difícil tener cifras precisas sobre la penetración de asistentes virtuales en la actualidad. En el mercado americano más del 50 % de los hogares tiene ya un altavoz inteligente y en España las cifras se sitúan en torno al 7 %.

Hablamos de asistentes virtuales que funcionan con un conjunto de sistemas y algoritmos que reconocen el lenguaje natural y ejecutan distintas tareas. Pero, además de recopilar datos personales de la misma forma que otras aplicaciones, estos asistentes recogen un tipo de información especialmente sensible: las grabaciones de voz.

Aunque están diseñados para activarse únicamente cuando se mencionan los términos clave (“hey Siri”, “Alexa”), estos términos no siempre se detectan de manera correcta y los dispositivos pueden llegar a despertarse entre 20 y 40 veces en un día. Como resultado, realizan grabaciones de entre 6 segundos y 2 minutos antes de desconectarse.

¿Qué ocurre en esos casos? Las empresas desarrolladoras tienen permiso para escuchar estas grabaciones (recordamos, realizadas en nuestros salones, cocinas y alcobas) con el fin de mejorar sus algoritmos. En algunas ocasiones estas grabaciones han sido cedidas a empresas de terceros, e incluso filtradas a la prensa, con el consiguiente revuelo.

 

¿Nos preocupa nuestra privacidad… o no tanto?

 

Según datos del CIS, al 75 % de los ciudadanos españoles le preocupa la protección de sus datos. Sin embargo, no siempre actuamos de forma coherente y no hay evidencias de que premiemos o utilicemos en mayor medida aquellas aplicaciones más transparentes o respetuosas con nuestros datos.

Este fenómeno, denominado “la paradoja de la privacidad”, tiene distintas explicaciones.

  1. Sabemos los riesgos, pero los asumimos porque el servicio que nos ofrecen nos resulta útil. Alternativamente, y de un modo más irracional, porque los beneficios que obtenemos son inmediatos, mientras que los riesgos en seguridad son costes futuros.
  2. No somos conscientes de esos riesgos y utilizamos esos servicios sin conocer las potenciales consecuencias.

 

Shutterstock / pianodiaphragm

Estudiando la paradoja de la privacidad

 

Para aclarar cuál de estas dos posibilidades predomina, la Universidad Pública de Navarra ha iniciado una investigación –pendiente de publicación– que mide en la red social Twitter el impacto de las noticias positivas y negativas relacionadas con la privacidad de los asistentes virtuales.

El objetivo no es otro que arrojar luz sobre la paradoja de la privacidad: si las noticias generan un impacto significativo en el tipo de conversación generada, será evidente que los usuarios no eran previamente conscientes de estos riesgos.

Para ello, este proyecto ha generado una base de datos de dos años de tuits que mencionan los asistentes de Google, Apple y Amazon (más de 600 000) y la ha cruzado con una base de datos de noticias positivas y negativas sobre los asistentes para este periodo. A continuación se estudió el volumen de conversación antes, durante y después de las noticias, así como el sentimiento medio que expresaban esos tuits (basado en el tipo de lenguaje que se utiliza).

Se observó que, en general, los aspectos ligados a la privacidad están poco presentes en la conversación: solo se mencionan en el 2 % de los casos, aunque esta cifra se duplica en el caso de Apple, marca que pone un énfasis mayor en el tratamiento de los datos personales.

Por otra parte, las noticias negativas sobre privacidad tienen un fuerte impacto, tanto en el volumen de conversación como en el sentimiento medio, que se hace más negativo. Las noticias positivas no tienen ningún efecto. Además, el impacto de las noticias negativas es mucho más fuerte para Apple que para Google, lo que indica que posicionarse en privacidad tiene sus riesgos, ya que los usuarios van a reaccionar más negativamente ante problemas relacionados con este ámbito.

Por tanto, los resultados de esta investigación indican que los usuarios no somos conscientes de los riesgos que asumimos y reaccionamos muy negativamente cuando se ponen al descubierto. Esto nos deja dos conclusiones principales:

  1. Los individuos debemos ser más activos recabando información sobre los servicios que utilizamos.
  2. Las administraciones deben asumir un mayor papel en la educación y control de los asistentes virtuales, ya que es improbable que sean las plataformas las que informen mejor a sus usuarios.

Este artículo fue publicado originalmente en The Conversation. Lea el original.

 

¿Qué hace que las ciudades y los edificios sean vulnerables al frío y al calor?

Laura Carlosena, Profesora Ayudante Doctor Departamento de Ingeniería, Universidad Pública de Navarra (UPNA) y Mat santamouris, Anita Lawrence Chair of High Performance Architecture, Professor, UNSW Sydney.

Try_my_best / Shutterstock

¿Se ha preguntado alguna vez por qué su vivienda se enfría mucho en invierno, pero luego en verano parece absorber todo el calor?

Debido al cambio climático, cada vez son más frecuentes las condiciones climáticas extremas en verano y en invierno. En estas circunstancias, necesitamos sentirnos lo más confortables posible en nuestras ciudades, en nuestras casas y en los lugares de trabajo. Pero ¿están los edificios adaptados a los cambios de temperatura?

 

Características de las construcciones

 

Desde antiguo, el ser humano ha buscado resguardo cobijándose en cuevas o construyendo refugios para protegerse. Este tipo de soluciones son el resultado de adaptarse al entorno y al clima.

El comportamiento de los edificios depende principalmente de su forma y de los materiales de construcción. La relación entre la superficie y el volumen del edificio determina cómo de expuesto está al exterior. En muchos casos, la forma viene dada por normativas urbanísticas como la altura máxima o los límites de parcela.

Cómo fluye el calor a través de los materiales es clave. Esta propiedad se conoce como conducción térmica. La elección de los materiales de fachadas y cubiertas determinará cuánto calor entrará del exterior al interior.

Parte de los materiales de construcción son muy absorbentes y tienen una alta capacidad térmica, es decir, conducen muy bien el calor y lo acumulan. Dentro de este tipo encontramos las piedras, cerámicas y hormigones, muy comunes en los revestimientos de fachada.

Por el contrario, los materiales aislantes como la madera o las lanas minerales no dejan pasar el calor. Este tipo de materiales evitan que los edificios ganen o pierdan calor; actúan como barrera frente al exterior.

 

Edificios poco eficientes

 

Los edificios situados en climas con invierno y verano tienen necesidades opuestas a lo largo del año. Sin embargo, la fachada es la misma. ¡Imaginemos vestir todo el año con ropa de invierno! Cuando pensamos a escala de ciudad ocurre algo parecido. Hay plazas que son muy agradables en invierno y que en verano son un auténtico horno.

Según datos de la Unión Europea, el 75 % de los edificios no son energéticamente eficientes. Esto significa que necesitan más energía para alcanzar niveles térmicos adecuados. Es decir, sus habitantes gastarán más dinero en calentarlos o enfriarlos.

Además, en verano el 20 % de los edificios no consiguen niveles adecuados de confort, es decir, están por encima de 25 ℃. Esto se debe a que reciben grandes cantidades de radiación solar, no pueden ventilarse o no cuentan con sistemas de aire acondicionado adecuados.

En inverno, un 8 % de la población está en ambientes interiores con temperaturas por debajo de los 20 ℃, según datos del 2021. En España el número era de 10,9 %, aunque la crisis energética puede haber cambiado estos datos.

En España, la primera normativa que incluía un apartado de mejora de eficiencia energética es de 1979. Pero más de la mitad de los edificios de vivienda se construyó antes de esa fecha.

Desde 2006, el Código Técnico de la Edificación (CTE) ha buscado mejorar la calidad de la construcción. Además, incluye puntos relacionados con el consumo energético y la demanda energética. Su aplicación ha mejorado el sector de la edificación en España.

Actualmente se busca que los edificios no consuman casi energía o incluso la generen. Parte de la solución consiste en aumentar el aislamiento. Sin embargo, hay estudios que alertan de que puede llevar a una falta de confort térmico en verano.

Un caso muy sonado en España fue el de unas viviendas en Bilbao que alcanzaron 30 ℃ en el interior durante el verano. Por lo tanto, es crítico estudiar el diseño de fachadas y el aislamientos, así como las instalaciones del edificio.

Reducción de la pérdida de calor en un edificio mediante el aislamiento de la pared con losas de lana mineral y poliestireno expandido. Shutterstock / ROMAN DZIUBALO

Ciudades y nuevos materiales

 

Del mismo modo que ocurría con los edificios, el clima urbano depende de la forma y de las propiedades de los materiales. Los materiales de los edificios, las aceras, parques, árboles y las carreteras determinan cuánta radiación solar se absorberá. Además, la forma generará o no zonas de sombra y cambiará los flujos de aire.

El asfalto, el hormigón y los pavimentos absorben el calor, calentando nuestras calles. A este fenómeno se le conoce como isla de calor urbana. En zonas rurales las temperaturas suelen ser inferiores. El calor acumulado en las ciudades hace que en invierno se reduzcan los consumos de calefacción. Sin embargo, en verano puede que necesitemos encender el aire acondicionado.

Para reducir la isla de calor se han propuesto materiales reflectantescubiertas verdes y zonas de vegetación.

Los materiales reflectantes reflejan la luz solar y pueden reducir la temperatura ambiente hasta 3 ℃. Además, aplicados en cubiertas reducen hasta un 20 % la demanda de refrigeración.

No obstante, los materiales reflectantes pueden aumentar la demanda de calefacción en invierno. Por ello, actualmente se están investigando materiales que adapten sus propiedades: que reflejen el calor en verano y lo absorban en invierno.

Un estudio simuló a escala de ciudad durante los meses de invierno el impacto de los materiales reflectantes y de los que cambian sus propiedades. Los primeros bajaban 1,1 ℃ la temperatura. Sin embargo, si se empleaban materiales adaptativos la temperatura aumentaba 0,4 ℃.

El asfalto en las calzadas produce el efecto isla de calor en las ciudades. Shutterstock / Peter de Kievith

¿Hacia dónde nos dirigimos?

 

Que nuestras ciudades y edificios se adapten al clima es esencial sobre todo si las temperaturas siguen en aumento. Escoger los materiales adecuados es crucial. Tienen un impacto sobre los consumos energéticos de los edificios y en el confort de la ciudad.

La solución para edificios antiguos es mucho más compleja. En algunos casos, bastará con mejorar los sistemas de refrigeración y calefacción, en otros será necesario renovar la fachada o la cubierta.

Hoy en día es más fácil tomar estas decisiones ya que disponemos de herramientas de simulación para edificios y ciudades. Podemos probar el impacto de casi cualquier estrategia antes de aplicarla. Todavía queda mucho camino por recorrer en este campo, en concreto, midiendo y evaluando las medidas ya implementadas para encontrar nuevas vías de mejora que nos permitan diseñar espacios más confortables.

Este artículo fue publicado originalmente en The Conversation. Lea el original.

Los hongos son la materia prima del futuro

Lucía Ramírez. Catedrática. Departamento de Producción Agraria. Grupo de investigación Genetics and Microbiology Research Group, Universidad Pública de Navarra (UPNA).

Shutterstock / Emily Eriksson

Su presencia en la cultura humana se remonta a la noche de los tiempos. Desde la más remota antigüedad, los hongos del bosque se han usado como alimentos y fármacos. El hombre de las nieves, Ötzi, descubierto en la frontera ítalo-austriaca, llevaba, hace más de 5 000 años, hongos secos en su equipaje como apoyo medicinal.

En la medicina tradicional china e india los hongos juegan un papel fundamental, y especies como Ganoderma lucidum son la base de importantes trabajos de investigación en la búsqueda de glucósidos anticancerígenos.

Un uso alternativo de los hongos es el que cuentan que hizo Agripina de la seta venenosa Amanita phalloides para agasajar a su hermano Calígula y, de paso, despejar el camino imperial a su hijo Nerón.

 

Las necesidades del futuro

 

Hoy, los hongos se muestran más importantes que nunca. El futuro de nuestra especie requiere una transición ecológica urgente, objetivo prioritario de la Unión Europea para alcanzar la neutralidad climática en 2050. Para lograrlo, hay importantes iniciativas en marcha para recuperar la biodiversidad del planeta; para transformar el actual modelo alimentario en un sistema sostenible , y para impulsar la economía circular. Los hongos juegan un papel crucial si queremos que estos objetivos se cumplan.

Ellos son los principales descomponedores de biomasa, además, son una fuente de proteínas alternativa para la alimentación de una humanidad que crece, y son esenciales para la estabilidad de los sistemas forestales.

Por todo esto, están, más que nunca, en el punto de mira de la ciencia.

En el grupo de investigación de Genética, Genómica y Microbiología GenMic, de la Universidad Pública de Navarra (UPNA) trabajamos desde hace treinta años en la biología molecular, la genética y la genómica de las setas (basidiomicetos superiores), para desarrollar aplicaciones en estos campos.

 

Los hongos más desconocidos

 

Hay dos grupos de hongos: los ascomicetos, que se presentan generalmente como organismos unicelulares (levaduras) o filamentosos (mohos), y los basidiomicetos, que producen cuerpos fructíferos grandes (setas) asociados en su mayoría a plantas formando micorrizas.

Los ascomicetos han sido ampliamente estudiados, ya que a este grupo pertenecen especies tan importantes desde el punto de vista tecnológico como la levadura del pan, del vino y la cerveza (Saccharomyces cerevisiae), la levadura Candida albicans y el hongo filamentoso Aspergillus fumigatus, causantes, entre otras cosas, de infecciones oportunistas en humanos.

En el grupo de los ascomicetos también están los productores de antibióticos, como la penicilina (Penicllium notatum), y la ciclosporina (Tolypocladium inflatum) o la lovastatina (Aspergillyus terreus), utilizada como medicamento contra el colesterol.

Sin embargo, el segundo grupo de hongos, los basidiomicetos, son mucho menos conocidos, y nuestro grupo de trabajo se ha especializado en ellos.

 

En busca de nuevos fármacos y productos industriales

 

En cualquier bosque de nuestro entorno, en otoño o primavera, se pueden ver en el suelo, o creciendo sobre los troncos de los árboles, diversos tipos de setas que reflejan una enorme red de filamentos invisibles.

Esta red es la biomasa vegetativa que forman las setas. De hecho, el mayor organismo vivo identificado en la tierra es un hongo basidiomiceto (Armillaria ostoyae) cuyo micelio cubre una superficie de más de 900 hectáreas en un bosque de Oregón.

La gran variedad de ecosistemas forestales con su diversidad de interacciones con plantas, animales, bacterias y otros hongos permite suponer que los basidiomicetos de estos ecosistemas, que aparecen como bisagra entre el reino vegetal y animal, han de producir una inexplorada variedad de enzimas y de metabolitos secundarios que pueden enriquecer el arsenal de fármacos y productos industriales del que actualmente disponemos.

Una de las líneas de trabajo de nuestro grupo es identificar esas enzimas de interés producidas por basidiomicetos para producirlas y usarlas en aplicaciones industriales o farmacéuticas.

 

Atrapar el carbono imitando a los hongos

 

Los hongos son, junto con animales y plantas, el tercer grupo de organismos macroscópicos de nuestro mundo. Comparten con las plantas su inmovilidad, aunque, a diferencia de ellas, no son capaces de hacer la fotosíntesis, por lo que deben descomponer la materia de su entorno para alimentarse.

Este sistema para obtener alimento hace de los hongos los principales agentes descomponedores de la biomasa vegetal, y les convierte en esenciales en el ciclo del carbono en los ambientes forestales.

Los hongos basidiomicetos han tenido un papel fundamental en la acumulación geológica de depósitos de carbono en forma de combustibles fósiles. Incluso se ha asociado la aparición de un grupo de ellos (los llamados de podredumbre blanca) al fin de esta acumulación y, por tanto, al final del periodo carbonífero. Esto refleja el enorme trabajo de reciclaje de biomasa en el planeta, a lo largo de toda su historia, que han desarrollado estos hongos.

Nuestro grupo ha colaborado intensamente con el Joint Genome Institute de la Universidad de California en proyectos de secuenciación genómica y metagenómica de basidiomicetos. Queremos identificar nuevas variantes de enzimas y procesos que nos permitan comprender mejor el ciclo del carbono y desarrollar aplicaciones a partir de esas enzimas fúngicas que intervienen en él.

 

Cultivar níscalos y trufas negras

 

Son un alimento rico en proteínas y altamente apreciado en gastronomía. Sin embargo, a día de hoy, muchas especies no se pueden cultivar. El boleto (Boletus edulis), el níscalo (Lactarius deliciosus) y la trufa negra (Tuber melanosporum) son algunos ejemplos.

Hay otras especies que sí se han logrado cultivar, como el champiñón (Agaricus bisporus), la seta ostra (Pleurotus ostreatus), la de cardo (P. eryngii), el Shiitake (Lentinula edodes) y muchas otras también muy apreciadas en la cocina y el mercado.

Nuestro grupo ha participado en el desarrollo de herramientas genéticas y moleculares para mejorar el cultivo y la producción de la seta ostra. Conseguimos la secuenciación de su genoma en un proyecto de colaboración internacional desarrollado en el JGI.

Ahora estamos trabajando para entender la compleja reproducción de los basidiomicetos, y esto nos permitirá desarrollar estrategias para su manipulación y para inducir la fructificación en cultivos de setas que hasta ahora sólo se pueden recolectar estacionalmente.

 

Los biocombustibles como futuro

 

La seta ostra P. ostreatus es un hongo de podredumbre blanca (white rot) que degrada la lignina de la madera. Al degradarla, deja la celulosa accesible al ataque por otros microorganismos y enzimas.

Estas enzimas ponen a disposición de los procesos fermentativos la enorme cantidad de carbono almacenado en la lignocelulosa: el principal depósito de carbono sobre la Tierra.

Este proceso es de enorme interés para el tratamiento biológico de residuos vegetales y forestales que permitirá la obtención de biocombustibles de segunda generación.

Nuestro grupo participó en la secuenciación del genoma de Serpula lacrymans en un proyecto que permitió arrojar luz sobre el mecanismo por el que este tipo de hongos realiza su función ecológica.

 

Nuevos alimentos y nuevos vestidos

 

Para terminar, miremos al futuro de la alimentación y del vestido. Los hongos pueden producir nuevas proteínas que complementen o sustituyan a las de origen animal en forma de suplementos o de base para producir alternativas a la carne con un mayor aporte de fibra y una ausencia total de colesterol.

Pero quizá un reciente avance espectacular ha sido la utilización de hongos para producir alternativas al cuero en la fabricación no sólo de complementos (bolsos de alta gama, zapatillas deportivas) sino también de líneas de moda como la presentada recientemente por Stella McCartney en Paris basada en el uso de cuero vegano de hongos.

Este artículo fue publicado originalmente en The Conversation. Lea el original.