Florence Nightingale, pionera en el desarrollo de técnicas estadísticas

El origen de la Estadística está  ligado a los primeros esfuerzos administrativos al servicio de un Estado (de ahí, su nombre) por inventariar su población, riqueza o sus movimientos comerciales. A mediados del siglo XIX, se produce un desarrollo de la estadística debido a la sistematización de la recogida de datos por parte de los Estados modernos y a su aplicación en otros campos.

Florence Nightingale es, sobre todo, recordada como la mujer pionera en los métodos de la enfermería moderna, pero quizá sea más desconocido su innovador uso para la época  de técnicas estadísticas en sanidad, mostrando cómo un fenómeno social puede ser analizado matemáticamente mediante medidas objetivas.

Nació en 1820 en el seno de una familia acomodada de la Inglaterra Victoriana. Tuvo el privilegio de aprender latín, griego, historia, filosofía y matemáticas de la mano de su padre. Florence mostró especial interés en matemáticas y logro convencer a sus padres para disfrutar de tutores en la materia. Siempre le guió su amor por el razonamiento, basado en el cuestionamiento y en un cuidadoso proceso para obtener conclusiones. En 1850, viajó a Alemania para formarse como enfermera en un hospital-orfanato. Completó su instrucción en Gran Bretaña y Europa, donde recabó informes y publicaciones sobre la sanidad pública, lo que pone en evidencia el espíritu analítico, más allá del meramente instructivo, con que se enfrentaba a su formación.

En 1854, estalló la Guerra de Crimea. Las noticias del frente sobre el estado de los soldados conmovieron a la opinión publica, lo que llevó al Secretario de Estado para la Guerra a nombrar a Florence como oficial del Ejército, algo inaudito para una mujer, con el fin de formar un equipo de enfermeras y acudir al hospital de campaña en Escutari (Turquía). A su llegada, encontraron unas condiciones alarmantes: los soldados heridos yacían en habitaciones sin ventilación, con sábanas y uniformes sucios y mal alimentados. No resulta extraño que el tifus, la disentería y el cólera fueran tres principales causas de muerte. Con gran habilidad, para no ganarse la antipatía de los oficiales médicos, pronto logró instalar una lavandería y mejoras en la alimentación y en la higiene de las salas.

Durante este tiempo, Florence recogió datos y sistematizó un control de registros. Con sus métodos innovadores de recolección, tabulación y presentación, mostró como la estadística proporciona un marco para comprender la realidad y proponer mejoras. Elaboró numerosos informes e ideó un gráfico (el de áreas polares) para presentar sus estadísticas sobre causas de mortalidad. En él, se muestra el círculo dividido en doce sectores (uno por cada mes), cuya área varía, según el número de soldados caídos, en tres colores: el rojo, para los caídos por heridas de guerra; el azul, por enfermedades infecciosas; y el negro, por otras causas. El gráfico evidencia que la principal causa de muerte eran las enfermedades infecciosas y que la mejora de las condiciones en el hospital reducía mucho el número de muertes.

Sus  gráficos fueron tan convincentes que llevaron al Parlamento, a la Reina Victoria y a las autoridades militares a formar en 1858 una Real Comisión que estudiara la tasa de mortalidad, en guerra y en paz, del Ejército, semilla de la futura Universidad Médica Militar. Uno de los muchos frutos de la Real Comisión fue la reorganización de las estadísticas del Ejército, que fueron reconocidas como las mejores de Europa.

Florence continuó aplicando técnicas estadísticas para hospitales civiles; desarrolló un modelo de formulario estadístico para los hospitales con el fin de  recoger y generar datos y estadísticas consistentes. También recogió estadísticas sobre la sanidad en la India y en las escuelas en las colonias.

Trabajó en la oficina de Guerra Británica para asesorar sobre cuidados médicos del Ejército en Canadá. Sus métodos incluyeron, por ejemplo, el tiempo medio requerido para el transporte de heridos en trineo en las inmensas distancias del citado país norteamericano. También durante la Guerra Civil Americana , fue asesora del Gobierno de los Estados Unidos para la sanidad del Ejército.

Por sus aportaciones estadísticas, fue nombrada en 1860 primera mujer miembro de la Real Sociedad de Estadística Británica y, posteriormente, Miembro Honorífico de la Sociedad Estadística Americana.

 

Esta entrada ha sido elaborada por Henar Urmeneta Martín-Calero, profesora del Departamento de Estadística, Informática y Matemáticas de la Universidad Pública de Navarra (UPNA), donde forma parte del Grupo de Investigación q-UPHS (siglas en inglés de Métodos Cuantitativos para Mejorar el Rendimiento de los Servicios de Salud)

La máquina de vapor la inventó un navarro: Jerónimo de Ayanz

El navarro Jerónimo de Ayanz, nacido en Guenduláin (Navarra), vivió desde 1553 a 1613 y fue un personaje que ni la imaginación ha conseguido emular. En un siglo, el de Oro, en el que abundaban en España los artistas y los militares, este hombre fue artista, militar, científico, ingeniero y político. Cuando se lee la biografía que Nicolás García Tapia escribió sobre él (cuya última edición ha sido publicada por la Universidad Pública de Navarra), no se comprende cómo no ha sido llevada su vida a la gran y pequeña pantalla; supongo que porque quien la viera pensaría que era pura ficción. Y como muestra, pasaré a enumerar sólo algunos de sus inventos patentados en septiembre de 1606 y otros quehaceres, ya que es el caso más atípico de todos. Era de procedencia noble y caballero de la Orden de Calatrava, poseía dos encomiendas que le rentaban sustanciosos beneficios, además de los que recibía por sus puestos en la corte, por su familia y por sus negocios e inventos, a los que debemos añadir los ingresos que obtuvo al emparentar, por boda, con una rica familia murciana por dos veces, puesto que, al morir su primera esposa, se casó con la hermana de la difunta. Sin embargo, en vez de entregarse a la relajación y el disfrute de las rentas, Jerónimo desplegó un sin fin de habilidades y trabajo que todavía hoy parecen increíbles.

Además de poeta, pintor (elogiado por Pacheco, el suegro y maestro de Velázquez), cantante (con una impresionante voz de bajo), lutier y músico (Lope de Vega alude a él en sus escritos), fue gobernador de Murcia y de Martos y auspició la creación de la Base Naval de Cartagena con parte de la flota de galeras que estaban en Barcelona para poder luchar así contra la piratería de la zona, entre otras medidas que tomó durante su mandato.

Como militar, era temido por los ejércitos contrarios dados su fuerza y valor, participando prácticamente en todas las campañas en las que España estuvo implicada en esos años. De su fortaleza, baste decir que fue llamado el Hércules español.

Fue administrador general de las minas del Reino de España, visitando todas las de la Península para solucionar sus problemas y ayudando a las de ultramar (Potosí, sobre todo) a distancia. Sus escritos sobre el tema y las soluciones que propuso para resolver los problemas planteados entonces tienen vigencia todavía hoy.

Inventó, en otros, destiladores de agua marina, el uso de la transmisión cardan en dichos destiladores, submarinos, campanas de buceo, escafandras de buceo, el aire acondicionado, el eyector de vapor, básculas para “pesar la pata de una mosca”, equipos para medir el rendimiento mecánico, desaguadoras de minas empleando las mismas aguas contaminadas pero impidiendo su evacuación al exterior, molinos de sangre, molinos de rodillo, molinos de viento, molinos de barcas acoplados a norias, bombas de husillo, bombas de achique de barcos y hornos especiales para metalurgia, con especial atención a la ergonomía, rendimiento y mejoras ambientales, diseñándolos así “porque el humo ni la lumbre no den pesadumbre a los que trabajan”.

Descubrió la declinación magnética de la brújula (nordestear, decía Jerónimo), diseñó las primeras presas de arco y bóveda, etc.; y, aunque cualquiera de los ya citados daría para un libro el sólo, citaré dos con más detalle.

Traje de buzo. En agosto de 1602, ante el rey Felipe III, un buzo provisto de un traje diseñado por Jerónimo de Ayanz estuvo más de una hora andando por el fondo del río Pisuerga, a su paso por Valladolid, exactamente el tiempo que tardó el rey en aburrirse y ordenar que subiera, porque el buzo manifestaba estar perfectamente y poder continuar la hazaña. El equipo no consistía sólo en el traje realizado de forma específica para impedir la hipotermia del buzo, sino también el sistema de alimentación de aire de refresco al buzo, ideando incluso una “manguera” construida con tramos cortos de tubos de cobre con uniones articuladas. No existe en el mundo ningún registro anterior de tal proeza.

Máquina de vapor. Siempre hemos leído en los libros de texto y las enciclopedias la disputa franco/británica por atribuirse la paternidad del invento que marcó el inicio de una nueva era. Nunca los españoles habíamos entrado en la lid con fuerza ni razón, pero ahora lo hacemos para ganarla, porque, en la patente registrada y archivada en Simancas en septiembre de 1606, hace más de 400 años, se explica una máquina de vapor ideada por Jerónimo de Ayanz para desaguar las minas usando la fuerza del vapor.

La máquina se describe hasta el más mínimo detalle constructivo y estudios posteriores han demostrado su viabilidad y funcionalidad. Este hito histórico no ha sido reflejado en ningún libro de texto y va siendo hora de que ocupe su lugar en dichos libros y que nuestros estudiantes, cuando cursen historia (aunque cada vez se estudie menos), sepan que la máquina de vapor nació en España en 1606. Y de paso también va siendo hora de que este hecho se reconozca y sepa más allá de nuestras fronteras y, por fin, se coloque a los inventores españoles donde se merecen y demostrar que, si en el siglo de Oro en España nacieron los mejores pintores, escritores y artistas del mundo, los tecnólogos e inventores de entonces no tenían nada que envidiar a los de otros países. De hecho, la máquina de vapor de Savery es “un calco” de la de Jerónimo de Ayanz, a la que aplica la aspiración, algo que no funcionaba bien al no tener condensador separado. Jerónimo de Ayanz conocía este problema y, por eso, la alimentación de su máquina de vapor se hace desde una altura superior, es decir, la de Jerónimo de Ayanz es superior a la de Savery, ya que además contempla colocar varias máquinas en serie.

La Universidad Pública de Navarra (UPNA) ha rendido homenaje a este inventor polifacético, al bautizar con el nombre de Jerónimo de Ayanz la sede de sus institutos de investigación en el campus de Arrosadia, en Pamplona.

 

La entrada a este blog ha sido elaborada por Rafael Eugenio Romero García, miembro de la Asociación Española de Comunicación Científica y autor del libro “Ayanz, la increíble vida del Leonardo español

Cómo fotografiar la Vía Láctea

La Vía Láctea es una galaxia espiral donde se encuentra el sistema solar. Su diámetro tiene unos 100.000 años luz y se calcula que contiene entre 200.000 y 400.000 millones de estrellas.

El nombre Vía Láctea proviene de la mitología griega. Significa camino de leche, pues, para los griegos, lo que vemos es la leche derramada de la diosa Hera.

Hace algunas décadas, bastaba levantar la vista y mirar al cielo para ver una mancha blanquecina en dirección este-oeste. Desde la Edad Media, el nombre comúnmente usado para designarla era Camino de Santiago, pues se argumentaba que esa mancha servía para que los peregrinos pudieran orientarse y poder llegar así a Santiago de Compostela.

Hoy en día, ya no es tan visible. La contaminación del aire y, sobre todo, la contaminación lumínica nocturna de las ciudades y de otros núcleos de población obligan a tener que desplazarse a lugares donde reine una total oscuridad para poder verla.

Las fotografías que vemos publicadas de la Vía Láctea resultan imposibles de captar por el ojo humano, pues no tiene suficiente sensibilidad. Sin embargo, una cámara fotográfica es capaz de registrar la luz que emite la galaxia. Veamos cómo proceder.

Hay que tener en cuenta que la Vía Láctea se pueda ver durante todo el año, pero su parte más brillante, llamada centro galáctico, no es visible en invierno. Solo se ve uno de sus brazos, en forma de arco sobre el horizonte.

Para localizar la Vía Láctea, debe dirigirse la mirada hacia el sureste, sur o sudoeste, según la época del año. El mejor momento para verla abarca desde mayo a finales de julio o mediados de agosto. Se ve el brazo, vertical, y el centro galáctico con todo su brillo y esplendor.

Existen excelentes aplicaciones para teléfonos móviles, como Photopills, Stelarium, etc. que, mediante realidad aumentada, permiten ver dónde se localiza la Vía Láctea en cada coordenada geográfica, y proporcionan todos los parámetros sobre la hora del orto y del ocaso, y elevación máxima del brazo y del centro galáctico. Son aplicaciones gratuitas o que cuestan unos pocos euros. Resultan fundamentales, no obstante.

Fotografiar la Vía Láctea requiere una atmósfera seca (cuanto más seca, mejor); limpia; sin nubes, en algún lugar donde no exista contaminación lumínica ni polvo.  Las mejores noches son las de luna nueva. Los mejores meses para hacer la fotografía son los comprendidos entre mayo y julio, ambos incluidos.

Llegados al lugar elegido (conviene hacerlo de día) tomaremos posiciones y, ya de noche, no encenderemos ninguna luz blanca.

Se debe llevar una linterna frontal de leds de luz blanca y que también proporcione luz roja, con objeto de poder hacer ajustes en la cámara, para poder ver mínimamente sin incordiar a nadie. La luz roja no molesta ni deslumbra. Acostumbraremos los ojos a una total oscuridad durante viente minutos por lo menos. Hay que aprender a ver sin luz apenas.

No conviene ir solo, por prudencia. La fauna salvaje puede visitarnos; suele ser curiosa, sobre todo, si llevamos comida. Si no tenemos visitas, un esguince, una caída o un corte pueden requerir que necesitemos ayuda.

Conviene dejar dicho a dónde vamos, dónde estaremos y cuáles son las coordenadas GPS del emplazamiento, y tener presente que, en muchos lugares apartados, los móviles no tienen cobertura. En Navarra, la Foz de Arbayún, zonas del Valle del Roncal y las proximidades de Ujué o de Guirguillano son algunos ejemplos de buenos observatorios.

Previamente a nuestro desplazamiento, habremos elegido el equipo fotográfico. Hace falta una cámara réflex, o una cámara sin espejo o una compacta avanzada. La cámara tiene que poder ajustarse en modo manual y permitir archivos en formato raw. La cámara de un móvil actual no suele dar buenos resultados, salvo raras excepciones.

La cámara debe enfocarse a infinito. Se puede hacer el enfoque a infinito en modo automático, mientras haya luz, y pasar a modo manual acto seguido, teniendo mucho cuidado de no tocar nada que pueda alterar el enfoque del objetivo. También se puede enfocar a la distancia hiperfocal.

El objetivo debe ser un angular o gran angular, con una distancia focal entre 12 y 24 mm. en formato completo, equivalente a 35 mm. Es esencial que sea luminoso, que pueda abrir el diafragma a 2.8 o superior. Cuanto más abra, mejor, pues menor será el tiempo de exposición.

El ISO, la sensibilidad del sensor a la luz, se ajustará a 1.600 ó 3.200. Mejor si empezamos con 1.600. Un ISO más elevado genera ruido digital muy visible.

El balance de blancos se fijará a unos 3.000-3.500 kelvin. De esta forma, se corrige la dominante marrón de las fotos nocturnas y veremos el cielo de color azul oscuro.

Por cierto, un flash no sirve absolutamente para nada, salvo para iluminar objetos cercanos. El flash más potente apenas ilumina a 50 metros de la cámara, en el mejor de los casos.

El tiempo de exposición, si no queremos ver estrellas movidas, como rayitas en el cielo, se calcula mediante la regla del 500. Se divide 500 entre la longitud focal del objetivo equivalente en formato completo, teniendo en cuenta el factor de recorte de nuestro sensor: 1,5 ó 1,6 en APS (Nikon, Canon, Sony) o 2 en micro cuatro tercios (Olympus, Panasonic).

Por ejemplo, si usamos un angular equivalente a 16 mm en formato completo, o “full frame”, el tiempo de exposición será 500/16 =30 segundos aproximadamente. Si el sensor es APS, el tiempo será 500/(16×1,5) o 500/(16×1,6), unos viente segundos, más o menos.

El tiempo de exposición se programa en la cámara, con ayuda de intervalómetro o, simplemente, se cuentan los segundos en modo “bulb” con un cable disparador pulsado.

Las estrellas siempre salen movidas, más o menos, porque los tiempos de exposición son largos, no por defectos de la cámara ni por la calidad óptica del objetivo. En treinta segundos, el movimiento es apreciable. Por ejemplo, la Luna en poco más de dos minutos se ha desplazado su diámetro, aproximadamente, 0,50 grados.

Como las exposiciones son largas y se hacen muchas, combinando ISO con tiempos de exposición, conviene llevar varias baterías para la cámara, especialmente, cuando el tiempo es frío. Las bajas temperaturas descargan rápidamente las baterías.

Por todo lo expuesto, se deduce que hay hacer las fotografías con trípode. Es fundamental. Conviene usar un trípode muy sólido (que no tiene que ser forzosamente pesado), que no vibre cuando la cámara levanta el espejo, ni se mueva con la brisa y que no trepide con la vibración del obturador.

Para darle mayor estabilidad, se puede colgar un peso, como la mochila, unas piedras que encontremos, que colocaremos dentro de una bolsa de tela o plástico que llevemos de casa, por ejemplo. Nos serviremos del gancho que llevan los trípodes en la columna central. La estabilidad e inmovilidad son fundamentales.

Durante la exposición, la cámara no puede moverse en absoluto. Para mayor seguridad, puede usarse el retardo del disparador, el que levanta el espejo y, tras varios segundos de espera, abre el obturador. También podemos usar un cable disparador de control remoto.

Hacemos la fotografía siguiendo estas pautas. ¿Ha quedado bien?… Lo sabremos fijándonos en el histograma de la foto que nos muestra la pantalla LCD. Si queda hacia la izquierda (foto subexpuesta) o a la derecha (foto sobreexpuesta), se modifica el ISO o el tiempo de exposición, o ambos, subiéndolos o bajándolos, hasta que el histograma no se recorte ni por la derecha ni por la izquierda.

Si aumentamos el ISO, se incrementará el ruido de la toma y, si aumentamos el tiempo de exposición, las estrellas ya no serán puntos. Habrá que buscar un equilibrio entre ruido y movimiento. En caso de que la cámara tenga esa opción, ajustaremos la reducción de ruido para ISO elevados. No es aconsejable ajustar el ISO para exposiciones largas, pues se duplican los tiempos de exposición.

Es recomendable hacer las fotos tras alterar el tiempo de la exposición e ISO, haciendo combinaciones (muchas, mejor) y con calma en casa nos decidiremos por la que más nos guste.

Con la Vía Láctea, nos pasa lo mismo que con la Luna, que siempre vemos lo mismo. Con un poco de práctica, aprendemos a configurar la cámara con muy buenos resultados. Al final, fotografiar la Vía Láctea es casi una rutina.

Si tu objetivo abre a 2.8, puedes comenzar con una configuración de partida consistente en un balance de blancos =3.000K, ISO=1.600; f: 2.8; tiempo=25 segundos. En función de los resultados, juega con 20, 25, 30, 35 y 40 segundos de exposición, por ejemplo.

Si tu angular abre como máximo a f: 3.5 o f: 4, mantén el ISO en 1.600, pero sube el tiempo y prueba con 30, 35, 40 segundos de exposición. Prueba también con un ISO de 3.200. Seguramente, alguna de las combinaciones ISO/tiempo te proporciona una buena fotografía.

En mi caso, utilizo una Nikon “full frame” con un objetivo de 15 mm.; un balance de blancos de 3.000 K; ISO 1.600; f: 2.5 y pruebo con tiempos exposición de 15 a 35 segundos, contados de uno en uno (20, 21, 22, 23 ….). Siempre hay alguna foto que queda bien, generalmente alrededor de 25 segundos de exposición. El ISO nunca lo cambio.

Recuerda que subir el ISO aumenta el ruido digital y subir la exposición hace que las estrellas salgan movidas. Un buen truco es espaciar las tomas y dejar que el sensor se enfríe, porque, cuando se calienta, genera ruido. El invierno es un buen aliado contra el ruido.

Busca un equilibrio entre ISO y tiempo. Haz pruebas. La experimentación es esencial y debes conocer tu cámara.

Si eres un afortunado poseedor de un objetivo muy luminoso, f:1.2, por ejemplo, bastarán unos pocos segundos de exposición, 6 ó 7 nada más.

Parto de la base de que f: 2.8 busca un buen compromiso entre luminosidad y coste. Un objetivo f:2.8 no es barato, pero ocurre que el precio de un gran angular f: 1.2 ronda los 3.000 euros.

Las diferencias entre las fotos dependen, sobre todo, de la composición: la Vía Láctea puede estar alineada o formar un arco sobre una ermita, unas ruinas de un castillo, un objeto singular, una formación rocosa, un faro marítimo, unos árboles… Estos objetos los puedes iluminar con un destello de flash o linterna, jugando con distintos ángulos y potencia de la luz. La imaginación es libre.

Tu cámara guarda los datos EXIF de cada foto. Los datos EXIF son informaciones como el balance de blancos, el ISO, la velocidad, la abertura del diafragma, objetivo utilizado, distancia focal, etc. Aprenderás mucho sobre tus aciertos y errores observando la calidad de tus fotos y prestando atención los ficheros EXIF correspondientes.

Espero haber resultado claro con estas explicaciones. Si tienes alguna duda, escríbeme a igrande@unavarra.es

 

Esta entrada ha sido elaborada por Ildefonso Grande Esteban, profesor jubilado del Departamento de Gestión de Empresas de la Universidad Pública de Navarra (UPNA), que es también el autor de las fotografías que acompañan al texto.

 

Cómo profundizar en los resultados de las estadísticas

Hoy en día, la encuesta es una fuente habitual de información, pero es frecuente que, ante una misma encuesta, diferentes medios de comunicación publiquen resultados con titulares que parecen contradictorios, lo que produce desconfianza en las encuestas. Las estadísticas se suelen presentar en tablas que recogen el número o el porcentaje de personas que responden de una u otra forma a distintas preguntas. A veces, las tablas contienen numerosos datos que es necesario observar en su contexto y resulta difícil sacar conclusiones de la simple observación de los datos. De ahí que dos periodistas resalten conclusiones o pongan titulares diferentes. Sin embargo, la estadística dispone de poderosas herramientas que permiten analizar estas tablas en su conjunto y obtener, de forma automática, resultados gráficos que resaltan lo más destacable, teniendo en cuenta todos los datos y sin que intervenga en el análisis la subjetividad de cada persona que le hace fijarse más en unos datos que en otros.

Para ilustrar esta facultad de las técnicas estadísticas, analizamos una pregunta de una encuesta realizada por el Centro de Investigaciones Sociológicas (CIS), un organismo autónomo dependiente del Ministerio de la de la Presidencia que realiza periódicamente estudios en la población española con objetivo medir el estado de la opinión pública; son los denominados barómetros de opinión. Estos estudios se hacen a través de entrevistas realizadas a unas 2.500 personas elegidas al azar y representativas de la población española. Están representadas todas las comunidades autónomas, tanto las ciudades grandes como las localidades pequeñas o medianas y personas de todos los niveles de edad y género.

En este caso, nos ha interesado el barómetro publicado en enero de 2013 que trata de recoger la opinión de los españoles sobre diversas cuestiones relacionadas con aspectos políticos. Nos centraremos en la pregunta siguiente: en política, normalmente se habla de “ser de derechas” y “ser de izquierdas”; voy a leerle una serie de palabras y quisiera que me dijera, con respecto a cada una de ellas, si las identifica Ud. más con “ser de derechas” o con “ser de izquierdas”.

El CIS pública una tabla de resultados en la que se recogen, para cada palabra, el porcentaje de personas que lo identifican con “ser más de izquierdas”, “ser más de derechas”, “ambas”, “ninguna”, “no sabe” y “no contesta”. Incluye el número de encuestados. Un análisis estadístico considera todos los aspectos y obtiene el gráfico adjunto en el que, con ayuda de unos indicadores de calidad, se puede ver cómo, en opinión de los encuestados, se asocian las diferentes palabras o valores con las ideologías políticas.  El eje horizontal es el más importante. Podemos ver que, en un extremo, aparecen próximos “ser de derechas” y valores como tradición y orden, que son las palabras que los encuestados identifican más con esta ideología. En el lado izquierdo, tolerancia, solidaridad, igualdad y derechos humanos se identifican más con “ser de izquierdas”.

La honradez y la eficacia aparecen en la parte inferior, próximas a ninguna. Estas dos características no se asocian ni con “ser de izquierdas”, “ni de derechas”, sino con la respuesta “ninguna”. Ahora bien, la honradez está situada más a la izquierda, es decir, más próxima a “ser de izquierdas”. Esto significa que  la mayoría de los encuestados han escogido la respuesta “ninguna” asociada a honradez, pero un segundo gran grupo de encuestados ha elegido “ser de izquierdas”. Análogamente sucedería en el caso de la eficacia y “ser de derechas”.

El idealismo aparece en la parte superior izquierda, pero más desplazada que otras palabras hacia la derecha, lo que indica que se ha asociado principalmente con “ser de izquierdas”, pero también hay un número importante de personas que lo han asociado con “ser de derechas”.

La situación de “ambas”, próxima al centro, significa que, para todas las palabras, ha habido una respuesta semejante.  No se puede asociar a progreso por estar en el centro del gráfico.

El estudio se podría repetir para grupos de encuestados. Por ejemplo, uno para los que declaran ser de izquierdas y otro para los que se declaran ser de derechas y comparar los resultados.

 

Esta entrada ha sido elaborada por Elena Abascal Fernández, profesora del Departamento de Estadística, Informática y Matemáticas de la Universidad Pública

Bioplásticos a partir de lana y plumas para una economía circular

Los avances en la petroquímica durante el siglo XX dieron lugar a una gran familia de nuevos materiales: los plásticos. El desarrollo de este material, polímeros derivados del petróleo fósil,  ha dado lugar, durante la pasada centuria, a un gran progreso económico basado en el desarrollo de numerosas áreas, como el envasado de alimentos, el transporte, la aeronáutica, la automoción, la medicina, la electrónica de consumo, el textil o las actividades deportivas, por poner algunos ejemplos. Sin embargo, este desarrollo también tiene una “cara b” asociada al fin de la vida útil de los materiales plásticos, que, en gran medida, son depositados en vertederos, incinerados o vertidos en cuencas naturales por comodidad e inconsciencia.

Además, los plásticos derivados del petróleo tienen otro factor negativo como es su huella de carbono. Esta se vincula a la cantidad de CO2 emitida a lo largo de su extracción, procesado, transporte, gestión o incinerado (Figura 1). Por si fuera poco, estos plásticos tienen inherente una alta huella energética.

Debido a los efectos perjudiciales en el clima, derivados de una emisión indiscriminada a la atmósfera de CO2 y otros gases, desde el comienzo del siglo XXI, la comunidad científica trabaja con el objeto de desarrollar procesos y materiales con una menor huella ecológica. Aquí surgen conceptos como química verde, materiales renovables o, más recientemente, economía circular. Para esta disciplina, los residuos de ciertas actividades también tienen valor (Figura 1) y trata de paliar las nefastas consecuencias de una “economía lineal”, aquella caracterizada por una explotación irreversible de los recursos.

En este contexto, entran en juego los bioplásticos, unos materiales poliméricos de origen renovable, con baja huella de CO2 y fácilmente integrables en el medio tras su vida útil. Algunos bioplásticos actualmente disponibles en el mercado en forma de bolsas biodegradables son los derivados del almidón de patata o maíz. No obstante, la implementación masiva de esta vía podría dar lugar al encarecimiento del precio de los alimentos (por la competitividad en el suelo agrario) y a la deforestación, tal y como ha ocurrido en el caso de los biocombustibles derivados de plantas.

En los laboratorios del Instituto de Materiales Avanzados (InaMat) de la Universidad Pública de Navarra (UPNA), dentro de un proyecto financiado por la Obra Social “la Caixa” y la Fundación Caja Navarra, se trabaja en una alternativa fundamentada en la reconversión de residuos agroindustriales, como la lana y el plumaje, en bioplásticos. Este concepto, al igual que en el caso de los bioplásticos derivados de las plantas, daría lugar a una minimización de la huella de CO2, puesto que las plantas y la hierba de la cual se nutren estos animales absorben el dióxido de carbono a través de la fotosíntesis. A su vez, también aprovecharía la energía del sol para su biosíntesis y los bioplásticos desarrollados serían fácilmente re-integrados en el medios tras su compostaje (Figura 1).

La investigación se ha centrado en desarrollar un método “verde” de extracción de las queratinas (unas proteínas). Para ello, se siguen los principios de la Química Verde, en donde se minimizan el uso de reactivos tóxicos y la generación de residuos. También se ha demostrado la posibilidad de desarrollar biopelículas derivadas de la queratina de la lana (Figura 2) con propiedades plásticas.

La investigación se centra ahora en tratar de comprender las posibilidades de procesar estos bioplásticos por vías térmicas, semejantes a las empleadas a día de hoy por la industria del plástico convencional. También, en los laboratorios de la UPNA, se está buscando metodologías para dotar a estos bioplásticos de propiedades funcionales análogas a los plásticos actuales derivados del petróleo. De conseguir desarrollar bioplásticos competitivos y unas vías de procesado escalables a nivel industrial, el proyecto solucionaría dos problemas a la vez: buscaría una alternativa para la gestión de residuos de lana y plumaje, y mitigaría el impacto del vertido en el medio de plásticos derivados del petróleo.

 

Esta entrada ha sido elaborada por Borja Fernández-d’Arlas Bidegain, investigador posdoctoral en el Instituto de Materiales Avanzados (InaMat) de la Universidad Pública de Navarra (UPNA)

 

“Yo quiero ser científica”: vídeo sobre Hedy Lamarr

El blog “Traductor de Ciencia” concluye su acercamiento a la vida y obra de científicas del pasado con Hedy Lamarr, la inventora que antes enamoró a la cámara de cine. Es una de las protagonistas de la obra de teatro “Yo quiero ser científica”, en la que nueve  profesoras que imparten docencia en diferentes titulaciones de ingeniería de la Universidad Pública de Navarra (UPNA) rescatan la vida y la obra de mujeres científicas de siglos pasados.

La UPNA, con la colaboración de la Fundación Española para la Ciencia y la Tecnología (FECYT)-Ministerio de Ciencia, Innovación y Universidades, se suma a este homenaje a científicas del pasado, difundiendo vídeos desenfadados sobre sus vidas y obras, como el que aparece a continuación.

“Yo quiero ser científica”: vídeo sobre Klara von Neumann

El blog “Traductor de Ciencia” avanza en la divulgación de la vida y obra de científicas del pasado con el capítulo dedicado a Klara von Neumann, una pionera en la programación de ordenadores. Es una de las protagonistas de la obra de teatro “Yo quiero ser científica”, en la que nueve  profesoras que imparten docencia en diferentes titulaciones de ingeniería de la Universidad Pública de Navarra (UPNA) rescatan la vida y la obra de mujeres científicas de siglos pasados.

La UPNA, con la colaboración de la Fundación Española para la Ciencia y la Tecnología (FECYT)-Ministerio de Ciencia, Innovación y Universidades, se suma a este homenaje a científicas del pasado, difundiendo vídeos desenfadados sobre sus vidas y obras, como el que aparece a continuación.

“Yo quiero ser científica”: vídeo sobre Edith Clarke

El blog “Traductor de Ciencia” se suma a la divulgación de la vida y obra de científicas del pasado con Edith Clarke, una pionera en el campo de la electricidad. Es una de las protagonistas de la obra de teatro “Yo quiero ser científica”, en la que nueve  profesoras que imparten docencia en diferentes titulaciones de ingeniería de la Universidad Pública de Navarra (UPNA) rescatan la vida y la obra de mujeres científicas de siglos pasados.

La UPNA, con la colaboración de la Fundación Española para la Ciencia y la Tecnología (FECYT)-Ministerio de Ciencia, Innovación y Universidades, se suma a este homenaje a científicas del pasado, difundiendo vídeos desenfadados sobre sus vidas y obras, como el que aparece a continuación.

“Yo quiero ser científica”: vídeo sobre Emmy Noëther

El blog “Traductor de Ciencia” continúa con su abordaje de la vida y obra de científicas del pasado con Emmy Noëther, la matemática que creó “el teorema más bello del mundo”. Es una de las protagonistas de la obra de teatro “Yo quiero ser científica”, en la que nueve  profesoras que imparten docencia en diferentes titulaciones de ingeniería de la Universidad Pública de Navarra (UPNA) rescatan la vida y la obra de mujeres científicas de siglos pasados.

La UPNA, con la colaboración de la Fundación Española para la Ciencia y la Tecnología (FECYT)-Ministerio de Ciencia, Innovación y Universidades, se suma a este homenaje a científicas del pasado, difundiendo vídeos desenfadados sobre sus vidas y obras, como el que aparece a continuación.

“Yo quiero ser científica”: vídeo sobre Marie Sklodowska-Curie

El blog “Traductor de Ciencia” prosigue con la divulgación de la vida y obra de científicas del pasado con Marie Sklodowska-Curie, la primera persona en recibir dos premios Nobel. Es una de las protagonistas de la obra de teatro “Yo quiero ser científica”, en la que nueve  profesoras que imparten docencia en diferentes titulaciones de ingeniería de la Universidad Pública de Navarra (UPNA) rescatan la vida y la obra de mujeres científicas de siglos pasados.

La UPNA, con la colaboración de la Fundación Española para la Ciencia y la Tecnología (FECYT)-Ministerio de Ciencia, Innovación y Universidades, se suma a este homenaje a científicas del pasado, difundiendo vídeos desenfadados sobre sus vidas y obras, como el que aparece a continuación.