¿Cuáles son los beneficios en salud de los nuevos antivirales para el tratamiento de la hepatitis C crónica?

En 2015, la hepatitis C crónica constituía un problema de salud pública de importante magnitud, con, aproximadamente, 500.000 personas afectadas en España. Las complicaciones de esta enfermedad son potencialmente graves, como el cáncer hepático y la cirrosis y, por este motivo, la hepatitis C crónica constituía la primera causa de trasplante de hígado en nuestro país.

Ante este problema de salud, es importante disponer de una terapia eficaz. Precisamente, el objetivo del tratamiento antiviral es eliminar la infección por el virus de la hepatitis C, para evitar la progresión de la enfermedad y sus complicaciones. Hasta el año 2015, el tratamiento se basaba en interferón, con tasas de éxito limitadas y múltiples efectos adversos. Desde ese año, se han comercializado en España diferentes combinaciones de antivirales de acción directa contra el virus, lo que ha supuesto un cambio relevante en el manejo de la enfermedad.

 

Los ensayos clínicos de estos nuevos fármacos mostraban resultados prometedores, con alta eficacia para conseguir la curación de la infección. Esta situación generó una elevada demanda de tratamiento por parte de los pacientes, pero el elevado coste inicial de los fármacos dificultaba el acceso simultáneo de todos ellos al tratamiento. Por eso, el Ministerio de Sanidad, Servicios Sociales e Igualdad elaboró un “Plan Estratégico para el abordaje de la Hepatitis C”, priorizando el tratamiento de aquellos pacientes que se encontraban en las fases más avanzadas de la enfermedad. El descenso progresivo del coste de los fármacos posibilita actualmente el tratamiento de todos los pacientes con hepatitis C.

Ante la llegada de los nuevos medicamentos, existía la necesidad de evaluarlos en la vida real, ya que los resultados terapéuticos en la práctica clínica pueden ser menos favorables que los observados en los ensayos clínicos.

La tesis elaborada por quien esto escribe se ha centrado en conocer el impacto real de los antivirales de acción directa en términos de efectividad, seguridad y efecto sobre la calidad de vida de los pacientes tratados en Navarra.

El estudio se centró en tres ejes: saber cuánto curan los nuevos antivirales, cómo lo hacen (si son seguros) y el impacto sobre la calidad de vida de los pacientes, un aspecto novedoso ya que apenas había sido evaluado previamente en los ensayos clínicos. Se estudiaron los pacientes tratados con antivirales de acción directa en el Complejo Hospitalario de Navarra, desde 2015 a 2017. El tratamiento se consideró efectivo cuando no se detectaba el virus en sangre a las doce semanas de finalizar el tratamiento (respuesta viral sostenida).

La efectividad global de los antivirales de acción directa en Navarra fue del 97%. Los resultados han sido muy positivos incluso en aquellos subgrupos que se consideraban difíciles de tratar (presencia de cirrosis hepática, coinfección por VIH, fracaso terapéutico previo a interferón), con tasas de curación superiores al 95%.

 

El estudio de la seguridad terapéutica incluyó a 227 pacientes monoinfectados por el virus de la hepatitis C. No se produjo ningún abandono voluntario de la terapia y solamente en un caso se suspendió por toxicidad renal. La alteración analítica más frecuente fue la anemia (33%), asociada al empleo de ribavirina con los antivirales. Sin embargo, esta fue de grado leve y transitoria, ya que los pacientes se recuperaban al finalizar el tratamiento. Este fármaco se utilizó en los primeros años, pero actualmente está en desuso.

La participación en el estudio de calidad de vida fue elevada, incluyendo a 206 pacientes con respuesta viral sostenida (79% de las personas a las que se propuso el estudio). Después de eliminar la infección por el virus de la hepatitis C, se observó un descenso en la proporción de pacientes que referían problemas de movilidad (de 35% a 24%), dolor o malestar (de 60% a 42%) y ansiedad/depresión (de 57% a 44%). Asimismo, hubo un aumento de diez puntos en el estado de salud autorreferido, lo que refleja una mejoría en la valoración global de la salud por parte de los pacientes. Este beneficio sobre la calidad de vida se observó también en los pacientes coinfectados por el VIH y en los pacientes cirróticos.

La comparación de la calidad de vida con la de la población general española mostró más problemas entre los pacientes con hepatitis C crónica antes del tratamiento, principalmente, en aquellos que se encontraban en las fases más avanzadas de la enfermedad. Después de curar la infección, persistían las diferencias, hasta tres veces más frecuente la limitación en las actividades cotidianas y la ansiedad/depresión entre los pacientes con respuesta viral sostenida que en la población general. Sin embargo, la valoración global del estado de salud consiguió asemejarse a la de la población española (75 puntos y 77 puntos, respectivamente).

Cuando se comparaban los resultados en función del grado de fibrosis hepática, aquellos pacientes con fibrosis leve fueron los que más se equipararon a la población general después de la curación, con un nivel similar de problemas en movilidad, autocuidado, actividades cotidianas y dolor o malestar. En cambio, los pacientes cirróticos continuaron estando alejados de la población general española, principalmente en los problemas relativos a las dimensiones físicas de la salud. Mejorar la calidad de vida y los problemas referidos por los pacientes son un objetivo de salud importante una vez curada la hepatitis C.

En definitiva, los nuevos antivirales han demostrado tener un buen perfil de seguridad en práctica clínica, simplificando la monitorización de los pacientes durante la terapia, con un menor consumo de recursos sanitarios. La curación de la infección por el virus de la hepatitis C tiene un impacto positivo sobre la calidad de vida de los pacientes, consiguiendo equipararla a la de población general española del mismo sexo y edad para los pacientes en los estadios más leves de la enfermedad.

 

Esta entrada ha sido elaborada por la farmacéutica hospitalaria Regina Juanbeltz Zurbano, doctora en Ciencias de la Salud por la Universidad Pública de Navarra (UPNA) con una tesis sobre el tratamiento de la hepatitis C crónica con antivirales acción directa de segunda generación

Los efectos de la custodia compartida en el mercado laboral español

En las últimas décadas, se ha visto un cambio significativo en la sociedad española, en especial, en la nueva conformación de la población activa y la mayor participación de la mujer en ella. No sólo se ha podido observar ese cambio, sino también un aumento considerable de disoluciones de matrimonios y, al mismo tiempo, de la asignación de custodia compartida.

¿Puede afectar la custodia compartida de los hijos al mercado laboral de los padres? La respuesta es sí, de forma rotunda.

 

Según los datos difundidos por el Instituto Nacional de Estadística (INE) del año 2016, solamente el 28,3% de los casos de divorcio y separación obtuvieron la custodia compartida. Aunque el concepto de custodia compartida se incluyó en el Código Civil en España en 2005, la adopción del concepto no vino acompañada de una regulación general a nivel estatal. No fue hasta seis años después cuando cinco comunidades autónomas con legislación propia (Cataluña, Navarra, Aragón, País Vasco y Comunidad Valenciana) tomaron la iniciativa de aplicar una regulación propia sobre la custodia compartida.

En consecuencia, son precisamente esas comunidades las que registran mayor porcentaje de custodias compartidas, según el INE, mientras que, en el resto del país, las madres siguen obteniendo la mayor parte (66%) de las custodias exclusivas de los hijos.

¿Qué consecuencias económicas puede tener esta situación?

En términos generales, el tiempo dedicado al cuidado de los hijos aumenta considerablemente cuando a uno de los padres se le otorga la custodia y guarda exclusiva y, por tanto, ese tiempo no puede ser invertido simultáneamente en el mercado laboral.

La diferenciación en el uso del tiempo y el tipo de jornada laboral de acuerdo con el género, un análisis desarrollado por el INE, han contribuido a cuestionar la existente desigualdad existente:

  • El 72% de las mujeres dedican más tiempo a las tareas domésticas que los hombres y, del mismo modo, un 59% de la población femenina destina más tiempo al cuidado de los hijos que la población masculina.

 

  • El 56% hombres frente a un 44% mujeres son los porcentajes de la población ocupada. A primera vista, parecen equitativos, pero, al descomponer los datos, el 72% de esos trabajos ocupados por mujeres son a tiempo parcial.

Por lo tanto, la aparente igualdad en la que creemos vivir maquilla la realidad. En vez de desafiar la teoría del premio Nobel Gary Becker, quien explica que el hombre invertirá su tiempo únicamente al mercado laboral, mientras que la mujer a las responsabilidades en el ámbito privado (tareas domésticas, cuidado de hijos…), la estamos defendemos inconscientemente.

Mi trabajo de fin de grado consistió en poner la economía al servicio del estudio social y analizar los efectos de la custodia compartida en la tasa de empleo femenino. Usando una metodología econométrica, con una muestra de 2.437.792 individuos, se obtuvieron unos resultados estadísticamente robustos y significativos. Esta es el más contundente:

“Las mujeres nacidas en las cinco comunidades autónomas donde prevalece la ley de custodia compartida tienen mayor probabilidad de estar trabajando que las mujeres nacidas en el resto del país”.

En conclusión, la custodia compartida, es decir, el reparto equitativo del tiempo y costes en el cuidado de los hijos, contribuiría a la igualdad de género en el mercado laboral. Sin olvidar que igualdad no quiere decir que el hombre y la mujer sean iguales, sino que tengan los mismos derechos, responsabilidades y oportunidades.

 

Esta entrada ha sido elaborada por Pilar Alvargonzález Muñoz, graduada en el Programa Internacional de Administración y Dirección de Empresas (ADE) por la Universidad Pública de Navarra (UPNA) y ganadora del I Premio al Trabajo de Fin de Grado, concedido por la Asociación Española de Economía, por su estudio sobre los efectos de la custodia compartida  en la tasa de empleo femenino

Las mujeres en carreras STEM (“Science, Technology, Engineering and Mathematics”) o cómo sin maestras no hay alumnas

Escribo esta entrada para tratar la situación de las mujeres en las carreras STEM (siglas en inglés de Ciencia, Tecnología, Ingeniería y Matemáticas), ya que, como subdirectora de la Escuela Técnica Superior de Ingenieros Industriales y de Telecomunicación (ETSIIT) y como profesora de la Universidad Pública de Navarra (UPNA) en los grados en Ingeniería en Tecnologías de Telecomunicación e Ingeniería Informática, soy testigo del bajón de mujeres en estas disciplinas.

En la UPNA y en el sistema universitario español, prácticamente el 50% de los estudiantes son mujeres. Sin embargo, el número de las estudiantes de las dos escuelas de ingeniería de la UPNA (ETSIIT y la Escuela Técnica Superior de Ingenieros Agrónomos-ETSIA) ronda, de media, en los últimos años el 23%. Los grados de Ingeniería Mecánica e Ingeniería Eléctrica y Electrónica presentan los porcentajes de mujeres más bajos (por debajo del 12%).

Las causas de esta situación son muy diversas. Por un lado, la educación y la opinión pública siempre han considerado estas carreras como masculinas y desprovistas de efectos sociales. Sin embargo, las carreras STEM sí pueden proporcionar ese elemento social que valoran las mujeres. Además, la sociedad necesita, y va a necesitar para el año 2020, profesionales STEM y estos deberían ser mujeres, al menos, en un 50%.

También está la falta de referentes femeninos para explicar la falta de interés de las chicas por las carreras técnicas. En las carreras de ingeniería de la universidad, las mujeres están en clara minoría dentro de las plantillas de personal docente e investigador y, si no hay maestras, no hay alumnas.

Tampoco quiero olvidar el contexto educativo. De pequeños, la mayoría de las niñas aventajan a los niños en todas las materias, incluyendo las matemáticas. La diferencia en sus comportamientos tiene que ver con la forma de enfrentarse a los retos. Mientras que los chicos piensan que no solucionan un problema porque es difícil, las chicas piensan que se debe a que no pueden hacerlo.

A esto se añade que existe un problema de comunicación. Mucha gente no sabe a qué nos dedicamos exactamente los ingenieros… Tenemos que transmitirles en qué hacemos mejor la vida de todos gracias a la ingeniería, y cómo lo hacemos.

Por todo ello, es preciso hacer algo para visibilizar a las mujeres que trabajamos en STEM. En este sentido, son muy destacables las acciones de fomento de las ciencias llevadas a cabo por la Real Academia de Ingeniería, como una campaña de actividades para potenciar la inclusión y la vocación de niñas y jóvenes en este ámbito con el fin de desterrar la concepción de que las mujeres que tienen vocación por esas áreas son “bichos raros” o “intrusas”.

La UPNA no se queda atrás en este campo. Así, cuenta con un programa de charlas de divulgación científica, en las que el profesorado acude a los centros escolares; y organiza las Semanas de la Ciencia, que se realizan en noviembre con diversas actividades para diferentes públicos, por citar dos ejemplos.

Sin embargo, quiero adentrarme en una obra de teatro, la titulada “Yo quiero ser científica”, en la que nueve profesoras de la UPNA damos vida a otras tantas mujeres científicas del pasado, con el fin de visibilizar a estas féminas que padecieron muchas penurias para poder desarrollarse como científicas. Dicha obra concluye con una charla final, en la que hablamos al público (fundamentalmente, escolares) de nuestra carrera investigadora actual para poder visibilizar el papel de la mujer en la ciencia en este momento.

No quiero olvidarme de las numerosas mujeres emprendedoras tecnólogas, muy importantes a nivel internacional, y también mujeres tituladas por la UPNA, que han desarrollado su carrera de Ingeniería de Telecomunicación y han podido llevar a cabo acciones de emprendimiento hasta el punto de crear algunas de ellas empresas o grupos de investigación de gran prestigio internacional.

Para concluir, cabe preguntarse qué acciones pueden fomentar el incremento de mujeres en carreras STEM. Por ejemplo, la educación desde la infancia o la correcta orientación en los colegios e institutos.

En conclusión, el incremento de mujeres en las carreras STEM es una labor que involucra a toda la sociedad. No podemos desperdiciar el talento de la mitad de la población. Nos jugamos el futuro en ello.

 

 

Esta entrada ha sido elaborada por Silvia Díaz Lucas, doctora en Ingeniería de Telecomunicación, profesora del Departamento de Ingeniería Eléctrica, Electrónica y de Comunicación de la Universidad Pública de Navarra (UPNA), donde también es investigadora en el Instituto de Smart Cities (ISC) y subdirectora de la Escuela Técnica Superior de Ingenieros Industriales y de Telecomunicación (ETSIIT); es autora e intérprete de la obra “Yo quiero ser científica”, en la que da vida a la actriz y tecnóloga Hedy Lamarr

 

Inferencia estadística: del indicio a la evidencia

Seguro que el lector se habrá formulado alguna vez una pregunta de este tipo: “¿Cómo es posible que se afirme que el 27% están preocupados por determinado tema de actualidad o que las noticias de una cadena de televisión han sido las más vistas el mes pasado, cuando a mí no me han consultado, ni tampoco a mis familiares, ni amigos?

 

Es también seguro que el lector conoce que esos resultados se obtienen a través de muestras representativas de toda la población. Los datos que conocemos por los medios de comunicación son los resultados obtenidos en la muestra.

Para extender los resultados de la muestra a toda la población, se realiza un proceso, que en estadística se denomina inferencia, que da como resultado un intervalo de valores numéricos, dotado de un grado de confianza que representa la seguridad o fiabilidad que ese intervalo nos inspira. Su fundamento matemático está en el cálculo de probabilidades. Por ejemplo, si en la muestra hay un 27% de personas preocupadas por el tema en cuestión, podemos obtener que, en la población, el porcentaje estará comprendido entre un 25,5% y un 28,5% con un grado de confianza del 95%. El tamaño de la muestra es esencial para obtener intervalos de pequeña amplitud, es decir, muy informativos o concretos, y con un grado de confianza alto, muy fiables.

Un dato que puede resultar curioso es que el tamaño de la muestra que nos garantice determinadas buenas cualidades, en cuanto a grado de confianza y concreción, no es directamente proporcional al tamaño de la población. Por ejemplo, para dos poblaciones grandes, una de un millón y otra de veinte millones de habitantes, el tamaño de la muestra necesario para garantizar un grado de confianza del 95% y una amplitud del intervalo no superior al 3% (para estimación de porcentajes) es prácticamente el mismo: bastarían 4.300 personas en ambos casos.

Otra parte importante de la inferencia estadística es la enfocada a contrastar hipótesis. Una hipótesis es una afirmación de ámbito poblacional. Por ejemplo: “El porcentaje de trabajadores eventuales es el mismo en hombres y en mujeres”. Esta hipótesis puede ser rechazada (invalidada estadísticamente) si los resultados muestrales marcan suficientes diferencias entre los porcentajes de hombres y mujeres eventuales. Resultados muestrales distintos en hombres y mujeres pueden ser un indicio de que la hipótesis no es cierta y, una vez realizado el proceso de contraste, el indicio se ha podido convertir en una evidencia o quedarse en mero indicio. De nuevo, será el cálculo de probabilidades el que sea capaz de aportar un grado de verosimilitud a la hipótesis planteada.

Para hacernos una idea intuitiva de cómo el cálculo de probabilidades nos ayuda a tomar decisiones sobre hipótesis concretas, consideremos el siguiente ejemplo: nos dicen que, en una caja opaca, hay 19 bolas blancas y una negra. Nos permiten sacar una bola al azar y, después de verla, la devolvemos a la caja y hacemos una nueva extracción.

Supongamos que, en cinco extracciones consecutivas, nos hubiera salido siempre negra. Exclamaríamos: “¡No me creo que la caja tenga 19 blancas y una negra!”. Pese a que es posible, ya que la bola negra siempre está presente cuando realizo la extracción, es altamente improbable (una posibilidad entre 3.200.000) y, por eso, decido rechazar que la composición de la caja sea de 19 blancas y una negra. La decisión que se adopta en un contraste lleva implícita la probabilidad de cometer errores como rechazar la hipótesis siendo cierta o no rechazarla siendo falsa. No obstante, con un tamaño muestral suficiente, esas probabilidades son muy pequeñas.

 

Posibilidad de sacar una bola negra entre 19 blancas de una a cinco veces.

 

Así pues, la inferencia estadística nos permite tener un conocimiento preciso de la población, sin necesidad de realizar un estudio exhaustivo caso por caso.

 

Esta entrada ha sido elaborada por Sagrario Gómez Elvira, profesora jubilada de Estadística e Investigación Operativa de la Universidad Pública de Navarra (UPNA)

Una reflexión en torno a la cooperación y el aseguramiento de actividades deportivas transfronterizas. ¿Un nuevo paradigma de las relaciones internacionales?

La nueva dimensión geopolítica de un contexto europeo e internacional, presidido por la evidencia sobrevenida de que las reglas que han gobernado las relaciones internacionales están en cuestión y han devenido ya obsoletas, requiere, por parte de la academia y de la sociedad, un ejercicio de análisis crítico y reflexivo que nos permita interiorizar que el mundo ya no queda integrado únicamente por actores estatales. Sin duda, estos grandes actores de un pasado reciente han cedido protagonismo a otra realidad compuesta de grandes corporaciones multinacionales, actores no estatales y actores no gubernamentales.

En efecto, nos adentramos en un siglo XXI con grandes retos globales, entre otros, migraciones, exclusión social, cambio climático, degradación medioambiental, trata de seres humanos, pobreza y los crecientes intentos de retorno a la clara delimitación y demarcación de las fronteras (Brexit del Reino Unido/ des-Unión Europea) y el nítido mantenimiento de un concepto de poder de los Estados sobre el territorio anquilosado en una concepción del siglo XIX que fomenta, en detrimento de la evolución, una clara involución que olvida que la persona, sus obligaciones, sus derechos y libertades deben erigirse protagonistas.

La consolidación del viejo proyecto de los Estados Unidos de Europa no puede permitirse el lujo de no avanzar significativamente en los próximos años, pues de él dependen las crecientes aspiraciones de un mundo y de una sociedad y ciudadanía, la europea, que requieren hoy de la internacionalización de empresas, del desplazamiento transfronterizo de personas trabajadoras y sus familias, de la cooperación transfronteriza entre entes territoriales y/o Administraciones públicas para la prestación de servicios públicos y/o privados conjuntos, y de una respuesta global lo más consensuada posible para garantizar la protección de los Derechos Humanos.

Sin lugar a dudas, son tiempos difíciles para una Europa ante un gran dilema, su mayor integración, y cabe plantearse qué utilidad puede aportar un elenco de instrumentos normativos e institucionales que permitan consolidar la cooperación transfronteriza y su utilidad social y beneficio para el conjunto de la ciudadanía navarra y vasca.

La pluralidad legislativa en ocasiones plantea problemas y distorsiones para la ciudadana y el ciudadano transfronterizo en multitud de ámbitos, también para las actividades deportivas transfronterizas y su aseguramiento. Recuérdese que la Unión Europea contribuirá al desarrollo de la dimensión europea del deporte, “promoviendo la equidad y la apertura en las competiciones deportivas y la cooperación entre los organismos responsables del deporte, y protegiendo la integrad física y moral de los deportistas”.

La cooperación transfronteriza puede aflorar en diversos y muy variados sectores como el turismo, el desarrollo regional, la gestión compartida de residuos, las actividades deportivas transfronterizas, la creación y fomento de sociedades públicas y/o agencias para el desarrollo de las comarcas fronterizas, sus economías locales, la generación de empleos de calidad y la organización de eventos deportivos transfronterizos por parte de universidades públicas.

El estudio y análisis del marco jurídico transfronterizo aplicable a cuestiones litigiosas que puedan suscitarse a partir de daños que podrían acontecer como consecuencia de la realización de eventos deportivos transfronterizos (en especial, en eventos de índole deportiva celebrados en el marco transfronterizo vasco-navarro y francés) presenta una complejidad jurídica indudable, debido a la coexistencia de diversos bloques normativos que son de aplicación (europeo, internacional, nacional, regional y autonómico). Esto no debe atemorizarnos a la hora de comprender, en clave de futuro, la transcendencia de la consolidación de la cooperación transfronteriza en diversos sectores.

En definitiva, el fomento y la mejora de los instrumentos normativos para la cooperación transfronteriza nos permitirá asistir a una mayor integración de la Unión Europea y a la consolidación de una sociedad de naciones que pivote alrededor de la ciudadanía europea, la persona, sus obligaciones, derechos y libertades.

Esta entrada ha sido elaborada por Unai Belintxon Martin, profesor e investigador del Departamento de Derecho de la Universidad Pública de Navarra (UPNA)

Radicales libres y antioxidantes

No, cuando hablamos de radicales libres, no nos referimos a ninguna organización de jóvenes agitadores en favor de la libertad, sino a moléculas muy reactivas que están implicadas en las principales enfermedades y en el envejecimiento. Los antioxidantes representan el otro frente que contrarresta y nos ayuda a mantener nuestras células funcionales, aunque es cierto que tampoco los antioxidantes son moléculas modélicas en todas las circunstancias, como veremos a continuación.

Los radicales libres se definen como las moléculas que tienen uno o más electrones desapareados en su capa electrónica más externa; una definición química dentro de las que se encuentran, en general, moléculas muy reactivas y con tiempos de vida media muy cortos, precisamente, debido a esta alta reactividad. Por ello, resulta muy difícil detectarlos “in vivo” en los organismos biológicos y, por ello, se tardó muchos años (oficialmente, hasta 1969) desde que se sospechó su función “in vivo”, hasta que se les pudo empezar a atribuir la importancia que tienen hoy en día en el inicio y desarrollo de las principales enfermedades, en la defensa frente a patógenos e, incluso, en el proceso de envejecimiento a nivel celular y a nivel de organismo completo. Estamos hablando de moléculas como el radical hidroxilo, radical superóxido, el oxígeno singlete, o el óxido nítrico y otras, con unos tiempos de vida media extremadamente cortos (ver la figura 1 sobre la estructura electrónica de algunos radicales libres). Por todo ello, fueron necesarios varios decenios antes de que su producción y presencia en los organismos biológicos pudiera ser demostrada con rotundidad (Halliwell y Gutteridge, 2015).

La historia de los radicales libres en biología. Esta comienza en el siglo pasado, cuando empezaron a conocerse los efectos deletéreos o destructores que tenía la radiactividad sobre los organismos vivos, incluyendo, la inducción de mutagénesis y cáncer en los investigadores que utilizaban la radiactividad más frecuentemente. Por ejemplo, Pierre y Marie Curie sufrieron cáncer y otras importantes enfermedades asociadas a las radiofrecuencias ionizantes. Ahora conocemos que la radiación nuclear induce la lisis del agua y la producción de radicales libres como el radical superóxido y el radical hidroxilo. Posteriormente, se conocieron los problemas asociados con trabajar con aire enriquecido en oxígeno, a concentraciones superiores a la habitual, que es un 21% de oxígeno en la atmósfera. Ahora sabemos que aumentar la concentración de oxígeno induce una mayor producción de radicales libres, que se generan a partir del oxígeno presente dentro y fuera de las células.

A mediados del siglo XX, ya existían diversas líneas que evidenciaban la problemática. Fue Denham Harman quien, en 1956, propuso la teoría de que el envejecimiento es producido por radicales libres originados durante el metabolismo normal de la mitocondria, teoría que, más tarde, redefiniría el propio Harman como teoría del reloj biológico (1972). En los años 50, ya se conocían un enzima esencial para la vida en presencia de oxígeno como era la catalasa, que se encarga de eliminar el peróxido de oxígeno (molécula mas conocida popularmente como agua oxígenada). Aunque el peróxido de oxígeno, que es una molécula bastante reactiva, no es un radical libre, es potencialmente muy peligrosa, pues su lisis catalizada por metales de transición como el Fe2+ o Cu+ producía el altamente energético y muy deletéreo radical hidroxilo (ΔΕ’o=2,4 V/mol). Pese a que estos contienen H2O2 y también Fe2+ o Cu+, en esos momentos se dudaba de que este proceso tuviese importancia en los seres vivos, ya que el radical hidroxilo tenía un tiempo de vida demasiado corto (10-9s) en sistemas biológicos, y no podía ser detectado.

Así las cosas, fueron el Dr. Irwin Fridovich y su estudiante de doctorado Joe McCord (ver figura 2) quienes en 1969 consiguieron atribuir una función anti-radicales libres a una proteína ya conocida como era la eritrocupreína, pero de la que no se tenía ni idea para que servía. Estos investigadores consiguieron demostrar que esta proteína eliminaba el radical superóxido: el primer radical producto de la reducción univalente del oxígeno molecular (Fridovich y McCord, 1969).

Al asociar una actividad antioxidante y anti-radicales libres a una proteína de los seres vivos, se estaba demostrando implícitamente que los radicales libres eran importantes en las células y que la célula necesitaba ejercer un control sobre ellos. La superóxido dismutasa fue, por tanto, la primera enzima antioxidante conocida (Figura 3.).

Esta enzima muestra la mayor relación kcat/KM (lo cual representa una buena aproximación de la eficiencia catalítica), y la reacción se considera limitada sólo por la propia velocidad de difusión del superóxido y la enzima dentro del solvente en el que se encuentran (Halliwell y Gutteridge, 2015). La importancia del enzima superóxido dismutasa es clave para la vida en presencia de oxígeno, y está presente en todos los organismos aerobios, sean eucariotas o procariotas (salvo contadas excepciones que confirman la regla). Además, dentro de las células las superóxido dismutasas, pueden estar presente dentro de diferentes localizaciones subcelulares dependiendo del tipo de enzima y del orgánulo, lo cual proporciona flexibilidad y plasticidad a las defensas antioxidantes (Figura 4).

El sentido biológico de los radicales libres. Después de 3.500 millones de años desde que se estima pudo aparecer la vida en la Tierra, ¿por qué la evolución no ha conseguido evitarlos totalmente? En la actualidad, la visión que tenemos de los radicales libres y otras moléculas relacionadas y altamente reactivas (ROS, de las siglas en inglés, “Reactive Oxygen Species”) es que son moléculas esenciales que nuestras células utilizan como señales. Cuando aumentan, señalizan que “hay problemas” y que se deben activar diferentes tipos de respuestas, incluyendo las antioxidantes que desactivarían la señal. Junto con la respuesta, va también sintetizado el antioxidante que elimina la señal, puesto que tan importante como dar la alarma es desactivarla cuando esta ya no es necesaria. Eso sí, una producción incontrolada de ROS inducirá procesos deletéreos que conducirán a estrés, enfermedades, y envejecimiento.

Los antioxidantes. Representan el contrapunto, eliminando los ROS y contribuyendo a restaurar las condiciones adecuadas en la célula y desactivando la señal. Estos son esenciales, tanto los que producimos de manera endógena en las células, como los que adquirimos como parte de la dieta. Los antioxidantes pueden reaccionar directamente con los ROS como hacen los antioxidantes esenciales en nuestras células, por ejemplo, el ácido ascórbico o vitamina C y la vitamina E; o pueden tener un mecanismo de acción más indirecto mediante la activación de cascadas celulares que señalizan la inducción de la síntesis de antioxidantes celulares. Así es como actúa, por ejemplo, el sulforrafano, el potente antioxidante de las crucíferas como el brócoli (Yang et al., 2016).

Los antioxidantes pueden tener una doble cara, y así algunos potentes antioxidantes pueden tener efectos pro-oxidantes en determinadas circunstancias. Por ejemplo, la vitamina C puede ser pro-oxidante y, en presencia de Fe (hierro) libre o conjugado a pequeñas molécula, estimula la reacción de Fenton de producción de radical hidroxilo. Así se ha demostrado “in vitro”, que, a elevadísimas concentraciones, elimina las células cancerígenas en mayor medida debido a este efecto (Yu et al., 2015). De hecho, la evolución de los grandes primates ha suprimido uno de los genes esenciales para la síntesis de vitamina C en nuestras células y, por ello, debemos adquirir esta vitamina con la dieta. Y sí, el contenido en vitamina C de nuestra sangre se asocia con mayor salud (siempre que se tome la vitamina C de plantas, y no de suplementos), lo cual puede indicar la importancia de los contenidos de este antioxidante en sangre o, más probablemente, está relacionado con la ingesta de alimentos vegetales en nuestra dieta, lo cual también se correlaciona con mejor salud y más longevidad.

Por todo ello, los antioxidantes de las plantas, se consideran ya como una parte obligatoria a adquirir en nuestra dieta, sin los que nuestra salud se verá gravemente comprometida, no sólo con una esperanza de vida menor, sino, sobre todo, con un aumento importante de enfermedades de todo tipo.

Referencias:

•Halliwell y Gutteridge (2015). “Free Radicals in Biology and Medicine. 5ª edition”. Oxford University Press. Oxford, Reino Unido

•McCord y Fridovich (1969). “An enzymic function for eritrocuprein”. Journal of Biological Chemistry 244: 0044-0055

•Moran JF, James EK, Rubio MC, Sarath G, Klucas RV, Becana M (2003). Functional Characterization and Expression of a Cytosolic Iron-Superoxide Dismutase from Cowpea (Vigna unguiculata) Root Nodules. Plant Physiol 133:773-82.

•Muñoz I, Moran JF, Becana M, Montoya G (2005). The Crystal Structure of the Eukaryotic Iron Superoxide Dismutase Suggests Intersubunit Cooperation During Catalysis. Protein Science 14: 387-394.

•Yang et al (2016). Frugal chemoprevention: targeting Nrf2 with foods rich in sulforaphane. Seminars in Oncology 43(1): 146-153. doi: 10.1053/j.seminoncol.2015.09.013

•Yu et al. (2015). Vitamin C selectively kills KRAS and BRAF mutant colorectal cancer cells by targeting GAPDH. Science 350 (6266):1391-6. doi: 10.1126/science.aaa5004.

Esta entrada ha sido elaborada por José Fernando Morán Juez, profesor en el Departamento de Ciencias e investigador en el Instituto IMAB (Institute for Multidisciplinary Applied Biology-Instituto de Biología Multidisciplinar Aplicada) de la Universidad Pública de Navarra (UPNA).

Florence Nightingale, pionera en el desarrollo de técnicas estadísticas

El origen de la Estadística está  ligado a los primeros esfuerzos administrativos al servicio de un Estado (de ahí, su nombre) por inventariar su población, riqueza o sus movimientos comerciales. A mediados del siglo XIX, se produce un desarrollo de la estadística debido a la sistematización de la recogida de datos por parte de los Estados modernos y a su aplicación en otros campos.

Florence Nightingale es, sobre todo, recordada como la mujer pionera en los métodos de la enfermería moderna, pero quizá sea más desconocido su innovador uso para la época  de técnicas estadísticas en sanidad, mostrando cómo un fenómeno social puede ser analizado matemáticamente mediante medidas objetivas.

Nació en 1820 en el seno de una familia acomodada de la Inglaterra Victoriana. Tuvo el privilegio de aprender latín, griego, historia, filosofía y matemáticas de la mano de su padre. Florence mostró especial interés en matemáticas y logro convencer a sus padres para disfrutar de tutores en la materia. Siempre le guió su amor por el razonamiento, basado en el cuestionamiento y en un cuidadoso proceso para obtener conclusiones. En 1850, viajó a Alemania para formarse como enfermera en un hospital-orfanato. Completó su instrucción en Gran Bretaña y Europa, donde recabó informes y publicaciones sobre la sanidad pública, lo que pone en evidencia el espíritu analítico, más allá del meramente instructivo, con que se enfrentaba a su formación.

En 1854, estalló la Guerra de Crimea. Las noticias del frente sobre el estado de los soldados conmovieron a la opinión publica, lo que llevó al Secretario de Estado para la Guerra a nombrar a Florence como oficial del Ejército, algo inaudito para una mujer, con el fin de formar un equipo de enfermeras y acudir al hospital de campaña en Escutari (Turquía). A su llegada, encontraron unas condiciones alarmantes: los soldados heridos yacían en habitaciones sin ventilación, con sábanas y uniformes sucios y mal alimentados. No resulta extraño que el tifus, la disentería y el cólera fueran tres principales causas de muerte. Con gran habilidad, para no ganarse la antipatía de los oficiales médicos, pronto logró instalar una lavandería y mejoras en la alimentación y en la higiene de las salas.

Durante este tiempo, Florence recogió datos y sistematizó un control de registros. Con sus métodos innovadores de recolección, tabulación y presentación, mostró como la estadística proporciona un marco para comprender la realidad y proponer mejoras. Elaboró numerosos informes e ideó un gráfico (el de áreas polares) para presentar sus estadísticas sobre causas de mortalidad. En él, se muestra el círculo dividido en doce sectores (uno por cada mes), cuya área varía, según el número de soldados caídos, en tres colores: el rojo, para los caídos por heridas de guerra; el azul, por enfermedades infecciosas; y el negro, por otras causas. El gráfico evidencia que la principal causa de muerte eran las enfermedades infecciosas y que la mejora de las condiciones en el hospital reducía mucho el número de muertes.

Sus  gráficos fueron tan convincentes que llevaron al Parlamento, a la Reina Victoria y a las autoridades militares a formar en 1858 una Real Comisión que estudiara la tasa de mortalidad, en guerra y en paz, del Ejército, semilla de la futura Universidad Médica Militar. Uno de los muchos frutos de la Real Comisión fue la reorganización de las estadísticas del Ejército, que fueron reconocidas como las mejores de Europa.

Florence continuó aplicando técnicas estadísticas para hospitales civiles; desarrolló un modelo de formulario estadístico para los hospitales con el fin de  recoger y generar datos y estadísticas consistentes. También recogió estadísticas sobre la sanidad en la India y en las escuelas en las colonias.

Trabajó en la oficina de Guerra Británica para asesorar sobre cuidados médicos del Ejército en Canadá. Sus métodos incluyeron, por ejemplo, el tiempo medio requerido para el transporte de heridos en trineo en las inmensas distancias del citado país norteamericano. También durante la Guerra Civil Americana , fue asesora del Gobierno de los Estados Unidos para la sanidad del Ejército.

Por sus aportaciones estadísticas, fue nombrada en 1860 primera mujer miembro de la Real Sociedad de Estadística Británica y, posteriormente, Miembro Honorífico de la Sociedad Estadística Americana.

 

Esta entrada ha sido elaborada por Henar Urmeneta Martín-Calero, profesora del Departamento de Estadística, Informática y Matemáticas de la Universidad Pública de Navarra (UPNA), donde forma parte del Grupo de Investigación q-UPHS (siglas en inglés de Métodos Cuantitativos para Mejorar el Rendimiento de los Servicios de Salud)

La máquina de vapor la inventó un navarro: Jerónimo de Ayanz

El navarro Jerónimo de Ayanz, nacido en Guenduláin (Navarra), vivió desde 1553 a 1613 y fue un personaje que ni la imaginación ha conseguido emular. En un siglo, el de Oro, en el que abundaban en España los artistas y los militares, este hombre fue artista, militar, científico, ingeniero y político. Cuando se lee la biografía que Nicolás García Tapia escribió sobre él (cuya última edición ha sido publicada por la Universidad Pública de Navarra), no se comprende cómo no ha sido llevada su vida a la gran y pequeña pantalla; supongo que porque quien la viera pensaría que era pura ficción. Y como muestra, pasaré a enumerar sólo algunos de sus inventos patentados en septiembre de 1606 y otros quehaceres, ya que es el caso más atípico de todos. Era de procedencia noble y caballero de la Orden de Calatrava, poseía dos encomiendas que le rentaban sustanciosos beneficios, además de los que recibía por sus puestos en la corte, por su familia y por sus negocios e inventos, a los que debemos añadir los ingresos que obtuvo al emparentar, por boda, con una rica familia murciana por dos veces, puesto que, al morir su primera esposa, se casó con la hermana de la difunta. Sin embargo, en vez de entregarse a la relajación y el disfrute de las rentas, Jerónimo desplegó un sin fin de habilidades y trabajo que todavía hoy parecen increíbles.

Además de poeta, pintor (elogiado por Pacheco, el suegro y maestro de Velázquez), cantante (con una impresionante voz de bajo), lutier y músico (Lope de Vega alude a él en sus escritos), fue gobernador de Murcia y de Martos y auspició la creación de la Base Naval de Cartagena con parte de la flota de galeras que estaban en Barcelona para poder luchar así contra la piratería de la zona, entre otras medidas que tomó durante su mandato.

Como militar, era temido por los ejércitos contrarios dados su fuerza y valor, participando prácticamente en todas las campañas en las que España estuvo implicada en esos años. De su fortaleza, baste decir que fue llamado el Hércules español.

Fue administrador general de las minas del Reino de España, visitando todas las de la Península para solucionar sus problemas y ayudando a las de ultramar (Potosí, sobre todo) a distancia. Sus escritos sobre el tema y las soluciones que propuso para resolver los problemas planteados entonces tienen vigencia todavía hoy.

Inventó, en otros, destiladores de agua marina, el uso de la transmisión cardan en dichos destiladores, submarinos, campanas de buceo, escafandras de buceo, el aire acondicionado, el eyector de vapor, básculas para “pesar la pata de una mosca”, equipos para medir el rendimiento mecánico, desaguadoras de minas empleando las mismas aguas contaminadas pero impidiendo su evacuación al exterior, molinos de sangre, molinos de rodillo, molinos de viento, molinos de barcas acoplados a norias, bombas de husillo, bombas de achique de barcos y hornos especiales para metalurgia, con especial atención a la ergonomía, rendimiento y mejoras ambientales, diseñándolos así “porque el humo ni la lumbre no den pesadumbre a los que trabajan”.

Descubrió la declinación magnética de la brújula (nordestear, decía Jerónimo), diseñó las primeras presas de arco y bóveda, etc.; y, aunque cualquiera de los ya citados daría para un libro el sólo, citaré dos con más detalle.

Traje de buzo. En agosto de 1602, ante el rey Felipe III, un buzo provisto de un traje diseñado por Jerónimo de Ayanz estuvo más de una hora andando por el fondo del río Pisuerga, a su paso por Valladolid, exactamente el tiempo que tardó el rey en aburrirse y ordenar que subiera, porque el buzo manifestaba estar perfectamente y poder continuar la hazaña. El equipo no consistía sólo en el traje realizado de forma específica para impedir la hipotermia del buzo, sino también el sistema de alimentación de aire de refresco al buzo, ideando incluso una “manguera” construida con tramos cortos de tubos de cobre con uniones articuladas. No existe en el mundo ningún registro anterior de tal proeza.

Máquina de vapor. Siempre hemos leído en los libros de texto y las enciclopedias la disputa franco/británica por atribuirse la paternidad del invento que marcó el inicio de una nueva era. Nunca los españoles habíamos entrado en la lid con fuerza ni razón, pero ahora lo hacemos para ganarla, porque, en la patente registrada y archivada en Simancas en septiembre de 1606, hace más de 400 años, se explica una máquina de vapor ideada por Jerónimo de Ayanz para desaguar las minas usando la fuerza del vapor.

La máquina se describe hasta el más mínimo detalle constructivo y estudios posteriores han demostrado su viabilidad y funcionalidad. Este hito histórico no ha sido reflejado en ningún libro de texto y va siendo hora de que ocupe su lugar en dichos libros y que nuestros estudiantes, cuando cursen historia (aunque cada vez se estudie menos), sepan que la máquina de vapor nació en España en 1606. Y de paso también va siendo hora de que este hecho se reconozca y sepa más allá de nuestras fronteras y, por fin, se coloque a los inventores españoles donde se merecen y demostrar que, si en el siglo de Oro en España nacieron los mejores pintores, escritores y artistas del mundo, los tecnólogos e inventores de entonces no tenían nada que envidiar a los de otros países. De hecho, la máquina de vapor de Savery es “un calco” de la de Jerónimo de Ayanz, a la que aplica la aspiración, algo que no funcionaba bien al no tener condensador separado. Jerónimo de Ayanz conocía este problema y, por eso, la alimentación de su máquina de vapor se hace desde una altura superior, es decir, la de Jerónimo de Ayanz es superior a la de Savery, ya que además contempla colocar varias máquinas en serie.

La Universidad Pública de Navarra (UPNA) ha rendido homenaje a este inventor polifacético, al bautizar con el nombre de Jerónimo de Ayanz la sede de sus institutos de investigación en el campus de Arrosadia, en Pamplona.

 

La entrada a este blog ha sido elaborada por Rafael Eugenio Romero García, miembro de la Asociación Española de Comunicación Científica y autor del libro “Ayanz, la increíble vida del Leonardo español

Cómo fotografiar la Vía Láctea

La Vía Láctea es una galaxia espiral donde se encuentra el sistema solar. Su diámetro tiene unos 100.000 años luz y se calcula que contiene entre 200.000 y 400.000 millones de estrellas.

El nombre Vía Láctea proviene de la mitología griega. Significa camino de leche, pues, para los griegos, lo que vemos es la leche derramada de la diosa Hera.

Hace algunas décadas, bastaba levantar la vista y mirar al cielo para ver una mancha blanquecina en dirección este-oeste. Desde la Edad Media, el nombre comúnmente usado para designarla era Camino de Santiago, pues se argumentaba que esa mancha servía para que los peregrinos pudieran orientarse y poder llegar así a Santiago de Compostela.

Hoy en día, ya no es tan visible. La contaminación del aire y, sobre todo, la contaminación lumínica nocturna de las ciudades y de otros núcleos de población obligan a tener que desplazarse a lugares donde reine una total oscuridad para poder verla.

Las fotografías que vemos publicadas de la Vía Láctea resultan imposibles de captar por el ojo humano, pues no tiene suficiente sensibilidad. Sin embargo, una cámara fotográfica es capaz de registrar la luz que emite la galaxia. Veamos cómo proceder.

Hay que tener en cuenta que la Vía Láctea se pueda ver durante todo el año, pero su parte más brillante, llamada centro galáctico, no es visible en invierno. Solo se ve uno de sus brazos, en forma de arco sobre el horizonte.

Para localizar la Vía Láctea, debe dirigirse la mirada hacia el sureste, sur o sudoeste, según la época del año. El mejor momento para verla abarca desde mayo a finales de julio o mediados de agosto. Se ve el brazo, vertical, y el centro galáctico con todo su brillo y esplendor.

Existen excelentes aplicaciones para teléfonos móviles, como Photopills, Stelarium, etc. que, mediante realidad aumentada, permiten ver dónde se localiza la Vía Láctea en cada coordenada geográfica, y proporcionan todos los parámetros sobre la hora del orto y del ocaso, y elevación máxima del brazo y del centro galáctico. Son aplicaciones gratuitas o que cuestan unos pocos euros. Resultan fundamentales, no obstante.

Fotografiar la Vía Láctea requiere una atmósfera seca (cuanto más seca, mejor); limpia; sin nubes, en algún lugar donde no exista contaminación lumínica ni polvo.  Las mejores noches son las de luna nueva. Los mejores meses para hacer la fotografía son los comprendidos entre mayo y julio, ambos incluidos.

Llegados al lugar elegido (conviene hacerlo de día) tomaremos posiciones y, ya de noche, no encenderemos ninguna luz blanca.

Se debe llevar una linterna frontal de leds de luz blanca y que también proporcione luz roja, con objeto de poder hacer ajustes en la cámara, para poder ver mínimamente sin incordiar a nadie. La luz roja no molesta ni deslumbra. Acostumbraremos los ojos a una total oscuridad durante viente minutos por lo menos. Hay que aprender a ver sin luz apenas.

No conviene ir solo, por prudencia. La fauna salvaje puede visitarnos; suele ser curiosa, sobre todo, si llevamos comida. Si no tenemos visitas, un esguince, una caída o un corte pueden requerir que necesitemos ayuda.

Conviene dejar dicho a dónde vamos, dónde estaremos y cuáles son las coordenadas GPS del emplazamiento, y tener presente que, en muchos lugares apartados, los móviles no tienen cobertura. En Navarra, la Foz de Arbayún, zonas del Valle del Roncal y las proximidades de Ujué o de Guirguillano son algunos ejemplos de buenos observatorios.

Previamente a nuestro desplazamiento, habremos elegido el equipo fotográfico. Hace falta una cámara réflex, o una cámara sin espejo o una compacta avanzada. La cámara tiene que poder ajustarse en modo manual y permitir archivos en formato raw. La cámara de un móvil actual no suele dar buenos resultados, salvo raras excepciones.

La cámara debe enfocarse a infinito. Se puede hacer el enfoque a infinito en modo automático, mientras haya luz, y pasar a modo manual acto seguido, teniendo mucho cuidado de no tocar nada que pueda alterar el enfoque del objetivo. También se puede enfocar a la distancia hiperfocal.

El objetivo debe ser un angular o gran angular, con una distancia focal entre 12 y 24 mm. en formato completo, equivalente a 35 mm. Es esencial que sea luminoso, que pueda abrir el diafragma a 2.8 o superior. Cuanto más abra, mejor, pues menor será el tiempo de exposición.

El ISO, la sensibilidad del sensor a la luz, se ajustará a 1.600 ó 3.200. Mejor si empezamos con 1.600. Un ISO más elevado genera ruido digital muy visible.

El balance de blancos se fijará a unos 3.000-3.500 kelvin. De esta forma, se corrige la dominante marrón de las fotos nocturnas y veremos el cielo de color azul oscuro.

Por cierto, un flash no sirve absolutamente para nada, salvo para iluminar objetos cercanos. El flash más potente apenas ilumina a 50 metros de la cámara, en el mejor de los casos.

El tiempo de exposición, si no queremos ver estrellas movidas, como rayitas en el cielo, se calcula mediante la regla del 500. Se divide 500 entre la longitud focal del objetivo equivalente en formato completo, teniendo en cuenta el factor de recorte de nuestro sensor: 1,5 ó 1,6 en APS (Nikon, Canon, Sony) o 2 en micro cuatro tercios (Olympus, Panasonic).

Por ejemplo, si usamos un angular equivalente a 16 mm en formato completo, o “full frame”, el tiempo de exposición será 500/16 =30 segundos aproximadamente. Si el sensor es APS, el tiempo será 500/(16×1,5) o 500/(16×1,6), unos viente segundos, más o menos.

El tiempo de exposición se programa en la cámara, con ayuda de intervalómetro o, simplemente, se cuentan los segundos en modo “bulb” con un cable disparador pulsado.

Las estrellas siempre salen movidas, más o menos, porque los tiempos de exposición son largos, no por defectos de la cámara ni por la calidad óptica del objetivo. En treinta segundos, el movimiento es apreciable. Por ejemplo, la Luna en poco más de dos minutos se ha desplazado su diámetro, aproximadamente, 0,50 grados.

Como las exposiciones son largas y se hacen muchas, combinando ISO con tiempos de exposición, conviene llevar varias baterías para la cámara, especialmente, cuando el tiempo es frío. Las bajas temperaturas descargan rápidamente las baterías.

Por todo lo expuesto, se deduce que hay hacer las fotografías con trípode. Es fundamental. Conviene usar un trípode muy sólido (que no tiene que ser forzosamente pesado), que no vibre cuando la cámara levanta el espejo, ni se mueva con la brisa y que no trepide con la vibración del obturador.

Para darle mayor estabilidad, se puede colgar un peso, como la mochila, unas piedras que encontremos, que colocaremos dentro de una bolsa de tela o plástico que llevemos de casa, por ejemplo. Nos serviremos del gancho que llevan los trípodes en la columna central. La estabilidad e inmovilidad son fundamentales.

Durante la exposición, la cámara no puede moverse en absoluto. Para mayor seguridad, puede usarse el retardo del disparador, el que levanta el espejo y, tras varios segundos de espera, abre el obturador. También podemos usar un cable disparador de control remoto.

Hacemos la fotografía siguiendo estas pautas. ¿Ha quedado bien?… Lo sabremos fijándonos en el histograma de la foto que nos muestra la pantalla LCD. Si queda hacia la izquierda (foto subexpuesta) o a la derecha (foto sobreexpuesta), se modifica el ISO o el tiempo de exposición, o ambos, subiéndolos o bajándolos, hasta que el histograma no se recorte ni por la derecha ni por la izquierda.

Si aumentamos el ISO, se incrementará el ruido de la toma y, si aumentamos el tiempo de exposición, las estrellas ya no serán puntos. Habrá que buscar un equilibrio entre ruido y movimiento. En caso de que la cámara tenga esa opción, ajustaremos la reducción de ruido para ISO elevados. No es aconsejable ajustar el ISO para exposiciones largas, pues se duplican los tiempos de exposición.

Es recomendable hacer las fotos tras alterar el tiempo de la exposición e ISO, haciendo combinaciones (muchas, mejor) y con calma en casa nos decidiremos por la que más nos guste.

Con la Vía Láctea, nos pasa lo mismo que con la Luna, que siempre vemos lo mismo. Con un poco de práctica, aprendemos a configurar la cámara con muy buenos resultados. Al final, fotografiar la Vía Láctea es casi una rutina.

Si tu objetivo abre a 2.8, puedes comenzar con una configuración de partida consistente en un balance de blancos =3.000K, ISO=1.600; f: 2.8; tiempo=25 segundos. En función de los resultados, juega con 20, 25, 30, 35 y 40 segundos de exposición, por ejemplo.

Si tu angular abre como máximo a f: 3.5 o f: 4, mantén el ISO en 1.600, pero sube el tiempo y prueba con 30, 35, 40 segundos de exposición. Prueba también con un ISO de 3.200. Seguramente, alguna de las combinaciones ISO/tiempo te proporciona una buena fotografía.

En mi caso, utilizo una Nikon “full frame” con un objetivo de 15 mm.; un balance de blancos de 3.000 K; ISO 1.600; f: 2.5 y pruebo con tiempos exposición de 15 a 35 segundos, contados de uno en uno (20, 21, 22, 23 ….). Siempre hay alguna foto que queda bien, generalmente alrededor de 25 segundos de exposición. El ISO nunca lo cambio.

Recuerda que subir el ISO aumenta el ruido digital y subir la exposición hace que las estrellas salgan movidas. Un buen truco es espaciar las tomas y dejar que el sensor se enfríe, porque, cuando se calienta, genera ruido. El invierno es un buen aliado contra el ruido.

Busca un equilibrio entre ISO y tiempo. Haz pruebas. La experimentación es esencial y debes conocer tu cámara.

Si eres un afortunado poseedor de un objetivo muy luminoso, f:1.2, por ejemplo, bastarán unos pocos segundos de exposición, 6 ó 7 nada más.

Parto de la base de que f: 2.8 busca un buen compromiso entre luminosidad y coste. Un objetivo f:2.8 no es barato, pero ocurre que el precio de un gran angular f: 1.2 ronda los 3.000 euros.

Las diferencias entre las fotos dependen, sobre todo, de la composición: la Vía Láctea puede estar alineada o formar un arco sobre una ermita, unas ruinas de un castillo, un objeto singular, una formación rocosa, un faro marítimo, unos árboles… Estos objetos los puedes iluminar con un destello de flash o linterna, jugando con distintos ángulos y potencia de la luz. La imaginación es libre.

Tu cámara guarda los datos EXIF de cada foto. Los datos EXIF son informaciones como el balance de blancos, el ISO, la velocidad, la abertura del diafragma, objetivo utilizado, distancia focal, etc. Aprenderás mucho sobre tus aciertos y errores observando la calidad de tus fotos y prestando atención los ficheros EXIF correspondientes.

Espero haber resultado claro con estas explicaciones. Si tienes alguna duda, escríbeme a igrande@unavarra.es

 

Esta entrada ha sido elaborada por Ildefonso Grande Esteban, profesor jubilado del Departamento de Gestión de Empresas de la Universidad Pública de Navarra (UPNA), que es también el autor de las fotografías que acompañan al texto.

 

Cómo profundizar en los resultados de las estadísticas

Hoy en día, la encuesta es una fuente habitual de información, pero es frecuente que, ante una misma encuesta, diferentes medios de comunicación publiquen resultados con titulares que parecen contradictorios, lo que produce desconfianza en las encuestas. Las estadísticas se suelen presentar en tablas que recogen el número o el porcentaje de personas que responden de una u otra forma a distintas preguntas. A veces, las tablas contienen numerosos datos que es necesario observar en su contexto y resulta difícil sacar conclusiones de la simple observación de los datos. De ahí que dos periodistas resalten conclusiones o pongan titulares diferentes. Sin embargo, la estadística dispone de poderosas herramientas que permiten analizar estas tablas en su conjunto y obtener, de forma automática, resultados gráficos que resaltan lo más destacable, teniendo en cuenta todos los datos y sin que intervenga en el análisis la subjetividad de cada persona que le hace fijarse más en unos datos que en otros.

Para ilustrar esta facultad de las técnicas estadísticas, analizamos una pregunta de una encuesta realizada por el Centro de Investigaciones Sociológicas (CIS), un organismo autónomo dependiente del Ministerio de la de la Presidencia que realiza periódicamente estudios en la población española con objetivo medir el estado de la opinión pública; son los denominados barómetros de opinión. Estos estudios se hacen a través de entrevistas realizadas a unas 2.500 personas elegidas al azar y representativas de la población española. Están representadas todas las comunidades autónomas, tanto las ciudades grandes como las localidades pequeñas o medianas y personas de todos los niveles de edad y género.

En este caso, nos ha interesado el barómetro publicado en enero de 2013 que trata de recoger la opinión de los españoles sobre diversas cuestiones relacionadas con aspectos políticos. Nos centraremos en la pregunta siguiente: en política, normalmente se habla de “ser de derechas” y “ser de izquierdas”; voy a leerle una serie de palabras y quisiera que me dijera, con respecto a cada una de ellas, si las identifica Ud. más con “ser de derechas” o con “ser de izquierdas”.

El CIS pública una tabla de resultados en la que se recogen, para cada palabra, el porcentaje de personas que lo identifican con “ser más de izquierdas”, “ser más de derechas”, “ambas”, “ninguna”, “no sabe” y “no contesta”. Incluye el número de encuestados. Un análisis estadístico considera todos los aspectos y obtiene el gráfico adjunto en el que, con ayuda de unos indicadores de calidad, se puede ver cómo, en opinión de los encuestados, se asocian las diferentes palabras o valores con las ideologías políticas.  El eje horizontal es el más importante. Podemos ver que, en un extremo, aparecen próximos “ser de derechas” y valores como tradición y orden, que son las palabras que los encuestados identifican más con esta ideología. En el lado izquierdo, tolerancia, solidaridad, igualdad y derechos humanos se identifican más con “ser de izquierdas”.

La honradez y la eficacia aparecen en la parte inferior, próximas a ninguna. Estas dos características no se asocian ni con “ser de izquierdas”, “ni de derechas”, sino con la respuesta “ninguna”. Ahora bien, la honradez está situada más a la izquierda, es decir, más próxima a “ser de izquierdas”. Esto significa que  la mayoría de los encuestados han escogido la respuesta “ninguna” asociada a honradez, pero un segundo gran grupo de encuestados ha elegido “ser de izquierdas”. Análogamente sucedería en el caso de la eficacia y “ser de derechas”.

El idealismo aparece en la parte superior izquierda, pero más desplazada que otras palabras hacia la derecha, lo que indica que se ha asociado principalmente con “ser de izquierdas”, pero también hay un número importante de personas que lo han asociado con “ser de derechas”.

La situación de “ambas”, próxima al centro, significa que, para todas las palabras, ha habido una respuesta semejante.  No se puede asociar a progreso por estar en el centro del gráfico.

El estudio se podría repetir para grupos de encuestados. Por ejemplo, uno para los que declaran ser de izquierdas y otro para los que se declaran ser de derechas y comparar los resultados.

 

Esta entrada ha sido elaborada por Elena Abascal Fernández, profesora del Departamento de Estadística, Informática y Matemáticas de la Universidad Pública