Una herramienta para medir el abuso de poder en los Servicios Sociales

El compromiso ético de las trabajadoras y los trabajadores sociales es su principal seña de identidad. Por ello, son capaces de diferenciar el paternalismo positivo del paternalismo negativo. El paternalismo negativo es ese que se prohíbe en su código deontológico y que consiste en hacer el bien a la persona usuaria sin tener en cuenta en ningún caso qué opina sobre su bienestar (“lo hago por tu bien, pero sin tenerte en cuenta”). En cambio, el paternalismo positivo es aquel que es permitido a las y los profesionales por código deontológico y que consiste en priorizar el bienestar de la persona usuaria a su autonomía en los supuestos indicados en él.

Efectivamente, en la mayoría de sus intervenciones sociales, las y los profesionales eran capaces de identificar esos dos tipos de fenómenos: paternalismo positivo y paternalismo negativo. Pero, a través de diferentes investigaciones, constatamos que tenían dificultades para identificar los diferentes tipos de abusos de poder en los que podían incurrir en cada una de esas categorías. Por ese motivo, ideamos la Escala de Violencia a la Persona Usuaria (EVU) para facilitar la identificación de toda esa gama de comportamientos que van desde el paternalismo más negativo al más positivo.

La escala contempla diferentes tipos de comportamiento que van desde la mala praxis al comportamiento moral por excelencia. Posee dos extremos: la violencia paternalista y la violencia antipaternalista. La primera se refiere al comportamiento profesional en el que únicamente se vela por hacer el bien a la persona usuaria, prescindiendo de prestar atención a su decisión autónoma. Por su parte, la violencia antipaternalista se sitúa en el extremo opuesto: se le da prioridad a la decisión autónoma de la persona usuaria sin tener en cuenta las consecuencias que ello vaya a tener para su bienestar.

Estos dos extremos, que van desde la imposición a la dejadez de las y los profesionales, son los comportamientos de mayor virulencia en la escala.

Con un rango de virulencia menor, le siguen la violencia metafísica paternalista y la violencia metafísica antipaternalista. La violencia metafísica se refiere a la predisposición cognitiva que las y los profesionales tienen al abuso de poder. Así, la violencia metafísica paternalista es la que nos predispone a la violencia paternalista y la violencia metafísica antipaternalista a la violencia antipaternalista. Es decir, cuando pensamos en dar prioridad exclusiva al principio de bienestar, nos referiríamos a la violencia metafísica paternalista y, cuando pensamos en dar prioridad únicamente al principio de autonomía, estaríamos hablando de violencia metafísica antipaternalista.

Los siguientes grados de la escala son el paternalismo benigno y el antipaternalismo benigno. El calificativo de benigno se refiere a que son comportamientos paternalistas o antipaternalistas permitidos en el código deontológico de la profesión. Es decir, el paternalismo benigno consiste en dar prioridad al bienestar de la persona usuaria prescindiendo de su decisión autónoma, basándonos en los supuestos indicados en el código deontológico. En cambio, en el extremo opuesto, el antipaternalismo benigno daría prioridad a la autonomía de la persona usuaria sin prestar atención a su bienestar, siguiendo los supuestos señalados en el código.

Por último, el no paternalismo es el comportamiento ético por excelencia al que todas y todos los profesionales debemos aspirar y consiste en velar por el bienestar de la persona usuaria teniendo en cuenta su decisión autónoma.

Para conocer el grado de abuso de poder en el que tienden a incurrir las y los profesionales, ideamos el Cuestionario de Violencia a la persona Usuaria (C-IVU). El C-IVU permite identificar la tendencia de cada profesional de un modo sencillo. Se responde a las diferentes afirmaciones del cuestionario a través de una escala Likert, se suman las puntuaciones dadas a cada una de tales afirmaciones y se divide en cada categoría, según se indica en la plantilla en la que se realiza el cómputo final. Así, la puntuación más elevada es la que da cuenta de la tendencia principal del profesional.

La herramienta es fundamental en la formación ética de las y los profesionales, así como para el asesoramiento llevado a cabo por los Comités de Ética y las Comisiones Deontológicas, ya que permite concienciar al colectivo sobre el abuso de poder en el que pueden incurrir. El C-IVU ha sido diseñado y nuevamente validado en la Universidad Pública de Navarra (Revista de Treball Social, 2018, nº 212, “Reflexiones sobre Trabajo Social y Poder”, pp. 95-114) y busca sensibilizar a las trabajadoras y los trabajadores sociales sobre la importancia de la formación ética y deontológica para el logro de la excelencia profesional.

Esta investigación, pionera en España, ha sido financiada por el Ministerio de Economía y Competitividad del Gobierno central y se prevé la creación y desarrollo de una aplicación que posibilite la medición del abuso de poder de cada profesional desde cualquier dispositivo tecnológico.

 

Esta entrada ha sido realizada por Francisco Idareta Goldaracena, investigador del Departamento de Sociología y Trabajo Social, presidente de la Comisión Deontológica del Consejo General del Trabajo Social y autor de la “Escala de Violencia a la persona Usuaria” (EVU) y del “Cuestionario de Violencia a la persona Usuaria” (C-IVU)

Estadística en ingeniería: calidad y fiabilidad

El adagio “Lo que no se mide, no se conoce y no se puede mejorar” tiene plena vigencia en el ámbito de la calidad de los productos y servicios que, en la actualidad, son producidos y prestados por industrias, empresas y administraciones.  ¿Cómo gestionar y tomar las decisiones más adecuadas para una organización sin saber cómo evolucionan medidas e indicadores claves? El instinto y la experiencia, aun siendo cualidades útiles en la toma de decisiones,  son garantía, por sí solos, para la perpetuación de los mismos errores.

Hasta comienzos del siglo XX, la calidad dependía de los esfuerzos individuales de los artesanos. A partir de la organización de la producción en pequeñas tareas y la producción masiva, surge la preocupación por la calidad. Uno de las primeras aplicaciones de la estadística al control de calidad tuvo lugar en el contexto de la competencia entre dos marcas de cerveza: Ginnes y Carling. Afortunadamente para la primera, entre sus trabajadores dedicados a la mejora de la calidad se encontraba William Gosset. Sus trabajos no sólo fueron importantes para prolongar la frescura de la cerveza, sino que sirvieron para que, en 1908, introdujera la distribución t y el test t-student para el análisis estadístico de muestras pequeñas, una de las contribuciones más destacadas a la estadística en el siglo XX.

Al mismo tiempo, compañías como Ford y AT&T en Estados Unidos implementaron acciones para un control sistemático de la calidad.  El desarrollo de métodos estadísticos y su aplicación a la mejora de la calidad continuó ligada al estudio de situaciones reales. Así, por ejemplo,  Walter Shewhart, empleado de la compañía telefónica Bell,  diseña y aplica en 1924 los conocidos gráficos de control.

Todo producto (o servicio) posee un número de características que describen lo que un cliente o usuario considera como calidad. Un fabricante de electrodomésticos exigirá a su proveedor de láminas metálicas que estas posean un determinado grosor, resistencia, etc. Las unidades suministradas cumpliendo con estas especificaciones serán consideradas de calidad, mientras que aquellas que se alejen podrán llegar a ser descartadas. De este modo, la calidad de un producto se medirá como la adecuación de este con las especificaciones.

Una de las razones que dificulta proporcionar un producto o servicio de calidad es la variabilidad en los productos. Difícilmente dos productos, o servicios, son completamente idénticos. Debido a que el estudio de la variabilidad desde un punto científico corresponde a la estadística, esta juega un papel preponderante en la evaluación y en la mejora de la calidad. Se puede afirmar que la variabilidad es el principal enemigo de la calidad. Esta máxima rige la metodología para gestionar la calidad 6 sigma, que propugna una toma de decisiones basada en hechos y datos.

Un aspecto estrechamente relacionado con la calidad es la fiabilidad, que se puede definir como la calidad mantenida a lo largo del tiempo y se mide como una probabilidad. La fiabilidad del producto o servicio tiene una importancia vital y puede conferir una ventaja competitiva decisiva para la empresa. Un análisis riguroso de fiabilidad es imprescindible para el establecimiento de periodos de garantía de los productos y servicios. Los análisis de fiabilidad son tan importantes que, en ocasiones, han preocupado a dirigentes políticos y a la opinión pública en general.  Es el caso de los accidentes de los transbordadores espaciales Columbia y Challenger, que fueron estudiados por comisiones de investigación (¡de las de verdad!) y cuyos resultados provocaron cambios en la gestión de la fiabilidad y calidad de las misiones espaciales y, en general, de los programas espaciales de la NASA.

Por último, echemos un vistazo al futuro del control de calidad y, por extensión, al seguimiento y mejora de procesos. El uso creciente de nuevas tecnologías posibilita la recogida de datos en tiempo real y de un modo continuo. La ingente cantidad de datos generados requiere de nuevas metodologías y procedimientos estadísticos para ser tratados computacionalmente con eficacia. Sin duda, la edad de oro para la estadística ya ha comenzado.

 

Esta entrada ha sido elaborada por Fermín Mallor Giménez, catedrático de Estadística e Investigación Operativa del Departamento de Estadística, Informática y Matemáticas de la Universidad Pública de Navarra (UPNA) e investigador del Instituto de Smart Cities (ISC)

Generación eléctrica distribuida, donde las energías renovables y la economía se dan la mano

La tristemente famosa planta nuclear de Fukushima constaba de seis reactores nucleares (cuatro de ellos, de 786 MW). En la vecina China, la presa de las Tres Gargantas es la de mayor capacidad de producción eléctrica en el mundo gracias a 32 generadores de 700 MW. Las dos cantidades son sorprendentemente similares a pesar de tratarse de tecnologías muy distintas. ¿No tendría sentido construir menos generadores de mayor tamaño? ¿O utilizar un número mayor producido en serie? Es posible hacerlo. De hecho, hay generadores de diferentes tamaños adaptados a cada necesidad, pero la principal restricción es económica y no técnica. Se busca que la energía eléctrica sea lo más barata posible y eso define cuál es el tamaño de generador más eficiente. Economía y tecnología se dan la mano en un equilibrio inestable y siempre cambiante.

La historia de la producción eléctrica ha venido marcada por un aumento considerable en el tamaño de las instalaciones de producción y de las propias empresas eléctricas. Las razones son múltiples, y de larga explicación, pero podemos decir que tienen su origen en una combinación de rentabilidad económica y limitaciones técnicas. El rápido desarrollo de las energías renovables ha servido para revivir este proceso delante de nuestros ojos. Por ejemplo, el tamaño de los aerogeneradores lleva dos décadas creciendo en busca de un menor coste para la energía producida. Cada unidad tiene un precio mayor, pero queda compensado por el incremento en la capacidad productiva. Esto tiene otras consecuencias económicas y sociales. Se hace difícil pensar que un particular utilice la energía eólica para producir su propia electricidad. El tamaño óptimo, el que produce la energía más barata, es demasiado grande.

¿Se trata de un hecho inevitable? ¿Se van a reproducir las mismas formas de producción y comercialización de la energía que hemos heredado del siglo XX? Lo cierto es que aún no lo sabemos. En el campo de la energía eólica, hay propuestas novedosas como la de la empresa holandesa Vandebron. Esta firma actúa como intermediara entre pequeños productores locales y los consumidores. La producción procede, principalmente, de grandes aerogeneradores, distribuidos en pequeños parques de dos a cinco aerogeneradores, que son propiedad de granjeros locales. El uso de nuevas tecnologías de comunicación y control permite que los consumidores elijan a quien desean como productor.

Pero la tecnología más revolucionaria en esta área es la solar fotovoltaica. Un gran parque solar sigue teniendo algunas ventajas y permite una reducción de costes respecto a un panel individual. Sin embargo, esta reducción es muy inferior a la que encontramos en otras tecnologías. Sumando los costes de la red de transporte y distribución, la ventaja empieza a ser dudosa. El mismo razonamiento puede aplicarse al almacenamiento de energía en baterías, una tecnología emergente de creciente importancia. Los modelos de acumuladores para el hogar, propuestos por empresas como Tesla o Nissan, puede ser más interesantes que una gran instalación de almacenamiento centralizado. El proyecto más importante en este sentido es la Virtual Power Plant, una colaboración público-privada promovida en 2018 por la administración del estado de South Australia. El objetivo es instalar paneles solares de 5 KW junto con baterías de 13,5 kWh en, al menos, 50.000 viviendas. Con una capacidad total de 250 MW, se trataría de la mayor instalación de generación distribuida del mundo. Cuando esté en funcionamiento, se espera que produzca energía a un coste un 30% inferior al actual y que contribuya decisivamente a mantener la estabilidad en el suministro eléctrico a los consumidores, un problema que también existe en otras zonas como el norte de Navarra.

Es muy difícil, más bien imposible, hacer predicciones cuando la tecnología está avanzando tan rápidamente.  Sin embargo, podemos estar seguros de que los mismos mecanismos económicos del siglo XX siguen actuando hoy en día. Es muy probable, salvo barreras legales insalvables, que el modelo más económico y eficiente triunfe. Y es posible que la generación distribuida tenga una oportunidad de convertirse en ese modelo.

 

Esta entrada ha sido elaborada por Ambros Liceaga Elizalde, miembro de la Comisión Ejecutiva del Instituto de Smart Cities (ISC) de la Universidad Pública de Navarra (UPNA), donde trabaja como investigador

 

Probabilidad y el triste caso de Sally Clark

El 15 de marzo de 2007 murió Sally Clark, natural de Cheshire y abogada de 42 años, por un fallo cardíaco provocado por una excesiva ingesta de alcohol, después de haber sido acusada erróneamente de matar a sus dos hijos: Harry, de 8 semanas (muerto en 1988) y Christopher, de 11 semanas  de edad (muerto en 1996). Habían pasado cuatro años desde que fuera acusada de asesinato por asfixia de sus dos hijos. Fue juzgada en Inglaterra el 9 de noviembre de 1999.

En realidad, se trataba de la muerte súbita de dos bebés en una misma familia, situación calificada de altamente improbable por el tribunal de Chester que la juzgó a cadena perpetua con ocho votos a favor y dos en contra, ya que interpretó que, si la muerte súbita de un bebé es de 1/8543, la de dos bebés es 1/8543*1/8543 es decir de 1 entre 73 millones.  En aquella época, el número de nacimientos en Inglaterra, Gales y Escocia era de 700.000 nacimientos al año, por lo que la probabilidad de ocurrencia por azar de este suceso era de 1 cada 100 años.

Tres años después, fue puesta en libertad al revocarse la sentencia, que fue calificada de uno de los mayores errores judiciales de la historia moderna de Gran Bretaña. Era el error denominado como “prosecutor fallacy”, es decir, el error probabilístico cometido en los juzgados por un falso razonamiento científico. En octubre de 2001, la Real  Sociedad Estadística Británica expresó públicamente su preocupación por el mal uso de la estadística en los juzgados. En enero de 2002, su presidente escribió a Lord Chancellor, ministro de la Corona, comunicándole su interés en replantear el uso adecuado de la evidencia estadística en el sistema judicial. Como consecuencia de ello, se revisó el caso.

Estudios posteriores pusieron en evidencia que la muerte del primer hijo de Sally fue provocada por una infección respiratoria y que la muerte de su segundo hijo se debió a una infección bacteriana. Pero para Sally fue demasiado tarde. Había pasado tres años en prisión. El error judicial consistió en interpretar que la muerte súbita de un bebé nada tenía que ver con la de su hermano, aunque fuese de la misma familia. Es decir, se interpretaron ambos sucesos como independientes, lo que llevó a pensar que era prácticamente imposible que ambas muertes fueran accidentales. Esta fue la interpretación que hizo el pediatra Sir Roy Meadow, ignorando que pudiera existir una correlación entre ambos sucesos, en cuyo caso cambiaría drásticamente la probabilidad de ocurrencia de muerte súbita.  Como consecuencia de su erróneo razonamiento, Roy Meadow fue eliminado del registro británico de médicos.

De hecho, el pediatra no conocía que, si existe algún defecto genético, la probabilidad de muerte súbita del segundo hermano habiendo sucedido la del primero, era  aproximadamente de 1 entre 100, por lo que la probabilidad de muerte súbita de los dos bebés era de 1/85000, es decir 86 veces superior a la inicialmente estimada. Esta estimación se debió a Ray Hill, un estadístico de la Universidad de Salford. Ray Hill concluyó que la probabilidad de dos muertes súbitas seguidas era entre 4,5 y 9 veces más probable que dos infanticidios seguidos.

El caso de Sally Clark no fue el único. Angela Cannings fue encausada por la muerte de dos de sus hijos, de los tres que habían fallecido por muerte súbita. En su juicio, no se utilizó explícitamente el razonamiento estadístico, aunque sí se dijo que la muerte súbita de los tres niños era muy muy rara. Afortunadamente, Angela también fue liberada en 2003 gracias a la investigación que se hizo de varias muertes súbitas acaecidas con sus mismas bisabuelas paternas y maternas.

Trupti Patel, una farmacéutica de origen paquistaní, fue igualmente condenada por la muerte de tres de sus hijos, cuando en realidad habían fallecido por muerte súbita.

Una muerte súbita es 17 veces más frecuente que un asesinato. Dos muertes súbitas son 9 veces más probables que dos asesinatos y tres muertes súbitas suceden solamente dos veces más que tres asesinatos, pero eso no significa que necesariamente tres muertes súbitas sean asesinatos.

La probabilidad refleja un grado de creencia de la ocurrencia de un suceso y, por pequeña que sea, siempre ha de tenerse en cuenta. Es ahí donde radica la calidad de un razonamiento científico.

Esta entrada ha sido elaborada por Ana Fernández Militino, catedrática del Departamento de Estadística, Informática y Matemáticas e investigadora del Instituto de Materiales Avanzados (InaMat) de la Universidad Pública de Navarra 

 

El trabajo forzado de cautivos en poder del Ejército sublevado durante la Guerra Civil y la posguerra

Los batallones de trabajos forzados organizados por los sublevados en la Guerra Civil y la posguerra se convirtieron en el mayor sistema de trabajos en cautividad de la España contemporánea. Nacieron como un modo de derivar parte del ingente número de prisioneros que desbordaban los depósitos y campos de concentración, y llegaron a incorporar a decenas de miles de personas (en 1939, estuvieron cerca de alcanzar los 100.000). Entre ellos, no solo hubo prisioneros de la Guerra Civil, sino que, una vez terminada la contienda, también se explotó de esta forma a jóvenes que debían realizar el servicio militar y fueron clasificados como “desafectos” al nuevo régimen y a parte de los sancionados por la Fiscalía de Tasas, que perseguía el estraperlo.

El origen del trabajo forzado en el sistema de campos de concentración se sitúa en 1937 con la creación de su principal institución impulsora: la Inspección de Campos de Concentración de Prisioneros de Guerra y fue progresivamente desapareciendo durante la primera mitad de la década de los 40.

Los trabajos forzados iban orientados, en unos casos, a las necesidades logísticas estrictamente bélicas (fortificaciones, apertura de trincheras, recuperación de material, intendencia…); en otros casos, cumplían necesidades militares (carreteras, puentes…) y, una vez acabada la guerra, quedaron para uso civil o directamente fueron “trabajos civiles” (labores agrícolas, repoblaciones, pantanos…).

El Estado fue el gran beneficiado de este sistema de trabajo, dado que el Ejército fue uno de los grandes empleadores, seguido de las autoridades civiles y, en menor medida, las empresas, eclesiásticos y particulares. Al tratarse de un recurso limitado, no se prestaba de forma ligera, ni mucho menos gratuita, y correspondía a Francisco Franco, desde el Cuartel General del Generalísimo, la decisión última sobre dónde serían empleados los cautivos y bajo qué condiciones. Las autoridades civiles, particulares, empresas y eclesiásticos debían pagar al Estado por el uso de los cautivos, además de darles techo y vigilarlos. No obstante, se beneficiaban porque obtenían mano de obra (entonces escasa) más barata, experimentada, disciplinada y profesionales con oficio.

Aunque queda pendiente el reto de conocer el número total de personas afectadas por el sistema de trabajos forzados, se ha podido contabilizar los volúmenes mensuales de mano de obra entre 1937 y 1945. Así, a comienzos de 1939, cerca de 250.000 cautivos estaban encerrados en campos de concentración (100.000 de ellos, derivados al trabajo forzado). El número de cautivos trabajadores no descendió de los 30.000 hasta 1942 y se mantuvo en cifras cercanas a los 50.000 hasta esa fecha. Hubo, al menos, 291 batallones de trabajo forzado, a los que se suman decenas de unidades que, sin la estructura de batallón, cumplieron funciones muy diversas durante la guerra, a disposición de los diferentes cuerpos del Ejército, regimientos, comandancias militares y otras entidades castrenses, así como fábricas militares y militarizadas.

Ha quedado un recuerdo de la experiencia subjetiva del trabajo forzado a través de las memorias y autobiografías de quienes experimentaron este tipo de explotación. Existen testimonios sobre la corrupción, los castigos físicos y psicológicos, las relaciones con la población civil y la situación de los cautivos, obligados a trabajar largas jornadas en condiciones climáticas y humanas que algunos ni siquiera habían vivido durante la guerra, en las que la humedad, el frío, los accidentes, las enfermedades o las agresiones físicas iban afectando a sus cuerpos.

 

Esta entrada ha sido elaborada por Juan Carlos García-Funes, licenciado en Historia, Máster en Historia Contemporánea y doctor por la UPNA con una tesis doctoral sobre los trabajos forzados durante la Guerra Civil y la posguerra españolas

Estadística y toma de decisiones en Economía

La Estadística tiene su origen en el desarrollo y uso de información numérica referida a los estados. De hecho, el término Estadística deriva de la palabra alemana “statistik”, que se utiliza para designar el análisis de datos estatales. Las principales decisiones de Política Económica (presupuestos, impuestos, pensiones…) se toman basándose en indicadores económicos que se han construido con información estadística.

Pensemos en dos de estos indicadores: el IPC (Índice de Precios de Consumo) y la tasa de paro. La evolución de estos indicadores se toma como referencia para disminuir la incertidumbre en la toma de decisiones de las autoridades públicas y de los principales agentes privados.

Por ejemplo, el índice de precios de consumo mide la evolución de los precios en un país o comunidad autónoma en un determinado periodo de tiempo. Para su elaboración, se observan las variaciones de precios de una serie de productos que constituyen la llamada “cesta de la compra”, que representa los hábitos de compra del consumidor promedio de ese país o comunidad. Su utilidad es indiscutible. Se emplea como referencia para fijar salarios en los convenios colectivos, para ajustar las pensiones públicas; para modificar los contratos de alquiler, etc.

El Instituto Nacional de Estadística informa de la tasa de variación mensual (variación de precios respecto al mes anterior) o la tasa interanual (variación de precios respecto del mismo mes un año antes). La primera tiene el inconveniente de que no informa de comportamientos estacionales, pudiendo dar a entender tendencias que no son tales, sino cambios puntuales debidos a la estacionalidad (por ejemplo, descenso de precios en el mes de enero, debido a las rebajas y no a una tendencia decreciente).

El índice interanual, por el contrario, refleja esa componente estacional, pero también oculta posibles cambios de tendencia que hayan sucedido durante el año. A veces, se interpreta de forma errónea y se considera que el IPC refleja la variación de precios que ha experimentado cada individuo en sus compras, cuando, en realidad, son valores promedio que tratan de representar el comportamiento conjunto, nunca individual. En el caso del IPC, cada uno de nosotros tenemos nuestra propia “cesta de la compra” y, si bien es cierto que hay  precios, como el de la gasolina, cuyas variaciones nos afectan a todos, también lo es que hay determinados bienes y servicios que nos afectan de distinta manera según sean las pautas de consumo que tengamos. Por ejemplo, las variaciones de precio de los servicios hoteleros solo afectarán a los individuos que utilicen esos servicios y soportarán una inflación distinta de aquellos que no los usan.

Respecto al otro indicador citado, la tasa de paro, se estima el número de parados como la diferencia entre la población activa (mayores de 16 años que trabajan o que buscan empleo) y la población ocupada (mayores de 16 años con empleo remunerado). En ocasiones, un aumento en el número de parados se interpreta como “destrucción de empleo” y, sin embargo, no tiene por qué ser así. El número de parados puede aumentar debido a un crecimiento de la población activa, a una disminución de la población ocupada o a ambas causas.

Las variaciones de este indicador son una referencia fundamental para la toma de decisiones de política económica, su aumento genera normalmente iniciativas ligadas a aumentar la inversión pública y favorecer el consumo privado para estimular la actividad e incrementar la producción. Se fomenta, también, el seguro de desempleo, para proteger a los ciudadanos que se han quedado sin trabajo.

En definitiva, el contar con estadísticas públicas fiables permite definir indicadores cuya evolución sirve como señal para intervenir en la economía. Los decisores públicos y privados, empresas y consumidores, los utilizan para tomar decisiones que afectan al conjunto de la sociedad. Saber interpretar correctamente los indicadores económicos es una tarea imprescindible para el buen gobierno de nuestra sociedad. La estadística afecta a nuestras vidas más de lo que podemos imaginar.

 

Esta entrada ha sido elaborada por Carmen García Olaverri, catedrática del Departamento de Estadística, Informática y Matemáticas e investigadora del Instituto INARBE (Institute for Advanced Research in Business and Economics) de la Universidad Pública de Navarra (UPNA)

Actuaciones para prevenir y afrontar agresiones al personal sanitario

La violencia contra el personal sanitario es una realidad de alta prevalencia y graves consecuencias psicológicas y laborales en los profesionales. El colectivo de enfermeras es uno de los que presenta mayores tasas de agresiones. Según la Organización Colegial de Enfermería, en España, en el transcurso de un año, el 33% de las enfermeras habían sufrido alguna agresión física o verbal. Además, la persona agresora era en el 49,8% de los casos un familiar o acompañante; en el 47,3%, el propio paciente, y en el 2,9%, otra persona. Si bien todas las categorías profesionales del sector salud están expuestas a la violencia laboral, las enfermeras y, concretamente, las que trabajan en servicios de emergencias, hospitales psiquiátricos, unidades de ancianos y centros de rehabilitación de adictos son quienes presentan mayor riesgo de sufrir agresiones.

Hay tres grupos de factores que facilitan o propician la violencia en el ámbito sanitario: los que dependen del propio paciente (carácter, alteraciones psicológicas o barreras comunicacionales); los que dependen del profesional sanitario, tanto por sus características personales (carácter, alteraciones y problemas, falta de habilidades, etc.) como por sus circunstancias laborales (estrés, insatisfacción o experiencias negativas previas); y los que dependen del entorno o contexto y que tienen que ver o bien con características organizativas (tiempos de espera, políticas y normas del centro, etc.), o bien con los recursos de los centros (disponibilidad de un médico, cantidad de personal en horarios de noche, fin de semana…).

Por ello, María Altemir, enfermera en el hospital de Barbastro y graduada en Enfermería por la Universidad Pública de Navarra, y quien esto suscribe hemos creado un protocolo de actuación para prevenir y afrontar agresiones al personal sanitario. Este protocolo es un instrumento de sencillo manejo para las personas que trabajan en el sector sanitario, de modo que pueda ser consultado y aplicado de manera ágil y sencilla.

A diferencia de otros protocolos existentes en nuestro país y que están orientados hacia cómo actuar cuando ya se ha sufrido la agresión, el protocolo que hemos diseñado establece, además, una serie de pautas que deberían ser tenidas en cuenta ante distintas situaciones de riesgo con los pacientes. Algunas de ellas ya se recogen en algunos de los dispositivos de salud en nuestro país, pero no habían sido presentados ni publicados en revistas científicas. En este caso, ha sido publicado en la revista “Enfermería Clínica”, revista de referencia en el sector sanitario.

Por un lado, se indican pautas preventivas, que ayuden a evitar conductas agresivas. Se incluyen aquí, entre otras, tanto pautas relacionadas con la organización de los servicios (evitar las salas de espera demasiado pequeñas o no acondicionadas, la acumulación de pacientes en los pasillos, las interrupciones en las consultas y los fallos burocráticos de horarios o trámites), como pautas para detectar la hostilidad (identificar señales como deambulación ansiosa, cambios bruscos de actividad, posturas y gestos, expresiones malsonantes, provocadoras o amenazantes, lenguaje no verbal, interrupciones al interlocutor, etc.).

Por otro lado, el protocolo propone distintas estrategias que puedan ayudar a abordar la conducta hostil y a controlarla, desde el punto de vista de la comunicación verbal y no verbal, y con estrategias de control (por ejemplo, colocarse fuera del espacio personal de la persona hostil, no dar la espalda o evitar la presencia de ‘espectadores’).

En cualquier caso, además de proporcionar y explicar este instrumento a los profesionales, resulta aconsejable que se lleven a cabo acciones formativas complementarias, incluyendo técnicas conductuales y de comunicación, en las que se explique y entrene en el manejo de las distintas estrategias que se exponen en dicho protocolo

 

Esta entrada ha sido realizada por Alfonso Arteaga Olleta, investigador y profesor del Departamento de Ciencias de la Salud de la Universidad Pública de Navarra

La ley de Benford en el manejo de datos estadísticos

La Estadística necesita de datos para obtener la información necesaria que permita construir hipótesis e inferir resultados para los problemas que pretenda analizar. Los datos son un elemento esencial en cualquier concepción estadística.

Dentro de esta necesidad de estructurar los datos, aparece la ley de Benford, que describe la distribución de los dígitos 1, 2, 3, …, 9 dentro de las cifras significativas (aquellas de más importancia dentro de un número, excluyendo los ceros) de una colección de datos numéricos. Esta ley fue inicialmente observada por el astrónomo y matemático canadiense Simon Newcomb en 1881, quien, manejando manuales que contenían tablas de logaritmos, observó que las páginas que contenían los números con primeras cifras 1 y 2 estaban mucho más manoseadas y eran más oscuras por el uso que aquellas con las primeras cifras 8 y 9. Esto indicaba que los manuales de tablas de logaritmos eran más empleados para números con cifras significativas pequeñas (1, 2 y 3) que para cifras significativas grandes (8 y 9).

En particular, se dio cuenta de que la observación de un primer dígito igual a 1 aparecía un 30% de las veces, mientras que la de que fuera un 9 sólo aparecía un 4,6%. Esta ley fue formalmente establecida en 1938 por el físico Frank Benford, a quien debe su nombre, ya que estuvo recogiendo datos durante varios semestres, y publicó en ese año un artículo en “Proceedings of the American Philosophical Society”, en el que, basándose en 20.229 observaciones de origen diverso (cuencas de ríos, estadísticas de la liga americana de béisbol, pesos atómicos de elementos…), mostró que esta ley se cumplía en una gran cantidad de conjuntos de datos.

En la Figura 1, se muestra una aplicación de la ley de Benford en la medición de la población de los países del mundo.

No sé conoce aún la razón precisa de por qué grandes cantidades de conjuntos de datos cumplen esta ley mientras otros no lo hacen. No obstante, se han observado algunas características que permiten delimitar la naturaleza de los conjuntos de datos que siguen la ley de Benford:

1. Datos provenientes de procesos de crecimiento exponencial. Estos datos suelen tener órdenes de magnitud muy diferentes (es decir, hay datos muy pequeños, junto con otros muy grandes: 0,005 y 10.000.000, por ejemplo), lo que suele ser un rasgo muy común de los conjuntos que siguen esta ley. Habitualmente, los conjuntos de datos que presentan valores acotados dentro de un rango (por ejemplo, poblaciones entre 1.000 y 5.000 habitantes) no suelen seguir la distribución de Benford.

2. Datos que presentan invariancia respecto a la escala. Esta situación se presenta cuando los conjuntos de datos incluyen tanto a los que se presentan en una unidad de medida como en otra. Es decir, da lo mismo expresar los datos en centímetros o en metros, por ejemplo, porque, en ambas situaciones, se cumple la ley de Benford.

De esta forma, una amplia variedad de conjuntos de datos siguen la ley de Benford: facturas de electricidad, direcciones de calles, precios de acciones en la bolsa, tamaños de poblaciones, ratios de defunciones, longitudes de ríos, constantes físicas y matemáticas, por nombrar algunos de ellos.

Por otra parte, la ley de Benford puede aplicarse en diferentes casos prácticos:

a. Detección de fraude contable. Dado que los datos contables siguen esta ley, cuando estos han sido manipulados, habitualmente se observa una mayor presencia de primeros dígitos con valores 8 y 9 que la proporción indicada por la distribución de Benford.

b. Análisis de resultados electorales. La ley de Benford sirvió como evidencia de fraude en las elecciones de Irán en 2009.

c. Control de datos macroeconómicos. Los datos macroeconómicos proporcionados por el Gobierno griego antes de ingresar en la Unión Europea en 1980 fueron considerados fraudulentos a causa de esta ley.

Finalmente, es importante señalar que la evidencia de que un conjunto de datos no siga la ley de Benford, cuando se esperaría que sí lo hiciera, debe hacerse siempre con la conveniente prudencia, fruto de la aplicación cuidadosa de la inferencia estadística, dado que los datos siempre muestran una realidad parcial de un fenómeno determinado.

 

Esta entrada ha sido elaborada por Javier Faulín Fajardo, catedrático del Departamento de Estadística, Informática y Matemáticas y secretario del Instituto de Smart Cities (ISC) de la Universidad Pública de Navarra (UPNA)

Hipatia de Alejandría, la primera científica de la historia

¿Qué nombre de científica importante destacarías de la historia? Casi todos responderíamos el mismo nombre: Marie Curie. Sin embargo, además de ella, ¿conoces alguna más? Es difícil recordar muchos más nombres de mujeres que hayan destacado en la ciencia y la tecnología, y, sin embargo, existen y han aportado muchas cosas importantes. Queremos conocerlas, queremos que las conozcáis y, por eso, les hemos dado vida en una obra de teatro.

En concreto, somos nueve profesoras e investigadoras de la Universidad Pública de Navarra (UPNA), y cada una de nosotras hemos elegido representar a una científica con la que nos sentimos identificada. Pero, además, para que podáis conocerlas más en profundidad, iniciamos, con esta entrada, una serie de breves biografías sobre las científicas a las que representamos, de tal modo que os podáis enamorar de ellas de la misma forma que lo hemos hecho nosotras.

Comenzaremos con la que se considera la primera científica de la historia: Hipatia de Alejandría, nacida aproximadamente en el siglo IV en dicha ciudad egipcia. Por aquel entonces, la metrópoli fundada por Alejandro Magno era la capital de Egipto y se la conocía por su museo, su enorme biblioteca y sus grandes templos. Fue precisamente en la biblioteca donde Hipatia pasó la mayor parte de sus horas, ya que su padre, Teón, trabajaba allí. Así, Hipatia, como muchos científicos de la época, se dedicó a ordenar y reescribir a mano las obras más importantes de la Antigüedad. Una reescritura que conllevaba mucho más que una simple copia: los copistas se dedicaban a hacer comentarios manuscritos al margen, que muchas veces suponían aportaciones originales.

Las mayores contribuciones de Hipatia, y gracias a las cuales se convirtió en una científica de renombre en la época, fueron en los ámbitos de las matemáticas y la astronomía. Destacan el Comentario de la “Aritmética” de Diofanto, que dio un impulso decisivo al álgebra con la creación de unos signos matemáticos que simplificaban y agilizaban sus operaciones; las aportaciones al trabajo de Apolonio de Pérgamo, introductor de la geometría de las figuras cónicas, crucial para el posicionamiento de los cuerpos celestes; y la contribución, junto con su padre, a los trece libros de Comentarios del Almagesto, donde se recoge el estudio de la obra de Ptolomeo, primer tratado matemático que dio una explicación completa, detallada y cuantitativa de todos los movimientos celestes. Los comentarios de esta última obra se cree, además, que influenciaron en la revolución copernicana, uno de los momentos cruciales en el desarrollo del heliocentrismo.

Aparte de los comentarios a importantes obras, Hipatia tuvo tiempo para más. Así, sabemos, a través de los escritos de sus discípulos, que confeccionó un planisferio celeste gracias a un astrolabio que desarrolló ella misma, y también inventó un hidroscopio para pesar líquidos. Pero no sólo eso: Hipatia también invertía parte de su tiempo en impartir clases. Unas clases que se pueden definir como poco convencionales. No eran como las actuales, sino que se trataba de diálogos en los que ella discutía con los alumnos sobre filosofía, matemáticas, astronomía, ética o religión. En estas clases, se trasmitía la doctrina neoplatónica, influenciada, a su vez, por los pitagóricos, por lo que se apoyaba la igualdad de género y se fomentaba la educación de todas las personas, independientemente de su cultura, clase social o género. Este hecho atraía a intelectuales de diferentes partes del mundo, quienes acudían a la ciudad para formarse sobre las diferentes concepciones filosóficas y científicas.

De esta manera, a pesar de que, por la época en la que vivió, en su historia se mezclan la realidad y la leyenda, podemos afirmar que Hipatia fue una matemática, filósofa y astrónoma que, gracias a su constancia y trabajo, se convirtió en una de las mejores científicas de la época. De hecho, son muchas las fuentes que señalan que Hipatia destacó por encima de su padre y otros científicos de la época no sólo en talento, sino también en logros científicos. Consiguió un renombre y una influencia tal que se cree que fue la razón de su desgraciado asesinato ya en el siglo V.

Para finalizar, dejamos al lector con una reflexión que se atribuye a esta científica: “Conserva tu derecho a reflexionar, porque incluso el hecho de pensar erróneamente es mejor que no pensar en absoluto”.

 

Esta entrada ha sido elaborada por Leyre Catalán Ros, investigadora del Departamento de Ingeniería y del Instituto de Smart Cities (ISC) de la Universidad Pública de Navarra (UPNA), presidenta de la Asociación para la Promoción de las Energías Renovables en Navarra (APERNA) y actriz de la obra de teatro “Yo quiero ser científica”, en la que interpreta a Hipatia de Alejandría

 

Nota: el blog Mujeres con ciencia, impulsado por la Cátedra de Cultura Científica de la Universidad del País Vasco (UPV/EHU) y editado por la profesora de esta institución Marta Macho Stadler, repasa periódicamente vidas, obras y reflexiones de diversas mujeres científicas, actuales e históricas