Inferencia estadística: del indicio a la evidencia

Seguro que el lector se habrá formulado alguna vez una pregunta de este tipo: “¿Cómo es posible que se afirme que el 27% están preocupados por determinado tema de actualidad o que las noticias de una cadena de televisión han sido las más vistas el mes pasado, cuando a mí no me han consultado, ni tampoco a mis familiares, ni amigos?

 

Es también seguro que el lector conoce que esos resultados se obtienen a través de muestras representativas de toda la población. Los datos que conocemos por los medios de comunicación son los resultados obtenidos en la muestra.

Para extender los resultados de la muestra a toda la población, se realiza un proceso, que en estadística se denomina inferencia, que da como resultado un intervalo de valores numéricos, dotado de un grado de confianza que representa la seguridad o fiabilidad que ese intervalo nos inspira. Su fundamento matemático está en el cálculo de probabilidades. Por ejemplo, si en la muestra hay un 27% de personas preocupadas por el tema en cuestión, podemos obtener que, en la población, el porcentaje estará comprendido entre un 25,5% y un 28,5% con un grado de confianza del 95%. El tamaño de la muestra es esencial para obtener intervalos de pequeña amplitud, es decir, muy informativos o concretos, y con un grado de confianza alto, muy fiables.

Un dato que puede resultar curioso es que el tamaño de la muestra que nos garantice determinadas buenas cualidades, en cuanto a grado de confianza y concreción, no es directamente proporcional al tamaño de la población. Por ejemplo, para dos poblaciones grandes, una de un millón y otra de veinte millones de habitantes, el tamaño de la muestra necesario para garantizar un grado de confianza del 95% y una amplitud del intervalo no superior al 3% (para estimación de porcentajes) es prácticamente el mismo: bastarían 4.300 personas en ambos casos.

Otra parte importante de la inferencia estadística es la enfocada a contrastar hipótesis. Una hipótesis es una afirmación de ámbito poblacional. Por ejemplo: “El porcentaje de trabajadores eventuales es el mismo en hombres y en mujeres”. Esta hipótesis puede ser rechazada (invalidada estadísticamente) si los resultados muestrales marcan suficientes diferencias entre los porcentajes de hombres y mujeres eventuales. Resultados muestrales distintos en hombres y mujeres pueden ser un indicio de que la hipótesis no es cierta y, una vez realizado el proceso de contraste, el indicio se ha podido convertir en una evidencia o quedarse en mero indicio. De nuevo, será el cálculo de probabilidades el que sea capaz de aportar un grado de verosimilitud a la hipótesis planteada.

Para hacernos una idea intuitiva de cómo el cálculo de probabilidades nos ayuda a tomar decisiones sobre hipótesis concretas, consideremos el siguiente ejemplo: nos dicen que, en una caja opaca, hay 19 bolas blancas y una negra. Nos permiten sacar una bola al azar y, después de verla, la devolvemos a la caja y hacemos una nueva extracción.

Supongamos que, en cinco extracciones consecutivas, nos hubiera salido siempre negra. Exclamaríamos: “¡No me creo que la caja tenga 19 blancas y una negra!”. Pese a que es posible, ya que la bola negra siempre está presente cuando realizo la extracción, es altamente improbable (una posibilidad entre 3.200.000) y, por eso, decido rechazar que la composición de la caja sea de 19 blancas y una negra. La decisión que se adopta en un contraste lleva implícita la probabilidad de cometer errores como rechazar la hipótesis siendo cierta o no rechazarla siendo falsa. No obstante, con un tamaño muestral suficiente, esas probabilidades son muy pequeñas.

 

Posibilidad de sacar una bola negra entre 19 blancas de una a cinco veces.

 

Así pues, la inferencia estadística nos permite tener un conocimiento preciso de la población, sin necesidad de realizar un estudio exhaustivo caso por caso.

 

Esta entrada ha sido elaborada por Sagrario Gómez Elvira, profesora jubilada de Estadística e Investigación Operativa de la Universidad Pública de Navarra (UPNA)

Florence Nightingale, pionera en el desarrollo de técnicas estadísticas

El origen de la Estadística está  ligado a los primeros esfuerzos administrativos al servicio de un Estado (de ahí, su nombre) por inventariar su población, riqueza o sus movimientos comerciales. A mediados del siglo XIX, se produce un desarrollo de la estadística debido a la sistematización de la recogida de datos por parte de los Estados modernos y a su aplicación en otros campos.

Florence Nightingale es, sobre todo, recordada como la mujer pionera en los métodos de la enfermería moderna, pero quizá sea más desconocido su innovador uso para la época  de técnicas estadísticas en sanidad, mostrando cómo un fenómeno social puede ser analizado matemáticamente mediante medidas objetivas.

Nació en 1820 en el seno de una familia acomodada de la Inglaterra Victoriana. Tuvo el privilegio de aprender latín, griego, historia, filosofía y matemáticas de la mano de su padre. Florence mostró especial interés en matemáticas y logro convencer a sus padres para disfrutar de tutores en la materia. Siempre le guió su amor por el razonamiento, basado en el cuestionamiento y en un cuidadoso proceso para obtener conclusiones. En 1850, viajó a Alemania para formarse como enfermera en un hospital-orfanato. Completó su instrucción en Gran Bretaña y Europa, donde recabó informes y publicaciones sobre la sanidad pública, lo que pone en evidencia el espíritu analítico, más allá del meramente instructivo, con que se enfrentaba a su formación.

En 1854, estalló la Guerra de Crimea. Las noticias del frente sobre el estado de los soldados conmovieron a la opinión publica, lo que llevó al Secretario de Estado para la Guerra a nombrar a Florence como oficial del Ejército, algo inaudito para una mujer, con el fin de formar un equipo de enfermeras y acudir al hospital de campaña en Escutari (Turquía). A su llegada, encontraron unas condiciones alarmantes: los soldados heridos yacían en habitaciones sin ventilación, con sábanas y uniformes sucios y mal alimentados. No resulta extraño que el tifus, la disentería y el cólera fueran tres principales causas de muerte. Con gran habilidad, para no ganarse la antipatía de los oficiales médicos, pronto logró instalar una lavandería y mejoras en la alimentación y en la higiene de las salas.

Durante este tiempo, Florence recogió datos y sistematizó un control de registros. Con sus métodos innovadores de recolección, tabulación y presentación, mostró como la estadística proporciona un marco para comprender la realidad y proponer mejoras. Elaboró numerosos informes e ideó un gráfico (el de áreas polares) para presentar sus estadísticas sobre causas de mortalidad. En él, se muestra el círculo dividido en doce sectores (uno por cada mes), cuya área varía, según el número de soldados caídos, en tres colores: el rojo, para los caídos por heridas de guerra; el azul, por enfermedades infecciosas; y el negro, por otras causas. El gráfico evidencia que la principal causa de muerte eran las enfermedades infecciosas y que la mejora de las condiciones en el hospital reducía mucho el número de muertes.

Sus  gráficos fueron tan convincentes que llevaron al Parlamento, a la Reina Victoria y a las autoridades militares a formar en 1858 una Real Comisión que estudiara la tasa de mortalidad, en guerra y en paz, del Ejército, semilla de la futura Universidad Médica Militar. Uno de los muchos frutos de la Real Comisión fue la reorganización de las estadísticas del Ejército, que fueron reconocidas como las mejores de Europa.

Florence continuó aplicando técnicas estadísticas para hospitales civiles; desarrolló un modelo de formulario estadístico para los hospitales con el fin de  recoger y generar datos y estadísticas consistentes. También recogió estadísticas sobre la sanidad en la India y en las escuelas en las colonias.

Trabajó en la oficina de Guerra Británica para asesorar sobre cuidados médicos del Ejército en Canadá. Sus métodos incluyeron, por ejemplo, el tiempo medio requerido para el transporte de heridos en trineo en las inmensas distancias del citado país norteamericano. También durante la Guerra Civil Americana , fue asesora del Gobierno de los Estados Unidos para la sanidad del Ejército.

Por sus aportaciones estadísticas, fue nombrada en 1860 primera mujer miembro de la Real Sociedad de Estadística Británica y, posteriormente, Miembro Honorífico de la Sociedad Estadística Americana.

 

Esta entrada ha sido elaborada por Henar Urmeneta Martín-Calero, profesora del Departamento de Estadística, Informática y Matemáticas de la Universidad Pública de Navarra (UPNA), donde forma parte del Grupo de Investigación q-UPHS (siglas en inglés de Métodos Cuantitativos para Mejorar el Rendimiento de los Servicios de Salud)

Cómo profundizar en los resultados de las estadísticas

Hoy en día, la encuesta es una fuente habitual de información, pero es frecuente que, ante una misma encuesta, diferentes medios de comunicación publiquen resultados con titulares que parecen contradictorios, lo que produce desconfianza en las encuestas. Las estadísticas se suelen presentar en tablas que recogen el número o el porcentaje de personas que responden de una u otra forma a distintas preguntas. A veces, las tablas contienen numerosos datos que es necesario observar en su contexto y resulta difícil sacar conclusiones de la simple observación de los datos. De ahí que dos periodistas resalten conclusiones o pongan titulares diferentes. Sin embargo, la estadística dispone de poderosas herramientas que permiten analizar estas tablas en su conjunto y obtener, de forma automática, resultados gráficos que resaltan lo más destacable, teniendo en cuenta todos los datos y sin que intervenga en el análisis la subjetividad de cada persona que le hace fijarse más en unos datos que en otros.

Para ilustrar esta facultad de las técnicas estadísticas, analizamos una pregunta de una encuesta realizada por el Centro de Investigaciones Sociológicas (CIS), un organismo autónomo dependiente del Ministerio de la de la Presidencia que realiza periódicamente estudios en la población española con objetivo medir el estado de la opinión pública; son los denominados barómetros de opinión. Estos estudios se hacen a través de entrevistas realizadas a unas 2.500 personas elegidas al azar y representativas de la población española. Están representadas todas las comunidades autónomas, tanto las ciudades grandes como las localidades pequeñas o medianas y personas de todos los niveles de edad y género.

En este caso, nos ha interesado el barómetro publicado en enero de 2013 que trata de recoger la opinión de los españoles sobre diversas cuestiones relacionadas con aspectos políticos. Nos centraremos en la pregunta siguiente: en política, normalmente se habla de “ser de derechas” y “ser de izquierdas”; voy a leerle una serie de palabras y quisiera que me dijera, con respecto a cada una de ellas, si las identifica Ud. más con “ser de derechas” o con “ser de izquierdas”.

El CIS pública una tabla de resultados en la que se recogen, para cada palabra, el porcentaje de personas que lo identifican con “ser más de izquierdas”, “ser más de derechas”, “ambas”, “ninguna”, “no sabe” y “no contesta”. Incluye el número de encuestados. Un análisis estadístico considera todos los aspectos y obtiene el gráfico adjunto en el que, con ayuda de unos indicadores de calidad, se puede ver cómo, en opinión de los encuestados, se asocian las diferentes palabras o valores con las ideologías políticas.  El eje horizontal es el más importante. Podemos ver que, en un extremo, aparecen próximos “ser de derechas” y valores como tradición y orden, que son las palabras que los encuestados identifican más con esta ideología. En el lado izquierdo, tolerancia, solidaridad, igualdad y derechos humanos se identifican más con “ser de izquierdas”.

La honradez y la eficacia aparecen en la parte inferior, próximas a ninguna. Estas dos características no se asocian ni con “ser de izquierdas”, “ni de derechas”, sino con la respuesta “ninguna”. Ahora bien, la honradez está situada más a la izquierda, es decir, más próxima a “ser de izquierdas”. Esto significa que  la mayoría de los encuestados han escogido la respuesta “ninguna” asociada a honradez, pero un segundo gran grupo de encuestados ha elegido “ser de izquierdas”. Análogamente sucedería en el caso de la eficacia y “ser de derechas”.

El idealismo aparece en la parte superior izquierda, pero más desplazada que otras palabras hacia la derecha, lo que indica que se ha asociado principalmente con “ser de izquierdas”, pero también hay un número importante de personas que lo han asociado con “ser de derechas”.

La situación de “ambas”, próxima al centro, significa que, para todas las palabras, ha habido una respuesta semejante.  No se puede asociar a progreso por estar en el centro del gráfico.

El estudio se podría repetir para grupos de encuestados. Por ejemplo, uno para los que declaran ser de izquierdas y otro para los que se declaran ser de derechas y comparar los resultados.

 

Esta entrada ha sido elaborada por Elena Abascal Fernández, profesora del Departamento de Estadística, Informática y Matemáticas de la Universidad Pública

Ensayos clínicos, experimentos estadísticos

Las autoridades que controlan la distribución de los medicamentos deben estar convencidas de su calidad antes de autorizarlos. ¿Qué procedimientos científicos permiten asegurar que un medicamento es eficaz y que no va a producir efectos secundarios graves?

La legislación europea, mucho antes de que cualquier medicamento llegue a las farmacias, obliga a que un equipo de profesionales conteste a esa misma pregunta mediante un procedimiento bien regulado. Tras los obligados ensayos de laboratorio y preclínicos (en animales), este procedimiento contempla la realización de ensayos clínicos que, en el caso de medicamentos, son estudios realizados con seres humanos para determinar o confirmar su eficacia y su no toxicidad. El manual de buena práctica clínica prevé un plan estadístico para realizar el ensayo.

El ensayo que responde a la pregunta «¿Son los genéricos tan eficaces y seguros como los medicamentos de marca?» es un ejemplo paradigmático de experimento estadístico en ciencias de la salud.

En primer lugar, para realizar el ensayo, se toma un grupo de pacientes (muestra) y se asigna a una parte de ellos el medicamento de marca y a la otra parte, el genérico. El investigador observa las respuestas de los pacientes, por ejemplo, si se curan o el grado de mejoría en su enfermedad. Tengamos en cuenta que, ante una misma dosis de medicamento, las respuestas de los pacientes pueden resultar muy distintas o, como preferimos decir en estadística, dispersas o variables. Los procedimientos estadísticos permiten analizar esa variabilidad.

Después, el investigador compara los resultados obtenidos en la muestra con ambos medicamentos y llega a una conclusión sobre si son igualmente efectivos y seguros. Esta conclusión afecta a todos los pacientes, hayan participado o no en el experimento, ya que, si la Agencia Española de Medicamentos y Productos Sanitarios considera que el ensayo se ha realizado adecuadamente, la conclusión obtenida permitirá o no la comercialización del medicamento.

El procedimiento mediante el que se extienden las conclusiones procedentes de la muestra a todos los pacientes se denomina inferencia estadística. Pero hay un elemento más en los ensayos clínicos que los hace peculiares dentro de la estadística: la ética.

Antes de la Segunda Guerra Mundial, los medicamentos se consideraban buenos o malos según el dictamen realizado por un médico con prestigio entre sus colegas. Pero este procedimiento dejaba mucho espacio a la subjetividad. Además, las aberraciones realizadas por los nazis durante la contienda bélica en las investigaciones clínicas fueron desencadenantes de un acuerdo por el que, por encima del beneficio científico, estuviera la dignidad y el bienestar de los sujetos con los que se experimenta. Este acuerdo se plasmó en la denominada Declaración de Helsinki de la Asociación Médica Mundial en 1964. A ella queda sujeta, también por ley, la experimentación clínica mundial.

Las consideraciones éticas requieren que sea el paciente quien decida su participación en el ensayo tras ser informado de los posibles riesgos. También exigen que pueda abandonarlo en cualquier momento. Por otra parte, el equipo clínico debe valorar la aceptación o no de un paciente en el ensayo. Como consecuencia, la muestra no se escoge al azar entre todos los pacientes y esto conlleva cambios en los procedimientos estadísticos clásicos cuyo estudio constituye un campo amplio y muy actual de investigación.

En conclusión, los ensayos clínicos son, en gran medida, experimentos estadísticos de gran trascendencia por sus implicaciones en la salud. Las agencias estatales, mediante protocolos muy exigentes, vigilan las buenas prácticas clínicas entre las que se encuentran el plan estadístico y la supervisión de un comité ético. Es importante disponer de buenas técnicas estadísticas para que los ensayos clínicos consigan sus objetivos con más eficiencia, en menos tiempo y reduciendo en lo posible los riesgos para las personas que participan en ellos.

 

Esta entrada ha sido elaborada por José Antonio Moler Cuiral, profesor del Departamento de Estadística, Informática y Matemáticas e investigador en el Instituto de Smart Cities (ISC) de la Universidad Pública de Navarra (UPNA), y Fernando Plo Alastrué, profesor del Departamento de Métodos Estadísticos de la Universidad de Zaragoza

 

Estadística en ingeniería: calidad y fiabilidad

El adagio “Lo que no se mide, no se conoce y no se puede mejorar” tiene plena vigencia en el ámbito de la calidad de los productos y servicios que, en la actualidad, son producidos y prestados por industrias, empresas y administraciones.  ¿Cómo gestionar y tomar las decisiones más adecuadas para una organización sin saber cómo evolucionan medidas e indicadores claves? El instinto y la experiencia, aun siendo cualidades útiles en la toma de decisiones,  son garantía, por sí solos, para la perpetuación de los mismos errores.

Hasta comienzos del siglo XX, la calidad dependía de los esfuerzos individuales de los artesanos. A partir de la organización de la producción en pequeñas tareas y la producción masiva, surge la preocupación por la calidad. Uno de las primeras aplicaciones de la estadística al control de calidad tuvo lugar en el contexto de la competencia entre dos marcas de cerveza: Ginnes y Carling. Afortunadamente para la primera, entre sus trabajadores dedicados a la mejora de la calidad se encontraba William Gosset. Sus trabajos no sólo fueron importantes para prolongar la frescura de la cerveza, sino que sirvieron para que, en 1908, introdujera la distribución t y el test t-student para el análisis estadístico de muestras pequeñas, una de las contribuciones más destacadas a la estadística en el siglo XX.

Al mismo tiempo, compañías como Ford y AT&T en Estados Unidos implementaron acciones para un control sistemático de la calidad.  El desarrollo de métodos estadísticos y su aplicación a la mejora de la calidad continuó ligada al estudio de situaciones reales. Así, por ejemplo,  Walter Shewhart, empleado de la compañía telefónica Bell,  diseña y aplica en 1924 los conocidos gráficos de control.

Todo producto (o servicio) posee un número de características que describen lo que un cliente o usuario considera como calidad. Un fabricante de electrodomésticos exigirá a su proveedor de láminas metálicas que estas posean un determinado grosor, resistencia, etc. Las unidades suministradas cumpliendo con estas especificaciones serán consideradas de calidad, mientras que aquellas que se alejen podrán llegar a ser descartadas. De este modo, la calidad de un producto se medirá como la adecuación de este con las especificaciones.

Una de las razones que dificulta proporcionar un producto o servicio de calidad es la variabilidad en los productos. Difícilmente dos productos, o servicios, son completamente idénticos. Debido a que el estudio de la variabilidad desde un punto científico corresponde a la estadística, esta juega un papel preponderante en la evaluación y en la mejora de la calidad. Se puede afirmar que la variabilidad es el principal enemigo de la calidad. Esta máxima rige la metodología para gestionar la calidad 6 sigma, que propugna una toma de decisiones basada en hechos y datos.

Un aspecto estrechamente relacionado con la calidad es la fiabilidad, que se puede definir como la calidad mantenida a lo largo del tiempo y se mide como una probabilidad. La fiabilidad del producto o servicio tiene una importancia vital y puede conferir una ventaja competitiva decisiva para la empresa. Un análisis riguroso de fiabilidad es imprescindible para el establecimiento de periodos de garantía de los productos y servicios. Los análisis de fiabilidad son tan importantes que, en ocasiones, han preocupado a dirigentes políticos y a la opinión pública en general.  Es el caso de los accidentes de los transbordadores espaciales Columbia y Challenger, que fueron estudiados por comisiones de investigación (¡de las de verdad!) y cuyos resultados provocaron cambios en la gestión de la fiabilidad y calidad de las misiones espaciales y, en general, de los programas espaciales de la NASA.

Por último, echemos un vistazo al futuro del control de calidad y, por extensión, al seguimiento y mejora de procesos. El uso creciente de nuevas tecnologías posibilita la recogida de datos en tiempo real y de un modo continuo. La ingente cantidad de datos generados requiere de nuevas metodologías y procedimientos estadísticos para ser tratados computacionalmente con eficacia. Sin duda, la edad de oro para la estadística ya ha comenzado.

 

Esta entrada ha sido elaborada por Fermín Mallor Giménez, catedrático de Estadística e Investigación Operativa del Departamento de Estadística, Informática y Matemáticas de la Universidad Pública de Navarra (UPNA) e investigador del Instituto de Smart Cities (ISC)

Probabilidad y el triste caso de Sally Clark

El 15 de marzo de 2007 murió Sally Clark, natural de Cheshire y abogada de 42 años, por un fallo cardíaco provocado por una excesiva ingesta de alcohol, después de haber sido acusada erróneamente de matar a sus dos hijos: Harry, de 8 semanas (muerto en 1988) y Christopher, de 11 semanas  de edad (muerto en 1996). Habían pasado cuatro años desde que fuera acusada de asesinato por asfixia de sus dos hijos. Fue juzgada en Inglaterra el 9 de noviembre de 1999.

En realidad, se trataba de la muerte súbita de dos bebés en una misma familia, situación calificada de altamente improbable por el tribunal de Chester que la juzgó a cadena perpetua con ocho votos a favor y dos en contra, ya que interpretó que, si la muerte súbita de un bebé es de 1/8543, la de dos bebés es 1/8543*1/8543 es decir de 1 entre 73 millones.  En aquella época, el número de nacimientos en Inglaterra, Gales y Escocia era de 700.000 nacimientos al año, por lo que la probabilidad de ocurrencia por azar de este suceso era de 1 cada 100 años.

Tres años después, fue puesta en libertad al revocarse la sentencia, que fue calificada de uno de los mayores errores judiciales de la historia moderna de Gran Bretaña. Era el error denominado como «prosecutor fallacy», es decir, el error probabilístico cometido en los juzgados por un falso razonamiento científico. En octubre de 2001, la Real  Sociedad Estadística Británica expresó públicamente su preocupación por el mal uso de la estadística en los juzgados. En enero de 2002, su presidente escribió a Lord Chancellor, ministro de la Corona, comunicándole su interés en replantear el uso adecuado de la evidencia estadística en el sistema judicial. Como consecuencia de ello, se revisó el caso.

Estudios posteriores pusieron en evidencia que la muerte del primer hijo de Sally fue provocada por una infección respiratoria y que la muerte de su segundo hijo se debió a una infección bacteriana. Pero para Sally fue demasiado tarde. Había pasado tres años en prisión. El error judicial consistió en interpretar que la muerte súbita de un bebé nada tenía que ver con la de su hermano, aunque fuese de la misma familia. Es decir, se interpretaron ambos sucesos como independientes, lo que llevó a pensar que era prácticamente imposible que ambas muertes fueran accidentales. Esta fue la interpretación que hizo el pediatra Sir Roy Meadow, ignorando que pudiera existir una correlación entre ambos sucesos, en cuyo caso cambiaría drásticamente la probabilidad de ocurrencia de muerte súbita.  Como consecuencia de su erróneo razonamiento, Roy Meadow fue eliminado del registro británico de médicos.

De hecho, el pediatra no conocía que, si existe algún defecto genético, la probabilidad de muerte súbita del segundo hermano habiendo sucedido la del primero, era  aproximadamente de 1 entre 100, por lo que la probabilidad de muerte súbita de los dos bebés era de 1/85000, es decir 86 veces superior a la inicialmente estimada. Esta estimación se debió a Ray Hill, un estadístico de la Universidad de Salford. Ray Hill concluyó que la probabilidad de dos muertes súbitas seguidas era entre 4,5 y 9 veces más probable que dos infanticidios seguidos.

El caso de Sally Clark no fue el único. Angela Cannings fue encausada por la muerte de dos de sus hijos, de los tres que habían fallecido por muerte súbita. En su juicio, no se utilizó explícitamente el razonamiento estadístico, aunque sí se dijo que la muerte súbita de los tres niños era muy muy rara. Afortunadamente, Angela también fue liberada en 2003 gracias a la investigación que se hizo de varias muertes súbitas acaecidas con sus mismas bisabuelas paternas y maternas.

Trupti Patel, una farmacéutica de origen paquistaní, fue igualmente condenada por la muerte de tres de sus hijos, cuando en realidad habían fallecido por muerte súbita.

Una muerte súbita es 17 veces más frecuente que un asesinato. Dos muertes súbitas son 9 veces más probables que dos asesinatos y tres muertes súbitas suceden solamente dos veces más que tres asesinatos, pero eso no significa que necesariamente tres muertes súbitas sean asesinatos.

La probabilidad refleja un grado de creencia de la ocurrencia de un suceso y, por pequeña que sea, siempre ha de tenerse en cuenta. Es ahí donde radica la calidad de un razonamiento científico.

Esta entrada ha sido elaborada por Ana Fernández Militino, catedrática del Departamento de Estadística, Informática y Matemáticas e investigadora del Instituto de Materiales Avanzados (InaMat) de la Universidad Pública de Navarra 

 

Buen uso y abuso de la media

Un chiste dice que, si una persona come dos pollos y otra, ninguno, la estadística considerará que, de media, cada uno ha comido un pollo. Otra versión afirma que, si pusiéramos la mitad del cuerpo en un horno a 50 grados y la otra mitad, en un frigorífico a cero, estadísticamente hablando, tendríamos el cuerpo a una media de 25 grados.  Dicho así, la estadística no parece una disciplina ni muy solidaria, ni muy sensata. En este breve artículo, queremos hacer ver a quien lo lea la falacia que estos chistes esconden y mostrarle de esta manera  las cautelas con las que hay que tratar cualquier valor medio.

La media es un valor que  resume un conjunto de datos. Por ejemplo, el Instituto Nacional de Estadística (INE) publicó los resultados definitivos de la encuesta de estructura salarial en España donde obtenía que el salario medio bruto anual por trabajador es de 22.790 euros. Para obtener este valor, se recopila información de los asalariados que trabajan a tiempo parcial y a tiempo completo, de los directivos y empleados, de mujeres y hombres, etc. En todos los casos, existe una notable diferencia de salarios según el colectivo escogido. Hay, por tanto, demasiada heterogeneidad en los salarios o, como se dice en estadística, variabilidad o dispersión. En consecuencia, el dato así presentado puede que dé la razón a la historieta de los pollos y muchos asalariados españoles no se sientan representados con la cifra del salario medio.

Por supuesto, la estadística dispone  de métodos para establecer la validez de los resúmenes que proporciona. Así, a la hora de interpretar una media, se acompaña de una medida de la dispersión de los datos respecto a la media. Cuando la dispersión es alta, la media es poco representativa y, por tanto, no se debería utilizar como resumen de los datos. ¿Cómo se mide la dispersión? Técnicamente, hay varias formas de hacerlo; destaca una medida llamada desviación típica. No entraremos en ella; simplemente, veremos dos situaciones extremas.  Por un lado, imaginemos que todos los  asalariados ganan lo mismo, 22.790 euros brutos anuales. Entonces, no hay dispersión; la desviación típica es cero, por lo que el valor medio da un resumen perfecto. Al contrario, imaginemos que la mitad de asalariados trabaja gratis y percibe cero euros al año, mientras que la otra mitad recibe justo el doble de 22.790 euros. La media sigue siendo la misma, pero la variabilidad es muy alta. En otras palabras, y trasladándolo al chiste, la mitad se come dos pollos y la otra mitad, ninguno.

En los dos chistes, se utilizan datos muy dispersos para calcular el valor medio, por lo que este no es válido como resumen representativo de los datos. En el caso de los salarios, también hay mucha dispersión. Basten tres datos, el salario de más de un tercio de los asalariados se aleja más de 9.000 euros del salario medio; la mitad de los asalariados, más de 6.000 euros, y el 75%, más de 3.000 euros. Para que se hagan una idea en términos más familiares de los tres datos anteriores, imagínense que, tras consultar en todas las tiendas, obtenemos que el precio medio de un producto es de 100 euros, pero el 35% de las tiendas lo tienen 40 euros más caro o más barato; que, en la mitad, la diferencia es de más de 25 euros y en el 75%, de más de 13 euros. ¿A que no daría igual comprar en una tienda que en otra?

En conclusión, un valor medio debe ir acompañado de una medida de la dispersión de los datos para poder conocer su representatividad. Cuando la dispersión es alta, una buena alternativa a la media es la mediana, que proporciona el valor por debajo del cual se encuentra la mitad de los individuos. En el caso de los salarios, la mediana es de 19.017 euros brutos anuales; es decir,  la mitad de los asalariados españoles gana menos de esa cantidad.

Esta entrada ha sido elaborada por José Antonio Moler Cuiral, profesor del Departamento de Estadística, Informática y Matemáticas de la UPNA e investigador en el Instituto de Smart Cities (ISC) de la institución académica

Estadística para la sociedad

Fermín Mallor Giménez, catedrático del Departamento de Estadística e Investigación Operativa de la Universidad Pública de Navarra (UPNA), donde es investigador del Instituto de Smart Cities (ISC), fue entrevistado hace unas semanas en la emisora de Onda Cero en Pamplona. Aquí tienes la entrevista completa.

En esta entrevista, este experto, que también es investigador del Instituto de Investigación Sanitaria de Navarra (IdiSNA), describió su trabajo de investigación, centrado en el análisis, la simulación y la optimización de sistemas complejos y sus aplicaciones a industria, energía y servicios.

La estadística y la matemática son herramientas que se utilizan para analizar los sistemas complejos. Estos se definen como aquellos que constan de diversos elementos relacionados entre sí, pero cuyas relaciones a veces no son bien comprendidas o producen resultados impredecibles para quien toma decisiones. Además, evolucionan en el tiempo de un modo cambiante y en contextos de incertidumbre donde no todos los factores del propio sistema y del entorno son conocidos.

Cualquier sistema real puede ser complejo. Por ejemplo, procesos de producción, sistemas de energías renovables o sistemas de salud lo son. Así, en el servicio de urgencias de un hospital, ningún día se sabe previamente el número de pacientes que van a llegar, con qué gravedad y patologías, qué medios se van a necesitar para atenderlos…

Gracias al análisis de estos sistemas complejos, el equipo de investigación dirigido por Fermín Mallor (DECYL-Datos, Estadística, Calidad y Logística) desarrolla herramientas cuantitativas de apoyo a la toma de decisiones. En el caso de Urgencias, por ejemplo, con técnicas estadísticas, se puede analizar cómo llegan esos pacientes. Es verdad que cada día son enfermos distintos, pero hay patrones repetitivos. Su equipo de investigación identifica el patrón de probabilidad con el fin de reproducirlo en un ordenador. Reproduce igualmente la atención que presta el personal sanitario, el flujo de los pacientes, los recursos utilizados… Y a partir de todo ello, se construyen modelos de simulación implementados en un ordenador, los cuales son útiles para determinar el efecto de cambios en el tamaño de la plantilla, en la afluencia de pacientes, en la disponibilidad de recursos, o para evaluar un nuevo modo de gestionar el servicio.

Cualquier decisión de mejora se puede probar con anticipación en un ordenador para conocer “a priori” sus consecuencias. Por ejemplo, cómo cambiaría la atención mediante la contratación de un médico más, o qué equipamiento sería más conveniente y dónde localizarlo… La finalidad de estos análisis: la mejora de los sistemas y su adecuación a las condiciones cambiantes. Se trata de buscar la calidad y la eficiencia de los sistemas: en otras palabras, hacer más y mejor con lo mismo, contribuyendo así a que el sistema sea sostenible.

El desarrollo de estas metodologías centradas en resolver problemas reales implica la utilización combinada de varias técnicas para para lograr una aproximación global a los problemas: el análisis de datos, la probabilidad, el modelado matemático, las técnicas clásicas de optimización, la inteligencia artificial, la simulación… Dichas metodologías son las que proporcionan el soporte para la toma de decisiones.

Dentro de un equipo multidisciplinar, los investigadores de la UPNA desarrollan técnicas y metodologías nuevas para analizar estos sistemas complejos en los contextos mencionados anteriormente. Actualmente, una de sus áreas prioritarias de trabajo es la sanitaria. De hecho, llevan varios años colaborando con el Complejo Hospitalario de Navarra (UCI, Servicio de Urgencias…). “Los sistemas de salud representan una oportunidad investigadora pues están inmersos en profundos cambios impulsados por la aplicación de las nuevas tecnologías y por la demanda creciente de una población cada vez más envejecida que requiere más y mejores servicios. La sostenibilidad de los servicios públicos va a depender del uso eficiente de los recursos asignados. En España, es escasa la aplicación del enfoque cuantitativo propuesto por nuestro grupo de investigación, aunque en países avanzados de nuestro entorno europeo sí lo es. Nuestro grupo se ha integrado en la comunidad científica europea con el fin de lograr nuestro empeño, que es introducir y desarrollar estas técnicas aquí para la mejora de nuestros servicios de salud”, asegura Fermín Mallor.

Este post ha sido editado por la Unidad de Cultura Científica (UCC) de la Universidad Pública de Navarra