Ensayos clínicos, experimentos estadísticos

Las autoridades que controlan la distribución de los medicamentos deben estar convencidas de su calidad antes de autorizarlos. ¿Qué procedimientos científicos permiten asegurar que un medicamento es eficaz y que no va a producir efectos secundarios graves?

La legislación europea, mucho antes de que cualquier medicamento llegue a las farmacias, obliga a que un equipo de profesionales conteste a esa misma pregunta mediante un procedimiento bien regulado. Tras los obligados ensayos de laboratorio y preclínicos (en animales), este procedimiento contempla la realización de ensayos clínicos que, en el caso de medicamentos, son estudios realizados con seres humanos para determinar o confirmar su eficacia y su no toxicidad. El manual de buena práctica clínica prevé un plan estadístico para realizar el ensayo.

El ensayo que responde a la pregunta “¿Son los genéricos tan eficaces y seguros como los medicamentos de marca?” es un ejemplo paradigmático de experimento estadístico en ciencias de la salud.

En primer lugar, para realizar el ensayo, se toma un grupo de pacientes (muestra) y se asigna a una parte de ellos el medicamento de marca y a la otra parte, el genérico. El investigador observa las respuestas de los pacientes, por ejemplo, si se curan o el grado de mejoría en su enfermedad. Tengamos en cuenta que, ante una misma dosis de medicamento, las respuestas de los pacientes pueden resultar muy distintas o, como preferimos decir en estadística, dispersas o variables. Los procedimientos estadísticos permiten analizar esa variabilidad.

Después, el investigador compara los resultados obtenidos en la muestra con ambos medicamentos y llega a una conclusión sobre si son igualmente efectivos y seguros. Esta conclusión afecta a todos los pacientes, hayan participado o no en el experimento, ya que, si la Agencia Española de Medicamentos y Productos Sanitarios considera que el ensayo se ha realizado adecuadamente, la conclusión obtenida permitirá o no la comercialización del medicamento.

El procedimiento mediante el que se extienden las conclusiones procedentes de la muestra a todos los pacientes se denomina inferencia estadística. Pero hay un elemento más en los ensayos clínicos que los hace peculiares dentro de la estadística: la ética.

Antes de la Segunda Guerra Mundial, los medicamentos se consideraban buenos o malos según el dictamen realizado por un médico con prestigio entre sus colegas. Pero este procedimiento dejaba mucho espacio a la subjetividad. Además, las aberraciones realizadas por los nazis durante la contienda bélica en las investigaciones clínicas fueron desencadenantes de un acuerdo por el que, por encima del beneficio científico, estuviera la dignidad y el bienestar de los sujetos con los que se experimenta. Este acuerdo se plasmó en la denominada Declaración de Helsinki de la Asociación Médica Mundial en 1964. A ella queda sujeta, también por ley, la experimentación clínica mundial.

Las consideraciones éticas requieren que sea el paciente quien decida su participación en el ensayo tras ser informado de los posibles riesgos. También exigen que pueda abandonarlo en cualquier momento. Por otra parte, el equipo clínico debe valorar la aceptación o no de un paciente en el ensayo. Como consecuencia, la muestra no se escoge al azar entre todos los pacientes y esto conlleva cambios en los procedimientos estadísticos clásicos cuyo estudio constituye un campo amplio y muy actual de investigación.

En conclusión, los ensayos clínicos son, en gran medida, experimentos estadísticos de gran trascendencia por sus implicaciones en la salud. Las agencias estatales, mediante protocolos muy exigentes, vigilan las buenas prácticas clínicas entre las que se encuentran el plan estadístico y la supervisión de un comité ético. Es importante disponer de buenas técnicas estadísticas para que los ensayos clínicos consigan sus objetivos con más eficiencia, en menos tiempo y reduciendo en lo posible los riesgos para las personas que participan en ellos.

 

Esta entrada ha sido elaborada por José Antonio Moler Cuiral, profesor del Departamento de Estadística, Informática y Matemáticas e investigador en el Instituto de Smart Cities (ISC) de la Universidad Pública de Navarra (UPNA), y Fernando Plo Alastrué, profesor del Departamento de Métodos Estadísticos de la Universidad de Zaragoza

 

Estadística en ingeniería: calidad y fiabilidad

El adagio “Lo que no se mide, no se conoce y no se puede mejorar” tiene plena vigencia en el ámbito de la calidad de los productos y servicios que, en la actualidad, son producidos y prestados por industrias, empresas y administraciones.  ¿Cómo gestionar y tomar las decisiones más adecuadas para una organización sin saber cómo evolucionan medidas e indicadores claves? El instinto y la experiencia, aun siendo cualidades útiles en la toma de decisiones,  son garantía, por sí solos, para la perpetuación de los mismos errores.

Hasta comienzos del siglo XX, la calidad dependía de los esfuerzos individuales de los artesanos. A partir de la organización de la producción en pequeñas tareas y la producción masiva, surge la preocupación por la calidad. Uno de las primeras aplicaciones de la estadística al control de calidad tuvo lugar en el contexto de la competencia entre dos marcas de cerveza: Ginnes y Carling. Afortunadamente para la primera, entre sus trabajadores dedicados a la mejora de la calidad se encontraba William Gosset. Sus trabajos no sólo fueron importantes para prolongar la frescura de la cerveza, sino que sirvieron para que, en 1908, introdujera la distribución t y el test t-student para el análisis estadístico de muestras pequeñas, una de las contribuciones más destacadas a la estadística en el siglo XX.

Al mismo tiempo, compañías como Ford y AT&T en Estados Unidos implementaron acciones para un control sistemático de la calidad.  El desarrollo de métodos estadísticos y su aplicación a la mejora de la calidad continuó ligada al estudio de situaciones reales. Así, por ejemplo,  Walter Shewhart, empleado de la compañía telefónica Bell,  diseña y aplica en 1924 los conocidos gráficos de control.

Todo producto (o servicio) posee un número de características que describen lo que un cliente o usuario considera como calidad. Un fabricante de electrodomésticos exigirá a su proveedor de láminas metálicas que estas posean un determinado grosor, resistencia, etc. Las unidades suministradas cumpliendo con estas especificaciones serán consideradas de calidad, mientras que aquellas que se alejen podrán llegar a ser descartadas. De este modo, la calidad de un producto se medirá como la adecuación de este con las especificaciones.

Una de las razones que dificulta proporcionar un producto o servicio de calidad es la variabilidad en los productos. Difícilmente dos productos, o servicios, son completamente idénticos. Debido a que el estudio de la variabilidad desde un punto científico corresponde a la estadística, esta juega un papel preponderante en la evaluación y en la mejora de la calidad. Se puede afirmar que la variabilidad es el principal enemigo de la calidad. Esta máxima rige la metodología para gestionar la calidad 6 sigma, que propugna una toma de decisiones basada en hechos y datos.

Un aspecto estrechamente relacionado con la calidad es la fiabilidad, que se puede definir como la calidad mantenida a lo largo del tiempo y se mide como una probabilidad. La fiabilidad del producto o servicio tiene una importancia vital y puede conferir una ventaja competitiva decisiva para la empresa. Un análisis riguroso de fiabilidad es imprescindible para el establecimiento de periodos de garantía de los productos y servicios. Los análisis de fiabilidad son tan importantes que, en ocasiones, han preocupado a dirigentes políticos y a la opinión pública en general.  Es el caso de los accidentes de los transbordadores espaciales Columbia y Challenger, que fueron estudiados por comisiones de investigación (¡de las de verdad!) y cuyos resultados provocaron cambios en la gestión de la fiabilidad y calidad de las misiones espaciales y, en general, de los programas espaciales de la NASA.

Por último, echemos un vistazo al futuro del control de calidad y, por extensión, al seguimiento y mejora de procesos. El uso creciente de nuevas tecnologías posibilita la recogida de datos en tiempo real y de un modo continuo. La ingente cantidad de datos generados requiere de nuevas metodologías y procedimientos estadísticos para ser tratados computacionalmente con eficacia. Sin duda, la edad de oro para la estadística ya ha comenzado.

 

Esta entrada ha sido elaborada por Fermín Mallor Giménez, catedrático de Estadística e Investigación Operativa del Departamento de Estadística, Informática y Matemáticas de la Universidad Pública de Navarra (UPNA) e investigador del Instituto de Smart Cities (ISC)

Probabilidad y el triste caso de Sally Clark

El 15 de marzo de 2007 murió Sally Clark, natural de Cheshire y abogada de 42 años, por un fallo cardíaco provocado por una excesiva ingesta de alcohol, después de haber sido acusada erróneamente de matar a sus dos hijos: Harry, de 8 semanas (muerto en 1988) y Christopher, de 11 semanas  de edad (muerto en 1996). Habían pasado cuatro años desde que fuera acusada de asesinato por asfixia de sus dos hijos. Fue juzgada en Inglaterra el 9 de noviembre de 1999.

En realidad, se trataba de la muerte súbita de dos bebés en una misma familia, situación calificada de altamente improbable por el tribunal de Chester que la juzgó a cadena perpetua con ocho votos a favor y dos en contra, ya que interpretó que, si la muerte súbita de un bebé es de 1/8543, la de dos bebés es 1/8543*1/8543 es decir de 1 entre 73 millones.  En aquella época, el número de nacimientos en Inglaterra, Gales y Escocia era de 700.000 nacimientos al año, por lo que la probabilidad de ocurrencia por azar de este suceso era de 1 cada 100 años.

Tres años después, fue puesta en libertad al revocarse la sentencia, que fue calificada de uno de los mayores errores judiciales de la historia moderna de Gran Bretaña. Era el error denominado como “prosecutor fallacy”, es decir, el error probabilístico cometido en los juzgados por un falso razonamiento científico. En octubre de 2001, la Real  Sociedad Estadística Británica expresó públicamente su preocupación por el mal uso de la estadística en los juzgados. En enero de 2002, su presidente escribió a Lord Chancellor, ministro de la Corona, comunicándole su interés en replantear el uso adecuado de la evidencia estadística en el sistema judicial. Como consecuencia de ello, se revisó el caso.

Estudios posteriores pusieron en evidencia que la muerte del primer hijo de Sally fue provocada por una infección respiratoria y que la muerte de su segundo hijo se debió a una infección bacteriana. Pero para Sally fue demasiado tarde. Había pasado tres años en prisión. El error judicial consistió en interpretar que la muerte súbita de un bebé nada tenía que ver con la de su hermano, aunque fuese de la misma familia. Es decir, se interpretaron ambos sucesos como independientes, lo que llevó a pensar que era prácticamente imposible que ambas muertes fueran accidentales. Esta fue la interpretación que hizo el pediatra Sir Roy Meadow, ignorando que pudiera existir una correlación entre ambos sucesos, en cuyo caso cambiaría drásticamente la probabilidad de ocurrencia de muerte súbita.  Como consecuencia de su erróneo razonamiento, Roy Meadow fue eliminado del registro británico de médicos.

De hecho, el pediatra no conocía que, si existe algún defecto genético, la probabilidad de muerte súbita del segundo hermano habiendo sucedido la del primero, era  aproximadamente de 1 entre 100, por lo que la probabilidad de muerte súbita de los dos bebés era de 1/85000, es decir 86 veces superior a la inicialmente estimada. Esta estimación se debió a Ray Hill, un estadístico de la Universidad de Salford. Ray Hill concluyó que la probabilidad de dos muertes súbitas seguidas era entre 4,5 y 9 veces más probable que dos infanticidios seguidos.

El caso de Sally Clark no fue el único. Angela Cannings fue encausada por la muerte de dos de sus hijos, de los tres que habían fallecido por muerte súbita. En su juicio, no se utilizó explícitamente el razonamiento estadístico, aunque sí se dijo que la muerte súbita de los tres niños era muy muy rara. Afortunadamente, Angela también fue liberada en 2003 gracias a la investigación que se hizo de varias muertes súbitas acaecidas con sus mismas bisabuelas paternas y maternas.

Trupti Patel, una farmacéutica de origen paquistaní, fue igualmente condenada por la muerte de tres de sus hijos, cuando en realidad habían fallecido por muerte súbita.

Una muerte súbita es 17 veces más frecuente que un asesinato. Dos muertes súbitas son 9 veces más probables que dos asesinatos y tres muertes súbitas suceden solamente dos veces más que tres asesinatos, pero eso no significa que necesariamente tres muertes súbitas sean asesinatos.

La probabilidad refleja un grado de creencia de la ocurrencia de un suceso y, por pequeña que sea, siempre ha de tenerse en cuenta. Es ahí donde radica la calidad de un razonamiento científico.

Esta entrada ha sido elaborada por Ana Fernández Militino, catedrática del Departamento de Estadística, Informática y Matemáticas e investigadora del Instituto de Materiales Avanzados (InaMat) de la Universidad Pública de Navarra 

 

Buen uso y abuso de la media

Un chiste dice que, si una persona come dos pollos y otra, ninguno, la estadística considerará que, de media, cada uno ha comido un pollo. Otra versión afirma que, si pusiéramos la mitad del cuerpo en un horno a 50 grados y la otra mitad, en un frigorífico a cero, estadísticamente hablando, tendríamos el cuerpo a una media de 25 grados.  Dicho así, la estadística no parece una disciplina ni muy solidaria, ni muy sensata. En este breve artículo, queremos hacer ver a quien lo lea la falacia que estos chistes esconden y mostrarle de esta manera  las cautelas con las que hay que tratar cualquier valor medio.

La media es un valor que  resume un conjunto de datos. Por ejemplo, el Instituto Nacional de Estadística (INE) publicó los resultados definitivos de la encuesta de estructura salarial en España donde obtenía que el salario medio bruto anual por trabajador es de 22.790 euros. Para obtener este valor, se recopila información de los asalariados que trabajan a tiempo parcial y a tiempo completo, de los directivos y empleados, de mujeres y hombres, etc. En todos los casos, existe una notable diferencia de salarios según el colectivo escogido. Hay, por tanto, demasiada heterogeneidad en los salarios o, como se dice en estadística, variabilidad o dispersión. En consecuencia, el dato así presentado puede que dé la razón a la historieta de los pollos y muchos asalariados españoles no se sientan representados con la cifra del salario medio.

Por supuesto, la estadística dispone  de métodos para establecer la validez de los resúmenes que proporciona. Así, a la hora de interpretar una media, se acompaña de una medida de la dispersión de los datos respecto a la media. Cuando la dispersión es alta, la media es poco representativa y, por tanto, no se debería utilizar como resumen de los datos. ¿Cómo se mide la dispersión? Técnicamente, hay varias formas de hacerlo; destaca una medida llamada desviación típica. No entraremos en ella; simplemente, veremos dos situaciones extremas.  Por un lado, imaginemos que todos los  asalariados ganan lo mismo, 22.790 euros brutos anuales. Entonces, no hay dispersión; la desviación típica es cero, por lo que el valor medio da un resumen perfecto. Al contrario, imaginemos que la mitad de asalariados trabaja gratis y percibe cero euros al año, mientras que la otra mitad recibe justo el doble de 22.790 euros. La media sigue siendo la misma, pero la variabilidad es muy alta. En otras palabras, y trasladándolo al chiste, la mitad se come dos pollos y la otra mitad, ninguno.

En los dos chistes, se utilizan datos muy dispersos para calcular el valor medio, por lo que este no es válido como resumen representativo de los datos. En el caso de los salarios, también hay mucha dispersión. Basten tres datos, el salario de más de un tercio de los asalariados se aleja más de 9.000 euros del salario medio; la mitad de los asalariados, más de 6.000 euros, y el 75%, más de 3.000 euros. Para que se hagan una idea en términos más familiares de los tres datos anteriores, imagínense que, tras consultar en todas las tiendas, obtenemos que el precio medio de un producto es de 100 euros, pero el 35% de las tiendas lo tienen 40 euros más caro o más barato; que, en la mitad, la diferencia es de más de 25 euros y en el 75%, de más de 13 euros. ¿A que no daría igual comprar en una tienda que en otra?

En conclusión, un valor medio debe ir acompañado de una medida de la dispersión de los datos para poder conocer su representatividad. Cuando la dispersión es alta, una buena alternativa a la media es la mediana, que proporciona el valor por debajo del cual se encuentra la mitad de los individuos. En el caso de los salarios, la mediana es de 19.017 euros brutos anuales; es decir,  la mitad de los asalariados españoles gana menos de esa cantidad.

Esta entrada ha sido elaborada por José Antonio Moler Cuiral, profesor del Departamento de Estadística, Informática y Matemáticas de la UPNA e investigador en el Instituto de Smart Cities (ISC) de la institución académica

Estadística para la sociedad

Fermín Mallor Giménez, catedrático del Departamento de Estadística e Investigación Operativa de la Universidad Pública de Navarra (UPNA), donde es investigador del Instituto de Smart Cities (ISC), fue entrevistado hace unas semanas en la emisora de Onda Cero en Pamplona. Aquí tienes la entrevista completa.

En esta entrevista, este experto, que también es investigador del Instituto de Investigación Sanitaria de Navarra (IdiSNA), describió su trabajo de investigación, centrado en el análisis, la simulación y la optimización de sistemas complejos y sus aplicaciones a industria, energía y servicios.

La estadística y la matemática son herramientas que se utilizan para analizar los sistemas complejos. Estos se definen como aquellos que constan de diversos elementos relacionados entre sí, pero cuyas relaciones a veces no son bien comprendidas o producen resultados impredecibles para quien toma decisiones. Además, evolucionan en el tiempo de un modo cambiante y en contextos de incertidumbre donde no todos los factores del propio sistema y del entorno son conocidos.

Cualquier sistema real puede ser complejo. Por ejemplo, procesos de producción, sistemas de energías renovables o sistemas de salud lo son. Así, en el servicio de urgencias de un hospital, ningún día se sabe previamente el número de pacientes que van a llegar, con qué gravedad y patologías, qué medios se van a necesitar para atenderlos…

Gracias al análisis de estos sistemas complejos, el equipo de investigación dirigido por Fermín Mallor (DECYL-Datos, Estadística, Calidad y Logística) desarrolla herramientas cuantitativas de apoyo a la toma de decisiones. En el caso de Urgencias, por ejemplo, con técnicas estadísticas, se puede analizar cómo llegan esos pacientes. Es verdad que cada día son enfermos distintos, pero hay patrones repetitivos. Su equipo de investigación identifica el patrón de probabilidad con el fin de reproducirlo en un ordenador. Reproduce igualmente la atención que presta el personal sanitario, el flujo de los pacientes, los recursos utilizados… Y a partir de todo ello, se construyen modelos de simulación implementados en un ordenador, los cuales son útiles para determinar el efecto de cambios en el tamaño de la plantilla, en la afluencia de pacientes, en la disponibilidad de recursos, o para evaluar un nuevo modo de gestionar el servicio.

Cualquier decisión de mejora se puede probar con anticipación en un ordenador para conocer “a priori” sus consecuencias. Por ejemplo, cómo cambiaría la atención mediante la contratación de un médico más, o qué equipamiento sería más conveniente y dónde localizarlo… La finalidad de estos análisis: la mejora de los sistemas y su adecuación a las condiciones cambiantes. Se trata de buscar la calidad y la eficiencia de los sistemas: en otras palabras, hacer más y mejor con lo mismo, contribuyendo así a que el sistema sea sostenible.

El desarrollo de estas metodologías centradas en resolver problemas reales implica la utilización combinada de varias técnicas para para lograr una aproximación global a los problemas: el análisis de datos, la probabilidad, el modelado matemático, las técnicas clásicas de optimización, la inteligencia artificial, la simulación… Dichas metodologías son las que proporcionan el soporte para la toma de decisiones.

Dentro de un equipo multidisciplinar, los investigadores de la UPNA desarrollan técnicas y metodologías nuevas para analizar estos sistemas complejos en los contextos mencionados anteriormente. Actualmente, una de sus áreas prioritarias de trabajo es la sanitaria. De hecho, llevan varios años colaborando con el Complejo Hospitalario de Navarra (UCI, Servicio de Urgencias…). “Los sistemas de salud representan una oportunidad investigadora pues están inmersos en profundos cambios impulsados por la aplicación de las nuevas tecnologías y por la demanda creciente de una población cada vez más envejecida que requiere más y mejores servicios. La sostenibilidad de los servicios públicos va a depender del uso eficiente de los recursos asignados. En España, es escasa la aplicación del enfoque cuantitativo propuesto por nuestro grupo de investigación, aunque en países avanzados de nuestro entorno europeo sí lo es. Nuestro grupo se ha integrado en la comunidad científica europea con el fin de lograr nuestro empeño, que es introducir y desarrollar estas técnicas aquí para la mejora de nuestros servicios de salud”, asegura Fermín Mallor.

Este post ha sido editado por la Unidad de Cultura Científica (UCC) de la Universidad Pública de Navarra