David Cox (Reino Unido, 1924-2022) estudió Matemáticas en el St. John’s College (Universidad de Cambridge) y obtuvo su doctorado por la Universidad de Leeds en 1949. Durante los primeros años de su carrera, trabajó para el Royal Aircraft Establishment (1944-1946), la Wool Industries Research Association (1946-1950) y el Laboratorio de Estadística de la Universidad de Cambridge (1950-1955). En la Universidad de Londres, fue Reader y catedrático de Estadística en el BirkBeck College (1956-1966), catedrático de Estadística en el Imperial College of Science and Technology (1966-1988) y director del Departamento de Matemáticas (1969-1973). En 1988, fue nombrado Warden en el Nuffield College de la Universidad de Oxford y pasó a formar parte del Departamento de Estadística de esta universidad, donde continúa trabajando tras su jubilación en 1994.
Su artículo científico ‘The regression analysis of life tables’ (1972) revolucionó la teoría y práctica de los métodos estadísticos para la investigación médica y es el segundo más citado en el área de la estadística, con unas 30.000 citas en Web of Science y 42.000 en Google Scholar. Este trabajo le valió, en 1990, el Premio Kettering y Medalla de Oro en Investigación del Cáncer, convirtiéndose así en el único matemático que ha obtenido este galardón. En 2014, la revista Nature lo situó en el puesto 16º de su top 100 de artículos científicos de todas las áreas y todos los tiempos. La contribución de este artículo también fue reconocida en 2016, con la concesión a su autor del primer Premio Internacional de Estadística.
Fue miembro honorario de más de cuarenta universidades y sociedades científicas, entre ellas la Royal Society of London, que le otorgó la Medalla Copley en 2010, la Academia Británica y la Academia Nacional de las Ciencias de Estados Unidos. También ha recibido la Medalla Guy de la Real Sociedad Estadística del Reino Unido (de plata en 1961 y de oro en 1973), el Weldon Memorial Prize de la Universidad de Oxford (1984) y el Max Planck Forschungspreise (1992). Entre 1995 y 1997 presidió el Instituto Internacional de Estadística. Fue nombrado caballero (Knight Bachelor) en 1985.
Discurso
Ciencias Básicas IX edición
Microentrevista
“Los científicos debemos hacer todo lo posible para propagar la búsqueda de la verdad”
Para el matemático Bradley Efron la estadística es la “actriz secundaria” de la ciencia. No secundaria en importancia, sin embargo. El sobrenombre hace referencia a que los métodos estadísticos no suelen atraer la atención de los focos, que lógicamente se concentran en los descubrimientos. Ahora bien, los descubrimientos surgen de los datos, y los datos hay que interpretarlos… con estadística.
Pocos descubrimientos son posibles sin esta, en apariencia, poco glamurosa rama de la ciencia. Por eso Efron, catedrático de Estadística en la Universidad de Stanford (Estados Unidos), y su colega David Cox, de la Universidad de Oxford (Reino Unido), reciben el Premio Fundación BBVA Fronteras del Conocimiento en Ciencias Básicas: sus contribuciones llevan décadas siendo imprescindibles para obtener resultados en un amplísimo rango de áreas, desde la medicina a la astrofísica, la genómica o la física de partículas.
En la actual era del big data, cuando no solo la ciencia sino también los avances tecnológicos y la economía se nutren de ingentes cantidades de datos, las aportaciones de Cox y Efron cobran aún más relevancia. «Los problemas que aborda la ciencia moderna implican trabajar con más datos y eso genera ruido», dice Efron. «Ahora para extraer la información relevante tenemos que eliminar gran cantidad de ruido, y la estadística es lo que nos permite hacerlo».
Cox y Efron publicaron sus trabajos de mayor impacto en los años setenta. En el artículo de Cox Regression models and life tables (1972) se explica una poderosa herramienta para estimar el intervalo temporal entre dos eventos dependientes de factores identificables. El llamado método de Cox informa, por ejemplo, sobre el riesgo de muerte de pacientes en tratamiento, de abandono escolar en una determinada población o de bancarrota en las empresas. Es una herramienta usada en la investigación del cáncer, en epidemiología, sociología…, incluso en los ensayos de durabilidad de productos industriales o en la estimación de riesgo de terremotos.
David Cox (Birmingham, Reino Unido, 1924) era ya un investigador de prestigio cuando desarrolló su método. Formado en la Universidad de Cambridge, había empezado a investigar en estadística por la demanda de esta ciencia en aplicaciones militares durante la Segunda Guerra Mundial. Antes de doctorarse trabajó para el Royal Aircraft Establishment y después para la Asociación de Investigación de la Industria de la Lana. Posteriormente investigó en la Universidad de Cambridge, la Universidad de Londres, el Imperial College de Londres y, desde 1988, en la Universidad de Oxford.
El origen del método de Cox fue una pregunta que le plantearon a la vez, de manera independiente, varios amigos que estudiaban el tiempo de supervivencia de pacientes: Cómo saber cuánto influía en la supervivencia el tratamiento frente a otras variables propias de cada enfermo. «Me llevó tres o cuatro años hallar la manera de descubrirlo», cuenta Cox, «y finalmente publiqué el trabajo en una revista científica. Para mi sorpresa, resultó ser de utilidad para mucha gente, algo que me hace muy feliz». En su opinión, las aplicaciones más interesantes de su trabajo están relacionadas con el trasplante de órganos y con el tratamiento de enfermedades muy graves, como la fibrosis quística.
También Bradley Efron (Minnesota, Estados Unidos, 1938) ha mantenido una estrecha vinculación con la biomedicina —su cátedra en Stanford está adscrita al Departamento de Datos Científicos Biomédicos en la Facultad de Medicina—. No obstante, su principal aportación se emplea en casi todas las áreas de la ciencia. Es el bootstrap, término traducible como ‘lengüeta de bota’, una herramienta estadística para determinar algo tan importante en ciencia como el margen de error de una medida.
Efron, que llegó a la estadística guiado por la afición de su padre a las clasificaciones deportivas, buscaba una manera de determinar el grado de precisión de un resultado sin tener que repetir las medidas, algo a menudo imposible, por ejemplo, en el caso de pruebas médicas invasivas. La solución que encontró era en apariencia tan simple que al principio fue acogida con desconfianza: «Parecía como hacer trampa, y no era obvio que funcionara», comenta Efron. Pronto aparecieron miles de trabajos demostrando su eficacia.
La idea se basa en tomar datos aleatoriamente de la única muestra disponible y analizarlos. Después, ese mismo proceso se repite una y otra vez, y es ese remuestreo aleatorio reiterado el que proporciona el margen de error. En la técnica resulta crucial el uso de los ordenadores, llegados a la estadística de la mano de Efron. Con ellos era posible repetir el remuestreo un gran número de veces y afinar así mucho más la precisión del resultado.
En cuanto al término bootstrap, da pistas sobre el chispeante talante de Efron. Buscando un nombre al menos tan atractivo como el de otra herramienta estadística llamada jackknife (navaja), Efron se inspiró en los cuentos del Barón de Münchhausen. En uno de ellos el barón se salva de ahogarse tirando de sus propias lengüetas, un buen referente para una técnica que tira de los propios datos sin recabar más.
El bootstrap se publicó en 1979. Hasta entonces, el margen de error se determinaba con aproximaciones matemáticas «que podían ser muy complejas y no siempre acertaban», explica Efron, y sin embargo «con el bootstrap delegas el trabajo en las máquinas».