Tras graduarse en Psicología Experimental en Cambridge en 1970, y obtener su doctorado en Inteligencia Artificial por la Universidad de Edimburgo en 1978, Geoffrey Hinton (Londres, Reino Unido; 1947) trabajó en la Universidad de Sussex (Reino Unido), las universidades de California en San Diego y Carnegie-Mellon (Estados Unidos) y la Universidad de Toronto (Canadá). Entre 1998 y 2001, puso en marcha la Unidad Gatsby de Neurociencia Computacional de la Universidad de Londres, considerado uno de los principales grupos de investigación del mundo en esta área. Posteriormente, regresó a la Universidad de Toronto, donde actualmente es catedrático en el Departamento de Ciencias de la Computación.
Entre 2004 y 2013, dirigió el programa sobre “Computación Neuronal y Percepción Adaptativa” del Instituto Canadiense para la Investigación Avanzada, una de las instituciones científicas más prestigiosas del país, y desde 2013 colabora como investigador en Google en el desarrollo de sistemas de reconocimiento de voz e imagen, traductores de idiomas, programas de procesamiento del lenguaje y otras aplicaciones del ‘aprendizaje profundo’.
Hinton es miembro de la Royal Society del Reino Unido, la Royal Society de Canadá y la Asociación para el Avance de la Inteligencia Artificial (de ámbito internacional). Además, es miembro honorario de la Academia de las Artes y las Ciencias y la Academia Nacional de Ingeniería, ambas de Estados Unidos. Presidió la Cognitive Science Society entre 1992 y 1993 y ostenta doctorados ‘honoris causa’ por las universidades de Edimburgo, Sussex y Sherbrooke.
Entre otros reconocimientos, ha recibido el Premio NEC C&C (2016), el Premio David E. Rumelhart por sus contribuciones a los fundamentos teóricos de la cognición humana (2001) y el Premio a la Investigación de Excelencia de la International Joint Conferences on Artificial Intelligence Organization, IJCAI (2005), uno de los más prestigiosos en el área de la Inteligencia Artificial. También le han sido concedidos la Medalla de Oro Gerhard Herzberg del Consejo de Investigación de Ciencias Naturales e Ingeniería de Canadá (2010) – el premio más importante del país en esta área de investigación- y la Medalla James Clerk Maxwell que conceden el Institute of Electrical and Electronics Engineers (IEEE) y la Real Sociedad de Edimburgo (2016). Tras recibir el Premio Fundación BBVA Fronteras del Conocimiento (2016), obtuvo el Premio Nobel de Física junto a John Hopfield (2024).
Discurso
Tecnologías de la Información y la Comunicación IX edición
Microentrevista
“Las máquinas serán más inteligentes que las personas en casi todo”
Geoffrey Hinton cree que con el tiempo todo lo que hace el cerebro humano podrán llegar a aprenderlo las máquinas. ¿Con cuánto tiempo? «Más de cinco años», estima Hinton: más allá «no es buena idea hacer predicciones». El ritmo al que avanzan las tecnologías de la información no es uniforme y Hinton lo sabe porque él mismo ha hecho posible el potente e inesperado acelerón que vive ahora el área, y que promete profundos cambios económicos y sociales.
Hinton, ganador del Premio Fronteras del Conocimiento en Tecnologías de la Información y la Comunicación, se ha inspirado en la forma en que aprendemos los humanos para abrir la vía a las primeras máquinas capaces de aprender por sí mismas. Se trata de ordenadores con ‘deep learning’ (aprendizaje profundo), la tecnología detrás de las herramientas de reconocimiento de voz e imagen, de los traductores automáticos o de los vehículos sin conductor. En biomedicina, en seguridad, en cualquier área que necesite extraer información de gran cantidad de datos, hay ya aplicaciones de ‘deep learning’. Y es solo el principio de lo que promete la nueva inteligencia artificial (AI, en sus siglas en inglés). «Las máquinas nos pueden hacer la vida mucho más fácil», asegura Hinton (Londres, Reino Unido, 1947).
Siempre he creído que la única manera de hacer que la inteligencia artificial funcione realmente es tratar de operar como el cerebro humano
TUITEAR
Hace apenas una década pocos hubieran predicho este auge de la AI. Por entonces la investigación en aprendizaje automático (‘machine learning’ en inglés) progresaba despacio. Los investigadores habían ensayado diversos abordajes. Uno de ellos consistía en programar gran cantidad de conocimiento en la máquina, el equivalente a explicarle, por ejemplo, qué es un gato de forma que pudiera reconocerlo al verlo. Ahora bien, ¿cómo programar la diferencia con un gato de peluche o con otro felino de tamaño medio? Con esta estrategia, el conocimiento previo que debe digerir la máquina crece y crece. Una alternativa a ello es entrenarla con ejemplos correctos e incorrectos para que adquiera experiencia. Este es el objetivo de las redes neuronales artificiales, un tipo de programas que operan como unidades conectadas entre sí —al estilo de las neuronas biológicas—.
Sin embargo, las primeras redes neuronales no funcionaron como se esperaba y la inmensa mayoría de los investigadores acabó considerándolas una vía muerta. Hinton no formó parte de esa inmensa mayoría. Él mismo, profundamente intrigado desde adolescente por el funcionamiento del cerebro humano, mantuvo la apuesta por las redes neuronales.
Tras graduarse en Psicología Experimental por la Universidad de Cambridge en 1970, se doctoró en Inteligencia Artificial con una tesis sobre redes neuronales leída en la Universidad de Edimburgo en 1978. Ha contado que por entonces, y durante varios años, su mentor le aconsejaba «todas las semanas» que cambiara de campo, a lo que él respondía: «Dame otros seis meses y te demuestro que funcionan». Después de quedarse sin fondos para su trabajo en el Reino Unido, emigró primero a Estados Unidos y después a la Universidad de Toronto, en Canadá. Empeñado en buscar inspiración en el cerebro, creó en 2004 un grupo integrado por expertos en computación, electrónica, neurociencia, física y psicología. Y de ahí nació ‘deep learning’.
Contra todo pronóstico, Geoffrey Hinton y sus estudiantes desarrollaron en 2009 una red neuronal para reconocimiento de voz que obtenía mejores resultados que la tecnología disponible en ese momento, fruto de tres décadas de trabajo. En 2012 una sofisticada red compuesta por 650.000 ‘neuronas’, y entrenada con 1,2 millones de imágenes, redujo casi a la mitad la tasa de error en reconocimiento de objetos. Es decir, y volviendo a los gatos: la máquina aprendía a identificarlos sin que nadie tuviera que describírselos previamente.
Desde 2013, Hinton compagina su cátedra en la Universidad de Toronto con el puesto de vicepresidente e investigador en Ingeniería de Google.
¿Cuál es la clave del éxito de la nueva AI?
En gran medida los algoritmos de Hinton, cuyo fundamento él mismo explica así: «El cerebro humano aprende reforzando las conexiones entre sus miles de millones de neuronas; para que un ordenador aprenda, se puede intentar reproducir ese proceso descubriendo un mecanismo que refuerce las conexiones entre neuronas artificiales».
Los algoritmos de Hinton se inspiran en el proceso biológico del aprendizaje y lo convierten en matemáticas. Y aquí entra en juego el entrenamiento de la máquina: si una imagen de prueba es reconocida, las conexiones de la red neuronal que han llevado a esa respuesta correcta aumentan de valor —se ‘refuerzan’—. La máquina ‘aprende’ cuando, tras mucho entrenamiento, se eliminan o reducen las conexiones de menos valor. El proceso descansa en el método matemático ‘backpropagation’ creado por Hinton, que permite informar eficazmente a la red de sus errores o aciertos y ajustar el valor de sus conexiones en consecuencia.
‘Deep learning’ es, en esencia, «un nuevo tipo de inteligencia artificial» en que «logras que la máquina aprenda de su propia experiencia», explica Hinton. Es además una técnica que aprovecha al máximo otros dos grandes avances en computación: el aumento de la capacidad de cálculo y el aluvión de datos ya disponibles en multitud de áreas. Para muchos, el auge paralelo del ‘deep learning’ y el ‘big data’ es un caso claro de co-evolución computacional.
«Hace años hice una apuesta, y me siento muy afortunado porque al final se ha demostrado que [mi estrategia] funciona», asiente con satisfacción Hinton.