La Real Academia Sueca otorgó el Nobel de Física a John J. Hopfield, de la Universidad de Princenton, en Estados Unidos, y Geoffrey E. Hinton, de la Universidad de Toronto, en Canadá, por sentar las bases del llamado machine learning
Este martes, 8 de octubre, se anunció el Premio Nobel de Física, uno de los más esperados. Este año, el comité encargado de otorgar el galardón decidió que lo merecían dos profesores, cuyas investigaciones han sido fundamentales para el desarrollo del llamado machine learning, con redes neuronales artificiales: John J. Hopfield, de la Universidad de Princenton, en Estados Unidos, y Geoffrey E. Hinton, de la Universidad de Toronto, en Canadá.
Según la Real Academia Sueca de Ciencias, estos dos investigadores, que recibirán 11 millones de coronas suecas (más de US $1 millón), “han utilizado herramientas de la física para desarrollar métodos que son la base del potente aprendizaje automático actual”. En otras palabras, han sentado las bases de la inteligencia artificial.
Por un lado, Hopfield “creó una memoria asociativa que puede almacenar y reconstruir imágenes y otros tipos de patrones en los datos”. Por otro, Hinton, a quien también se le conoce como el “padrino de la inteligencia artificial”, inventó un método que puede encontrar propiedades de forma autónoma en los datos y, por lo tanto, realizar tareas como identificar elementos específicos en imágenes”.
“El trabajo de los galardonados ya ha sido de gran utilidad. En física, utilizamos redes neuronales artificiales en una amplia gama de áreas, como por ejemplo en el desarrollo de nuevos materiales con propiedades específicas”, dijo en la presentación del premio, Ellen Moons, presidenta del Comité Nobel de Física.
“Ambos han sido verdaderos pioneros: han encontrado nuevas formas de abordar los problemas”, aseguró después del anuncio el profesor Anders Irbäck, miembro del Comité Nobel de Física.
A lo que se refieren Moons y Irbäck es a que las investigaciones de estos científicos son las que empezaron a hacer posible que los computadores comenzaran a imitar funciones como la memoria y el aprendizaje. Usando conceptos y métodos fundamentales de la Física, los ganadores del Premio Nobel, permitieron desarrollar una estructura llamada “red neuronal artificial” que procesa información utilizando toda la estructura de la red.
John Hopfield, nacido en 1933 en Chicago, Illinois, en EE.UU. y PhD por la Universidad de Cornell, creó una estructura que puede almacenar y reconstruir información. Sus esfuerzos, en palabras muy simples, se concentraron en simular la dinámica que tienen las redes neuronales simples. “Cuando las neuronas actúan juntas, pueden dar lugar a características nuevas y poderosas”, recuerda en un comunicado la Real Academia Sueca de Ciencias.
Geoffrey Hinton, que nació en 1947 en Londres (Reino Unido) y se doctoró en Filosofía en 1978 en la Universidad de Edimburgo, Reino Unido, “inventó un método que puede descubrir de forma independiente propiedades en los datos y que se ha vuelto importante para las grandes redes neuronales artificiales que se utilizan actualmente”.
Lo que hizo Hinton fue usar la red que había creado Hopfield para crear una nueva red que utilizó un método diferente: la máquina de Boltzmann, que le permitía reconocer elementos específicos entre un conjunto de datos. Para entrenarla, usaba ejemplos que surgían a medida que se ponía en marcha, lo cual le permitía reconocer datos en información que no había visto previamente.
El ejemplo que usa la Real Academia Sueca es útil para comprenderlo mejor: imagine que usted, al ver por primera vez al hermano de un amigo suyo, puede asociarlo inmediatamente con esa persona. Pues, así, más o menos, funciona la máquina de Boltzmann: “puede reconocer un ejemplo completamente nuevo si pertenece a una categoría que se encuentra en el material de entrenamiento y diferenciarlo de material que no es similar”.
Como explica en la página del Premio Nobel, este modelo de “red neuronal artificial”, que imita al cerebro y que Hinton continuó explorando en la década de 1990 cuando muchos científicos habían perdido el interés en él, ha permitido que una computadora pueda abordar problemas que son demasiado complejos, por medio de ejemplos. Por eso, es que hoy vemos casos en los que la inteligencia artificial puede interpretar o crear una imagen, o, incluso, mantener conversaciones con seres humanos. Un software tradicional, por el contrario, funciona como una especie de receta, es decir, procesa los datos según una descripción clara y produce resultados.
Pero, más allá de los ejemplos cotidianos que vemos diariamente en redes sociales, esas investigaciones pioneras, que se han desarrollado a una gran velocidad en las últimas dos décadas, también han sido cruciales para llevar a cabo experimentos que le han permitido ganar Premios Nobel a otros físicos. Tal vez, el ejemplo más popular, como recuerda la Academia Sueca, es el descubrimiento del Bosón de Higgs, en 2012. Para detectarlo en el Gran Colisionador de Hadrones fue necesario el uso de machine learning para procesar las enormes cantidades de datos. También fue útil para detectar las ondas gravitacionales, una especie de “huella” que ha quedado de los primeros instantes del universo.
“El desarrollo que estamos presenciando en la actualidad ha sido posible gracias al acceso a grandes cantidades de datos que se pueden utilizar para entrenar redes y al enorme aumento de la potencia informática. Las redes neuronales artificiales actuales suelen ser enormes y están formadas por muchas capas. Se denominan redes neuronales profundas y la forma en que se entrenan se denomina aprendizaje profundo”, recuerda el comité de Premio Nobel.
Nota sacada de: