La Real Academia Sueca de Ciencias otorgó el Premio Nobel de Física 2024 a John J. Hopfield y Geoffrey E. Hinton, considerados los “padrinos” de la inteligencia artificial, por sus “descubrimientos e invenciones fundamentales que permiten el aprendizaje automático con redes neuronales artificiales”. Hopfield creó una red neuronal artificial para almacenar y recuperar memoria por asociación, lo que permite, por ejemplo, almacenar y reconstruir imágenes y otros tipos de patrones en los datos e información. Por su parte, Hinton inventó un algoritmo “de la retropropagación del error”, que permite que las redes neuronales artificiales “aprendan” a partir de experiencias en forma muy similar a la forma en que aprendemos los humanos y los animales. Estas contribuciones fueron claves para diseñar las grandes redes neuronales artificiales que se utilizan actualmente.
“Me parece excelente que los hayan premiado”, indica Gabriel Mindlin, científico del CONICET en el Instituto de Física de Buenos Aires (IFIBA, CONICET-UBA), que incorporó las herramientas de trabajo diseñadas por los Premios Nobel para estudiar a las aves individuales a través de sus vocalizaciones para monitorear poblaciones amenazadas. “Tanto en sus aspectos beneficiosos como en sus aspectos más amenazantes, la teoría de redes está produciendo un cambio en la humanidad de proporciones colosales, y fueron las contribuciones de estos dos científicos los que crearon los pilares de esta nueva revolución conceptual que estamos viviendo”, advierte.
Tal como explica Mindlin, la ciencia tradicional se basó siempre en dilucidar los mecanismos de cómo funcionan las cosas. Hopfield diseño un dispositivo conceptual -las “redes neuronales”- capaces de expresar comportamientos interesantes emergentes, y Hinton logró entrenar a esas redes a partir de ejemplos para resolver problemas complejos, abriendo un nuevo modo de hacer ciencia. “Con sus luces y sus sombras, lo que hicieron fue un cambio conceptual respecto de cómo pretendíamos operar sobre el mundo desde la filosofía griega a esta parte”, asegura Mindlin.
Para Francisco Tamarit, investigador del Instituto de Física Enrique Gaviola (IFEG), el premio es “un acto de justicia, porque Hopfield es quien dio el puntapié para el auge de las redes neuronales que estamos viviendo hoy, quien tuvo la primera idea de esta revolución”. Tamarit conoció al propio Hopfield en vivo y en directo. “Fue en la Universidad de San Pablo en San Carlos, donde fui a tomar un curso con él hace muchos años, y pude comprobar que es una persona muy generosa”.
Tamarit, apenas se recibió de físico en 1987, había comenzado a trabajar con el modelo de redes neuronales publicados por Hopfield en 1982. “Yo siempre digo en mis conferencias y cursos, que sin dudas todo lo que tenemos hoy en inteligencia artificial se lo debemos a él, porque nos sacó del llamado ´invierno´ de la inteligencia artificial, donde se habían estancado las investigaciones en la materia”, dice el científico.
“Hopfield trabajaba en el modelado de vidrios, y se dio cuenta, en 1982, que estos materiales tan baratos y comunes podían llevarlo a modelar un cerebro humano para almacenar memoria, como almacenan los animales. Su trabajo quedó escondido hasta que otros científicos italianos e israelitas lo retomaron en el año 1985. No descubrió algo, lo inventó. Y sus ideas, como las de Hinton, son las que ahora usamos en todas las redes neuronales artificiales que dan lugar a la inteligencia artificial más sofisticada, como la que vemos por ejemplo en el Chat GPT”.
Tal como difundió en un comunicado la Academia Sueca, “cuando hablamos de inteligencia artificial, a menudo nos referimos al aprendizaje automático mediante redes neuronales artificiales. Esta tecnología se inspiró originalmente en la estructura del cerebro. En una red neuronal artificial, las neuronas del cerebro están representadas por nodos que tienen valores diferentes. Estos nodos se influyen entre sí a través de conexiones que pueden compararse con sinapsis y que pueden fortalecerse o debilitarse. La red se entrena, por ejemplo, desarrollando conexiones más fuertes entre nodos con valores simultáneamente altos. Los galardonados de este año han realizado importantes trabajos con redes neuronales artificiales desde los años 80 en adelante”.
Hopfield inventó una red que utiliza un método para guardar y recrear patrones. “Podemos imaginar los nodos como píxeles. La red Hopfield utiliza la física que describe las características de un material debido a su giro atómico, una propiedad que convierte a cada átomo en un imán diminuto. La red en su conjunto se describe de una manera equivalente a la energía en el sistema de espín que se encuentra en la física, y se entrena encontrando valores para las conexiones entre los nodos para que las imágenes guardadas tengan baja energía. Cuando la red Hopfield recibe una imagen distorsionada o incompleta, trabaja metódicamente a través de los nodos y actualiza sus valores para que la energía de la red disminuya. Así, la red trabaja paso a paso para encontrar la imagen guardada que más se parezca a la imperfecta con la que fue alimentada”, explicaron desde la organización de los Premios Nobel.
Geoffrey Hinton, por su parte, utilizó la red Hopfield como base para una nueva red que utiliza un método diferente: la máquina de Boltzmann. “Este puede aprender a reconocer elementos característicos en un determinado tipo de datos. Hinton utilizó herramientas de la física estadística, la ciencia de los sistemas construidos a partir de muchos componentes similares. La máquina se entrena dándole ejemplos que es muy probable que surjan cuando la máquina está en funcionamiento. La máquina Boltzmann se puede utilizar para clasificar imágenes o crear nuevos ejemplos del tipo de patrón en el que fue entrenada. Hinton se ha basado en este trabajo y ha ayudado a iniciar el explosivo desarrollo actual del aprendizaje automático”.