El pensamiento y la innovación científica son algunas de las actividades humanas más sofisticadas: requieren preparación, conocimiento, rigurosidad, creatividad y cuidado. Y aunque la humanidad ha logrado avances significativos, siempre se está en busca de más.
Un equipo de investigadores en inteligencia artificial de Sakana AI, en Japón, en colaboración con la Universidad de Oxford (Reino Unido) y la Universidad de British Columbia (Canadá), desarrolló The AI Scientist, un sistema de inteligencia artificial (IA) diseñado para contribuir en la innovación e investigación científica de forma autónoma. ¿Lo llamativo de este desarrollo? Que tuvo comportamientos que generaron alarma.
¿Cómo funciona? ¿Su autonomía representa un peligro inminente?
Así es The AI Scientist
The AI Scientist fue creada con LLMs, también llamado modelo de lenguaje de gran tamaño, que consta de una red neuronal con numerosos parámetros entrenados mediante aprendizaje autosupervisado o aprendizaje semisupervisado. Aunque suene complicado, esta misma tecnología es la que funciona en la programación de ChatGPT.
Esto implica que ambos programas son capaces de generar lluvias de ideas, seleccionar la mejor, crear nuevos algoritmos, arrojar resultados y redactar textos y resúmenes con referencias. Es la razón por la que podemos pedirle a ChatGPT que genere distintas versiones de un mismo párrafo.
En el caso de The AI Scientist, el sistema de IA puntúa las ideas de los científicos para nuevas investigaciones basándose en las investigaciones similares existentes, y analiza los trabajos ya escritos y publicados teniendo en cuenta dos criterios: calidad y novedad.
Además, es capaz de generar investigaciones y de imitar el proceso creativo. El sistema puede adquirirse con un costo de aproximadamente 15 dólares por artículo.
¿La inteligencia artificial es una amenaza?
Fueron dos incidentes los que generaron preocupación con respecto a The AI Scientist. El primero fue que se autoprogramó para ejecutar un bucle infinito, lo que llevó a una sobrecarga que requirió intervención manual para detener el proceso.
En otro caso, frente a un límite de tiempo, la IA alteró su propio código para extender el plazo, en lugar de optimizar su rendimiento.
Es decir, no estamos ante un escenario de una inteligencia artificial rebelde que amenaza los intereses de la humanidad, aunque la IA sí presenta signos de autonomía.
Más que una amenaza para la seguridad y la sociedad, aquellas automatizaciones sin supervisión humana preocupan a la comunidad científica por varias razones. Una es que no hay forma de saber que una inteligencia artificial no cree un malware o viole los límites de seguridad de bancos de información.
Otra es que cuestionan la capacidad de una IA para realizar descubrimientos científicos genuinos y temen que The AI Scientist pueda saturar el proceso de revisión con investigaciones de baja calidad, lo que podría degradar los estándares científicos.