Científicos dispondrán de 250,000 terabytes de datos sobre la Tierra en 2024; IBM y la NASA pretenden acelerar el aprovechamiento de esta información.
IBM y la Administración Nacional de Aeronáutica y el Espacio (NASA) están trabajando en el desarrollo de un modelo de inteligencia artificial (IA) para la predicción de desastres naturales. La intención es mejorar la rapidez, precisión y accesibilidad de las aplicaciones meteorológicas y climáticas.
Sistemas actuales en operación como GraphCast de Google y Fourcastnet de Nvidia son capaces de generar pronósticos del clima a mayor velocidad que los modelos meteorológicos convencionales. No obstante, estos recursos son emuladores y no modelos básicos. IBM explica que mientras los primeros pueden hacer predicciones climáticas basadas en instrucciones y conjuntos de datos de entrenamiento predeterminados, los segundos procesan y analizan datos brutos en diversas modalidades. Son aplicables a tareas más allá de la predicción.
“Esto permite al modelo aprender una amplia representación de los datos que puede generalizarse en muchos escenarios. Es una capacidad importante en un campo como el clima, donde las condiciones cambian constantemente, a través del tiempo y el espacio”, detalló la compañía.
El modelo de la NASA e IBM entregará una mayor diversidad de datos, optimizará el acceso a esta información para los desarrolladores y promete tiempos de inferencia más rápidos. El objetivo es mejorar la precisión de las predicciones en aplicaciones climáticas existentes y acelerar la creación de nuevos sistemas relacionados.
En una etapa inicial, el sistema de IA se entrenará con el conjunto de datos MERRA2 de la NASA. La base incluye información sobre investigaciones satelitales de la Tierra y estimaciones del tiempo de los últimos 40 años. Posteriormente, se añadirán observaciones de estaciones meteorológicas fijas, globos meteorológicos flotantes y otros satélites en órbita.
Según IBM, la intención es “ayudar a los expertos en clima a deducir información de alta calidad a partir de datos de baja resolución, identificar las condiciones que favorecen los incendios forestales y predecir huracanes, sequías y otros fenómenos extremos”. El modelo estará listo en 2024. Una vez que termine el proceso de entrenamiento, estará disponible para la comunidad científica en Hugging Face como un algoritmo de código abierto.
En febrero de este año, IBM y la NASA anunciaron una colaboración para construir modelos de IA capaces de acelerar el análisis de las imágenes y datos satelitales con el objetivo de optimizar el quehacer de investigación científica. Tres meses después, lanzaron un algoritmo de base geo espacial que ha sido utilizado para rastrear y visualizar las actividades de plantación y cultivo de árboles en áreas de Kenia. También se ha implementado para analizar las islas de calor urbanas en los Emiratos Árabes Unidos.
La NASA estima que en 2024, los científicos tendrán 250,000 terabytes de datos provenientes de nuevas misiones que estudian diversas ciencias de la Tierra. "Creemos que los modelos básicos tienen el potencial de cambiar la forma en que se analizan los datos de observación y ayudarnos a comprender mejor nuestro planeta. Al abrir dichos modelos y ponerlos a disposición del mundo, esperamos multiplicar su impacto", afirmó Kevin Murphy, director de datos científicos de la NASA.
Nuestras Fuentes: