"Al parecer, hace unas horas una mujer llamó a la BBC y dijo que había oído que se acercaba un huracán. Bueno, si estáis mirando la televisión, no os preocupéis, ¡no lo hay!"

Estas fueron las icónicas palabras del meteorólogo y pronosticador del tiempo Michael Fish el 15 de octubre de 1987. Esa noche, la peor tormenta que azotó el sureste de Inglaterra en tres siglos azotó el condado y murieron 19 personas.

Ya sea que Fish se haya equivocado al hablar (luego declaró que se refería a un huracán que había en Florida en ese momento) o haya hecho un chiste en un mal momento, el incidente dio lugar al surgimiento del “momento Michael Fish”: un pronóstico sobre cualquier tema que resulta ser total y terriblemente erróneo.

Aunque presumiblemente Fish desearía poder tragarse esas palabras y olvidarlas para no haberlas dejado nunca de lado, la realidad es que, a menos que tuviera superpoderes, la responsabilidad de pronosticar el tiempo no recaía únicamente sobre sus hombros. De hecho, los dioses del tiempo de hoy son supercomputadoras, máquinas que zumban y procesan billones de cálculos por segundo. Estas cifras seguirán creciendo a medida que se añada más potencia de cómputo, lo que dará a los meteorólogos un panorama más detallado que nunca.

El ser humano se encuentra con la máquina

Antes de que dependiéramos de las supercomputadoras, la responsabilidad de la observación y la previsión meteorológica recaía en las "computadoras" humanas. Como lo describe Andrew Blum en su libro The Weather Machine (La máquina del tiempo) de 2018, los informes meteorológicos en los EE. UU. a mediados del siglo XIX dependían de las más de 3.300 kilómetros de líneas telegráficas recién instaladas.

Los operadores de telégrafos de varias ciudades se comunicaban entre sí sobre el clima en sus respectivas localidades. Como las líneas funcionaban mal cuando llovía, si no había comunicación, había una expectativa razonable de que en algún punto de la línea lloviera.

Aunque se trata de un enfoque rudimentario para la previsión meteorológica, estos datos limitados podrían proporcionar una base para hacer suposiciones sobre tormentas que pueden o no aproximarse.

A finales del siglo XIX, el físico noruego Vilhelm Bjerknes empezó a darse cuenta de que también existía una base matemática para el comportamiento del clima. Su primera hipótesis sostenía que, en circunstancias en las que la presión y la densidad son desiguales, lucharán entre sí hasta que se equilibren. La hipótesis, denominada "teorema de circulación", podría, en teoría, predecir la dirección e intensidad de esa circulación.

Una vez puesta a prueba con datos meteorológicos, la idea de Bjerknes demostró ser viable y la perfeccionó aún más. A Bjerknes se le atribuye la creación y formulación de muchas de las ecuaciones que todavía se utilizan hoy en día en la predicción numérica del tiempo y en la modelización climática.

Durante mucho tiempo, estos cálculos fueron realizados por computadoras humanas, y la gran complejidad de los parámetros implicaba que las predicciones verdaderamente significativas eran limitadas: las predicciones a menudo tardaban más en formularse que el tiempo que tardaba en aparecer.

En 1922, el matemático y físico inglés Lewis Fry Richardson estimó que para realizar un pronóstico global se necesitaría una fuerza laboral global de 64.000 computadoras humanas. Como escribió en ese momento: “El esquema es complicado porque la atmósfera es complicada”.

No fue hasta 1950 que los ordenadores, tal y como los conocemos hoy, encontraron su papel. El Integrador Numérico Electrónico y Computador (ENIAC), el primer ordenador programable, se utilizó para los primeros pronósticos. El ENIAC estaba formado por 18.000 tubos de vacío y 1.500 relés, así como cientos de miles de resistencias, condensadores e inductores. En total, el ENIAC era capaz de realizar unos 5.000 cálculos por segundo. Los primeros cálculos para un pronóstico de 24 horas en el ENIAC le llevaron a la máquina casi 24 horas para producirlos, lo que no es exactamente práctico.

Pero, a medida que las computadoras se han vuelto más potentes, los pronósticos se han vuelto más precisos y oportunos.

El alcance global del problema

Es fácil pensar en el clima como lo que hay afuera de nuestra ventana en un momento dado, pero la realidad, dice David Michaud, es mucho más complicada.

“Casi podemos pensar en la atmósfera como un fluido: necesita ser continua”, explica Michaud, director de la Oficina de Procesamiento Central del Servicio Meteorológico Nacional de la Administración Nacional Oceánica y Atmosférica (NOAA).

“Hay que considerar el pronóstico en un contexto global. Necesitamos observaciones de todo el mundo para crear ese pronóstico global, y eso puede crear condiciones límite para modelos más pequeños, de mayor fidelidad y mayor resolución”.

Como dice Michaud, si el clima viene de la costa este y se desplaza hacia el oeste, “no hay solo un vacío detrás”. Incluso si solo busca un pronóstico meteorológico regional, aún se necesita poder completarlo a partir de un modelo a escala global.

GettyImages-988302516.original
– GettyImages

Para trabajar eficazmente en estas condiciones, los servicios meteorológicos de todo el mundo colaboran y comparten observaciones.

“Tenemos acuerdos y estándares sobre la forma en que compartimos datos y los formateamos. Por eso, cada agencia o entidad gubernamental en todo el mundo tiene sus propias plataformas y todos esos datos se comparten”, dice Michaud. “Todas esas observaciones fluyen constantemente y tenemos acuerdos de intercambio para que podamos tener este conjunto continuo de información”.

Alan Hally, responsable científico del equipo de transformación de la IA en Met Éireann, la institución meteorológica de Irlanda señaló que los servicios meteorológicos nacionales comparten datos a través de un sistema de transmisión global en el que las observaciones se recogen en diferentes centros globales y luego se distribuyen a todas las oficinas regionales.

“Recientemente, sufrimos los efectos del huracán Kirk, que atravesó el Atlántico y afectó zonas de Europa”, afirma Hally. “Cuando ocurren esas cosas, mantenemos conversaciones directamente con el Servicio Meteorológico Nacional, específicamente con el Centro Nacional de Huracanes de los EE. UU., porque son responsables de ese tipo de fenómenos meteorológicos.

“Entonces, como iba a impactar a Francia y posiblemente al Reino Unido, habría sido un llamado colectivo entre todos esos países para discutir hacia dónde es más probable que se mueva el huracán”.

En el caso de que se acerque un huracán, las conversaciones se centrarían en las simulaciones creadas con modelos meteorológicos numéricos, los modelos que sustentan nuestra comprensión de la atmósfera. Sin embargo, para crear e interpretar esas simulaciones, primero se deben recopilar datos.

Observando la atmósfera

Las observaciones meteorológicas se realizan desde una variedad de plataformas e instrumentos, explica Michaud, y esos métodos cubren cada capa de la atmósfera, desde el suelo hasta el aire y fuera del aire en el espacio.

Los satélites, tanto GEO como LEO, contribuyen de manera significativa a la recopilación de datos meteorológicos. “Hay varios instrumentos en cada plataforma satelital que pueden observar diferentes cosas, diferentes longitudes de onda y con diferentes parámetros”, dice. “No es solo una cámara que observa las nubes. En realidad, se puede trazar un perfil a través de una vertical en la atmósfera y obtener información en diferentes capas con un satélite”.

Además de los satélites, también se obtienen observaciones mediante globos meteorológicos, que se utilizan desde hace 150 años y que todavía se lanzan dos veces al día, todos los días, desde unos 900 lugares de todo el mundo. Los globos alcanzan alturas de unos 32 kilómetros (el doble que los aviones) y los sensores de esos globos miden elementos como la temperatura, la humedad, el viento y la presión atmosférica.

“Incluso tenemos sensores desde aviones, de modo que cuando un avión despega, toma observaciones meteorológicas a través de la atmósfera”, agrega Michaud. También se toman observaciones desde barcos. También hay radares “que miran hacia arriba desde la superficie”, dice Michaud, “Todo eso se trae, para después controlar la calidad, porque hay que hacer que esa condición inicial sea un estado continuo.

“Si tienes un sensor defectuoso que informa una temperatura de 500 grados o algo así, necesitas una forma de averiguar cómo descartar esa observación para que no cree esos puntos críticos”.

La magnitud del desafío que enfrentan Michaud y sus colegas en todo el mundo es difícil de asimilar. En su nivel más fundamental, calcular el clima es un problema de dinámica de fluidos computacional (CFD), pero que abarca todo el planeta.

La atmósfera debe dividirse en segmentos tridimensionales, cada uno de los cuales recibe el impacto de los que lo rodean. No se puede ver nada de forma aislada.

NOAA - Dogwood. Credit to GDIT
– GDIT

Los modelos meteorológicos numéricos suelen funcionar con espaciado espectral o con espaciado de cuadrícula, explica Michaud. En el caso del espaciado de cuadrícula, que quizá sea más sencillo de entender, los valores tienen que estar asociados a cada punto de la cuadrícula, pero eso no siempre es posible. Los aviones y los barcos se mueven y no todas las superficies tienen una observación en ese punto.

“Hay que encontrar formas de extrapolar todo eso. También puede haber áreas dispersas en las que no se tienen muchas observaciones y es necesario poder completarlas. Por lo tanto, para crear esa condición inicial, se toman todas esas observaciones para después observar un pronóstico anterior y así ajustar las observaciones a ese pronóstico”, dice Michaud.

“Realizas un control de calidad comparándolo con otras observaciones y pronósticos previos para obtener una atmósfera continua como condición inicial de partida”.

A partir de la condición inicial de partida, los meteorólogos avanzan progresivamente en el tiempo a través de las ecuaciones basadas en la física que predicen el clima.

“Una de las cosas que hacemos con nuestros modelos es tomar una condición inicial y perturbarla de muchas maneras diferentes, y luego ejecutar el mismo pronóstico a partir de diferentes condiciones iniciales”, dice Michaud. “A eso lo llamamos un conjunto de modelos. Si observas todos los modelos y están estrechamente acoplados, tienes una confianza bastante alta, pero cuanto más divergen, menor es la confianza”, explica.

Pero Michaud reconoce que “el modelado de conjuntos es otra forma de reducir los ciclos computacionales”.

La correlación directa entre más cálculos y mejores pronósticos

Los servicios meteorológicos están ampliando continuamente su capacidad computacional para brindar mejores pronósticos del tiempo.

La NOAA completó una actualización de su Sistema de Supercomputación Operacional Meteorológica y Climática (WCOSS) en el verano de 2023, dotándolo de dos supercomputadoras gemelas con 14,5 petaflops de capacidad de cómputo, un aumento del 20 por ciento en comparación con la solución anterior.

Met Éireann también ha lanzado recientemente una nueva supercomputadora en colaboración con Dinamarca, Islandia y los Países Bajos, denominada “UWC-West”. La supercomputadora está alojada en el centro de datos de la Oficina Meteorológica de Islandia y, según Hally, el enfoque colaborativo ofrece “más beneficios por nuestro dinero”.

“Al aunar los recursos de cada país, pudimos comprar una supercomputadora que era más poderosa que la que cualquier país podría tener por sí solo”, afirma. “También es una puesta en común de conocimientos. De modo que cada una de las cuatro instituciones tiene experiencia en diferentes áreas de modelado numérico del tiempo, de modo que podemos reunir toda esa experiencia”.

Hally dice que alojar la computadora en Islandia, con sus temperaturas frías y abundante energía limpia, significa que es neutral en carbono y funciona con energía 100 por ciento renovable.

Se ofrecen previsiones “mejores” de diversas maneras. La nueva supercomputadora UWC-West no se compara con las máquinas de la NOAA (la UWC-West puede gestionar 4 billones de cálculos por segundo, frente a los 27 billones de su homóloga estadounidense), pero aun así la actualización ha supuesto una diferencia significativa en las previsiones de Met Éireann.

“El modelo meteorológico numérico que antes ejecutábamos en nuestras supercomputadoras se actualizaba ocho veces al día, es decir, cada tres horas. La nueva supercomputadora nos permite actualizar el modelo cada hora”, afirma Hally.

Hally también llama la atención sobre la cuestión de los modelos de conjunto: su importancia y cómo requieren más cálculos.

“Cuando se hace un modelo numérico del tiempo, no se hace una sola simulación del tiempo, sino muchas”, explica. “Esto es para tener en cuenta la incertidumbre natural: factores como el caos y el efecto mariposa entran en juego. Existe una incertidumbre inherente natural en la previsión meteorológica, hay que hacer muchas simulaciones para captarla toda”.

Antes hacíamos 15 simulaciones diferentes cada tres horas, pero ahora hacemos 30 simulaciones diferentes”.

Una mayor potencia computacional también puede mejorar los modelos a nivel de resolución. Reducir el espaciado de la cuadrícula proporciona un mayor nivel de precisión en los resultados de las previsiones, pero también complica el proceso.

Como dice Michaud: “Digamos que duplicamos la resolución, de un modelo de 30 km a uno de 15 km por espacio de cuadrícula. Eso no es solo duplicar la capacidad de procesamiento, sino que la duplicamos en varias direcciones diferentes. Por lo tanto, en lugar de duplicar, podríamos necesitar algo así como 16 veces la capacidad de procesamiento”.

52572366112_6c473fc92d_k.original
– CEPMPM

Se pueden agregar detalles adicionales a un modelo introduciendo elementos como componentes oceánicos o nueva física de nubes, los cuales agregan complejidad física a un modelo que ya es físicamente complejo.

Todo esto –las observaciones iniciales y luego las simulaciones derivadas de los modelos– crea cantidades astronómicas de datos, que deben almacenarse.

Albergar la atmósfera

El Centro Europeo de Previsiones Meteorológicas a Medio Plazo (CEPMPM) posee uno de los mayores bancos de datos atmosféricos del mundo.

Acercándose a su 50° aniversario, el ECMWF ha estado ejecutando modelos operativos desde finales de la década de 1970 y, según Umberto Modigliani, su director de pronósticos y desarrollo de servicios, ha estado archivando todos los pronósticos que produce tanto a nivel operativo como para investigación.

“El tamaño de ese archivo es de aproximadamente un exabyte”, afirma. “Es uno de los archivos de datos meteorológicos más grandes del mundo”.

Las previsiones no solo se orientan hacia el futuro, sino que se dedican grandes esfuerzos a reanalizarlas, es decir, a reproducir las condiciones meteorológicas del pasado. Según Modigliani, este tipo de previsiones se vienen realizando desde aproximadamente 1940.

“Los datos que se producían hace mucho tiempo todavía son relativamente pequeños porque, en aquel momento, los recursos informáticos no eran tan potentes”, explica. “Se utilizaba uno de los primeros sistemas Cray que, en comparación con los que utilizamos hoy, tenía mucha menos potencia. El primero, el ECMWF, tenía alrededor de 16 CPU”.

Modigliani afirma que la mayor parte del archivo “se ha producido más recientemente”. Explica: “Normalmente, lo que utilizamos actualmente es un modelo global con una resolución de unos 10 km. Cada día, producimos más de 100 terabytes de datos y archivamos algo así como medio petabyte por día. El tamaño del archivo está creciendo muy rápidamente, debido a lo que estamos haciendo ahora, no a lo que teníamos en el pasado”.

La gran mayoría de esos datos se almacenan localmente utilizando un medio de almacenamiento claramente tradicional.

“Nuestro archivo todavía se basa principalmente en cintas”, dice Modigliani. “Tenemos un sistema de archivos paralelo. Si se accede a datos recientes, normalmente se hará desde los discos de la supercomputadora. Si se estuvieran observando las tendencias de temperatura en algún momento de los últimos 20 años y se necesitaran ver nuestras previsiones operativas para ese período, entonces se encontraría en cintas que luego se transferirían a discos”.

“También hay un catálogo accesible online. Tratamos entre medio millón y un millón de solicitudes diarias de personas”, añade Modigliani.

El uso de almacenamiento en cinta también es el método preferido al otro lado del océano Atlántico, en la NOAA.

La NOAA tiene un componente dedicado al archivo de datos: los Centros Nacionales de Información Ambiental (NCEI). “Es importante porque a medida que se obtienen mejores tecnologías computacionales y mejores modelos físicos, se pueden volver a ejecutar modelos con datos anteriores y luego usarlos para asegurarse de que se están capturando extremos en diferentes situaciones”, le dice Michaud a DCD.

Aunque también se utilizan cintas para gran parte del almacenamiento, la solución conlleva sus propios desafíos. “Si se almacena en cinta, que es una solución asequible, las densidades de cinta, las tecnologías de cinta y las unidades de cinta cambian con el tiempo, y luego hay que migrar todo eso a la nueva tecnología. Por lo tanto, a medida que aumentan los datos, también aumenta la capacidad de la tecnología para almacenarlos en una mayor densidad de datos”, explica, y añade que la migración de cintas es un proceso continuo en la NOAA, que lleva décadas en marcha.

Sin embargo, la NOAA no ha hecho ningún movimiento hacia el almacenamiento en la nube, aunque Michaud señala que otros en la industria están considerando esa posibilidad.

Computación en la nube

En abril de 2021, la Oficina Meteorológica del Reino Unido firmó un acuerdo con Microsoft que permitiría a ambos colaborar en una nueva supercomputadora.

Sin embargo, sería incorrecto describir la supercomputadora como “basada en la nube pública”. Como informó anteriormente DCD, la supercomputadora en realidad está alojada en una instalación de supercomputación dedicada dentro de un centro de datos en la nube de Microsoft en el Reino Unido.

“Microsoft está alojando las múltiples supercomputadoras que sustentan este servicio en salas dedicadas dentro de los centros de datos de Microsoft que han sido diseñadas y optimizadas para estas supercomputadoras, en lugar de un alojamiento genérico en la nube”.

“Esto incluye configuraciones de energía, refrigeración y redes adaptadas a las necesidades del programa, incluida la eficiencia energética y la resiliencia operativa. Por lo tanto, las supercomputadoras están alojadas en una instalación de supercomputación de Microsoft 'dedicada' para este proyecto”.

La solución tiene sus propias capacidades de almacenamiento, pero también puede aprovechar las ofertas disponibles en la nube de Microsoft.

Ian Colle, director general de informática avanzada de Amazon Web Services (AWS), aboga firmemente por realizar modelos de previsión meteorológica en la nube.

Durante la conferencia AWS Re:Invent 2024, Colle le contó a DCD sobre un cliente en particular, MAXAR, que usa AWS precisamente para ese propósito y, según afirmó Colle, con gran efecto.

“En MAXAR toman el conjunto de datos del Servicio Meteorológico Nacional y pueden publicar su modelo antes que el Servicio Meteorológico Nacional porque pueden desplegar los recursos flexibles en AWS, a diferencia de lo que hace la NOAA con su clúster fijo en las instalaciones”, dice Colle.

Colle señala que es lo suficientemente confiable como para que esto sea una gran parte del valor de su negocio, y los clientes de MAXAR pueden usar el informe meteorológico para analizar productos e inversiones.

Según Colle, MAXAR está realizando este trabajo con el mismo nivel o mayor fidelidad que la NOAA, en menos tiempo.

La convergencia de la computación en la nube y los datos meteorológicos también se puede ver, hasta cierto punto, en el trabajo del ECMWF. Bajo el paraguas del ECMWF se encuentra la Nube Meteorológica Europea (EWC).

El EWC entró en pleno funcionamiento en septiembre de 2023 y se describe a sí mismo como un “centro para la comunidad meteorológica de los Estados miembros y colaboradores del ECMWF y de EUMETSAT, de modo que los usuarios de diferentes países y organizaciones puedan reunirse para colaborar y compartir recursos”.

El EWC, explica Modigliani, está alojado en el centro de datos del ECMWF (al igual que su supercomputadora), pero es un “sistema físicamente separado”. Está conectado al archivo y a la supercomputadora a través de una red interna.

“Los datos que generamos diariamente también fueron una de las principales razones para tener este servicio en la nube, ya que nos permitía ofrecer más flexibilidad en cuanto al tipo de aplicaciones que se podían ejecutar”, afirma. “Queríamos tener ese sistema en las instalaciones, debido a la cantidad de datos a los que, en principio, podían acceder los usuarios. Analizamos la posibilidad de utilizar un proveedor de nube pública, pero si se quieren utilizar los 100 terabytes que se generan diariamente, habría que transferirlos, lo que no es factible”.

La oferta en la nube también ofrece a los usuarios más flexibilidad.

El superordenador no es el único que utiliza el ECMWF para realizar previsiones: los usuarios de los Estados miembros también pueden acceder a él. Sin embargo, el sistema HPC lo gestiona el ECMWF y "los usuarios no tienen mucha flexibilidad en cuanto al tipo de aplicaciones que pueden implementar en el sistema".

“La idea es que obtengan su propia infraestructura [en EWC]. Creamos tenencias donde tienen sus propias máquinas virtuales (VM). En este momento, el servicio básico son las VM, pero también hay algunas que ejecutan clústeres de Kubernetes y luego, si el usuario lo desea, podemos administrar las cosas a nivel de infraestructura como servicio”.

“Algunas de las cargas de trabajo simplemente no se pueden realizar en un HPC. Por ejemplo, crear un servicio basado en la web al que se pueda brindar acceso a otra persona no podría ejecutarse en un HPC. Por eso, para nosotros, el EWC es más bien un complemento al HPC principal para facilitar aplicaciones que antes no existían”, afirma Modigliani.

Otra diferencia notable es la composición del hardware. El sistema HPC del ECMWF se basa principalmente en CPU, y solo un segmento relativamente pequeño utiliza GPU. El EWC funciona tanto con CPU como con GPU, lo que, según Modigliani, se debe a la demanda de GPU "particularmente en los últimos años", ya que el crecimiento de los sistemas de IA hace que los aceleradores sean más difíciles de conseguir.

GPU y modelos de IA

La supercomputadora UWC-West de Met Éireann se basa únicamente en una CPU. Hally, de Met Éireann, afirma que la adquisición de ese sistema comenzó en 2019 o 2020 y, en ese momento, la inteligencia artificial y la previsión meteorológica "no eran realmente el tema principal que son ahora".

Este enfoque en las CPU para el clima se debe al hecho de que los modelos numéricos utilizados para el pronóstico del tiempo no están diseñados teniendo en cuenta las GPU.

H100 Hopper GPU.png
– Nvidia

“El código de modelado meteorológico tradicional (el código de computadora real) se escribió originalmente para funcionar en CPU en términos de la forma en que se paralelizaba y enviaba a procesadores individuales, pero hay esfuerzos en curso para cambiar el código para que pueda usarse en GPU porque esa es la dirección en la que se dirige la industria y hacia dónde se dirige la tecnología”, dice Hally.

ECMWF también está trabajando para que su código funcione para las GPU.

“El problema es que el modelo que estamos utilizando –el sistema de previsión integrado (IFS)– es un modelo basado en la física”, dice Modigliani. “En primer lugar, está escrito en su mayor parte en [lenguaje de programación] Fortran en este momento. Se ha desarrollado durante los últimos 20 años aproximadamente, y ciertamente tiene más de un millón de líneas de código.

“Es un gran fragmento de código con muchos componentes diferentes y, en la práctica, es necesario reescribirlo por completo. No es un esfuerzo que se logre en poco tiempo”.

El ECMWF ha estado realizando algunas pruebas en GPU (Modigliani citó como ejemplo el proyecto Destination Earth, que tiene acceso a recursos de EuroHPC, incluidas las supercomputadoras Lumi, Leonardo y MareNostrum 5 en Europa), pero hasta ahora el rendimiento no ha mejorado radicalmente.

“Hay algunas áreas que podrían beneficiarse del uso de GPU, pero aún necesitamos mejorar la versión GPU del modelo al menos en un factor de cinco”.

Sin duda, los vientos soplan en la dirección de las GPU. En septiembre, la NOAA anunció una subvención de 100 millones de dólares de la Ley Bipartidista de Infraestructura y Reducción de la Inflación, que se utilizará para la adquisición de una nueva supercomputadora denominada Rhea. Rhea estará equipada con una cantidad no especificada de GPU y, según la NOAA, se utilizará para "fortalecer la exploración y aplicación de la inteligencia artificial y las capacidades de aprendizaje automático de la NOAA".

Como lo expresó Hally, de Met Éireann, las perspectivas están “cambiando rápidamente”. “Cada dos meses leo un nuevo artículo científico sobre un avance en la inteligencia artificial y la predicción meteorológica”, afirma.

Cabe destacar que en diciembre pasado Google anunció que su laboratorio de investigación DeepMind había desarrollado un modelo de predicción meteorológica de IA llamado GenCast que, según afirma, supera a los métodos tradicionales en pronósticos de hasta 15 días. Esto "marca una especie de punto de inflexión en el avance de la IA para la predicción meteorológica", dijo Ilan Price, científico de investigación de Google DeepMind, en un comunicado.

Hally añade que, una vez que se entrena un modelo, la cantidad de GPU necesarias para ejecutarlo es mucho menor. “También se puede implementar en hardware y arquitecturas muy simples, lo que significa que se pueden poner los modelos a disposición de aquellos en países en desarrollo que no tienen tanto acceso a la informática de alto rendimiento y que luego pueden hacer sus propias simulaciones para su propia área de interés”.

Lo que sigue siendo una certeza es que la búsqueda de más capacidad de procesamiento no llegará a su fin en el corto plazo.

"No veo el fin de esto", dice Michaud. "Hablando en serio, hemos estado haciendo esto durante mucho tiempo, y creo que lo que terminará sucediendo es que los científicos e investigadores tendrán que priorizar el equilibrio entre el aumento de la resolución, la complejidad y la certeza.

“Puede optar por trabajar con una mejor simulación de datos y no hacer tanto con el modelo, o puede hacer menos simulación y aumentar la complejidad del modelo”.

Modigliani reiteró este sentimiento: “Para nosotros y para otras organizaciones es muy difícil decir ‘hagamos una pausa y esperemos unos años’. El objetivo es siempre ofrecer el pronóstico más útil”.

Los presentadores de televisión que quieran evitar su propio “momento Michael Fish” seguramente agradecerán la ayuda adicional.