Diez conceptos equivocados comunes sobre la PNT

Esta lección incluye algunos detalles desactualizados sobre los modelos, pero los conceptos equivocados que presenta siguen siendo válidos.


1. El análisis debe coincidir con las observaciones

  • El concepto equivocado
  • Datos observados frente a resolución y física del modelo: Datos observados
  • Datos observados frente a resolución y física del modelo: Explicación de las discrepancias
  • Asimilación cíclica
  • Cómo se toman en cuenta estos factores
  • Ponga a prueba sus conocimientos
  • La realidad

1. El análisis debe coincidir con las observaciones » El concepto equivocado

Podríamos suponer que para generar el mejor pronóstico posible con un sistema de predicción numérica del tiempo, o PNT, el análisis inicial del modelo debe coincidir a la perfección con las observaciones empleadas en dicho análisis. Estaríamos suponiendo mal.

¿Qué hay detrás de este concepto equivocado y contrario a la intuición? Vamos a ver.

El análisis inicial es el resultado de una complicada combinación de las observaciones y un pronóstico a corto plazo generado por el modelo al que denominamos campo de prueba (o primera aproximación), cuyo objetivo es brindar el mejor punto de partida posible para el modelo de pronóstico. El análisis debe tener en cuenta factores tales como el distinto grado de precisión de los diversos sistemas de observación empleados, la posibilidad de que algunas observaciones sean incorrectas y la importancia relativa del campo de prueba y de las observaciones. El análisis debe además ser coherente con la resolución y con la física del modelo. Por estos motivos, el análisis inicial del modelo diferirá en cierta medida de las observaciones.

1. El análisis debe coincidir con las observaciones » Datos observados frente a resolución y física del modelo: Datos observados

Para ilustrar por qué esto es así, consideremos el ejemplo de una malla de modelo en la cual, como es normal, se realizan varios tipos distintos de observaciones. Esta figura muestra una sección vertical, bidimensional, de la malla de un modelo tridimensional; como podemos ver, la malla se compone de una multitud de celdas rectangulares. Dentro del área de muestreo comprendida por la malla encontramos varios sistemas de observación distintos:


(a) Un sistema de observación en superficie (como los que forman parte de la red sinóptica) con un gradiente de escala inferior a la malla en cuanto a manto de nieve, topografía y temperatura de superficie.

(b) Una radiosonda atraviesa un chubasco de nieve de escala inferior a la malla.

(c) Un satélite que mide una radiancia específica de una capa atmosférica que es más gruesa que la altura de las celdas individuales de la malla.

(d) Un avión que mide vientos de escala inferior a la malla a la altura del yunque de un cumulonimbo.

Hay tres otros puntos de observación superficial, todos dentro de la misma celda de la malla:

(e) en la zona debajo de la lluvia convectiva;

(f) en la zona antes de la actividad convectiva, delante de la nube;

(g) en la zona después de la actividad convectiva, detrás de la nube.

Por lo general, la resolución de las observaciones en la atmósfera real difiere de la resolución del modelo, lo cual significa que las características que el modelo puede resolver "difieren" en cierto sentido de las que pueden resolver los sistemas de observación.

1. El análisis debe coincidir con las observaciones » Datos observados frente a resolución y física del modelo: Explicación de las discrepancias

En algunos casos, el modelo es incapaz de resolver ciertas características que, no obstante, se pueden detectar mediante las observaciones. En otras situaciones, el volumen muestreado por el sistema de observación es mayor que la celda de la malla que el modelo puede resolver. Es más, no debemos olvidar que el campo de prueba se usa siempre en el análisis. Esencialmente, el análisis considera que el campo de prueba es otro tipo de datos cuyos valores están disponibles en la totalidad de la malla tridimensional.

Consideremos algunas de estas ideas más a fondo:


(1) Resolución de la muestra en la atmósfera frente a resolución del modelo:

El satélite mide las radiancia media en una capa profunda de la atmósfera, mientras que la resolución vertical del modelo excede la capacidad de percepción del satélite.

(2) Coherencia con la física del modelo:

El análisis agrega humedad para reflejar la humedad observada en un sitio tal como el que se encuentra en el chubasco. No obstante, si la atmósfera del modelo tiende ser excesivamente seca, el modelo simplemente precipitará mucha humedad en los primeros intervalos de tiempo para ajustarse al nivel de sequedad que requieren sus propios parámetros físicos.

(3) Celdas de malla sin datos observados:

Habrá numerosas celdas en la malla sin ningún dato observado que se pueda aplicar al análisis , como, por ejemplo, sobre los océanos, en las regiones polares y a gran altura en la atmósfera. El análisis rellena estas faltas de datos con los valores del campo de prueba.

(4) Observaciones incorrectas o en conflicto:

Sí, hay que admitir que a veces algunas observaciones son incorrectas, y el análisis puede o no rechazarlas, según los criterios de rechazo empleados. Es fácil identificar y rechazar las observaciones que son claramente incorrectas, pero es más difícil encontrar los errores menores. Incluso cuando los datos observados son correctos, es fácil que haya datos en conflicto dentro de una sola celda de la malla. Por ejemplo, las tres observaciones alrededor del chubasco se hallan en la misma celda de la malla, pero a los fines del análisis entran en conflicto, ya que miden fenómenos de escala inferior a la malla.

(5) Error de observación:

Hay un grado de error de observación inherente a todo sistema de observación. Algunos sistemas producen errores mayores que otros, de modo que el análisis da más o menos peso a las observaciones de los diferentes sistemas de observación. De hecho, se ignoran las observaciones cuya magnitud de error se considera lo suficientemente grande, de modo que no influyen en absoluto en el análisis.

(6) Estructura vertical:

La estructura vertical de los sistemas meteorológicos se debe representar correctamente en el análisis. Supongamos que nuestras observaciones superficiales muestran la presencia de un centro de baja presión, sin los correspondientes datos de los niveles altos. La inclusión de las observaciones superficiales en el análisis sin otros datos puede llevar a un pronóstico poco confiable, ya que en ese caso el modelo tiende a debilitar la baja si sus condiciones iniciales no  definen la estructura de apoyo en altura.

Relaciones entre masa y viento:

Las relaciones entre masa y viento son de suma importancia en el análisis, porque determinan el movimiento ageostrófico, que a su vez puede estar relacionado con importantes movimientos verticales. El campo de masa observado, representado por alturas geopotenciales, define el viento geostrófico que, una vez restado del viento realmente observado en el mismo lugar, produce el viento ageostrófico en ese sitio. Por tanto, la relación entre masa y viento se define mejor a partir de observaciones independientes, pero tomadas en el mismo lugar. Las radiosondas proporcionan este tipo de observación en cualquier columna atmosférica. Los satélites, por otra parte, solo proporcionan observaciones de masa donde el cielo está despejado y observaciones de viento solo en el nivel de las cimas de las nubes, donde es posible hacer el seguimiento del movimiento de las nubes. Estas observaciones no se realizan en el mismo lugar.

En resumidas cuentas, para producir el análisis objetivo se combinan varios tipos de datos de distintas características y coberturas geográficas con el campo de prueba. Conviene saber cómo el análisis ha sido afectado por la presencia (o ausencia) de los distintos tipos de datos meteorológicos y por la calidad del campo de prueba: es poco probable que se genere un buen pronóstico si el análisis inicial es débil.

1. El análisis debe coincidir con las observaciones » Asimilación cíclica

No es posible obtener un análisis meteorológico de buena calidad sin incorporar la asimilación cíclica. En este proceso, el análisis combina un pronóstico a corto plazo del modelo (el campo de prueba o de primera aproximación) con todas las observaciones disponibles: en la práctica, se utilizan las observaciones para hacer pequeñas correcciones en el pronóstico a corto plazo.

Vamos a utilizar el gráfico que aparece a continuación para ilustrar el proceso de asimilación cíclica. El eje vertical muestra el estado de una variable atmosférica en particular (temperatura, viento, etc.) en determinado punto de malla, mientras que el eje horizontal muestra el tiempo. Por lo tanto, el gráfico ilustra la evolución de la variable a lo largo del tiempo.

La línea roja indica el «verdadero» o «mejor» estado de la variable en el análisis dadas la resolución y física del modelo. La región color rosa representa la «zona de la verdad», que corresponde al rango admisible de valores dados la densidad y los errores de observación.


Antes de cada período de análisis, el modelo genera un pronóstico a corto plazo válido para el momento del análisis. Este es el campo de prueba. Debido a que los valores pronosticados por el modelo para las variables del campo de prueba cambian con el tiempo, pueden salir de la "zona de la verdad". El análisis debe usar los datos observados para reincorporar cada variable al rango aceptable y generar un análisis inicial que pueda servir como base para el próximo pronóstico del modelo.

Una de las principales ventajas de la asimilación cíclica es que permite retener la información útil de los análisis previos y conservarla para los pronósticos posteriores. Esto es particularmente importante en las áreas para las cuales se cuenta con pocos datos. Por ejemplo, para una zona en el medio del océano podríamos contar con un par de informes marinos a las 12 UTC que definen una zona de baja presión. Esta información se lleva hacia adelante a las 18 UTC por medio del campo de prueba. Si no se cuenta con ninguna observación para esa zona a las 18 UTC, el análisis procederá, «consciente» de la existencia de la baja gracia al procedimiento de asimilación cíclica. Esto significa que el análisis depende en cierta medida de la calidad del modelo de PNT empleado para crear el campo de prueba. Si el pronóstico a corto plazo no es muy bueno, es posible que las correcciones realizadas por el análisis no sean suficientes para reincorporar las variables del modelo a la «zona de la verdad». A su vez, esto puede llevar a la generación de otros pronóstico inadecuados.

En fin, el proceso de asimilación cíclica ha sido diseñado para crear una representación cuatridimensional del estado de la atmósfera en la cual los valores analizados de las variables atmosféricas son coherentes con los parámetros físicos, dinámicos y numéricos del modelo de PNT empleado en dicho proceso. El objetivo es extraer tanta información aprovechable como sea posible de las observaciones disponibles, pero evitando a la vez la información incoherente que pueda deteriorar el análisis.

1. El análisis debe coincidir con las observaciones » Cómo se toman en cuenta estos factores

Consideremos ahora un ejemplo de cómo se utilizan las observaciones para corregir el campo de prueba durante el proceso de análisis. En esta carta, las barbas negras representan los vientos cambiados por el análisis del campo de prueba de vientos de 250 hPa como resultado de haber tomado en cuenta las observaciones disponibles.


La diferencia entre los vientos observados y el campo de prueba se puede también calcular. Estas diferencias se trazan como barbas rojas en cada sitio de observación.

Si el análisis coincidiera a la perfección con las observaciones, las barbas de vientos rojas y negras coincidirían perfectamente. En la práctica, esto rara vez sucede, el análisis más bien peca por corregir menos de lo que podría. Por lo general, los cambios realizados en el campo de prueba tienden hacia el viento observado, tanto en cuanto a velocidad como a dirección, pero son menores de lo que sería necesario para que coincidan perfectamente con las observaciones.

Por ejemplo, podemos ver que la velocidad del viento se ha corregido menos de lo que se hubiera podido, pero que la corrección es hacia el valor observado en las estaciones de Omaha, Minneapolis, Amarillo, Midland y Little Rock (los círculos azules).

Considere ahora el caso de Peach Tree City, cerca de Atlanta (el círculo amarillo), donde ocurrió algo inusual: la observación muestra que el campo de prueba estaba equivocado a razón de 50 nudos. Esta diferencia es muy grande y, por tanto, el análisis supuso que la observación era incorrecta y la ignoró. Como resultado de esto, la corrección del campo de prueba muestra un viento ligero en la dirección opuesta a la observación.

Este tipo de situación es poco común. Si la observación es correcta, el análisis será incorrecto y puede producir un error de pronóstico. En este caso en particular los modelos de PNT no pronosticaron la tormenta de nieve que se produjo después de la hora del análisis.

Sin embargo, normalmente el análisis emplea las observaciones en el análisis con las correcciones antes descritas. Esto puede tener implicancias importantes para los sistemas en rápida fase de evolución o  para los sistemas que entran en la red de radiosondas por primera vez, como los que llegan a la costa oeste de EE. UU. desde el Pacífico. A menudo, el campo de prueba subestima la verdadera intensidad de dichos sistemas, de modo que puede pasar varios ciclos de asimilación antes de que el análisis alcance su verdadera estructura.

1. El análisis debe coincidir con las observaciones » Ponga a prueba sus conocimientos

En la lista siguiente, elija los procedimientos que serían útiles para evaluar las condiciones iniciales del modelo.

Explicación:

Las respuestas correctas están a), c), d) y e)

a) Debido a que el campo de prueba forma parte integral del análisis, sus debilidades se reflejarán en el análisis, especialmente en las zonas para las cuales se cuenta con pocos datos.

b) Aunque muchos de los casos de rechazo de datos se deben a observaciones incorrectas, es también posible que el análisis rechace observaciones correctas.

c) Los patrones en las imágenes de satélite reflejan las condiciones atmosféricas actuales, de forma que la comparación de las imágenes con el análisis puede contribuir a determinar si el análisis está encaminado hacia la solución correcta.

d) Suponiendo que las observaciones son correctas, la existencia de grandes diferencias entre el análisis y las observaciones indicará la presencia de áreas en la atmósfera cuya estructura no está bien definida en el análisis.

e) Los modelos numéricos de alta resolución pueden producir características espurias a una escala menor que la red de observaciones. Estas características pueden aparecer en el análisis a través del campo de prueba y su presencia puede contaminar el pronóstico posterior del modelo de PNT.

f) El análisis debe conservar su coherencia interna con los parámetros físicos, dinámicos y numéricos del modelo empleados en el proceso de asimilación. Por definición, el modelo no puede resolver los procesos de escala inferior a la malla, de modo que normalmente el análisis no conservará los detalles de estos procesos. Claramente, debemos estar conscientes de la falta de dichos detalles al emitir un pronóstico a corto plazo.

g) Las diferencias grandes en las observaciones pueden deberse a una o más observaciones incorrectas. Si las observaciones son correctas, es probable que las diferencias se deban a la medición de características de pequeña escala que no son representativas del promedio de la celda de la malla. En ambos casos, el análisis se produce de acuerdo con sus propias reglas que rigen el rechazo de los datos y el uso de las observaciones y el campo de prueba. Aunque en estos casos el análisis puede tener ciertas debilidades, puede también producir la mejor representación posible de la atmósfera dados los parámetros dinámicos, físicos y numéricos del modelo.

Escoja una opción.

1. El análisis debe coincidir con las observaciones » La realidad

Suponer que el análisis debe coincidir con las observaciones es un concepto equivocado.

Resumen:

  • El análisis inicial no debe necesariamente ser idéntico a las observaciones.
  • Se dan casos en los que las observaciones pueden resolver fenómenos atmosféricos que el análisis no puede discernir.
  • El modelo de PNT proporciona los datos para el análisis a través del campo de prueba en el proceso de asimilación cíclica.
  • En la mayoría de los casos, el análisis corrige las discrepancias entre las observaciones y el campo de prueba meno de lo que podría.
  • Por lo general, las observaciones con grandes discrepancias se ignoran. En los muy raros casos en que tales observaciones son correctas, el hecho de ignorarlas puede producir un pronóstico de calidad inferior.

Es importante tener en cuenta estas características de los procesos de asimilación y análisis a la hora de evaluar la guía de pronóstico del modelo numérico.

Para aprender más acerca de este tema, consulte Comprensión de los sistemas de asimilación: cómo los modelos crean sus propias condiciones iniciales, versión 2, una lección sobre la asimilación de los datos y las condiciones iniciales del modelo que forma parte del curso de aprendizaje a distancia sobre la PNT.

2. La alta resolución lo arregla todo

  • El concepto equivocado
  • La malla y la resolución del campo geofísico pueden afectar al pronóstico
  • ¿Cuándo contribuye una mayor resolución a un mejor pronóstico de precipitación?
  • ¿Garantizan mejores pronósticos los modelos de mesoescala?
  • Ponga a prueba sus conocimientos
  • La realidad

2. La alta resolución lo arregla todo » El concepto equivocado

En nuestros esfuerzos por generar el mejor pronóstico posible, podríamos suponer que lo más importante es ejecutar siempre el modelo de PNT a la mayor resolución posible, ya que esto siempre permitiría generar pronósticos de gran escala y mesoescala más exactos, ¿no es cierto? Y estos incluirían predicciones cuantitativas de la precipitación (PCP) muy exactas y detalladas, ¿verdad?

No, no es así.

Este es un concepto equivocado muy difundido acerca de los modelos de predicción numérica del tiempo. El hecho de ejecutar un modelo con una malla de 2 kilómetros no necesariamente nos ayuda a predecir en qué regiones específicas habrá convección mejor que un modelo con una malla de 80 km. Es más, a veces el modelo de alta resolución puede incluso empeorar el pronóstico de la precipitación u otro fenómeno atmosférico. Vamos a ver si algunos ejemplos pueden ayudarnos a comprender por qué este es un concepto equivocado.

2. La alta resolución lo arregla todo » La malla y la resolución del campo geofísico pueden afectar al pronóstico

Un episodio de nieve ocurrido en el sur de la región de Nueva Inglaterra el 30 de diciembre de 2000 nos permitirá demostrar que el hecho de ejecutar un modelo de alta resolución no siempre produce el mejor pronóstico cuantitativo de la precipitación (PCP).

Precipitación total del 30 de diciembre de 2000 según el análisis manual

La verificación de la precipitación total generada por esta tormenta muestra que hubo una zona de nieve muy fuerte en el sur del estado de Nueva York y en el norte de Nueva Jersey, donde se registraron cantidades en equivalente de agua líquida en el rango de 25 a 38 mm (1 a 1,5 pulgadas). Hubo incluso algunas pequeñas áreas en el sur de Nueva York donde las cantidades máximas de nieve observadas dieron un equivalente líquido superior a 38 mm.

El modelo AVN, que tiene una resolución horizontal de 80 km, pronosticó acumulaciones en equivalente de agua líquida en el rango de 25 a 38 mm (1 a 1,5 pulgadas) centradas en la zona oeste de Long Island. Aunque este modelo se acercó al resultado correcto, pronosticó la zona del evento demasiado al sur y al este.

Modelo AVN operativo, 80 km con TSM de Reynolds de resolución gruesaModelo Eta operativo, 22 km con TSM de Reynolds de resolución gruesa

El modelo ETA, con una resolución horizontal de 22 km, colocó el área de mayor precipitación incluso más al sur que el modelo AVN. Si comparamos los dos pronósticos con la verificación, queda claro que en este caso el modelo AVN generó un mejor pronóstico cuantitativo de la precipitación que el modelo ETA, pese a que el modelo ETA tenía casi cuatro veces la resolución que el modelo AVN.

Modelo Eta experimental, 22 km con TSM 2D-VAR de alta resolución

¿A qué se debe este resultado? Para encontrar una respuesta a esta pregunta, consideremos el mismo evento a la luz de un modelo ETA experimental que incorpora un análisis de alta resolución de la temperatura de la superficie del mar (TSM). Podemos ver que el PCP del modelo experimental es mucho mejor que el del modelo ETA operacional.

El modelo ETA con el análisis operacional de TSM de resolución más baja no pudo generar resultados tan buenos como el modelo AVN. El pronóstico del modelo ETA solo mejoró con el uso valores de TSM de resolución más alta que se acercaban a la resolución de malla del modelo ETA. La información adicional contribuyó a producir un mejor pronóstico cuantitativo de la precipitación. Pero dado que la resolución del modelo AVN se acercaba más a la del análisis de TSM de resolución más baja, en este caso hubiera sido mejor confiar en los resultados del pronóstico cuantitativo de la precipitación generados por este modelo, pese a la mayor resolución del modelo ETA operacional.

En resumidas cuentas, en este caso la mayor resolución del modelo no pudo generar un mejor pronóstico. Al contrario, simplemente logró aumentar la sensibilidad del modelo ETA a la temperatura de la superficie del mar. La aplicación de una TSM de mayor resolución afectó al pronóstico cuantitativo de la precipitación generado por el modelo ETA de forma muy positiva. Por otra parte, debido a su menor resolución, el modelo AVN dio resultados razonablemente buenos con el análisis operacional de TSM de menor resolución.


2. La alta resolución lo arregla todo » ¿Cuándo contribuye una mayor resolución a un mejor pronóstico de precipitación?

Consideremos ahora un escenario en el cual un modelo de mayor resolución sí conduce a un mejor pronóstico de la precipitación.

Esta situación ocurrida el 23 de febrero de 1998 presenta el potencial de crecidas en el sur de California, a medida que un fuerte flujo marino alcanza una barrera topográfica. En ciertas partes de los condados de Los Ángeles, Ventura y Santa Bárbara se observó una lluvia muy fuerte, registrándose más de 200 mm (8 pdas.) y, en ciertas zonas, más de 300 mm (12 pdas.) de lluvia.

Lluvia observada en la zona de Los Ángeles, 23 de febrero de 1998

Si comparamos los pronósticos cuantitativos de la precipitación (PCP) generados por los modelos ETA de 29 y de 10 km con las cantidades de precipitación observadas, notamos en seguida que el PCP del modelo de mayor resolución se aproxima más al mapa de la verificación.

PCP del modelo Eta de 29 km y 10 km, zona de Los Ángeles, 23 de febrero de 1998

¿Por qué? En el ejemplo anterior vimos que una mayor resolución no condujo a un mejor pronóstico.

La respuesta tiene que ver con la resolución de la topografía y el hecho de que en este caso se trata de la interacción entre un flujo de escala sinóptica bien pronosticado y dicha topografía. Este es un escenario del mejor caso posible para aprovechar al máximo un modelo de mayor resolución. Si consideramos con cuidado la topografía del modelo (las líneas grises en los dos mapas de pronóstico), queda claro que se ve mucho más detalle a 10 que a 29 km de resolución.

En ambos casos la topografía fuerza el movimiento vertical y, por lo tanto, causa la precipitación en el fuerte flujo desde el suroeste, pero el grado de forzamiento es distinto según los detalles de la topografía. El modelo de resolución más alta localiza mucho mejor las áreas de mayor precipitación. Aunque las cantidades pronosticadas siguen siendo menores que la precipitación que ocurrió en la realidad (a razón de hasta 100 mm en algunos casos), las áreas de lluvia más fuerte se aproximan bastante al patrón observado. El pronóstico generado con el modelo de resolución de 10 km es muy útil.

En esta situación, un flujo con fuerte forzamiento sinóptico se desplaza encima de una topografía muy bien definida. Es más, no hay ningún efecto secundario importante, como circulaciones de valle y montaña o de brisa marina. Dadas estas circunstancias, en términos generales podemos esperar que un modelo de mayor resolución pueda generar un pronóstico de precipitación más preciso.

2. La alta resolución lo arregla todo » ¿Garantizan mejores pronósticos los modelos de mesoescala?

La comunidad científica tiene acceso a modelos de PNT modernos de muy alta resolución que incorporan parámetros de microfísica muy avanzados. ¿Obtendríamos automáticamente mejores pronósticos mediante el uso operacional de dichos modelos?

Para considerar un ejemplo de esta posibilidad, estudiaremos el resultado generado en retrospectiva por un modelo de alta resolución para un evento de clima violento de verano que generó un tornado cerca de Oklahoma City en mayo de 1999.

Evento convectivo violento cerca de Oklahoma City, mayo de 1999: secuencia animada que compara el radar y el modelo ARPS no operativo

Esta secuencia de imágenes presenta las reflectividades del radar observadas la tarde del 3 de mayo entre las 17:10 y las 20:50 horas junto con las reflectividades simuladas por el modelo para esos mismos momentos sobre la base del modelo ARPS no operativo. Este modelo, que tiene una resolución horizontal de 3 km, toma en cuenta la microfísica del hielo e incorpora varios otros componentes avanzados. El modelo se inicializó con los datos del radar obtenidos después de la formación de las primeras células convectivas, más temprano en el día.

El pronóstico del modelo y las observaciones se asemejan en términos del área general donde se produce la convección. Sin embargo, si consideramos con cuidado las imágenes individuales prestando particular atención las fronteras entre los condados, podemos ver que el modelo no es exacto en su representación de los detalles de posición e intensidad de la convección. Dichos detalles son necesarios para generar avisos exactos.

Por ejemplo, a las 18:50 se está desarrollando un tornado cerca de este notable eco en forma de gancho, pero el modelo ARPS muestra que la célula está debilitándose y que ya se ha desplazado más al noreste.

Detalles a las 18:50 que muestran eco en forma de gancho y la tormenta debilitada

Claramente, los modelos de alta resolución como el ARPS no producen siempre un mejor pronóstico. Un motivo práctico es simplemente la disponibilidad en el momento oportuno: la salida de dichos modelos no está disponible con suficiente rapidez para que resulte útil al formular el pronóstico. Por ejemplo, en este caso fue preciso inicializar el modelo con los datos de radar correspondientes al desarrollo inicial de las células, pero el pronóstico que generó no estuvo disponible sino mucho más tarde.

Más importante aún, sin embargo, es la necesidad de reconocer las limitaciones básicas inherentes a los modelos de muy alta resolución. Los datos de las observaciones empleados por dichos modelos no están siempre disponibles a la resolución necesaria, lo cual significa que a veces el análisis inicial puede «llenar los vacíos» con detalles incorrectos. Por otra parte, para obtener un pronóstico correcto de la actividad convectiva es preciso que la estructura atmosférica empleada en el modelo sea «perfecta». Esto incluye la humedad atmosférica, que aparte de ser muy variable es difícil de analizar. Además, no es suficiente contar con una estructura perfecta de la atmósfera superior en el modelo: las variables y los procesos de capa límite y de superficie, como temperatura, humedad, mezcla, vegetación, tipos de suelo y evaporación, determinan en parte la inestabilidad y, por consiguiente, el desarrollo de la convección. Aunque estos factores se modelan en mayor o menor medida, es posible que un modelo dado no incluya un tratamiento pleno de todos estos elementos. Finalmente, es poco probable que se obtengan representaciones numéricas perfectas de los procesos de precipitación a través de los paquetes de física de los modelos. Por ejemplo, el modelo puede no detectar los límites de las corrientes de salida, que a menudo inician nueva convección. Por estos motivos, no hay garantía de que ningún modelo, incluso los de muy alta resolución, pueda pronosticar la precipitación convectiva en el área general correcta, pero suponiendo que llegara a hacerlo, es poco probable que maneje correctamente todos los detalles de posición e intensidad de la convección.

Limitaciones de los modelos de alta resolución:

  • El análisis puede llenar los «vacíos» en los datos con detalles incorrectos.
  • Generar un pronóstico de convección correcto depende de una representación exacta de los parámetros de la atmósfera superior, algunos de los cuales son muy variables y, por tanto, difíciles de analizar.
  • Es posible que ciertas variables importantes de la capa límite y de la superficie no se representen bien en el modelo.
  • Es poco probable que los procesos de precipitación se representen a la perfección.

2. La alta resolución lo arregla todo » Ponga a prueba sus conocimientos

¿Cuáles de los siguientes enunciados resumen una idea que convendría recordar de la discusión acerca de este concepto equivocado? Elija todas las opciones pertinentes.

Explicación:

Las respuestas correctas están b) d) y e)

a) Un flujo de gran escala puede estar bien definido incluso con datos de baja resolución. Tales flujos pueden interactuar con la topografía detallada de un modelo de mesoescala para producir pronósticos más exactos de vientos y precipitación de lo que sería posible obtener con modelos de resolución más baja.

b) Las características bien definidas, como la temperatura de superficie del mar o la vegetación, pueden afectar al pronóstico a una escala que un modelo de mayor resolución puede manejar; estas características bien definidas se pierden en los análisis de resolución más baja.

c) Si el proceso de asimilación maneja correctamente las característica de menor escala y si la física del modelo es adecuada para dichas escalas, entonces es posible que el modelo de alta resolución produzca un mejor pronóstico.

d) El terreno influye directamente en ciertas variables, como la precipitación y el viento. Claramente, si el modelo incorpora una descripción más detallada del terreno, en ciertas situaciones puede interactuar con el flujo atmosférico para producir un mejor pronóstico.

e) El uso de más datos significa que el análisis tarda más tiempo en ejecutarse. Si aumentamos la resolución horizontal y vertical, tendremos que reducir el intervalo de tiempo considerado por el modelo y el tiempo de ejecución del modelo aumentará, debido a la mayor resolución espacial y temporal. Finalmente, una salida de mayor resolución implica archivos más grandes y, por tanto, una diseminación más lenta de la información.

Escoja una opción.

2. La alta resolución lo arregla todo » La realidad

Ejecutar los modelos a la mayor resolución NO SIEMPRE permite generar pronósticos más exactos.

Uno de los principales aspectos que hay que tener presentes es que todos los componentes del modelo funcionan en sinergia. Esto significa que la mayor resolución funciona mejor si el modelo también incorpora paquetes de física mejores y más realistas, así como más detalles en las especificaciones de superficie de los campos, tales como suelo, vegetación, temperatura de superficie del mar y topografía. Es también necesario contar con datos de alta resolución, y el sistema de asimilación de los datos debe manejar dichos datos correctamente a la resolución del modelo. De hecho, es probable que los datos y su asimilación sean los factores más importantes para obtener mejores pronósticos de los modelos de PNT de alta resolución.

Resumen:

  • El modelo debe poder aprovechar los campos de superficie a una resolución comparable a la de la malla.
  • Se deben incorporar paquetes de física realistas en el modelo.
  • Es sumamente importante contar con datos de alta resolución y con una asimilación correcta de los datos.

Para aprender más acerca de este tema, consulte la lección Fundamentos de los modelos: versión 2, que forma parte del curso de educación a distancia sobre la PNT, y la Enciclopedia de Modelos Operativos (Operational Models Encyclopedia).

3. Una malla de 20 km representa con precisión
las características de 40 km

  • El concepto equivocado
  • Resolución de características de pequeña escala
  • Los fenómenos atmosféricos como ondas
  • Características de escala más grande en los modelos numéricos
  • El concepto de degradación
  • Ponga a prueba sus conocimientos
  • La realidad

3. Una malla de 20 km representa con precisión las características de 40 km » El concepto equivocado

Con la ayuda de un modelo de alta resolución es posible aumentar la probabilidad de generar el pronóstico perfecto, incluso para los fenómenos de pequeña escala. Por ejemplo, los modelos de alta resolución nos ayudan a localizar con exactitud el lugar donde se producirá la mayor concentración de nieve por efecto lago y nos proporcionan pronósticos exactos de los efectos de los vientos orográficos sobre las temperaturas regionales, ¿no es así?

Pero, ¡un momento! Estas ideas son el resultado de un concepto equivocado común acerca de los pronósticos de PNT.

Las características que abarcan solo 2 o 3 puntos de malla no se resuelven bien en ningún modelo numérico. Un modelo de alta resolución con una malla de 20 km no puede resolver con precisión una característica de 40 km. Es más, para que pueda dar resultados adecuados, el modelo va a necesitar una resolución inferior a 10 km, e incluso con esa resolución una representación exacta de la característica no durará mucho en el pronóstico.

3. Una malla de 20 km representa con precisión las características de 40 km » Resolución de características de pequeña escala

Vamos a ver como un modelo de alta resolución resuelve algunas características típicas de pequeña escala.

La ilustración que sigue representa una zona de convergencia/divergencia asociada a un frente frío. La distancia entre los puntos de la malla, ΔX, es de 50 km. Las nubes asociadas con la extensa región de convergencia en los niveles inferiores (característica A) aparecerán en los campos del modelo. Sin embargo, ciertas características más pequeñas de la región de divergencia, como las características B, abarcan menos de 4 puntos de malla y no se resolverán adecuadamente.

Representación de una zona de divergencia/convergencia en una malla de 50 km que muestra características de nubosidad convergente a gran escala y características de nubosidad divergente a pequeña escala

Aunque las características de la zona de convergencia se traspasan a la malla de 50 km, esto no significa que estarán bien resueltas ni que su evolución se pueda pronosticar con precisión. Vamos a ver por qué estas características representarían un reto incluso para un modelo con una malla de 20 km.

3. Una malla de 20 km representa con precisión las características de 40 km » Los fenómenos atmosféricos como ondas

En los modelos numéricos, los fenómenos atmosféricos se pueden representar como ondas. Esta es la representación simplificada a 4 ΔX de un ciclo de la onda sinusoidal que corresponde a una banda de precipitación frontal observada asociada con una zona de convergencia/divergencia.

Representación en forma de onda de una característica de 80 km en una malla de 20 km

Los rombos azules muestran el valor promedio de la característica representada en cada celda de la malla y la línea amarilla muestra cómo se representa en el modelo.

El tamaño de la característica en relación con la malla es 4 ΔX. En este ejemplo, ΔX equivale a 20 km, es decir, la resolución del modelo en términos de la distancia entre puntos de la malla. La característica tiene una longitud de 80 km y se representa como una onda 4 ΔX.

Se nota en seguida que la onda del modelo (la línea amarilla) tiene una amplitud que corresponde a aproximadamente 2/3 la de la onda real, y que tiene una apariencia escalonada que no existe en la característica original. Aunque se distingue una onda, los detalles no están bien representados.

Si usamos esta representación para generar un pronóstico, surgirán problemas. Pongamos en marcha el modelo para ver la diferencia que se produce entre su representación y la característica real tras un breve período.

GIF animado de la representación en forma de onda de una característica de 80 km en una malla de 20 km que muestra la propagación de la onda.

En 170 minutos la característica observada se mueve a razón de un ciclo completo de la onda. El pronóstico del modelo, sin embargo, presenta un retardo de fase considerable. La onda del modelo se ensancha y pierde amplitud. El resultado es un pronóstico de calidad inferior de esta característica.

3. Una malla de 20 km representa con precisión las características de 40 km » Características de escala más grande en los modelos numéricos

¿Cómo se compara esto con como el modelo maneja una característica de mayor escala, por ejemplo, una que abarca 10 puntos de malla? Vamos a ver.

Representación en forma de onda de una característica de 200 km en una malla de 20 km

Esta onda representa una característica de 10 ΔX que podría ser, por ejemplo, una estela de humedad que abarca 200 km en la misma malla de 20 km. El modelo representa esta característica de forma mucho más fina de lo que vimos con el ejemplo de 4 ΔX.

Si animamos el modelo, podemos ver que la onda 10 ΔX conserva mucho mejor la definición de la fase y la amplitud de la característica durante el mismo intervalo de tiempo. En general, el pronóstico de esta característica es mucho mejor que el de la onda 4 ΔX.

GIF animado que compara la propagación de onda de una característica de 80 km y una de 200 km en una malla de 20 km.
GIF animado de la representación en forma de onda de una característica de 80 km en una malla de 20 km que muestra la propagación de la onda.

Aunque los detalles de retardo de fase, ensanchamiento de la onda y retención de la amplitud difieren de un modelo a otro, no existe ningún modelo capaz de reproducir con exactitud una característica 4 ΔX o menor. Sin embargo, una característica 10 ΔX se representará bien, e inicialmente se representarán bastante bien hasta las características que abarcan de 6 a 8 puntos de malla. Pero como veremos en el próximo ejemplo, con el tiempo incluso las características de ese tamaño se deterioran en el pronóstico del modelo.

3. Una malla de 20 km representa con precisión las características de 40 km » El concepto de degradación

Para comprender mejor por qué los análisis se degradan con el tiempo, vamos a considerar la ecuación de onda empleada para representar una característica. Esta onda representa una característica 7 ΔX, un vórtice de mesoescala que abarca 140 km en una malla de 20 km.

Representación en forma de onda de una característica de 140 km en una malla de 20 km

La representación inicial se compara bastante bien con la característica real, pero una vez puesta en marcha podemos ver que la onda se degrada con el paso del tiempo. Queda atrás respecto de la característica real, pierde amplitud y crea el comienzo de un pequeña onda de arrastre.

GIF animado de la representación en forma de onda de una característica de 140 km en una malla de 20 km que muestra la propagación de la onda.

Esta simple ecuación de pronóstico muestra la relación entre la velocidad de cambio local de la variable T y la correspondiente advección causada por el viento. A partir de la ecuación podemos ver que el término de advección contiene el gradiente de T que, para que el modelo pueda generar un pronóstico adecuado, se debe representar con exactitud como una diferencia espacial finita en el modelo.

Si nos fijamos en el tercer punto de malla, podemos ver que el gradiente del modelo (la pendiente de la línea verde entre el segundo y cuarto puntos de malla) se desvía del gradiente real (la línea azul) en ese punto. De hecho, el gradiente real, que es la pendiente de la onda en el punto de malla 3, es mayor.

Al ejecutar el modelo, la discrepancia entre el gradiente representado y el gradiente verdadero aumenta rápidamente y el pronóstico se degrada, alejándose de la realidad.

GIF animado de la representación en forma de onda de una característica de 140 km en una malla de 20 km que muestra la propagación de la onda.

En fin, cuantos más puntos de malla (cuanto menor el valor ΔX), tanto más puede el modelo acercarse a una representación fiel de los fenómenos atmosféricos y, como resultado, mantener un pronóstico más exacto. Cuanto mayor ΔX, menos puntos de malla habrá para representar la característica y, por tanto, tanto más rápido se degradará el pronóstico.

3. Una malla de 20 km representa con precisión las características de 40 km » Ponga a prueba sus conocimientos

Terminología para estas preguntas:

Resuelto/a significa que inicialmente la característica existe en el modelo numérico con una escala, ubicación y amplitud aproximadamente correctas, aunque no necesariamente con el grado de definición suficiente para que ese modelo pueda pronosticarla con precisión. Los modelos de PNT pueden resolver características que abarcan aproximadamente cuatro veces la distancia entre puntos de malla. Si una característica abarca menos de cuatro puntos de malla, quedará "escalonada" o mal definida , lo cual significa que se interpretará incorrectamente en términos de una longitud de onda mayor de la que tiene en la realidad.

Bien pronosticado/a significa que el análisis inicial del modelo resuelve la característica con una definición suficiente como para que esta se lleve hacia adelante en el tiempo de modo que tenga un grado razonable de precisión en la integración subsiguiente del modelo. Una característica se considera bien pronosticada si abarca al menos 8 a 10 puntos de malla.


Pregunta 1

Supongamos que está trabajando con un modelo numérico que tiene una malla de 12 km.

¿Podría este modelo resolver una onda corta en el nivel de 500 hPa? ¿Estaría bien pronosticada?


Explicación

Una onda corta es un fenómeno dinámico que existe y se desplaza en la atmósfera en diversos niveles. Podemos concebir una onda corta en el nivel de 500 hPa en términos de la ecuación de onda que estudiamos antes en esta sesión. Como típicamente las ondas cortas en el nivel de 500 hPa abarcan una escala horizontal de cientos de kilómetros, en un modelo de 12 km no solo se resolverían, sino que estarían bien pronosticadas.

Pregunta 2

Supongamos que está trabajando con un modelo numérico que tiene una malla de 12 km.

¿Se resolvería una brisa lacustre en la costa del Lago Superior? ¿Estaría bien pronosticada?


Explicación

Los fenómenos tales como la brisas lacustres y marinas y los vientos de valle deben su origen a las diferencias topográficas o entre zonas de tierra y agua, aunque una vez creadas las condiciones propicias, también tienen un componente dinámico en la atmósfera. Una brisa lacustre en la costa del Lago Superior puede extenderse una buena distancia a lo largo del litoral, y su escala perpendicular a la costa puede abarcar unas decenas de kilómetros sobre tierra y otros tantos sobre la superficie del agua. Willet y Sanders (Willet, H. C. y F. Sanders, 1959: Descriptive Meteorology. Academic Press. 355 págs.) explicaron que «al atardecer, la brisa de mar llega a su mayor alcance, adquiriendo a veces una extensión de hasta 30 millas tierra adentro y otras tantas sobre el mar». Esta escala horizontal, que equivale a una extensión total de aproximadamente 100 km, parece ser un límite máximo para las brisas marinas. Suponiendo una brisa lacustre de 50 km a lo ancho (lo cual abarca unos cuatro puntos de malla) en el momento de inicio del modelo de 12 km, esta brisa se resolvería (suponiendo una buena definición del límite tierra-agua en el modelo). Sin embargo, esta brisa es un fenómeno demasiado pequeño para que el modelo pueda pronosticarla bien. Las brisas de los lagos menores, o el comienzo de una brisa lacustre del Lago Superior, abarcarían zonas de mucho menos de 50 km de ancho. Una brisa lacustre con alcance de 20 km de ancho en el momento de inicio del análisis abarcaría menos de dos puntos de malla del modelo, de modo que probablemente existiría en el modelo, pero estaría mal definida y se representaría incorrectamente al comienzo. Esta brisa no estaría ni bien resuelta ni bien pronosticada en el modelo.

Anécdota

«El modelo LFM que se utilizaba en la década de 1980 y al comienzo de los años 90 tenía una separación entre puntos de malla superior a 100 km, una resolución horizontal muy gruesa en comparación con lo que consideramos la norma hoy en día. A veces, este modelo producía brisas lacustres para los lagos Superior y Michigan. Las brisas generadas por el modelo convergían luego sobre Eau Claire, Wisconsin, y el movimiento vertical resultante podía a su vez hacer que del modelo pronosticara precipitación para dicha ciudad. Esto resultaba totalmente fuera de lo real; el modelo sí incluía brisas lacustres, pero se equivocaba por completo en cuanto al detalle de sus dimensiones y su posición. Los modernos modelos de mayor resolución manejan las brisas lacustres mejor que el modelo LFM, aunque todavía no podemos contar con ellos para obtener los detalles correctos en cuanto a su alcance y ubicación».

Pregunta 3

Supongamos que está trabajando con un modelo numérico que tiene una malla de 12 km.

¿Se pronosticaría bien la precipitación orográfica relacionada con un fuerte flujo sinóptico del suroeste proveniente del Pacífico hacia la costa de Columbia Británica, en Canadá? ¿Qué escala se necesitaría?


Explicación

El fenómeno de precipitación orográfica está vinculado directamente a la topografía, a través de su interacción con el flujo de escala sinóptica prevaleciente. Aparte de esta interacción, no hay factores de dinámica atmosférica que causen el movimiento o la intensificación del área de precipitación. La precipitación coincidirá siempre con la topografía. Por lo tanto, si el flujo sinóptico se maneja correctamente, la precipitación orográfica se pronosticará bien hasta el límite del tamaño de la malla y de la topografía del modelo (resolución de 12 km). En estos casos, la característica no tiene que abarcar de 8 a 10 puntos de malla para que se pronostique bien.

3. Una malla de 20 km representa con precisión las características de 40 km » La realidad

En resumidas cuentas, los modelos de alta resolución no pueden resolver las características de pequeña escala. Estos modelos deben tener una resolución apropiada para la escala de las características que se incluirán en la representación numérica.

El factor más importante que determina la calidad de la resolución de una característica atmosférica es su tamaño en comparación con el tamaño de la malla del modelo. Aunque inicialmente las características que abarcan menos de 8 a 10 puntos de malla pueden representarse bastante bien, se degradarán rápidamente en cualquier modelo. En cuanto a las características de pequeña escala, como las brisas marinas, la nieve por efecto lago y los vientos orográficos, no hay forma de que un modelo de PNT los maneje correctamente a menos que abarquen de 8 a 10 puntos de malla. En un modelo de alta resolución con un valor ΔX de 10 km, ¡las características deben abarcar más de 80 km para resolverse bien y conservarse durante la integración del modelo!

Resumen

  • Un factor clave que determina si una característica se puede resolver es su tamaño en comparación con la distancia entre puntos de malla.
  • Los fenómenos atmosféricos deben ser al menos 8 veces mayores que la distancia entre puntos de malla (ΔX) para resolverse bien y conservarse por un período de pronóstico razonable.


Para aprender más acerca de este tema, consulte la sección «Resolución horizontal» de la lección Impacto de la estructura y dinámica de los modelos, versión 2 que forma parte del curso de educación a distancia sobre la PNT.

4. Las condiciones de superficie están representadas con precisión

  • El concepto equivocado
  • Campos de superficie en el modelo Eta
  • Campos de superficie en el modelo GEM
  • Comparación de los campos de superficie de los modelos Eta y GEM
  • Ejemplo de fracción de vegetación verde en el modelo Eta
  • Impacto de la vegetación
  • Efectos de la vegetación en un modelo de una columna
  • Ponga a prueba sus conocimientos
  • La realidad

4. Las condiciones de superficie están representadas con precisión » El concepto equivocado

Sería fácil suponer que los avanzados sistemas de PNT en uso hoy en día siempre representan correctamente las condiciones de superficie. Por ejemplo, que el modelo siempre sabe exactamente donde hay nieve en el suelo, que cuenta con los datos del estado actual de la vegetación, que utiliza valores analizados y exactos de la humedad del suelo y que, en caso de crecidas, define las zonas de terreno inundado.

No necesariamente. Aunque los modelos de PNT modernos incorporan tratamientos avanzados de las condiciones de superficie, en ciertas situaciones los pronósticos que generan requieren reajustes considerables, debido a las imprecisiones incluidas en las definiciones iniciales de las condiciones de superficie que emplea el modelo, o bien a ciertas debilidades en su forma de manejar dichas condiciones.

4. Las condiciones de superficie están representadas con precisión » Campos de superficie en el modelo Eta

En primer lugar, consideremos cómo dos modelos de PNT operativos, el modelo Eta para EE. UU. y el modelo GEM regional canadiense, manejaban los parámetros de vegetación y humedad del suelo en la primavera de 2002.

Comencemos con el modelo Eta.

Eta: tipos de vegetación para América del Norte

Para los tipos de vegetación, el modelo Eta emplea una climatología mundial de tipos de vegetación de un grado por un grado. Los valores de cada celda del modelo Eta se derivan del punto medio de un grado por un grado más cercano. La resolución de este conjunto de datos de tipos de vegetación es mucho más gruesa que la resolución del modelo Eta, y esto puede generar errores en cuanto al tipo de vegetación en el modelo. La fracción de cubierta vegetal, o fracción de vegetación verde, es la porción de cada celda del modelo que está cubierta por vegetación viva. Los datos de fracción de cubierta vegetal empleados en el modelo Eta se basan en un conjunto de datos de índice de vegetación de diferencia normalizada, o IVDN (que también se conoce por su sigla en inglés NDVI, es decir, Normalized Difference Vegetation Index), obtenido por percepción remota entre 1985 y 1989, que tiene una resolución de 0,144 grados. La fracción de cubierta vegetal real puede estar adelantada o retrasada con respecto a esta climatología.

Eta: fracción de cubierta vegetal para julio

Para especificar la humedad del suelo, la superficie terrestre del modelo Eta está acoplada a un modelo del suelo de cuatro capas. Durante el ciclo de asimilación del modelo Eta, que comienza 12 horas antes de su momento inicial, se utilizan análisis de la precipitación efectuados con datos de radar y pluviómetros del territorio continental de EE. UU. y del sur de Canadá, cerca de la frontera entre dichos países, para efectuar pequeñas correcciones en la precipitación prevista por el modelo Eta con el fin de que se acerque a los valores observados. Esto produce un análisis de la precipitación similar a lo observado que luego se utiliza en el modelo de la superficie del suelo. El resultado de este modo de proceder es que la humedad del suelo está más o menos ligada a la precipitación observada en el área comprendida dentro del límite marcado por la línea azul en el mapa que aparece a continuación. Nunca se utilizan valores reales de humedad del suelo. En la gran mayoría de los lugares en Canadá y en Alaska, la precipitación empleada para establecer la humedad del suelo proviene directamente del modelo Eta, sin las pequeñas correcciones efectuadas con las observaciones. En esas áreas, por tanto, la humedad del suelo está ligada a la precipitación pronosticada por el modelo Eta.

Eta: región donde la precipitación observada afecta a la humedad del suelo

4. Las condiciones de superficie están representadas con precisión » Campos de superficie en el modelo GEM

Vamos a ver ahora cómo se tratan los parámetros de vegetación y humedad del suelo en el modelo GEM regional, en el cual se utiliza un esquema de interacción suelo-vegetación-atmósfera denominado ISBA (Interactions among the Soil, Biosphere and Atmosphere) para manejar los procesos superficiales.

Los tipos de vegetación utilizados en el esquema ISBA sobre América del Norte provienen de una base de datos climatológica del Servicio Geológico de los Estados Unidos (USGS) organizada sobre una malla de 1 km por 1 km que incluye 24 tipos de vegetación. En el modelo, las características de vegetación tales como índice de área foliar, fracción de cubierta vegetal y profundidad radicular cambian de un día para otro de acuerdo con una tabla predefinida. Las variables de vegetación se promedian en el espacio para que el modelo GEM cuente con valores representativos para el área de sus celdas. Debido a que se emplean valores climatológicos, es posible que las condiciones de vegetación reales no coincidan con las que supone el modelo.

Modelo GEM: agua en el suelo

ISBA emplea un modelo de humedad del suelo de dos niveles. Una vez al día, a las 00 UTC, se aplica una técnica denominada asimilación secuencial que utiliza un procedimiento de retroalimentación de errores para modificar los campos de humedad del suelo en la malla del modelo por medio de los errores generados por el modelo GEM en los pronósticos de temperatura del aire y humedad relativa a dos metros de altura (la altura normal de las garitas meteorológicas). No se utiliza ninguna medida real de la humedad del suelo.

Tanto el modelo GEM regional como el modelo Eta calculan la evaporación y evapotranspiración de la superficie en función de sus características de humedad del suelo y vegetación.

4. Las condiciones de superficie están representadas con precisión » Comparación de los campos de superficie de los modelos Eta y GEM

Eta

Vegetación

Para los tipos de vegetación, el modelo Eta emplea una climatología mundial de tipos de vegetación de un grado por un grado. Los valores de cada celda del modelo Eta se derivan del punto medio de un grado por un grado más cercano. La resolución de este conjunto de datos de tipos de vegetación es mucho más gruesa que la resolución del modelo Eta, y esto puede generar errores en cuanto al tipo de vegetación en el modelo. La fracción de cubierta vegetal, o fracción de vegetación verde, es la porción de cada celda del modelo que está cubierta por vegetación viva. Los datos de fracción de cubierta vegetal empleados en el modelo Eta se basan en un conjunto de datos de índice de vegetación de diferencia normalizada, o IVDN (que también se conoce por su sigla en inglés NDVI, es decir, Normalized Difference Vegetation Index), obtenido por percepción remota entre 1985 y 1989, que tiene una resolución de 0,144 grados. La fracción de cubierta vegetal real puede estar adelantada o retrasada con respecto a esta climatología.

Humedad del suelo

Para especificar la humedad del suelo, la superficie terrestre del modelo Eta está acoplada a un modelo del suelo de cuatro capas. Durante el ciclo de asimilación del modelo Eta, que comienza 12 horas antes de su momento inicial, se utilizan análisis de la precipitación efectuados con datos de radar y pluviómetros del territorio continental de EE. UU. y del sur de Canadá, cerca de la frontera entre dichos países, para efectuar pequeñas correcciones en la precipitación prevista por el modelo Eta con el fin de que se acerque a los valores observados. Esto produce un análisis de la precipitación similar a las cantidades observadas que luego se utiliza en el modelo de la superficie del suelo. El resultado de este modo de proceder es que la humedad del suelo está más o menos ligada a la precipitación observada en el área comprendida dentro del límite marcado por la línea azul en el mapa que aparece a continuación. Nunca se utilizan valores reales de humedad del suelo. En la gran mayoría de los lugares en Canadá y en Alaska, la precipitación empleada para establecer la humedad del suelo proviene directamente del modelo Eta, sin las pequeñas correcciones efectuadas con las observaciones. En esas áreas, por tanto, la humedad del suelo está ligada a la precipitación pronosticada por el modelo Eta.

Nieve

Los valores de manto de nieve y profundidad de la nieve para el modelo Eta provienen de un análisis diario del manto de nieve del servicio nacional de datos e información de satélites ambientales (National Environmental Satellite Data and Information Service, o NESDIS), que tiene una resolución de 23 km, que se fusiona con el análisis diario de la profundidad de la nieve de la agencia meteorológica de las fuerzas aéreas de EE. UU. (Air Force Weather Agency, o AFWA), con una resolución de 47 km, con validez a las 18 UTC. Ambos se basan en observaciones satelitales, y el análisis de AFWA utiliza también datos sinópticos de la profundidad de la nieve. Se realiza un control de calidad del análisis de AFWA frente a las observaciones de manto de nieve del NESDIS para el período aproximado entre las 18 y las 22 UTC con el fin de crear un análisis diario de la profundidad de la nieve de 0,5 x 0,5 grados válido a las 18 UTC. Dicho análisis se utiliza por primera vez cuando se ejecuta el modelo Eta a las 06 UTC y en las ejecuciones subsiguientes, a las 12, 18 y 00 UTC. Esto significa que cuando se utiliza a las 00 UTC, ya han transcurrido 30 horas desde que se realizó el análisis de nieve. La profundidad de la nieve es una variable dinámica en el modelo Eta y puede cambiar durante la integración del modelo.

Hielo

El análisis de manto de hielo del modelo Eta se basa exclusivamente en datos de satélite provenientes del grupo de análisis satelital (Satellite Analysis Branch, o SAB) que se actualizan una vez al día con validez a las 00 UTC, sobre una malla polar estereográfica con una resolución de 25,4 km exacta a 60 grados norte. Este análisis incluye datos para los Grandes Lagos. No se incluyen datos de espesor del hielo.

TSM

La temperatura de la superficie del mar se analiza en una malla de 0,5 x 0,5 grados utilizando los datos de 24 horas más recientes de las boyas y los buques, así como las temperaturas derivadas del satélite. La longitud de correlación de la técnica 2D-VAR empleada en este análisis es tal que tiende a preservar los detalles de TSM. Este análisis se actualiza una vez al día, a tiempo para la ejecución de las 00 UTC del modelo Eta.

GEM

Vegetación

En el modelo regional GEM, se utiliza un esquema de interacción de superficie del suelo-vegetación-atmósfera denominado ISBA (Interactions among the Soil, Biosphere and Atmosphere) para manejar los procesos superficiales. Los tipos de vegetación utilizados en el esquema ISBA sobre América del Norte provienen de una base de datos climatológica del Servicio Geológico de los Estados Unidos (USGS) organizada sobre una malla de 1 km por 1 km que incluye 24 tipos de vegetación. En el modelo, las características de vegetación tales como índice de área foliar, fracción de cubierta vegetal y profundidad radicular cambian de un día para otro de acuerdo con una tabla predefinida. Las variables de vegetación se promedian en el espacio para que el modelo GEM cuente con valores representativos para el área de sus celdas. Debido a que se emplea un esquema de climatología, es posible que las condiciones de vegetación reales no coincidan con las que supone el modelo.

Humedad del suelo

ISBA emplea un modelo de humedad del suelo de dos niveles. Una vez al día, a las 00 UTC, se aplica una técnica denominada asimilación secuencial que utiliza un procedimiento de retroalimentación de errores para modificar los campos de humedad del suelo en la malla del modelo por medio de los errores generados por el modelo GEM en los pronósticos de temperatura del aire y humedad relativa a dos metros de altura (la altura normal de las garitas meteorológicas). Esto se hace en toda América del Norte. No se utiliza ninguna medida real de la humedad del suelo.

Nieve

El análisis de profundidad de la nieve del Centro Meteorológico de Canadá es controlado por los pronósticos de precipitación y temperatura del modelo GEM global e incorpora todas las observaciones de profundidad de la nieve disponibles. Este análisis global se actualiza cada 6 horas, sobre una malla de latitud/longitud de 1/3 x 1/3 de grado. El análisis se interpola con la malla del modelo para proporcionar las condiciones de nieve iniciales, que nunca tienen más de 6 horas de antigüedad para la ejecución del modelo. La profundidad de la nieve es una variable dinámica en el modelo GEM regional y puede cambiar durante la integración del modelo.

Hielo

El análisis de manto de hielo del Centro Meteorológico de Canadá emplea los datos del sensor SSMI del satélite junto con los datos de las observaciones de hielo obtenidas por el servicio canadiense de hielo (Canadian Ice Service). Este análisis global se actualiza una vez al día sobre una malla gaussiana de 1/3 x 1/3 de grado que incorpora todos los datos sobre hielo recibidos durante el período de 24 horas que termina a las 00 UTC. También se utilizan las observaciones de manto de hielo para 118 lagos canadienses tomadas por el Canadian Ice Service, aunque solo están disponibles una vez a la semana. Este análisis no incluye datos de espesor del hielo.

TSM

La temperatura de la superficie del mar se analiza en el Centro Meteorológico de Canadá sobre una malla de latitud-longitud global con una resolución de 37 km. El análisis se actualiza una vez al día a las 00 UTC e incorpora los datos de las 24 horas anteriores tomados por satélites, buques y boyas. Cuando no se cuenta con observaciones, el análisis de TSM vuelve despacio a la climatología. Aunque esto no representa un problema sobre los océanos, sí puede llevar a errores sobre los lagos de Canadá si no hay observaciones de las temperaturas de los lagos. A excepción de los Grandes Lagos, dichas observaciones son escasas.

4. Las condiciones de superficie están representadas con precisión » Ejemplo de fracción de vegetación verde en el modelo Eta

¿Cómo pueden los campos de superficie afectar los pronósticos del modelo? A modo de ejemplo, consideremos cómo el modelo Eta tiene en cuenta la fracción de cubierta vegetal o vegetación verde.

Fíjese en esta serie de imágenes que representan la fracción de cubierta vegetal de EE. UU., el sur de Canadá y partes de México y el Caribe. De forma específica, vamos a observar dos zonas dedicadas principalmente a cultivos: la banda de trigo de invierno entre Kansas y Oklahoma y la zona de cultivo de maíz del Medio Oeste de EE. UU.

En enero, mucho del territorio interno y al norte de 35 grados carece de vegetación, a excepción de la banda de trigo de invierno (centrada cerca de 37N y 98O), donde se sembró el trigo de invierno el otoño anterior.

Eta: fracción de cubierta vegetal para enero

En abril la banda de trigo de invierno alcanza su máximo verdor, pero la mayoría de las demás zonas recién comienzan a verdear. La zona de cultivo de maíz representa una excepción, ya que queda relativamente marrón en comparación con las áreas circundantes. Estas otras áreas están cubiertas de árboles caducifolios.

Eta: fracción de cubierta vegetal para abril

En los meses de verano, se cosecha el trigo de invierno, lo cual crea un área marrón en esa zona, mientras que las regiones de bosque del centro y este de los EE. UU. alcanzan su máximo verdor. La banda de cultivo de maíz sigue relativamente marrón hasta julio, cuando se produce una explosión repentina de vegetación a medida que el maíz crece y madura.

Eta: fracción de cubierta vegetal para julio

En otoño, se cosecha el maíz y ya para octubre la zona se ha vuelto marrón. Mientras tanto, los bosques también comienzan a cambiar de color, y se siembra el trigo de invierno para la cosecha del año siguiente, y así comienza otra vez el mismo ciclo.

Eta: fracción de cubierta vegetal para octubre

El impacto de estos cambios estacionales en la fracción de vegetación verde puede ser considerable. A continuación veremos cómo estos cambios afectan los modelos.

4. Las condiciones de superficie están representadas con precisión » Impacto de la vegetación

¿Por qué importa la cantidad de vegetación verde que se considera en un modelo de predicción numérica del tiempo? Porque este factor influye de forma considerable en los flujos de calor sensible y latente en los niveles inferiores, lo cual a su vez determina la temperatura y humedad atmosférica en los niveles inferiores.

La vegetación verde afecta los niveles de humedad, porque controla la cantidad de evaporación. La vegetación extrae agua de las capas subsuperficiales del suelo y luego, durante el día, devuelve esa agua a la atmósfera, por transpiración.

La vegetación también afecta los niveles de energía en la superficie. Cuando hay vegetación, parte de la energía que de otro modo calentaría la superficie directamente pasa al proceso de evapotranspiración, lo cual tiene enormes consecuencias para la temperatura y humedad de superficie, y la temperatura, humedad y estabilidad estática de la capa límite planetaria.

4. Las condiciones de superficie están representadas con precisión » Efectos de la vegetación en un modelo de una columna

Para ilustrar el impacto de la vegetación en la temperatura de superficie, hemos usado un modelo de una columna para representar una única celda y hemos ejecutado dos casos para un ciclo diurno completo. Los modelos de una columna se utilizan con frecuencia para validar las parametrizaciones físicas de los modelos de PNT.

En este ejemplo, el forzamiento para los dos casos es idéntico y proviene de los datos observados en junio de 1997 en una zona de prueba para nubes y radiación atmosférica en la región al sur de las Grandes Llanuras. La parametrización física bajo estudio es la que utilizan los modelos GFS/AVN y MRF. La única diferencia entre los dos casos es la cantidad de vegetación en la celda. En lo que denominaremos el caso «precosecha», el 90 % de la celda está cubierto por vegetación de cultivo, mientras que en el caso «postcosecha» solo el 20 % contiene vegetación verde. Los gráficos que siguen muestran los ciclos diurnos que resultan para las temperaturas de superficie y cerca de la superficie.

Caso precosecha

Arriba puede ver el ciclo diurno del caso «precosecha». La temperatura de la capa superficial pronosticada se da en gris, la temperatura diagnosticada para el nivel de 2 metros aparece en verde y la temperatura prevista para el nivel de 995 hPa está en amarillo. El gráfico de abajo presenta las mismas variables para el caso «postcosecha».

Caso postcosecha

Hay una clara diferencia en los ciclos diurnos de los dos casos. Las temperaturas después de la cosecha son de 5 a 6 grados Celsius más altas que antes de la cosecha. Aunque no se muestran, las diferencias en la humedad y las características de la capa límite planetaria presentan el mismo grado de diferencia.

Debido a que por lo general para parametrizar la convección en los modelos de PNT se emplean los parámetros de estabilidad de la capa límite planetaria o de la parcela de superficie, se deduce de esto que los errores en la fracción de cubierta vegetal del modelo pueden causar errores en la iniciación de la actividad convectiva.

Para los pronósticos a nivel regional, es importante saber si el estado real de la vegetación coincide con la fracción de vegetación verde actual utilizada en el modelo. Según la medida en que coincidan, la salida del modelo puede o no necesitar ajustes considerables antes de utilizarse en un pronóstico.

4. Las condiciones de superficie están representadas con precisión » Ponga a prueba sus conocimientos

Debido a condiciones primaverales muy cálidas y húmedas, los campos y los bosques del área de pronóstico han verdecido mucho antes de lo acostumbrado. ¿Cómo podría esto influir en sus predicciones de los parámetros de superficie para una situación de actividad convectiva de sector cálido que se aproxima? Seleccione una opción para cada parámetro y después haga clic en Terminado para ver los resultados.

Pregunta 1

Para la temperatura máxima de superficie, conviene:

La respuesta correcta es d)

En este caso, el modelo cuenta con considerablemente menos vegetación de lo que realmente existe. El resultado es que las temperaturas máximas del modelo serán demasiado altas a razón de varios grados C, porque el modelo usará gran parte de la radiación solar entrante para calentar la superficie del suelo en lugar de asignarla a la evapotranspiración a través del dosel de la vegetación.

Escoja una opción.

Pregunta 2

Para la profundidad de la capa límite planetaria (CLP), conviene:

La respuesta correcta es b)

Debido a la superficie terrestre más fresca que resulta del aumento en la evaporación, la profundidad de la CLP será menor de lo que pronostica el modelo.

Escoja una opción.

Pregunta 3

Para los vientos y la turbulencia cerca de la superficie, conviene:

La respuesta correcta es b)

Cuando la superficie terrestre es más fresca, se produce menos mezcla turbulenta en la CLP, lo cual a su vez reduce la transferencia por momento hacia abajo desde los niveles arriba de la superficie, donde los vientos son más fuertes, y por eso en este caso los vientos de superficie son más débiles.

Escoja una opción.

Pregunta 4

Para la humedad relativa, conviene:

La respuesta correcta es b)

Cuanto mayor la evapotranspiración de las plantas, tanto mayor la humedad cerca de la superficie y dentro de la CLP. Por lo tanto, el modelo calcula un nivel de HR demasiado bajo en la CLP. Debido a la turbulencia menos intensa en la CLP, producto de las temperaturas de superficie más bajas, la humedad no se mezcla hacia arriba hasta alcanzar alturas tan altas como en el caso más cálido, en el que había pocas plantas. Esto significa que la HR real cerca de la CLP y arriba de ella será menor de lo que pronostica el modelo en esta situación.

Escoja una opción.

Pregunta 5

En esta situación, ¿debería la probabilidad de que se produzca precipitación convectiva...

La respuesta correcta es c)

Cuando la cubierta vegetal alcanza el máximo, la temperatura en los niveles inferiores es menor de lo que pronostica el modelo. En términos de energía convectiva potencial disponible, los dos efectos actúan en direcciones opuestas, de forma que no queda claro de antemano cuál puede ser el resultado neto. Lo que puede hacer es crear un sondeo de pronóstico modificado basado en la mejor estimación posible de la temperatura y el punto de rocío esperados en los niveles inferiores y juzgar el potencial de convección de la situación a partir de dicho sondeo.

Escoja una opción.

Pregunta 6

Supongamos que a las 00 UTC el suelo sobre el sur de Saskatchewan está despejado, pero después se produce una nieve fuerte y durante el período de 01 a 05 UTC se observa un manto de nieve en varias estaciones. ¿Cuál es el primer momento en que cada uno de estos modelos «verá» esta capa de nieve?

GEM regional
GEM global
Eta

El análisis canadiense de la profundidad de la nieve se actualiza cada 6 horas. El análisis de las 18 UTC termina antes de que se ejecute el modelo a las 00 UTC, y se utiliza para ese procesamiento. De forma análoga, el análisis de las 06 UTC se utiliza cuando se ejecuta el modelo a las 12 UTC. Los modelos GEM nunca están más de 6 horas atrás en cuanto a la profundidad de nieve que «ven» cuando se inicializan a las 12 y a las 00 UTC. El análisis de nieve empleado por el modelo Eta se actualiza una vez al día de acuerdo con los datos de profundidad de la nieve de la USAF de las 18 UTC y se somete a un control de calidad mediante las observaciones de manto de nieve de NESDIS de las 18 a 22 UTC. El manto de nieve se «verá» por primera vez al procesar el modelo Eta a las 06 UTC. Esto significa que cuando se ejecuta el modelo a las 00 UTC, el análisis de nieve caída es de casi 30 horas antes. El modelo Eta no «verá» la nieve del período de las 01 a las 05 UTC hasta la próxima vez que se procese a las 06 UTC, más de 24 horas más tarde.

Escoja una opción.

Pregunta 7

¿En cuál(es) de los modelos (GEM regional; GEM global; Eta) es la profundidad de la nieve una variable dinámica (que cambia con el tiempo) durante el proceso de integración del modelo?

La respuesta correcta es d)

Este es un ejemplo de cómo las integraciones de los distintos modelos pueden manejar los procesos superficiales de forma diferente. A partir de la primavera de 2002, los modelos GEM regional y Eta emplean esquemas dinámicos de profundidad de la nieve. El modelo GEM global, por otra parte, «veía» el análisis inicial de nieve, pero lo mantenía constante durante la totalidad de la integración. Esto cambiará en el futuro, cuando se conecte el sistema ISBA al modelo GEM global.

Escoja una opción.

4. Las condiciones de superficie están representadas con precisión » La realidad

En resumen, las condiciones de superficie iniciales no se representan necesariamente con exactitud en cada ejecución del modelo. Esto puede deberse al uso de campos de superficie climatológicos, así como a factores tales como el momento, la técnica, la resolución, la disponibilidad de los datos y los esquemas de control de calidad de las rutinas empleadas para analizar los campos de superficie.

Además de los potenciales problemas de análisis, es preciso recordar que los procesos superficiales no se modelan de forma exacta, sino que se aproximan y pueden existir fuertes relaciones de dependencia entre los distintos procesos. Además, no solo pueden los distintos modelos numéricos usar análisis iniciales diferentes de los campos de superficie, sino que normalmente dichos campos de superficie se manejan de forma distinta dentro de sus propias integraciones. Estas realidades garantizan un alto grado de complejidad en lo referente a los campos de superficie y procesos en los modelos de PNT.

Por lo general, para comprender cómo los campos de superficie pueden estar desviándose de la realidad es preciso saber cómo se recopilan los datos de los campos de superficie y cómo se incorporan en los modelos de PNT. Comprender estos procesos ayuda a evaluar mejor la salida del modelo y a efectuar ajustes adecuados en el pronóstico.

En realidad, las condiciones de superficie más recientes de un modelo de PNT pueden:

  • basarse en la climatología;
  • no coincidir con la escala de la malla del modelo;
  • no llegar a formar parte de los parámetros de la ejecución actual del modelo;
  • no haberse analizado adecuadamente;
  • no haberse manejado correctamente en la integración del modelo.

Para aprender más acerca del tratamiento y los efectos de los distintos campos de superficie, consulte la lección de COMET titulada Impacto de la física del modelo en los pronósticos numéricos, versión 2.

Además de las descripciones de los campos de superficiedescripciones de los campos de superficie que aparecen en esta página, encontrará información al día acerca de estas y muchas otras características de los modelos en la Enciclopedia de Modelos Operativos (Operational Models Encyclopedia).

5. Esquema de PC 1: la precipitación convectiva se parametriza directamente

  • El concepto equivocado
  • Secuencia de desarrollo natural de un episodio convectivo
  • Secuencia de desarrollo de un episodio convectivo en un modelo sin parametrización de la convección
  • Esquemas de ajuste
  • Esquemas de flujo de masa
  • Compensación de los puntos débiles de los esquemas de parametrización de la convección
  • Ponga a prueba sus conocimientos
  • La realidad

5. Esquema de PC 1: la precipitación convectiva se parametriza directamente » El concepto equivocado

Como predecir la convección y la precipitación resultante forma parte integral de muchos pronósticos, parecería lógico pensar que el objetivo principal de un esquema de parametrización de la convección es pronosticar la precipitación convectiva.

La verdad es que la precipitación es un producto secundario del esquema de parametrización de la convección del modelo, cuyo verdadero objetivo es descargar la inestabilidad para que el modelo no pronostique convección a escala de malla: no sería conveniente, por ejemplo, que un modelo AVN con una malla de 80 km generase una corriente ascendente convectiva de 80 km de ancho, algo que no se ajustaría en absoluto a la realidad.

5. Esquema de PC 1: la precipitación convectiva se parametriza directamente » Secuencia de desarrollo natural de un episodio convectivo

Claramente, los modelos de PNT deben tener en cuenta la convección de alguna manera.

Para hacerlo, utilizan parametrizaciones que tratan de reproducir el ciclo de vida natural de un episodio de desarrollo convectivo. ¿Qué puede ocurrir en un modelo que no usa un esquema de parametrización de la convección? Para contestar esa pregunta, vamos a comparar una secuencia natural de desarrollo convectivo con la que produciría un modelo sin parametrización de la convección.

Episodio de convección natural tal como aparecería en la columna de una celda del modelo

Consideremos en primer lugar el ciclo de vida natural de un clásico episodio de desarrollo convectivo, tal como aparecería en la columna de una celda de la malla del modelo.

Nuestro punto de partida es un sondeo de condiciones inestables favorables para el desarrollo de convección. A medida que la nube se desarrolla, una fuerte corriente ascendente que solo ocurre en una pequeña parte de la columna transporta rápidamente el calor y la humedad a la troposfera superior. También se produce una subsidencia compensadora más débil fuera de la corriente ascendente, pero aún dentro de la columna. Aunque llueve en una pequeña parte de la celda, en el resto de la celda no se produce precipitación. Cuando la convección se debilita, puede caer lluvia de la nube estratiforme en los niveles medios y superiores. El resultado final es una atmósfera estable después de la actividad convectiva.

Episodio convectivo en un modelo sin parametrización de la convección

5. Esquema de PC 1: la precipitación convectiva se parametriza directamente » Secuencia de desarrollo de un episodio convectivo en un modelo sin parametrización de la convección

Vamos a ver ahora como un modelo sin parametrización de la convección manejaría el mismo evento.

A partir del mismo sondeo de condiciones inestables, en el modelo la convección se acumula debido a velocidades verticales a escala de malla. Como estas velocidades son muy bajas en comparación con las corrientes convectivas ascendentes que se producen en la realidad (a nivel de centímetros por segundo), la nube crece lentamente.

Un resultado de esta acumulación lenta es el retardo del comienzo de la precipitación en comparación con el evento natural. Además, a medida que la secuencia progresa el modelo crea precipitación fuerte en la totalidad de la celda y la nube no alcanza la extensión en altura que sería natural. Finalmente, la columna entera se satura completamente en toda la extensión de la nube del modelo.

Esto provoca la liberación de una gran cantidad de calor latente en la troposfera inferior y media en la fase madura de la nube convectiva, lo cual a su vez puede ocasionar la formación de un centro de baja presión en la superficie.

En la fase posconvección del modelo, el centro de baja presión en la superficie persiste y buena parte del sondeo está casi saturado. Estas condiciones pueden fácilmente conducir a más precipitación en el modelo.

Claramente, un modelo que se ejecuta sin un esquema de parametrización de la convección no tiene posibilidad alguna de producir un buen pronóstico de precipitación. Es más, puede incluso crear una onda frontal excesivamente desarrollada o un centro de baja presión demasiado profundo en la superficie. Los modelos de PNT deben usar esquemas de parametrización de la convección para poder evitar estos problemas.

5. Esquema de PC 1: la precipitación convectiva se parametriza directamente » Esquemas de ajuste

Esencialmente, los esquemas de parametrización de la convección cambian la distribución del calor y la humedad para contrarrestar la tendencia de los modelos a generar convección a escala de malla.

Existen dos tipos principales de esquemas de parametrización de la convección: los esquemas de ajuste y los esquemas de flujo de masa. Vamos a compararlos, comenzando con un ejemplo de un esquema de ajuste.

Emagrama del esquema BMJ y modelo conceptual del esquema BMJ

El esquema de ajuste Betts-Miller-Janjic (BMJ) que mostramos aquí se utiliza en el modelo Eta operativo. En este esquema, los sondeos de temperatura y humedad del modelo se fuerzan hacia unos sondeos de referencia, representados en el emagrama por las curvas azules. En una atmósfera inestable como esta, el proceso de ajuste causa el desplazamiento vertical de la humedad y la reducción de la cantidad de agua precipitable. El agua precipitable que se retira de la columna debe caer como precipitación en el modelo.

Este esquema de ajuste es bastante rudimentario y peca de una serie de limitaciones. Para empezar, los perfiles de referencia son fijos y normalmente no contemplarán los detalles de una situación dada. En segundo lugar, el esquema se activa solo para sondeos con humedad profunda. Tercero, cuando el esquema se activa, a menudo la precipitación es excesiva, y queda muy poca humedad para la precipitación que debe ocurrir más tarde o corriente abajo. Cuarto, el esquema no tiene en cuenta el efecto inhibidor de la convección de las inversiones térmicas. Finalmente, no tiene en cuenta directamente ningún cambio que se produce debajo de la base de la nube.

5. Esquema de PC 1: la precipitación convectiva se parametriza directamente » Esquemas de flujo de masa

La mayoría de los modelos emplean esquemas de flujo de masa, que representan la segunda clase principal de tipos de parametrización de la convección. El modelo regional GEM usaba el esquema de flujo de masa Fritsch-Chappell, aunque esto cambió en otoño de 2002, cuando se comenzó a usar el flujo de masa Kain-Fritsch. Los modelos RUC y GFS/AVN también emplean el esquema Kain-Fritsch.

Los esquemas de flujo de masa han sido diseñados para estabilizar una columna atmosférica mediante la reducción de la cantidad de Energía Potencial Convectiva Disponible (EPCD), que también se conoce por su sigla en inglés, CAPE. El gráfico que sigue representa este proceso. Las corrientes ascendentes de escala inferior a la malla incorporan aire que luego se transporta rápidamente a los niveles medios y superiores de la troposfera. A la vez, se producen subsidencia compensadora en el entorno externo a las corrientes ascendentes y corrientes convectivas descendentes.

Representación de un esquema de flujo de masa

A medida que el aire sube en las corrientes ascendentes de escala inferior a la malla, se extrae humedad que luego cae en forma de precipitación. Parte de esta precipitación se evapora en las corrientes descendentes, lo cual produce enfriamiento. También se arrastra aire hacia el interior y el exterior. La cantidad de aire procesado, que a su vez determina la cantidad de precipitación, depende de la cantidad de estabilización que se necesite.

La subsidencia en el ambiente tiende a calentar la columna en los niveles medios y altos, mientras las corrientes convectivas descendentes tienden a enfriar los niveles inferiores. El resultado es una atmósfera más estable en el modelo, pero sin que se forme convección a nivel de la malla.

Los esquemas de flujo de masa se consideran más realistas que los esquemas de ajuste. Sus pronósticos cuantitativos de la precipitación (PCP) pueden parecer desorganizados debido a la activación de la convección en celdas dispersas. Aunque con toda probabilidad estos patrones son más realistas, también pueden dificultar la evaluación del modelo. Una limitación importante del esquema Kain-Fritsch es su tendencia a desarrollar capas saturadas excesivamente profundas en las áreas de convección activa, de modo que es posible que en esas áreas se pronostiquen cantidades excesivas de precipitación estratiforme después de la actividad convectiva.

5. Esquema de PC 1: la precipitación convectiva se parametriza directamente » Compensación de los puntos débiles de los esquemas de parametrización de la convección

En términos generales, los esquemas de parametrización de la convección tienen limitaciones. Los diferentes esquemas pueden afectar de forma distinta a los sondeos del modelo, con más o menos realismo, y esos efectos se transportan corriente abajo. El momento de desarrollo y la posición de la convección dependen del forzamiento a gran escala del modelo, el forzamiento de la capa límite y los detalles del proceso de activación del esquema, como la profundidad mínima de la nube convectiva, en los esquemas de flujo de masa. Los vientos del modelo pueden verse afectados indirectamente por un esquema de parametrización de la convección, pero la convección del modelo no los cambia directamente, como ocurre con los vientos y la convección en la naturaleza.

Dados los inconvenientes de los esquemas de parametrización de la convección, no podemos depender del pronóstico cuantitativo de la precipitación del modelo para pronosticar la cantidad de precipitación, ni tampoco para determinar el momento y el lugar de formación de la convección. Se pueden evaluar el forzamiento a gran escala, la inestabilidad y la humedad del modelo y ajustarlos según resulte necesario para definir las áreas potenciales de actividad convectiva. Su conocimiento de los efectos de menor escala, como los detalles de la capa límite, pueden permitirle refinar el pronóstico. Recuerde que la convección en determinada región del modelo produce cambios significativos en la atmósfera en esa región y corriente abajo, exactamente como sucede con la convección real en la atmósfera real, pero los cambios en el modelo pueden ser muy diferentes de los cambios que se producirían en la naturaleza. Por lo tanto, dichos cambios en el modelo pueden reducir la utilidad de los diagnósticos del modelo, como la frontogénesis y vorticidad potencial. Sin embargo, sus conocimientos de las limitaciones y los sesgos del esquema de parametrización de la convección con el cual trabaja pueden ayudarle a refinar más aún el pronóstico.

5. Esquema de PC 1: la precipitación convectiva se parametriza directamente » Ponga a prueba sus conocimientos

Conteste las preguntas siguientes. Marque todas las opciones pertinentes y después haga clic en Terminado.

Pregunta 1

¿Cuáles de las siguientes declaraciones generales acerca de los esquemas de parametrización de la convección son verdaderas?

Las respuestas correctas están a), c) y e)

Explicación: Los esquemas de parametrización de la convección fueron diseñados para liberar la inestabilidad, no para pronosticar la precipitación convectiva. La condensación y la precipitación se crean como producto secundario del trabajo del esquema de eliminar la inestabilidad.

La mayoría de los esquemas no modifican directamente el campo de vientos horizontales.

Las células convectivas generan corrientes ascendentes y descendentes considerables, pero los esquemas de PC no alteran directamente el campo de movimientos verticales. No obstante, en el futuro los modelos no hidrostáticos de muy alta resolución con convección explícita (que no necesitarán un esquema de PC) podrán modificar directamente los campos de movimientos horizontales y verticales.

Escoja una opción.

Pregunta 2

¿Cuáles de las siguientes declaraciones acerca de los esquemas específicos de parametrización de la convección son verdaderas?

Las respuestas correctas están c) y e)

Explicación: La técnica de BMJ emplea perfiles de referencia y una de sus limitaciones es que no tiene en cuenta el efecto inhibidor de las inversiones que atrapan las capas inferiores. El esquema Kain-Fritsch es un esquema de flujo de masa que logra la estabilización de la columna atmosférica a través de la reducción de la Energía Potencial Convectiva Disponible (EPCD). Entre las ventajas que ofrece cabe mencionar que este esquema tiene en cuenta el efecto inhibidor de las inversiones que atrapan las capas inferiores y que incluye corrientes descendentes con el enfriamiento asociado cerca de la superficie.

Escoja una opción.

5. Esquema de PC 1: la precipitación convectiva se parametriza directamente » La realidad

En resumen, el objetivo principal de los esquemas de parametrización de la convección no es meramente predecir la precipitación convectiva, sino que consiste en descargar la inestabilidad para que los modelos no produzcan convección a escala de malla y evitar los efectos adversos que eso implica.

La precipitación convectiva es un producto secundario necesario de estos esquemas. Por este y otros motivos, es notoria la dificultad que tienen los modelos numéricos para predecir la precipitación convectiva. Por lo general, no podemos depender del pronóstico cuantitativo de la precipitación convectiva del modelo para predecir las cantidades de precipitación, ni tampoco para predecir el lugar y el momento en que se produce la convección. A menudo, es preciso modificar el pronóstico del modelo.

La realidad

  • Los esquemas de parametrización de la convección han sido diseñados para descargar la inestabilidad del modelo.
  • La precipitación convectiva es un producto secundario necesario de la parametrización de la convección.
  • A menudo, es preciso realizar cambios considerables al pronóstico cuantitativo de la precipitación convectiva del modelo.

Para aprender más acerca de este tema, consulte la sección «Parametrización de la convección» de la lección ¿Cómo producen los modelos la precipitación y las nubes? - Versión 2 que forma parte del curso de educación a distancia sobre PNT.

Y si todavía no lo hizo, estudie «Esquemas de PC 2: un buen pronóstico sinóptico implica hacer un buen pronóstico de la convección», el concepto equivocado anterior de esta lección.

6. Esquema de PC 2: un buen pronóstico sinóptico implica hacer un buen pronóstico de la convección

  • El concepto equivocado
  • Escala de la malla del modelo frente a la realidad
  • Afinar los esquemas de parametrización de la convección
  • Esquemas de parametrización de la convección superactivos
  • Esquemas de parametrización de la convección subactivos
  • Distintos esquemas en el mismo modelo
  • Ponga a prueba sus conocimientos
  • La realidad

6. Esquema de PC 2: un buen pronóstico sinóptico implica hacer un buen pronóstico de la convección » El concepto equivocado

Supongamos que un modelo de PNT da un buen pronóstico sinóptico, con forzamiento a gran escala y sondeos exactos antes de la actividad convectiva. De ahí procede que también se pronosticarán con exactitud la convección y todos sus efectos.

No se lo crea...

Incluso si el modelo da buenos resultados a escala sinóptica, no dará necesariamente buenos resultados para los fenómenos atmosféricos en los que influye la convección, como la precipitación, la temperatura, la humedad, el viento y la presión. Esto se debe a una multitud de motivos. Vamos a considerar algunos de ellos.

6. Esquema de PC 2: un buen pronóstico sinóptico implica hacer un buen pronóstico de la convección » Escala de la malla del modelo frente a la realidad

Uno motivo clave es que los actuales esquemas de parametrización de la convección de los modelos de PNT operativos funcionan a la escala de la malla del modelo, mientras que en la naturaleza la convección ocurre a escalas mucho menores. En realidad, a estas escalas menores el esquema de parametrización de la convección del modelo debe “inventarse” la información. Un problema relacionado es que el análisis inicial empleado por los modelos puede no detectar ciertos detalles atmosféricos existentes que son importantes para el desarrollo de la convección, debido a la escala fina de esos detalles.

Comparación entre la distribución de los campos de temperatura, HR y vientos en la malla del modelo y en una célula convectiva en la naturaleza

Considere un modelo con una malla de 15 km. Cada celda de 15 x 15 km contiene un solo valor de temperatura, humedad y vientos para cada capa, mientras que en la atmósfera la convección ocurre a escalas mucho menores. Esto significa que en realidad el modelo tendría que usar celdas mucho más pequeñas para que hubiera alguna posibilidad de que pudiera representar la convección a la escala adecuada.

Por ejemplo, en algunas situaciones los vórtices horizontales de la capa límite planetaria son un elemento crítico para iniciar la actividad convectiva. Un modelo con una malla de 1 km puede resolver estas características y, por tanto, iniciar la convección asociada.

Vórtices horizontales de la capa límite planetaria en una sección de 30  por 30 km de un modelo con una malla de 1 km

Aunque no hay ninguna garantía de que todos los detalles del pronóstico de esta actividad convectiva serán correctos en el modelo de 1 km, es claro que un modelo de 30 km o incluso de 15 km no tiene esperanza alguna de poder resolver los procesos físicos involucrados en la creación de tal actividad convectiva. El gráfico ilustra este punto de forma esquemática.

6. Esquema de PC 2: un buen pronóstico sinóptico implica hacer un buen pronóstico de la convección » Afinar los esquemas de parametrización de la convección

Otro factor que complica la tarea de modelar la convección y sus efectos es la dificultad de ajustar los esquemas de parametrización de la convección para que funcionen lo mejor posible dentro del modelo en todas las situaciones climáticas. Estos esquemas intentan modelar los procesos atmosféricos, y usan parámetros relacionados con dichos procesos que se pueden ajustar o refinar. Típicamente, se realizan experimentos de sensibilidad y se afinan los parámetros para que den lo que se considera el «mejor» resultado para una gama de casos distintos. Es inevitable tener que llegar a ciertos compromisos y los elementos de ajuste seleccionados no representarán la mejor solución en todos los casos.

Para ilustrar este punto, consideremos los resultados obtenidos con el modelo GEM regional usando una malla de 16 km y el esquema Fritsch-Chappell de parametrización de la convección. Vamos a examinar la precipitación pronosticada para el período de 12 a 36 horas en dos ciclos de ejecución del modelo inicializados a las 1200 UTC del 4 de agosto de 1998.

Comparación de umbrales de activación en el modelo GEM regional con esquema de PC Fritsch-Chappell

La única diferencia entre los dos ciclos de ejecución es la afinación del esquema Fritsch-Chappell.

En estas imágenes, los números de color magenta corresponden a la cantidad de precipitación observada en distintos lugares, en milímetros. El pronóstico cuantitativo de la precipitación (PCP) del modelo se representa mediante líneas de contorno de trazos finos o líneas rojas sólidas con valores de 0,2, 0,5, 1, 5, 10 y 25 mm. Las cantidades por encima de 5 mm se han resaltado con tres colores distintos. Los pequeños cuadrados identifican algunos de los contornos de PCP.

Para el primer ciclo de ejecución, se programó la función de activación del esquema con un valor menos selectivo: el umbral de velocidad vertical en la base de la nube era relativamente bajo. En el segundo ciclo de ejecución se usó un valor más selectivo, con un valor de umbral de la velocidad vertical más alto.

Las diferencias son notables. En términos generales, el primer ciclo de ejecución genera más precipitación sobre un área mayor que el segundo ciclo, que es lo que hubiéramos esperado, ya que el primer esquema podía generar la convección más fácilmente. Ninguno de los dos resultados es perfecto. Por ejemplo, el segundo ciclo de ejecución no generó la precipitación observada de 7, 15, 3 y 2 mm en el noreste de la provincia de Alberta y el norte de Saskatchewan. Pese a que el primer ciclo pronosticó cantidades insuficientes para esta área, proporcionó una mejor «señal» de lo que ocurrió. Por otra parte, para otras zonas, como el sureste de Columbia Británica, el primer ciclo claramente indicó cantidades excesivas de precipitación, mientras que el segundo dio resultados un poco mejores, pronosticando cantidades  menores. Sin embargo, observe que se dio exactamente la situación opuesta en el sureste de Manitoba. No existe una única solución ideal, pero es necesario escoger un único valor de umbral de velocidad vertical para el esquema al implementarlo en un modelo operativo.

6. Esquema de PC 2: un buen pronóstico sinóptico implica hacer un buen pronóstico de la convección » Esquemas de parametrización de la convección superactivos

Otro problema potencial es que en algunas situaciones el modelo puede pronosticar la convección incorrectamente debido a que emplea un esquema de parametrización de la convección subactivo o superactivo.

Este gráfico ilustra lo que ocurre cuando el esquema es superactivo, lo cual significa que su respuesta al forzamiento del modelo es excesiva.

Episodio de convección en la columna de una celda de un modelo con esquema de PC superactivo

En estos casos, se pronostican cantidades excesivas de precipitación en el área de convección, y cantidades insuficientes corriente abajo. Además, los sondeos del modelo se secan y se estabilizan excesivamente, tanto en el área de la convección como corriente abajo. No existe ninguna regla fija para identificar estas situaciones. Si el modelo pronostica precipitación donde no la hay y la mayor parte de dicha precipitación proviene del esquema de convección en lugar del esquema explícito, cabe sospechar que se trata de un esquema superactivo si los valores de energía potencial convectiva disponible (EPCD) previos a la actividad convectiva son relativamente bajos. Recuerde que el esquema explícito es la parametrización empleada para pronosticar la precipitación que ocurre a escalas que el modelo puede resolver.

6. Esquema de PC 2: un buen pronóstico sinóptico implica hacer un buen pronóstico de la convección » Esquemas de parametrización de la convección subactivos

Este gráfico representa la situación opuesta.

Episodio de convección en la columna de una celda de un modelo con esquema de PC subactivo

Si el esquema de convección es subactivo pero existen niveles suficientes de humedad y empuje ascensional a gran escala, el esquema de precipitación explícito predomina y produce un exceso de precipitación a partir de una célula convectiva del modelo del tamaño de una celda completa de la malla. Esto es similar a lo que ocurre en la ausencia total de un esquema de parametrización de la convección y sus efectos son más graves para los modelos que utilizan valores de espaciado o distancia entre puntos de malla mayor de 10 km. El resultado es demasiada precipitación del modelo, a veces en medidas considerables, pero con un retraso en el comienzo de la precipitación.

Los sondeos del modelo no se secan y estabilizan en suficiente medida, ni en el área de convección ni corriente abajo. Es más, a su vez esta situación puede provocar una falsa ciclogénesis en los niveles inferiores, que luego se retroalimenta por medio del exceso de empuje ascensional y condensación de forma tal que el esquema de precipitación explícito puede luego producir aún más precipitación. Aunque este efecto suele denominarse «retroalimentación de la convección», en realidad estos errores de pronóstico creados por la convección generada a nivel de toda una celda son el resultado de lo que el esquema de parametrización de la convección no hizo. A veces se puede identificar por la presencia de una máxima de precipitación marcada en el pronóstico, una máxima de vorticidad pequeña pero intensa en el nivel de 500 hPa y una máxima marcada en el movimiento ascensional en los niveles medios, todo sobre una baja en superficie. En situaciones de retroalimentación de la convección, estas bajas suelen aparecer con un pronóstico excesivamente profundo y a la izquierda de la trayectoria correcta.

6. Esquema de PC 2: un buen pronóstico sinóptico implica hacer un buen pronóstico de la convección » Distintos esquemas en el mismo modelo

Finalmente, veamos un ejemplo de la ejecución de dos esquemas de parametrización de la convección distintos en el mismo modelo numérico. También en este caso pueden darse diferencias considerables en los pronósticos del modelo.

Vamos a considerar dos ciclos de ejecución del modelo Eta del 16 de marzo de 2000. En el primero se empleó el esquema Betts-Miller-Janjic (BMJ), mientras en el segundo se usó el esquema Kain-Fritsch (KF). No hubo ninguna otra diferencia en los dos ciclos de procesamiento del modelo.

Comparación de esquemas de PC BMJ y KF en pronóstico de
					EPCD y de vientos en el nivel de 850 hPa para 24 h del modelo Eta

Comparemos los pronósticos de 24 horas de los dos ciclos de procesamiento para energía potencial convectiva disponible (EPCD) y vientos en el nivel de 850 hPa. Es evidente que hay grandes diferencias en EPCD sobre el sureste de EE. UU. También hay algunas diferencias interesantes en lo referente a los vientos. Sobre el estado de Georgia, por ejemplo, donde son generalmente más fuertes y tienen un componente más del sur con el esquema Kain-Fritsch. Estas diferencias son el resultado de las diferencias entre los dos esquemas de parametrización.

Los dos esquemas también generaron pronósticos cuantitativos de la precipitación (PCP) diferentes.

Comparación del análisis multisensor para esquemas de PC BMJ y KF en el modelo Eta

El esquema Kain-Fritsch enfatiza la lluvia sobre el Golfo de México y el sur del estado de Alabama mucho más que el esquema BMJ, mientras que el esquema BMJ produjo más lluvia sobre la zona este de Georgia y buena parte de Carolina del Sur. Una comparación con el mapa de precipitación observada revela que ambos esquemas tuvieron problemas con sus pronósticos cuantitativos de la precipitación.

Un estudio detenido de los sondeos de ambos ciclos de ejecución del modelo revelaría más diferencias específicas en la actuación de los dos esquemas.

6. Esquema de PC 2: un buen pronóstico sinóptico implica hacer un buen pronóstico de la convección » Ponga a prueba sus conocimientos

Conteste las preguntas siguientes. Marque todas las opciones pertinentes y después haga clic en Terminado.

Pregunta 1

¿Qué pistas puede dar la salida del modelo para indicar que exhibe efectos de «retroalimentación de la convección» (como resultado de convección a escala de malla) en un lugar en particular?

Las respuestas correctas están a) y d)

Explicación: La convección del modelo genera precipitación y una columna atmosférica adiabática húmeda saturada. Sin embargo, si la condensación es excesiva y el modelo libera demasiado calor latente, se produce una máxima de movimiento ascensional considerable en la columna, lo cual causa la formación de un centro de baja presión en la superficie y una máxima de vorticidad en el nivel de 500 hPa. Si todos estos factores existen y están más o menos alineados en sentido vertical, cabe sospechar la posibilidad de que se haya producido retroalimentación de la convección.

Escoja una opción.

Pregunta 2

Usted sospecha que el esquema de PC del modelo de PNT da señas de ser superactivo para un sistema convectivo que pronto afectará a su zona de responsabilidad. ¿Qué efecto puede tener en los siguientes fenómenos meteorológicos?

a) Quitará inestabilidad.
b) Quitará humedad en el ambiente.
c) La duración de la precipitación convectiva puede ser .
d) La cantidad de nubosidad subsiguiente será .
e) Puede producirse una cantidad de precipitación corriente abajo de la zona de convección.

Explicación: Si en realidad se está produciendo muy poca actividad convectiva en una zona, pero el modelo ha previsto un componente considerable de precipitación convectiva en ese momento o lugar, podríamos sospechar que el esquema de PC es superactivo para ese lugar. También cabe considerar las pistas del modelo indicadas en la pregunta 3. Una esquema de convección superactivo puede afectar al pronóstico de las formas siguientes.

a) y b) Con toda probabilidad, el esquema de PC generará demasiada precipitación, como resultado de lo cual reducirá excesivamente la inestabilidad. La eliminación de un exceso de inestabilidad y humedad de la atmósfera del modelo en el lugar donde se pronostica precipitación convectiva produce aire demasiado estable y seco, tanto en la zona de la convección como corriente abajo, por advección.

c) La duración de la precipitación convectiva será demasiado breve. Inicialmente, la zona de convección del modelo genera un exceso de lluvia, que luego se detiene demasiado rápidamente a medida que la atmósfera del modelo se estabiliza, también con demasiada rapidez.

d) La nubosidad subsiguiente no será suficiente. El exceso de sequedad creado por el esquema superactivo puede producir una predicción insuficiente de la nubosidad subsiguiente en los niveles bajos y medianos del modelo. A su vez, esto ocasionará errores en los pronósticos de las temperaturas del modelo.

e) Es importante recordar que estos efectos pueden también afectar a los pronósticos posteriores del modelo, corriente abajo, incluso una vez terminada la predicción de exceso de precipitación del modelo. Por ejemplo, es probable que en este caso el modelo subestime la precipitación y nubosidad corriente abajo de la zona de convección principal.

Escoja una opción.

Pregunta 3

Usted sospecha un caso de "retroalimentación de la convección" en el pronóstico del modelo GEM regional válido a las 00 UTC. Esto se debe a un foco de precipitación de 50 mm en un período de 6 horas y a un centro de baja presión de superficie pronosticado en el mismo lugar que la máxima de precipitación. Como resultado de la convección a escala de malla que usted sospecha, cree que el modelo pronosticará un centro de baja presión excesivamente profundo en las próximas 12 horas. Marque el o los errores de posición más probables en el pronóstico del modelo para esa baja durante ese período.

La respuesta correcta es c)

Explicación: Aunque no es cierto en todos los casos, a menudo en situaciones como esta se observa que la baja presión de superficie pronosticada por el modelo de PNT no solo es demasiado profunda, sino que se halla demasiado a la izquierda de la trayectoria correcta. Esto es similar a lo que ocurre cuando se pronostica un centro de baja presión excesivamente profundo: la advección cálida tiende a fortalecer demasiado la curva de avance, lo cual a su vez desvía la baja presión hacia la izquierda respecto de la trayectoria real.

Escoja una opción.

La realidad

6. Esquema de PC 2: un buen pronóstico sinóptico implica hacer un buen pronóstico de la convección » La realidad

En la atmósfera real, la actividad convectiva influye en factores y fenómenos meteorológicos tales como la precipitación, el viento, la temperatura, la humedad e incluso la presión, no solo en la zona de la convección, sino corriente abajo también. Lo mismo ocurre con la convección que generan los modelos. Con frecuencia, los modelos de PNT producen pronósticos muy razonables de los patrones de movimiento sinóptico a gran escala y los fenómenos meteorológicos asociados, pero por una serie de motivos esta capacidad no se transfiere necesariamente a una escala de convección más pequeña en los modelos. Los esquemas de parametrización de la convección tratan de compensar la falta de resolución de los episodios convectivos de escala inferior a la de la malla, pero con diversos grados de éxito, y dos esquemas diferentes pueden producir resultados distintos. Otro problema es que es posible que el modelo no sea capaz de resolver los datos adecuados para la escala de la convección en su análisis inicial, mientras que la escala sinóptica se resuelve con facilidad. Como hemos visto, no hay una sola forma de afinar un esquema de parametrización de la convección que dé buenos resultados en todas las situaciones. Es más, en algunos casos el esquema puede ser superactivo o subactivo. Un esquema subactivo puede provocar retroalimentación de la convección, y en este caso hasta el pronóstico de presión a nivel del mar puede ser incorrecto.

Estos problemas de los modelos pueden ocurrir en las áreas de actividad convectiva del modelo, incluso cuando el flujo sinóptico está bien pronosticado en esas zonas. El resultado es un pronóstico inexacto de los campos del modelo afectados por la convección en esas áreas, como precipitación, temperatura, humedad, viento y presión. Peor aún, estas inexactitudes en el modelo pueden propagarse y afectar otras regiones corriente abajo de la actividad convectiva original.

La realidad

  • Los modelos de PNT funcionan a la escala de la malla, pero en la naturaleza la convección ocurre a escalas menores.
  • Afinar el esquema de PC no da buenos resultados en todas las situaciones.
  • En ciertas situaciones, los esquemas de PC pueden ser superactivos o subactivos.
  • Los distintos esquemas de PC producen resultados diferentes.

Para aprender más acerca de este tema, consulte la sección «Parametrización de la convección» de la lección ¿Cómo producen los modelos la precipitación y las nubes? - Versión 2 que forma parte del curso de educación a distancia sobre PNT.

Y no se pierda Esquemas de PC 1: la precipitación convectiva se parametriza directamenteEsquemas de PC 1: la precipitación convectiva se parametriza directamente, uno de los otros conceptos equivocados que se exploran en esta serie.

7. Los efectos de la radiación se manejan bien en ausencia de nubes

  • El concepto equivocado
  • La complejidad de los procesos radiativos
  • Ejemplo de los efectos de la nubes
  • Ejemplo de sesgo de la insolación solar bajo cielos despejados
  • Ejemplo de sesgo en la temperatura de la capa superficial bajo cielos despejados
  • Cómo manejan los modelos los procesos de radiación
  • Ponga a prueba sus conocimientos
  • La realidad

7. Los efectos de la radiación se manejan bien en ausencia de nubes » El concepto equivocado

El único problema de representar la radiación en los modelos de PNT surge de la dificultad de emular el efecto de las nubes.

No es cierto.

Aunque no cabe la menor duda de que las nubes complican el asunto, la verdad es que las radiaciones de onda corta y de onda larga son fenómenos extremadamente difíciles de representar, incluso cuando el cielo está despejado. Un tratamiento completo de este aspecto requeriría esquemas intensivos a los cuales habría que asignar forzosamente muchos ciclos de procesamiento informático. Las simplificaciones necesarias para agilizar los cálculos solo empeoran problema de predecir los efectos de la radiación solar e infrarroja en el sistema Tierra-atmósfera. Algunas variables, como la temperatura del aire, la temperatura de la capa superficial del modelo y la evaporación dependen fuertemente de los efectos radiativos. A su vez, estas variables están relacionadas con otras, tales como la inestabilidad y la precipitación convectiva. El pronóstico de todas estas variables depende en parte de un pronóstico correcto de la radiación y de sus efectos.

7. Los efectos de la radiación se manejan bien en ausencia de nubes » La complejidad de los procesos radiativos

En promedio, cerca de la mitad de toda la radiación solar entrante alcanza la superficie terrestre. La otra mitad es reflejada, dispersada o absorbida por nubes, distintos gases y otros componentes atmosféricos. Además, hay que recordar no solo que las características de la superficie terrestre son muy variadas e influyen en la cantidad de radiación solar absorbida y reflejada, sino que la superficie terrestre emite su propia radiación de onda larga que, a su vez, se transmite a través de la atmósfera o es absorbida y reemitida por las nubes y distintos gases atmosféricos.

En general, este equilibrio complejo de absorción, reflexión, dispersión y emisión de la radiación es muy difícil de representar en un modelo de PNT. El efecto de las nubes es solo una parte de este conjunto complejo de interacciones.

7. Los efectos de la radiación se manejan bien en ausencia de nubes » Ejemplo de los efectos de la nubes

Consideremos en primer lugar un caso en el cual los efectos radiativos interactúan con las nubes del modelo. Esto nos permitirá apreciar la complejidad del problema en términos generales y los tipos de errores que los problemas radiativos pueden ocasionar en los modelos de PNT. Más adelante veremos un caso de estudio de los procesos radiativos bajo cielos despejados.

En otoño de 2002 se observó que una versión experimental del modelo GEM regional canadiense tenía problemas para pronosticar las temperaturas del aire cerca de la superficie del modelo: a menudo eran excesivamente bajas.

Vamos a examinar dos pronósticos de temperatura del aire del modelo para 24 horas a 2 m arriba de la superficie, a partir la hora inicial de las 12 UTC del 27 de octubre de 2002. En estos gráficos, los rojos representan las temperaturas más cálidas y los azules las temperaturas más frías.

¿Por qué el segundo pronóstico (el de abajo) muestra temperaturas del aire más altas que el primero (el de arriba)? ¿Qué cambio se hizo en el segundo ciclo de ejecución del modelo? La respuesta está relacionada con la manera en que el modelo parametriza las nubes de cristales de hielo. Esta parametrización define el radio efectivo y la concentración de los cristales de hielo que componen las nubes frías únicamente en función del contenido de agua congelada del modelo. En el primer ciclo de ejecución, el modelo «detectó» menos cristales de hielo en las nubes de hielo, pero más grandes. En el segundo (a continuación), «detectó» más cristales de hielo en esas nubes, pero eran más pequeños. El resultado de esta diferencia produjo la diferencia en la temperatura del aire en los dos ciclos de ejecución del modelo.

En este ejemplo, la interacción entre la radiación de onda larga del modelo y sus nubes de cristales de hielo fue un factor importante para determinar la temperatura del aire. En el segundo ciclo de ejecución, la mayor concentración de cristales más pequeños en las nubes de hielo parece haber permitido la absorción más eficiente de la radiación de onda larga emitida por la Tierra y su irradiación de vuelta hacia abajo. La radiación de onda larga adicional irradiada hacia abajo aumentó la temperatura del aire pronosticada.

¿Qué alcance tuvo este efecto? El mapa siguiente, que muestra la diferencia de temperatura entre los dos ciclos de ejecución del modelo, nos proporciona la respuesta. Sobre la mayor parte de América del Norte, las temperaturas del primer resultado son de 0 a 5 ºC más frías, como lo indica el color verde claro. Sobre ciertas zonas en el norte de Quebec, el noroeste de Ontario y el oeste de EE. UU., el color azul claro muestra diferencias incluso mayores, del orden de 5 a 10 ºC. Estas son diferencias importantes, causadas por lo que en un comienzo puede parecer un cambio relativamente menor en la parametrización de las nubes empleada en el modelo.

El modelo modificado para el segundo ciclo generó temperaturas más altas y dio mejores resultados de verificación, no solo en este caso, sino en otros también. Posteriormente, se incorporó esta modificación al modelo experimental para mejorar sus pronósticos de temperatura.

7. Los efectos de la radiación se manejan bien en ausencia de nubes » Ejemplo de sesgo de la insolación solar bajo cielos despejados

¿Qué sucede cuando no hay nubes? Resulta que debido a problemas de modelación de los procesos de radiación, los modelos numéricos pueden tener dificultades para pronosticar temperaturas exactas incluso cuando el cielo está despejado.

Este es un ejemplo de un problema de radiación solar en un conjunto de casos de cielos despejados sobre el noreste de EE. UU. que surgieron con el modelo Eta operativo en julio de 1999.

El diagrama de dispersión de arriba compara la insolación de superficie medida por el GOES y la insolación pronosticada por el modelo Eta, expresada en vatios por metro cuadrado (W/m2). La línea diagonal que divide el diagrama de la esquina inferior izquierda a la esquina superior derecha representa un pronóstico perfecto sin sesgo alguno.

Todos los puntos de datos a la derecha de la línea de falta de sesgo indican que la insolación de superficie del modelo es superior a la insolación observada. Algunos de esos puntos muestran un error positivo del modelo de hasta 300 W/m2. El sesgo medio es de cerca de 78  W/m2. Se ha calculado que esto equivale a un sesgo positivo en la temperatura de la capa superficial del modelo de aproximadamente 6 ºC.

7. Los efectos de la radiación se manejan bien en ausencia de nubes » Ejemplo de sesgo en la temperatura de la capa superficial bajo cielos despejados

Este diagrama contempla el mismo conjunto de casos con cielo despejado, pero presenta una comparación de la temperatura de la capa superficial medida y pronosticada, en grados Kelvin. Aquí también la línea diagonal representa el caso ideal sin sesgo.

Los puntos de datos muestran un sesgo positivo de 4,2 ºC en la temperatura de la capa superficial pronosticada por el modelo Eta en comparación con las temperaturas medidas por el GOES. Aunque no es tan alto como el sesgo de 6 ºC calculado previamente en base a los datos de insolación de superficie, sigue siendo un sesgo positivo considerable.

Claramente, el modelo Eta tiene problemas con la radiación cuando los cielos del modelo están despejados, pero este es solo un aspecto del asunto. Resulta que las interacciones complejas y a menudo no lineales entre los componentes de un modelo de PNT pueden conducir a efectos inesperados, como errores de desplazamiento. De hecho, el paquete de física de superficie del modelo Eta contiene errores que desplazan parcialmente su sesgo positivo de la radiación solar. Dichos errores pueden estar relacionados con un flujo excesivo del calor de superficie o demasiada evaporación para determinadas condiciones de humedad del suelo. La existencia de tales errores de desplazamiento significa que las mejoras que eventualmente se realicen en el paquete de física de superficie pueden redundar en un mayor sesgo positivo en las temperaturas cerca de la superficie del modelo.

7. Los efectos de la radiación se manejan bien en ausencia de nubes » Cómo manejan los modelos los procesos de radiación

En términos generales, ¿cómo se manejan los procesos de radiación en los modelos? De varias formas:

  • separando la atmósfera en capas y haciendo un pronóstico o diagnóstico de la cantidad de nubes, gases absorbentes y aerosoles en cada capa;

  • usando valores promedio para la capa de las variables con las cuales interactúa la radiación y cálculos promedio para la capa de los efectos de las radiaciones de onda corta y de onda larga;

  • tomando en cuenta los efectos radiativos de cada capa, en cada capa contigua;

  • haciendo suposiciones simplificadoras acerca de la presencia, el tipo y la estructura de las nubes; y

  • calculando los efectos radiativos en la superficie y el efecto resultante en la atmósfera de la capa límite planetaria.

Los errores más grandes en los cálculos de radiación son el resultado de los efectos de las nubes. Sin embargo, como acabamos de ver los modelos también pueden producir errores considerables relacionados con los efectos radiativos cuando los cielos están despejados.

Cabe hacer una observación final: para reducir el tiempo de procesamiento informático, las llamadas a los esquemas de radiación no se realizan en cada paso de tiempo de la dinámica del modelo. En el modelo Eta, por ejemplo, los esquemas de radiación se invocan cada 60 minutos, mientras que la dinámica se calcula cada 90 segundos. Esta forma de proceder puede aumentar las inexactitudes de los cálculos de radiación del modelo.

7. Los efectos de la radiación se manejan bien en ausencia de nubes » Ponga a prueba sus conocimientos

Conteste las preguntas siguientes. Marque todas las opciones pertinentes y después haga clic en Terminado.

Pregunta 1

Supongamos que usted trabaja con un modelo cuyos pronósticos de temperatura de superficie tienen un sesgo caliente conocido debido a los efectos de la radiación solar. Es verano, usted está trabajando el turno de noche y cree que por la mañana hará sol y por la tarde se desarrollarán nubes de convección. ¿Qué modificaciones tendrá que hacer en los valores de la tarde para las siguientes variables atmosféricas?

a) Temperatura máxima
b) Profundidad de la capa límite planetaria
c) Probabilidad de precipitación convectiva
d) Vientos y turbulencia cerca de la superficie
e) HR en la CLP

Escoja una opción.

Pregunta 2

Supongamos que durante la temporada fría usted está trabajando con un modelo cuyos pronósticos de temperatura de superficie tienen un sesgo conocido hacia el frío debido a los efectos de la radiación infrarroja. En esta situación, ¿cuál será el efecto general más probable sobre la precipitación del modelo?

Escoja una opción.

7. Los efectos de la radiación se manejan bien en ausencia de nubes » La realidad

En resumen, la absorción, reflexión, dispersión y emisión de radiación de onda corta y de onda larga son procesos complejos y difíciles de representar en un modelo de PNT. Los efectos de las nubes son solo un aspecto de esta complejidad. Los modelos pueden tener problemas con la radiación incluso cuando el cielo está despejado. El asunto se complica aún más debido a la presencia de posibles errores de desplazamiento en los modelos de PNT: arreglar los problemas de un proceso físico del modelo puede revelar ciertas debilidades en otros.

En algunas situaciones, no cabe duda de que el conocimiento de los sesgos y las limitaciones del esquema de radiación de un modelo puede ayudarnos a corregir los pronósticos del modelo.

Para aprender más acerca de este tema, consulte la sección «Procesos atmosféricos» de la lecciónImpacto de la física del modelo en los pronósticos numéricos, versión 2 que forma parte del curso de educación a distancia sobre la PNT.

8. Los modelos de PNT pronostican directamente las variables cerca de la superficie

  • El concepto equivocado
  • Ilustración del cálculo de la temperatura en el nivel de 2 metros en el modelo GFS
  • Técnica de diagnóstico en los modelos GEM, Eta y RUC
  • Problemas potenciales
  • Coordenada vertical y distancia de interpolación del modelo
  • Representación del terreno en los modelos
  • Ponga a prueba sus conocimientos
  • La realidad

8. Los modelos de PNT pronostican directamente las variables cerca de la superficie » El concepto equivocado

La temperatura, la humedad y los vientos cerca de la superficie que se obtienen de los modelos de PNT provienen de pronósticos directos de dichas variables realizados por el modelo.

Por supuesto que la dinámica de los modelos de PNT se calcula en todos los niveles de la malla del modelo, pero eso solo es parte del asunto. También debe entrar en juego la física del modelo, y no solo en los niveles superiores, sino también en la superficie inferior de la capa límite. Por ejemplo, a través de su cálculo de la temperatura de la capa superficial, el paquete de física de superficie forzosamente influye de forma importante en la temperatura del aire cerca de la superficie. Por si sola, la dinámica no puede describir cómo la capa superficial del modelo afecta la temperatura, la humedad y los vientos cerca de la superficie; al contrario, los valores de estas variables obtenidos de la dinámica del modelo se deben «fusionar» de alguna forma con los que se han obtenido de la física de superficie. Este proceso a veces se denomina el «diagnóstico» de las variables cerca de la superficie. En este sentido, el modelo sí genera los valores de esas variables, pero no los pronostica directamente en su malla.

8. Los modelos de PNT pronostican directamente las variables cerca de la superficie » Ilustración del cálculo de la temperatura en el nivel de 2 metros en el modelo GFS

Cálculo de temperatura al nivel de 2 metros

Este gráfico representa de forma esquemática cómo el modelo GFS crea su campo de temperaturas en el nivel de 2 metros en cada celda de la malla. La temperatura del punto medio de la capa inferior representa la temperatura media de la capa atmosférica inferior del modelo. La temperatura de la capa superficial proviene del balance energético de superficie del modelo. Ambas se usan para interpolar un valor de temperatura para el nivel de 2 metros.

En el modelo GFS, se emplea un esquema logarítmico de ponderación para que la interpolación tenga en cuenta que la mayor rapidez de cambio de la temperatura que se produce con la altura ocurre muy cerca del suelo. La curva azul representa un perfil de este tipo, mientras la línea verde muestra un perfil lineal, solo para fines de comparación.

8. Los modelos de PNT pronostican directamente las variables cerca de la superficie » Técnica de diagnóstico en los modelos GEM, Eta y RUC

Los modelos GEM canadienses emplean un enfoque diferente para calcular las variables cerca de la superficie. Utilizan la teoría de semejanza de Monin-Obukhov para calcular los flujos verticales de calor, humedad y momento en la superficie, junto con los perfiles de temperatura, humedad y vientos horizontales entre la superficie y el primer nivel del modelo arriba de la superficie. Este tratamiento, que es más general del que se hace en el modelo GFS, no presupone ningún tipo de ponderación en particular (por ejemplo: logarítmica). La técnica GEM fue diseñada para crear coherencia entre la capa de superficie y el resto de la capa límite planetaria, y es válida para casos estables o inestables y para vientos fuertes o débiles. El cálculo GEM genera las temperatura y depresiones de punto de rocío en el nivel de 1,5 metros y vientos en el nivel de 10 metros.

El enfoque que se aplica en los modelos Eta y RUC es similar al de los modelos canadienses, con la excepción de un nivel de diagnóstico ligeramente distinto para temperatura y humedad, ya que emplean el nivel de 2 metros, en lugar del nivel de 1,5 metros.

8. Los modelos de PNT pronostican directamente las variables cerca de la superficie » Problemas potenciales

¿Cuáles son los problemas potenciales que pueden surgir en el diagnóstico del modelo de las variables atmosféricas cerca de la superficie?

Un problema es que el esquema de diagnóstico puede conducir a resultados pobres si la función empleada no representa con exactitud el cambio de la variable en cuestión con la altura. Esto da mayores motivos de preocupación con los modelos que presuponen el uso de perfiles logarítmicos, como el GFS. Como ya hemos señalado, los modelos GEM, RUC y Eta incorporan tratamientos más realistas. Sin embargo, incluso en esos modelos se supone una forma funcional, a través de la teoría de Monin-Obukhov, que puede no ser apropiada en cada situación.

Otro posible problema que puede afectar a todos los modelos está relacionado con la actuación de sus paquetes de física de superficie. Por ejemplo, el diagnóstico de temperaturas depende de la temperatura de la capa superficial del modelo, que proviene del paquete de física de superficie, a través de su balance energético. Los problemas con el paquete de física pueden conducir a temperaturas incorrectas de la capa superficial.

Una tercera fuente de error está relacionada con la resolución del modelo: el terreno y otros accidentes de superficie no resueltos hasta el nivel de microescala influyen en la temperatura, la humedad y los vientos cerca de la superficie de formas que el modelo no tiene esperanza alguna de llegar a definir.

8. Los modelos de PNT pronostican directamente las variables cerca de la superficie » Coordenada vertical y distancia de interpolación del modelo

Esquema del modelo Eta de montaña

Otro factor que se debe considerar es la distancia sobre la cual se aplica la técnica de interpolación para diagnosticar los valores de las variables cerca de la superficie. Este gráfico muestra las capas del modelo Eta de 50 capas de las superficies de presión desde el nivel medio del mar hasta cerca de 700 hPa.

Observe que el espesor de las capas del modelo se vuelve mucho mayor a medida que aumenta la elevación. Cerca del NMM, la capa inferior del modelo Eta solo tiene un espesor de 2,7 hPa, mientras que al nivel de 700 hPa alcanza un espesor de 22 hPa. Esto significa que a niveles más altos la interpolación del modelo Eta se lleva a cabo a través de capas progresivamente más profundas, lo cual puede producir errores más grandes.

El modelo Eta de 60 capas implementado a fines del año 2001 es un poco mejor, por su mayor resolución vertical.

Esquema de resolución vertical del modelo GEM Regional sobre una montaña

Los modelos que emplean una coordenada vertical que sigue el contorno del terreno no actúan de la misma forma. Por ejemplo, este gráfico muestra esquemáticamente los 28 niveles verticales del modelo regional GEM arriba de una montaña cuya cima está cerca del nivel de 700 hPa. Los niveles verticales más allá de la cima están apretados sobre una distancia vertical menor que los mismos niveles al NMM, de modo que el espesor de las capas se reduce a medida que aumenta la elevación. Esto es lo opuesto de lo que ocurre con el modelo Eta.

De hecho, podemos calcular fácilmente que la capa inferior del modelo GEM regional tiene un espesor de cerca de 5 hPa cerca del NMM y de alrededor de 3,5 hPa en el nivel de 700 hPa. El espesor de las capas del modelo GFS también baja con la altura, pero sus capas son más delgadas, debido a su mayor resolución vertical (el modelo GFS utiliza 64 capas en las primeras 84 horas de su pronóstico). La coordenada vertical del modelo RUC también sigue el terreno en las capas más bajas del modelo, y la altura del punto medio de la capa inferior se halla a tan solo 5 metros sobre la superficie. A menudo, esta distancia de interpolación reducida es una ventaja del modelo RUC. La resolución vertical del modelo Eta es menor que la del modelo GFS, debido a sus coordenadas verticales particulares, por ejemplo en los niveles arriba de 970 hPa.

8. Los modelos de PNT pronostican directamente las variables cerca de la superficie » Representación del terreno en los modelos

Representación del terreno en los esquemas de PNT

Finalmente, no podemos dejar de considerar el efecto de la representación del terreno dentro del modelo sobre las variables cerca de la superficie. Este gráfico representa una sección vertical a través de una región de montaña a la cual se han superpuesto varias topografías del modelo. Las líneas verticales separan las celdas de la malla y los puntos representan la altura del terreno en el modelo para cada celda de la malla. Ahora bien, supongamos que necesitamos predecir la temperatura en el nivel de 2 metros para un pueblo ubicado en el valle cerca del centro de la imagen. Claramente, la altura real del poblado es muy distinta de la altura del terreno para ese lugar en el modelo. En casos como este, la temperatura del modelo en el nivel de 2 metros resulta casi inútil, a menos que se conozcan tanto el gradiente adiabático como la diferencia de elevación entre la topografía del modelo y la topografía real.

Corte vertical que muestra la topografía sobre Columbia Británica entre Vancouver y Kelowna

¿Cuáles son las diferencias típicas de altura entre el terreno del modelo y el terreno real? Para hacernos una idea, consideremos un corte vertical en el terreno del modelo GEM regional a lo largo de la línea indicada en la figura. Esta línea cruza la provincia canadiense de Columbia Británica cerca de las ciudades de Vancouver y Kelowna. Este corte vertical se presenta junto con los niveles aproximados de presión. Kelowna se halla en el valle de Okanagan, a 430 m de altura, pero el terreno del modelo coloca la ciudad a casi 1120 m, ¡una diferencia de casi 700 metros! Y este efecto no se limita a los valles de montaña. El aeropuerto de Vancouver se encuentra a unos 5 m sobre el NMM, pero el terreno del modelo no es lo suficientemente empinado como para representar la costa real. El modelo coloca a Vancouver a aproximadamente 110 m de altura, unos 100 metros de más. Es interesante observar cómo el modelo RUC trata de compensar el problema de la representación del terreno para la temperatura: el gradiente vertical de temperatura del nivel de 25 hPa inferior de la atmósfera del modelo se emplea para extrapolar la temperatura hacia abajo a partir del nivel del terreno del modelo hasta el nivel real de la estación.

8. Los modelos de PNT pronostican directamente las variables cerca de la superficie » Ponga a prueba sus conocimientos

Respuestas correctas con explicaciones:

Haga clic en el botón Volver para seguir estudiando este concepto equivocado.

Las respuestas correctas están marcadas.

Pregunta 1

El monte Washington tiene una altura de 1910 m, y es la cima más alta de Nueva Inglaterra, en EE. UU. Es un sitio interesante, ya que hay un observatorio meteorológico en la cima.

Qué diferencia podemos esperar entre la altura real del observatorio y la altura del observatorio en el modelo?

La respuesta correcta es c)

El terreno de los modelos de PNT es más uniforme que en la realidad. El resultado es que en dichos modelos la altura de las estaciones en los valles es excesiva. Este es el caso normal, ya que las comunidades y los sitios de observación casi siempre se encuentran en los valles de las zonas montañosas. A la inversa, las verdaderas cimas de las montañas serán más altas de lo que percibe el modelo.

Escoja una opción.

Pregunta 2

¿Qué error típico en el pronóstico de temperatura del modelo en el nivel de 2 metros se esperaría para el observatorio de Monte Washington?

La respuesta correcta es a)

En condiciones atmosféricas normales, la temperatura baja con la altura. Como la altura a la cual el modelo percibe Monte Washington es demasiado baja, por lo general pronosticará temperaturas altas para ese lugar.

Escoja una opción.

Pregunta 3

Usted está esperando condiciones nocturnas despejadas dominadas por un fuerte centro de baja presión con vientos calmos y un nivel considerable de emisión de radiación de onda larga. Esto debería producir una inversión térmica particularmente fuerte muy cerca del suelo para las 12 UTC. Si usted considera que los paquetes de física de superficie de los modelos GEM regional, GFS, RUC y Eta dan resultados equivalentes, ¿cuál de estos modelos cree que tendría más dificultad para pronosticar la temperatura en el nivel de 2 metros?

La respuesta correcta es b)

En estas circunstancias, es menos probable que el perfil logarítmico del modelo GFS maneje correctamente la fuerte variación de temperatura con la altura que las formulaciones más generales de los otros modelos.

Escoja una opción.

8. Los modelos de PNT pronostican directamente las variables cerca de la superficie » La realidad

A primera vista, parecería que los modelos de PNT pueden pronosticar directamente los valores de las variables atmosféricas cerca de la superficie. Sin embargo, la verdad es que los resultados de la dinámica y del paquete de física de superficie del modelo se deben combinar para diagnosticar la temperatura, la humedad y los vientos cerca de la superficie.

Los distintos modelos abordan este problema de diferentes maneras. El modelo GFS usa un esquema de interpolación basado en un perfil logarítmico, mientras que los modelos GEM, Eta y RUC emplean formulaciones más generales que aprovechan la teoría de semejanza de Monin-Obukhov como base de su diagnóstico.

Los errores potenciales pueden tener diversos orígenes:

  1. El procedimiento empleado puede no reflejar el perfil vertical con exactitud.
  2. Puede haber errores en los campos, como la temperatura de la capa superficial del paquete de física de superficie.
  3. Es posible que no se tengan en cuenta los efectos del terreno u otras características de superficie no contempladas.
  4. Las distancias de interpolación relativamente grandes pueden causar errores más grandes.
  5. La representación del terreno en zonas de montaña puede causar problemas debido a alturas inexactas del terreno en el modelo.

Si reconocemos la existencia de tales errores en los modelos de PNT, podremos ajustar el pronóstico y compensar por ellos.

Para aprender más acerca de este tema, consulte la lección Impacto de la estructura y dinámica de los modelos, versión 2, que forma parte del curso de educación a distancia sobre PNT.

9. Los pronósticos que emplean técnicas de análisis estadístico mejoran cuando se mejora el modelo

  • El concepto equivocado/li>
  • Breve presentación de los sistemas MOS
  • Ejemplo del desarrollo de un esquema de MOS
  • Casos con pocas observaciones en el predictando
  • Suavización en los esquemas de MOS
  • Ventajas de los esquemas de MOS
  • Desventajas de los esquemas de MOS
  • El esquema de MOS actualizable del Centro Meteorológico de Canadá
  • ¿En qué situaciones podría el esquema de MOS producir un pronóstico de calidad inferior?
  • Ponga a prueba sus conocimientos
  • La realidad

9. Los pronósticos que emplean técnicas de análisis estadístico mejoran cuando se mejora el modelo » El concepto equivocado

Cuando se mejora un modelo de PNT, los correspondientes pronósticos generados mediante técnicas de análisis estadístico de la salida del modelo numérico (Model Output Statistics, o MOS) mejoran automáticamente.

No es cierto. Los sistemas MOS se basan en las relaciones estadísticas entre los campos de pronóstico del modelo numérico y el clima observado. Si se modifica el modelo, esas relaciones también cambian y, por tanto, se necesitan ecuaciones nuevas para realizar el análisis estadístico. Si no volvemos a derivar las ecuaciones, no hay garantía de que las ecuaciones existentes podrán generar mejores pronósticos tras la mejora del modelo.

9. Los pronósticos que emplean técnicas de análisis estadístico mejoran cuando se mejora el modelo » Breve presentación de los sistemas MOS

Los sistemas MOS buscan las mejores relaciones estadísticas entre distintas variables de pronóstico del modelo y los elementos meteorológicos de interés. Si se emplean múltiples regresiones lineales para desarrollar el modelo estadístico, por su propio diseño el modelo minimiza el error cuadrático medio. Por supuesto que la dispersión o varianza es inherente en cualquier relación estadística. Por lo tanto, por su propio diseño los esquemas de MOS producirán algunos pronósticos incorrectos, pero también minimizarán la frecuencia y gravedad de dichos errores.

Desarrollo e implementación de los pasos de pronóstico de un esquema MOS

Los métodos estadísticos dan buenos resultados cuando la situación se aproxima a la «norma». Por ejemplo, las estadísticas siempre darán por sentado que la circulación en las latitudes medias es de oeste a este. Sin embargo, puede darse una circulación real muy distinta de la que se ve en promedio en la muestra de desarrollo. Cuando usamos un esquema de MOS, debemos aplicar constantemente nuestro criterio para detectar las situaciones anormales en las que la salida del esquema de MOS se debe ajustar o, a veces, ignorar por completo.

Representación general de una regresión lineal: esta gráfica de dispersión de los valores de predictando (y) frente a los valores de predictor (x) muestra la relación de mejor ajuste lineal entre las dos variables.

9. Los pronósticos que emplean técnicas de análisis estadístico mejoran cuando se mejora el modelo » Ejemplo del desarrollo de un esquema de MOS

Relación entre un predictando y tres predictores de un modelo empleados para determinar las ecuaciones de regresión lineal.

Estas gráficas ilustran una serie de relaciones hipotéticas, pero físicamente realistas, entre la temperatura máxima en el nivel de 2 metros (el predictando) en un lugar dado y varios predictores del modelo en ese lugar. Las gráficas muestran la relación entre el predictando y la capa de 1000 a 500 hPa, la capa de 1000 a 850 hPa y la HR de la capa de 1000 a 850 hPa. Estas tres variables representan, respectivamente, la temperatura de la mitad inferior de la atmósfera, la temperatura de la capa límite planetaria (CLP) y un sustituto de la nubosidad de la CLP.

En la gráfica de la capa de 1000 a 500 hPa vemos puntos muy dispersos con una correlación positiva relativamente débil. Sin embargo, la segunda gráfica presenta una correlación positiva considerable entre la capa de 1000 a 850 hPa y el predictando. En la gráfica de RH la correlación es negativa, con puntos bastante dispersos. En este ejemplo, las ecuaciones de MOS utilizarían primero la capa de 1000 a 850 hPa como predictor de la temperatura máxima al nivel de 2 metros, ya que ese caso da la mejor correlación. Luego se agregarían otros predictores a la ecuación de predicción hasta que el pronóstico MOS ya no pudiera mejorarse de manera significativa con otras adiciones.

9. Los pronósticos que emplean técnicas de análisis estadístico mejoran cuando se mejora el modelo » Casos con pocas observaciones en el predictando

Al crear relaciones para el análisis estadístico de los datos del modelo, es preciso contar con suficientes datos en la muestra de desarrollo como para asegurar un resultado confiable, estable y estadísticamente significativo. Sin embargo, algunas variables del pronóstico, como la niebla, las tormentas y la lluvia helada, son ocurrencias relativamente poco frecuentes. Para compensar esta carencia de datos, se pueden agrupar áreas climatológicamente similares con el fin de crear una muestra más amplia para el desarrollo de las ecuaciones de MOS. Estas regiones varían según la estación, ya que las zonas climatológicamente similares se desplazan con el ciclo estacional.

Mapa de las regiones empleadas para promediar los pronósticos MOS de visibilidad en la temporada fría.

Este mapa muestra las 18 regiones de temporada fría agrupadas para el desarrollo de las ecuaciones de visibilidad de MOS sobre el territorio continental de EE. UU. Quienes conozcan la climatología de nieblas podrán reconocer fácilmente la zona del Valle Central de California, muy propensa a la formación de niebla, que se ha identificado como una región climatológica individual.

Mapa de las regiones empleadas para promediar los pronósticos MOS de visibilidad en la temporada cálida.

En la temporada cálida, las regiones se desplazan naturalmente para reflejar los cambios que se producen en zonas climatológicas similares. La costa del Pacífico, por ejemplo, se ha separado en dos regiones, una al sur y otra al norte de Cabo Mendocino. Aquí la influencia marina y el afloramiento de aguas frías cerca de la costa producen nieblas frecuentes. Podemos ver una región similar a lo largo de la costa de Nueva Inglaterra. Además, podemos ver donde las regiones montañosas influyen en la formación de nieblas de radiación, en los Apalaches centrales y del sur.

9. Los pronósticos que emplean técnicas de análisis estadístico mejoran cuando se mejora el modelo » Suavización en los esquemas de MOS

Algunos esquemas de MOS aplican técnicas de suavización a los campos del modelo empleados como variables del predictor. Esto permite evitar el ruido y enfatizar la señal de la escala sinóptica. En definitiva, estos esquemas se diseñan de modo que no puedan «ver» las características de escala menor que predicen los modelos. Por ejemplo, el esquema de MOS del modelo GFS usa un sistema de suavización de 25 puntos (5x5) sobre una malla de 95 km.

El sistema de MOS canadiense no aplica un suavización general de este tipo, sino que en la mayoría de los casos las interpolaciones necesarias se aplican a las estaciones individuales directamente desde la malla del modelo, lo cual permite conservar la resolución horizontal plena del modelo (que en junio de 2003 era de 24 km para el modelo GEM regional).

Sin embargo, en el sistema canadiense algunos predictores que involucran gradientes o laplacianos se calculan sobre una malla estándar con una resolución de 50 km. El efecto de este modo de proceder es cierto grado de suavización para esos predictores.

En junio de 2003 estaban realizándose pruebas en el Centro Meteorológico de Canadá para evaluar los beneficios de aplicar técnicas de suavización en todos los predictores antes de generar el modelo estadístico.

9. Los pronósticos que emplean técnicas de análisis estadístico mejoran cuando se mejora el modelo » Ventajas de los esquemas de MOS

En términos generales, los esquemas de MOS tienen varias ventajas.

Para empezar, tienen en cuenta los sesgos persistentes del modelo, ya que usan las variables de salida del modelo como predictores. Sin embargo, esto no significa que eliminan los sesgos que dependen del régimen o de la situación.

Otra ventaja es que las ecuaciones de MOS pueden aprovechar las variables útiles derivadas del modelo que no se observan directamente, como la vorticidad o la velocidad vertical.

Además, debido a que relacionan las variables del pronóstico del modelo con las observaciones, los sistemas MOS se pueden usar para evaluar la habilidad de un modelo para pronosticar dichas variables.

Finalmente, cabe observar que los esquemas de MOS tienden a asegurar la confiabilidad del pronóstico estadístico, pero a menudo esto se logra a expensas de la nitidez.

9. Los pronósticos que emplean técnicas de análisis estadístico mejoran cuando se mejora el modelo » Desventajas de los esquemas de MOS

Los esquemas de MOS también tienen algunas desventajas.

Como ya mencionamos, un cambio en el modelo significa que es preciso volver a derivar las ecuaciones de MOS a partir de los datos del modelo nuevo.

Por lo general, cuantos más casos se incorporen en la relación estadística, tanto más confiable será el esquema de análisis estadístico. Según un cálculo estimado publicado por G. M. Carter en una monografía de 1986, se necesitan los datos de aproximadamente dos estaciones (unos 300 casos) para derivar relaciones estadísticas estables. Esto significa que los métodos tradicionales de desarrollo de esquemas MOS tardan un par de años en desarrollar ecuaciones de MOS aceptables con los predictores del modelo nuevo después de un cambio en el modelo.

También vale la pena observar que por lo general el desarrollo y mantenimiento de un sistema MOS es costoso, ya que comprende miles de ecuaciones que se deben derivar para varios lugares, de acuerdo con el tiempo de validez y de proyección. Dada la frecuencia de los cambios en los modelos en Canadá y los EE. UU. en la década de 1990, ha sido muy difícil y costoso mantener sistemas MOS estadísticamente estables.

Finalmente, como ya mencionamos, mientras los esquemas de MOS tienden a asegurar la confiabilidad del pronóstico, esto se logra a expensas de su precisión.

9. Los pronósticos que emplean técnicas de análisis estadístico mejoran cuando se mejora el modelo » El esquema de MOS actualizable del Centro Meteorológico de Canadá

En la década de 1990, el Centro Meteorológico de Canadá (Canadian Meteorological Centre, o CMC) estudió un método para actualizar su esquema de análisis estadístico de la salida del modelo con la idea de que las ecuaciones de pronóstico absorbieran la información acerca de las variables del modelo de forma constante y regular. El resultado de estos estudios fue el esquema de MOS actualizable (Updateable MOS, o UMOS) que se implementó para las operaciones en primavera de 2001. En dicho esquema, las ecuaciones del pronóstico de MOS basadas en la salida del modelo GEM regional se actualizan cuatro veces al mes. Esto significa que al derivar las ecuaciones del esquema UMOS se toma en cuenta el régimen climático actual. Esto es cierto independientemente de que se trate de un régimen normal o anormal, como una racha de frío o una sequía prolongada.

Además, el esquema UMOS asegura una transición suave de las ecuaciones viejas a las nuevas después de cualquier cambio importante que se realice en el modelo. Esto se logra mediante un esquema de ponderación que da prioridad a los datos más recientes de la nueva versión del modelo. A la vez, el esquema retiene suficientes datos de la versión anterior para asegurar que se generen relaciones estadísticas estables.

El sistema UMOS canadiense está elaborado en torno a dos estaciones y dos períodos de transición:

  • Estación cálida (16 de mayo al 14 de octubre)
  • Transición de otoño (15 de octubre al 28 de noviembre)
  • Estación fría (29 de noviembre al 31 de marzo)
  • Transición de primavera (1º de abril al 15 de mayo)

También se emplea un esquema de ponderación para asegurar una transición suave de las ecuaciones de MOS de una estación a las de otra. El sistema fue diseñado de modo que si el modelo GEM cambia cerca del comienzo de la estación cálida o fría, la fusión de las ecuaciones nuevas y viejas ocurre de forma tal que los nuevos datos del modelo comienzan a influir de forma considerable en los pronósticos del esquema UMOS aproximadamente un mes después de la implementación del nuevo modelo. Si el modelo cambia cerca del final de la estación cálida o fría, los nuevos datos del modelo afectarán considerablemente a los pronósticos del esquema UMOS dentro de unos tres meses después de su implementación, ya que en estos casos es también necesario pasar por los períodos de transición para cambiar de las ecuaciones de una estación a las de la siguiente. Sin embargo, es importante observar que tras un cambio en el modelo pueden transcurrir hasta 300 días antes de que los datos del modelo anterior desaparezcan por completo del sistema UMOS. Esta cantidad de tiempo representa una enorme mejora sobre el período de dos años que suele requerir el desarrollo de ecuaciones de MOS estadísticamente significativas utilizando el enfoque tradicional.

9. Los pronósticos que emplean técnicas de análisis estadístico mejoran cuando se mejora el modelo » ¿En qué situaciones podría el esquema de MOS producir un pronóstico de calidad inferior?

Los esquemas estadísticos tienen dificultades para manejar eventos inusuales, porque dichos eventos no se pueden representar bien en la muestra de desarrollo. En términos generales, los pronósticos de MOS serán de calidad inferior si la relación estadística no es apropiada para el tiempo actual. Esto puede suceder de varias maneras:

1. Después de que se haga un cambio en el modelo. Como ya mencionamos, con el enfoque tradicional puede llevar dos años desarrollar un conjunto de nuevas ecuaciones estadísticamente significativas después de un cambio en el modelo. Durante ese período, las ecuaciones viejas pueden producir resultados pobres. El sistema UMOS canadiense representa un paso importante para eliminar este problema, ya que las nuevas ecuaciones de MOS pueden entrar plenamente en vigor dentro de uno a tres meses de haberse realizado un cambio en el modelo.

2. Si el régimen actual está fuera de lo común o no se incluyó en absoluto durante el período de desarrollo del esquema de MOS. Puede darse la situación en que el régimen meteorológico actual no fue bien muestreado, o quizás no se incluyó en absoluto durante el período de desarrollo de la ecuación del esquema de MOS. Esto puede ocurrir, por ejemplo, si se desarrollan las ecuaciones durante un par de inviernos relativamente cálidos sobre el este de América del Norte y luego se aplican a un invierno frío, como lo fue el de 2002-2003. En el sistema UMOS canadiense, este problema tiene un alcance mucho menor, ya que las ecuaciones se actualizan cuatro veces al mes, de modo que llegan a reflejar un régimen fuera de lo común, si dura suficiente.

3. Si las circunstancias particulares de un día determinado difieren de la norma para casos similares. Esto puede ocurrir. Supongamos, por ejemplo, que cierto lugar suele estar bajo un manto de nieve cuando se produce un episodio de frío polar y experimenta un episodio polar sin el manto de nieve. Un sistema MOS tradicional no puede manejar un suceso como este, ya que con toda probabilidad cualquier episodio polar en su muestra de desarrollo ya se encuentra en los parámetros del manto de nieve. Aunque es poco probable que el sistema UMOS canadiense logre manejarlo a corto plazo, tendrá la tendencia a «recuperarse» si el evento dura suficiente tiempo como para que se incorpore a las actualizaciones de las ecuaciones de pronóstico UMOS.

4. Si el clima depende de efectos de mesoescala no representados por el modelo o que se han filtrado de los datos del modelo que se emplearon para desarrollar las ecuaciones de MOS.

9. Los pronósticos que emplean técnicas de análisis estadístico mejoran cuando se mejora el modelo » Ponga a prueba sus conocimientos

Conteste las preguntas siguientes. Marque todas las opciones pertinentes y después haga clic en Terminado.

Pregunta 1

El esquema MOS del modelo GFS fue desarrollado sobre la base de observaciones y pronósticos realizados durante el episodio de El Niño de 1997-1998 y el fuerte período de La Niña subsiguiente, durante el cual se produjeron pocas incursiones de aire polar en el norte del territorio continental de EE. UU. Si está por producirse un episodio de aire polar en Michigan, ¿cuál es el uso más probable que hará de los pronósticos de temperatura del esquema MOS del modelo GFS?

La respuesta correcta es e)

Explicación: Vamos a querer reducir considerablemente las temperaturas de MOS, porque hubo pocas olas de aire polar y presumiblemente poco manto de nieve sobre el norte de EE. UU. en la muestra de desarrollo. En otras palabras, la incursión de aire polar representa un régimen considerablemente distinto que hay que tener en cuenta al hacer uso del análisis estadístico de la salida del modelo.

Escoja una opción.

Pregunta 2

Supongamos que está usando el esquema UMOS del modelo GEM regional a comienzos del año 2002 y está por producirse un episodio de frío polar en el sur de la provincia de Ontario, en Canadá. ¿Cuál es el uso más probable que hará del pronóstico de temperatura del esquema UMOS?

La respuesta correcta es f)

Explicación: La respuesta a esta pregunta es más difícil que la de la pregunta número 1, que presentaba el problema correspondiente para un esquema de MOS desarrollado de forma tradicional. Para el esquema de UMOS, las ecuaciones se actualizan todas las semanas. Si se trata de la primera incursión de aire polar de la temporada de invierno, representará un cambio considerable en el régimen meteorológico respecto de los tiempos recientes, de modo que con toda probabilidad tendremos que reducir considerablemente las temperaturas del esquema UMOS. Sin embargo, si esta va a ser simplemente la última de una serie de incursiones de aire polar que ya se han producido como parte de un patrón de temporada fría, podemos considerar que el patrón ya se ha sido incorporado a las ecuaciones de UMOS. En este caso, es posible que tengamos que reducir ligeramente las temperaturas del esquema UMOS para la incursión de aire polar.

Escoja una opción.

Pregunta 3

Supongamos que su zona está experimentando una sequía prolongada en la primavera de 2002 y usted está considerando usar un esquema tradicional de MOS como el del modelo GFS para generar un pronóstico de la temperatura máxima. Este esquema fue desarrollado durante un período de actividad meteorológica normal. ¿Cuál es el uso más probable que hará de este pronóstico de MOS?

La respuesta correcta es a)

Explicación: Durante un período sequía prolongada, vamos a querer aumentar considerablemente el pronóstico de temperaturas del esquema MOS. Es probable que este régimen poco común estuviera completamente ausente de la muestra de desarrollo que se utilizó para derivar las ecuaciones del esquema de MOS. Sería entonces lógico esperar que el pronóstico de MOS no podrá manejar bien los efectos del déficit de humedad del suelo sobre la temperatura máxima, ya que su muestra de desarrollo hubiera incluido unas condiciones de balance energético de superficie inapropiadas para condiciones de sequía.

Escoja una opción.

Pregunta 4

Supongamos que su zona está experimentando una sequía prolongada en la primavera de 2002 y usted está considerando el esquema UMOS canadiense para generar un pronóstico de la temperatura máxima. ¿Cuál es el uso más probable que hará de este pronóstico de UMOS?

La respuesta correcta es c)

Explicación: Otra vez, esta respuesta es más complicada que la de la pregunta número 3. Como la sequía ha durado mucho tiempo, podemos calcular que este régimen ya está bien representado en las ecuaciones del esquema UMOS, que se han actualizado cuatro veces al mes hasta ahora. Por lo tanto, podemos razonablemente esperar que ahora las relaciones estadísticas del esquema UMOS tienen en cuenta las condiciones de sequía, de modo que las temperaturas pronosticadas se aproximarán bastante a las temperaturas reales de la zona de sequía.

Escoja una opción.

9. Los pronósticos que emplean técnicas de análisis estadístico mejoran cuando se mejora el modelo » La realidad

Como hemos visto, después de que se modifique un modelo es necesario volver a derivar las ecuaciones de análisis estadístico de la salida del modelo para que se pueda aprovechar el cambio realizado.

Típicamente, se requiere un período de desarrollo aproximado de dos años para obtener una cantidad suficiente de casos que permita formular un conjunto de ecuaciones de MOS sólido, estable y estadísticamente significativo.

El sistema UMOS del Centro Meteorológico de Canadá ha reducido considerablemente el período de desarrollo necesario mediante la actualización regular de las ecuaciones de MOS y el uso de un esquema de ponderación que fusiona suavemente las ecuaciones de MOS antiguas con las nuevas. La actualización constante de las ecuaciones de UMOS tiene la ventaja adicional de que las ecuaciones tienen en cuenta el régimen meteorológico actual, a diferencia de los esquemas de MOS tradicionales, que funcionan mejor bajo el régimen meteorológico para el cual fueron desarrolladas, lo cual suele incluir principalmente el clima “normal”.

Por lo general, los esquemas de MOS pueden producir pronósticos pobres en las siguientes situaciones:

  • después de haberse efectuado un cambio en el modelo y antes de que las ecuaciones nuevas cobren vigencia;
  • si el régimen actual es poco común o no se incluyó en absoluto durante el período empleado para desarrollar las ecuaciones de MOS;
  • si las circunstancias particulares del caso en cuestión difieren de la norma para otros casos similares;
  • si el tiempo depende de efectos de mesoescala no representados por el modelo o que se filtraron de los datos del modelo usados en la muestra de desarrollo del esquema de MOS.

Para aprender más acerca de este tema, consulte la lección Uso inteligente de los productos derivados de los modelos - versión 2, que forma parte del curso de educación a distancia de COMET sobre la PNT.

Referencias bibliográficas

Carter, G. M., 1986: Toward a more representative statistical guidance system. Preprints, 11th Conference on Weather Forecasting and Analysis, Kansas City, MO, Amer. Meteor. Soc., 39-45.

Wilson, L. J. y M. Vallée, 2002: The Canadian Updateable Model Output Statistics (UMOS) System: Design y Development Tests. Weather and Forecasting, vol. 17, núm. 2, 206-222.

Wilson, L. J. y M. Vallée, 2003: The Canadian Updateable Model Output Statistics (UMOS) System: Validation against Perfect Prog. Weather and Forecasting, vol. 18, núm. 2, 288-302.

10. Siempre se requieren datos del modelo de máxima resolución

  • El concepto equivocado
  • Comparación de varias resoluciones de un modelo de 22 km
  • Comparación de varias resoluciones de un modelo de 22 km (continuación)
  • Resolución en relación con la escala de los fenómenos atmosféricos
  • Resolución en relación con la escala de los fenómenos atmosféricos (continuación)
  • El problema del suavizado numérico
  • Resolución vertical
  • Resolución vertical (continuación)
  • Ponga a prueba sus conocimientos
  • La realidad

10. Siempre se requieren datos del modelo de máxima resolución » El concepto equivocado

Siempre se pierde información importante si no se obtienen los pronósticos del modelo a la máxima resolución original de malla, tanto en la horizontal como en la vertical.

No es verdad.

Bien sabemos que debido a consideraciones relacionadas con el ancho de banda de las comunicaciones informáticas y con las limitaciones en la capacidad de almacenamiento masivo, a menudo los datos del modelo de PNT se distribuyen sobre mallas de salida inferiores a la resolución máxima del modelo.

Esto se hace en la fase de posprocesamiento de los datos del modelo de PNT, durante la cual los datos de la malla original se interpolan con mallas de salida de resolución más baja. Es también posible que como parte de este proceso se suavicen los datos del modelo. Pero, ¿cuánta información se pierde como resultado de estos procedimientos?

El estudio de este concepto equivocado se centrará en la resolución de las mallas de la salida del modelo y en cómo influye en la definición de los campos en dichas mallas. En la sección «Una malla de 20 km representa con precisión las características de 40 km» de esta lección ya estudiamos la resolución horizontal que se requiere en las mallas de modelo nativas para obtener buenos pronósticos de los fenómenos atmosféricos. Aunque parezcan similares, estos dos conceptos son muy distintos.

10. Siempre se requieren datos del modelo de máxima resolución » Comparación de varias resoluciones de un modelo de 22 km

Consideremos en primer lugar un ejemplo de los datos del modelo sobre mallas de salida de distintas resoluciones horizontales generadas a partir de una versión del modelo Eta con una resolución horizontal original de 22 km. Compararemos las mallas de salida 215, 212 y 211 del sistema interactivo avanzado de procesamiento de la información meteorológica (Advanced Weather Information Processing System, o AWIPS) cuyas resoluciones horizontales son, respectivamente, de 20, 40 y 80 km.

Las cartas que siguen muestran estos campos:

  • Vorticidad absoluta en 1000 hPa
  • Vientos en el nivel de 10 m
  • Topografía del modelo
Ejemplo de malla AWIPS 215 con resolución de 20 km sobre California central y del sur

La malla de 20 km se acerca a la resolución nativa del modelo. La malla de 40 km, casi el doble de la del modelo, tiene aproximadamente la mitad de la resolución nativa del modelo. La malla de salida de 80 km, cuatro veces la del modelo, ofrece la cuarta parte de la resolución nativa.

Tenga presente que las conclusiones a las cuales lleguemos aquí serán pertinentes para las resoluciones de 2 y 4 veces la resolución de malla nativa de cualquier modelo de PNT, no solo del modelo Eta. Observe que el suavizado de los datos del modelo Eta se realiza en la malla de 80 km, pero no en las de 20 y 40 km.

10. Siempre se requieren datos del modelo de máxima resolución » Comparación de varias resoluciones de un modelo de 22 km (continuación)

Ejemplo de malla AWIPS 215 con resolución de 20 km sobre California central y del sur

Estudiemos primero la salida de la malla de 20 km, que casi coincide con la resolución nativa de la malla Eta-22. La principal característica de gran escala es la vaguada en el nivel de 1000 hPa cerca de la costa de California. Esta característica presenta un flujo ciclónico de gran escala definido por el amplio patrón ciclónico de los vientos en el nivel de 10 m.

El campo de vorticidad refleja características de origen orográfico cerca de la Sierra Nevada, las montañas al norte de Los Ángeles y en el Valle Central. Dichas características están asociadas a distintas cortantes verticales y horizontales relacionadas con las montañas. Las ondas que se observan en el campo de vorticidad a lo largo de la Sierra Nevada tienen una longitud de onda aproximada de 160 km.

También se notan otras características ondulares de escala similar o mayor, como los máximos y mínimos de vorticidad visibles al este de la Sierra Nevada. Este patrón, que tiene una longitud de onda de unos 300 km, puede estar relacionado con la contracción y el estiramiento de unos tubos de vorticidad, y una capa de flujo más profundo que produce una mayor vorticidad inmediatamente a sotavento de las montañas.

Ejemplo de malla AWIPS 212 con resolución de 40 km sobre California central y del sur

Consideremos ahora la malla dos veces la original, es decir, la mitad de la resolución nativa. En esta imagen, la representación general de la vorticidad es muy similar a la de la malla de 20 km en todas las zonas. La diferencia principal es que la amplitud de los máximos y mínimos de vorticidad se ha atenuado un poco en comparación con la malla de salida de 20 km. No se percibe una verdadera degradación de la información como resultado de haber reducido la resolución de malla nativa a la mitad.

Ejemplo de malla AWIPS 211 con resolución de 80 km sobre California central y del sur

Sin embargo, el espaciado de malla cuatro veces el de la malla nativa produce una fuerte degradación de la información proporcionada por los datos de la malla de salida. Solo podemos ver las características de gran escala, e incluso estas tienen una definición muy pobre.

Se han perdido todos los detalles del campo de vorticidad, en parte debido a la interpolación, pero principalmente porque con esta malla de salida datos nativos se someten al suavizado numérico.

El motivo por el cual se realiza este suavizado tiene poco que ver con las necesidades actuales y más con los antecedentes del sistema AWIPS. Originalmente, la malla 211 de 80 km se utilizaba para el modelo de mallas anidadas (Nested Grid Model, o NGM), cuyos datos de resolución nativa de malla tenían que suavizarse para eliminar el ruido que interfería con los cálculos de forzamiento cuasigeostrófico que se realizaban en los centros meteorológicos locales con esta malla de salida. La rutina de suavizado de la malla 211 nunca fue eliminada del posprocesamiento de AWIPS que realizan los Centros Nacionales de Predicción Ambiental (NCEP) de EE. UU.

10. Siempre se requieren datos del modelo de máxima resolución » Resolución en relación con la escala de los fenómenos atmosféricos

Ejemplo de una onda de 4 unidades de malla

El ejemplo anterior demuestra que en ciertos casos la información incorporada en los datos de máxima resolución de malla del modelo de PNT se pueden representar en mallas de salida con resoluciones horizontales menores sin incurrir en una pérdida excesiva de datos. Si por el momento ignoramos el efecto del suavizado numérico sobre los datos del modelo, ¿hasta qué punto podemos representar los datos del modelo en mallas de salida con resolución cada vez más gruesa?

El ejemplo mostró poca pérdida al pasar de una malla de 22 km a una de 40 km en el caso de un campo atmosférico, como la vorticidad en el nivel de 1000 hPa, cuya escala horizontal en términos de longitud de onda oscila entre 160 y 300 km.

Claramente la respuesta a la pregunta sobre el límite de resolución de la malla de salida que se puede usar depende de la escala del fenómeno atmosférico bajo consideración: cuanto mayor la escala, tanto mayor puede ser el espaciado de malla empleado para representarlo.

Recuerde que las ondas quedarán «escalonadas» (es decir, se proyectan incorrectamente sobre longitudes de onda mayores) si su longitud de onda es inferior a cuatro unidades de malla de la malla empleada. Esto es así para las representaciones estáticas de una onda sobre esa malla. Sin embargo, dentro de un modelo de PNT, una determinada característica sólo se pronosticará bien respecto del tiempo si su malla nativa es lo suficientemente fina para que se puedan utilizar al menos ocho unidades de malla para definirla.

Encontrará una discusión más amplia de este punto en la sección «Una malla de 20 km representa con precisión las características de 40 km» de esta lección. La discusión de ese concepto equivocado se centra en la resolución horizontal de la malla nativa del modelo de pronóstico. Esta sección pone el énfasis en la resolución de la malla de salida.

La longitud de cuatro unidades de malla puede servirnos como primer cálculo aproximado para derivar el límite horizontal de la malla de salida que nos permita retener la información del modelo sin una pérdida excesiva de datos. Para una onda de 1000 km (en el rango meso-alfa), el máximo es una malla de 250 km. Para una onda de 100 km (en el rango meso-beta), el máximo es una malla de 25 km. Una onda de 10 km (en el rango meso-gamma) requiere al menos una malla de 2,5 km.

Esta lógica sencilla sugiere que un fenómeno atmosférico de una longitud de onda en el rango de 160 a 300 km se puede representar de forma razonable en una malla de salida de 40 km, tal como se indicó en el ejemplo que vimos antes. Sin embargo, incluso sin realizar un suavizado numérico, la regla de cuatro unidades de malla sugiere que una onda de este tipo se representará mal en la malla de salida de 80 km. Pero no se olvide que las cosas son distintas cuando consideramos la malla nativa del modelo de pronóstico. Para un modelo numérico con una malla nativa de 40 km de resolución, las características con tamaños en el rango de 160 a 300 km abarcan menos de 8 unidades de malla y, por tanto, se pronosticarían mal.

10. Siempre se requieren datos del modelo de máxima resolución » Resolución en relación con la escala de los fenómenos atmosféricos (continuación)

En este tratamiento simple, algunas características, como las pequeñas zonas de precipitación, pueden considerarse como medias ondas (que constan de una máxima cuyos valores bajan a cero en ambos lados). Tales características de precipitación de pequeña escala necesitan mallas de alta resolución para que se puedan representar con exactitud.

Por ejemplo, según nuestra regla sencilla, una banda de precipitación de 20 km de ancho (la mitad de una onda de 40 km) necesitaría una malla de salida de al menos 10 km. Pero no debemos olvidarnos que a una escala tan pequeña las deficiencias de las parametrizaciones de la física del modelo y la representación del terreno pueden causar pronósticos incorrectos en la malla nativa. Ninguna malla de salida puede compensar este tipo de problema.

Por ejemplo, se sabe que debido a las limitaciones inherentes en el esquema de parametrización de la convección, en situaciones de convección un modelo puede pronosticar la precipitación convectiva en la posición y con la intensidad incorrecta.

Por otra parte, los modelos de PNT de mayor resolución han demostrado su habilidad de pronosticar patrones de precipitación de pequeña escala relacionados con el forzamiento orográfico. Tratamos este asunto en la sección «La alta resolución lo arregla todo» de esta misma lección.

La precipitación forzada por la orografía necesita mallas de salida de alta resolución para que se pueda representar con exactitud y en ese caso se puede usar con cierto grado de confianza. Las mallas de salida de baja resolución son inútiles para representar ese tipo de precipitación.

10. Siempre se requieren datos del modelo de máxima resolución » El problema del suavizado numérico

Merece la pena detenernos a considerar el problema del suavizado numérico. Los algoritmos de suavizado numérico se aplican por distintas razones y sus efectos dependen del tipo y grado. Toda persona que trabaje en el desarrollo de pronósticos debe saber si se ha aplicado un algoritmo de suavizado numérico a los datos de la malla particular que está usando.

Ya vimos que los datos del modelo Eta se suavizan en la malla AWIPS 211 de 80 km, pero no en las de 40 y 20 km. De hecho, el suavizado empleado con la malla 211 se considera «fuerte».

En Canadá, los datos del modelo GEM están disponibles en dos versiones del formato GRIB, de alta y baja resolución. Los datos de alta resolución están a la resolución horizontal máxima del modelo que, en diciembre de 2003, era de 24 km para el modelo regional GEM y 110 km para el modelo GEM global.

Los datos de baja resolución con una resolución aproximada de la mitad de la resolución horizontal plena del modelo: 60 km para el modelo regional y 220 km para el modelo global.

Aparte del suavizado implícito causado por las interpolaciones, no se aplica ningún otro suavizado al formato GRIB canadiense.

El suavizado puede producir resultados bastante sorprendentes. Por ejemplo, recuerde que es posible generar una sobresaturación artificial promediando la razón de mezcla y la temperatura. Esto se debe a que la forma exponencial de la ecuación de Clausius-Clapeyron para calcular la presión de vapor de saturación significa que el promedio de dos estados subsaturados, uno cálido y uno frío, puede provocar la sobresaturación del promedio.

Las dos cartas que siguen ilustran este efecto en el nivel de 850 hPa. La primera muestra una amplia zona de sobresaturación causada por este efecto en la malla de salida AWIPS 211 de 80 km, en la cual, como sabemos, los datos del modelo Eta se suavizan fuertemente.

Modelo Eta, malla AWIPS 211 de 80 km: temperatura, humedad específica y depresión de punto de rocío en 850 hPa.

La segunda imagen muestra las mismas variables en la malla de salida 212 de 40 km. En esta malla, en la cual los datos del modelo no se someten a suavizado, el efecto de supersaturación artificial es casi inexistente.

Modelo Eta, malla AWIPS 212 de 40 km: temperatura, humedad específica y depresión de punto de rocío en 850 hPa.

10. Siempre se requieren datos del modelo de máxima resolución » Resolución vertical

La resolución vertical a la que están disponibles los datos del modelo es otra consideración importante. Puede haber varios conjuntos de datos disponibles con varias resoluciones verticales, desde la resolución nativa de malla del modelo hasta algo mucho más grueso. Con los años, la tendencia ha sido aumentar la resolución vertical de los modelos de PNT y, a la vez, aumentar la resolución vertical de las mallas de salida.

Tefigrama 00 UTC 10 de octubre de 2003, Iqaluit, Nunavut, Canadá

Esta figura muestra un tefigrama con tres perfiles de temperatura y punto de rocío superpuestos de Iqaluit, Nunavut, Canadá para las 00 UTC del 10 de octubre de 2003. Las curvas negras muestran las observaciones de radiosonda y las curvas verdes el análisis inicial del modelo GEM regional a su máxima resolución vertical (28 niveles). Las curvas rojas representan el mismo análisis inicial, pero sobre un conjunto reducido de niveles de presión en la vertical. Al trabajar exclusivamente con el perfil rojo, sería imposible detectar el aire cálido centrado en el nivel de 800 hPa. Esto tendría consecuencias importantes para un pronóstico de tipo de precipitación.

En la práctica, esto no constituye un problema para el pronóstico que se realiza en Canadá, ya que allí se recibe la salida del modelo GEM con la resolución vertical máxima a través de los perfiles del modelo en formato BUFR. Sin embargo, este problema puede surgir al trabajar en estudios de casos con conjuntos de datos antiguos o especiales cuyos niveles verticales son limitados. Por ejemplo, hasta diciembre de 2003 los datos del modelo GEM regional disponibles a través de Unidata solo incluían un conjunto limitado de niveles verticales.

10. Siempre se requieren datos del modelo de máxima resolución » Resolución vertical (continuación)

Cuando existe un fuerte gradiente inclinado, como en una zona frontal, el perfil vertical puede verse afectado por el suavizado horizontal y las interpolaciones empleadas para transferir los datos de la malla original del modelo a la malla de salida, más gruesa. Como ya vimos, tales operaciones pueden provocar la supersaturación artificial en la malla de salida. A continuación, algunos perfiles de temperatura y punto de rocío de la malla de salida mostrarán esas áreas supersaturadas, donde el punto de rocío excede la temperatura.

Merece la pena mencionar un último aspecto acerca de la resolución vertical: el efecto de la representación topográfica cuando el terreno es complejo.

Tefigrama 00 UTC 14 de octubre de 2003, Kelowna, Columbia Británica, Canadá

Esta figura muestra un tefigrama para Kelowna, Columbia Británica, para las 00 UTC del 14 de octubre de 2003. Podemos ver que la observación de la radiosonda ubica Kelowna a cerca de 965 hPa, con una temperatura de 15 ºC y un punto de rocío de casi 5 ºC. El sondeo del modelo a baja resolución en superficies de presión normal extrapola las dos curvas hacia abajo hasta el nivel de 1000 hPa.

Observe que los perfiles de resolución máxima del modelo ubican Kelowna en el nivel de 900 hPa, con una temperatura de 9 ºC y un punto de rocío justo debajo de 0 ºC. Esta es una ilustración del efecto de la representación del terreno: incluso con los perfiles de máxima resolución vertical del modelo, en terreno complejo no se puede depender del modelo para obtener valores exactos de las variables cerca de la superficie.

Obviamente, a medida que aumenta la resolución horizontal del modelo, el problema de la representación del terreno disminuye en importancia, ya que la definición del terreno del modelo mejora como resultado. Encontrará una descripción del efecto de la representación del terreno en la sección «Los modelos de PNT pronostican directamente las variables cerca de la superficie» de esta misma lección.

Por lo general, es necesario considerar los datos del modelo de PNT con la resolución vertical plena. Esto se debe a que las variaciones en las variables atmosféricas en la vertical pueden producirse sobre distancias muy cortas. Los conjuntos de datos con resoluciones verticales bajas pueden ser engañosos y conducir a errores.

10. Siempre se requieren datos del modelo de máxima resolución » Ponga a prueba sus conocimientos

Pregunta 1

¿Puede el modelo regional GEM con una malla de resolución horizontal nativa de 24 km pronosticar bien una característica que tiene una longitud de onda de 200 km?

La respuesta correcta es Sí

Explicación: Para pronosticarse bien, una onda debe estar representada por al menos 8 puntos de malla horizontales en la malla nativa de un modelo numérico. Por lo tanto, podemos estimar que las ondas de 8x24 km o mayores se pronosticarán bien.

Nota: La respuesta a esta pregunta se basa en la aplicación de una regla sencilla y no debe considerarse más que un cálculo aproximado. En realidad, no es posible establecer un punto límite bien definido.

Escoja una opción.

Pregunta 2

¿Puede una característica que tiene una longitud de onda de 200 km representarse bien en la malla de salida de los datos GRIB de baja resolución del modelo GEM regional (resolución de 60 km)?

La respuesta correcta es No

Explicación: Los datos GRIB se dan a una resolución horizontal de 60 km. Si aplicamos la regla de cuatro unidades de malla a la malla de salida, sabemos que las características con longitudes de onda superiores a 240 km se pueden representar en una malla de 60 km.

Nota: La respuesta a esta pregunta se basa en la aplicación de una regla sencilla y no debe considerarse más que un cálculo aproximado. En realidad, no es posible establecer un punto límite bien definido.

Escoja una opción.

10. Siempre se requieren datos del modelo de máxima resolución » La realidad

Por motivos de velocidad y economía, para fines de pronóstico no siempre se tiene acceso a los conjuntos de datos con resolución plena del modelo. Hemos visto que en ciertos casos esta es una práctica aceptable, mientras en otros puede causar problemas.

En términos generales, la exactitud de la representación de una característica en determinada malla de salida depende de la escala horizontal de la característica. Las características relativamente grandes, con escalas del rango de 1000 km, se representarán correctamente a cualquiera de las resoluciones horizontales empleadas en las mallas de salida de uso común. Las características más pequeñas requieren mallas de salida más finas para representarse correctamente.

Hemos visto que una característica ondular se representará bien en una malla de salida horizontal si tiene una longitud de onda mayor que cuatro unidades de malla. Sin embargo, al considerar el modelo de PNT en sí, las características aparte de las que están ligadas a la orografía, como la precipitación forzada orográficamente, deben tener una longitud de onda al menos ocho veces la de la resolución de la malla nativa del modelo, ya que de lo contrario es muy probable que el pronóstico del modelo sea inexacto.

Un factor que complica el asunto es el hecho de que es posible que se aplique un suavizado como parte del proceso de transferir los datos de PNT de las mallas del modelo a las de salida. Además de tener que saber la resolución de la malla de salida, es importantes estar consciente de cualquier suavizado que pueda haberse aplicado a los datos de esa malla.

La resolución vertical de las mallas de salida también es un aspecto importante. El uso de mallas de baja resolución vertical presenta el riesgo de malinterpretar lo que hace el modelo. La mallas de baja resolución pueden fácilmente no detectar características importantes en la vertical. Es buena idea tratar de trabajar siempre con perfiles verticales a la resolución máxima del modelo. Conviene tener cuidado al trabajar con mallas de salida antiguas o especiales con una resolución vertical inferior a la resolución nativa del modelo.

La topografía compleja del lugar bajo consideración presenta un reto adicional: debido al efecto de representación del terreno, el modelo no puede proporcionar perfiles verticales exactos cerca del suelo, incluso a la resolución vertical plena del modelo.

Para aprender más acerca de este tema, consulte Impacto de la física del modelo en los pronósticos numéricos, versión 2, que forma parte del curso de educación a distancia de COMET sobre la PNT.

Colaboradores

COMET Sponsors

Patrocinadores
  • Meteorological Service of Canada (MSC)
  • National Weather Service (NWS)
  • National Oceanic y Atmospheric Administration (NOAA)
Asesores científicos principales
  • Stephen Jascourt — UCAR/COMET
  • Bill Bua — UCAR/COMET
Jefe del proyecto/Diseño instruccional
  • Bruce Muller — UCAR/COMET
  • Patrick Parrish — UCAR/COMET
Meteorólogo del proyecto
  • Garry Toth — MSC
Diseño multimedia
  • Bruce Muller — UCAR/COMET
  • Dan Riter — UCAR/COMET
  • Carl Whitehurst — UCAR/COMET
Edición/Producción de audio
  • Seth Lamos — UCAR/COMET
Narración
  • Garry Toth — MSC
  • Dominique de LaBruère Toth
Diseño de interfaz/Infografía
  • Heidi Godsil — UCAR/COMET
Infografía/Animación
  • Steve Deyo — UCAR/COMET
Pruebas de software/Control de calidad
  • Michael Smith — UCAR/COMET
Administración de derechos de autor
  • Lorrie Fyffe — UCAR/COMET
Datos cortesía de
  • MSC
  • NWS — NOAA

Equipo de integración HTML de COMET, 2021

  • Tim Alberta — Gerente del proyecto
  • Dolores Kiessling — Jefa del proyecto
  • Steve Deyo — Diseñador gráfico
  • Ariana Kiessling — Desarrolladora web
  • Gary Pacheco — Jefe de desarrollo web
  • David Russi — Traductor
  • Tyler Winstead — Desarrollador web

Personal de COMET 2002

Director
  • Dr. Timothy Spangler
Subdirector
  • Dr. Joe Lamos
Jefe del grupo de recursos meteorológicos
  • Dr. Greg Byrd
Gerenta comercial/Supervisora administrativa
  • Elizabeth Lessard
Administración
  • Lorrie Fyffe
  • Bonnie Slagel
Infografía/Diseño multimedia
  • Steve Deyo
  • Heidi Godsil
  • Seth Lamos
Soporte de hardware/software y programación
  • Steve Drake (Supervisor)
  • Tim Alberta
  • Carl Whitehurst
Diseño instruccional
  • Patrick Parrish (Supervisor)
  • Dr. Alan Bol
  • Lon Goldstein
  • Dr. Vickie Johnson
  • Bruce Muller
  • Dr. Sherwood Wang
Meteorólogos
  • Dr. William Bua
  • Patrick Dills
  • Doug Drogurub (Estudiante)
  • Kevin Fuell
  • Jonathan Heyl (Estudiante)
  • Dr. Stephen Jascourt
  • Matthew Kelsch
  • Dolores Kiessling
  • Dr. Richard Koehler
  • Wendy Schreiber-Abshire
  • Dr. Doug Wesley
Pruebas de software/Control de calidad
  • Michael Smith (Coordinator)
Administración de sistemas
  • Karl Hanzel
  • James Hamm
  • Max Parris (Estudiante)
National Weather Service, sucursal COMET
  • Richard Cianflone
  • Anthony Mostek (Coordinador Nacional de Entrenamiento Satelital)
  • Elizabeth Mulvihill Page
  • Dr. Robert Rozumalski (Coordinador de SOO/SAC)
Meteorólogos visitantes del Servicio Meteorológico de Canadá (CMS)
  • Peter Lewis
  • Garry Toth
Traducción al español
  • David Russi
Para aprender más acerca

Arriba