Comprensión de los sistemas de asimilación: cómo los modelos crean sus propias condiciones iniciales, versión 2

Introducción

Introducción: objetivos de la lección

Esta lección describe en términos generales el proceso de asimilación de datos (AD) de predicción numérica del tiempo (PNT). Cuando termine de estudiarla, comprenderá:

  • por qué la asimilación de datos es tan importante para la calidad de un pronóstico numérico;
  • cómo funciona la asimilación de datos, y de forma específica:
    • cómo los modelos usan los datos en función de la resolución del modelo y el tipo de datos,
    • cómo los datos entran en el análisis,
    • cómo los datos pueden influir en el análisis y
    • las limitaciones de la asimilación de datos;
  • la importancia de las condiciones iniciales para la calidad de la guía numérica;
  • el posible impacto de las implementaciones de un sistema de asimilación de datos en las condiciones iniciales;
  • las dificultades de evaluar la calidad de la guía numérica con base en las condiciones iniciales.

Filosofía de la asimilación de datos

La asimilación de los datos es el proceso mediante el cual las observaciones del mundo real:

  • se introducen en los ciclos de pronóstico del modelo,
  • brindan una medida de protección contra el crecimiento de los errores del modelo,
  • contribuyen a establecer las condiciones iniciales para el próximo ciclo de ejecución del modelo.

El proceso por el cual las observaciones se incorporan a los campos iniciales del modelo se basa en una filosofía subyacente que afecta profundamente el uso real que se hace de los datos y las condiciones que llevan el modelo a realizar análisis y pronósticos equivocados. El resto de esta sección introductoria explica esta filosofía y sus repercusiones fundamentales.

Los análisis del modelo no son exclusivamente el producto de una serie de observaciones. Al contrario, las observaciones se usan para hacer PEQUEÑAS correcciones en un pronóstico a corto plazo que se supone que sea bueno. Por ejemplo, las condiciones iniciales de las 12 UTC del modelo RUC (que después de 2010 se llamará Rapid Refresh) provienen de la corrección de un pronóstico de una hora de las 11 UTC con las observaciones de un período de una hora centrado en las 12 UTC. Las condiciones iniciales de ese pronóstico de 1 hora de las 11 UTC provienen de la corrección de un pronóstico de una hora de las 10 UTC con las observaciones realizadas durante un período de una hora centrado en las 11 UTC, y así sucesivamente hacia atrás en el tiempo. Otros modelos utilizan intervalos de pronóstico y de datos mayores, como el modelo GFS de NCEP, que utiliza un intervalo de 6 horas. De esta manera, los pronósticos a corto plazo retienen la información de las observaciones previas y brindan información de fondo al análisis futuro.

Uso del pronóstico en la asimilación de datos

¿Por qué utilizamos un pronóstico del modelo para crear las condiciones iniciales del próximo pronóstico? Procedemos de esta manera porque:

  • se supone que un pronóstico a corto plazo constituye un buen campo de fondo para el análisis, ya que proviene de un modelo que da buenos resultados;
  • permite conservar la información de las observaciones anteriores;
  • permite combinar en el análisis observaciones provenientes de diversas fuentes, con distintos niveles de calidad y sobre parámetros diferentes, ya que brinda un punto de comparación para fines de control de calidad y ponderación de dichas observaciones;
  • puede brindar información que de otras forma no estaría disponible entre observaciones, en parte basada en la inclusión y el movimiento de la información proveniente de observaciones anteriores;
  • los campos del modelo de pronóstico contienen coherencias dinámicas y físicas;
  • los campos del modelo de pronóstico contienen coherencias numéricas necesarias para que el modelo genere el próximo pronóstico acertado.

El primero de los puntos que acabamos de enumerar (la suposición de que el pronóstico a corto plazo es acertado) es la suposición FUNDAMENTAL de la asimilación de datos. Esto significa que:

  • en lugar de analizar los datos en forma directa, el análisis utiliza las observaciones para hacer una serie de pequeñas correcciones en un pronóstico que, en términos generales, es de buena calidad;
  • podemos usar las discrepancias grandes entre las observaciones y el pronóstico a corto plazo para determinar si los datos son poco confiables o incorrectos, ya que se supone que el pronóstico es acertado (lo cual es posible incluso si las observaciones no se rechazan de entrada);
  • un buen pronóstico suele conducir a un buen análisis, lo cual suele producir otro pronóstico acertado.

Por otra parte, un pronóstico incorrecto puede llevar a un análisis incorrecto, lo cual produce otro pronóstico incorrecto, hasta que haya suficientes datos disponibles para forzar el modelo a cambiar.

Consideraciones importantes sobre la asimilación de datos

Las correcciones del pronóstico a corto plazo se realizan en un análisis que ha sido suavizado para coincidir con la resolución del modelo, usando información sobre la exactitud normal de los pronósticos y las observaciones. Esto significa que:

  • Las estructuras meteorológicas observadas que son demasiado pequeñas para que el modelo las resuelva correctamente se excluyen del análisis.
  • El sistema funciona mejor en las situaciones más comunes, pero es posible que el análisis no maneje bien las situaciones extremas o que cambian muy rápidamente.
    • Debido a que estas son precisamente las situaciones en las cuales es más probable que las condiciones iniciales del modelo sean de escasa calidad y el pronóstico poco confiable, nuestro reto en el momento de preparar un pronóstico consiste en reconocer los eventos meteorológicos que tienen el potencial de ser extremos o de evolucionar rápidamente y poner menos énfasis en la guía del modelo.
  • Los análisis del modelo producen los mejores resultados donde la cobertura de datos es uniforme. Tenga en cuenta que cuando un análisis se basa en correcciones del pronóstico, es posible que dichas correcciones se extrapolen de un zona con muchos datos a zonas contiguas con pocos datos (un vacío de datos), donde esas correcciones pueden resultar inadecuadas.

Pregunta sobre los campos de análisis

Pregunta

Sabiendo que el análisis utiliza las observaciones para efectuar pequeñas correcciones en el pronóstico del modelo, ¿en general, qué nivel de calidad cree que cabe esperar para los siguientes campos en el análisis del modelo? (Use los cuadros de selección para elegir las mejores respuestas.)

a) temperatura (en altura, no en la superficie):
b) vientos (en altura, no en la superficie):
c) humedad (en altura, no en la superficie):

Podemos esperar que el nivel de calidad de los campos de temperatura y vientos sea alto y que el de los campos de humedad sea medio.

Las variables que se pronostican bien deberían ser de alta calidad en el análisis, especialmente si también se miden en los datos de observaciones. Recuerde que la dinámica del modelo suele ajustar bastante bien tanto la temperatura como los campos de vientos.

Por una serie de motivos, a menudo la humedad no se pronostica bien. Sus fuentes y sumideros se manejan por medio de las parametrizaciones de los procesos físicos en el modelo. La parametrización de las nubes, la precipitación, la convección y los flujos superficiales es más difícil y menos exacta que la dinámica.

Además, la estructura horizontal y vertical fina de los campos de humedad dificulta su medición adecuada con observaciones convencionales, como los radisondeos, y a veces hasta las observaciones confiables contienen información incompleta sobre importantes variaciones de pequeña escala (que pueden ser demasiado pequeñas para resolverse en el modelo), como la verdadera humedad máxima de una pluma de humedad entre dos estaciones. Estos errores de humedad pueden empeorar aún más porque:

  • hasta las observaciones de punto de rocío de buena resolución vertical tomadas con radiosonda a veces contienen errores grandes en las regiones de la troposfera media a superior;
  • es difícil convertir datos satelitales de radiancia y agua precipitable de buena resolución horizontal en valores de humedad para cada capa del modelo.

Si no podemos observar bien la humedad, tampoco podremos predecirla. Si no podemos predecirla bien, el uso de un pronóstico a corto plazo como campo de fondo solo sirve para agravar el problema.

En resumidas cuentas, debido a limitaciones del modelo y de observación, la humedad no se predice ni se observa tan bien como los vientos y la temperatura y, por tanto, no se analiza tan bien como dichos campos. Esto es así en todos los principales centros de predicción numérica del tiempo.

Escoja una opción.

Proceso de asimilación de datos

Proceso de asimilación de datos: objetivo

Pregunta

Una vez que asimile nuevos datos de alta calidad y genere un pronóstico, ¿debería el análisis del modelo ser muy parecido a un análisis manual de gran habilidad? Escoja la mejor respuesta.

Normalmente, la respuesta es negativa.

El objetivo de la asimilación de datos no es imitar los detalles que contiene un cuidadoso análisis manual, sino que consiste en brindar las condiciones iniciales que producirán el mejor pronóstico posible del modelo. Por lo tanto, debe crear un análisis coherente con los cálculos, la dinámica, la física y la resolución del modelo. Para lograrlo, utilizamos un pronóstico a corto plazo como la base del análisis y efectuamos una serie de pequeñas correcciones en ese pronóstico de acuerdo con la nueva información proveniente de las observaciones. Esto significa que el análisis será diferente para distintos modelos y con toda probabilidad será distinto de la mejor estimación del verdadero estado de la atmósfera producida por un análisis manual.

Por ejemplo, la resolución de los modelos globales es demasiado gruesa como para conservar las mediciones de aeronave de las corrientes de salida divergentes de una tormenta individual. Además, las parametrizaciones de la física del modelo pueden alterar profundamente hasta las circulaciones divergentes de gran escala en el análisis, un problema que se observa sistemáticamente en los trópicos, donde la convección es el factor de forzamiento dominante en los pronósticos a corto plazo empleados por en análisis (Newman et al. 2000).

Escoja una opción.

Correcciones del pronóstico del modelo

Las observaciones se asimilan para corregir cada pronóstico a corto plazo que sirve como base para el próximo análisis, lo cual produce una serie de pequeñas correcciones del pronóstico del modelo, tal como ilustra la figura siguiente. En términos ideales, el pronóstico del modelo debería corregirse para reflejar el «verdadero» estado de la atmósfera dentro de los límites de lo que permitan predecir la resolución y la física del modelo. Como nunca llegamos a conocer dicho estado «verdadero» de la atmósfera, el análisis solo puede alcanzar el grado de exactitud que admiten las observaciones y sus limitaciones, algunas de las cuales son:

  • la densidad de las observaciones horizontales y verticales;
  • la frecuencia de las observaciones;
  • la resolución horizontal y vertical del instrumento;
  • los errores de instrumento;
  • los parámetros observados directamente, como vientos radiales y radiancias, que no se convierten directamente en vectores viento y temperaturas;
  • los parámetros observados derivados, como vientos derivados del movimiento de las nubes, que están sujetos a las limitaciones y suposiciones de los algoritmos.
Diagrama de la corrección del análisis del modelo para reflejar el verdadero estado de la atmósfera

El grado de incertidumbre de nuestro conocimiento de la temperatura media en una pequeña zona de mesoescala alrededor de una estación de observación es análogo al que existe cuando dos personas producen análisis diferentes a mano a partir de los mismos datos. El análisis debería caer dentro de la región «aproximada» (indicada por el color rosado en la figura) que representa un rango de posibles estados «verdaderos».

Cuando las observaciones indican que el modelo se ha desviado de esta «zona de verdad», se corrige hacia el rango de los probables estados «verdaderos». Si el pronóstico se desvía demasiado de la realidad, Es posible que las pequeñas correcciones no sean suficientes como para traer el pronóstico plenamente a la zona de «verdad», con lo cual el próximo pronóstico puede ser incluso peor.

Pasos del proceso de asimilación de datos

Los pasos del proceso de asimilación de datos constituyen el ciclo ilustrado a continuación. El proceso debe extraer la información correspondiente a una serie de observaciones dispersas física y temporalmente, y pasar esa información a la malla del modelo, conservando a la vez la coherencia física, dinámica y numérica interrelacionada que se necesita para que el modelo genere un buen pronóstico. Uno de estos pasos, el análisis objetivo, fusiona la información del pronóstico a corto plazo sobre las observaciones y los procesos de pequeña escala pronosticados por el modelo (como los efectos topográficos) con información de las observaciones nuevas. La forma de realizar esta fusión deja una huella inconfundible en el análisis, algo que también afecta el pronóstico.

Los métodos usados para hacer frente a estos problemas son extremadamente complejos e intrincados, pero explicaremos sus premisas básicas y sus impactos en el análisis que entra en los modelos.

  • Las observaciones (recuadro 1B) provienen desde fuera del ciclo.
  • Se analizan para detectar errores grandes.
  • Se fusionan con el pronóstico a corto plazo anterior (recuadro 1A) producido por el ciclo anterior. Este pronóstico sirve como fondo para el próximo análisis. Por esta razón, es común que se denomine «campo inicial» o «primera aproximación».
  • La fusión de las observaciones con el campo inicial se logra calculando los incrementos de observación (recuadro 2), que son las diferencias entre las observaciones y el campo inicial. (Observe que los incrementos de observación se ubican en los lugares de observación).
  • El control de calidad de las observaciones se realiza en los incrementos de observación, no en las observaciones en sí.
  • El procedimiento de análisis objetivo (paralelogramo rojo) interpola estos incrementos de observación de vuelta a la malla de un modelo para producir un campo de correcciones sobre ella (recuadro 3).
  • Las correcciones se incorporan al campo inicial para producir el nuevo análisis (recuadro 4).
  • El nuevo análisis produce las condiciones iniciales para el próximo pronóstico operativo y tras la fusión de un pronóstico a corto plazo (recuadro 1A) con el siguiente conjunto de observaciones, se vuelve a iniciar el ciclo.

Los doce componentes del sistema combinado modelo-asimilación de datos ilustrado a continuación se describen en las próximas doce páginas.

Proceso de asimilación de datos

Nota sobre el paso de inicialización del modelo: algunos modelos emplean un paso de inicialización después del análisis y antes de ejecutar el modelo de pronóstico. La inicialización mejora el balance a las escalas que el modelo puede resolver, lo cual asegura que el modelo funcionará sin problemas. Un método de uso difundido es el llamado filtro digital, en el cual el modelo se ejecuta hacia adelante por un breve período a la vez que la dinámica, pero no la física, se ejecutan hacia atrás por un período corto, y luego el resultado se filtra por tiempo para eliminar las oscilaciones rápidas. Cuando se utiliza un paso de inicialización, los campos «P00» o de «análisis inicial» que se ven no son el resultado directo del análisis, sino que fueron modificados durante el paso de inicialización. Puede evaluar la eficacia de la inicialización (o de su ausencia) determinando si nota pulsaciones de ondas de divergencia y convergencia que atraviesan grandes áreas en las primeras horas del pronóstico y el grado de coherencia de las estructuras de precipitación en los momentos iniciales del pronóstico.

Nota: cuando termine de esta sección, considere la posibilidad de estudiar la sección opcional El mago de la AD (la próxima opción del menú de navegación). Aunque dicha sección no es un elemento obligatorio del curso de PNT del NWS, ofrece una forma amena e informativa de aprender más sobre el proceso de asimilación de datos. Encontrará una explicación más completa y detallada del mismo material en las tres secciones subsiguientes: Datos, Incremento de observación y Análisis. Esperamos que el enfoque imaginativo de El mago de la AD aumente su grado de comprensión del tema de manera divertida.

Pronóstico a corto plazo

El pronóstico a corto plazo constituye el punto inicial para crear el próximo análisis del modelo y se denomina campo de fondo porque contiene información de fondo que el modelo conserva de los análisis anteriores.

En este caso, el campo de fondo contiene una onda de inclinación positiva con un viento máximo del suroeste. A veces el campo de fondo se conoce también como campo inicial, porque constituye el primer intento de realizar un análisis del modelo. Cuanto mejor el pronóstico a corto plazo, tanto mejor será el análisis.

Proceso de asimilación de datos

Observaciones

Las observaciones realizadas durante un determinado intervalo de tiempo (que se denomina ventana temporal o de tiempo) se juntan para el análisis. Normalmente, la ventana temporal se centra en la hora de análisis. Para que se puedan incluir en el análisis, las observaciones de último momento se deben recibir y procesar (por ejemplo, para convertir una secuencia de imágenes satelitales a observaciones del viento derivadas del movimiento de las nubes) antes de la hora límite de presentación de datos.

Vientos derivados del movimiento de las nubes bajas en imágenes satelitales o datos de mediciones satelitales de radiancia en un lugar determinado

Existen muchos tipos de observaciones, que se obtienen con sistemas de instrumentos diferentes en lugares distintos y a diferentes horas. Algunas observaciones se procesan antes de pasar al flujo de datos (por ejemplo, los promedios horarios de los vientos de perfilador). Luego las observaciones se decodifican y se compilan para su uso. Es preciso tener en cuenta estos factores al construir el análisis:

  • Algunos tipos de observaciones solo están disponibles bajo ciertas condiciones; por ejemplo, los datos satelitales de radiancia no se usan en condiciones nubladas, pero las nubes pueden permitir el uso de datos satelitales de seguimiento del viento a partir del movimiento de las nubes (como en la figura anterior).
  • Ciertos tipos de observaciones brindan una cobertura más uniforme, mientras que otros tienen cobertura densa en ciertos lugares pero son inexistentes en otros, algo que puede incluso variar según la hora del día.
  • Algunas variables observadas, como la temperatura, coinciden con variables previstas por el modelo, pero otras no, como el agua precipitable y las radiancias medidas por satélite.
  • Cada tipo de observación tiene sus propias características de error y se debe tratar de manera distinta.

Los puntos de datos del cuadro de observaciones rotulado 1B en la figura Proceso de asimilación de datos muestran los datos de aeronave para dos tramos de vuelo (rosado) y seis estaciones de radiosondeo (azul), una de los cuales parece contener un informe incorrecto (rojo). Los datos de las dos aeronaves se obtuvieron en intervalos de tiempo diferentes, aunque todos dentro de la ventana temporal, a lo largo de su correspondiente trayectoria de vuelo. Los datos de radiosondeo están todos en la mitad este del cuadro con las observaciones. Las observaciones sugieren que la onda es más marcada de lo que estaba previsto, con inclinación neutra y un flujo medio más fuerte de lo previsto. Algunas partes del dominio cuentan con pocos datos.

Proceso de asimilación de datos

Verificación de los datos no procesados

Los datos crudos o no procesados se pueden corregir para compensar los sesgos conocidos del instrumento y las lecturas físicamente imposibles. Las fuentes de datos que tienen que rechazarse con mucha frecuencia se eliminan automáticamente. Algunos ejemplos de corrección del sesgo del instrumento pueden ser la eliminación de los efectos del calentamiento y enfriamiento radiativo de la sonda misma en los datos de radiosondeo en altura utilizando como base las pruebas de campo, así como la corrección de los dígitos transpuestos en los informes de observación manuales.

Proceso de asimilación de datos

Incrementos de observación

Un incremento de observación es la diferencia entre una observación y el pronóstico a corto plazo. El incremento de observación se calcula en el lugar de observación, no en un punto de malla del modelo. Si fuéramos a agregar el incremento de observación al campo de fondo, crearíamos un análisis que coincide perfectamente con los datos en los puntos de observación. Sin embargo, dado que se pueden introducir errores en cada paso al calcular el valor del pronóstico a corto plazo a comparar con la observación, un incremento de observación de una buena observación y un buen pronóstico a corto plazo no siempre producen un buen análisis. Estos factores pueden producir errores:

  • Las observaciones se obtienen en lugares que no son los puntos de malla del modelo y en diferentes momentos poco antes o después de la hora de análisis. Por lo tanto, los campos del modelo se deben interpolar con las horas y los lugares de las observaciones.
  • Debido a que algunas variables observadas difieren de las variables de pronóstico, convertimos los campos del modelo en los tipos de datos observados, lo cual es más exacto que convertir las observaciones en variables del modelo. Luego los datos derivados del modelo se comparan con las observaciones reales.

Por ejemplo, utilizamos los perfiles de temperatura, humedad y ozono del modelo para producir las «radiancias» del campo inicial que luego se comparan con las radiancias observadas por satélite. Las diferencias entre estos datos de radiancia se emplean para corregir los campos de «radiancias» derivados del campo de fondo a la vez que los campos de temperatura y humedad del modelo se corrigen mediante los datos de temperatura y humedad de radiosonda. Este uso de las observaciones en su forma original introduce un menor grado de error que las suposiciones y los procedimientos involucrados en la conversión de las radiancias medidas por satélite a temperaturas.

Esto produce un incremento de observación que constituye la corrección que será necesaria en el pronóstico a corto plazo si se cumplieran todas las siguientes condiciones:

  • La ausencia completa de error de instrumento en las observaciones.
  • La ausencia completa de error de representación en las observaciones.
  • La interpolación de los campos del modelo con el lugar y la hora de cada observación no introdujera error.
  • La conversión de las variables del modelo a los tipos de datos observados no introdujera error.

En el cuadro 2 de la figura Proceso de asimilación de datos, los incrementos (en color) indican la necesidad de cambiar los vientos del campo inicial (verde desvaído) de modo que en el sur sean más intensos y del oeste y más fuertes y con giro antihorario en altura (levógiros) en el norte y las zonas centrales. No se indica ningún cambio para las regiones occidentales debido a la falta de datos de observación. Fíjese además en el valor atípico, en rojo, del cual nos ocuparemos en el paso Control de calidad.

Proceso de asimilación de datos

Control de calidad (en el incremento)

Los valores atípicos no se identifican en las observaciones no procesadas, sino en el campo de incrementos de observación, lo cual tiene dos ventajas:

  1. permite compararlos con un campo inicial de buena calidad;
  2. las comparaciones ignoran (de hecho eliminan) las variaciones esperadas entre las estaciones (como las que existen cuando hay un frente entre dos estaciones vecinas) y las variaciones que ocurren con el tiempo (como en el caso de las observaciones de un sistema que se mueve obtenidas a horas distintas), lo cual permite identificar las anomalías no realistas más fácilmente. Eso evita la posibilidad de que se marque como incorrecta una observación válida y correcta por el mero hecho de ser drásticamente diferente de las demás.

El control de calidad complejo permite corregir aún más ciertos tipos de errores, incluidos los errores comunes de codificación y transcripción de los datos. Sin embargo, observe que una serie de observaciones contiguas obtenidas con el mismo sistema de observación (las cuales con toda probabilidad contienen los mismos errores), como una serie de vientos detectados por un satélite, pueden dar la impresión de corroborarse mutuamente, incluso si todas contienen un error grande. De no contar con otros datos que lleven a cuestionarlas, podrían no rechazarse y ponderarse de forma tal que no influyan tanto en el análisis como la misma cantidad de observaciones provenientes de sistemas de observación independientes.

El control de calidad complejo determinó que la observación del viento marcada en rojo en el cuadro 1B debía haberse incluido en el informe como proveniente de 180 grados, en lugar de 280. En el cuadro 2, antes de realizar la corrección, este incremento de observación (en rojo) parece ser un valor atípico. En el cuadro 3, después de la corrección, ese mismo incremento de observación coincide bastante bien con los incrementos de observación vecinos. De no haberse identificado un error que podía corregirse, es probable que la observación se rechazara, porque su incremento, tal como se muestra en el cuadro 2, era grande y no estaba corroborado por ningún otro incremento de observación.

Proceso de asimilación de datos

Procedimiento de análisis objetivo

Hemos llegado al NÚCLEO de la preparación del análisis para el próximo ciclo de pronóstico, la gran «caja negra» que toma los incrementos de observación de todos los diferentes tipos de observaciones, cada uno con sus propias características de error y diversas densidades de observación, y los convierte en un campo uniforme con los cambios de las variables de análisis en la malla del modelo. Esto es lo que hace 3D-VAR ahora, lo que hacía la interpolación óptima (Optimum Interpolation, OI) en el pasado y lo que harán 4D-VAR y los demás métodos que se desarrollen en el futuro. La forma exacta de hacerlo determina si:

  • el análisis se parece más a las observaciones o al campo inicial;
  • el análisis es desparejo o uniforme;
  • se permite que una observación afecte a más de una de las variables de pronóstico de manera coherente con la física y dinámica del modelo;
  • los datos se tratan de manera físicamente razonable, por ejemplo, distribuyendo el efecto de un elemento de datos individual a lo largo de las isentropas y las trayectorias y no sobre una región de forma esférica.

Aunque una discusión de los procedimientos de análisis objetivo para interpolar los incrementos de observación con la malla de pronóstico puede parecer esotérica, recuerde que de todos los elementos individuales del sistema de modelado, este proceso probablemente contribuye en mayor medida al grado de éxito (o fracaso) del pronóstico del modelo, de modo que una comprensión general de estos procedimientos complejos le permitirá interpretar la guía numérica de forma inteligente. Por supuesto que todos los elementos del sistema de modelado deben trabajar en concierto. Esencialmente, el procedimiento de análisis sopesa la evidencia.

El procedimiento de análisis sopesa la evidencia

Los campos del pronóstico a corto plazo del modelo se colocan en un platillo de la balanza. El análisis debe conservar la información de coherencia física y dinámica entre las distintas variables a la vez que toma en cuenta las estructuras de error típico del modelo conocidas. Estos errores se utilizan tanto en el lugar donde se realiza la observación como en los patrones espaciales de correlación de los errores del modelo en un nivel o lugar con los de otros niveles o lugares.

De forma análoga, las observaciones ocupan en otro platillo de la balanza. El análisis trata de encajar las observaciones a la vez que toma en cuenta sus errores típicos conocidos. Como dichos errores son distintos en los diferentes sistemas de observación, el análisis puede hacer encajar mejor los tipos de observaciones que son más exactos y representativos. Los errores de observación empleados en el análisis son la suma de los errores provenientes de dos fuentes:

  1. el error de instrumento, que se basa en pruebas del instrumento en sí, y
  2. el error de representación.

Por ejemplo, cuando una radiosonda atraviesa una banda de lluvia frontal, se ve afectada por los detalles de mesoescala de dicha banda de lluvia. Como el sondeo resultante no es representativo de las estructuras resolubles por un modelo global, su uso reduciría el grado de certeza de que la temperatura media de toda una celda de malla estará dentro de determinado margen, digamos un grado, de este valor observado. Si aumentamos el error esperado a un nivel superior al que podemos atribuir al instrumento, el análisis puede tener en cuenta el menor grado de idoneidad de cualquier observación puntual para los campos de análisis de modelo. Dado que el sistema de análisis no sabe nada sobre las estructuras de pequeña escala (como una banda de lluvia individual), tiene que protegerse de esa posibilidad devaluando levemente la observación.

Estos errores de observación se comparan con los errores de fondo esperados y se utilizan juntos para decidir si es más confiable el campo de fondo o la observación, y el análisis tiende a preferir el lado cuyo error esperado es menor. El proceso de análisis empleado para hacer esta determinación se describe más a fondo en la sección Análisis, a la cual puede acceder mediante el menú de la izquierda. Debido a que los patrones de error esperados del modelo y el error de representación esperado de las observaciones deben hacer frente a una amplia gama de condiciones meteorológicas, pueden no ser apropiados para el régimen meteorológico y las observaciones individuales del día de hoy. Por lo tanto, es posible que el análisis no escoja siempre el mejor punto de equilibrio entre los campos iniciales y las observaciones. Esto puede ser particularmente importante en el caso de los eventos meteorológicos extremos que el modelo rara vez o nunca encontró antes, ya que no forman parte de las estadísticas de errores esperados.

Para conservar la estructura del campo de fondo, el procedimiento de análisis enlaza las correcciones de una variable con otra y distribuye en sentido vertical y horizontal el efecto de los cambios introducidos en una variable. Por ejemplo, los vientos en el nivel de 700 hPa pueden cambiar directamente como resultado de los incrementos de observación del viento introducidos en el nivel de 500 hPa (el efecto de la extensión de los datos en sentido vertical) y de forma indirecta debido al cambio provocado por los datos en el gradiente de temperatura en 850 hPa (relación del viento térmico). Las verdaderas relaciones dinámicas empleadas, el grado en que se imponen en los incrementos del análisis y la forma y el alcance de las funciones de influencia vertical y horizontal varían de un modelo a otro.

Proceso de asimilación de datos

Incrementos o correcciones de análisis

Los incrementos de análisis son los cambios del campo inicial producidos por la suma de los efectos de todas las observaciones según los determina el procedimiento de análisis objetivo. El procedimiento de análisis objetivo (como 3D-VAR) interpola los incrementos de observación, los cuales están distribuidos de forma irregular sobre la malla del modelo. Como se trata de efectuar cambio pequeños en un pronóstico a corto plazo que se supone de buena calidad, se denominan «correcciones» del campo inicial o de fondo. Y debido a que se agregan a los campos iniciales para realizar el nuevo análisis del modelo, también se denominan «incrementos de análisis». En teoría, los incrementos de análisis se suavizan solo lo suficiente como para quitar los detalles a escalas menores de lo que el modelo puede retener en su pronóstico. Esto significa que las correcciones identifican principalmente las áreas donde el modelo puede autocorregirse, sin introducir cambios incoherentes que, si bien pueden coincidir con las observaciones, carecerían de coherencia lo suficiente como para degradar el pronóstico del modelo.

El ejemplo (cuadro 3 de la figura Proceso de asimilación de datos) muestra los incrementos de análisis en color verde oscuro y los incrementos de observación en otros colores, para fines de comparación. Nótese que:

  • los incrementos de análisis son más grandes (y más confiables) donde la densidad de datos es mayor;
  • la mayoría de los incrementos de análisis son menores que los incrementos de observación;
  • los incrementos de análisis no capturan plenamente la definición de la onda, ya que eso requeriría un modelo de resolución más alta.

No obstante, los incrementos de análisis capturan la esencia de los incrementos de observación y lo hacen de modo tal que el modelo puede conservar la información adicional en su próximo ciclo de pronóstico.

Proceso de asimilación de datos

Análisis

El análisis es el conjunto de datos sobre malla que se usa para iniciar el próximo ciclo de pronóstico. Es simplemente el pronóstico a corto plazo anterior al cual se han sumado los campos de incremento del análisis. Esto significa que toda la información que forma parte del campo inicial que no rechaza sobre la base de las observaciones se conserva en el análisis, incluso a las escalas resolubles menores del modelo. Las lagunas o vacíos en la red de observaciones pueden hacer que el análisis no detecte estructuras importantes de pequeña escala y que conserve estructuras de pequeña escala pronosticadas incorrectamente. Para saber qué tipos de estructuras meteorológicas el análisis puede representar bien, incluir pero representar mal o simplemente no detectar, es preciso saber qué tipos de estructuras inadecuadamente observadas el modelo:

  • pronostica bien a menudo;
  • pronostica a menudo, pero no demasiado bien;
  • no puede pronosticar.

La clave para entender cómo se tratan los datos en el análisis reside en nuestra comprensión del procedimiento de análisis objetivo, que se describe en la sección Procedimiento de análisis objetivoProcedimiento de análisis objetivo.

El ejemplo del cuadro 4 de la figura Proceso de asimilación de datos muestra el nuevo campo de vientos del análisis en verde oscuro. El flujo es más intenso y la onda tiene mayor definición que en el campo de fondo, como darían a suponer las observaciones del cuadro 1B y el campo de fondo del cuadro 1A. La observación menos las diferencias del análisis (la parte de las observaciones del viento que no se incluye en el análisis) se muestra mediante colores.

Idealmente, estas diferencias serán menores, lo cual indicaría una buena correspondencia con las observaciones. Deberían formar un patrón aleatorio, lo cual indica que toda la información coherente de las observaciones se incorporó al análisis. El ejemplo muestra que en general las diferencias en el vector viento son menores y apuntan en varias direcciones distintas. No obstante, varias diferencias más grandes que aparecen cerca del eje de la onda, en la parte sur del área indicada, y el campo en general sugieren que esta parte de la onda aún no ha adquirido suficiente intensidad y definición en el análisis. Este patrón refleja el error de representación. Las observaciones muestran que la onda es más intensa de lo que puede resolver este modelo. Incluso si el análisis abarcara la onda a la escala indicada por la definición del cambio de vientos observado, la resolución del modelo no es suficiente como para mantenerla en el pronóstico. Podría causar ruido numérico y alterar estructuras que el modelo debería poder manejar sin problema.

Proceso de asimilación de datos

Modelo de pronóstico

Observe que el modelo de pronóstico es un componente integral del sistema de asimilación de datos. Un modelo capaz de producir siempre un pronóstico a corto plazo muy bueno es esencial para un sistema de asimilación de datos exitoso. Incorpora una estructura dinámica y física en cuatro dimensiones en el análisis de forma coherente con los cálculos dinámicos, la dinámica y la física del modelo. Esto es necesario para que el modelo produzca el mejor pronóstico posible. No obstante, debido a las limitaciones del modelo (como la física y la resolución) es posible que el resultado termine siendo inadecuado para una mejor estimación del verdadero estado de la atmósfera. El modelo de pronóstico también «proyecta» la información de las observaciones previas hacia adelante en el tiempo, lo cual contribuye a llenar las discontinuidades de datos en los análisis futuros.

Proceso de asimilación de datos

Asimilación cíclica

La asimilación cíclica describe el trabajo conjunto de un modelo de pronóstico individual y el sistema de asimilación de datos para formar un sistema de análisis y pronóstico que repite la asimilación de forma «cíclica». La asimilación cíclica es esencial para:

  • Transmitir la información de momentos anteriores hasta el presente de forma coherente para el modelo.
    • El proceso, sin embargo, puede perpetuar los errores, los cual significa que puede llevar varios ciclos eliminar los pronósticos o datos incorrectos usados en determinado momento del análisis. Los pronósticos del modelo para sistemas meteorológicos con pocas observaciones a lo largo de un período extenso pueden generar varios errores grandes, porque el modelo no cuenta con datos que le permitan realizar correcciones; puede llevar varias horas de análisis después de que comiencen a entrar datos confiables corregir los errores por completo.
  • Permitir que un modelo de alta resolución conserve las estructuras de pequeña escala generadas por el modelo y el movimiento vertical correspondiente que no está incluido en las observaciones.
    • Algunos ejemplos son las brisas de lago, los flujos topográficos, los sistemas convectivos y otros fenómenos de mesoescala.
    • Sin la asimilación cíclica, estas estructuras tardan bastante tiempo en inicializarse en los campos del modelo cada vez que comienza otro pronóstico. (Este es un problema común para los pronósticos y las simulaciones experimentales y de investigación que utilizan condiciones iniciales de baja resolución como punto de partida.) No obstante, los modelos de alta resolución tienen que sacrificar algo, de modo que es posible que las redes de observaciones operativas no puedan resolver las estructuras espurias de pequeña escala que a veces surgen en los ciclos de ejecución de los modelos de mesoescala de alta resolución, como consecuencia de lo cual se transmitan al próximo pronóstico en lugar de corregirse en el análisis.
  • Mantener el equilibrio con las parametrizaciones físicas.
    • Por ejemplo, si la HR inicial del modelo no está en equilibrio con los campos de nubes iniciales del modelo de la forma que requiere la parametrización de las nubes (si supera el umbral de HR en el cual el modelo no espera nubosidad o si la HR está por debajo del umbral en el cual el modelo espera nubes), es posible que el modelo cree demasiadas nubes y precipitación en las primeras horas del pronóstico o que las haga evaporar en seguida y no produzca nada de precipitación durante las primeras horas del pronóstico.
Proceso de asimilación de datos

El resto del pronóstico

Como el análisis brinda los campos iniciales para el ciclo completo del pronóstico operativo, su impacto en la calidad de dichos pronósticos es enorme.

Proceso de asimilación de datos

Campo inicial siguiente

El comienzo del pronóstico operativo se puede utilizar en el próximo ciclo de análisis. No obstante, en la mayoría de los modelos operativos el pronóstico a corto plazo empleado como campo inicial del análisis no proviene del pronóstico en tiempo real, sino que se produce en un ciclo de análisis/pronóstico a corto plazo aparte que se ejecuta más tarde. Esto es así para que se pueda incluir una mayor cantidad de los datos que llegan después de la hora límite de presentación de datos fijada para el pronóstico en tiempo real. Los datos adicionales mejoran el pronóstico a corto plazo revisado, lo cual a su vez mejora el análisis del ciclo siguiente frente a lo que se obtendría sobre la base de un campo inicial del pronóstico operativo.

Proceso de asimilación de datos

Papel del modelo de pronóstico en la asimilación de datos

El modelo de pronóstico forma la base de cualquier sistema de asimilación de datos. No solo tiene que pronosticar bien las estructuras meteorológicas, como los frentes, los chorros nocturnos en los niveles bajos, la convección y las capas límite, sino que también debe llevar hacia adelante en el tiempo cierta información importante de las observaciones anteriores. Esto se ilustra en la figura siguiente. Las observaciones obtenidas en un momento afectan el pronóstico a corto plazo que se usa como campo de fondo para generar el análisis del próximo momento. A lo largo de varios ciclos del proceso de asimilación, los campos del modelo reflejan una mezcla de todas las observaciones que han incorporado y su evolución. En efectos, cada pronóstico a corto plazo predice el siguiente conjunto de observaciones, ¡y las observaciones reales se usan para ajustar lo que el modelo había anticipado para ellas!

Arrastre de datos: el modelo se usa para llevar los datos del pasado hasta el presente

*El mago de la asimilación de datos

Si bien esta parte del curso a distancia del NWS sobre predicción numérica del tiempo no es obligatoria, sí constituye un tratamiento ameno e informativo del proceso de asimilación de datos. Si no le molesta «suspender su incredulidad» por algunos minutos, creemos que esta parte de la lección puede ayudarle bastante a comprender el proceso de asimilación de datos. Esperamos que la disfrute.

*Diálogo entre a observación del viento y el mago de la asimilación de datos

Soy una observación del viento tomada por radiosonda en la costa del Pacífico de Estados Unidos, la misma que aparece en rojo en la figura Proceso de asimilación de datos que estuvo estudiando en la sección anterior. Hacía falta corregir el modelo con datos reales, y mi globo tuvo que levantarse a la altura de las circunstancias. Mi informe codificado explica que soy un viento de 40 nudos (~75 km/h) proveniente de 280 grados en el nivel de 700 hPa. Tengo hermanos en otros niveles obligatorios e importantes, así como vecinos, en otras estaciones de radiosondeo. Según la pronosticadora de turno, la secuencia de imágenes satelitales indica que está entrando una onda más intensa y más definida de lo que pronosticaban los modelos. El sistema de asimilación de datos me tragó y está por asimilarme, pero no sé qué será de mí... por suerte ha llegado el mago de la asimilación de datos, ojalá pueda contestar mis preguntas al respecto. Mi conversación con el mago nos permitirá seguir mis peripecias a través del sistema de asimilación hasta mi destino final y comprender el efecto que tendré en el análisis. Voy a hacer todo lo posible por afectar el análisis, por mi peso e influencia.

Proceso de asimilación de datos, 1B Observaciones

Hola, Sr. Mago, ¡aquí estoy! ¿Llegué a tiempo para participar en el análisis?

Sí, jovencita, llegaste antes de la hora límite de presentación de datos.

Te detectaron a las 1115 UTC, pero no entraste en la base de datos del NCEP sino 50 minutos después, después de que se registraran también tus hermanitos menores en la troposfera superior y en la estratosfera. Tu globo se lanzó una hora antes de la hora sinóptica de las 12 UTC y subió durante casi una hora antes de estallar en la estratosfera. Luego llevó algunos minutos preparar y transmitir los datos codificados. Y bueno, sí, al fin lograste meterte en la corriente de datos disponible para el análisis de las 12 UTC.

¿Estoy todavía en mi forma original de «medición puntual» de globo a la deriva cerca del nivel de 700 hPa?

Dado que me lo preguntas, puntualicemos: hubo que descifrar los datos codificados de la transmisión que nos informaba de tus valores antes de admitirte en la corriente de datos del modelo, pero no se precisó ningún otro tipo de preprocesamiento. Esto difiere de lo que ocurre con los vientos Doppler VAD, que se promedian para una hora entera y son de por si vectores viento medios de un círculo alrededor del radar.

Me han dicho que ciertos datos se rechazan sin más ni más, sin que nadie siquiera se moleste en mirarlos. ¿Cómo es posible que se ignore una observación de la atmósfera real?

Entiendo tu preocupación, pero debes comprender que los métodos de observación usados en algunos países no nos permiten confiar en la exactitud de ciertos datos, y hay plataformas de observación que tienen problemas constantes con los datos. De todas formas, normalmente admitimos en el sistema incluso los datos que pueden ser incorrectos, porque realmente confiamos que nuestros procedimientos de control de calidad lograrán filtrar las observaciones erróneas. En tu caso, como no estás en ninguna categoría que prohibiría tu uso y pareces ser algo chillona, ¡seguro que no te vamos a ignorar! Pero lamento informarte de que ya tuvimos que matar a tu gemela malvada.

¿Qué gemela malvada? ¡No recuerdo nacer acompañada!

Seguramente se trata de un lapsus de memoria. Los datos de tu hermana gemela llegaron primero, pero como el informe de radiosondeo se había diseminado dos veces, simplemente usamos el último en llegar. ¡No podemos tolerar ningún intento de aumentar la influencia de alguna observación mediante la duplicación de informes! Pero la verdad es que normalmente esto no sucede con las de tu estirpe, los informes redundantes nos suelen llegar de las aeronaves.

¿Y mis amigas en el suelo? Me dicen que algunas fueron sepultadas vivas.

Sí, así es, pero solo unas cuantas. Construimos las montañas del modelo encima de ellas y quedaron aplastadas por miles de metros cúbicos de granito. ¡Fue una cosa muy dura!

Por suerte yo soy muy alta... en fin, espero que mis valores groseros no hayan ofendido a nadie.

No, en realidad ere bastante regular y tus valores no son tan groseros. Como estás dentro del rango posible para un viento en el nivel de 700 hPa, seguiremos adelante con tu procesamiento.

Entonces no soy un tipo de datos inútil, ¿verdad?

No, no te preocupes, no eres como una medición satelital de radiancia sobre tierra firme, o un dato de radiancia sobre agua observado a través del cielo nublado. Ánimo, te vamos a usar, ¡que te guste o no!

Este diálogo menciona algunos puntos clave sobre la logística de incorporar datos nuevos en el modelo. Una vez que termine esta sección, encontrará información más detallada sobre este tema seleccionando la sección Datos en el menú de navegación de la izquierda.

*El mago de los incrementos

Tú, observación del viento, adelante; ha llegado la hora de tu conversión.

¿Conversión? Pero no, ¿cómo va a ser eso? ¡Yo represento algo!

¿Y qué crees que representas, exactamente?

Con todo el debido respeto, Sr. Mago, usted es el que tiene todos los datos. Dígame usted lo que represento: ¿una onda corta?; ¿una onda larga?; ¿una onda de gravedad?; ¿los efectos de la mezcla por momento en una banda de lluvia frontal? Quizás yo sea una combinación de todo esto...

Bueno, en realidad representas la velocidad del aire sobre una región de aproximadamente 500 metros cuadrados promediada durante más o menos un minuto. Y ahora, vamos, tenemos que convertirte en un incremento de observación.

¿Y eso qué es?

Es la diferencia entre lo que tú crees que es la velocidad del viento y lo que el pronóstico a corto plazo del modelo cree que es. Te comparamos con el modelo para ver si funciona bien.

¿Y cómo me van a comparar a mí con el modelo? El modelo no representa la misma cosa que yo. Con una malla de 20 km, el modelo necesita ponerse lentes bifocales para detectar una estructura de 100 km de ancho.

Tu queja es acertada. Ya haremos algo para corregir ese problema más tarde, a la hora de asignarte un error de representación. Debes recordar que el análisis es para beneficio del modelo, no para que tú puedas imponer tus valores. En fin, para la hora y la posición en que te detectaron, la seudoobservación del modelo es…

[Interrumpe] ¿La seudoqué? ¿De qué me está hablando?

Una seudoobservación es lo que el modelo cree que la observación debe ser en tu posición y a la hora que te detectaron. El modelo no hizo una predicción exactamente para el nivel de 700 hPa ni para tu posición de latitud y longitud exacta. Pero como sí pronosticó las condiciones promedio alrededor de tu posición, podemos interpolar esos valores hasta allí. Además tenemos la salida del modelo de las 9 y las 12 UTC, pero no para la hora que te detectaron en la atmósfera, a las 11:15 UTC. Para esto también vamos a interpolar, es decir, usar un atajo y hacer como que los datos de radiosondeo tomados en cualquier momento de la mañana son válidos a las 12 UTC. El campo de vientos del modelo interpolado para tu hora y posición…

[Interrumpe otra vez] Un momento, eso no es justo para el modelo. Debe haber algún error en esta interpolación y en la suposición sobre la hora.

Claro que sí, especialmente para las estructura que se mueven rápidamente, ya que pueden suavizarse y quedar borrosas. Pero podría ser incluso peor. Imagínate si tratáramos de pasarte a una celda de malla del modelo a la hora de salida del modelo. Eso será un verdadero desastre y tendremos que recurrir a otras observaciones. Tenemos que compararte a ti con el modelo, es la mejor alternativa.

¿Y si yo fuera una medición satelital de radiancia? ¿Cómo me compararían con el modelo en ese caso?

Habría que usar los campos de humedad, temperatura y ozono del modelo para calcular una simulación de radiación saliente para la misma banda de longitud de onda estrecha utilizada por el canal satelital que obtiene la radiancia. Eso nos permitirá usar los campos del modelo y las observaciones de forma más directa y con un mayor grado de exactitud de lo que será el caso al usar las radiancias medidas por satélite para recuperar un sondeo de temperatura. La asimilación directa de la radiancia es sin duda la mejor forma de proceder y se ha demostrado que mejora enormemente los pronósticos del modelo.

Está bien, me ha convencido. Le permito que me convierta en un incremento de observación.

La seudoobservación del modelo es de 33 nudos (61 km/h) desde 200 grados. Esto significa que tu incremento de observación es 47 nudos (87 km/h) desde 325 grados. Si agregamos este vector al pronóstico del modelo, obtenemos tu observación.

Pero, un momento, ¡no puede ser! ¿De veras cree que yo debía entrar del sur a 33 nudos en lugar del oeste a 40 nudos? ¿No me rechazarán por eso?

A ver qué pasa con tus vecinos de arriba y de abajo. Tu amiga de globo-sonda detectada en 850 hPa entraba del sureste a 30 nudos y tu «alto ego» en 500 hPa llegaba del sureste a 50 nudos. Alguien en control de calidad se dio cuenta que había un error de dedo o de transmisión en tu dirección del viento. El informe no debía decir 280 grados, sino 180.

¡Fantástico! Un rumbo mucho mejor, ¡una vuelta de 100 grados!

Sí, pero tu incremento de observación sigue siendo bastante grande, 14 nudos desde 130 grados.

¿Y por qué hay tanta diferencia entre lo que yo detecto para el viento y la predicción a corto plazo? ¡Yo no tengo la culpa de que el pronóstico del modelo está tan lejos de la realidad!

Es posible que tampoco sea culpa del modelo. En primer lugar, tú tienes un poco de error de instrumento. Y en segundo lugar, desde la perspectiva del análisis también tienes un error de representación. Como dijiste antes, tu observación representa una combinación de varias cosas, alguna de las cuales el modelo detecta y algunas no, por ser demasiado pequeñas. En el caso de los sondeos o las radiancias de microondas, la observación suaviza la estructura vertical que el modelo puede ver. Y como también dijiste tú, la interpolación que produce una seudoobservación del modelo causa un error. Además, claro, el pronóstico del modelo contiene errores, para eso estás tú: ¡para corregirlos! Es hora de comprobar tu coherencia espacial.

No entiendo, ¿mi coherencia espacial?

Es nuestra forma de rechazar a las observaciones impertinentes, como tú. Comparamos tu incremento de observación con los valores de tus amigas más cercanas, para asegurar la coherencia espacial. Si todas están de acuerdo, hay consenso sobre las correcciones que hay que hacer en el pronóstico del modelo. Pero si una de ustedes es muy diferente de las demás, se supone que se trata de una observación defectuosa.

¿Y qué sucede si mis amigas más cercanas están muy lejos?

Esa es una de las ventajas de comparar tu incremento de observación con el de tus amigas. Supongamos que el modelo hace una predicción bastante buena, aunque no perfecta, de un evento de mesoescala. Quizás tú seas la única observación capaz de verificar ese evento. Al compararte con tus amigas, parecerías un valor atípico. Pero como el pronóstico del modelo es bastante bueno, tu incremento de observación es tan pequeño como el de ellas, de modo que podemos usarlas todas para hacer pequeñas correcciones.

Pero a veces el modelo comete un error grande en una zona pequeña. ¿Qué pasa si una sola de nosotras tiene defender esa zona?

Claro, ésa es una de las ocasiones en que se acaba rechazando una observación correcta y demuestra la importancia de la suposición fundamental de la asimilación de datos: ¡el pronóstico del modelo debe ser correcto!

¿Una de ellas? ¡Parecería que cualquier excusa es buena para eliminar una observación validísima como yo!

Tranquila, tranquila... estas determinaciones se hacen de forma objetiva y solo te eliminaríamos con buenos motivos. La verdad es que a veces nos equivocamos, por ejemplo si el desarrollo es demasiado rápido o la ventana temporal es excesivamente amplia, de modo que el problema de interpolación temporal que mencionamos antes degrada la seudoobservación del modelo. A veces un pequeño error de posición en un campo del pronóstico con un fuerte gradiente puede hacer que una observación parezca un valor atípico. Al fin y al cabo, no es un error ignorarte si representas algo que no es compatible con lo que representa el modelo, como una observación de radar Doppler de una ráfaga de escala inferior a la malla.

Ignorar un frente de ráfagas, ¿pero habrase visto semejante cosa? ¡Con eso el pronóstico será un verdadero desastre! ¿Y lo harían incluso en un modelo de alta resolución que permite la producción de la convección?

Recuerda que dije «de escala inferior a la malla». La forma de tratarlo depende de la resolución del modelo y de las dimensiones del frente de ráfagas.

Entonces, si entiendo bien a veces se rechazan los mismos datos que se necesitan para corregir el pronóstico.

No es muy frecuente, pero sí, a veces sucede, en las situaciones meteorológicas más cruciales. Esto significa que es fundamental comparar el análisis y las observaciones a la hora de preparar un pronóstico.

Bueno, ¿he cumplido con todos los requisitos para que comencemos el análisis?

Todavía tienes que pasar la inspección manual por parte del meteorólogo de turno con ancianidad (Senior Duty Meteorologist, SDM)* de NCEP. Pese a tanta tecnología, sigue siendo esencial que una persona entrenada haga un análisis final en caso de que haya alguna observación de radiosonda dudosa pero quizás válida, y para vigilar la enorme y siempre mayor cantidad de datos que recibimos.

Pero qué será de mí, ¿me van a usar o no?

Un examen de la carta de incrementos de observación indica que tu incremento y el de las demás forman un patrón coherente y se apoyan mutuamente. Ahora que hemos corregido tu dirección, encajas a la perfección. No te preocupes, ¡te usaremos!

*Si usted trabaja fuera de los Estados Unidos, comuníquese con el centro de predicción numérica del tiempo de su país.

Este diálogo menciona algunos puntos clave sobre los incrementos de observación. Este diálogo menciona algunos puntos clave sobre la logística de incorporar datos nuevos en el modelo. Una vez que termine esta sección, encontrará información más detallada sobre este tema seleccionando la sección Incremento de observación en el menú de navegación de la izquierda.

*El mago habla del proceso de análisis

Proceso de asimilación de datos, incrementos de análisis (correcciones), procedimiento objetivo de análisis

Vamos a comenzar un análisis a partir de los incrementos de observación. Tú, incremento de observación del viento, ve y circula un poco con tus vecinos y tus primos del modelo, a ver si te integras un poco.

¿Integrarme? ¿Y cómo lo hago? Algunos de esos incrementos de observación son muy viejos y otros no son sino chiquilines. ¿No pretenderá combinar un incremento de observación de las 11 UTC con otro de las 13 en el mismo análisis?

Sí, eso es exactamente lo vamos a hacer. Esto mejorará cuando comencemos a usar ciclos de actualización de una hora, porque haremos un análisis y un pronóstico de una hora 6 veces entre los pronósticos operativos que emitimos cada 6 horas. ¡Y ahora muévete!

¡Qué horror! Nos hacen picadillo y luego toman los trozos de diferentes incrementos de observación y los pegan a los valores del modelo. Además, ¿por qué descartan parte de nosotras con esta operación?

Este procedimiento extrae toda la información que se puede utilizar de las observaciones como tú. Realmente tratamos de aprovecharte todo lo posible, pero también debemos conservar la estructura de los campos de fondo. Para satisfacerlos a todos, tú, tus vecinas y tus hermanas en todo el país, y tener en cuenta a la vez los intereses del modelo, debemos sopesar la evidencia con cuidado. Súbete a esa balanza, a ver cuánto pesas.

¡Pero, qué atrevimiento! Y encima me da un montón de pesas. ¿Para qué es toda esta carga?

Deja de quejarte, ¡en realidad es un gran honor! Estas pesas representan tu exactitud. Asignamos las pesas más grandes a los tipos de datos más exactos según el error de observación esperado.

¡Qué alegría! ¿Y cómo saben cuánto error pueden esperarse de mí?

Tenemos que suponer algo: suponemos que las observaciones como tú contienen errores aleatorios, algunos chicos, otros grandes, y por eso usamos el error medio. Este error de observación esperado tiene dos componentes: primero, el error de instrumento; segundo, ¿te acuerdas de cómo te quejaste antes, y dijiste que representas algo diferente de lo que el modelo puede ver? Bueno, aquí podemos tenerlo en cuenta. Añadimos al error que suponemos que te corresponde si tus valores se relacionan más con lo que puedes ver que el modelo no ve, o lo que tú no puedes ver y el modelo sí. Por ejemplo, tu error de representación sería grande si fueras un sondeo de microondas con solo un par de niveles para toda la troposfera.

Y mi error, ¿se supone que sea pequeño?

Varía según el modelo, pero por lo general es de 2 m/s.

Pero, qué raro: ¿por qué la balanza registra pesos y no kilos?

Oh, perdón, es que muestra la función de costo.

Ejem, ¿qué costo? ¡Si me ofrecí gratis!

Bueno, en realidad no se trata de un costo para ti, sino para el análisis. Y cobramos por NO usarte.

Por suerte, ¡porque ando sin un mango!

Penalizamos el análisis según el grado de diferencia con lo que tú dices sobre el viento. Al dar más peso a los tipos de observaciones más exactos, incentivamos al análisis a seguir más de cerca las observaciones de mejor calidad. Y cuando hay muchas observaciones que coinciden entre sí, el análisis se ve incentivado para escucharlas. Eso significa que prestamos más atención a las zonas con muchos datos que a las áreas donde hay pocos. Ponderamos los campos de fondo de manera similar. Recuerda que el análisis sopesa la evidencia en busca del equilibrio. El análisis busca un conjunto de valores que minimice el total de todas las «multas» que tiene que pagar.

¿Le dan peso a esa manifestación inferior que es el campo inicial? ¿Qué error de viento se supone que exhiba?

¿Cómo te atreves a decir que el campo inicial es una manifestación inferior? ¡Se extiende hasta la estratosfera! Y en términos estrictos no tiene un error de viento supuesto. En realidad, el modelo asimila el potencial de velocidad (que está relacionado con la divergencia) y la función de líneas de corriente (que está relacionada con la vorticidad). Al convertir estas funciones en vientos, el campo de fondo tendría un error de algunos metros por segundo, quizás un poco más grande de lo que supusimos para tu error de observación. Una suposición de error mayor implica una ponderación menor, de modo que la balanza se inclinaría un poco en tu favor, antes de considerar otros factores que complican la situación. En realidad, la matemática no produce una ponderación sencilla de los incrementos de observación y el campo inicial, sino una fusión compleja de los dos, pero sirve para encontrar el punto de equilibrio óptimo dadas las características de error supuestas para cada uno.

¿Y no me dan ningún trato especial por ser de la costa del Pacífico? Es consabido que allí el pronóstico del modelo es peor, de modo que mis valores se necesitan más que si yo fuera de un lugar donde se cuenta con muchas observaciones.

Eso ya se considera, en parte: la suposición de error de fondo se basa en las estadísticas de rendimiento del modelo. A grandes rasgos, eso significa que el error de temperatura supuesto es pequeño en los trópicos, porque es casi imposible que el modelo produzca un pronóstico de temperatura equivocado en un lugar donde el rango diurno y mensual es tan pequeño. Como tradicionalmente los patrones de error del modelo no se separan por régimen, es posible que el análisis no escoja el mejor punto de inflexión entre las observaciones y los valores del pronóstico para las condiciones actuales. No obstante, se han creado métodos de análisis nuevos que hace uso de dispersiones de conjuntos para identificar los lugares de mayor incertidumbre en el campo inicial del pronóstico y aumentan el error de fondo supuesto en esas áreas con el fin dar más peso a las observaciones de la zona, pero aún dependiendo más del campo inicial en otros lugares.

Pero como soy de la costa del Pacífico, ¿no debería tener más peso? Especialmente para la región del oeste, donde no hay muchos otros datos.

Ahora te has metido en esas otras complicaciones que te mencioné antes. Sí, suponemos que tu influencia es más amplia, pero la amplitud de esa influencia depende de las estadísticas medias de rendimiento del modelo o de la dispersión del conjunto, según el enfoque adoptado por el modelo en particular. Tu incremento de observación sí nos permite inferir ciertas correcciones en el campo inicial sobre los vacíos de datos, es decir, las zonas que carecen de datos. De forma análoga, también extendemos tus correcciones en sentido vertical, de modo que si el modelo pronostica una velocidad del viento demasiado baja en tu posición, suponemos que hizo lo mismo a cierta distancia por encima y por debajo de ese lugar. Ahora bien, el punto clave que hay que recordar para los modelos que usan el enfoque tradicional es que el alcance de tu influencia no varía según el régimen e incluso puede no variar por longitud, de modo que puede ser igual sobre las montañas Rocosas, las planicies y el océano. Y sin duda no cambia con condiciones específicas, por mucho que te parezca que la altura de la tropopausa o una inversión frontal deberían afectar la dispersión vertical de tu influencia. Sea como sea, un análisis 4D-VAR tendrá en cuenta estas condiciones meteorológicas. La amplitud meteorológicamente apropiada y específica para la situación de tu influencia en cualquier dirección es la ventaja principal del análisis variacional en cuatro dimensiones, el cual produce un mejor análisis, pero requiere recursos de cómputo enormes, muchísima más potencia que la ejecución del modelo de pronóstico.

Si entiendo bien, según el modelo, mancillan mi buen nombre. Yo creo que mi influencia sería más beneficiosa si se extendiera a lo largo de una línea de corriente.

Ésa es una excelente idea, y hace tiempo que trabajamos en eso. Volviendo al objetivo principal de conservar la estructura de los campos del modelo, si el análisis acepta los valores observados en el punto de observación, ¿qué valores debe usar entre ellos? Si aceptamos una corrección al campo inicial y la distribuimos generosamente, evitamos introducir irregularidades en los campos del análisis y conservamos el carácter y la integridad general del campo inicial confiable. ¡No te olvides que suponemos que el campo inicial es fidedigno! Por cierto, te conviene recordar que hay ciento o miles de vientos detectados por el movimiento de las nubes sobre el océano, de modo que tienes un poco de competencia en el "vacío de datos".

Ufff, me había olvidado de ellos. Pero yo soy mejor, aparte que pueden ser todos incorrectos. No es justo, hay tantos de ellos y yo aquí, solita...

Ah, pero eso también se tiene en cuenta. Como sabemos que provienen todos del mismo instrumento, podemos correlacionar sus errores; por ejemplo, pueden presentar todos el mismo tipo de sesgo, y cuando demasiado de ellos están juntos podemos promediarlos, para que la escala que representan se acerque a lo que puede ver el modelo y su influencia no sea excesiva. Además, no son tan exactos como tú, de modo que se supone que tienen un error de observación más grande. Todos los métodos estadísticos están a tu favor. Esto es muy importante, porque introducir información incompatible o inexacta en el modelo degrada el pronóstico. Como siempre, debemos aprovechar nuestros conocimientos de las características del sistema de observación y del rendimiento del modelo para extraer toda la información aprovechable de todas las observaciones.

Ya veo... no hay nada de magia, se trata de un juego de probabilidades.

Y ahora te puedo mostrar cómo tu incremento de viento puede ejercer una influencia enorme.

¡Fenómeno!

Sí, pero según el tipo de fenómeno hará frío en algunos sitios y caliente en otros. Aplicamos una limitación dinámica para inferir correcciones de temperatura de acuerdo con la influencia de los vientos, como tú. De este modo el análisis puede enlazar los campos de masa y de vientos, de forma tal que las observaciones del viento afectan el campo de masa, mientras que las observaciones de temperatura y presión o altura afectan el análisis de los vientos. Si el análisis solo cambia los vientos en comparación con los vientos del campo inicial, los vientos nuevos no se podrán conservar en el pronóstico. Es necesario contar con la estructura dinámica adecuada, que tiene que ver con la masa y los vientos, para poder pronosticar la estructura meteorológica observada. Por lo tanto, se infiere información sobre la masa o los vientos cuando se observa uno de los dos.

En otras palabras, ¿yo afecto las temperaturas a mi alrededor a través de algo como balance del viento térmico? ¡Qué alegría!

Bueno, sí, pero hay un problema. Cuanto más simple la limitación dinámica, tanto menos se puede aplicar de forma general, y ninguna funciona en todos los casos. Cuando la resolución del modelo es muy alta, digamos unos cuanto kilómetros, el tema de balance dinámico se vuelve muy complicado.

Parece evidente que las radiosondas brindan la mejor información, porque cuentan con datos de masa y vientos a gran profundidad.

¡Qué profundas tus ideas! Hay otras observaciones que alcanzan el mismo grado de calidad, como los perfiles de ascenso/descenso de las aeronaves que despegan y aterrizan. Los datos de un solo nivel, como las observaciones de superficie, nos brindan información muy limitada y nos obligan a inferir la estructura vertical a partir de suposiciones simples, en el mejor de los casos. Esto no ayuda el pronóstico más que durante unas pocas horas.

Bueno, después tanta explicación, ¿sabe decirme qué parte de mi incremento de observación de 14 m/s se verá en el análisis?

Depende de los muchos factores que acabamos de mencionar y también de la cantidad y los tipos de otras observaciones y si empujan el análisis en la misma dirección que tú. Vas a tener mucho más éxito si tu influencia cuenta con el apoyo de muchas otras observaciones. El análisis trata de tener en cuenta todas las observaciones, la amplitud de su influencia, sus relaciones masa-viento y la estructura del campo de fondo. Tratar de satisfacer todas estas influencias simultáneamente en alguna medida es un impresionante juego de malabares.

Con esto se acaba mi identidad, ¿verdad?

Sí, serás asimilada. La resistencia es inútil. Como parte del colectivo tu información se utilizará de forma óptima y se llevará hacia el futuro.

Este diálogo menciona algunos puntos clave sobre el proceso de análisis. Si desea información más detallada sobre este tema, seleccione la sección Análisis en el menú de navegación de la izquierda.

*Datos

*Datos: introducción

El objetivo del sistema de asimilación de datos consiste en cotejar el pronóstico del modelo a corto plazo usado para inicializar el ciclo de pronóstico actual con la realidad, es decir, con las observaciones. Esta sección explica la corriente de datos de observación de entrada y se centra en cómo el sistema de asimilación de datos utiliza estas observaciones.

Proceso de asimilación de datos, 1B observaciones

*Limitaciones de cobertura de algunos tipos de datos

Algunos tipos de datos solo están disponibles a ciertas horas del día o para regiones geográficas o condiciones meteorológicas específicas.

Cobertura satelital

Esta tabla resume algunas de dichas limitaciones.

Limitaciones de hora del día

  • Radiosondeos (cada 12 horas)
  • Vientos derivados del movimiento de las nubes detectado por satélite en el visible (solo durante el día)
  • Datos de satélites en órbita polar (cuando el satélite pasa sobre los trópicos y las latitudes medias, dos veces al día)

Limitaciones de región geográfica

  • Radiosondeos sobre tierra firme
  • Franja de barrido del satélite polar durante el período de recolección de datos
  • Datos satelitales de radiancia para niveles bajos (información equivalente a los sondeos satelitales, excepto que los datos son más útiles) solo sobre el mar

Limitaciones de condiciones del tiempo

  • Radiancias IR medidas por satélite, solo en condiciones despejadas
  • Vientos derivados por satélite del movimiento de las nubes, solo en condiciones nubladas o parcialmente nubladas y solo para niveles de nubes superiores que se pueden seguir

Las limitaciones impuestas por las condiciones del tiempo son particularmente importantes, ya que pueden crear un vacío de datos que se desplaza junto a un sistema meteorológico. Por ejemplo, es posible que un sistema sinóptico lleno de nubes que tarda varios días en atravesar el Pacífico nunca permita obtener datos de temperatura de alta calidad salvo las pocas lecturas obtenidas en la alta troposfera por las aeronaves cuya trayectoria de vuelo por casualidad coincide con la de la tormenta. Además, no habrá datos satelitales de temperatura de la superficie del mar (TSM) actuales. Aunque las temperaturas de microondas del satélite pueden llegar a estar en el modelo, solo pueden resolver algunos niveles troposféricos y no son de calidad suficiente como para corregir adecuadamente el pronóstico del modelo cuando ejecuta un ciclo sobre sí mismo.

Encontrará ejemplos de estas limitaciones en las páginas siguientes.

  • Satélites en órbita polar (lugares distintos en distintos momentos)
  • Vientos derivados del movimiento de las nubes (aunque el movimiento de las nubes permite derivar los vientos, prohíbe el uso de la mayor parte de los datos de radiancia para corregir las temperaturas)
  • A lo largo de los corredores aéreos

*Satélites en órbita polar

Secuencia de observaciones de temperatura de emisión de satélite en órbita polar durante 24 h, ventana de obtención de datos de 6 h

*Vientos derivados del movimiento de las nubes

El movimiento de las nubes permite derivar los vientos, pero prohíbe el uso de la mayor parte de los datos de radiancia para corregir las temperaturas.

Vientos derivados del movimiento de las nubes bajas en imágenes satelitales o datos de mediciones satelitales de radiancia en un lugar determinado

Observe que los puntos verdes son observaciones del viento derivadas del movimiento de las nubes; la imagen inferior de la figura usa colores donde hay datos de radiancia disponibles: la mayoría de los lugares cuentan con uno u otro tipo de datos.

*A lo largo de los corredores aéreos

Tenga en cuenta que estas observaciones fueron tomadas durante un período de 6 h. La buena distribución de datos en altura y otros niveles coinciden mayormente con los centros poblados, donde las aeronaves ascienden y descienden al despegar o aterrizar.

AVN, cobertura de temperatura de ACARS, 300-150 hPa y 700-300 hPa

*Asimilación y comprobación de los datos

Algunas observaciones se perfeccionan incluso antes de que pasen a formar parte del flujo de datos. Por ejemplo, los valores del viento obtenidos con indicación velocidad-acimut (Velocity Azimuth Display, VAD) del radar con promedios de una hora, pese a que el radar ejecuta un barrido volumétrico completo cada seis minutos. Además, es posible que se realicen procedimientos de control de calidad a nivel de instrumento.

Una vez incorporadas al flujo de datos, las observaciones se deben «descifrar» para permitir su entrada el sistema de asimilación de datos, ya que pueden estar codificadas en muchos formatos distintos. A continuación, los datos se someten a procesos de comprobación para eliminar los errores crasos o groseros, que normalmente se deben a fallos de instrumento, problemas de comunicación o errores de transcripción manual.

Decodificadores

  • Ciertos datos, como las observaciones METAR y los radiosondeos, llegan en algún formato de código de caracteres. Todos estos datos se deben transformar en un formato común, como el formato binario universal BUFR de representación de datos meteorológicos, que se basa en normas de la OMM. Se utilizan decodificadores para convertir los datos de sus diversos formatos a un formato que se puede utilizar en los equipos informáticos. Encontrará más información sobre los decodificadores en esta página (en inglés): http://www.nco.ncep.noaa.gov/sib/decoders/.

Comprobaciones de datos y corrección de sesgos

  • Los errores a nivel de instrumento y de umbral se pueden identificar ejecutando procesos de comprobación de ciertas características del instrumento incluso antes de que las observaciones pasen al flujo de datos. Por ejemplo, los perfiladores del viento tienen resoluciones verticales y características de error diferentes según se trate de elevaciones altas o bajas. Estas características del instrumento se utilizan para comprobar los datos antes de que pasen a estar disponibles.
  • La comprobación automática general de los datos descarta los valores físicamente no razonables o imposibles y elimina las versiones duplicadas de las observaciones (en el caso de los informes corregidos, se utiliza la versión más reciente).
  • Se eliminan los sesgos de algunos instrumentos.
    • Por ejemplo, las temperaturas de radiosonda son sensibles a la cantidad de radiación solar que calienta el instrumento, y su sensibilidad puede variar según el fabricante. NCEP tiene una tabla de correcciones para uso con diferentes tipos de sondas y ascensos a diferentes horas del día. (Recuerde que la hora solar local correspondiente a las 00 y 12 UTC varía geográficamente y según la estación.) Encontrará información detallada al respecto en http://www.emc.ncep.noaa.gov/mmb/papers/collins/new_tables/new_tables.html.
    • Este sesgo aún NO se puede eliminar: todas las radiosondas exhiben un sesgo de humedad que varía según el fabricante. Dado que en cada país se utilizan sondas de fabricantes distintos, ¡la distribución del sesgo de humedad parece un mapa político! Desgraciadamente, más que coherentes, los sesgos son complejos. Se está trabajando para encontrar la forma de compensarlos.
    • Los datos del sistema ACARS (Aircraft Communication Addressing and Reporting System) de direccionamiento e informe para comunicaciones de aeronaves también tienen varios sesgos de observación que se deben compensar. Este sitio brinda información detallada sobre los controles de calidad automáticos de ACARS: http://amdar.noaa.gov/qc-info.html.

*Control de calidad (CC)

Una vez que se comprueben los datos y se eliminen las lecturas físicamente imposibles (los errores crasos), sigue habiendo datos con errores entre pequeños y moderados que constituyen valores físicamente posibles. Algunos de estos son refutados por otras observaciones o por los campos de fondo del modelo. El control de calidad se aplica con el fin de eliminar o corregir estos valores y evitar la posibilidad de contaminar el pronóstico con datos incorrectos. Hay cuatro tipos de control de calidad, que se cubren en las próximas páginas.

  1. Rechazo a priori de los datos provenientes de fuentes conocidas de datos no confiables
  2. Sistema de CC en el sistema de asimilación que identifica los valores atípicos y corrige algunos datos erróneos
  3. Revisión de datos dudosos en los informes de radiosondeo por parte del meteorólogo de turno con ancianidad (Senior Duty Meteorologist, SDM)* de NCEP
  4. Modificación del peso de una observación conforme se desarrollan las iteraciones del análisis

*Si usted trabaja fuera de los Estados Unidos, comuníquese con el centro de predicción numérica del tiempo de su país.

Puede ver mapas de las observaciones aceptadas y rechazadas para todos los tipos de datos que se introducen en el Sistema de Pronóstico Global (Global Forecast System, GFS) de NCEP en este sitio: http://www.emc.ncep.noaa.gov/gmb/ssaha/maps/obs/dist/dist.html. En esta página, «AVN» es el ciclo de ejecución de GFS, mientras que «FNL» corresponde a un análisis posterior que incorpora datos que llegaron demasiado tarde para que se pudieran incorporar a GFS. El próximo ciclo de GFS puede beneficiarse de estos datos de último momento, porque el campo inicial del ciclo siguiente es un pronóstico de 6 horas que se ejecuta a partir del FNL. Los recuentos de datos incluyen cada lectura individual, de modo que el informe de una radiosonda que abarca 20 niveles equivale a 20 observaciones de temperatura distintas.

Los datos de temperatura y humedad de los satélites no se filtran de antemano, sino que se someten a su propio control de calidad interno al sistema global de análisis. El enlace anterior muestra los datos que entran en el sistema de análisis, aunque muchos de ellos no se utilizan. Por ejemplo, los canales de datos de radiancia que muestran una combinación de información en la superficie y la troposfera no se utilizan sobre tierra firme. Puede ver las observaciones satelitales que sí se utilizan y cómo difieren del campo inicial para cada canal seleccionando Horizontal Data Plots y una plataforma satelital en el sitio http://www.emc.ncep.noaa.gov/gmb/gdas/radiance/index.html.

*Rechazo a priori de los datos provenientes de fuentes conocidas de datos no confiables

Se generan listas que permiten rechazar algunos datos en forma automática.

  • Algunos sitios de observación están una lista de rechazo a largo plazo, lo cual puede deberse a:
    • problemas conocidos con las técnicas de observación empleadas;
    • la topografía del modelo excede la altura de la estación.
  • Algunos sitios o plataformas de observación, como ciertas aeronaves individuales, se encuentran en la lista de rechazo por no haber pasado el control de calidad repetidas veces. En estos casos se considera que tienen instrumentos defectuosos y permanecen en la lista hasta que se reparen o que se corrija cualquier problema relacionado.

*Sistema de CC en el sistema de asimilación que identifica los valores atípicos y corrige algunos datos erróneos

El sistema interno de CC incluye:

  • La comparación de valores de incremento contiguos (buddy check) para asegurar la coherencia espacial y otros tipos de comprobaciones automáticas de la coherencia de los datos.
    • Estas comprobaciones se llevan a cabo con sistemas de control de calidad «de interpolación óptima» y «complejo».
    • Para los datos satelitales, las comparaciones de valores contiguos se realizan sobre el análisis variacional.
    • Se da mayor tratamiento a las comparaciones de valores contiguos en la sección Incremento de observación de esta lección.
  • Las observaciones de radiosonda se revisan para asegurar la coherencia interna:
    • en el perfil vertical de cada variable;
    • entre variables, como entre alturas y temperaturas.

*Revisión de datos dudosos en los informes de radiosondeo por parte del meteorólogo de turno con ancianidad

El meteorólogo de turno con ancianidad (Senior Duty Meteorologist, SDM)* de NCEP realiza una inspección manual de los datos de radiosondeo, especialmente los que han marcado las comprobaciones automáticas de control de calidad y, cuando resulta posible, se hacen correcciones.

*Si usted trabaja fuera de los Estados Unidos, comuníquese con el centro de predicción numérica del tiempo de su país.

  • El boletín ADMNFD del sistema AWIPS muestra una lista de observaciones de radiosonda que no se incluyen en el ciclo de ejecución del modelo actual. Dicha lista se puede consultar en este sitio de internet: http://weather.noaa.gov/tgstatus/.
  • Puede consultar lo tutoriales de control de calidad manual de radiosondas con ejemplos de diagramas termodinámicos en http://www.ua.nws.noaa.gov/dataqc.htm.

*Modificación del peso de una observación conforme se desarrollan las iteraciones del análisis

Cuando existe una discrepancia grande entre una observación y el análisis, se supone que la observación sea un valor atípico y se le da poco o ningún peso. Pero si una iteración posterior del análisis cambia de modo que la observación cabe mejor, se reduce o elimina por completo el factor que pone en duda la observación.

  • El análisis actual de los modelos Eta y AVN emplea un control de calidad «no lineal» en el cual la mayoría de los valores atípicos no se rechazan, sino que se vuelven a evaluar en varias iteraciones del análisis. Encontrará una explicación de este procedimiento en la sección Análisis de esta lección.

Incremento de observación

Incremento de observación: introducción

Proceso de asimilación de datos, 1B observaciones
  • ¿Qué hace el proceso de asimilación de datos para que las observaciones sean comparables con el campo inicial?
  • ¿Cómo es posible combinar en un único análisis conjunto de observaciones realizadas en diversos momentos, con patrones de cobertura diferentes y características de muestreo distintas?
  • ¿Por qué a veces se rechazan datos correctos?
  • ¿Cómo se combinan las observaciones, que permiten hacer comparaciones con la realidad, y la información de estructuras esenciales en el pronóstico a corto plazo del modelo?

Esta sección brinda respuestas más completas a estas interrogantes de lo que hemos presentado hasta ahora. Debido a sus diferentes ubicaciones, horas de obtención, variables y diferencias en la hora y el volumen de muestreo, podemos decir que comparar las observaciones con los campos del modelo es análogo a comparar peras con manzanas. Mediante la interpolación y conversión de variables, las peras (los campos del modelo) se transforman en algo parecido a manzanas (observaciones), para que se puedan comparar. Explicaremos los problemas y las fuentes de error que esto introduce.

Las observaciones y los campos del modelo se comparan formando el incremento de observación, que esencialmente es la diferencia entre una observación y el pronóstico, una vez que el pronóstico se haya transformado en algo semejante a una observación. Esta sección también explica cómo se utiliza el incremento de observación en el control de calidad, así como lo que esto implica para el pronóstico. La sección posterior, Análisis, describirá cómo el proceso de asimilación de datos hace uso de estos incrementos de observación para corregir los campos del modelo y producir un nuevo análisis para otro ciclo de pronóstico.

Peras y manzanas

Los datos observados no son lo mismo que los datos del modelo. Aunque puede parecer obvio, con toda probabilidad es incluso más complicado de lo que nos imaginamos. Hace falta bastante esfuerzo llegar al punto en que el proceso de asimilación de datos pueda comenzar a comparar las observaciones y los datos del modelo para crear un análisis nuevo. Para comprender por qué esto es tan difícil, consideremos lo que representa cada tipo de datos.

Datos observados

A medida que sube, una radiosonda puede verse atrapada en la corriente ascendente de una tormenta, donde las condiciones distan mucho de ser representativas de las condiciones ambientales generales, o quizás pase por una serie de pequeños grupos de nubes. Un perfilador del viento detecta el movimiento oscilante de las pequeñas ondas de gravedad superpuesto al flujo medio, de forma que el viento en cualquier momento dado puede no ser representativo del viento medio de la región. Es preciso tener en cuenta el muestreo del instrumento para saber qué estructuras meteorológicas representan las observaciones.

Cada observación individual tiene una hora y un volumen de muestreo característico, y mide una cantidad limitada de tipos de variables. Esta tabla muestra algunos ejemplos:

Fuente de datos

Hora de muestreo

Espacio muestreado

Variables medidas

Radiosonda

Pocos segundos

Decenas de metros

Temperatura, humedad, velocidad del viento, etc.

Radiancias medidas por satélite

Fracción de un segundo

Campo de visión del instrumento de barrido único, emisiones de capa profunda y área ancha contribuyen a la radiancia

Radiancias en varias longitudes de onda

Perfiladores del viento

Promediados durante una hora antes de pasar al modelo

Anchura y profundidad del haz de radar

Movimiento de gradientes de índice de refracción, esencialmente turbulencia

Datos de pronóstico del modelo

Tiene poco sentido comparar las observaciones con el campo inicial del modelo si no son ambos capaces de «ver» las mismas estructuras meteorológicas. Esto significa que es preciso tener en cuenta el muestreo espacial y temporal del modelo, así como las variables que mide.

Fuente de datos

Hora de muestreo

Espacio muestreado

Variables medidas

Pronóstico del modelo

Cada paso de tiempo genera promedios de pocos minutos o menos, pero la salida del modelo suele obtenerse a intervalos 1 a 3 horas.

Celdas de malla tridimensional. Para que se pueda resolver de forma razonable, la estructura debe tener una longitud de onda completa al menos 5 a 10 veces el ancho y la profundidad del espaciado de malla horizontal y vertical del modelo.

Temperatura, humedad, vectores viento (en realidad se trata de potencial de velocidad y función de corrientes), y otras variables.

*Peras y manzanas: hora y lugar

Los campos del modelo se interpolan con el lugar y la hora de una observación. Este valor derivado por el modelo se conoce como seudoobservación. Posteriormente, las seudoobservaciones se comparan con las observaciones reales a la hora y en el lugar de la observación. Supongamos, por ejemplo, que una aeronave ha medido la temperatura en 215 hPa a las 1045 UTC. Como ilustra la figura, se genera una seudoobservación de la temperatura pronosticada interpolando las temperaturas del modelo de los niveles y lugares más cercanos con el lugar de la observación, usando la salida del modelo de la hora de salida más cercana.

Creación de una seudoobservación de temperatura entre niveles reales del modelo

Sin embargo, la conversión de los campos del modelo en seudoobservaciones puede introducir errores, y ser la causa de que incluso un pronóstico perfecto exhiba una fuerte discrepancia con una observación perfecta. El resultado es una fuerte «corrección» de un pronóstico bueno o el rechazo de la observación.

*Errores al convertir los campos del modelo en horas y lugares de observaciones

Errores al interpolar el campo inicial con el lugar de observación

  • La interpolación lineal puede reducir la amplitud de las estructuras en el modelo y la interpolación de orden superior puede producir máximas y mínimas no realistas. Estos problemas degradan la seudoobservación en comparación con el campo del modelo en su propia malla.
  • Independientemente de que el modelo (que pronostica un volumen de la atmósfera) y las observaciones (que se pueden medir para un punto) vean los mismos fenómenos, ¡las diferencias en el volumen muestreado siguen SIN tomarse en cuenta!

Errores al interpolar el campo inicial con la hora de observación

  • El análisis no se limita a utilizar las observaciones obtenidas a la hora exacta del análisis, sino que incorpora todas las observaciones obtenidas dentro un determinado período llamado ventana temporal. La ventana temporal del modelo GFS abarca 6 horas, mientras que la de RUC (que después del año 2010, se llamará Rapid Refresh) cubre una hora. No obstante, los datos satelitales y de aeronaves, por ejemplo, entran constantemente. Para hacer frente a este problema, el sistema de asimilación de datos puede proceder de una de las dos formas siguientes.
    • Tomar el camino más fácil y evitar la interpolación temporal por completo:
      • ¡Todas las observaciones dentro de la ventana temporal se suponen válidas a la misma hora! Imagínese la dificultad de realizar un análisis justo detrás de un frente en movimiento: una estación detecta los vientos y las temperaturas prefrontales, y poco después los correspondientes datos posfrontales. El análisis, que los considera todos válidos, tratará de largarse hacia el promedio, degradando de esta forma el campo inicial correcto para un frente marcado.
      • El análisis puede limitarse a tener en cuenta la observación más cercana a la hora de análisis e ignorar por completo todos los demás informes de esa estación dentro del marco de la ventana temporal.
    • Las observaciones se pueden comparar con los campos del modelo interpolados linealmente entre las horas de salida del modelo. Si bien esto es mejor que suponer que todas las observaciones son válidas a la misma hora, el suavizado temporal inherente a este modo de proceder puede todavía causar la subrepresentación de la intensidad o de la fase de los campos iniciales por parte de las seudoobservaciones, especialmente para estructuras pequeñas de movimiento rápido. Presentamos un ejemplo de esto en la página siguiente, Interpolación de los campos del modelo con las horas de observación.
  • La compatibilidad temporal mejora con los ciclos de actualización (que también se presentan en esta sección).

*Interpolación de los campos del modelo con las horas de observación

En este ejemplo, el campo inicial transporta una onda intensa hacia el este a 25 m/s. La salida del modelo se genera a intervalos de 3 horas, de modo que las observaciones tales como los vientos detectados por aeronave una y dos horas después del primer panel terminan comparándose con las seudoobservaciones, como en los paneles intermedios, donde la amplitud de la onda y la velocidad del viento se reducen considerablemente y el eje de la vaguada se coloca en el lugar incorrecto. Si el pronóstico es acertado, las observaciones que indican que el sistema es más intenso de lo que muestran las condiciones mal interpoladas en T+1 y T+2 obligarán al análisis a intensificar incorrectamente el sistema en comparación con el campo inicial válido en T+3, o bien provocar el rechazo de los datos.

Efecto la interpolación de los campos del modelo entre momentos de generación de la salida del modelo

*Ciclos de actualización

Podríamos mejorar la compatibilidad temporal generando la salida de los campos del modelo en cada paso de tiempo, pero en realidad un enfoque más completo consiste en aprovechar el suministro constante de datos actualizando el análisis con frecuencia. Por ejemplo, en lugar de usar un campo inicial de un pronóstico de 3 horas, podemos usar todas las observaciones de la primera hora para derivar un análisis nuevo. Llegado este punto, obtenemos otro pronóstico de una hora y realizamos otro análisis y luego ejecutamos el proceso una vez más. Este proceso de ciclos de actualización se ilustra de forma esquemática en la figura.

Ejemplo del ciclo de actualización con análisis horario y emisión de pronósticos operativos cada 3 horas

Los ciclos de actualización brindan una serie de ventajas:

  • Se reduce la ventana de aceptación de los datos, de modo que las observaciones asimiladas son más cercanas en el tiempo.
  • El ciclo de pronóstico recibe las correcciones de las observaciones con mayor frecuencia, lo cual permite que el modelo repare los análisis anteriores incorrectos gradualmente, con una serie de pequeñas correcciones en lugar de una única corrección grande.
    • Esto reduce la cantidad de datos que se rechazan y aumenta la coherencia con la física del modelo, lo cual mejora la respuesta del modelo frente a situaciones que cambian rápidamente.
  • Es campo inicial puede ser más exacto, porque el pronóstico abarca un período más corto y los datos en tiempos intermedios han corregido un pronóstico que comenzó a distanciarse de la realidad. ¡Recuerde la importancia de un campo inicial fidedigno para un buen análisis!

Observe que NINGUNO de estos métodos para establecer una correspondencia entre la hora de los campos del modelo y la hora de muestreo de las observaciones tiene en cuenta la diferencia en la frecuencia y, por tanto, ninguno contempla si las observaciones y los campos del modelo pueden «ver» los mismos fenómenos.

*Peras y manzanas: conversión de las variables del modelo en variables de observación

No se olvide que algunas variables observadas no son iguales a las variables previstas por el modelo. Aunque ciertas observaciones, como las radiancias medidas por satélite, podrían transformarse en variables del modelo, como ocurre al preparar los sondeos de temperatura del GOES, considere algunas de las fuentes de error que surgirían:

  • Se aplicarían aproximaciones de la ley de transferencia radiativa.
  • Se utilizarían las radiancias de varios canales satelitales diferentes para producir una sola temperatura de sondeo.
  • Los sondeos derivados son esencialmente promedios para capas definidas por las funciones de ponderación del absorbedor correspondientes a las longitudes de onda de la radiación observada.
  • Dichas capas se interpolan con las capas del modelo, que son mucho menos profundas, para realizar la comparación con los campos del modelo, o se interpolan con los niveles estándar de sondeo y los datos del modelo también se interpolan con niveles estándar de sondeo para fines de comparación.

Un método mejor consiste en convertir las variables del modelo en variables observadas, como hacemos al calcular la radiación saliente del modelo directamente a partir de los perfiles de temperatura, humedad y ozono del modelo para compararla con las radiancias medidas por satélite (verá una ilustración de este proceso en la próxima página). Este método se ha comenzado a usar operativamente y las pruebas que se han realizado indican que produce pronósticos del modelo considerablemente mejores en comparación con el método antes descrito. Una ventaja importante es que se conoce la estructura vertical completa, mientras que para los sondeos recuperados es preciso utilizar un perfil aproximado. Otra ventaja es que permite utilizar cada observación en su forma original. Por ejemplo, podemos calcular la radiación saliente para cada longitud de onda detectada por el satélite y luego hacer la comparación con las radiancias de cada canal. Además, los campos del modelo se usan directamente en la malla del modelo. Pero siguen introduciéndose errores por medio de la aproximación de transferencia radiativa.

*Creación de una seudoobservación para las radiancias medidas por satélite

El cálculo que convierte las variables del modelo de PNT en variables observadas, incluidas las interpolaciones espaciales y temporales y, en este ejemplo, un modelo de transferencia radiativa, es el «modelo hacia adelante». Esta figura ilustra el modelo hacia adelante empleado para generar seudoobservaciones de radiancias medidas por satélite.

Creación de seudoobservaciones para radiancias medidas por satélite

El modelo hacia adelante que genera las seudoobservaciones del modelo correspondientes a las observaciones de superficie puede resultar particularmente problemático, porque las condiciones reales en los niveles inferiores varían mucho arriba de la superficie, mientras que las temperaturas y los vientos del nivel más bajo del modelo representan el promedio de toda una capa. Al igual que en el postprocesamiento, nos basamos en suposiciones para crear las condiciones en la superficie del modelo. La comparación de las observaciones de superficie con las condiciones de superficie simuladas en el modelo se complica aún más cuando las estaciones de observación se encuentran a altitudes que difieren de la topografía utilizada en el modelo. Estos problemas forman parte de los motivos que explican por qué la utilidad de las observaciones de superficie es limitada y por qué se limita su peso en el análisis.

*Fuentes de discrepancia entre las observaciones y el modelo

Y ahora estamos comparando dos variedades de manzanas, lo cual es un poco mejor que comparar peras con manzanas, pero aún no se trata de la misma cosa. No obstante, la diferencia entre ellas se usará como base para rechazar datos y corregir el campo de fondo para realizar el análisis nuevo.

El incremento de observación es la diferencia entre los datos observados y los datos del campo de fondo una vez que estos se hayan convertido en formato de seudoobservación mediante la interpolación temporal y espacial y la conversión de las variables. El incremento de observación mide la discrepancia entre las observaciones y el pronóstico a corto plazo. En un mundo ideal, podríamos simplemente utilizar el valor de esta medida del error de pronóstico para corregir el campo de fondo. No obstante, en el mundo real, hay otros factores que contribuyen a la discrepancia entre el campo de fondo y el pronóstico y solo algunos están relacionados con los errores del modelo.

Errores de observación

  • Errores de instrumento: quizás el incremento de observación no sea demasiado bueno, de modo que debido a limitaciones físicas o mecánicas de los instrumentos de observación una de nuestras variedades de manzanas no es de la mejor calidad.
  • Errores de representación: recuerde que las interpolaciones espaciales y temporales realizadas para producir una seudoobservación del modelo no tienen en cuenta las diferencias de muestreo del volumen y la hora de muestreo. Es posible que el modelo no logre detectar el fenómeno que aporta a los valores observados o que las observaciones no puedan detectar el fenómeno que contribuye a los valores del modelo. Por eso seguimos sin contar con elementos idénticos, y seguimos comparando una variedad de manzanas con otra.
    • Ejemplo: muestreos de vientos radiales de radar doppler NEXRAD para microrráfagas, mesociclones tornádicos y frentes de racha. Estas estructuras son mucho menores de lo que puede resolver cualquier modelo operativo, de modo que no cabe esperar que siquiera un pronóstico perfecto coincida con ellas. Estas observaciones no deben utilizarse para corregir los campos de fondo sin primero haberlas suavizado bastante, como, por ejemplo, usando los datos de viento con indicación de velocidad y acimut (VAD).
    • Ejemplo: sondeos satelitales de microondas (que en realidad son radiancias) sobre el océano. ¡Estos datos constituyen la única fuente de perfiles de temperaturas en regiones nubladas! Como solo resuelven una región que abarca 3 o 4 niveles troposféricos, borronean en la vertical los pliegues de la tropopausa y las zonas frontales inclinadas resueltas en el modelo. Si el uso de estos datos degrada los campos de fondo, los datos se deben rechazar.

Errores relacionados con el modelo

  • Errores del modelo de pronóstico respecto de su resolución: estos son los errores que deseamos corregir con las observaciones. ¡Este es el motivo fundamental del análisis! Observe que las estructuras mal colocadas debido a una resolución inadecuada, como un pronóstico de baja resolución del modelo en el cual una brisa marina penetra mucho más tierra adentro en comparación con la posición observada, contribuye más al error de representación de las observaciones que a los errores que el análisis debería corregir.
  • Deficiencias del modelo hacia adelante: es posible que las seudoobservaciones no reflejen los campos de fondo del modelo de manera fidedigna debido al proceso de interpolación con la hora y el lugar de observación y de convertirlo a la variable observada.

Uso del incremento de observación en el CC: cómo se rechazan los datos

La comparación de valores de incremento de observación contiguos (buddy check) confronta dichos valores tanto en la vertical como en la horizontal. Al comparar los incrementos de observación vecinos en lugar de cotejar directamente las observaciones vecinas, obtenemos una serie de ventajas:

  • Los gradientes intensos podrían producir observaciones válidas contiguas muy diferentes entre sí, como sucede cuando un frente se interpone a dos estaciones de superficie, o si un viento gradiente en la base de una vaguada intensa produce un punto aislado de velocidad del viento menor de lo que indican otras estaciones de radiosondeo. Los incrementos de observación correspondientes serán pequeños si el pronóstico es correcto.
  • Si una sola observación ha capturado las estructuras de mesoescala resolubles y pronosticadas correctamente por el modelo, esa observación puede acabar pareciendo un valor atípico en comparación con otras observaciones, pero no en comparación con otros incrementos.
  • Las diferencias de observación de un buen pronóstico a corto plazo deben ser pequeñas, incluso en estas circunstancias.

Éstos son algunos ejemplos de patrones de incremento y sus fuentes.

Sistema de comparación de valores de incremento contiguos
  • Buen campo de fondo, buenas observaciones (fila 1): los incrementos de observación son pequeños y aleatorios donde no se necesitan correcciones y son pequeños y bien organizados donde el pronóstico necesita un poco de corrección.
  • Campo de fondo incorrecto, buenas observaciones (fila 2): por lo general, las observaciones difieren del pronóstico de acuerdo con un patrón coherente.
  • Buen campo de fondo, una observación incorrecta (fila 3): todos los demás incrementos de observación son pequeños y aleatorios, pero uno es grande.
    • Cuando hay un incremento de observación grande aislado, se supone que es producto de una observación incorrecta o que representa una estructura demasiado pequeña para que el modelo la pueda predecir y que, por tanto, se puede rechazar. Sin embargo, la causa puede ser un pronóstico incorrecto sin otros datos corroborantes cerca de la observación. Esto ocurre a veces cuando el pronóstico del modelo subestima una onda corta extremadamente potente, algo que puede suceder fácilmente si el pronóstico contiene una estructura espuria de pequeña escala o no detecta una estructura de pequeña escala que debiera incluir. Para resolver una estructura se precisan al menos cinco observaciones obtenidas a intervalos regulares a lo largo de su longitud de onda, al igual que se requieren al menos cinco celdas de malla del modelo. Esta combinación de pronóstico incorrecto e insuficientes datos corroborantes es lo que lleva el modelo a rechazar datos correctos que se necesitan para corregir el pronóstico incorrecto.

*Asuntos adicionales de CC y soluciones

A veces sucede que el mismo instrumento, como un satélite o una aeronave, realiza varias observaciones en la misma zona general. Si el error del instrumento es grande y el pronóstico es bueno, todas estas observaciones pueden indicar un error de pronóstico grande y dar la impresión de apoyarse mutuamente. En estos casos, la comparación de valores de incremento contiguos (buddy check) con observaciones independientes, por ejemplo, las de diferentes radiosondas, aeronaves distintas u otros tipos de sistemas de observación, dará resultados mucho mejores.

Existe un proceso de control de calidad complejo (Complex QC) que incorpora inteligencia, como un algoritmo para eliminar la contaminación de aves migratorias de los datos de viento con indicación de velocidad y acimut (VAD). El proceso de control de calidad complejo puede ser muy detallado e incluir, por ejemplo, ingeniosas y elaboradas rutinas para detectar y corregir los errores de codificación y las entradas que faltan en los informes de radiosonda y aeronave. Para ver ciertos detalles, consulte el sitio http://www.emc.ncep.noaa.gov/mmb/papers/collins/preprints/obsqc2.htm.

El control de calidad no lineal (Nonlinear QC), que se explica en la sección Análisis, lleva el proceso Complex QC un paso más allí permitiendo la reevaluación de la observación durante el análisis en lugar de rechazarla sin más. Si otras observaciones acercan el análisis a la observación de valor atípico, es posible que deje de parecer un valor atípico y que termine utilizándose.

La dependencia del sistema de coordenadas puede ser otro factor que complica el proceso de control de calidad. Si el control de calidad no se lleva a cabo dentro de un sistema de coordenadas que tiene sentido desde el punto de vista físico, es posible que algunos datos correctos parezcan valores atípicos, como se muestra en la figura.

Ejemplo de datos correctos que parecen valores atípicos cuando no se realiza el control calidad en un sistema de coordenadas que tiene sentido desde el punto de vista físico

En este caso, el valor de razón de mezcla de 8 g/kg de la estación ABR, que corresponde a de Aberdeen, Dakota del Sur (EE. UU.), parece ser un valor atípico en comparación con otras estaciones para la superficie isobárica de 700 hPa. Si el modelo arrastrara esta humedad despacio, ABR terminaría siendo la única estación en exhibir el error del modelo, dejándola sujeta a probable rechazo. No obstante, en la superficie isentrópica de 313 K, sobre la cual fluye esta masa de aire húmedo, la observación de ABR forma parte de una masa de humedad coherente. Esto significa que los errores grandes del modelo pueden producir incrementos grandes en varias estaciones, de modo que la comparación de valores de incremento contiguos impediría el rechazo de los datos.

Resumen: fuentes de valores atípicos y rechazo de datos

  • Si la resolución de las observaciones no es comparable con la del modelo, es posible que se están «viendo» estructuras meteorológicas diferentes y que, por tanto, sean incompatibles. Aunque exactas, tales observaciones pueden perjudicar el pronóstico del modelo y deben rechazarse, como en estos casos:
    • Los vientos Doppler y una observación de superficie pueden indicar un cambio de rumbo en los vientos y una corriente de salida de una tormenta local que el modelo no es capaz de resolver.
    • Una unidad de sondeo de microondas puede resolver solo 3 o 4 capas de temperatura, lo cual sugeriría la necesidad de efectuar «correcciones» grandes a un pronóstico acertado de pliegue en la tropopausa del modelo.
  • Una estructura se desarrolla demasiado rápidamente, de modo que la interpolación temporal lineal de los campos del modelo no la describe bien entre momentos de salida del modelo (entre los cuales pueden mediar varias horas), incluso si el modelo hizo una buena predicción.
  • La ventana temporal de los datos es demasiado amplia. Una estructura puede propagar buena parte de su amplitud durante la ventana temporal. La capacidad de resolver estructuras pequeñas o de movimiento rápido puede verse afectada.
  • En presencia de gradientes muy fuertes, un pequeño error de posición en el pronóstico corresponde a un error grande en los valores de la estación y, por tanto, a un incremento de observación grande, especialmente si se ha elegido una coordenada vertical poco apropiada para el análisis.
  • La presencia de datos aislados en una región con pocos datos significa que no hay nada que corrobore el incremento de observación.

Aplicación práctica: determinación de los datos incluidos en el análisis

Esta es una lista de mejores prácticas para determinar qué datos se incluyeron en el ciclo de ejecución del modelo:

  • Revisar mensajes del meteorólogo jefe de turno (por ejemplo, el meteorólogo de turno con ancianidad (Senior Duty Meteorologist, SDM)* de NCEP).
  • Superponer datos de imágenes satelitales, datos de análisis y datos crudos.
  • Buscar lugares donde el análisis no es coherente con las observaciones o las imágenes y plantearse estas preguntas:
    • ¿Se trata de una zona con muchos o pocos datos?
    • ¿Había generado una predicción incorrecta para la zona el ciclo de ejecución anterior del modelo?
    • ¿Parece que las observaciones son coherentes con otras observaciones y las imágenes satelitales?
    • ¿Está cerca de una estructura en rápida fase de desarrollo o de una estructura de escala tan pequeña que el modelo no la puede pronosticar?
  • Buscar áreas para las cuales hay pocos datos, como grandes regiones nubladas sobre los océanos. ¿Se ha encontrado el sistema en una zona con pocos datos por un día entero o más?
  • Superponer trazados de datos rechazados y de diferencias entre las observaciones y el análisis (si tales datos están disponibles).
    • La cantidad y distribución espacial de datos rechazados y observaciones que contienen grandes discrepancias respecto del análisis, junto con la posición de las zonas sin datos, pueden dar buenos motivos para cuestionar fuertemente el pronóstico del modelo.
    • Nota: Esta práctica no se puede implementar con precisión hasta que el sistema en uso, como AWIPS, por ejemplo, permita generar nuevos productos, como un mapa de los datos rechazados. Esta sugerencia se ha incluido con la esperanza de que este tipo de producto exista en un futuro cercano.

*Si usted trabaja fuera de los Estados Unidos, comuníquese con el centro de predicción numérica del tiempo de su país.

Análisis

Análisis: uso de incrementos de observación para preparar el análisis

Proceso de asimilación de datos, incrementos de análisis (correcciones), procedimiento de análisis objetivo

Este paso es el núcleo del proceso de análisis. Es el paso más complejo y su impacto en la calidad del pronóstico del modelo es muy importante.

El procedimiento de análisis objetivo desplaza y fusiona los incrementos de observación para las horas y en los lugares de observación de acuerdo con las condiciones iniciales (en la malla del modelo) de los campos de malla del pronóstico del modelo. Por ejemplo, es posible que se haya utilizado un software de laboratorio sinóptico para realizar un análisis de Barnes de alturas en 500 hPa a partir de los datos de radiosondeo. El análisis ha interpolado la altura registrada en cada estación sobre una malla ponderando el valor de cada observación según la distancia de modo tal que las observaciones cercanas han contribuido mucho más que las observaciones distantes. El sistema operacional hace lo mismo, pero con un método de análisis mucho más avanzado. En lugar de analizar las observaciones, la asimilación de datos analiza los incrementos de observación para crear una malla con las "correcciones" realizadas en el pronóstico a corto plazo anterior del modelo. A continuación, estas correcciones se agregan al pronóstico a corto plazo para formar las condiciones iniciales del próximo ciclo de pronóstico.

El análisis se ejecuta con información estadística sobre las observaciones y los campos de fondo para extraer de las observaciones toda la información que se pueda utilizar en el modelo y conservar toda la estructura posible de los campos de fondo.

Una forma de concebir este proceso es en términos de exprimir y mezclar el jugo de las dos variedades de manzanas que juntamos al preparar los incrementos de observación. Las estadísticas indican cómo podemos obtener la mezcla más sabrosa de estos dos tipos distintos de manzanas, y cómo perder un mínimo de su pulpa. Las suposiciones meteorológicas básicas subyacentes a las estadísticas afectan profundamente el análisis y su manejo de los datos y determinan cuándo el análisis tendrá problemas, y estos son los casos a los que debemos estar particularmente atentos al formular un pronóstico.

Núcleo del análisis: cuánto ponderar las observaciones respecto del pronóstico

Para comprender el funcionamiento de 3D-VAR, considere en primer lugar cómo prepararía un análisis manual. Supongamos que está haciendo un análisis manual del nivel de 500 hPa sobre Estados Unidos para las 12 UTC a partir de los radiosondeos de las 12 UTC y que cuenta con la ayuda de un buen pronóstico a corto plazo para las regiones con pocos datos, quizás el pronóstico de 3 horas del modelo NAM. Tendría que considerar los factores siguientes:

  • ¿Trazaría las líneas de modo que se ajusten perfectamente a los datos de radiosondeo?
  • ¿Cómo le ayuda conocer el valor y las limitaciones de un informe de radiosondeo?
  • ¿Trazaría los detalles entre los sondeos distantes entre sí de acuerdo con los detalles del pronóstico NAM de 3 horas?
  • ¿Cómo le ayuda tener una idea del funcionamiento reciente del modelo?
  • Una vez que comience a trazar el análisis, ¿lo perfeccionará más de una vez?

El esquema 3D-VAR no «cree« a ciegas ni en las observaciones ni en el pronóstico: lo que trata de hacer es encontrar un punto de equilibrio entre las diferencias entre el análisis y las observaciones, y los cambios en el análisis que provienen del campo de fondo. 3D-VAR «sabe» el valor y las limitaciones de las observaciones, porque utiliza el error esperado de las observaciones para cada tipo distinto de datos. También conoce el comportamiento del modelo, porque utiliza las estadísticas de error de pronóstico del modelo en cada punto de malla y las relaciones espaciales de los patrones de error. El punto de equilibrio se encuentra penalizando el análisis cuando difiere de algún elemento de observación o de los datos del modelo.

  • Se penalizan las desviaciones de las observaciones (más si se sabe que el error del tipo de observación es pequeño).
  • Se penalizan las desviaciones del campo de fondo (más si el pronóstico suele ser bueno).

A continuación el esquema identifica el análisis con la menor cantidad de penalizaciones para la combinación de todas las observaciones y el campo de fondo. Esto significa que el análisis:

  • se acerca los datos de mejor calidad;
  • conserva más detalles en el campo de fondo de un modelo de mejor calidad;
  • no pondera correctamente el campo de fondo y las observaciones si las estadísticas de error usadas no son apropiadas para el día en curso, algo que podría redundar en un análisis incorrecto en ciertos momentos o lugares;
  • ajusta los incrementos del campo de masa para que guarden coherencia con los incrementos de viento y viceversa. De no proceder de este modo, la dinámica del modelo no podría retener la nueva información agregada por las observaciones en el pronóstico.

Tipos de análisis adaptables a escenarios meteorológicos específicos

La limitación principal del esquema 3D-VAR estándar es que esencialmente distribuye la influencia de las observaciones de forma igual en la vertical y la horizontal en cualquier situación meteorológica, independientemente de la presencia de frentes, capas estables, vórtices, líneas secas u otras estructuras. Con el fin de lograr un mayor grado de adaptabilidad del análisis, los centros operativos han implementado o están estudiando varios otros métodos de análisis, desde extensiones simples de 3D-VAR hasta enfoques completamente distintos. Es importante poder reconocer cómo estos métodos afectan el análisis que vemos, el cual, a su vez, afecta el pronóstico del modelo.

Vamos a centrar nuestra atención en la forma y el tamaño de la región en la cual el análisis siente los efectos de un único incremento de observación aislado. La clave es cómo el análisis rellena las correcciones del campo inicial en las áreas alejadas de los lugares de observación. Esto viene determinado por la covarianza del error de fondo, que es la relación entre los errores del campo inicial, que establece lo que un error en el campo inicial en el lugar de la observación indica acerca del error en cualquier otro punto de análisis. Si desea aprender más sobre los patrones de covariancia de errores de fondo y cómo afectan la influencia de un incremento de observación en el análisis, comience con la sección Suposición de error de fondo y luego estudie la diapositiva 22 del webcast sobre el análisis de mesoescala en tiempo real: Real-Time Mesoscale Analysis, RTMA: https://www.meted.ucar.edu/training_module.php?id=272.

Por ejemplo, considere la influencia de un incremento de observación cerca de un intenso frente frío, tal como los representa este campo inicial de temperatura y viento en 850 hPa.

Incrementos de análisis 3D-VAR. Se recibe una observación de 19 °C en el sector cálido delante de un frente frío. La temperatura del campo inicial del modelo en este lugar es de 21 y 22 grados, aún más alta al sur, con un fuerte gradiente NW-SO al norte y al oeste detrás del frente frío. 3D-VAR altera el campo inicial con un gran patrón de enfriamiento en forma de círculos concéntricos que se maximiza en el sitio de la observación y se extiende uniformemente hacia afuera en todas las direcciones, incluso al otro lado del frente frío.

Una aeronave atraviesa el sector cálido sobre el noreste de Nebraska y emite un informe en el cual la temperatura es algunos grados más baja que la del campo inicial. Como el esquema 3D-VAR estándar supone un patrón aproximadamente circular para las covarianzas de error de fondo, corrige el análisis con un patrón aproximadamente circular y enfría el campo inicial de manera uniforme en todas las direcciones, a la vez que reduce la magnitud del enfriamiento gradualmente con la distancia a la observación, tal como lo indican la serie círculos rojos concéntricos.

¿Refleja realmente esta observación un error en el campo inicial a lo largo del frente en Dakota del Sur, donde hay una masa de aire diferente, y donde el campo inicial ya es mucho más frío que la temperatura medida por el sensor de la aeronave? La observación que se utilizó para corregir el campo inicial en un lugar puede distorsionar el análisis en otro debido al patrón que se supone para la covarianza del error de fondo. Un método más exacto quizás solo enfriaría el sector cálido, como se puede apreciar en la figura siguiente, en la cual el patrón circular simplemente queda truncado en la posición del frente.

Incrementos de análisis que combinan 3D-VAR y razonamiento meteorológico. Se recibe una observación de 19 °C en el sector cálido delante de un frente frío. La temperatura del campo inicial del modelo en este lugar es de 21 y 22 grados, aún más alta al sur, con un fuerte gradiente NW-SO al norte y al oeste detrás del frente frío. Una modificación conceptual sencilla de 3D-VAR trunca el patrón de enfriamiento en forma de círculos concéntricos de modo que el enfriamiento se aplique solo en la zona del sector cálido, conservándose el resto del patrón circular del análisis 3D-VAR estándar.

Los métodos actualmente en uso o en desarrollo para uso en el futuro con los modelos de pronóstico operativos se describen brevemente en las próximas páginas.

3D-VAR con covarianzas anisotrópicas de error de fondo

El mismo esquema 3D-VAR estándar que acabamos de ver se puede modificar con patrones de covarianza de fondo estirados a lo largo de las isentropas. Si consideramos el mismo caso que vimos en la página anterior,

3D-VAR Incrementos de análisis

la aplicación de 3D-VAR con covarianzas anisotrópicas de error de fondo produce los cambios en el campo inicial que se pueden apreciar en la figura siguiente.

Covarianzas anisotrópicas de fondo distribuidas a los largo de las isentropas. Se ha calculado la temperatura potencial de una observación en 306 K en el sector cálido delante de un frente frío. La temperatura potencial del campo inicial del modelo es de 308 y 309 K en este lugar, y  más alta hacia el sur, con un fuerte gradiente NE-SO al norte y al oeste detrás del frente frío. 3D-VAR con covarianzas anisotrópicas de fondo distribuidas a los largo de las isentropas distribuye los cambios más a lo largo del frente en el campo inicial, menos al otro lado del frente, y las cambios envuelven la lengua de aire cálido al sur del sitio de la observación.

Observe como el análisis altera el campo inicial de forma más marcada junto al sector cálido, donde el gradiente es más débil, y menos junto al intenso gradiente frontal, aunque llega al otro lado de la zona de cambio de vientos. Observe también que el eje de cambios más grandes alcanza a envolver los costados de la lengua de aire caliente en el este de Nebraska.

Anisotrópico simplemente significa que no es igual en todas las direcciones, a diferencia del patrón circular del esquema estándar. La expresión «covarianzas anisotrópicas de error de fondo», que se utiliza mucho en NCEP, simplemente hace referencia a un conjunto distinto de las suposiciones que controlan el patrón de influencia que un incremento de observación puede tener en el análisis. En 2007, NCEP implementó el análisis de mesoescala en tiempo real (Real-Time Mesoscale Analysis, RTMA), que utiliza covarianzas de error de fondo apretadas contra las isohipsas de terreno elevado y los litorales para impedir que los incrementos de observación de lugares en altura afectaran las condiciones analizadas en los valles y que las observaciones marinas afectaran el análisis sobre tierra firme, y viceversa. Otra posibilidad consiste en estirar las covarianzas de error de fondo a lo largo de las líneas de corriente, algo que podría resultar útil en una zona de confluencia, como una línea seca, cuyo efecto neto es dividir la influencia de incrementos de observación entre el aire húmedo y seco.

El esquema 3D-VAR está limitado al uso de una suposición predeterminada sobre la forma del error en el campo inicial, aunque tiene en cuenta la dependencia del flujo en ejemplos tales como la extensión a lo largo de las isentropas y las líneas de corriente. El análisis cambiará de forma inapropiada el campo inicial cuando la suposición es incorrecta.

4D-VAR

4D-VAR extiende el esquema 3D-VAR a la dimensión temporal. Las observaciones se obtienen en muchos momentos distintos. Para corregir adecuadamente el campo inicial, cada observación se debe comparar con el pronóstico de primera aproximación válido a la hora en que se realizó la observación. Aunque esto se puede lograr en 3D-VAR interpolando entre las diferentes horas de salida del pronóstico, a continuación 3D-VAR supone que todos los incrementos de observación son válidos al mismo tiempo. En lugar de proceder de esta forma, el esquema 4D-VAR utiliza la dinámica y la física del modelo para estimular la evolución de un incremento de observación entre la hora de observación y la hora de validez del análisis.

Corrección temporal 4D-VAR del incremento de observación

En este ejemplo, el movimiento del frente frío en el campo inicial es demasiado lento y produce un incremento de observación de 30 nudos desde el norte en una hora y de 5 nudos desde el sur en la misma estación una hora después. En 3D-VAR estos incrementos se aplicarían juntos, pese a que el conflicto entre ellos causaría una disminución del valor real, a menos que el encargado del centro operativo decidiera aplicar solo el incremento de observación más cercano a la hora de análisis (el de 5 nudos). En 4D-VAR, la integración del modelo desplaza el primer incremento hacia el este con el frente, colocándolo en la posición correcta para indicar el error en el campo inicial a la hora de análisis.

Además, como la dinámica y la física del modelo rigen la evolución del incremento de observación, este afecta todas las demás variables del modelo y sus distribuciones espaciales. A partir de una covarianza de error de fondo uniforme como la que se utiliza en 3D-VAR, se desarrolla una covarianza de error de fondo dependiente del flujo que es coherente con la dinámica y la física del modelo para la situación en particular que se ha presentado.

Si volvemos a considerar el caso de la observación de aeronave sobre Nebraska, ¡podemos ver que la dinámica del modelo puede producir el máximo cambio en el campo inicial en un lugar que no es el sitio de la observación! En este caso, las correcciones teóricas al campo inicial sugieren que es posible que el modelo no haya previsto el movimiento vertical y el fuerte enfriamiento por precipitación de la lengua de aire cálido y seco en 850 hPa, lo cual es coherente con la imagen satelital. Los incrementos de análisis en 4D-VAR suelen presentar un mayor grado de detalle estructural, están mejor acoplados con todas las variables del modelo, incluido el movimiento vertical y las nubes y precipitación, y hacen un mejor uso de más observaciones de los mismos lugares con el tiempo, incluso las observaciones de los satélites geoestacionarios.

Incrementos de análisis 4D-VAR: Se recibe una observación de 19 °C en el sector cálido delante de un frente frío. La temperatura del campo inicial del modelo en este lugar es de 21 y 22 grados, aún más alta al sur, con un fuerte gradiente NW-SO al norte y al oeste detrás del frente frío. 4D-VAR cambia el campo inicial con un patrón paralelo pero aún delante del frente frío, con el cambio máximo donde el campo inicial es más cálido, al sur de la observación, en lugar de centrarlo en el punto de la observación.
Imagen satelital en el visible que muestra una amplia masa de convección en niveles medios delimitada al norte aproximadamente por el frente frío en 850 hPa del campo inicial del modelo y al sur por el aire muy caliente en 850 hPa indicado por el campo inicial.

Las limitaciones de 4D-VAR, relacionadas entre sí, son que requiere una enorme cantidad de potencia de cálculo, lo cual a menudo nos obliga a utilizar una resolución más gruesa en comparación con el modelo. Algunos estudios sugieren que las mejoras del pronóstico de mesoescala que se pueden atribuir al uso de 4D-VAR no se realizan plenamente si no se ejecuta 4D-VAR a la misma resolución que el pronóstico.

Centro Europeo de Predicción Meteorológica a Plazo Medio (CEPPM/ECMWF) viene utilizando 4D-VAR desde 1997, pero lo ha ejecutado siempre a una resolución más gruesa que la de sus pronósticos.

Incluso 4D-VAR está sujeto a problemas de errores del modelo. Por ejemplo, una deficiencia en la física del modelo producirá una evolución pobre de la covarianza del error de fondo, resultando en un análisis de baja calidad. Con toda probabilidad, estos tipos de errores producirán efectos complejos y difíciles de identificar, pero cabe sospechar la existencia de problemas en los mismos tipos de situaciones que a menudo contienen un error grande en el pronóstico.

Filtro de Kalman para conjuntos

Un filtro de Kalman es una alternativa más eficiente a los esquemas 3D-VAR y 4D-VAR, una vez que se conozcan las covarianzas, y puede determinar las covarianzas como parte del análisis mismo sobre la base de las observaciones, ¡incluso cuando estas contienen errores! No obstante, la capacidad de determinar las covarianzas solo se aplica a un sistema lineal (y la atmósfera no lo es) y las predicciones de covarianzas del filtro de Kalman requieren varios órdenes de magnitud de potencia de cálculo más que cualquier sistema de análisis jamás implementado antes. Para superar ambos problemas, los patrones de covarianza se calculan de forma estadística con predicciones por conjuntos. En un sistema perfecto de predicción por conjuntos, el error de pronóstico es proporcional a la dispersión del conjunto, de modo que se puede suponer que el patrón de error estimado para el campo inicial se asemeja a la dispersión del conjunto. En términos conceptuales, a menudo es así, aunque los cálculos reales con más complejos.

Por ejemplo, si los miembros del conjunto exhiben diferencias temporales para el paso de un frente, la media del conjunto presentará una región de gran dispersión de la temperatura, como es el caso en el mapa siguiente, así como una gran zona alargada de error estimado a lo largo de la posición media del frente en el campo inicial. La cruz celeste indica la posición de una observación en el sureste de Kansas (A) que indica que el campo inicial es demasiado cálido, y esto enfriaría el análisis principalmente a lo largo del frente (isotermas celestes), lo cual adelantaría la posición del frente en un análisis en comparación con el campo inicial. Además, el error más grande en el campo inicial que se supone cerca del frente obligaría el análisis a equilibrarse más hacia el lado de la observación que del campo inicial, es decir, haría una corrección más grande para un incremento de observación del mismo tamaño donde la incertidumbre en el campo inicial es mayor. En contraste, en las áreas donde la dispersión del conjunto es uniformemente pequeña, los cambios en el campo inicial son menores y no presentan un eje de orientación preferido, como se ilustra para un incremento de observación en Texas central (B).

Media y distribución del conjunto con incrementos de análisis superpuestos. La media y distribución del conjunto de un pronóstico de 6 horas para la temperatura en 850 hPa muestra un intenso frente frío en las altas planicies de NA con una amplia distribución de los miembros a lo largo del frente y poca distribución lejos del frente, sobre Texas. Los incrementos de análisis del filtro de Kalman para conjuntos de una observación en el SO de Kansas son alargados junto al frente, lo cual coincide con el área de gran distribución, mientras que los incrementos del análisis para una observación con incremento de  valor igual pero en Texas son circulares y de magnitud y al alcance menor.

El filtro de Kalman para conjuntos requiere la disponibilidad de predicciones por conjuntos y también se puede modificar fácilmente para perturbar todos los miembros del conjunto.

Uno de los principales factores limitantes es que los sistemas de predicción por conjuntos incluyen demasiados pocos miembros para ofrecer suficientes grados de libertad como para introducir toda la información necesaria para las covarianzas del error de fondo. Se obtienen pronósticos mejores a partir de análisis que combinan el filtro de Kalman con 3D-VAR o 4D-VAR.

El filtro de Kalman para conjuntos produce resultados pobres cuando una deficiencia del modelo es coherente en muchos o todos los miembros del conjunto, dando como resultado un error grande donde la dispersión del conjunto es pequeña. Por ejemplo, la existencia de un defecto particular de una parametrización física del modelo usada en todos o casi todos los miembros, las condiciones que inician el problema producirán errores similares en varios de los miembros del conjunto, y por eso la dispersión del conjunto será pequeña. Debido a una dispersión pequeña, el análisis dará menos peso a los incrementos de observación y no corregirá el campo inicial mucho en la zona problemática.

*Equilibrio entre las observaciones y el pronóstico

El objetivo del proceso de análisis es encontrar un punto de equilibrio entre las observaciones y el campo de fondo. Presentaremos la búsqueda de equilibrio entre las observaciones (O) y el pronóstico (P) mediante una serie de pasos que juntos determinan:

  • la medida en que el análisis (A) se acerca a los datos (O-A es pequeño para un buen ajuste);
  • la medida en que el análisis completa el área entre las observaciones (P-A es pequeño para conservar la estructura de fondo);
  • cómo se transfiere la información entre distintas variables (impone un equilibrio entre masa y viento);
  • cómo se puede ayudar al análisis contando con datos corroborantes en lugar de informes individuales aislados.

En realidad, estos pasos se ejecutan simultáneamente en el proceso de análisis y se aplican a los campos del incremento. Los incrementos de análisis resultantes se agregan luego al campo inicial para obtener los campos de análisis.

Procedimiento de análisis

Cada paso del proceso se cubre en las próximas páginas.

  • Paso 1: ajustar el análisis del campo de fondo hacia las observaciones
  • Paso 2: distribuir el ajuste del análisis para conservar la estructura del campo de fondo
  • Paso 3: equilibrar la información de las observaciones y el campo de fondo
  • Paso 4: enlazar las variables del análisis por limitación dinámica
  • Paso 5: repetir los pasos 1 a 3 para la segunda observación
  • Paso 6: repetir el paso 4 para la segunda observación
  • Paso 7: el análisis concilia los conflictos entre los resultados
  • Nota: efectos de cambiar el ajuste según las observaciones

 

*Paso 1

En este paso inicial, el análisis altera el campo de fondo para que se ajuste a la observación (el ejemplo utiliza una observación del viento en 250 hPa).

Paso 1 del análisis, ajustar el análisis del campo de fondo hacia las observaciones
  • El análisis comienza con el campo de fondo (los valores del pronóstico a corto plazo).
  • Esto significa que el término (2) equivale a cero (A=P).
  • El término (1) es la cantidad que paga el análisis por no ajustarse a la observación. Como el costo es muy alto, se empuja el análisis hacia la observación.
  • Para que se ajuste con exactitud a la observación, el análisis solo requiere cambios en la capa del modelo que contiene la observación.
  • Al ajustarse exactamente a la observación, esta tiene todo el peso, lo cual significa que el costo de desviar del campo de fondo se ha vuelto excesivo [el término (2) es muy grande]. Habrá que tratar de recobrar el equilibrio en el próximo paso.

*Paso 2

Paso 2 del análisis, distribuir el ajuste del análisis para conservar la estructura del campo de fondo

En este paso, el efecto de la observación se distribuye en la vertical para conservar la estructura del campo de fondo:

  • Como tras el paso 1 el término (2) quedó demasiado grande (es decir, se ha alejado del valor del análisis), el análisis debe volver a acercarse al campo de fondo.
  • Para hacerlo, en primer lugar es preciso restaurar su estructura vertical. El perfil del campo de fondo aquí ilustrado es uniforme (no irregular). Es esencial conservar la estructura del campo de fondo para mantener coherencia con el modelo y generar buenos pronósticos de PNT.
  • A fin de conservar la integridad del perfil del campo de fondo, se realizan correcciones similares en el campo de fondo, pero en lugar de limitarse al nivel de la observación estos cambios abarcan una serie de niveles. Esto tiene el efecto de distribuir el peso de la observación.
    • Utilizamos los patrones verticales de las estadísticas de errores del modelo para determinar el grado de similitud que hay que dar a las correcciones en los diferentes niveles. Por ejemplo, los errores en 250 hPa suelen estar asociados con errores similares en 200 y 300 hPa.
    • Si bien parece que el perfil del análisis se está alejando aún más del campo de fondo, en realidad al conservar la estructura del campo de fondo se reduce el término (2), el costo impuesto por desviar del campo de fondo. Esto ocurre como resultado de ciertos cálculos matemáticos complicados: el término (2) incluye productos de valores correspondientes a distintos niveles, como (P-A)p x (P-A)q, donde p y q representan diferentes niveles del modelo. Algunos de estos productos que implican pares de niveles distintos se multiplican por valores negativos, con lo cual el costo en el término (2) es negativo, y viene siendo más un premio o crédito que un costo. Este crédito es mayor (mejor) cuando el análisis aplica correcciones similares a una serie de niveles, conservando de ese modo la estructura del campo de fondo, en lugar de los valores de dicho campo. En el próximo paso veremos lo que hace el proceso para acercarse a los valores del campo de fondo.
    • El término (2) sigue siendo demasiado grande, porque típicamente el error esperado de un buen pronóstico es pequeño. Y el término (1) sigue siendo cero, porque el análisis aún acepta el valor de la observación. Por lo tanto, para encontrar el equilibrio tenemos que pasar el peso al campo de fondo y alejarlo de la observación.

*Paso 3

En este paso, seguimos buscando el equilibrio entre la información de la observación y la del campo de fondo.

Paso 3 del análisis, equilibrar la información de las observaciones y el campo de fondo
  • El perfil del análisis se desplaza de modo que el valor correspondiente al nivel de 250 hPa queda en algún punto entre el campo de fondo y la observación. Esto tiene en cuenta el error de observación y el error de fondo.
  • Los tipos de observaciones con errores más pequeños tienen más peso [el término (1) es más grande], de modo que el punto de equilibrio está más cerca de la observación.
  • Los campos del modelo que se pronostican con mayor exactitud tienen más peso [el término (2) es más grande], de modo que el punto de equilibrio está más cerca del campo de fondo.
  • El análisis itera una y otra vez hasta que logra encontrar el punto de equilibrio entre el peso de la observación y el peso del campo de fondo.
    • El punto de equilibrio está donde la «función de costo», que mide el costo total de no ajustarse a la observación y no conservar el campo de fondo, se minimiza.
  • Muchos niveles del modelo afectan el valor del análisis en 250 hPa, y en otros niveles, pero como solo estamos considerando una observación, el análisis se fuerza en gran medida hacia el perfil del campo de fondo. De contar con observaciones adicionales que indican la existencia de vientos más fuertes, por ejemplo en los niveles de 200 y 300 hPa, el perfil del análisis se acercaría a nuestra observación.

*Paso 4

Paso 4 del análisis, enlazar las variables del análisis por limitación dinámica
  • El análisis incluye una limitación dinámica para que los campos de masa y de vientos sean coherentes uno con otro, de forma que los cambios realizados en el análisis del viento obligan a hacer cambios en las temperaturas.
    • Esto también aparece en la función de costo como «deducción» cuando los campos son incoherentes (aunque no lo mostramos aquí para no complicar el ejemplo). Ahora que los vientos han cambiado, al minimizar la función de costo también se deben cambiar las temperaturas.
  • El vínculo masa-viento puede ser muy complejo. En este caso, sin embargo, hemos usado una simple relación de viento térmico.
    • Como muestra la figura, a la derecha del vector cizalladura la temperatura debe subir donde ha aumentado el esfuerzo cortante y bajar donde dicho esfuerzo ha disminuido.

*Paso 5

Ahora repetimos los pasos 1, 2 y 3 con otra observación (en este caso, se trata de una observación de temperatura en 500 hPa).

Paso 5 del análisis, considerar las observaciones de otras variables en otros lugares
  • El análisis debe ejecutar este proceso hasta que encuentre el equilibrio para todas las observaciones.
  • Si utilizamos una observación de temperatura en 500 hPa obtenida en el mismo lugar que el perfil de temperatura que fue alterado por la observación del viento en 250 hPa en el paso 4:
    • el análisis de temperatura responde a la observación de temperatura y ajusta el perfil de temperatura del campo de fondo mediante una serie de pasos, de forma análoga a como se reajustó el perfil del viento para la observación del viento.

*Paso 6

A continuación repetimos el paso 4 para la segunda observación.

Paso 6 del análisis, enlazar las variables del análisis por limitación dinámica
  • El calentamiento en el análisis producido por la observación de temperatura en 500 hPa requiere cambios en el viento del análisis.
  • La relación de viento térmico crea una cortante anticiclónica en los incrementos de análisis. La cortante anticiclónica corresponde a los cambios de altura asociados con la columna más caliente.
  • Estos cambios en los vientos afectan el perfil del viento del análisis en la posición de la primera observación, la observación del viento en 250 hPa.

*Paso 7

Después de todos los pasos anteriores, el análisis debe conciliar cualquier conflicto que surja a raíz de la comparación de las observaciones y las suposiciones de limitación dinámica asociadas de los dos lugares distintos.

Paso 7 del análisis, el análisis concilia los conflictos entre los resultados
  • La observación del viento en el primer lugar produjo correcciones en los vientos en ese sitio y correcciones de temperatura en otro lugar.
  • La observación de temperatura en el segundo lugar produjo un conjunto de cambios distintos al campo de fondo de temperatura en ese sitio y un conjunto de cambios distintos al campo de fondo de vientos en el primer lugar.
  • Ambas observaciones corrigieron el campo de fondo aumentando la velocidad del viento en el primer lugar y las temperaturas en el segundo, pero los detalles son diferentes. Esto es compatible con un error de pronóstico meteorológicamente coherente y buenas observaciones.
  • El análisis debe derivar un compromiso entre todas las observaciones y extraer toda la información posible de ellas.
  • El equilibrio se encuentra aplicando la función de costo simultáneamente a todas las observaciones y los campos de fondo, lo cual permite que el análisis:
    • maximice la cantidad de información útil que contienen las observaciones sobre la base de estadísticas conocidas de errores de observación y confiabilidad del modelo;
    • conserve las estructuras del campo de fondo en la mayor medida posible;
    • enlace las variables de masa y viento de modo que el pronóstico pueda retener la nueva información.

*Nota: efectos de cambiar el ajuste según las observaciones

Este último paso considera aún más la conexión entre las variables tomando en cuenta el efecto de haber cambiado el ajuste de la observación, por ejemplo modificando los valores de optimización (vea la página Optimización, más adelante) o cambiando la suposición de error de observación o de campo inicial (vea las páginas Suposición de error de observación y Suposición de error de fondo, más adelante).

Conexión entre las variables: ajuste de las observaciones del viento

Observe lo que sucede si se cambia el ajuste de la observación del viento.

  • Conforme cambia el perfil del viento, también cambia el perfil de temperatura enlazado.
  • En este caso, un ajuste más cercano a la observación del viento también lleva a un ajuste más cercano a la observación de temperatura.
Paso 8a del análisis, los cambios en las variables están enlazados dinámicamente para ajustarse a la observación del viento

Conexión entre las variables: ajuste de las observaciones de temperatura

  • De forma análoga, cuando se cambia el ajuste de la temperatura, el perfil del viento enlazado cambia también.
  • En este caso, un ajuste más cercano a la observación de temperatura lleva a un ajuste más cercano a la observación del viento.
Paso 8b del análisis, los cambios en las variables están enlazados dinámicamente para ajustarse a la observación de temperatura

Un conjunto de observaciones independientes de buena calidad que corroboran diferentes partes de la misma estructura meteorológica suele acercar el análisis a las observaciones más que cualquier observación individual. Considere la gran cantidad de conexiones generadas por tan solo dos radiosondeos, con efectos de análisis que se superponen en varios niveles distintos, cada uno de los cuales establece un enlace de temperatura y viento en ambos lugares. El análisis realiza una tarea de extraordinaria complejidad para extraer de todas las observaciones toda la información posible que el modelo puede aprovechar, sin perder la información útil del modelo.

*Suposiciones que afectan el análisis

Hay varios tipos de suposiciones que afectan en medida considerable el análisis:

  • suposiciones estadísticas
  • suposición de error de observación
  • suposición de error de fondo
  • suposición de restricciones de equilibrio

En las próximas páginas presentaremos cada tipo de suposición en detalle.

*Suposiciones estadísticas

Los errores de observación y de pronóstico empleados por el análisis para identificar el punto de equilibrio óptimo se basan en distribuciones estadísticas. Todos los días se lanza una radiosonda diferente, y cada una puede exhibir un error de instrumento ligeramente distinto. El error de pronóstico varía de un día a otro. Podemos trazar un histograma de estos errores para ver su distribución. El análisis se ve afectado por suposiciones acerca de la distribución. Típicamente, se supone que las distribuciones son normales (gaussianas) con una media de cero, ¡lo cual significa que estamos suponiendo que las observaciones y los modelos carecen de sesgos! La desviación estándar del error es el tamaño medio de los errores supuestos y el análisis utiliza este valor como error esperado. El uso de la desviación estándar contempla la posibilidad de un error más pequeño o más grande. Recuerde que se supone que la tercera parte de todos los errores excederán la desviación estándar.

Consecuencias de las suposiciones estadísticas

Las suposiciones afectan la medida en que el análisis se acerca a diferentes tipos de datos, cómo la información de las observaciones se distribuye en la vertical y horizontal y la relación entre los diferentes campos del análisis.

Debido a que hace uso de un solo conjunto de suposiciones para todas las situaciones, el análisis:

  • funciona bien para los casos más comunes;
  • no es confiable para eventos extremos;
  • no es capaz de distinguir entre diferencias de funcionamiento del modelo en regímenes de gran escala distintos;
  • no es capaz de distinguir entre diferentes condiciones locales, como frentes con vientos intensos y fuerte deformación, condiciones estancadas, brisas marinas fuertes o débiles, o una inversión frontal frente a una capa de mezcla profunda.

*Suposición de error de observación

  • Hay dos fuentes de error de observación: el error de instrumento y el error de representación (lea la explicación sobre errores de representación, en la sección Incremento de observación).
  • El error de instrumento se conoce bien y está cuantificado para muchos tipos de observaciones.
  • El error de representación no se conoce tan bien. Si el manejo de determinado tipo de observación parece causar problemas en el análisis o pronóstico, su influencia se puede reducir mientras aún se usan los datos aumentando el error de representación supuesto.
    • El error de representación debería ser una función de la resolución del modelo: debería reducirse conforme la escala de las estructuras que el modelo puede resolver coincida con la escala de los fenómenos que contribuyen a los valores de observación. En la práctica, es posible que esto no se tenga en cuenta.
    • El error de representación debería variar según la situación meteorológica, de acuerdo con la amplitud y la escala de los distintos fenómenos que pueden contribuir a las lecturas observadas. En la práctica, tener estos factores en cuenta implica identificar errores de observación que dependen de cada caso individual, algo que no sabemos hacer.
  • El análisis combina ambas fuentes de error en un único número denominado «error de observación».
  • Los errores de observación como, por ejemplo, las radiancias medidas por satélite en diferentes lugares, se correlacionan porque las diferentes observaciones del mismo instrumento pueden presentar errores similares.
    • Para el mismo error de observación, el efecto de las observaciones se reduce cuando se supone un error correlacionado. Esto tiene sentido, ya que el análisis debería tender más hacia un agrupamiento de valores de vientos obtenidos por diferentes aeronaves que hacia una serie de lecturas de vientos del mismo avión, ya que todas pueden tener errores similares.

*Suposición de error de fondo

El error de fondo se basa en estadísticas de rendimiento del modelo.

  • Si el modelo se desempeña de manera distinta de lo normal en situaciones como la actual, es posible que la suposición de error de fondo sea inadecuada.
  • Es posible que las estadísticas de error del modelo se hayan suavizado o promediado zonalmente, de modo que ya no correspondan con lo que cabe esperar como patrón típico de error del modelo. Esto significa que en lugar de tener en cuenta las diferencias de rendimiento del modelo a nivel regional o local, el análisis usa los mismos valores en el medio entre las observaciones y el campo de fondo en lugares distantes con condiciones disímiles.

El error de fondo se compone de dos partes:

  • Error de fondo en un punto: esto afecta la medida en que el análisis está atado a los valores del campo de fondo. Si normalmente el modelo es muy exacto, el análisis anticipa que solo hacen falta ajustes menores.
  • Correlación del error de fondo en puntos distintos (covarianza).

Si los errores del modelo en un lugar suelen estar asociados con un error en otro lugar, una corrección al campo de fondo en aquel lugar implica la necesidad de realizar una corrección en este también. Utilizamos la covarianza de error de fondo para diseminar la información de las observaciones a las alturas circundantes (como ilustra la secuencia de pasos del análisis de la sección Funcionamiento de 3D-VAR) y en sentido horizontal a las áreas vecinas, como se ilustra en este ejemplo gráfico.

Uso de las estadísticas de error de pronóstico para extrapolar correcciones en una región sin datos: ejemplo de alturas del nivel de 500 hPa

Con frecuencia, la suposición típica que la información de una observación se puede distribuir de manera uniforme en todas las direcciones es inadecuada. Por ejemplo, no sería correcto distribuir una corrección de humedad en niveles bajos al otro lado de una línea seca o diseminar la corrección de vientos en altura tanto arriba de la tropopausa como debajo de ella.

*Suposición de restricciones de equilibrio

Si el análisis cambia solamente el campo de vientos del modelo o el campo de masa del modelo, se perderá el equilibrio entre esos campos en el modelo. La dinámica forzará los campos del modelo hacia una redistribución de la masa y los vientos que no se parecerá ni al campo inicial original ni a las versiones corregidas, se perderá la información agregada por el análisis y se perjudicará el pronóstico. Por lo tanto, los cambios del análisis en el campo de vientos deben estar acompañados por cambios correspondientes en el campo de masa y viceversa.

  • El enlace masa-viento se logra suponiendo ciertas restricciones de equilibrio, las cuales pueden ser simples (limitar el análisis en situaciones de dinámica potente) o muy complejas.
  • En la mayoría de los sistemas de análisis, el enlace masa-viento se impone de forma poco rigurosa (agregando a la función de costo) en lugar de establecerse un requisito estricto.
  • Las restricciones de equilibrio pueden ser problemáticas a muy alta resolución, porque obligan el análisis a omitir ciertas estructuras de interés, entre las cuales se incluyen estructuras potencialmente considerables como las ondas de gravedad y las corrientes de densidad (o un componente del movimiento de la corriente de densidad). No obstante, no incluir una restricción de equilibrio podría tener un efecto igual de negativo en el pronóstico, si no más.
  • También se puede emplear un procedimiento de inicialización para crear condiciones iniciales equilibradas para el pronóstico del modelo, pero si el análisis dista del balance que requiere el procedimiento de inicialización, se perderá información del análisis. Por lo tanto, es mejor por lo menos acercarse al estado deseado durante el análisis.

*Por qué algunos tipos de datos no son tan útiles como otros

Todos los tipos de datos brindan alguna ventaja y tienen ciertas limitaciones. Esta lista, que no pretende ser exhaustiva, incluye varios tipos de datos importantes. Las ventajas y/o limitaciones de cada tipo de datos se presentan en las páginas que siguen.

  • Datos de masa y vientos de varios niveles juntos (perfiles de ascenso y descenso de radiosondas y del sistema ACARS)
  • Datos de masa y vientos de un solo nivel juntos (datos ACARS de nivel de crucero)
  • Observaciones de superficie
  • Observaciones satelitales de temperatura y humedad (promedios para una capa)
  • Observaciones satelitales del viento
  • Datos de nubes y precipitación de satélites y radar
  • Observaciones de alta resolución

*Tipo de datos: datos de masa y vientos de varios niveles juntos (perfiles de ascenso y descenso de radiosondas y del sistema ACARS)

Ventajas

  • La estructura vertical profunda y los datos combinados de masa y vientos permiten efectuar los cambios más coherentes en los campos de fondo y acumular correctamente las estructuras ageostróficas, como las corrientes en chorro acopladas en la troposfera superior e inferior.
  • Sin lugar a duda, estas correcciones son las que mejor se conservan en el pronóstico del modelo.

*Tipo de datos: datos de masa y vientos de un solo nivel juntos (datos ACARS de nivel de crucero)

Ventaja

  • Combinar los datos de masa y vientos permite incluir parte de las circulaciones ageostróficas observadas (no se pueden inferir adecuadamente utilizando solo los datos de masa o de viento).

Limitación

  • La necesidad de suponer la distribución vertical de la información causa ciertos problemas; por ejemplo, estos datos no permiten elaborar plenamente una estructura frontal profunda.

*Tipo de datos: observaciones de superficie

Limitaciones

  • Se precisan datos adicionales para obtener la estructura vertical. Por ejemplo, no hay ninguna buena forma de inferir la estructura tridimensional asociada con una presión en la superficie menor de lo previsto; el resultado es que el efecto de los datos desvanece durante el pronóstico.
  • El análisis 4D-VAR ayuda enormemente, porque permite que el modelo elabore una estructura completa dinámicamente coherente que se puede retener mucho mejor en el pronóstico. (4D-VAR tiene un costo, sin embargo: requiere recursos computacionales monumentales).
  • Puede dañar la estructura de la capa límite en el modelo, si no se tiene cuidado. Las observaciones de aire frío atrapado en valles pueden resultar particularmente difíciles de usar, porque revelan poco acerca de la atmósfera suprayacente.
  • Implica hacer ciertas suposiciones acerca de la relación con los valores en la capa inferior del modelo, que puede ser un promedio para un nivel de 20 metros o más de profundidad. ¿Cuál es la relación cuantitativa exacta entre el viento de superficie y el viento medio en los 30 metros inferiores? Tales preguntas plantean un problema a la hora de corregir los campos de fondo del modelo con los datos de superficie.
  • Las estaciones de superficie pueden estar a alturas distintas de las de la topografía del modelo, lo cual causa problemas para todas las variables observadas, pero especialmente en términos de la presión en la superficie.

*Tipo de datos: observaciones satelitales de temperatura y humedad (promedios para una capa)

Limitaciones

  • Sólo utiliza datos de masa, lo cual significa que los vientos asociados se deben inferir.
  • Toda la radiación detectada proviene de una capa profunda de la atmósfera, de modo que la resolución vertical es más gruesa que la resolución vertical del modelo.
    • Este problema disminuirá enormemente cuando los interferómetros tomen el lugar de los radiómetros. Para el satélite GOES, esto no sucederá al menos hasta el GOES-S.
  • Las radiancias o sondeos de microondas solo resuelven unas pocas capas de la troposfera. No distribuir adecuadamente en la vertical esta información de promedio de una capa muy gruesa puede degradar el pronóstico del modelo.
  • Para la asimilación exacta de las radiancias medidas por satélite, es preciso conocer la emisividad en el fondo de la capa que se detecta. Esto presenta problemas sobre tierra firme, y hasta que se desarrollen mejores modelos de emisividad de la superficie, los datos sobre el suelo solo son confiables para los canales que detectan la troposfera superior y la estratosfera.

*Tipo de datos: observaciones satelitales del viento

Limitaciones

  • Se trata únicamente de datos de vientos, lo cual significa que los cambios de masa asociados se deben inferir.
  • Los datos abarcan un único nivel en un lugar dado, de modo que la estructura vertical no está disponible.
  • Es posible que la asignación de altura de la observación no sea extremadamente precisa. Cuando la cizalladura es fuerte, la asignación de un valor perfecto de velocidad y dirección del viento al nivel incorrecto puede producir un error muy grande. Aunque la asignación de altura ha mejorado mucho desde los días en que comenzó a despertarse el interés en las observaciones satelitales del viento, las observaciones del viento de aeronaves siguen siendo mucho más exactas.

*Tipo de datos: datos de nubes y precipitación de satélites y radar

Ventajas

  • Se pueden utilizar para identificar dónde en el modelo hay que eliminar nubes y precipitación cuando se pronostican incorrectamente y dónde agregarlas cuando el pronóstico no las detecta. Esto puede constituir un aporte muy importante al pronóstico.
  • La precipitación observada se puede utilizar para mejorar la humedad del suelo en el modelo.

Limitaciones

Es preciso realizar muchas inferencias difíciles para completar el panorama de nubes y precipitación. Por ejemplo:

  • Los campos de humedad el modelo se deben ajustar, ¿pero cuánto y en qué niveles?
  • ¿Cuánta agua se debe agregar a las nubes y cómo debe distribuirse?
  • Si el modelo contiene varios tipos de hidrometeoros, ¿cómo separar el agua de las nubes?
  • Los movimientos verticales se deben ajustar para guardar coherencia con el forzamiento diabático,
    • y por consiguiente es preciso crear una circulación ageostrófica completa o posiblemente eliminar tal circulación, si hay que quitar las nubes o precipitación.

Soluciones

Para insertar información acerca de las nubes y la precipitación, es preciso asegurar la inclusión de información fidedigna sobre el calentamiento y los movimientos verticales y patrones de convergencia y divergencia asociados, ya que en caso contrario la información agregada puede conducir a desequilibrios que provocan la evolución incorrecta del pronóstico. Cuando se hace este trabajo correctamente, se aporta gran beneficio a la fase inicial del pronóstico, pero por bien o mal que se haga, en promedio no cabe esperar mucha mejora después de las primeras 12 horas.

  • En el año 2008, el modelo RUC (el futuro Rapid Refresh) de NCEP implementó una inicialización con filtro diabático que utiliza datos de reflectividad radar para generar perfiles de liberación de calor latente; el calor latente se libera durante un período de prueba del pronóstico, y luego se aplica un filtro temporal para generar campos equilibrados. El resultado de este modo de proceder son patrones de velocidad vertical y convergencia que evolucionan de manera uniforme y coherente con la precipitación observada, lo cual mejora enormemente el pronóstico de precipitación y de todas las variables durante las primeras 3 horas del pronóstico, aunque después de 12 horas solo quedan leves rastros de esas mejoras. Encontrará más detalles en este artículo, presentado en una conferencia: ams.confex.com/ams/pdfpapers/123697.pdf.

*Tipo de datos: observaciones de alta resolución

También surgen problemas cuando la densidad de observación es mucho mayor que la resolución del modelo (p. ej., ciertas observaciones satelitales y de radar). Los dos problemas principales son:

  • diferencias de representación entre la observación y el modelo;
  • grandes cantidades de observaciones muy cercanas entre sí que empujan el análisis hacia los valores observados, aunque todos pueden contener el mismo error grande (como ocurre cuando se asigna un grupo de vientos medidos por un satélite al nivel incorrecto).

Los efectos de estos problemas se pueden aliviar de las siguientes maneras:

  • reducir la densidad escogiendo unas cuantas observaciones, o bien
  • reducir la densidad y hacer que la representación de las características sea más compatible con la escala del modelo usando solo un promedio de las observaciones cercanas, en lugar usar cada observación individual. Esta media se denomina superobservación.

Para utilizar las observaciones de alta resolución de forma eficaz, se debe diseñar el análisis para permitir intercambios de pequeña escala con el campo inicial. Si las covarianzas del error de fondo son demasiado amplias, las observaciones de alta resolución no agregarán ninguna estructura de pequeña escala al análisis y este representará de forma muy distorsionada los fenómenos de pequeña escala resueltos por las observaciones.

*Inclusión del proceso de rechazo de datos en la fase de análisis («CC variacional»)

En realidad, el análisis se ejecuta en forma de una serie de iteraciones. Cada iteración es una conjetura cada vez más acertada de la combinación de cambios al campo de fondo que tiene en cuenta todos los distintos factores de la función de costo.

Un método ingenioso de manipular el control de calidad consiste en no rechazar las observaciones de entrada, sino volver a evaluar los valores atípicos tras cada iteración del análisis.

  • Los datos dudosos se ignoran al comienzo asignándoles un error de observación grande.
  • Si otros incrementos de observación mueven el análisis hacia el incremento de observación dudoso, es posible que deje de ser un valor atípico en una iteración posterior. A continuación se puede utilizar en el análisis (con el error de observación estándar para ese tipo de observación).

Esto significa que:

  • es menos probable que se descarten las observaciones de buena calidad si se corroboran mediante incrementos de observación circundantes; pero,
  • es más difícil determinar cómo se usan los datos, porque las observaciones atípicas no se incluyen como rechazadas y no ejercen atracción.

El método de control de calidad no lineal se introdujo en algunos análisis del NCEP en el año 2000. En 2009, se utilizaba en el análisis GFS y se estaba desarrollando una versión para el análisis NAM.

*Optimización

La optimización (tuning, en inglés) del sistema de análisis tiene como fin perfeccionar el rendimiento del pronóstico. La optimización puede cambiar la importancia relativa de los diferentes componentes del análisis, como el grado de ajuste de la temperatura o humedad al campo de fondo, y la distancia a la cual la observación de temperatura ejerce su influencia (la distancia de correlación). Los cambios de optimización pueden alterar el carácter general del análisis (incluso su grado de equilibrio dinámico y coherencia con el modelo) sin perjudicar su tratamiento estadístico detallado de los campos de observación y de fondo. Esto afecta profundamente la precisión del pronóstico e incluso la naturaleza de los errores característicos del modelo. Cuando escuche hablar de cambios de optimización, ¡recuerde que el modelo puede dar resultados distintos de lo que se espera!

La optimización:

  • no afecta el manejo distinto de las diferente fuentes de datos para la misma variable (como temperaturas de aeronave, temperaturas de radiancias medidas por satélite, temperaturas de radiosonda y temperaturas superficiales);
  • no afecta las limitaciones fundamentales del proceso de análisis, incluidas las suposiciones de las estadísticas de error utilizadas;
  • implica establecer los parámetros de acuerdo con estadísticas de rendimiento del modelo; solo se hacen cambios de optimización importantes en el momento de implementarse características importantes del modelo.

La optimización utiliza multiplicadores en la función de costo para cambiar:

  • la influencia de todas las observaciones respecto del campo de fondo;
  • el grado en que se imponen las restricciones de equilibrio;
  • la distancia horizontal y vertical de distribución de la influencia.

Estos cambios pueden ser mayores o menores según la variable del análisis. Por ejemplo, se pueden ajustar las temperaturas más de cerca de las observaciones sin cambiar directamente la manera de manejar los vientos (aunque los vientos se ven afectados indirectamente por las limitaciones dinámicas).

Sugerencias operativas

Sugerencias para las observaciones: evaluación de la calidad de un análisis

Los sistemas de asimilación de datos empleados en los principales centros de modelado operativo a menudo funcionan muy bien, especialmente en situaciones meteorológicas comunes, de modo que hay que juzgar la calidad del análisis de un modelo con cuidado.

  • El análisis tiene como fin optimizar la exactitud del pronóstico, no ajustarlo a los datos. No descarte un pronóstico solo porque no se ajusta perfectamente a las observaciones, especialmente si su experiencia indica que a menudo ese grado de ajuste produce un buen pronóstico. Busque coherencia a lo largo de una serie de ciclos de análisis. La experiencia sugiere que optimizar el análisis para que se ajuste más a las observaciones de lo que justifican las estadísticas de error puede reducir la exactitud del pronóstico.
  • El análisis operativo de NCEP utiliza muchos datos a los cuales no todos tenemos acceso y que muchos no tenemos tiempo de examinar. Esto incluye miles de observaciones de vientos de aeronaves, que se consideran más exactas en los niveles de 200 a 300 hPa que los vientos detectados por radiosondas y muchos de los datos satelitales de radiancia. No debemos suponer siempre que el análisis es incorrecto simplemente porque no podemos verificarlo con los datos que tenemos a mano.
  • Cuando el modelo funciona bien, el uso de campos de fondo en el análisis es una enorme ventaja. Los problemas ocurren principalmente cuando el modelo pasa por un período de ciclos de baja calidad, de modo que esos son los momentos que requieren más atención.

No obstante, en ciertas circunstancias el sistema de análisis tiene varios puntos de fallo, que se enumeran en las tablas de las páginas siguientes.

Desgraciadamente no hay mucho que se pueda hacer para simplemente ajustar un pronóstico del modelo cuando el análisis no es bueno. Incluso cuando resulta posible introducir ajustes razonables en el análisis, es probable que el pronóstico siga evolucionando de forma no lineal y compleja. Lo más importante es prestar atención a situaciones en las que es más probable que el sistema de asimilación falle y fijarse siempre en las observaciones, especialmente cuando indican un desarrollo distinto de los previsto. Es muy útil examinar los cambios de un ciclo de ejecución a otro en dprog/dt para identificar cuando un análisis es de escasa calidad (el análisis actual, el análisis previo o incluso ambos).

Compensar un análisis incorrecto: antecedentes de vacío de datos

Antecedentes
de vacío de datos
Cómo evaluar Cómo ajustar el análisis

¿Tiene la estructura meteorológica antecedentes de ausencia de ciertos tipos de información? ¿Puede usted "ver" información más útil que los tipos de datos que están entrando en el modelo?

Ejemplo: Un ciclón del Pacífico sin buenas observaciones de temperatura porque no se usaron las radiancias IR en regiones nubladas.

Lea la explicación sobre Antecedentes de vacío de datos, más adelante.

  • Entienda las limitaciones del sistema de observación:
    • ¿En qué condiciones no están disponibles ciertos tipos de observaciones?
    • ¿Se trata de observaciones de uno o varios niveles?
    • ¿Representan las observaciones promedios de una capa profunda que brindan poca estructura vertical?
  • Manténgase alerta de la falta o no disponibilidad de los datos:
  • Siga las estructuras meteorológicas para ver si se ha producido un vacío de datos.
    • Informe a los encargados del próximo turno para mantener la continuidad.
  • Considere la intensidad, posición, inclinación de fase, etc. del sistema de acuerdo con sus herramientas de observación (satélite, radar, etc.).
  • Reconozca las limitaciones de sus herramientas (por ejemplo, una secuencia de imágenes de vapor de agua muestra una capa centrada en 400 hPa).
  • Recuerde que aun cuando las observaciones fidedignas comiencen a detectar una estructura, Habrá que efectuar ajustes porque la corrección plena del error del modelo llevará varios ciclos de análisis.

Antecedentes de vacío de datos (usted ve datos que el modelo no detecta): el modelo no usa las radiancias infrarrojas medidas por satélite en áreas nubladas. Para un gran ciclón acompañado por una masa nubosa extensa que atraviesa el Pacífico, solo se utilizan observaciones de temperatura de microondas de resolución baja. Es posible que hayan pasado varios días desde la última vez que una radiosonda lo haya muestreado, sobre Asia.

Los datos satelitales de microondas solo pueden resolver una cuantas capas de la troposfera, de modo que incluso si pudieran mejorar enormemente un error grande de pronóstico, su uso destruiría las estructuras dinámicas verticales y horizontales acopladas y, de darle mucha influencia, acabaría degradando el pronóstico. Unas pocas observaciones de superficie, unas series de lecturas del viento a nivel de la tropopausa obtenidas por aeronaves y algunos grupos de vientos derivados del movimiento de las nubes no permite "inferir" correctamente suficiente información a través de la mayor parte de la troposfera para mantener el ciclón del modelo alineado con la realidad. Puede averiguar más sobre el ciclón examinando una serie de imágenes satelitales que el modelo puede "ver" con todos los datos que recibe.

Compensación de un análisis incorrecto: campo inicial incorrecto

Campo inicial incorrecto Cómo evaluar Cómo ajustar el análisis

¡La suposición fundamental del análisis es que el campo inicial es correcto!

  • Es posible que se rechacen datos necesarios para corregir un campo inicial muy incorrecto.
  • Los problemas ocurren con mayor frecuencia cerca del límite menor de escalas de resolución del modelo.

Lea la explicación sobre Persiste en el ciclo siguiente, más adelante.

Compare el pronóstico a corto plazo anterior con los datos de radar, satélite y otras observaciones a la hora de análisis. (Por ejemplo, compare el pronóstico de 6 horas del ciclo de las 18 UTC con las observaciones de las 00 UTC para evaluar el campo inicial de las 00 UTC.) Fíjese en cualquier mensaje del meteorólogo de turno para ver si indica que algunos datos tardío entraron en el ciclo de análisis (esto podría mejorar el campo inicial frente al último pronóstico a corto plazo disponible en AWIPS).

Busque posibles problemas de análisis donde las imágenes y observaciones parecen discrepar del pronóstico a corto plazo.

¿Faltan del análisis algunas estructuras que el modelo puede resolver? (Por ejemplo, la intensidad de una onda corta embebida.)

Contémplelas en su pronóstico. Fíjese en cómo se manejan en otros modelos.

¿Conserva el análisis estructuras espurias del campo inicial o deja de corregir la posición, intensidad o estructura de los errores del campo inicial?

Descarte las estructuras espurias y ajuste las demás. Compare con otros modelos.

Cuando el modelo genera un pronóstico a corto plazo no acertado, es posible que el ciclo de asimilación siguiente tome el camino equivocado de entrada. Es más, esto viola la suposición de que el pronóstico a corto plazo es correcto y puede provocar el rechazo de datos cruciales que se necesitan para poner el pronóstico en el camino correcto. Incluso cuando el modelo produce un buen pronóstico a gran escala, los errores de escala menor, pero resolubles (como cuando un modelo regional no detecta la intensidad de una onda corta embebida o un modelo global predice un huracán espurio), causarán problemas de manejo de datos en estas regiones pequeñas de error grande. A menudo los problemas abarcan escalas demasiado pequeñas para observarse bien, pero lo suficientemente grandes como para que el modelo las pueda predecir.

Compensación de un análisis incorrecto: rechazo de datos válidos

Rechazo de datos válidos Cómo evaluar Cómo ajustar el análisis

Es posible que ciertos datos válidos se rechacen o ejerzan poca influencia incluso si el campo inicial es bueno. Estas son algunas condiciones susceptibles:

  • desarrollo rápido
  • estructura pequeña en flujo veloz
  • gradientes muy fuertes
  • datos aislados en una región con pocos datos

Lea la explicación sobre Rechazo de datos correctos: factores coadyuvantes.

¿Indican las observaciones y su parecer actual sobre el pronóstico alguna de estas situaciones?

  • Una ventana temporal de datos corta mejora las primeras dos condiciones.
  • Un análisis realizado en coordenadas isentrópicas puede mejorar la tercera, especialmente en el caso de humedad.

Compare las observaciones y el análisis. Es probable que haya que aumentar la amplitud o intensidad del gradiente.

Una estructura meteorológica observada es demasiado pequeña para que el modelo la pueda resolver.

Lea la explicación sobre Rechazo de datos correctos: estructura demasiado pequeña, más adelante

Los datos confiables que representan esta estructura no se deben usar en el análisis de modelo.

  • El análisis podría intentar representar estos tipos de estructuras, pero si lo hace serán demasiado grandes.

Si la estructura se incluye en el análisis, con toda probabilidad no se pronosticará correctamente. Quizás convenga ignorar la guía del modelo acerca de esa estructura.

Es posible que ciertos datos válidos se rechacen o ejerzan poca influencia si se producen errores al interpolar los campos del modelo con la hora y el lugar de la observación. Esto significa que incluso una observación perfecta y un pronóstico perfecto pueden dar un incremento de observación grande. Esto es más probable en las condiciones siguientes:

  • Rápido desarrollo y evolución no lineal con el tiempo.
  • Estructuras pequeñas en flujo veloz, por ejemplo, una estructura meteorológica que se desplaza a razón de una fracción grande de su longitud en la ventana temporal de los datos.
  • Gradientes muy fuertes. Un pequeño error de posición en el pronóstico produce un error grade de vientos, temperatura o humedad. Una observación individual en la zona estrecha en la cual el pronóstico tenía la masa de aire incorrecta parecería un valor atípico y no se usaría.
  • Datos aislados en una región con pocos datos. Si el pronóstico contiene errores grandes pero solo hay una observación que indique una discrepancia, podría quedar marcada como valor atípico.

Las observaciones correctas de estructuras demasiado pequeñas para que el modelo pueda resolverlas correctamente deberían rechazarse. Si el modelo trata de incluir tales observaciones (por ejemplo, si un modelo global incluye una observación de frente de racha en la superficie o una observación de mesovórtice convectivo), el modelo la utilizaría para desarrollar una estructura de escala demasiado grande para la realidad que corrompería el pronóstico.

Compensación de un análisis incorrecto: violación de las suposiciones del análisis

Violación de las
suposiciones del análisis
Cómo evaluar Cómo ajustar el análisis

El análisis supone que las estadísticas de error de pronóstico anticipadas son apropiadas para el tiempo del día de hoy.

Lea la explicación sobre Violación de las suposiciones del análisis: evento poco común, más adelante

¿Está la intensidad o amplitud del régimen a gran escala fuera de lo normal?

Es posible que el análisis se acerque demasiado o que no se acerque lo suficiente a su campo inicial. Es imposible saber cómo ajustarlo. Preste atención a las imágenes satelitales y otras observaciones.

Podemos dar por sentado que los datos ejercen influencia a distancias muy grandes. Es posible que las correcciones acertadas en zonas con muchos datos se extrapolen incorrectamente a zonas contiguas donde hay pocos datos.

Lea la explicación sobre Violación de las suposiciones del análisis: zona sin datos cercana, más adelante

¿Hay una zona con pocos datos dentro de unos cientos de km de una zona con muchos datos, por ejemplo, sobre las aguas del mar?

Compare el análisis con las imágenes satelitales en la zona con pocos datos y realice cualquier ajuste que sea apropiado.

Se supone que el efecto de los datos se distribuye (en la vertical y horizontal) con cierta regularidad, típicamente:

  • en forma oval a través de una sección vertical, sin tener en cuenta la estabilidad;
  • en forma circular a través de una sección horizontal, sin tener en cuenta la deformación y los patrones alargados;
  • es posible que los métodos de análisis adaptativos, como 4D-VAR, tengan en cuenta algunas de estas estructuras.

Lea la explicación sobre Violación de las suposiciones del análisis: estructuras asimétricas, más adelante

Busque las estructuras que típicamente se ven afectadas, como:

  • gradientes verticales intensos que afectan la estabilidad, como las inversiones y la tropopausa;
  • estructuras muy asimétricas y alargadas en sentido horizontal y fronteras abruptas.
  • Es posible que el análisis deje ciertas estructuras poco claras. Es difícil indicar cambios específicos, ya que en muchos puntos de malla del modelo se superponen los efectos de muchas observaciones.
  • Preste atención a las observaciones, pero recuerde que el análisis no debe representar las estructura con mayor nitidez de lo que se pueda retener en el pronóstico del modelo.

Las correcciones de los vientos y las temperaturas están enlazadas por una suposición de restricción de equilibrio. Algunas son mejores que otras y ninguna es siempre correcta.

Lea la explicación sobre Violación de las suposiciones del análisis: flujo ageostrófico, más adelante.

Entre las situaciones que presentan el mayor potencial de problemas cabe mencionar:

  • desarrollo explosivo
  • extensa convección vigorosa a la hora del análisis
  • intenso flujo ageostrófico, como vaguadas y dorsales muy curvadas

Entienda las restricciones de equilibrio empleadas y los tipos de condiciones que las violan.

Preste particular atención a las observaciones de intensos vientos ageostrófico y divergentes.

El análisis depende de las estadísticas de error de pronóstico del modelo obtenidas de una muestra grande, en la cual los eventos poco comunes o extremos no están bien representados. Las estadísticas de error de pronóstico se recopilan relacionando los errores entre todos los posibles pares de puntos de malla a lo largo de determinado período. El régimen actual puede producir un patrón de errores del modelo muy diferente del que anticipa el análisis, algo que afectará la medida en que el análisis se acercará a su propio campo inicial. Los métodos de análisis que dependen del flujo, como el filtro de Kalman para conjuntos, son menos sensibles a este efecto.

Hay una zona sin datos (vacío de datos) junto a una zona con muchos datos, por ejemplo, el océano Pacífico y la costa de Chile. Supongamos que todas las ondas tienen una longitud de 1000 km y que los pronósticos a corto plazo tienen un pequeño error de fase aleatorio. Si cambiamos ligeramente la posición de la onda en el pronóstico, ocurrirá lo siguiente:

  • Cuando se pronostica un movimiento demasiado lento para la onda, todas las alturas serán demasiado altas (por lo tanto las correcciones serán negativas) al este de la vaguada y demasiado bajas (correcciones positivas) al oeste de la vaguada (escenario de error A en la figura).
  • Cuando se pronostica un movimiento demasiado rápido para la onda, se observa el patrón de error opuesto (escenario de error B en la figura).
Uso de las estadísticas de error de pronóstico para
extrapolar correcciones en una región sin datos: ejemplo de alturas del nivel de 500 hPa

En términos generales, los errores de altura en un lado de la vaguada son todos del mismo signo, que es el opuesto del de los errores del otro lado. Esto significa que el error en un lugar está relacionado con el error en otros lugares a lo largo de una distancia de 1000 km. Este tipo de relación entre las estadísticas en diferentes lugares se denomina covarianza. Cuando las observaciones indican la necesidad de realizar una corrección en un sitio, el análisis utiliza estas estadísticas para inferir una corrección en otros. Las verdaderas covarianzas de error de pronóstico empleadas son más complejas, pero el resultado es que una corrección sobre la zona con muchos datos produce correcciones sobre la zona contigua con pocos datos que pueden ser inapropiados. Tenga presente, sin embargo, que para el análisis esta es la mejor forma de proceder: el hecho de no introducir ninguna corrección en la zona sin datos a menudo sería peor que aplicar estas inferencias basadas en características de error conocidas del modelo.

Se hacen suposiciones simples que afectan cómo se distribuye el efecto de una observación en sentido horizontal y vertical a lugares contiguos. En el futuro, es posible que algunas de estas suposiciones sean más realistas y más específicas para la situación.

La conexión entre las condiciones en un nivel de altura y otro deberían realmente depender de la estabilidad, pero normalmente este factor no se tiene en cuenta y las correcciones acaban extendiéndose al otro lado de la tropopausa (lo cual es físicamente incorrecto). De forma análoga, cuando el efecto de la observación se distribuye en la horizontal, se suele suponer que es igual en todas las direcciones y bajo todas las condiciones, pese a que las verdaderas propiedades atmosféricas son dispersadas y deshiladas por los campos de deformación. Las propiedades acaban alineándose con el flujo de manera poco uniforme. Esto significa que una corrección al campo inicial debería ser más profunda en una capa mezclada elevada que en una zona frontal estable y debería poderse aplicar a regiones corriente arriba y corriente abajo, pero no tanto a través del flujo.

Al distribuir las correcciones en todas las direcciones de manera uniforme, el análisis puede debilitar gradientes donde deberían intensificarse y viceversa. Como el análisis utiliza tantas observaciones cuyos efectos se superponen mutuamente al distribuirse en sentido vertical y horizontal, resulta imposible decir en términos generales cómo se vería el análisis si se utilizaran suposiciones de distribución más realistas. Es probable que los problemas principales surjan en situaciones que se beneficiarían de una distribución muy asimétrica o limitada a distancias cortas, como en el caso de un flujo veloz, patrones muy dispersos, inversiones intensas y fronteras entre masas de aire.

El esquema 4D-VAR puede tener estas situaciones en cuenta si el análisis se ejecuta con un grado de resolución suficiente. El filtro de Kalman para conjuntos también puede verse limitado por la resolución, porque los conjuntos suelen ejecutarse con una resolución relativamente baja. El esquema 3D-VAR anisotrópico puede dar mejores resultados en las situaciones relacionadas con el parámetro usado para estirar las covarianzas, por ejemplo, un patrón de ondas cortadas que produce filamentos de vorticidad puede responder bien a las covarianzas estiradas a lo largo de las líneas de corriente.

Una observación de una variable (como el viento) puede provocar correcciones en otra (como la temperatura) debido a limitaciones de balance dinámico (como el viento térmico). Ninguna de las varias limitaciones dinámicas empleadas es apropiada en todas las situaciones.

La región donde la variable limitada (por ejemplo, la temperatura) se ve afectada viene determinada por el lugar donde se supone que la variable observada (por ejemplo, el viento) se distribuirá a los puntos circundantes. Por lo tanto, en situaciones de flujo muy desequilibrado es probable que surjan problemas tanto en los vientos analizados como en el campo de masa analizado.

Observe que la restricción de equilibrio solo se aplica al campo de incrementos, no a la parte del análisis proveniente del campo inicial. Los flujos desequilibrados bien pronosticados no se ven afectados por esta limitación, porque las correcciones que se limitan serán pequeñas.

Si el modelo cambia...

Optimización Cómo evaluar Cómo ajustar el análisis

Siempre que se realiza una actualización importante del modelo, es posible que la optimización anterior deje de ser óptima. Siempre que se cambie la optimización, los errores característicos del modelo pueden cambiar.

Lea la explicación en la sección opcional Análisis > Optimización.

Evalúe cómo han cambiado los ajustes que usted suele realizar en el análisis. Fíjese en los diagnósticos y las estadísticas de rendimiento del modelo.

Las diferencias típicas de una versión o una versión optimizada anterior del modelo puede variar según el régimen. Ajuste según el caso tras una evaluación cuidadosa.

Ejercicios

Ciclo de asimilación de datos

A continuación se enumeran los pasos principales del proceso de asimilación cíclica de datos. Seleccione los números de las lista desplegables para poner los pasos en el orden correcto.

a) Se incorporan la correcciones al campo inicial para producir el análisis nuevo.
b) Se ejecuta un pronóstico a corto plazo para crear el «campo inicial».
c) Entran observaciones desde fuera del ciclo.
d) Se calculan los incrementos de observación.
e) El procedimiento de análisis objetivo interpola los incrementos de observación con una malla para crear las «correcciones del modelo».
f) Se utilizan los incrementos de observación para controlar la calidad de las observaciones.

La secuencia correcta es 1. (c) o (b), 2. (b) o (c), (Nota: los dos primeros pasos pueden figurar en cualquier orden y, de hecho, pueden ocurrir simultáneamente.) 3. (d), 4. (f), 5. (e) y 6. (a).

Proceso de asimilación de datos

En primer lugar, se obtiene un pronóstico a corto plazo a partir de un análisis reciente que lleva hacia adelante información de las observaciones anteriores y crea un conjunto de campos iniciales o de fondo del modelo que constituirá la base del análisis. Mientras tanto, se reciben observaciones externas al ciclo. A continuación, se calculan los incrementos de observación como las diferencias entre las observaciones y el campo inicial. Estos incrementos de observación se utilizan luego para controlar la calidad de las observaciones. El procedimiento de análisis objetivo (por ejemplo, 3D-VAR) procede a interpolar los incrementos de observación sobre una malla del modelo para producir un campo de valores de corrección para el modelo. Cabe observar que esta interpolación es un procedimiento complejo que utiliza información conocida sobre las características de error típico del modelo y de las observaciones. Finalmente, se incorporan las correcciones al campo inicial para producir el nuevo análisis. Una vez generado, este nuevo análisis brinda las condiciones iniciales del próximo pronóstico. El proceso entero se conoce como «asimilación cíclica».

Escoja una opción.

Vacíos de datos

Pregunta

Debido a la existencia de vacíos de datos en una red de observaciones... (Escoja todas las opciones pertinentes.)

La respuesta correcta es (c) Ambas respuestas son posibles.

El proceso de asimilación de datos es un componente tan integral de los sistemas de PNT modernos que cuando se pierden detalles de mesoescala que podrían refutar las estructuras de mesoescala previstas incorrectamente, ya sea debido a una zona sin datos o a una cantidad insuficiente de observaciones, la calidad del pronóstico del modelo sufre.

Escoja una opción.

Comparación de un análisis con observaciones de vientos, parte 1: examen de un análisis

Pregunta

Compare el análisis de vientos del modelo en 250 hPa para las 1200 UTC del 24 de enero de 2000 (isotacas) con las observaciones de radiosonda de las 1200 UTC (amarillo). Tendré que contestar una serie de preguntas en esta y las próximas dos páginas.

Análisis de vientos del modelo en 250 hPa para las 1200 UTC del 24 de enero de 2000 y observaciones de radiosonda de las 1200 UTC

¿Por qué no se acercó el análisis del modelo a la observación del viento de Peachtree City, Georgia (KFFC)? (Elija todas las respuestas pertinentes.)

De haber podido examinar el análisis de este caso por dentro, hubieramos visto este mapa. En rojo vemos los incrementos de observación, es decir, los cambios al campo inicial indicados por los vientos observados en los radiosondeos. En negro vemos los incrementos de análisis, que son los cambios que el análisis hizo en el campo inicial. Observe que por lo general los incrementos de análisis son más débiles que los incrementos de observación. Recuerde además que se utilizan muchas otras fuentes de datos para crear este campo de incrementos de análisis.

Eta 250 mb Wind Increment (kt) 1200 UTC 24 Jan 2000

Las respuestas correctas son (a) y (d).

Como permite apreciar el mapa con el análisis de las velocidades del viento, el informe de Peachtree City (KFFC) indicaba una velocidad 50 nudos mayor que el análisis. Ninguna de las demás observaciones presenta un discrepancia de esta magnitud. Los cambios en el campo inicial son generalmente pequeños, como en el mapa de ayuda (si aún no lo ha visto, abra el enlace ahora). Hubo también una discrepancia muy grade frente al campo inicial, mucho mayor que en otros lugares. En el modelo Eta, predecesor del actual modelo NAM que era el modelo operativo en aquel entonces, la observación de KFFC se rechazó y el mapa de la ayuda indica que el análisis terminó haciendo cambios en la dirección equivocada.

Posteriormente, NCEP implementó un control de calidad no lineal, lo cual significa que esta observación no se hubiera rechazado de entrada, sino que se le hubiera asignado poco peso al comienzo y si ninguna observación empujaba el análisis hacia una mayor correspondencia con la observación de KFFC, su influencia hubiera aumentado. Las pruebas de ejecución del escenario realizadas posteriormente muestran que no había suficientes observaciones adicionales que apoyaran el análisis para mostrar una mejora; esencialmente, este informe se descartó nuevamente a favor del campo inicial. La ausencia de observaciones del viento en Birmingham, Alabama (KBMX), Tallahassee, Florida (KTLH), Slidell, Luisiana (KSIL) y Tampa Bay, Florida (KTBW) contribuyó a la falta de datos corroborantes que hubieran podido empujar el análisis hacia la observación de KFFC.

Escoja una opción.

Comparación de un análisis con observaciones de vientos, parte 2: ajuste del pronóstico

Pregunta

Análisis de vientos del modelo en 250 hPa para las 1200 UTC del 24 de enero de 2000 y observaciones de radiosonda de las 1200 UTC

¿Qué ajuste podríamos hacer en el pronóstico, si cabe hacer alguno, después de observar los vientos en KFFC? ¿Por qué? Escoja todas las opciones pertinentes.

La respuesta correcta es (b).

Si bien es cierto que como grupo los radiosondeos ejercen la mayor influencia en el análisis (Zapotocny, et al. 2000), una observación del viento de una estación individual en un único nivel no puede reparar sola un hueco en el análisis. El hecho de que esta observación no se utilizó es más una función de problemas más profundos con el campo inicial y el análisis en ese momento que una indicación de que este el único problema con el análisis.

No obstante, esta observación se puede utilizar junto con las demás para preparar un análisis manual como el que se muestra en la imagen de abajo de esta figura.

Análisis de vientos del modelo en 250 hPa para las 1200 UTC del 24 de enero de 2000 y observaciones de radiosonda de las 1200 UTC

Observe la diferencia en la estructura y orientación de la corriente en chorro y la posición de la región de entrada en comparación con la imagen de arriba. La invasión de aire seco asociada con la onda que rodea la base de la vaguada sobre Luisiana y la mitad sur de la «S» baroclínica que se observa en la imagen de vapor de agua parece estar acoplada a la región de entrada de la corriente en chorro en el análisis manual, pero ni se le acerca en el análisis del modelo Eta operativo de ese entonces (predecesor del NAM actual).

Esta información se puede usar para anticipar que la trayectoria de la tormenta pasará más al oeste y que el ciclón evolucionará más rápido de lo que tiene previsto el modelo. De hecho, esta es la situación que se verificó correctamente. Sin duda que tanto el modelo como el análisis manual hubieran mejorado de haber podido aprovechar las observaciones de los muchos lugares que desgraciadamente no presentaron datos en ese momento. No obstante, pese a las dificultades causadas por la falta de observaciones y el análisis pobre del modelo, podemos llegar a un buen pronóstico en una situación difícil de tiempo crítico, incluso si el modelo no es capaz de hacerlo.

Este ejemplo de la tormenta de nieve que azotó la costa del Atlántico de Estados Unidos el 25 enero de 2000 ilustra cómo el sistema de asimilación de datos puede engañar tanto el pronóstico del modelo como el del ser humano, que es exactamente lo que ocurrió. Hay que hacerles justicia a los pronosticadores que utilizaron la suite de productos del modelo de las 12 UTC ese día recordando que había muchos otros factores en juego en ese pronóstico que no hemos contemplado en nuestro escenario. No obstante, una de las lecciones que aprendieron ese día fue que hay que prestar atención a las observaciones, especialmente cuando discrepan fuertemente del análisis al tiempo que parecen guardar coherencia con otra información que está disponible.

Escoja una opción.

Por qué la asimilación de datos fracasó

Pregunta

Parece que el sistema de asimilación de datos fracasó en el caso del 24 enero de 2000 que acabamos de examinar en las últimas tres preguntas. ¿Cuáles son los principales factores que pueden haber contribuido a dicho fracaso? Escoja todas las opciones pertinentes.

Las respuestas correctas son (a), (b) y (d).

En primer lugar, el campo inicial era malo (d), ya que incluía un error de 50 nudos en Peachtree City en el nivel de 250 hPa, lo cual, como ya sabemos, constituye una violación del supuesto fundamental de la asimilación de datos. Como el modelo normalmente da resultados bastante buenos, de modo que un campo inicial tan incorrecto suele ser producto de un análisis previo de escasa calidad. Recuerde que el análisis no corrige todo hasta coincidir con las observaciones. En una situación dinámica puede siempre estar tratando de ponerse al tanto con la situación actual.

Dos otros factores clave contribuyeron al fracaso del análisis. Uno de ellos es el hecho de que se tratara de una situación dinámicamente potente (b), con las grandes tendencias de divergencia que se precisan para cambiar la disposición de las masas durante una fase de rápida evolución y evacuarlas durante la ciclogénesis rápida. La presencia de una fuerte corriente en chorro que rodea la base de un vaguada y se dirige hacia el punto de inflexión de una onda larga es un ejemplo clásico. Esto viola las restricciones de equilibrio dinámico que entrelazan los cambios de masa y viento de los campos iniciales, de forma que con toda probabilidad el análisis resultante produciría un desarrollo dinámico demasiado lento o atrasado al comienzo del período de pronóstico.

El otro factor es la rápida evolución del sistema (a), de modo que los errores típicos del análisis conducen a errores más grandes de lo que sería normal en el pronóstico a corto plazo utilizado como campo inicial para el próximo análisis. La evolución rápida dificulta mucho más ajustar el análisis correctamente con la nuevas observaciones. En situaciones dinámicamente desequilibradas, es más probable que el campo inicial esté atrasado. Normalmente, cuando se introducen en el sistema de análisis una serie de pequeñas correcciones a lo largo de varios ciclos de análisis, en determinado momento este logra hacer emerger la estructura clave del pronóstico, pero para entonces es probable que el período de tiempo de avance del pronóstico se haya esfumado y que ya se trate de un pronóstico inmediato.

Además, existían otros problemas. Por ejemplo, había un par de informes de aeronave en conflicto, ambas observaciones correctas que el sistema de asimilación de datos manejó incorrectamente porque indicaban que el sistema era más intenso que el campo inicial, y aunque se habían obtenido uno antes y uno después del paso del eje de la vaguada, se suponían válidos a la misma hora. No obstante, esas contadas observaciones probablemente jugaron un papel relativamente menor en el análisis. Los demás radiosondeos e informes de viento y temperatura de aeronaves coincidían con la onda marcada que se aproximaba a través de la vaguada y la máxima de vientos en la corriente en chorro al este de la vaguada que se extendía más al sur y oeste. Además, si todas las estaciones de radiosondeo hubieran transmitido un informe completo con vientos y temperaturas en todos los niveles, el informe de viento en KFFC quizás hubiera contado con el apoyo necesario para mejorar la estructura del chorro en el análisis del modelo.

La lección para este tipo de situación es que la asimilación de datos puede tener un impacto enorme en el pronóstico del modelo, motivo por el cual es preciso:

  • reconocer las dificultades y las desventajas del sistema de asimilación de datos en estas circunstancias;
  • comparar con cuidado el análisis del modelo con las observaciones para comprobar su exactitud y detectar incoherencias;
  • comprender el peso que se da a los diferentes tipos de observaciones y cómo el hecho de ignorarlas o incluirlas puede afectar el análisis del modelo;
  • comprender la importancia del campo inicial;
  • no confiar en el pronóstico cuando el modelo se inicializa con problemas e incoherencias.
Escoja una opción.

Uso del campo inicial

Pregunta

¿Por qué es útil usar el «campo inicial» (pronóstico a corto plazo) como punto de partida en un sistema de asimilación de datos? (Elija todas las respuestas pertinentes.)

Las respuestas correctas son (a), (b), (c) y (d).

La opción (a) es la suposición fundamental de la asimilación de datos. En lugar de analizar los datos directamente, el análisis utiliza muchos tipos de observaciones para realizar una serie de pequeñas correcciones en un pronóstico que se supone acertado. Esto también significa que cuando el modelo nota grandes discrepancias aisladas entre las observaciones y el pronóstico a corto plazo, puede marcar los datos como posiblemente erróneos, porque se supone que el pronóstico es acertado. Es útil usar el campo inicial como punto de partida para el modelo porque un pronóstico del modelo correcto es implícitamente "equilibrado y coherente" desde el punto de vista numérico, ¡una característica ajena a las observaciones!

Lo bueno es que un buen pronóstico normalmente conduce a un buen análisis, lo cual produce otro buen pronóstico. Pero esto significa que también es cierto que un pronóstico incorrecto puede conducir a un análisis incorrecto y producir otro pronóstico incorrecto hasta que se acumulen suficientes datos para forzar un cambio en el modelo. Esta es la principal desventaja de utilizar los pronósticos a corto plazo del modelo mismo como punto de partida para asimilar datos adicionales en el sistema.

Escoja una opción.

Resumen y referencias bibliográficas

Resumen general

  1. La combinación de un modelo y un proceso de asimilación de datos crea un sistema de modelado.
  2. El modelo es el medio para llevar información que contienen las observaciones obtenidas en momentos anteriores hasta el presente y crear una estructura 4D dinámicamente coherente con su física y resolución.
  • La asimilación cíclica lleva la información (las observaciones y la estructura de sistemas meteorológicos del modelo a la cual se ajustan) constantemente hacia adelante en el tiempo, de un ciclo de ejecución del modelo al siguiente.
  • Dada la forma en que el modelo está entrelazado con el procedimiento de análisis, el análisis no puede nunca estar completamente en conflicto con el pronóstico a corto plazo del modelo y normalmente se le acerca bastante, aun cuando no debería.
  • El producto de análisis difiere según el modelo, incluso con las mismas observaciones.

Puntos adicionales relacionados:

  1. Cuando hay que reiniciar el sistema de asimilación de datos (por ejemplo, si debido a una interrupción el modelo pierde uno o más ciclos), se pierde la capacidad de comunicar la información con el tiempo y se mantener la coherencia con el modelo. Aunque esto no llega casi nunca a afectar los ciclos operativos de NCEP, es un problema común para los ciclos de ejecución experimentales. (Vea los enlaces relacionados con la ventisca del año 2000, en la sección Referencias bibliográficas y fíjese en la duración del ciclo de asimilación de cada experimento.)
  2. La coherencia entre las condiciones iniciales y el modelo es un problema para los modelos locales y de investigación, lo cuales no cuentan con sus propio sistema de asimilación cíclica (a menudo utilizan las condiciones iniciales de otros modelos, como los de NCEP.) Esto afecta en mayor medida las estructuras meteorológicas que sienten fuertemente la influencia de las diferencias entre modelos, como convección, nubes y precipitación, circulaciones costeras y topográficas, y detalles de la capa límite.

Conceptos de análisis

  1. El sistema de análisis tiene que comparar los campos de fondo del modelo con información de observaciones obtenidas a diferentes horas y en distintos lugares, la cual involucra otras variables aparte de las que se están analizando.
  2. El procedimiento de análisis objetivo (por ejemplo, 3D-VAR) tiene que convertir la información de los muchos tipos de observaciones con diferentes coberturas y características de error en un campo uniforme en la malla del modelo. También debe conservar la coherencia dinámica, física y numérica en el pronóstico a corto plazo que se está corrigiendo.
  3. El análisis se acerca a las observaciones solo en la medida que lo permite el error de observación típico.
  • El análisis trata de acercarse hasta el margen de error esperado para cada tipo de observación.
  • Se ajusta mejor a tipos de observaciones muy exactos que a tipos de datos susceptibles de error.
  • Las observaciones puntuales, como los puntos de rocío obtenidos por radiosonda, se tratan de manera distinta en cada nivel frente a los datos promediados a lo largo de varios niveles, como las mediciones satelitales de agua precipitable.
  • Los métodos de análisis funcionan mejor cuando los datos están distribuidos de manera uniforme. La extrapolación más allí de los agrupamiento de datos puede introducir errores.
  1. Las modificaciones realizadas por el análisis en la estructura de su propio campo inicial solo alcanzan las dimensiones que el error típico de pronóstico sugiere que serán necesarias.
  • Las estructuras previstas incorrectamente (o que faltan) en el pronóstico a corto plazo se conservan (o siguen ausentes) a menos que gran cantidad de datos provenientes de fuentes confiables obliguen a realizar una corrección.
  • Es posible seguir el campo inicial demasiado de cerca, o no seguirlo lo suficiente, si los patrones de error de pronóstico del régimen de flujo difieren de lo que espera el análisis.
  1. El análisis enlaza las correcciones de temperatura y de los vientos sobre la base de suposiciones de equilibrio. Cuando se realizan correcciones en un lugar, se supone que serán necesarias correcciones en otros lugares, en la horizontal y vertical.

Impactos operativos

  1. Las observaciones se utilizan para realizar pequeñas correcciones una y otra vez a una serie de pronósticos a corto plazo.
  • Se supone que el modelo es acertado y que produce un pronóstico a corto plazo que solo necesita ajustes menores.
  • Si el pronóstico a corto plazo es incorrecto, ¡también puede serlo el análisis!
  • El análisis es mejor para las variables que se pronostican mejor (temperatura, altura/presión y viento). Es carente para aquellas variables que no se pronostican tan bien (p. ej., la humedad).
  1. El análisis está diseñado para generar el mejor pronóstico posible para el modelo. Para lograrlo, no debe tratar de encajar las observaciones a la perfección.
  2. A diferencia de un análisis manual, las observaciones solo se utilizan para corregir las escalas que el modelo puede resolver.
  3. El proceso de análisis incorpora varias suposiciones que funcionan bien en condiciones comunes y fracasa en condiciones descomunales y con eventos meteorológicos extremos.
  • ¡Hay que mantenerse particularmente alerta para situaciones de desarrollo rápido en flujos veloces!
  • La probabilidad de que el análisis tenga problemas es mayor en situaciones meteorológicas más peligrosas.

Referencias bibliográficas

Corrección de datos erróneos con control de calidad complejo

  • Collins, W.G., 1997: The use of complex quality control for the detection and correction of rough errors in rawinsonde heights and temperatures: A new algorithm at NCEP/EMC. NCEP Office Note 419, 49 págs.
  • Julian, P.R., 1989: Quality control of the aircraft file at the NMC. Part I. NCEP Office Note 358, 13 págs. [Nota: pocos meses después de la publicación de esta lección, las anotaciones de las oficinas de NCEP deberían estar disponibles en internet.]

Referencias bibliográficas sobre varios aspectos del funcionamiento de 3D-VAR en el sistema global de asimilación de datos

  • Derber, J. C., D.F. Parrish y S. J. Lord, 1991: The new global operational analysis system at the National Meteorological Center. Wea. and Forecasting, 6, 538-547.
  • Derber, J. C. and W.-S. Wu, 1998: The use of TOVS cloud-cleared radiances in the NCEP SSI analysis system. Mon. Wea. Rev., 126, 2287-2299.
  • McNally, A.P., J.C. Derber, W.-S. Wu y B.B. Katz, 2000: The use of TOVS level-1B radiances in the NCEP SSI analysis system. Quart. J. Roy. Meteor. Soc., 126, 689-724.
  • Parrish, D. F. y J. C. Derber, 1992: The National Meteorological Center's spectral statistical interpolation analysis system. Mon. Wea. Rev., 120, 1747-1763.

Patrones espaciales de errores del modelo empleados en el análisis 3D-VAR

  • Derber, J. C. y F. Bouttier, 1999: A reformulation of the background error covariance in the ECMWF global data assimilation system. Tellus, 51A, 195-221.

Descripción general fundamental

  • Lorenc, A.C., 1986: Analysis methods for numerical weather prediction. Quart. J. Roy. Meteor. Soc., 112, 1177-1194.

Lista de tipos de datos utilizados en EDAS y GDAS afectados por las variables de pronóstico

  • NCEP/EMC, ya citado 2000: SSI Analysis System documentation.

Caso de estudio de pronósticos regionales fallidos debido a debilidades del sistema de asimilación de datos

  • NCEP/EMC, ya citado 2000: EMC model guidance for the blizzard of 2000. Disponible en internet en:
    • http://www.emc.ncep.noaa.gov/mmb/research/blizz2000 como información de fondo.

Diferencias sistemáticas de gran escala y a largo plazo entre los análisis y las observaciones de NCEP, ECMWF y NASA

  • Newman, M., P.D. Sardeshmukh y J.W. Bergman, 2000: An assessment of the NCEP, NASA, and ECMWF Reanalyses over the tropical west Pacific warm pool. Bull. Amer. Meteor. Soc., 81, 41-48.

Explicación general del sistema de asimilación de datos variacional

  • Schlatter, T.W., 2000: Variational assimilation of meteorological observations in the lower atmosphere: A tutorial on how it works. J. Atmos. Solar-Terr. Phys., 62, 1057-1070.

Influencia de los diferentes tipos de datos en el análisis del modelo Eta

  • Zapotocny, T.H., S.J. Nieman, W.P. Menzel, J.P. Nelson III, J.A. Jung, E. Rogers, D.F. Parrish, G.J. DiMego, M. Baldwin y T.J. Schmit, 2000: A case study of the sensitivity of the Eta data assimilation system. Wea. and Forecasting, 15, 603-621.

Presentaciones de nivel avanzado de sistemas de asimilación de datos en muchos centros de EE. UU., incluido NCEP, y explicaciones de los problemas relacionados

(del Joint Center for Satellite Data Assimilation Summer Colloquium on Data Assimilation, julio de 2009):

  • Disponible en internet de http://space.hsv.usra.edu/JCSDA/JCSDA%20Lecturers.html

Aunque estos materiales están orientados hacia científicos ya especializados en asimilación de datos avanzada, algunos contienen explicaciones de fondo y otros contienen diapositivas interesantes. Le recomendamos que lea las partes que puedan resultarle útiles.

Colaboradores

Patrocinadores de COMET

The COMET® Program está patrocinado por el National Weather Service (NWS) de NOAA, con fondos adicionales de las siguientes organizaciones:

  • Air Force Weather (AFW)
  • Australian Bureau of Meteorology (BoM)
  • European Organisation for the Exploitation of Meteorological Satellites (EUMETSAT)
  • Meteorological Service of Canada (MSC)
  • National Environmental Education Foundation (NEEF)
  • National Polar-orbiting Operational Environmental Satellite System (NPOESS)
  • NOAA National Environmental Satellite, Data and Information Service (NESDIS)
  • Naval Meteorology and Oceanography Command (NMOC)

Colaboradores del proyecto

Asesores científicos principales:

  • Dr. Ralph Petersen — NOAA/NCEP/EMC (jubilado)
  • Kirby Cook — NOAA/NWS
  • Dr. William Bua — UCAR/COMET
  • Dr. Stephen Jascourt — UCAR/COMET

Gerente principal del proyecto

  • Dr. Gregory Byrd — UCAR/COMET

Jefes del proyecto

  • Dr. William Bua — UCAR/COMET
  • Dr. Stephen Jascourt — UCAR/COMET

Diseño instruccional

  • Bryan Guarente — UCAR/COMET
  • Tsvetomir Ross-Lazarov — UCAR/COMET

Diseño gráfico/interfaZ

  • Steve Deyo — UCAR/COMET
  • Brannan McGill — UCAR/COMET
  • Heidi Godsil — UCAR/COMET

Diseño multimedia

  • Bruce Muller — UCAR/COMET
  • Dan Riter — UCAR/COMET

Equipo de integración HTML de COMET, 2020

  • Tim Alberta — Gerente del proyecto
  • Dolores Kiessling — Jefa del proyecto
  • Steve Deyo — Diseñador gráfico
  • Gary Pacheco — Jefe de desarrollo web
  • Justin Richling — Desarrolladora web
  • David Russi — Traductor
  • Gretchen Williams — Desarrolladora web
  • Tyler Winstead — Desarrollador web

Personal de COMET, octubre de 2009

Director

  • Dr. Timothy Spangler

Subdirector

  • Dr. Joe Lamos

Administración

  • Elizabeth Lessard, Administración y gerencia comercial
  • Lorrie Alberta
  • Michelle Harrison
  • Hildy Kane

Soporte de hardware/software y programación

  • Tim Alberta, Gerente principal de grupo
  • Bob Bubon
  • James Hamm
  • Ken Kim
  • Mark Mulholland
  • Wade Pentz, estudiante
  • Jay Shollenberger, estudiante
  • Malte Winkler

Diseño instruccional

  • Dr. Patrick Parrish, Gerente principal de grupo
  • Dr. Alan Bol
  • Lon Goldstein
  • Bryan Guarente
  • Dra. Vickie Johnson
  • Tsvetomir Ross-Lazarov
  • Marianne Weingroff

Grupo de producción audiovisual

  • Bruce Muller, Gerente de grupo
  • Steve Deyo
  • Seth Lamos
  • Brannan McGill
  • Dan Riter
  • Carl Whitehurst

Meteorólogos/Científicos

  • Dr. Greg Byrd, Gerente principal de proyectos
  • Wendy Schreiber-Abshire, Gerenta principal de proyectos
  • Dr. William Bua
  • Patrick Dills
  • Dr. Stephen Jascourt
  • Matthew Kelsch
  • Dolores Kiessling
  • Dra. Arlene Laing
  • Dra. Elizabeth Mulvihill Page
  • Amy Stevermer
  • Warren Rodie
  • Dr. Doug Wesley

Redacción científica

  • Jennifer Frazer

Traducción al español

  • David Russi

NOAA/National Weather Service - Forecast Decision Training Branch

  • Anthony Mostek, Jefe de la sucursal en COMET
  • Dr. Richard Koehler, Jefe de entrenamiento hidrológico
  • Brian Motta, Entrenamiento IFPS
  • Dr. Robert Rozumalski, Coordinador de SOO Science and Training Resource (SOO/STRC)
  • Ross Van Til, Meteorólogo
  • Shannon White, Entrenamiento AWIPS

Meteorólogos visitantes del Servicio Meteorológico de Canadá (MSC)

  • Phil Chadwick
  • Jim Murtha

Arriba