Esta lección describe en términos generales el proceso de asimilación de datos (AD) de predicción numérica del tiempo (PNT). Cuando termine de estudiarla, comprenderá:
La asimilación de los datos es el proceso mediante el cual las observaciones del mundo real:
El proceso por el cual las observaciones se incorporan a los campos iniciales del modelo se basa en una filosofía subyacente que afecta profundamente el uso real que se hace de los datos y las condiciones que llevan el modelo a realizar análisis y pronósticos equivocados. El resto de esta sección introductoria explica esta filosofía y sus repercusiones fundamentales.
Los análisis del modelo no son exclusivamente el producto de una serie de observaciones. Al contrario, las observaciones se usan para hacer PEQUEÑAS correcciones en un pronóstico a corto plazo que se supone que sea bueno. Por ejemplo, las condiciones iniciales de las 12 UTC del modelo RUC (que después de 2010 se llamará Rapid Refresh) provienen de la corrección de un pronóstico de una hora de las 11 UTC con las observaciones de un período de una hora centrado en las 12 UTC. Las condiciones iniciales de ese pronóstico de 1 hora de las 11 UTC provienen de la corrección de un pronóstico de una hora de las 10 UTC con las observaciones realizadas durante un período de una hora centrado en las 11 UTC, y así sucesivamente hacia atrás en el tiempo. Otros modelos utilizan intervalos de pronóstico y de datos mayores, como el modelo GFS de NCEP, que utiliza un intervalo de 6 horas. De esta manera, los pronósticos a corto plazo retienen la información de las observaciones previas y brindan información de fondo al análisis futuro.
¿Por qué utilizamos un pronóstico del modelo para crear las condiciones iniciales del próximo pronóstico? Procedemos de esta manera porque:
El primero de los puntos que acabamos de enumerar (la suposición de que el pronóstico a corto plazo es acertado) es la suposición FUNDAMENTAL de la asimilación de datos. Esto significa que:
Por otra parte, un pronóstico incorrecto puede llevar a un análisis incorrecto, lo cual produce otro pronóstico incorrecto, hasta que haya suficientes datos disponibles para forzar el modelo a cambiar.
Las correcciones del pronóstico a corto plazo se realizan en un análisis que ha sido suavizado para coincidir con la resolución del modelo, usando información sobre la exactitud normal de los pronósticos y las observaciones. Esto significa que:
Sabiendo que el análisis utiliza las observaciones para efectuar pequeñas correcciones en el pronóstico del modelo, ¿en general, qué nivel de calidad cree que cabe esperar para los siguientes campos en el análisis del modelo? (Use los cuadros de selección para elegir las mejores respuestas.)
Podemos esperar que el nivel de calidad de los campos de temperatura y vientos sea alto y que el de los campos de humedad sea medio.
Las variables que se pronostican bien deberían ser de alta calidad en el análisis, especialmente si también se miden en los datos de observaciones. Recuerde que la dinámica del modelo suele ajustar bastante bien tanto la temperatura como los campos de vientos.
Por una serie de motivos, a menudo la humedad no se pronostica bien. Sus fuentes y sumideros se manejan por medio de las parametrizaciones de los procesos físicos en el modelo. La parametrización de las nubes, la precipitación, la convección y los flujos superficiales es más difícil y menos exacta que la dinámica.
Además, la estructura horizontal y vertical fina de los campos de humedad dificulta su medición adecuada con observaciones convencionales, como los radisondeos, y a veces hasta las observaciones confiables contienen información incompleta sobre importantes variaciones de pequeña escala (que pueden ser demasiado pequeñas para resolverse en el modelo), como la verdadera humedad máxima de una pluma de humedad entre dos estaciones. Estos errores de humedad pueden empeorar aún más porque:
Si no podemos observar bien la humedad, tampoco podremos predecirla. Si no podemos predecirla bien, el uso de un pronóstico a corto plazo como campo de fondo solo sirve para agravar el problema.
En resumidas cuentas, debido a limitaciones del modelo y de observación, la humedad no se predice ni se observa tan bien como los vientos y la temperatura y, por tanto, no se analiza tan bien como dichos campos. Esto es así en todos los principales centros de predicción numérica del tiempo.
Una vez que asimile nuevos datos de alta calidad y genere un pronóstico, ¿debería el análisis del modelo ser muy parecido a un análisis manual de gran habilidad? Escoja la mejor respuesta.
Normalmente, la respuesta es negativa.
El objetivo de la asimilación de datos no es imitar los detalles que contiene un cuidadoso análisis manual, sino que consiste en brindar las condiciones iniciales que producirán el mejor pronóstico posible del modelo. Por lo tanto, debe crear un análisis coherente con los cálculos, la dinámica, la física y la resolución del modelo. Para lograrlo, utilizamos un pronóstico a corto plazo como la base del análisis y efectuamos una serie de pequeñas correcciones en ese pronóstico de acuerdo con la nueva información proveniente de las observaciones. Esto significa que el análisis será diferente para distintos modelos y con toda probabilidad será distinto de la mejor estimación del verdadero estado de la atmósfera producida por un análisis manual.
Por ejemplo, la resolución de los modelos globales es demasiado gruesa como para conservar las mediciones de aeronave de las corrientes de salida divergentes de una tormenta individual. Además, las parametrizaciones de la física del modelo pueden alterar profundamente hasta las circulaciones divergentes de gran escala en el análisis, un problema que se observa sistemáticamente en los trópicos, donde la convección es el factor de forzamiento dominante en los pronósticos a corto plazo empleados por en análisis (Newman et al. 2000).
Las observaciones se asimilan para corregir cada pronóstico a corto plazo que sirve como base para el próximo análisis, lo cual produce una serie de pequeñas correcciones del pronóstico del modelo, tal como ilustra la figura siguiente. En términos ideales, el pronóstico del modelo debería corregirse para reflejar el «verdadero» estado de la atmósfera dentro de los límites de lo que permitan predecir la resolución y la física del modelo. Como nunca llegamos a conocer dicho estado «verdadero» de la atmósfera, el análisis solo puede alcanzar el grado de exactitud que admiten las observaciones y sus limitaciones, algunas de las cuales son:
El grado de incertidumbre de nuestro conocimiento de la temperatura media en una pequeña zona de mesoescala alrededor de una estación de observación es análogo al que existe cuando dos personas producen análisis diferentes a mano a partir de los mismos datos. El análisis debería caer dentro de la región «aproximada» (indicada por el color rosado en la figura) que representa un rango de posibles estados «verdaderos».
Cuando las observaciones indican que el modelo se ha desviado de esta «zona de verdad», se corrige hacia el rango de los probables estados «verdaderos». Si el pronóstico se desvía demasiado de la realidad, Es posible que las pequeñas correcciones no sean suficientes como para traer el pronóstico plenamente a la zona de «verdad», con lo cual el próximo pronóstico puede ser incluso peor.
Los pasos del proceso de asimilación de datos constituyen el ciclo ilustrado a continuación. El proceso debe extraer la información correspondiente a una serie de observaciones dispersas física y temporalmente, y pasar esa información a la malla del modelo, conservando a la vez la coherencia física, dinámica y numérica interrelacionada que se necesita para que el modelo genere un buen pronóstico. Uno de estos pasos, el análisis objetivo, fusiona la información del pronóstico a corto plazo sobre las observaciones y los procesos de pequeña escala pronosticados por el modelo (como los efectos topográficos) con información de las observaciones nuevas. La forma de realizar esta fusión deja una huella inconfundible en el análisis, algo que también afecta el pronóstico.
Los métodos usados para hacer frente a estos problemas son extremadamente complejos e intrincados, pero explicaremos sus premisas básicas y sus impactos en el análisis que entra en los modelos.
Los doce componentes del sistema combinado modelo-asimilación de datos ilustrado a continuación se describen en las próximas doce páginas.
Nota sobre el paso de inicialización del modelo: algunos modelos emplean un paso de inicialización después del análisis y antes de ejecutar el modelo de pronóstico. La inicialización mejora el balance a las escalas que el modelo puede resolver, lo cual asegura que el modelo funcionará sin problemas. Un método de uso difundido es el llamado filtro digital, en el cual el modelo se ejecuta hacia adelante por un breve período a la vez que la dinámica, pero no la física, se ejecutan hacia atrás por un período corto, y luego el resultado se filtra por tiempo para eliminar las oscilaciones rápidas. Cuando se utiliza un paso de inicialización, los campos «P00» o de «análisis inicial» que se ven no son el resultado directo del análisis, sino que fueron modificados durante el paso de inicialización. Puede evaluar la eficacia de la inicialización (o de su ausencia) determinando si nota pulsaciones de ondas de divergencia y convergencia que atraviesan grandes áreas en las primeras horas del pronóstico y el grado de coherencia de las estructuras de precipitación en los momentos iniciales del pronóstico.
Nota: cuando termine de esta sección, considere la posibilidad de estudiar la sección opcional El mago de la AD (la próxima opción del menú de navegación). Aunque dicha sección no es un elemento obligatorio del curso de PNT del NWS, ofrece una forma amena e informativa de aprender más sobre el proceso de asimilación de datos. Encontrará una explicación más completa y detallada del mismo material en las tres secciones subsiguientes: Datos, Incremento de observación y Análisis. Esperamos que el enfoque imaginativo de El mago de la AD aumente su grado de comprensión del tema de manera divertida.
El pronóstico a corto plazo constituye el punto inicial para crear el próximo análisis del modelo y se denomina campo de fondo porque contiene información de fondo que el modelo conserva de los análisis anteriores.
En este caso, el campo de fondo contiene una onda de inclinación positiva con un viento máximo del suroeste. A veces el campo de fondo se conoce también como campo inicial, porque constituye el primer intento de realizar un análisis del modelo. Cuanto mejor el pronóstico a corto plazo, tanto mejor será el análisis.
Las observaciones realizadas durante un determinado intervalo de tiempo (que se denomina ventana temporal o de tiempo) se juntan para el análisis. Normalmente, la ventana temporal se centra en la hora de análisis. Para que se puedan incluir en el análisis, las observaciones de último momento se deben recibir y procesar (por ejemplo, para convertir una secuencia de imágenes satelitales a observaciones del viento derivadas del movimiento de las nubes) antes de la hora límite de presentación de datos.
Existen muchos tipos de observaciones, que se obtienen con sistemas de instrumentos diferentes en lugares distintos y a diferentes horas. Algunas observaciones se procesan antes de pasar al flujo de datos (por ejemplo, los promedios horarios de los vientos de perfilador). Luego las observaciones se decodifican y se compilan para su uso. Es preciso tener en cuenta estos factores al construir el análisis:
Los puntos de datos del cuadro de observaciones rotulado 1B en la figura Proceso de asimilación de datos muestran los datos de aeronave para dos tramos de vuelo (rosado) y seis estaciones de radiosondeo (azul), una de los cuales parece contener un informe incorrecto (rojo). Los datos de las dos aeronaves se obtuvieron en intervalos de tiempo diferentes, aunque todos dentro de la ventana temporal, a lo largo de su correspondiente trayectoria de vuelo. Los datos de radiosondeo están todos en la mitad este del cuadro con las observaciones. Las observaciones sugieren que la onda es más marcada de lo que estaba previsto, con inclinación neutra y un flujo medio más fuerte de lo previsto. Algunas partes del dominio cuentan con pocos datos.
Los datos crudos o no procesados se pueden corregir para compensar los sesgos conocidos del instrumento y las lecturas físicamente imposibles. Las fuentes de datos que tienen que rechazarse con mucha frecuencia se eliminan automáticamente. Algunos ejemplos de corrección del sesgo del instrumento pueden ser la eliminación de los efectos del calentamiento y enfriamiento radiativo de la sonda misma en los datos de radiosondeo en altura utilizando como base las pruebas de campo, así como la corrección de los dígitos transpuestos en los informes de observación manuales.
Un incremento de observación es la diferencia entre una observación y el pronóstico a corto plazo. El incremento de observación se calcula en el lugar de observación, no en un punto de malla del modelo. Si fuéramos a agregar el incremento de observación al campo de fondo, crearíamos un análisis que coincide perfectamente con los datos en los puntos de observación. Sin embargo, dado que se pueden introducir errores en cada paso al calcular el valor del pronóstico a corto plazo a comparar con la observación, un incremento de observación de una buena observación y un buen pronóstico a corto plazo no siempre producen un buen análisis. Estos factores pueden producir errores:
Por ejemplo, utilizamos los perfiles de temperatura, humedad y ozono del modelo para producir las «radiancias» del campo inicial que luego se comparan con las radiancias observadas por satélite. Las diferencias entre estos datos de radiancia se emplean para corregir los campos de «radiancias» derivados del campo de fondo a la vez que los campos de temperatura y humedad del modelo se corrigen mediante los datos de temperatura y humedad de radiosonda. Este uso de las observaciones en su forma original introduce un menor grado de error que las suposiciones y los procedimientos involucrados en la conversión de las radiancias medidas por satélite a temperaturas.
Esto produce un incremento de observación que constituye la corrección que será necesaria en el pronóstico a corto plazo si se cumplieran todas las siguientes condiciones:
En el cuadro 2 de la figura Proceso de asimilación de datos, los incrementos (en color) indican la necesidad de cambiar los vientos del campo inicial (verde desvaído) de modo que en el sur sean más intensos y del oeste y más fuertes y con giro antihorario en altura (levógiros) en el norte y las zonas centrales. No se indica ningún cambio para las regiones occidentales debido a la falta de datos de observación. Fíjese además en el valor atípico, en rojo, del cual nos ocuparemos en el paso Control de calidad.
Los valores atípicos no se identifican en las observaciones no procesadas, sino en el campo de incrementos de observación, lo cual tiene dos ventajas:
El control de calidad complejo permite corregir aún más ciertos tipos de errores, incluidos los errores comunes de codificación y transcripción de los datos. Sin embargo, observe que una serie de observaciones contiguas obtenidas con el mismo sistema de observación (las cuales con toda probabilidad contienen los mismos errores), como una serie de vientos detectados por un satélite, pueden dar la impresión de corroborarse mutuamente, incluso si todas contienen un error grande. De no contar con otros datos que lleven a cuestionarlas, podrían no rechazarse y ponderarse de forma tal que no influyan tanto en el análisis como la misma cantidad de observaciones provenientes de sistemas de observación independientes.
El control de calidad complejo determinó que la observación del viento marcada en rojo en el cuadro 1B debía haberse incluido en el informe como proveniente de 180 grados, en lugar de 280. En el cuadro 2, antes de realizar la corrección, este incremento de observación (en rojo) parece ser un valor atípico. En el cuadro 3, después de la corrección, ese mismo incremento de observación coincide bastante bien con los incrementos de observación vecinos. De no haberse identificado un error que podía corregirse, es probable que la observación se rechazara, porque su incremento, tal como se muestra en el cuadro 2, era grande y no estaba corroborado por ningún otro incremento de observación.
Hemos llegado al NÚCLEO de la preparación del análisis para el próximo ciclo de pronóstico, la gran «caja negra» que toma los incrementos de observación de todos los diferentes tipos de observaciones, cada uno con sus propias características de error y diversas densidades de observación, y los convierte en un campo uniforme con los cambios de las variables de análisis en la malla del modelo. Esto es lo que hace 3D-VAR ahora, lo que hacía la interpolación óptima (Optimum Interpolation, OI) en el pasado y lo que harán 4D-VAR y los demás métodos que se desarrollen en el futuro. La forma exacta de hacerlo determina si:
Aunque una discusión de los procedimientos de análisis objetivo para interpolar los incrementos de observación con la malla de pronóstico puede parecer esotérica, recuerde que de todos los elementos individuales del sistema de modelado, este proceso probablemente contribuye en mayor medida al grado de éxito (o fracaso) del pronóstico del modelo, de modo que una comprensión general de estos procedimientos complejos le permitirá interpretar la guía numérica de forma inteligente. Por supuesto que todos los elementos del sistema de modelado deben trabajar en concierto. Esencialmente, el procedimiento de análisis sopesa la evidencia.
Los campos del pronóstico a corto plazo del modelo se colocan en un platillo de la balanza. El análisis debe conservar la información de coherencia física y dinámica entre las distintas variables a la vez que toma en cuenta las estructuras de error típico del modelo conocidas. Estos errores se utilizan tanto en el lugar donde se realiza la observación como en los patrones espaciales de correlación de los errores del modelo en un nivel o lugar con los de otros niveles o lugares.
De forma análoga, las observaciones ocupan en otro platillo de la balanza. El análisis trata de encajar las observaciones a la vez que toma en cuenta sus errores típicos conocidos. Como dichos errores son distintos en los diferentes sistemas de observación, el análisis puede hacer encajar mejor los tipos de observaciones que son más exactos y representativos. Los errores de observación empleados en el análisis son la suma de los errores provenientes de dos fuentes:
Por ejemplo, cuando una radiosonda atraviesa una banda de lluvia frontal, se ve afectada por los detalles de mesoescala de dicha banda de lluvia. Como el sondeo resultante no es representativo de las estructuras resolubles por un modelo global, su uso reduciría el grado de certeza de que la temperatura media de toda una celda de malla estará dentro de determinado margen, digamos un grado, de este valor observado. Si aumentamos el error esperado a un nivel superior al que podemos atribuir al instrumento, el análisis puede tener en cuenta el menor grado de idoneidad de cualquier observación puntual para los campos de análisis de modelo. Dado que el sistema de análisis no sabe nada sobre las estructuras de pequeña escala (como una banda de lluvia individual), tiene que protegerse de esa posibilidad devaluando levemente la observación.
Estos errores de observación se comparan con los errores de fondo esperados y se utilizan juntos para decidir si es más confiable el campo de fondo o la observación, y el análisis tiende a preferir el lado cuyo error esperado es menor. El proceso de análisis empleado para hacer esta determinación se describe más a fondo en la sección Análisis, a la cual puede acceder mediante el menú de la izquierda. Debido a que los patrones de error esperados del modelo y el error de representación esperado de las observaciones deben hacer frente a una amplia gama de condiciones meteorológicas, pueden no ser apropiados para el régimen meteorológico y las observaciones individuales del día de hoy. Por lo tanto, es posible que el análisis no escoja siempre el mejor punto de equilibrio entre los campos iniciales y las observaciones. Esto puede ser particularmente importante en el caso de los eventos meteorológicos extremos que el modelo rara vez o nunca encontró antes, ya que no forman parte de las estadísticas de errores esperados.
Para conservar la estructura del campo de fondo, el procedimiento de análisis enlaza las correcciones de una variable con otra y distribuye en sentido vertical y horizontal el efecto de los cambios introducidos en una variable. Por ejemplo, los vientos en el nivel de 700 hPa pueden cambiar directamente como resultado de los incrementos de observación del viento introducidos en el nivel de 500 hPa (el efecto de la extensión de los datos en sentido vertical) y de forma indirecta debido al cambio provocado por los datos en el gradiente de temperatura en 850 hPa (relación del viento térmico). Las verdaderas relaciones dinámicas empleadas, el grado en que se imponen en los incrementos del análisis y la forma y el alcance de las funciones de influencia vertical y horizontal varían de un modelo a otro.
Los incrementos de análisis son los cambios del campo inicial producidos por la suma de los efectos de todas las observaciones según los determina el procedimiento de análisis objetivo. El procedimiento de análisis objetivo (como 3D-VAR) interpola los incrementos de observación, los cuales están distribuidos de forma irregular sobre la malla del modelo. Como se trata de efectuar cambio pequeños en un pronóstico a corto plazo que se supone de buena calidad, se denominan «correcciones» del campo inicial o de fondo. Y debido a que se agregan a los campos iniciales para realizar el nuevo análisis del modelo, también se denominan «incrementos de análisis». En teoría, los incrementos de análisis se suavizan solo lo suficiente como para quitar los detalles a escalas menores de lo que el modelo puede retener en su pronóstico. Esto significa que las correcciones identifican principalmente las áreas donde el modelo puede autocorregirse, sin introducir cambios incoherentes que, si bien pueden coincidir con las observaciones, carecerían de coherencia lo suficiente como para degradar el pronóstico del modelo.
El ejemplo (cuadro 3 de la figura Proceso de asimilación de datos) muestra los incrementos de análisis en color verde oscuro y los incrementos de observación en otros colores, para fines de comparación. Nótese que:
No obstante, los incrementos de análisis capturan la esencia de los incrementos de observación y lo hacen de modo tal que el modelo puede conservar la información adicional en su próximo ciclo de pronóstico.
El análisis es el conjunto de datos sobre malla que se usa para iniciar el próximo ciclo de pronóstico. Es simplemente el pronóstico a corto plazo anterior al cual se han sumado los campos de incremento del análisis. Esto significa que toda la información que forma parte del campo inicial que no rechaza sobre la base de las observaciones se conserva en el análisis, incluso a las escalas resolubles menores del modelo. Las lagunas o vacíos en la red de observaciones pueden hacer que el análisis no detecte estructuras importantes de pequeña escala y que conserve estructuras de pequeña escala pronosticadas incorrectamente. Para saber qué tipos de estructuras meteorológicas el análisis puede representar bien, incluir pero representar mal o simplemente no detectar, es preciso saber qué tipos de estructuras inadecuadamente observadas el modelo:
La clave para entender cómo se tratan los datos en el análisis reside en nuestra comprensión del procedimiento de análisis objetivo, que se describe en la sección Procedimiento de análisis objetivoProcedimiento de análisis objetivo.
El ejemplo del cuadro 4 de la figura Proceso de asimilación de datos muestra el nuevo campo de vientos del análisis en verde oscuro. El flujo es más intenso y la onda tiene mayor definición que en el campo de fondo, como darían a suponer las observaciones del cuadro 1B y el campo de fondo del cuadro 1A. La observación menos las diferencias del análisis (la parte de las observaciones del viento que no se incluye en el análisis) se muestra mediante colores.
Idealmente, estas diferencias serán menores, lo cual indicaría una buena correspondencia con las observaciones. Deberían formar un patrón aleatorio, lo cual indica que toda la información coherente de las observaciones se incorporó al análisis. El ejemplo muestra que en general las diferencias en el vector viento son menores y apuntan en varias direcciones distintas. No obstante, varias diferencias más grandes que aparecen cerca del eje de la onda, en la parte sur del área indicada, y el campo en general sugieren que esta parte de la onda aún no ha adquirido suficiente intensidad y definición en el análisis. Este patrón refleja el error de representación. Las observaciones muestran que la onda es más intensa de lo que puede resolver este modelo. Incluso si el análisis abarcara la onda a la escala indicada por la definición del cambio de vientos observado, la resolución del modelo no es suficiente como para mantenerla en el pronóstico. Podría causar ruido numérico y alterar estructuras que el modelo debería poder manejar sin problema.
Observe que el modelo de pronóstico es un componente integral del sistema de asimilación de datos. Un modelo capaz de producir siempre un pronóstico a corto plazo muy bueno es esencial para un sistema de asimilación de datos exitoso. Incorpora una estructura dinámica y física en cuatro dimensiones en el análisis de forma coherente con los cálculos dinámicos, la dinámica y la física del modelo. Esto es necesario para que el modelo produzca el mejor pronóstico posible. No obstante, debido a las limitaciones del modelo (como la física y la resolución) es posible que el resultado termine siendo inadecuado para una mejor estimación del verdadero estado de la atmósfera. El modelo de pronóstico también «proyecta» la información de las observaciones previas hacia adelante en el tiempo, lo cual contribuye a llenar las discontinuidades de datos en los análisis futuros.
La asimilación cíclica describe el trabajo conjunto de un modelo de pronóstico individual y el sistema de asimilación de datos para formar un sistema de análisis y pronóstico que repite la asimilación de forma «cíclica». La asimilación cíclica es esencial para:
Como el análisis brinda los campos iniciales para el ciclo completo del pronóstico operativo, su impacto en la calidad de dichos pronósticos es enorme.
El comienzo del pronóstico operativo se puede utilizar en el próximo ciclo de análisis. No obstante, en la mayoría de los modelos operativos el pronóstico a corto plazo empleado como campo inicial del análisis no proviene del pronóstico en tiempo real, sino que se produce en un ciclo de análisis/pronóstico a corto plazo aparte que se ejecuta más tarde. Esto es así para que se pueda incluir una mayor cantidad de los datos que llegan después de la hora límite de presentación de datos fijada para el pronóstico en tiempo real. Los datos adicionales mejoran el pronóstico a corto plazo revisado, lo cual a su vez mejora el análisis del ciclo siguiente frente a lo que se obtendría sobre la base de un campo inicial del pronóstico operativo.
El modelo de pronóstico forma la base de cualquier sistema de asimilación de datos. No solo tiene que pronosticar bien las estructuras meteorológicas, como los frentes, los chorros nocturnos en los niveles bajos, la convección y las capas límite, sino que también debe llevar hacia adelante en el tiempo cierta información importante de las observaciones anteriores. Esto se ilustra en la figura siguiente. Las observaciones obtenidas en un momento afectan el pronóstico a corto plazo que se usa como campo de fondo para generar el análisis del próximo momento. A lo largo de varios ciclos del proceso de asimilación, los campos del modelo reflejan una mezcla de todas las observaciones que han incorporado y su evolución. En efectos, cada pronóstico a corto plazo predice el siguiente conjunto de observaciones, ¡y las observaciones reales se usan para ajustar lo que el modelo había anticipado para ellas!
Si bien esta parte del curso a distancia del NWS sobre predicción numérica del tiempo no es obligatoria, sí constituye un tratamiento ameno e informativo del proceso de asimilación de datos. Si no le molesta «suspender su incredulidad» por algunos minutos, creemos que esta parte de la lección puede ayudarle bastante a comprender el proceso de asimilación de datos. Esperamos que la disfrute.
Soy una observación del viento tomada por radiosonda en la costa del Pacífico de Estados Unidos, la misma que aparece en rojo en la figura Proceso de asimilación de datos que estuvo estudiando en la sección anterior. Hacía falta corregir el modelo con datos reales, y mi globo tuvo que levantarse a la altura de las circunstancias. Mi informe codificado explica que soy un viento de 40 nudos (~75 km/h) proveniente de 280 grados en el nivel de 700 hPa. Tengo hermanos en otros niveles obligatorios e importantes, así como vecinos, en otras estaciones de radiosondeo. Según la pronosticadora de turno, la secuencia de imágenes satelitales indica que está entrando una onda más intensa y más definida de lo que pronosticaban los modelos. El sistema de asimilación de datos me tragó y está por asimilarme, pero no sé qué será de mí... por suerte ha llegado el mago de la asimilación de datos, ojalá pueda contestar mis preguntas al respecto. Mi conversación con el mago nos permitirá seguir mis peripecias a través del sistema de asimilación hasta mi destino final y comprender el efecto que tendré en el análisis. Voy a hacer todo lo posible por afectar el análisis, por mi peso e influencia.
![]() |
Hola, Sr. Mago, ¡aquí estoy! ¿Llegué a tiempo para participar en el análisis? |
![]() |
![]() |
Sí, jovencita, llegaste antes de la hora límite de presentación de datos. |
![]() |
Te detectaron a las 1115 UTC, pero no entraste en la base de datos del NCEP sino 50 minutos después, después de que se registraran también tus hermanitos menores en la troposfera superior y en la estratosfera. Tu globo se lanzó una hora antes de la hora sinóptica de las 12 UTC y subió durante casi una hora antes de estallar en la estratosfera. Luego llevó algunos minutos preparar y transmitir los datos codificados. Y bueno, sí, al fin lograste meterte en la corriente de datos disponible para el análisis de las 12 UTC. |
![]() |
¿Estoy todavía en mi forma original de «medición puntual» de globo a la deriva cerca del nivel de 700 hPa? |
![]() |
Dado que me lo preguntas, puntualicemos: hubo que descifrar los datos codificados de la transmisión que nos informaba de tus valores antes de admitirte en la corriente de datos del modelo, pero no se precisó ningún otro tipo de preprocesamiento. Esto difiere de lo que ocurre con los vientos Doppler VAD, que se promedian para una hora entera y son de por si vectores viento medios de un círculo alrededor del radar. |
![]() |
Me han dicho que ciertos datos se rechazan sin más ni más, sin que nadie siquiera se moleste en mirarlos. ¿Cómo es posible que se ignore una observación de la atmósfera real? |
![]() |
Entiendo tu preocupación, pero debes comprender que los métodos de observación usados en algunos países no nos permiten confiar en la exactitud de ciertos datos, y hay plataformas de observación que tienen problemas constantes con los datos. De todas formas, normalmente admitimos en el sistema incluso los datos que pueden ser incorrectos, porque realmente confiamos que nuestros procedimientos de control de calidad lograrán filtrar las observaciones erróneas. En tu caso, como no estás en ninguna categoría que prohibiría tu uso y pareces ser algo chillona, ¡seguro que no te vamos a ignorar! Pero lamento informarte de que ya tuvimos que matar a tu gemela malvada. |
![]() |
¿Qué gemela malvada? ¡No recuerdo nacer acompañada! |
![]() |
Seguramente se trata de un lapsus de memoria. Los datos de tu hermana gemela llegaron primero, pero como el informe de radiosondeo se había diseminado dos veces, simplemente usamos el último en llegar. ¡No podemos tolerar ningún intento de aumentar la influencia de alguna observación mediante la duplicación de informes! Pero la verdad es que normalmente esto no sucede con las de tu estirpe, los informes redundantes nos suelen llegar de las aeronaves. |
![]() |
¿Y mis amigas en el suelo? Me dicen que algunas fueron sepultadas vivas. |
![]() |
Sí, así es, pero solo unas cuantas. Construimos las montañas del modelo encima de ellas y quedaron aplastadas por miles de metros cúbicos de granito. ¡Fue una cosa muy dura! |
![]() |
Por suerte yo soy muy alta... en fin, espero que mis valores groseros no hayan ofendido a nadie. |
![]() |
No, en realidad ere bastante regular y tus valores no son tan groseros. Como estás dentro del rango posible para un viento en el nivel de 700 hPa, seguiremos adelante con tu procesamiento. |
![]() |
Entonces no soy un tipo de datos inútil, ¿verdad? |
![]() |
No, no te preocupes, no eres como una medición satelital de radiancia sobre tierra firme, o un dato de radiancia sobre agua observado a través del cielo nublado. Ánimo, te vamos a usar, ¡que te guste o no! |
Este diálogo menciona algunos puntos clave sobre la logística de incorporar datos nuevos en el modelo. Una vez que termine esta sección, encontrará información más detallada sobre este tema seleccionando la sección Datos en el menú de navegación de la izquierda.
![]() |
Tú, observación del viento, adelante; ha llegado la hora de tu conversión. |
![]() |
![]() |
¿Conversión? Pero no, ¿cómo va a ser eso? ¡Yo represento algo! |
|
![]() |
¿Y qué crees que representas, exactamente? |
|
![]() |
Con todo el debido respeto, Sr. Mago, usted es el que tiene todos los datos. Dígame usted lo que represento: ¿una onda corta?; ¿una onda larga?; ¿una onda de gravedad?; ¿los efectos de la mezcla por momento en una banda de lluvia frontal? Quizás yo sea una combinación de todo esto... |
|
![]() |
Bueno, en realidad representas la velocidad del aire sobre una región de aproximadamente 500 metros cuadrados promediada durante más o menos un minuto. Y ahora, vamos, tenemos que convertirte en un incremento de observación. |
![]() |
¿Y eso qué es? |
![]() |
Es la diferencia entre lo que tú crees que es la velocidad del viento y lo que el pronóstico a corto plazo del modelo cree que es. Te comparamos con el modelo para ver si funciona bien. |
![]() |
¿Y cómo me van a comparar a mí con el modelo? El modelo no representa la misma cosa que yo. Con una malla de 20 km, el modelo necesita ponerse lentes bifocales para detectar una estructura de 100 km de ancho. |
![]() |
Tu queja es acertada. Ya haremos algo para corregir ese problema más tarde, a la hora de asignarte un error de representación. Debes recordar que el análisis es para beneficio del modelo, no para que tú puedas imponer tus valores. En fin, para la hora y la posición en que te detectaron, la seudoobservación del modelo es… |
![]() |
[Interrumpe] ¿La seudoqué? ¿De qué me está hablando? |
![]() |
Una seudoobservación es lo que el modelo cree que la observación debe ser en tu posición y a la hora que te detectaron. El modelo no hizo una predicción exactamente para el nivel de 700 hPa ni para tu posición de latitud y longitud exacta. Pero como sí pronosticó las condiciones promedio alrededor de tu posición, podemos interpolar esos valores hasta allí. Además tenemos la salida del modelo de las 9 y las 12 UTC, pero no para la hora que te detectaron en la atmósfera, a las 11:15 UTC. Para esto también vamos a interpolar, es decir, usar un atajo y hacer como que los datos de radiosondeo tomados en cualquier momento de la mañana son válidos a las 12 UTC. El campo de vientos del modelo interpolado para tu hora y posición… |
![]() |
[Interrumpe otra vez] Un momento, eso no es justo para el modelo. Debe haber algún error en esta interpolación y en la suposición sobre la hora. |
![]() |
Claro que sí, especialmente para las estructura que se mueven rápidamente, ya que pueden suavizarse y quedar borrosas. Pero podría ser incluso peor. Imagínate si tratáramos de pasarte a una celda de malla del modelo a la hora de salida del modelo. Eso será un verdadero desastre y tendremos que recurrir a otras observaciones. Tenemos que compararte a ti con el modelo, es la mejor alternativa. |
![]() |
¿Y si yo fuera una medición satelital de radiancia? ¿Cómo me compararían con el modelo en ese caso? |
![]() |
Habría que usar los campos de humedad, temperatura y ozono del modelo para calcular una simulación de radiación saliente para la misma banda de longitud de onda estrecha utilizada por el canal satelital que obtiene la radiancia. Eso nos permitirá usar los campos del modelo y las observaciones de forma más directa y con un mayor grado de exactitud de lo que será el caso al usar las radiancias medidas por satélite para recuperar un sondeo de temperatura. La asimilación directa de la radiancia es sin duda la mejor forma de proceder y se ha demostrado que mejora enormemente los pronósticos del modelo. |
![]() |
Está bien, me ha convencido. Le permito que me convierta en un incremento de observación. |
![]() |
La seudoobservación del modelo es de 33 nudos (61 km/h) desde 200 grados. Esto significa que tu incremento de observación es 47 nudos (87 km/h) desde 325 grados. Si agregamos este vector al pronóstico del modelo, obtenemos tu observación. |
![]() |
Pero, un momento, ¡no puede ser! ¿De veras cree que yo debía entrar del sur a 33 nudos en lugar del oeste a 40 nudos? ¿No me rechazarán por eso? |
![]() |
A ver qué pasa con tus vecinos de arriba y de abajo. Tu amiga de globo-sonda detectada en 850 hPa entraba del sureste a 30 nudos y tu «alto ego» en 500 hPa llegaba del sureste a 50 nudos. Alguien en control de calidad se dio cuenta que había un error de dedo o de transmisión en tu dirección del viento. El informe no debía decir 280 grados, sino 180. |
![]() |
¡Fantástico! Un rumbo mucho mejor, ¡una vuelta de 100 grados! |
![]() |
Sí, pero tu incremento de observación sigue siendo bastante grande, 14 nudos desde 130 grados. |
![]() |
¿Y por qué hay tanta diferencia entre lo que yo detecto para el viento y la predicción a corto plazo? ¡Yo no tengo la culpa de que el pronóstico del modelo está tan lejos de la realidad! |
![]() |
Es posible que tampoco sea culpa del modelo. En primer lugar, tú tienes un poco de error de instrumento. Y en segundo lugar, desde la perspectiva del análisis también tienes un error de representación. Como dijiste antes, tu observación representa una combinación de varias cosas, alguna de las cuales el modelo detecta y algunas no, por ser demasiado pequeñas. En el caso de los sondeos o las radiancias de microondas, la observación suaviza la estructura vertical que el modelo puede ver. Y como también dijiste tú, la interpolación que produce una seudoobservación del modelo causa un error. Además, claro, el pronóstico del modelo contiene errores, para eso estás tú: ¡para corregirlos! Es hora de comprobar tu coherencia espacial. |
![]() |
No entiendo, ¿mi coherencia espacial? |
![]() |
Es nuestra forma de rechazar a las observaciones impertinentes, como tú. Comparamos tu incremento de observación con los valores de tus amigas más cercanas, para asegurar la coherencia espacial. Si todas están de acuerdo, hay consenso sobre las correcciones que hay que hacer en el pronóstico del modelo. Pero si una de ustedes es muy diferente de las demás, se supone que se trata de una observación defectuosa. |
![]() |
¿Y qué sucede si mis amigas más cercanas están muy lejos? |
![]() |
Esa es una de las ventajas de comparar tu incremento de observación con el de tus amigas. Supongamos que el modelo hace una predicción bastante buena, aunque no perfecta, de un evento de mesoescala. Quizás tú seas la única observación capaz de verificar ese evento. Al compararte con tus amigas, parecerías un valor atípico. Pero como el pronóstico del modelo es bastante bueno, tu incremento de observación es tan pequeño como el de ellas, de modo que podemos usarlas todas para hacer pequeñas correcciones. |
![]() |
Pero a veces el modelo comete un error grande en una zona pequeña. ¿Qué pasa si una sola de nosotras tiene defender esa zona? |
![]() |
Claro, ésa es una de las ocasiones en que se acaba rechazando una observación correcta y demuestra la importancia de la suposición fundamental de la asimilación de datos: ¡el pronóstico del modelo debe ser correcto! |
![]() |
¿Una de ellas? ¡Parecería que cualquier excusa es buena para eliminar una observación validísima como yo! |
![]() |
Tranquila, tranquila... estas determinaciones se hacen de forma objetiva y solo te eliminaríamos con buenos motivos. La verdad es que a veces nos equivocamos, por ejemplo si el desarrollo es demasiado rápido o la ventana temporal es excesivamente amplia, de modo que el problema de interpolación temporal que mencionamos antes degrada la seudoobservación del modelo. A veces un pequeño error de posición en un campo del pronóstico con un fuerte gradiente puede hacer que una observación parezca un valor atípico. Al fin y al cabo, no es un error ignorarte si representas algo que no es compatible con lo que representa el modelo, como una observación de radar Doppler de una ráfaga de escala inferior a la malla. |
![]() |
Ignorar un frente de ráfagas, ¿pero habrase visto semejante cosa? ¡Con eso el pronóstico será un verdadero desastre! ¿Y lo harían incluso en un modelo de alta resolución que permite la producción de la convección? |
![]() |
Recuerda que dije «de escala inferior a la malla». La forma de tratarlo depende de la resolución del modelo y de las dimensiones del frente de ráfagas. |
![]() |
Entonces, si entiendo bien a veces se rechazan los mismos datos que se necesitan para corregir el pronóstico. |
![]() |
No es muy frecuente, pero sí, a veces sucede, en las situaciones meteorológicas más cruciales. Esto significa que es fundamental comparar el análisis y las observaciones a la hora de preparar un pronóstico. |
![]() |
Bueno, ¿he cumplido con todos los requisitos para que comencemos el análisis? |
![]() |
Todavía tienes que pasar la inspección manual por parte del meteorólogo de turno con ancianidad (Senior Duty Meteorologist, SDM)* de NCEP. Pese a tanta tecnología, sigue siendo esencial que una persona entrenada haga un análisis final en caso de que haya alguna observación de radiosonda dudosa pero quizás válida, y para vigilar la enorme y siempre mayor cantidad de datos que recibimos. |
![]() |
Pero qué será de mí, ¿me van a usar o no? |
![]() |
Un examen de la carta de incrementos de observación indica que tu incremento y el de las demás forman un patrón coherente y se apoyan mutuamente. Ahora que hemos corregido tu dirección, encajas a la perfección. No te preocupes, ¡te usaremos! |
*Si usted trabaja fuera de los Estados Unidos, comuníquese con el centro de predicción numérica del tiempo de su país.
Este diálogo menciona algunos puntos clave sobre los incrementos de observación. Este diálogo menciona algunos puntos clave sobre la logística de incorporar datos nuevos en el modelo. Una vez que termine esta sección, encontrará información más detallada sobre este tema seleccionando la sección Incremento de observación en el menú de navegación de la izquierda.
![]() |
Vamos a comenzar un análisis a partir de los incrementos de observación. Tú, incremento de observación del viento, ve y circula un poco con tus vecinos y tus primos del modelo, a ver si te integras un poco. |
![]() |
![]() |
¿Integrarme? ¿Y cómo lo hago? Algunos de esos incrementos de observación son muy viejos y otros no son sino chiquilines. ¿No pretenderá combinar un incremento de observación de las 11 UTC con otro de las 13 en el mismo análisis? |
|
![]() |
Sí, eso es exactamente lo vamos a hacer. Esto mejorará cuando comencemos a usar ciclos de actualización de una hora, porque haremos un análisis y un pronóstico de una hora 6 veces entre los pronósticos operativos que emitimos cada 6 horas. ¡Y ahora muévete! |
|
![]() |
¡Qué horror! Nos hacen picadillo y luego toman los trozos de diferentes incrementos de observación y los pegan a los valores del modelo. Además, ¿por qué descartan parte de nosotras con esta operación? |
|
![]() |
Este procedimiento extrae toda la información que se puede utilizar de las observaciones como tú. Realmente tratamos de aprovecharte todo lo posible, pero también debemos conservar la estructura de los campos de fondo. Para satisfacerlos a todos, tú, tus vecinas y tus hermanas en todo el país, y tener en cuenta a la vez los intereses del modelo, debemos sopesar la evidencia con cuidado. Súbete a esa balanza, a ver cuánto pesas. |
![]() |
¡Pero, qué atrevimiento! Y encima me da un montón de pesas. ¿Para qué es toda esta carga? |
![]() |
Deja de quejarte, ¡en realidad es un gran honor! Estas pesas representan tu exactitud. Asignamos las pesas más grandes a los tipos de datos más exactos según el error de observación esperado. |
![]() |
¡Qué alegría! ¿Y cómo saben cuánto error pueden esperarse de mí? |
![]() |
Tenemos que suponer algo: suponemos que las observaciones como tú contienen errores aleatorios, algunos chicos, otros grandes, y por eso usamos el error medio. Este error de observación esperado tiene dos componentes: primero, el error de instrumento; segundo, ¿te acuerdas de cómo te quejaste antes, y dijiste que representas algo diferente de lo que el modelo puede ver? Bueno, aquí podemos tenerlo en cuenta. Añadimos al error que suponemos que te corresponde si tus valores se relacionan más con lo que puedes ver que el modelo no ve, o lo que tú no puedes ver y el modelo sí. Por ejemplo, tu error de representación sería grande si fueras un sondeo de microondas con solo un par de niveles para toda la troposfera. |
![]() |
Y mi error, ¿se supone que sea pequeño? |
![]() |
Varía según el modelo, pero por lo general es de 2 m/s. |
![]() |
Pero, qué raro: ¿por qué la balanza registra pesos y no kilos? |
![]() |
Oh, perdón, es que muestra la función de costo. |
![]() |
Ejem, ¿qué costo? ¡Si me ofrecí gratis! |
![]() |
Bueno, en realidad no se trata de un costo para ti, sino para el análisis. Y cobramos por NO usarte. |
![]() |
Por suerte, ¡porque ando sin un mango! |
![]() |
Penalizamos el análisis según el grado de diferencia con lo que tú dices sobre el viento. Al dar más peso a los tipos de observaciones más exactos, incentivamos al análisis a seguir más de cerca las observaciones de mejor calidad. Y cuando hay muchas observaciones que coinciden entre sí, el análisis se ve incentivado para escucharlas. Eso significa que prestamos más atención a las zonas con muchos datos que a las áreas donde hay pocos. Ponderamos los campos de fondo de manera similar. Recuerda que el análisis sopesa la evidencia en busca del equilibrio. El análisis busca un conjunto de valores que minimice el total de todas las «multas» que tiene que pagar. |
![]() |
¿Le dan peso a esa manifestación inferior que es el campo inicial? ¿Qué error de viento se supone que exhiba? |
![]() |
¿Cómo te atreves a decir que el campo inicial es una manifestación inferior? ¡Se extiende hasta la estratosfera! Y en términos estrictos no tiene un error de viento supuesto. En realidad, el modelo asimila el potencial de velocidad (que está relacionado con la divergencia) y la función de líneas de corriente (que está relacionada con la vorticidad). Al convertir estas funciones en vientos, el campo de fondo tendría un error de algunos metros por segundo, quizás un poco más grande de lo que supusimos para tu error de observación. Una suposición de error mayor implica una ponderación menor, de modo que la balanza se inclinaría un poco en tu favor, antes de considerar otros factores que complican la situación. En realidad, la matemática no produce una ponderación sencilla de los incrementos de observación y el campo inicial, sino una fusión compleja de los dos, pero sirve para encontrar el punto de equilibrio óptimo dadas las características de error supuestas para cada uno. |
![]() |
¿Y no me dan ningún trato especial por ser de la costa del Pacífico? Es consabido que allí el pronóstico del modelo es peor, de modo que mis valores se necesitan más que si yo fuera de un lugar donde se cuenta con muchas observaciones. |
![]() |
Eso ya se considera, en parte: la suposición de error de fondo se basa en las estadísticas de rendimiento del modelo. A grandes rasgos, eso significa que el error de temperatura supuesto es pequeño en los trópicos, porque es casi imposible que el modelo produzca un pronóstico de temperatura equivocado en un lugar donde el rango diurno y mensual es tan pequeño. Como tradicionalmente los patrones de error del modelo no se separan por régimen, es posible que el análisis no escoja el mejor punto de inflexión entre las observaciones y los valores del pronóstico para las condiciones actuales. No obstante, se han creado métodos de análisis nuevos que hace uso de dispersiones de conjuntos para identificar los lugares de mayor incertidumbre en el campo inicial del pronóstico y aumentan el error de fondo supuesto en esas áreas con el fin dar más peso a las observaciones de la zona, pero aún dependiendo más del campo inicial en otros lugares. |
![]() |
Pero como soy de la costa del Pacífico, ¿no debería tener más peso? Especialmente para la región del oeste, donde no hay muchos otros datos. |
![]() |
Ahora te has metido en esas otras complicaciones que te mencioné antes. Sí, suponemos que tu influencia es más amplia, pero la amplitud de esa influencia depende de las estadísticas medias de rendimiento del modelo o de la dispersión del conjunto, según el enfoque adoptado por el modelo en particular. Tu incremento de observación sí nos permite inferir ciertas correcciones en el campo inicial sobre los vacíos de datos, es decir, las zonas que carecen de datos. De forma análoga, también extendemos tus correcciones en sentido vertical, de modo que si el modelo pronostica una velocidad del viento demasiado baja en tu posición, suponemos que hizo lo mismo a cierta distancia por encima y por debajo de ese lugar. Ahora bien, el punto clave que hay que recordar para los modelos que usan el enfoque tradicional es que el alcance de tu influencia no varía según el régimen e incluso puede no variar por longitud, de modo que puede ser igual sobre las montañas Rocosas, las planicies y el océano. Y sin duda no cambia con condiciones específicas, por mucho que te parezca que la altura de la tropopausa o una inversión frontal deberían afectar la dispersión vertical de tu influencia. Sea como sea, un análisis 4D-VAR tendrá en cuenta estas condiciones meteorológicas. La amplitud meteorológicamente apropiada y específica para la situación de tu influencia en cualquier dirección es la ventaja principal del análisis variacional en cuatro dimensiones, el cual produce un mejor análisis, pero requiere recursos de cómputo enormes, muchísima más potencia que la ejecución del modelo de pronóstico. |
![]() |
Si entiendo bien, según el modelo, mancillan mi buen nombre. Yo creo que mi influencia sería más beneficiosa si se extendiera a lo largo de una línea de corriente. |
![]() |
Ésa es una excelente idea, y hace tiempo que trabajamos en eso. Volviendo al objetivo principal de conservar la estructura de los campos del modelo, si el análisis acepta los valores observados en el punto de observación, ¿qué valores debe usar entre ellos? Si aceptamos una corrección al campo inicial y la distribuimos generosamente, evitamos introducir irregularidades en los campos del análisis y conservamos el carácter y la integridad general del campo inicial confiable. ¡No te olvides que suponemos que el campo inicial es fidedigno! Por cierto, te conviene recordar que hay ciento o miles de vientos detectados por el movimiento de las nubes sobre el océano, de modo que tienes un poco de competencia en el "vacío de datos". |
![]() |
Ufff, me había olvidado de ellos. Pero yo soy mejor, aparte que pueden ser todos incorrectos. No es justo, hay tantos de ellos y yo aquí, solita... |
![]() |
Ah, pero eso también se tiene en cuenta. Como sabemos que provienen todos del mismo instrumento, podemos correlacionar sus errores; por ejemplo, pueden presentar todos el mismo tipo de sesgo, y cuando demasiado de ellos están juntos podemos promediarlos, para que la escala que representan se acerque a lo que puede ver el modelo y su influencia no sea excesiva. Además, no son tan exactos como tú, de modo que se supone que tienen un error de observación más grande. Todos los métodos estadísticos están a tu favor. Esto es muy importante, porque introducir información incompatible o inexacta en el modelo degrada el pronóstico. Como siempre, debemos aprovechar nuestros conocimientos de las características del sistema de observación y del rendimiento del modelo para extraer toda la información aprovechable de todas las observaciones. |
![]() |
Ya veo... no hay nada de magia, se trata de un juego de probabilidades. |
![]() |
Y ahora te puedo mostrar cómo tu incremento de viento puede ejercer una influencia enorme. |
![]() |
¡Fenómeno! |
![]() |
Sí, pero según el tipo de fenómeno hará frío en algunos sitios y caliente en otros. Aplicamos una limitación dinámica para inferir correcciones de temperatura de acuerdo con la influencia de los vientos, como tú. De este modo el análisis puede enlazar los campos de masa y de vientos, de forma tal que las observaciones del viento afectan el campo de masa, mientras que las observaciones de temperatura y presión o altura afectan el análisis de los vientos. Si el análisis solo cambia los vientos en comparación con los vientos del campo inicial, los vientos nuevos no se podrán conservar en el pronóstico. Es necesario contar con la estructura dinámica adecuada, que tiene que ver con la masa y los vientos, para poder pronosticar la estructura meteorológica observada. Por lo tanto, se infiere información sobre la masa o los vientos cuando se observa uno de los dos. |
![]() |
En otras palabras, ¿yo afecto las temperaturas a mi alrededor a través de algo como balance del viento térmico? ¡Qué alegría! |
![]() |
Bueno, sí, pero hay un problema. Cuanto más simple la limitación dinámica, tanto menos se puede aplicar de forma general, y ninguna funciona en todos los casos. Cuando la resolución del modelo es muy alta, digamos unos cuanto kilómetros, el tema de balance dinámico se vuelve muy complicado. |
![]() |
Parece evidente que las radiosondas brindan la mejor información, porque cuentan con datos de masa y vientos a gran profundidad. |
![]() |
¡Qué profundas tus ideas! Hay otras observaciones que alcanzan el mismo grado de calidad, como los perfiles de ascenso/descenso de las aeronaves que despegan y aterrizan. Los datos de un solo nivel, como las observaciones de superficie, nos brindan información muy limitada y nos obligan a inferir la estructura vertical a partir de suposiciones simples, en el mejor de los casos. Esto no ayuda el pronóstico más que durante unas pocas horas. |
![]() |
Bueno, después tanta explicación, ¿sabe decirme qué parte de mi incremento de observación de 14 m/s se verá en el análisis? |
![]() |
Depende de los muchos factores que acabamos de mencionar y también de la cantidad y los tipos de otras observaciones y si empujan el análisis en la misma dirección que tú. Vas a tener mucho más éxito si tu influencia cuenta con el apoyo de muchas otras observaciones. El análisis trata de tener en cuenta todas las observaciones, la amplitud de su influencia, sus relaciones masa-viento y la estructura del campo de fondo. Tratar de satisfacer todas estas influencias simultáneamente en alguna medida es un impresionante juego de malabares. |
![]() |
Con esto se acaba mi identidad, ¿verdad? |
![]() |
Sí, serás asimilada. La resistencia es inútil. Como parte del colectivo tu información se utilizará de forma óptima y se llevará hacia el futuro. |
Este diálogo menciona algunos puntos clave sobre el proceso de análisis. Si desea información más detallada sobre este tema, seleccione la sección Análisis en el menú de navegación de la izquierda.
El objetivo del sistema de asimilación de datos consiste en cotejar el pronóstico del modelo a corto plazo usado para inicializar el ciclo de pronóstico actual con la realidad, es decir, con las observaciones. Esta sección explica la corriente de datos de observación de entrada y se centra en cómo el sistema de asimilación de datos utiliza estas observaciones.
Algunos tipos de datos solo están disponibles a ciertas horas del día o para regiones geográficas o condiciones meteorológicas específicas.
Esta tabla resume algunas de dichas limitaciones.
Limitaciones de hora del día |
|
Limitaciones de región geográfica |
|
Limitaciones de condiciones del tiempo |
|
Las limitaciones impuestas por las condiciones del tiempo son particularmente importantes, ya que pueden crear un vacío de datos que se desplaza junto a un sistema meteorológico. Por ejemplo, es posible que un sistema sinóptico lleno de nubes que tarda varios días en atravesar el Pacífico nunca permita obtener datos de temperatura de alta calidad salvo las pocas lecturas obtenidas en la alta troposfera por las aeronaves cuya trayectoria de vuelo por casualidad coincide con la de la tormenta. Además, no habrá datos satelitales de temperatura de la superficie del mar (TSM) actuales. Aunque las temperaturas de microondas del satélite pueden llegar a estar en el modelo, solo pueden resolver algunos niveles troposféricos y no son de calidad suficiente como para corregir adecuadamente el pronóstico del modelo cuando ejecuta un ciclo sobre sí mismo.
Encontrará ejemplos de estas limitaciones en las páginas siguientes.
El movimiento de las nubes permite derivar los vientos, pero prohíbe el uso de la mayor parte de los datos de radiancia para corregir las temperaturas.
Observe que los puntos verdes son observaciones del viento derivadas del movimiento de las nubes; la imagen inferior de la figura usa colores donde hay datos de radiancia disponibles: la mayoría de los lugares cuentan con uno u otro tipo de datos.
Tenga en cuenta que estas observaciones fueron tomadas durante un período de 6 h. La buena distribución de datos en altura y otros niveles coinciden mayormente con los centros poblados, donde las aeronaves ascienden y descienden al despegar o aterrizar.
Algunas observaciones se perfeccionan incluso antes de que pasen a formar parte del flujo de datos. Por ejemplo, los valores del viento obtenidos con indicación velocidad-acimut (Velocity Azimuth Display, VAD) del radar con promedios de una hora, pese a que el radar ejecuta un barrido volumétrico completo cada seis minutos. Además, es posible que se realicen procedimientos de control de calidad a nivel de instrumento.
Una vez incorporadas al flujo de datos, las observaciones se deben «descifrar» para permitir su entrada el sistema de asimilación de datos, ya que pueden estar codificadas en muchos formatos distintos. A continuación, los datos se someten a procesos de comprobación para eliminar los errores crasos o groseros, que normalmente se deben a fallos de instrumento, problemas de comunicación o errores de transcripción manual.
Una vez que se comprueben los datos y se eliminen las lecturas físicamente imposibles (los errores crasos), sigue habiendo datos con errores entre pequeños y moderados que constituyen valores físicamente posibles. Algunos de estos son refutados por otras observaciones o por los campos de fondo del modelo. El control de calidad se aplica con el fin de eliminar o corregir estos valores y evitar la posibilidad de contaminar el pronóstico con datos incorrectos. Hay cuatro tipos de control de calidad, que se cubren en las próximas páginas.
*Si usted trabaja fuera de los Estados Unidos, comuníquese con el centro de predicción numérica del tiempo de su país.
Puede ver mapas de las observaciones aceptadas y rechazadas para todos los tipos de datos que se introducen en el Sistema de Pronóstico Global (Global Forecast System, GFS) de NCEP en este sitio: http://www.emc.ncep.noaa.gov/gmb/ssaha/maps/obs/dist/dist.html. En esta página, «AVN» es el ciclo de ejecución de GFS, mientras que «FNL» corresponde a un análisis posterior que incorpora datos que llegaron demasiado tarde para que se pudieran incorporar a GFS. El próximo ciclo de GFS puede beneficiarse de estos datos de último momento, porque el campo inicial del ciclo siguiente es un pronóstico de 6 horas que se ejecuta a partir del FNL. Los recuentos de datos incluyen cada lectura individual, de modo que el informe de una radiosonda que abarca 20 niveles equivale a 20 observaciones de temperatura distintas.
Los datos de temperatura y humedad de los satélites no se filtran de antemano, sino que se someten a su propio control de calidad interno al sistema global de análisis. El enlace anterior muestra los datos que entran en el sistema de análisis, aunque muchos de ellos no se utilizan. Por ejemplo, los canales de datos de radiancia que muestran una combinación de información en la superficie y la troposfera no se utilizan sobre tierra firme. Puede ver las observaciones satelitales que sí se utilizan y cómo difieren del campo inicial para cada canal seleccionando Horizontal Data Plots y una plataforma satelital en el sitio http://www.emc.ncep.noaa.gov/gmb/gdas/radiance/index.html.
Se generan listas que permiten rechazar algunos datos en forma automática.
El sistema interno de CC incluye:
El meteorólogo de turno con ancianidad (Senior Duty Meteorologist, SDM)* de NCEP realiza una inspección manual de los datos de radiosondeo, especialmente los que han marcado las comprobaciones automáticas de control de calidad y, cuando resulta posible, se hacen correcciones.
*Si usted trabaja fuera de los Estados Unidos, comuníquese con el centro de predicción numérica del tiempo de su país.
Cuando existe una discrepancia grande entre una observación y el análisis, se supone que la observación sea un valor atípico y se le da poco o ningún peso. Pero si una iteración posterior del análisis cambia de modo que la observación cabe mejor, se reduce o elimina por completo el factor que pone en duda la observación.
Esta sección brinda respuestas más completas a estas interrogantes de lo que hemos presentado hasta ahora. Debido a sus diferentes ubicaciones, horas de obtención, variables y diferencias en la hora y el volumen de muestreo, podemos decir que comparar las observaciones con los campos del modelo es análogo a comparar peras con manzanas. Mediante la interpolación y conversión de variables, las peras (los campos del modelo) se transforman en algo parecido a manzanas (observaciones), para que se puedan comparar. Explicaremos los problemas y las fuentes de error que esto introduce.
Las observaciones y los campos del modelo se comparan formando el incremento de observación, que esencialmente es la diferencia entre una observación y el pronóstico, una vez que el pronóstico se haya transformado en algo semejante a una observación. Esta sección también explica cómo se utiliza el incremento de observación en el control de calidad, así como lo que esto implica para el pronóstico. La sección posterior, Análisis, describirá cómo el proceso de asimilación de datos hace uso de estos incrementos de observación para corregir los campos del modelo y producir un nuevo análisis para otro ciclo de pronóstico.
Los datos observados no son lo mismo que los datos del modelo. Aunque puede parecer obvio, con toda probabilidad es incluso más complicado de lo que nos imaginamos. Hace falta bastante esfuerzo llegar al punto en que el proceso de asimilación de datos pueda comenzar a comparar las observaciones y los datos del modelo para crear un análisis nuevo. Para comprender por qué esto es tan difícil, consideremos lo que representa cada tipo de datos.
A medida que sube, una radiosonda puede verse atrapada en la corriente ascendente de una tormenta, donde las condiciones distan mucho de ser representativas de las condiciones ambientales generales, o quizás pase por una serie de pequeños grupos de nubes. Un perfilador del viento detecta el movimiento oscilante de las pequeñas ondas de gravedad superpuesto al flujo medio, de forma que el viento en cualquier momento dado puede no ser representativo del viento medio de la región. Es preciso tener en cuenta el muestreo del instrumento para saber qué estructuras meteorológicas representan las observaciones.
Cada observación individual tiene una hora y un volumen de muestreo característico, y mide una cantidad limitada de tipos de variables. Esta tabla muestra algunos ejemplos:
Fuente de datos |
Hora de muestreo |
Espacio muestreado |
Variables medidas |
---|---|---|---|
Radiosonda |
Pocos segundos |
Decenas de metros |
Temperatura, humedad, velocidad del viento, etc. |
Radiancias medidas por satélite |
Fracción de un segundo |
Campo de visión del instrumento de barrido único, emisiones de capa profunda y área ancha contribuyen a la radiancia |
Radiancias en varias longitudes de onda |
Perfiladores del viento |
Promediados durante una hora antes de pasar al modelo |
Anchura y profundidad del haz de radar |
Movimiento de gradientes de índice de refracción, esencialmente turbulencia |
Tiene poco sentido comparar las observaciones con el campo inicial del modelo si no son ambos capaces de «ver» las mismas estructuras meteorológicas. Esto significa que es preciso tener en cuenta el muestreo espacial y temporal del modelo, así como las variables que mide.
Fuente de datos |
Hora de muestreo |
Espacio muestreado |
Variables medidas |
---|---|---|---|
Pronóstico del modelo |
Cada paso de tiempo genera promedios de pocos minutos o menos, pero la salida del modelo suele obtenerse a intervalos 1 a 3 horas. |
Celdas de malla tridimensional. Para que se pueda resolver de forma razonable, la estructura debe tener una longitud de onda completa al menos 5 a 10 veces el ancho y la profundidad del espaciado de malla horizontal y vertical del modelo. |
Temperatura, humedad, vectores viento (en realidad se trata de potencial de velocidad y función de corrientes), y otras variables. |
Los campos del modelo se interpolan con el lugar y la hora de una observación. Este valor derivado por el modelo se conoce como seudoobservación. Posteriormente, las seudoobservaciones se comparan con las observaciones reales a la hora y en el lugar de la observación. Supongamos, por ejemplo, que una aeronave ha medido la temperatura en 215 hPa a las 1045 UTC. Como ilustra la figura, se genera una seudoobservación de la temperatura pronosticada interpolando las temperaturas del modelo de los niveles y lugares más cercanos con el lugar de la observación, usando la salida del modelo de la hora de salida más cercana.
Sin embargo, la conversión de los campos del modelo en seudoobservaciones puede introducir errores, y ser la causa de que incluso un pronóstico perfecto exhiba una fuerte discrepancia con una observación perfecta. El resultado es una fuerte «corrección» de un pronóstico bueno o el rechazo de la observación.
En este ejemplo, el campo inicial transporta una onda intensa hacia el este a 25 m/s. La salida del modelo se genera a intervalos de 3 horas, de modo que las observaciones tales como los vientos detectados por aeronave una y dos horas después del primer panel terminan comparándose con las seudoobservaciones, como en los paneles intermedios, donde la amplitud de la onda y la velocidad del viento se reducen considerablemente y el eje de la vaguada se coloca en el lugar incorrecto. Si el pronóstico es acertado, las observaciones que indican que el sistema es más intenso de lo que muestran las condiciones mal interpoladas en T+1 y T+2 obligarán al análisis a intensificar incorrectamente el sistema en comparación con el campo inicial válido en T+3, o bien provocar el rechazo de los datos.
Podríamos mejorar la compatibilidad temporal generando la salida de los campos del modelo en cada paso de tiempo, pero en realidad un enfoque más completo consiste en aprovechar el suministro constante de datos actualizando el análisis con frecuencia. Por ejemplo, en lugar de usar un campo inicial de un pronóstico de 3 horas, podemos usar todas las observaciones de la primera hora para derivar un análisis nuevo. Llegado este punto, obtenemos otro pronóstico de una hora y realizamos otro análisis y luego ejecutamos el proceso una vez más. Este proceso de ciclos de actualización se ilustra de forma esquemática en la figura.
Los ciclos de actualización brindan una serie de ventajas:
Observe que NINGUNO de estos métodos para establecer una correspondencia entre la hora de los campos del modelo y la hora de muestreo de las observaciones tiene en cuenta la diferencia en la frecuencia y, por tanto, ninguno contempla si las observaciones y los campos del modelo pueden «ver» los mismos fenómenos.
No se olvide que algunas variables observadas no son iguales a las variables previstas por el modelo. Aunque ciertas observaciones, como las radiancias medidas por satélite, podrían transformarse en variables del modelo, como ocurre al preparar los sondeos de temperatura del GOES, considere algunas de las fuentes de error que surgirían:
Un método mejor consiste en convertir las variables del modelo en variables observadas, como hacemos al calcular la radiación saliente del modelo directamente a partir de los perfiles de temperatura, humedad y ozono del modelo para compararla con las radiancias medidas por satélite (verá una ilustración de este proceso en la próxima página). Este método se ha comenzado a usar operativamente y las pruebas que se han realizado indican que produce pronósticos del modelo considerablemente mejores en comparación con el método antes descrito. Una ventaja importante es que se conoce la estructura vertical completa, mientras que para los sondeos recuperados es preciso utilizar un perfil aproximado. Otra ventaja es que permite utilizar cada observación en su forma original. Por ejemplo, podemos calcular la radiación saliente para cada longitud de onda detectada por el satélite y luego hacer la comparación con las radiancias de cada canal. Además, los campos del modelo se usan directamente en la malla del modelo. Pero siguen introduciéndose errores por medio de la aproximación de transferencia radiativa.
El cálculo que convierte las variables del modelo de PNT en variables observadas, incluidas las interpolaciones espaciales y temporales y, en este ejemplo, un modelo de transferencia radiativa, es el «modelo hacia adelante». Esta figura ilustra el modelo hacia adelante empleado para generar seudoobservaciones de radiancias medidas por satélite.
El modelo hacia adelante que genera las seudoobservaciones del modelo correspondientes a las observaciones de superficie puede resultar particularmente problemático, porque las condiciones reales en los niveles inferiores varían mucho arriba de la superficie, mientras que las temperaturas y los vientos del nivel más bajo del modelo representan el promedio de toda una capa. Al igual que en el postprocesamiento, nos basamos en suposiciones para crear las condiciones en la superficie del modelo. La comparación de las observaciones de superficie con las condiciones de superficie simuladas en el modelo se complica aún más cuando las estaciones de observación se encuentran a altitudes que difieren de la topografía utilizada en el modelo. Estos problemas forman parte de los motivos que explican por qué la utilidad de las observaciones de superficie es limitada y por qué se limita su peso en el análisis.
Y ahora estamos comparando dos variedades de manzanas, lo cual es un poco mejor que comparar peras con manzanas, pero aún no se trata de la misma cosa. No obstante, la diferencia entre ellas se usará como base para rechazar datos y corregir el campo de fondo para realizar el análisis nuevo.
El incremento de observación es la diferencia entre los datos observados y los datos del campo de fondo una vez que estos se hayan convertido en formato de seudoobservación mediante la interpolación temporal y espacial y la conversión de las variables. El incremento de observación mide la discrepancia entre las observaciones y el pronóstico a corto plazo. En un mundo ideal, podríamos simplemente utilizar el valor de esta medida del error de pronóstico para corregir el campo de fondo. No obstante, en el mundo real, hay otros factores que contribuyen a la discrepancia entre el campo de fondo y el pronóstico y solo algunos están relacionados con los errores del modelo.
La comparación de valores de incremento de observación contiguos (buddy check) confronta dichos valores tanto en la vertical como en la horizontal. Al comparar los incrementos de observación vecinos en lugar de cotejar directamente las observaciones vecinas, obtenemos una serie de ventajas:
Éstos son algunos ejemplos de patrones de incremento y sus fuentes.
A veces sucede que el mismo instrumento, como un satélite o una aeronave, realiza varias observaciones en la misma zona general. Si el error del instrumento es grande y el pronóstico es bueno, todas estas observaciones pueden indicar un error de pronóstico grande y dar la impresión de apoyarse mutuamente. En estos casos, la comparación de valores de incremento contiguos (buddy check) con observaciones independientes, por ejemplo, las de diferentes radiosondas, aeronaves distintas u otros tipos de sistemas de observación, dará resultados mucho mejores.
Existe un proceso de control de calidad complejo (Complex QC) que incorpora inteligencia, como un algoritmo para eliminar la contaminación de aves migratorias de los datos de viento con indicación de velocidad y acimut (VAD). El proceso de control de calidad complejo puede ser muy detallado e incluir, por ejemplo, ingeniosas y elaboradas rutinas para detectar y corregir los errores de codificación y las entradas que faltan en los informes de radiosonda y aeronave. Para ver ciertos detalles, consulte el sitio http://www.emc.ncep.noaa.gov/mmb/papers/collins/preprints/obsqc2.htm.
El control de calidad no lineal (Nonlinear QC), que se explica en la sección Análisis, lleva el proceso Complex QC un paso más allí permitiendo la reevaluación de la observación durante el análisis en lugar de rechazarla sin más. Si otras observaciones acercan el análisis a la observación de valor atípico, es posible que deje de parecer un valor atípico y que termine utilizándose.
La dependencia del sistema de coordenadas puede ser otro factor que complica el proceso de control de calidad. Si el control de calidad no se lleva a cabo dentro de un sistema de coordenadas que tiene sentido desde el punto de vista físico, es posible que algunos datos correctos parezcan valores atípicos, como se muestra en la figura.
En este caso, el valor de razón de mezcla de 8 g/kg de la estación ABR, que corresponde a de Aberdeen, Dakota del Sur (EE. UU.), parece ser un valor atípico en comparación con otras estaciones para la superficie isobárica de 700 hPa. Si el modelo arrastrara esta humedad despacio, ABR terminaría siendo la única estación en exhibir el error del modelo, dejándola sujeta a probable rechazo. No obstante, en la superficie isentrópica de 313 K, sobre la cual fluye esta masa de aire húmedo, la observación de ABR forma parte de una masa de humedad coherente. Esto significa que los errores grandes del modelo pueden producir incrementos grandes en varias estaciones, de modo que la comparación de valores de incremento contiguos impediría el rechazo de los datos.
Esta es una lista de mejores prácticas para determinar qué datos se incluyeron en el ciclo de ejecución del modelo:
*Si usted trabaja fuera de los Estados Unidos, comuníquese con el centro de predicción numérica del tiempo de su país.
Este paso es el núcleo del proceso de análisis. Es el paso más complejo y su impacto en la calidad del pronóstico del modelo es muy importante.
El procedimiento de análisis objetivo desplaza y fusiona los incrementos de observación para las horas y en los lugares de observación de acuerdo con las condiciones iniciales (en la malla del modelo) de los campos de malla del pronóstico del modelo. Por ejemplo, es posible que se haya utilizado un software de laboratorio sinóptico para realizar un análisis de Barnes de alturas en 500 hPa a partir de los datos de radiosondeo. El análisis ha interpolado la altura registrada en cada estación sobre una malla ponderando el valor de cada observación según la distancia de modo tal que las observaciones cercanas han contribuido mucho más que las observaciones distantes. El sistema operacional hace lo mismo, pero con un método de análisis mucho más avanzado. En lugar de analizar las observaciones, la asimilación de datos analiza los incrementos de observación para crear una malla con las "correcciones" realizadas en el pronóstico a corto plazo anterior del modelo. A continuación, estas correcciones se agregan al pronóstico a corto plazo para formar las condiciones iniciales del próximo ciclo de pronóstico.
El análisis se ejecuta con información estadística sobre las observaciones y los campos de fondo para extraer de las observaciones toda la información que se pueda utilizar en el modelo y conservar toda la estructura posible de los campos de fondo.
Una forma de concebir este proceso es en términos de exprimir y mezclar el jugo de las dos variedades de manzanas que juntamos al preparar los incrementos de observación. Las estadísticas indican cómo podemos obtener la mezcla más sabrosa de estos dos tipos distintos de manzanas, y cómo perder un mínimo de su pulpa. Las suposiciones meteorológicas básicas subyacentes a las estadísticas afectan profundamente el análisis y su manejo de los datos y determinan cuándo el análisis tendrá problemas, y estos son los casos a los que debemos estar particularmente atentos al formular un pronóstico.
Para comprender el funcionamiento de 3D-VAR, considere en primer lugar cómo prepararía un análisis manual. Supongamos que está haciendo un análisis manual del nivel de 500 hPa sobre Estados Unidos para las 12 UTC a partir de los radiosondeos de las 12 UTC y que cuenta con la ayuda de un buen pronóstico a corto plazo para las regiones con pocos datos, quizás el pronóstico de 3 horas del modelo NAM. Tendría que considerar los factores siguientes:
El esquema 3D-VAR no «cree« a ciegas ni en las observaciones ni en el pronóstico: lo que trata de hacer es encontrar un punto de equilibrio entre las diferencias entre el análisis y las observaciones, y los cambios en el análisis que provienen del campo de fondo. 3D-VAR «sabe» el valor y las limitaciones de las observaciones, porque utiliza el error esperado de las observaciones para cada tipo distinto de datos. También conoce el comportamiento del modelo, porque utiliza las estadísticas de error de pronóstico del modelo en cada punto de malla y las relaciones espaciales de los patrones de error. El punto de equilibrio se encuentra penalizando el análisis cuando difiere de algún elemento de observación o de los datos del modelo.
A continuación el esquema identifica el análisis con la menor cantidad de penalizaciones para la combinación de todas las observaciones y el campo de fondo. Esto significa que el análisis:
La limitación principal del esquema 3D-VAR estándar es que esencialmente distribuye la influencia de las observaciones de forma igual en la vertical y la horizontal en cualquier situación meteorológica, independientemente de la presencia de frentes, capas estables, vórtices, líneas secas u otras estructuras. Con el fin de lograr un mayor grado de adaptabilidad del análisis, los centros operativos han implementado o están estudiando varios otros métodos de análisis, desde extensiones simples de 3D-VAR hasta enfoques completamente distintos. Es importante poder reconocer cómo estos métodos afectan el análisis que vemos, el cual, a su vez, afecta el pronóstico del modelo.
Vamos a centrar nuestra atención en la forma y el tamaño de la región en la cual el análisis siente los efectos de un único incremento de observación aislado. La clave es cómo el análisis rellena las correcciones del campo inicial en las áreas alejadas de los lugares de observación. Esto viene determinado por la covarianza del error de fondo, que es la relación entre los errores del campo inicial, que establece lo que un error en el campo inicial en el lugar de la observación indica acerca del error en cualquier otro punto de análisis. Si desea aprender más sobre los patrones de covariancia de errores de fondo y cómo afectan la influencia de un incremento de observación en el análisis, comience con la sección Suposición de error de fondo y luego estudie la diapositiva 22 del webcast sobre el análisis de mesoescala en tiempo real: Real-Time Mesoscale Analysis, RTMA: https://www.meted.ucar.edu/training_module.php?id=272.
Por ejemplo, considere la influencia de un incremento de observación cerca de un intenso frente frío, tal como los representa este campo inicial de temperatura y viento en 850 hPa.
Una aeronave atraviesa el sector cálido sobre el noreste de Nebraska y emite un informe en el cual la temperatura es algunos grados más baja que la del campo inicial. Como el esquema 3D-VAR estándar supone un patrón aproximadamente circular para las covarianzas de error de fondo, corrige el análisis con un patrón aproximadamente circular y enfría el campo inicial de manera uniforme en todas las direcciones, a la vez que reduce la magnitud del enfriamiento gradualmente con la distancia a la observación, tal como lo indican la serie círculos rojos concéntricos.
¿Refleja realmente esta observación un error en el campo inicial a lo largo del frente en Dakota del Sur, donde hay una masa de aire diferente, y donde el campo inicial ya es mucho más frío que la temperatura medida por el sensor de la aeronave? La observación que se utilizó para corregir el campo inicial en un lugar puede distorsionar el análisis en otro debido al patrón que se supone para la covarianza del error de fondo. Un método más exacto quizás solo enfriaría el sector cálido, como se puede apreciar en la figura siguiente, en la cual el patrón circular simplemente queda truncado en la posición del frente.
Los métodos actualmente en uso o en desarrollo para uso en el futuro con los modelos de pronóstico operativos se describen brevemente en las próximas páginas.
El mismo esquema 3D-VAR estándar que acabamos de ver se puede modificar con patrones de covarianza de fondo estirados a lo largo de las isentropas. Si consideramos el mismo caso que vimos en la página anterior,
la aplicación de 3D-VAR con covarianzas anisotrópicas de error de fondo produce los cambios en el campo inicial que se pueden apreciar en la figura siguiente.
Observe como el análisis altera el campo inicial de forma más marcada junto al sector cálido, donde el gradiente es más débil, y menos junto al intenso gradiente frontal, aunque llega al otro lado de la zona de cambio de vientos. Observe también que el eje de cambios más grandes alcanza a envolver los costados de la lengua de aire caliente en el este de Nebraska.
Anisotrópico simplemente significa que no es igual en todas las direcciones, a diferencia del patrón circular del esquema estándar. La expresión «covarianzas anisotrópicas de error de fondo», que se utiliza mucho en NCEP, simplemente hace referencia a un conjunto distinto de las suposiciones que controlan el patrón de influencia que un incremento de observación puede tener en el análisis. En 2007, NCEP implementó el análisis de mesoescala en tiempo real (Real-Time Mesoscale Analysis, RTMA), que utiliza covarianzas de error de fondo apretadas contra las isohipsas de terreno elevado y los litorales para impedir que los incrementos de observación de lugares en altura afectaran las condiciones analizadas en los valles y que las observaciones marinas afectaran el análisis sobre tierra firme, y viceversa. Otra posibilidad consiste en estirar las covarianzas de error de fondo a lo largo de las líneas de corriente, algo que podría resultar útil en una zona de confluencia, como una línea seca, cuyo efecto neto es dividir la influencia de incrementos de observación entre el aire húmedo y seco.
El esquema 3D-VAR está limitado al uso de una suposición predeterminada sobre la forma del error en el campo inicial, aunque tiene en cuenta la dependencia del flujo en ejemplos tales como la extensión a lo largo de las isentropas y las líneas de corriente. El análisis cambiará de forma inapropiada el campo inicial cuando la suposición es incorrecta.
4D-VAR extiende el esquema 3D-VAR a la dimensión temporal. Las observaciones se obtienen en muchos momentos distintos. Para corregir adecuadamente el campo inicial, cada observación se debe comparar con el pronóstico de primera aproximación válido a la hora en que se realizó la observación. Aunque esto se puede lograr en 3D-VAR interpolando entre las diferentes horas de salida del pronóstico, a continuación 3D-VAR supone que todos los incrementos de observación son válidos al mismo tiempo. En lugar de proceder de esta forma, el esquema 4D-VAR utiliza la dinámica y la física del modelo para estimular la evolución de un incremento de observación entre la hora de observación y la hora de validez del análisis.
En este ejemplo, el movimiento del frente frío en el campo inicial es demasiado lento y produce un incremento de observación de 30 nudos desde el norte en una hora y de 5 nudos desde el sur en la misma estación una hora después. En 3D-VAR estos incrementos se aplicarían juntos, pese a que el conflicto entre ellos causaría una disminución del valor real, a menos que el encargado del centro operativo decidiera aplicar solo el incremento de observación más cercano a la hora de análisis (el de 5 nudos). En 4D-VAR, la integración del modelo desplaza el primer incremento hacia el este con el frente, colocándolo en la posición correcta para indicar el error en el campo inicial a la hora de análisis.
Además, como la dinámica y la física del modelo rigen la evolución del incremento de observación, este afecta todas las demás variables del modelo y sus distribuciones espaciales. A partir de una covarianza de error de fondo uniforme como la que se utiliza en 3D-VAR, se desarrolla una covarianza de error de fondo dependiente del flujo que es coherente con la dinámica y la física del modelo para la situación en particular que se ha presentado.
Si volvemos a considerar el caso de la observación de aeronave sobre Nebraska, ¡podemos ver que la dinámica del modelo puede producir el máximo cambio en el campo inicial en un lugar que no es el sitio de la observación! En este caso, las correcciones teóricas al campo inicial sugieren que es posible que el modelo no haya previsto el movimiento vertical y el fuerte enfriamiento por precipitación de la lengua de aire cálido y seco en 850 hPa, lo cual es coherente con la imagen satelital. Los incrementos de análisis en 4D-VAR suelen presentar un mayor grado de detalle estructural, están mejor acoplados con todas las variables del modelo, incluido el movimiento vertical y las nubes y precipitación, y hacen un mejor uso de más observaciones de los mismos lugares con el tiempo, incluso las observaciones de los satélites geoestacionarios.
Las limitaciones de 4D-VAR, relacionadas entre sí, son que requiere una enorme cantidad de potencia de cálculo, lo cual a menudo nos obliga a utilizar una resolución más gruesa en comparación con el modelo. Algunos estudios sugieren que las mejoras del pronóstico de mesoescala que se pueden atribuir al uso de 4D-VAR no se realizan plenamente si no se ejecuta 4D-VAR a la misma resolución que el pronóstico.
Centro Europeo de Predicción Meteorológica a Plazo Medio (CEPPM/ECMWF) viene utilizando 4D-VAR desde 1997, pero lo ha ejecutado siempre a una resolución más gruesa que la de sus pronósticos.
Incluso 4D-VAR está sujeto a problemas de errores del modelo. Por ejemplo, una deficiencia en la física del modelo producirá una evolución pobre de la covarianza del error de fondo, resultando en un análisis de baja calidad. Con toda probabilidad, estos tipos de errores producirán efectos complejos y difíciles de identificar, pero cabe sospechar la existencia de problemas en los mismos tipos de situaciones que a menudo contienen un error grande en el pronóstico.
Un filtro de Kalman es una alternativa más eficiente a los esquemas 3D-VAR y 4D-VAR, una vez que se conozcan las covarianzas, y puede determinar las covarianzas como parte del análisis mismo sobre la base de las observaciones, ¡incluso cuando estas contienen errores! No obstante, la capacidad de determinar las covarianzas solo se aplica a un sistema lineal (y la atmósfera no lo es) y las predicciones de covarianzas del filtro de Kalman requieren varios órdenes de magnitud de potencia de cálculo más que cualquier sistema de análisis jamás implementado antes. Para superar ambos problemas, los patrones de covarianza se calculan de forma estadística con predicciones por conjuntos. En un sistema perfecto de predicción por conjuntos, el error de pronóstico es proporcional a la dispersión del conjunto, de modo que se puede suponer que el patrón de error estimado para el campo inicial se asemeja a la dispersión del conjunto. En términos conceptuales, a menudo es así, aunque los cálculos reales con más complejos.
Por ejemplo, si los miembros del conjunto exhiben diferencias temporales para el paso de un frente, la media del conjunto presentará una región de gran dispersión de la temperatura, como es el caso en el mapa siguiente, así como una gran zona alargada de error estimado a lo largo de la posición media del frente en el campo inicial. La cruz celeste indica la posición de una observación en el sureste de Kansas (A) que indica que el campo inicial es demasiado cálido, y esto enfriaría el análisis principalmente a lo largo del frente (isotermas celestes), lo cual adelantaría la posición del frente en un análisis en comparación con el campo inicial. Además, el error más grande en el campo inicial que se supone cerca del frente obligaría el análisis a equilibrarse más hacia el lado de la observación que del campo inicial, es decir, haría una corrección más grande para un incremento de observación del mismo tamaño donde la incertidumbre en el campo inicial es mayor. En contraste, en las áreas donde la dispersión del conjunto es uniformemente pequeña, los cambios en el campo inicial son menores y no presentan un eje de orientación preferido, como se ilustra para un incremento de observación en Texas central (B).
El filtro de Kalman para conjuntos requiere la disponibilidad de predicciones por conjuntos y también se puede modificar fácilmente para perturbar todos los miembros del conjunto.
Uno de los principales factores limitantes es que los sistemas de predicción por conjuntos incluyen demasiados pocos miembros para ofrecer suficientes grados de libertad como para introducir toda la información necesaria para las covarianzas del error de fondo. Se obtienen pronósticos mejores a partir de análisis que combinan el filtro de Kalman con 3D-VAR o 4D-VAR.
El filtro de Kalman para conjuntos produce resultados pobres cuando una deficiencia del modelo es coherente en muchos o todos los miembros del conjunto, dando como resultado un error grande donde la dispersión del conjunto es pequeña. Por ejemplo, la existencia de un defecto particular de una parametrización física del modelo usada en todos o casi todos los miembros, las condiciones que inician el problema producirán errores similares en varios de los miembros del conjunto, y por eso la dispersión del conjunto será pequeña. Debido a una dispersión pequeña, el análisis dará menos peso a los incrementos de observación y no corregirá el campo inicial mucho en la zona problemática.
El objetivo del proceso de análisis es encontrar un punto de equilibrio entre las observaciones y el campo de fondo. Presentaremos la búsqueda de equilibrio entre las observaciones (O) y el pronóstico (P) mediante una serie de pasos que juntos determinan:
En realidad, estos pasos se ejecutan simultáneamente en el proceso de análisis y se aplican a los campos del incremento. Los incrementos de análisis resultantes se agregan luego al campo inicial para obtener los campos de análisis.
Cada paso del proceso se cubre en las próximas páginas.
En este paso inicial, el análisis altera el campo de fondo para que se ajuste a la observación (el ejemplo utiliza una observación del viento en 250 hPa).
En este paso, el efecto de la observación se distribuye en la vertical para conservar la estructura del campo de fondo:
En este paso, seguimos buscando el equilibrio entre la información de la observación y la del campo de fondo.
Ahora repetimos los pasos 1, 2 y 3 con otra observación (en este caso, se trata de una observación de temperatura en 500 hPa).
A continuación repetimos el paso 4 para la segunda observación.
Después de todos los pasos anteriores, el análisis debe conciliar cualquier conflicto que surja a raíz de la comparación de las observaciones y las suposiciones de limitación dinámica asociadas de los dos lugares distintos.
Este último paso considera aún más la conexión entre las variables tomando en cuenta el efecto de haber cambiado el ajuste de la observación, por ejemplo modificando los valores de optimización (vea la página Optimización, más adelante) o cambiando la suposición de error de observación o de campo inicial (vea las páginas Suposición de error de observación y Suposición de error de fondo, más adelante).
Observe lo que sucede si se cambia el ajuste de la observación del viento.
Un conjunto de observaciones independientes de buena calidad que corroboran diferentes partes de la misma estructura meteorológica suele acercar el análisis a las observaciones más que cualquier observación individual. Considere la gran cantidad de conexiones generadas por tan solo dos radiosondeos, con efectos de análisis que se superponen en varios niveles distintos, cada uno de los cuales establece un enlace de temperatura y viento en ambos lugares. El análisis realiza una tarea de extraordinaria complejidad para extraer de todas las observaciones toda la información posible que el modelo puede aprovechar, sin perder la información útil del modelo.
Hay varios tipos de suposiciones que afectan en medida considerable el análisis:
En las próximas páginas presentaremos cada tipo de suposición en detalle.
Los errores de observación y de pronóstico empleados por el análisis para identificar el punto de equilibrio óptimo se basan en distribuciones estadísticas. Todos los días se lanza una radiosonda diferente, y cada una puede exhibir un error de instrumento ligeramente distinto. El error de pronóstico varía de un día a otro. Podemos trazar un histograma de estos errores para ver su distribución. El análisis se ve afectado por suposiciones acerca de la distribución. Típicamente, se supone que las distribuciones son normales (gaussianas) con una media de cero, ¡lo cual significa que estamos suponiendo que las observaciones y los modelos carecen de sesgos! La desviación estándar del error es el tamaño medio de los errores supuestos y el análisis utiliza este valor como error esperado. El uso de la desviación estándar contempla la posibilidad de un error más pequeño o más grande. Recuerde que se supone que la tercera parte de todos los errores excederán la desviación estándar.
Las suposiciones afectan la medida en que el análisis se acerca a diferentes tipos de datos, cómo la información de las observaciones se distribuye en la vertical y horizontal y la relación entre los diferentes campos del análisis.
Debido a que hace uso de un solo conjunto de suposiciones para todas las situaciones, el análisis:
El error de fondo se basa en estadísticas de rendimiento del modelo.
El error de fondo se compone de dos partes:
Si los errores del modelo en un lugar suelen estar asociados con un error en otro lugar, una corrección al campo de fondo en aquel lugar implica la necesidad de realizar una corrección en este también. Utilizamos la covarianza de error de fondo para diseminar la información de las observaciones a las alturas circundantes (como ilustra la secuencia de pasos del análisis de la sección Funcionamiento de 3D-VAR) y en sentido horizontal a las áreas vecinas, como se ilustra en este ejemplo gráfico.
Con frecuencia, la suposición típica que la información de una observación se puede distribuir de manera uniforme en todas las direcciones es inadecuada. Por ejemplo, no sería correcto distribuir una corrección de humedad en niveles bajos al otro lado de una línea seca o diseminar la corrección de vientos en altura tanto arriba de la tropopausa como debajo de ella.
Si el análisis cambia solamente el campo de vientos del modelo o el campo de masa del modelo, se perderá el equilibrio entre esos campos en el modelo. La dinámica forzará los campos del modelo hacia una redistribución de la masa y los vientos que no se parecerá ni al campo inicial original ni a las versiones corregidas, se perderá la información agregada por el análisis y se perjudicará el pronóstico. Por lo tanto, los cambios del análisis en el campo de vientos deben estar acompañados por cambios correspondientes en el campo de masa y viceversa.
Todos los tipos de datos brindan alguna ventaja y tienen ciertas limitaciones. Esta lista, que no pretende ser exhaustiva, incluye varios tipos de datos importantes. Las ventajas y/o limitaciones de cada tipo de datos se presentan en las páginas que siguen.
Es preciso realizar muchas inferencias difíciles para completar el panorama de nubes y precipitación. Por ejemplo:
Para insertar información acerca de las nubes y la precipitación, es preciso asegurar la inclusión de información fidedigna sobre el calentamiento y los movimientos verticales y patrones de convergencia y divergencia asociados, ya que en caso contrario la información agregada puede conducir a desequilibrios que provocan la evolución incorrecta del pronóstico. Cuando se hace este trabajo correctamente, se aporta gran beneficio a la fase inicial del pronóstico, pero por bien o mal que se haga, en promedio no cabe esperar mucha mejora después de las primeras 12 horas.
También surgen problemas cuando la densidad de observación es mucho mayor que la resolución del modelo (p. ej., ciertas observaciones satelitales y de radar). Los dos problemas principales son:
Los efectos de estos problemas se pueden aliviar de las siguientes maneras:
Para utilizar las observaciones de alta resolución de forma eficaz, se debe diseñar el análisis para permitir intercambios de pequeña escala con el campo inicial. Si las covarianzas del error de fondo son demasiado amplias, las observaciones de alta resolución no agregarán ninguna estructura de pequeña escala al análisis y este representará de forma muy distorsionada los fenómenos de pequeña escala resueltos por las observaciones.
En realidad, el análisis se ejecuta en forma de una serie de iteraciones. Cada iteración es una conjetura cada vez más acertada de la combinación de cambios al campo de fondo que tiene en cuenta todos los distintos factores de la función de costo.
Un método ingenioso de manipular el control de calidad consiste en no rechazar las observaciones de entrada, sino volver a evaluar los valores atípicos tras cada iteración del análisis.
Esto significa que:
El método de control de calidad no lineal se introdujo en algunos análisis del NCEP en el año 2000. En 2009, se utilizaba en el análisis GFS y se estaba desarrollando una versión para el análisis NAM.
La optimización (tuning, en inglés) del sistema de análisis tiene como fin perfeccionar el rendimiento del pronóstico. La optimización puede cambiar la importancia relativa de los diferentes componentes del análisis, como el grado de ajuste de la temperatura o humedad al campo de fondo, y la distancia a la cual la observación de temperatura ejerce su influencia (la distancia de correlación). Los cambios de optimización pueden alterar el carácter general del análisis (incluso su grado de equilibrio dinámico y coherencia con el modelo) sin perjudicar su tratamiento estadístico detallado de los campos de observación y de fondo. Esto afecta profundamente la precisión del pronóstico e incluso la naturaleza de los errores característicos del modelo. Cuando escuche hablar de cambios de optimización, ¡recuerde que el modelo puede dar resultados distintos de lo que se espera!
La optimización:
La optimización utiliza multiplicadores en la función de costo para cambiar:
Estos cambios pueden ser mayores o menores según la variable del análisis. Por ejemplo, se pueden ajustar las temperaturas más de cerca de las observaciones sin cambiar directamente la manera de manejar los vientos (aunque los vientos se ven afectados indirectamente por las limitaciones dinámicas).
Los sistemas de asimilación de datos empleados en los principales centros de modelado operativo a menudo funcionan muy bien, especialmente en situaciones meteorológicas comunes, de modo que hay que juzgar la calidad del análisis de un modelo con cuidado.
No obstante, en ciertas circunstancias el sistema de análisis tiene varios puntos de fallo, que se enumeran en las tablas de las páginas siguientes.
Desgraciadamente no hay mucho que se pueda hacer para simplemente ajustar un pronóstico del modelo cuando el análisis no es bueno. Incluso cuando resulta posible introducir ajustes razonables en el análisis, es probable que el pronóstico siga evolucionando de forma no lineal y compleja. Lo más importante es prestar atención a situaciones en las que es más probable que el sistema de asimilación falle y fijarse siempre en las observaciones, especialmente cuando indican un desarrollo distinto de los previsto. Es muy útil examinar los cambios de un ciclo de ejecución a otro en dprog/dt para identificar cuando un análisis es de escasa calidad (el análisis actual, el análisis previo o incluso ambos).
Antecedentes de vacío de datos |
Cómo evaluar | Cómo ajustar el análisis |
---|---|---|
¿Tiene la estructura meteorológica antecedentes de ausencia de ciertos tipos de información? ¿Puede usted "ver" información más útil que los tipos de datos que están entrando en el modelo? Ejemplo: Un ciclón del Pacífico sin buenas observaciones de temperatura porque no se usaron las radiancias IR en regiones nubladas. Lea la explicación sobre Antecedentes de vacío de datos, más adelante. |
|
|
Antecedentes de vacío de datos (usted ve datos que el modelo no detecta): el modelo no usa las radiancias infrarrojas medidas por satélite en áreas nubladas. Para un gran ciclón acompañado por una masa nubosa extensa que atraviesa el Pacífico, solo se utilizan observaciones de temperatura de microondas de resolución baja. Es posible que hayan pasado varios días desde la última vez que una radiosonda lo haya muestreado, sobre Asia.
Los datos satelitales de microondas solo pueden resolver una cuantas capas de la troposfera, de modo que incluso si pudieran mejorar enormemente un error grande de pronóstico, su uso destruiría las estructuras dinámicas verticales y horizontales acopladas y, de darle mucha influencia, acabaría degradando el pronóstico. Unas pocas observaciones de superficie, unas series de lecturas del viento a nivel de la tropopausa obtenidas por aeronaves y algunos grupos de vientos derivados del movimiento de las nubes no permite "inferir" correctamente suficiente información a través de la mayor parte de la troposfera para mantener el ciclón del modelo alineado con la realidad. Puede averiguar más sobre el ciclón examinando una serie de imágenes satelitales que el modelo puede "ver" con todos los datos que recibe.
Campo inicial incorrecto | Cómo evaluar | Cómo ajustar el análisis |
---|---|---|
¡La suposición fundamental del análisis es que el campo inicial es correcto!
Lea la explicación sobre Persiste en el ciclo siguiente, más adelante. |
Compare el pronóstico a corto plazo anterior con los datos de radar, satélite y otras observaciones a la hora de análisis. (Por ejemplo, compare el pronóstico de 6 horas del ciclo de las 18 UTC con las observaciones de las 00 UTC para evaluar el campo inicial de las 00 UTC.) Fíjese en cualquier mensaje del meteorólogo de turno para ver si indica que algunos datos tardío entraron en el ciclo de análisis (esto podría mejorar el campo inicial frente al último pronóstico a corto plazo disponible en AWIPS). |
Busque posibles problemas de análisis donde las imágenes y observaciones parecen discrepar del pronóstico a corto plazo. |
¿Faltan del análisis algunas estructuras que el modelo puede resolver? (Por ejemplo, la intensidad de una onda corta embebida.) |
Contémplelas en su pronóstico. Fíjese en cómo se manejan en otros modelos. |
|
¿Conserva el análisis estructuras espurias del campo inicial o deja de corregir la posición, intensidad o estructura de los errores del campo inicial? |
Descarte las estructuras espurias y ajuste las demás. Compare con otros modelos. |
Cuando el modelo genera un pronóstico a corto plazo no acertado, es posible que el ciclo de asimilación siguiente tome el camino equivocado de entrada. Es más, esto viola la suposición de que el pronóstico a corto plazo es correcto y puede provocar el rechazo de datos cruciales que se necesitan para poner el pronóstico en el camino correcto. Incluso cuando el modelo produce un buen pronóstico a gran escala, los errores de escala menor, pero resolubles (como cuando un modelo regional no detecta la intensidad de una onda corta embebida o un modelo global predice un huracán espurio), causarán problemas de manejo de datos en estas regiones pequeñas de error grande. A menudo los problemas abarcan escalas demasiado pequeñas para observarse bien, pero lo suficientemente grandes como para que el modelo las pueda predecir.
Rechazo de datos válidos | Cómo evaluar | Cómo ajustar el análisis |
---|---|---|
Es posible que ciertos datos válidos se rechacen o ejerzan poca influencia incluso si el campo inicial es bueno. Estas son algunas condiciones susceptibles:
Lea la explicación sobre Rechazo de datos correctos: factores coadyuvantes. |
¿Indican las observaciones y su parecer actual sobre el pronóstico alguna de estas situaciones?
|
Compare las observaciones y el análisis. Es probable que haya que aumentar la amplitud o intensidad del gradiente. |
Una estructura meteorológica observada es demasiado pequeña para que el modelo la pueda resolver. Lea la explicación sobre Rechazo de datos correctos: estructura demasiado pequeña, más adelante |
Los datos confiables que representan esta estructura no se deben usar en el análisis de modelo.
|
Si la estructura se incluye en el análisis, con toda probabilidad no se pronosticará correctamente. Quizás convenga ignorar la guía del modelo acerca de esa estructura. |
Es posible que ciertos datos válidos se rechacen o ejerzan poca influencia si se producen errores al interpolar los campos del modelo con la hora y el lugar de la observación. Esto significa que incluso una observación perfecta y un pronóstico perfecto pueden dar un incremento de observación grande. Esto es más probable en las condiciones siguientes:
Las observaciones correctas de estructuras demasiado pequeñas para que el modelo pueda resolverlas correctamente deberían rechazarse. Si el modelo trata de incluir tales observaciones (por ejemplo, si un modelo global incluye una observación de frente de racha en la superficie o una observación de mesovórtice convectivo), el modelo la utilizaría para desarrollar una estructura de escala demasiado grande para la realidad que corrompería el pronóstico.
Violación de las suposiciones del análisis |
Cómo evaluar | Cómo ajustar el análisis |
---|---|---|
El análisis supone que las estadísticas de error de pronóstico anticipadas son apropiadas para el tiempo del día de hoy. Lea la explicación sobre Violación de las suposiciones del análisis: evento poco común, más adelante |
¿Está la intensidad o amplitud del régimen a gran escala fuera de lo normal? |
Es posible que el análisis se acerque demasiado o que no se acerque lo suficiente a su campo inicial. Es imposible saber cómo ajustarlo. Preste atención a las imágenes satelitales y otras observaciones. |
Podemos dar por sentado que los datos ejercen influencia a distancias muy grandes. Es posible que las correcciones acertadas en zonas con muchos datos se extrapolen incorrectamente a zonas contiguas donde hay pocos datos. Lea la explicación sobre Violación de las suposiciones del análisis: zona sin datos cercana, más adelante |
¿Hay una zona con pocos datos dentro de unos cientos de km de una zona con muchos datos, por ejemplo, sobre las aguas del mar? |
Compare el análisis con las imágenes satelitales en la zona con pocos datos y realice cualquier ajuste que sea apropiado. |
Se supone que el efecto de los datos se distribuye (en la vertical y horizontal) con cierta regularidad, típicamente:
Lea la explicación sobre Violación de las suposiciones del análisis: estructuras asimétricas, más adelante |
Busque las estructuras que típicamente se ven afectadas, como:
|
|
Las correcciones de los vientos y las temperaturas están enlazadas por una suposición de restricción de equilibrio. Algunas son mejores que otras y ninguna es siempre correcta. Lea la explicación sobre Violación de las suposiciones del análisis: flujo ageostrófico, más adelante. |
Entre las situaciones que presentan el mayor potencial de problemas cabe mencionar:
Entienda las restricciones de equilibrio empleadas y los tipos de condiciones que las violan. |
Preste particular atención a las observaciones de intensos vientos ageostrófico y divergentes. |
El análisis depende de las estadísticas de error de pronóstico del modelo obtenidas de una muestra grande, en la cual los eventos poco comunes o extremos no están bien representados. Las estadísticas de error de pronóstico se recopilan relacionando los errores entre todos los posibles pares de puntos de malla a lo largo de determinado período. El régimen actual puede producir un patrón de errores del modelo muy diferente del que anticipa el análisis, algo que afectará la medida en que el análisis se acercará a su propio campo inicial. Los métodos de análisis que dependen del flujo, como el filtro de Kalman para conjuntos, son menos sensibles a este efecto.
Hay una zona sin datos (vacío de datos) junto a una zona con muchos datos, por ejemplo, el océano Pacífico y la costa de Chile. Supongamos que todas las ondas tienen una longitud de 1000 km y que los pronósticos a corto plazo tienen un pequeño error de fase aleatorio. Si cambiamos ligeramente la posición de la onda en el pronóstico, ocurrirá lo siguiente:
En términos generales, los errores de altura en un lado de la vaguada son todos del mismo signo, que es el opuesto del de los errores del otro lado. Esto significa que el error en un lugar está relacionado con el error en otros lugares a lo largo de una distancia de 1000 km. Este tipo de relación entre las estadísticas en diferentes lugares se denomina covarianza. Cuando las observaciones indican la necesidad de realizar una corrección en un sitio, el análisis utiliza estas estadísticas para inferir una corrección en otros. Las verdaderas covarianzas de error de pronóstico empleadas son más complejas, pero el resultado es que una corrección sobre la zona con muchos datos produce correcciones sobre la zona contigua con pocos datos que pueden ser inapropiados. Tenga presente, sin embargo, que para el análisis esta es la mejor forma de proceder: el hecho de no introducir ninguna corrección en la zona sin datos a menudo sería peor que aplicar estas inferencias basadas en características de error conocidas del modelo.
Se hacen suposiciones simples que afectan cómo se distribuye el efecto de una observación en sentido horizontal y vertical a lugares contiguos. En el futuro, es posible que algunas de estas suposiciones sean más realistas y más específicas para la situación.
La conexión entre las condiciones en un nivel de altura y otro deberían realmente depender de la estabilidad, pero normalmente este factor no se tiene en cuenta y las correcciones acaban extendiéndose al otro lado de la tropopausa (lo cual es físicamente incorrecto). De forma análoga, cuando el efecto de la observación se distribuye en la horizontal, se suele suponer que es igual en todas las direcciones y bajo todas las condiciones, pese a que las verdaderas propiedades atmosféricas son dispersadas y deshiladas por los campos de deformación. Las propiedades acaban alineándose con el flujo de manera poco uniforme. Esto significa que una corrección al campo inicial debería ser más profunda en una capa mezclada elevada que en una zona frontal estable y debería poderse aplicar a regiones corriente arriba y corriente abajo, pero no tanto a través del flujo.
Al distribuir las correcciones en todas las direcciones de manera uniforme, el análisis puede debilitar gradientes donde deberían intensificarse y viceversa. Como el análisis utiliza tantas observaciones cuyos efectos se superponen mutuamente al distribuirse en sentido vertical y horizontal, resulta imposible decir en términos generales cómo se vería el análisis si se utilizaran suposiciones de distribución más realistas. Es probable que los problemas principales surjan en situaciones que se beneficiarían de una distribución muy asimétrica o limitada a distancias cortas, como en el caso de un flujo veloz, patrones muy dispersos, inversiones intensas y fronteras entre masas de aire.
El esquema 4D-VAR puede tener estas situaciones en cuenta si el análisis se ejecuta con un grado de resolución suficiente. El filtro de Kalman para conjuntos también puede verse limitado por la resolución, porque los conjuntos suelen ejecutarse con una resolución relativamente baja. El esquema 3D-VAR anisotrópico puede dar mejores resultados en las situaciones relacionadas con el parámetro usado para estirar las covarianzas, por ejemplo, un patrón de ondas cortadas que produce filamentos de vorticidad puede responder bien a las covarianzas estiradas a lo largo de las líneas de corriente.
Una observación de una variable (como el viento) puede provocar correcciones en otra (como la temperatura) debido a limitaciones de balance dinámico (como el viento térmico). Ninguna de las varias limitaciones dinámicas empleadas es apropiada en todas las situaciones.
La región donde la variable limitada (por ejemplo, la temperatura) se ve afectada viene determinada por el lugar donde se supone que la variable observada (por ejemplo, el viento) se distribuirá a los puntos circundantes. Por lo tanto, en situaciones de flujo muy desequilibrado es probable que surjan problemas tanto en los vientos analizados como en el campo de masa analizado.
Observe que la restricción de equilibrio solo se aplica al campo de incrementos, no a la parte del análisis proveniente del campo inicial. Los flujos desequilibrados bien pronosticados no se ven afectados por esta limitación, porque las correcciones que se limitan serán pequeñas.
Optimización | Cómo evaluar | Cómo ajustar el análisis |
---|---|---|
Siempre que se realiza una actualización importante del modelo, es posible que la optimización anterior deje de ser óptima. Siempre que se cambie la optimización, los errores característicos del modelo pueden cambiar. Lea la explicación en la sección opcional Análisis > Optimización. |
Evalúe cómo han cambiado los ajustes que usted suele realizar en el análisis. Fíjese en los diagnósticos y las estadísticas de rendimiento del modelo. |
Las diferencias típicas de una versión o una versión optimizada anterior del modelo puede variar según el régimen. Ajuste según el caso tras una evaluación cuidadosa. |
A continuación se enumeran los pasos principales del proceso de asimilación cíclica de datos. Seleccione los números de las lista desplegables para poner los pasos en el orden correcto.
La secuencia correcta es 1. (c) o (b), 2. (b) o (c), (Nota: los dos primeros pasos pueden figurar en cualquier orden y, de hecho, pueden ocurrir simultáneamente.) 3. (d), 4. (f), 5. (e) y 6. (a).
En primer lugar, se obtiene un pronóstico a corto plazo a partir de un análisis reciente que lleva hacia adelante información de las observaciones anteriores y crea un conjunto de campos iniciales o de fondo del modelo que constituirá la base del análisis. Mientras tanto, se reciben observaciones externas al ciclo. A continuación, se calculan los incrementos de observación como las diferencias entre las observaciones y el campo inicial. Estos incrementos de observación se utilizan luego para controlar la calidad de las observaciones. El procedimiento de análisis objetivo (por ejemplo, 3D-VAR) procede a interpolar los incrementos de observación sobre una malla del modelo para producir un campo de valores de corrección para el modelo. Cabe observar que esta interpolación es un procedimiento complejo que utiliza información conocida sobre las características de error típico del modelo y de las observaciones. Finalmente, se incorporan las correcciones al campo inicial para producir el nuevo análisis. Una vez generado, este nuevo análisis brinda las condiciones iniciales del próximo pronóstico. El proceso entero se conoce como «asimilación cíclica».
Debido a la existencia de vacíos de datos en una red de observaciones... (Escoja todas las opciones pertinentes.)
La respuesta correcta es (c) Ambas respuestas son posibles.
El proceso de asimilación de datos es un componente tan integral de los sistemas de PNT modernos que cuando se pierden detalles de mesoescala que podrían refutar las estructuras de mesoescala previstas incorrectamente, ya sea debido a una zona sin datos o a una cantidad insuficiente de observaciones, la calidad del pronóstico del modelo sufre.
Compare el análisis de vientos del modelo en 250 hPa para las 1200 UTC del 24 de enero de 2000 (isotacas) con las observaciones de radiosonda de las 1200 UTC (amarillo). Tendré que contestar una serie de preguntas en esta y las próximas dos páginas.
¿Por qué no se acercó el análisis del modelo a la observación del viento de Peachtree City, Georgia (KFFC)? (Elija todas las respuestas pertinentes.)
De haber podido examinar el análisis de este caso por dentro, hubieramos visto este mapa. En rojo vemos los incrementos de observación, es decir, los cambios al campo inicial indicados por los vientos observados en los radiosondeos. En negro vemos los incrementos de análisis, que son los cambios que el análisis hizo en el campo inicial. Observe que por lo general los incrementos de análisis son más débiles que los incrementos de observación. Recuerde además que se utilizan muchas otras fuentes de datos para crear este campo de incrementos de análisis.
Las respuestas correctas son (a) y (d).
Como permite apreciar el mapa con el análisis de las velocidades del viento, el informe de Peachtree City (KFFC) indicaba una velocidad 50 nudos mayor que el análisis. Ninguna de las demás observaciones presenta un discrepancia de esta magnitud. Los cambios en el campo inicial son generalmente pequeños, como en el mapa de ayuda (si aún no lo ha visto, abra el enlace ahora). Hubo también una discrepancia muy grade frente al campo inicial, mucho mayor que en otros lugares. En el modelo Eta, predecesor del actual modelo NAM que era el modelo operativo en aquel entonces, la observación de KFFC se rechazó y el mapa de la ayuda indica que el análisis terminó haciendo cambios en la dirección equivocada.
Posteriormente, NCEP implementó un control de calidad no lineal, lo cual significa que esta observación no se hubiera rechazado de entrada, sino que se le hubiera asignado poco peso al comienzo y si ninguna observación empujaba el análisis hacia una mayor correspondencia con la observación de KFFC, su influencia hubiera aumentado. Las pruebas de ejecución del escenario realizadas posteriormente muestran que no había suficientes observaciones adicionales que apoyaran el análisis para mostrar una mejora; esencialmente, este informe se descartó nuevamente a favor del campo inicial. La ausencia de observaciones del viento en Birmingham, Alabama (KBMX), Tallahassee, Florida (KTLH), Slidell, Luisiana (KSIL) y Tampa Bay, Florida (KTBW) contribuyó a la falta de datos corroborantes que hubieran podido empujar el análisis hacia la observación de KFFC.
¿Qué ajuste podríamos hacer en el pronóstico, si cabe hacer alguno, después de observar los vientos en KFFC? ¿Por qué? Escoja todas las opciones pertinentes.
La respuesta correcta es (b).
Si bien es cierto que como grupo los radiosondeos ejercen la mayor influencia en el análisis (Zapotocny, et al. 2000), una observación del viento de una estación individual en un único nivel no puede reparar sola un hueco en el análisis. El hecho de que esta observación no se utilizó es más una función de problemas más profundos con el campo inicial y el análisis en ese momento que una indicación de que este el único problema con el análisis.
No obstante, esta observación se puede utilizar junto con las demás para preparar un análisis manual como el que se muestra en la imagen de abajo de esta figura.
Observe la diferencia en la estructura y orientación de la corriente en chorro y la posición de la región de entrada en comparación con la imagen de arriba. La invasión de aire seco asociada con la onda que rodea la base de la vaguada sobre Luisiana y la mitad sur de la «S» baroclínica que se observa en la imagen de vapor de agua parece estar acoplada a la región de entrada de la corriente en chorro en el análisis manual, pero ni se le acerca en el análisis del modelo Eta operativo de ese entonces (predecesor del NAM actual).
Esta información se puede usar para anticipar que la trayectoria de la tormenta pasará más al oeste y que el ciclón evolucionará más rápido de lo que tiene previsto el modelo. De hecho, esta es la situación que se verificó correctamente. Sin duda que tanto el modelo como el análisis manual hubieran mejorado de haber podido aprovechar las observaciones de los muchos lugares que desgraciadamente no presentaron datos en ese momento. No obstante, pese a las dificultades causadas por la falta de observaciones y el análisis pobre del modelo, podemos llegar a un buen pronóstico en una situación difícil de tiempo crítico, incluso si el modelo no es capaz de hacerlo.
Este ejemplo de la tormenta de nieve que azotó la costa del Atlántico de Estados Unidos el 25 enero de 2000 ilustra cómo el sistema de asimilación de datos puede engañar tanto el pronóstico del modelo como el del ser humano, que es exactamente lo que ocurrió. Hay que hacerles justicia a los pronosticadores que utilizaron la suite de productos del modelo de las 12 UTC ese día recordando que había muchos otros factores en juego en ese pronóstico que no hemos contemplado en nuestro escenario. No obstante, una de las lecciones que aprendieron ese día fue que hay que prestar atención a las observaciones, especialmente cuando discrepan fuertemente del análisis al tiempo que parecen guardar coherencia con otra información que está disponible.
Parece que el sistema de asimilación de datos fracasó en el caso del 24 enero de 2000 que acabamos de examinar en las últimas tres preguntas. ¿Cuáles son los principales factores que pueden haber contribuido a dicho fracaso? Escoja todas las opciones pertinentes.
Las respuestas correctas son (a), (b) y (d).
En primer lugar, el campo inicial era malo (d), ya que incluía un error de 50 nudos en Peachtree City en el nivel de 250 hPa, lo cual, como ya sabemos, constituye una violación del supuesto fundamental de la asimilación de datos. Como el modelo normalmente da resultados bastante buenos, de modo que un campo inicial tan incorrecto suele ser producto de un análisis previo de escasa calidad. Recuerde que el análisis no corrige todo hasta coincidir con las observaciones. En una situación dinámica puede siempre estar tratando de ponerse al tanto con la situación actual.
Dos otros factores clave contribuyeron al fracaso del análisis. Uno de ellos es el hecho de que se tratara de una situación dinámicamente potente (b), con las grandes tendencias de divergencia que se precisan para cambiar la disposición de las masas durante una fase de rápida evolución y evacuarlas durante la ciclogénesis rápida. La presencia de una fuerte corriente en chorro que rodea la base de un vaguada y se dirige hacia el punto de inflexión de una onda larga es un ejemplo clásico. Esto viola las restricciones de equilibrio dinámico que entrelazan los cambios de masa y viento de los campos iniciales, de forma que con toda probabilidad el análisis resultante produciría un desarrollo dinámico demasiado lento o atrasado al comienzo del período de pronóstico.
El otro factor es la rápida evolución del sistema (a), de modo que los errores típicos del análisis conducen a errores más grandes de lo que sería normal en el pronóstico a corto plazo utilizado como campo inicial para el próximo análisis. La evolución rápida dificulta mucho más ajustar el análisis correctamente con la nuevas observaciones. En situaciones dinámicamente desequilibradas, es más probable que el campo inicial esté atrasado. Normalmente, cuando se introducen en el sistema de análisis una serie de pequeñas correcciones a lo largo de varios ciclos de análisis, en determinado momento este logra hacer emerger la estructura clave del pronóstico, pero para entonces es probable que el período de tiempo de avance del pronóstico se haya esfumado y que ya se trate de un pronóstico inmediato.
Además, existían otros problemas. Por ejemplo, había un par de informes de aeronave en conflicto, ambas observaciones correctas que el sistema de asimilación de datos manejó incorrectamente porque indicaban que el sistema era más intenso que el campo inicial, y aunque se habían obtenido uno antes y uno después del paso del eje de la vaguada, se suponían válidos a la misma hora. No obstante, esas contadas observaciones probablemente jugaron un papel relativamente menor en el análisis. Los demás radiosondeos e informes de viento y temperatura de aeronaves coincidían con la onda marcada que se aproximaba a través de la vaguada y la máxima de vientos en la corriente en chorro al este de la vaguada que se extendía más al sur y oeste. Además, si todas las estaciones de radiosondeo hubieran transmitido un informe completo con vientos y temperaturas en todos los niveles, el informe de viento en KFFC quizás hubiera contado con el apoyo necesario para mejorar la estructura del chorro en el análisis del modelo.
La lección para este tipo de situación es que la asimilación de datos puede tener un impacto enorme en el pronóstico del modelo, motivo por el cual es preciso:
¿Por qué es útil usar el «campo inicial» (pronóstico a corto plazo) como punto de partida en un sistema de asimilación de datos? (Elija todas las respuestas pertinentes.)
Las respuestas correctas son (a), (b), (c) y (d).
La opción (a) es la suposición fundamental de la asimilación de datos. En lugar de analizar los datos directamente, el análisis utiliza muchos tipos de observaciones para realizar una serie de pequeñas correcciones en un pronóstico que se supone acertado. Esto también significa que cuando el modelo nota grandes discrepancias aisladas entre las observaciones y el pronóstico a corto plazo, puede marcar los datos como posiblemente erróneos, porque se supone que el pronóstico es acertado. Es útil usar el campo inicial como punto de partida para el modelo porque un pronóstico del modelo correcto es implícitamente "equilibrado y coherente" desde el punto de vista numérico, ¡una característica ajena a las observaciones!
Lo bueno es que un buen pronóstico normalmente conduce a un buen análisis, lo cual produce otro buen pronóstico. Pero esto significa que también es cierto que un pronóstico incorrecto puede conducir a un análisis incorrecto y producir otro pronóstico incorrecto hasta que se acumulen suficientes datos para forzar un cambio en el modelo. Esta es la principal desventaja de utilizar los pronósticos a corto plazo del modelo mismo como punto de partida para asimilar datos adicionales en el sistema.
Puntos adicionales relacionados:
(del Joint Center for Satellite Data Assimilation Summer Colloquium on Data Assimilation, julio de 2009):
Aunque estos materiales están orientados hacia científicos ya especializados en asimilación de datos avanzada, algunos contienen explicaciones de fondo y otros contienen diapositivas interesantes. Le recomendamos que lea las partes que puedan resultarle útiles.
The COMET® Program está patrocinado por el National Weather Service (NWS) de NOAA, con fondos adicionales de las siguientes organizaciones: