Assimilação de dados

Origem: Wikipédia, a enciclopédia livre.

Em meteorologia, a assimilação de dados é o procedimento que consiste em corrigir, com ajuda de observações, o estado da atmosfera de uma previsão meteorológica.

Princípio[editar | editar código-fonte]

A previsão numérica da evolução da atmosfera depende grandemente das condições iniciais que a ele estão proporcionadas. Um bem que é difícil de determinar, a um dado instante, o estado do atmosfera, isto é o conjunto das variáveis atmosféricas (pressão, temperatura, humidade, etc.) no conjunto do volume, com uma boa resolução e uma boa precisão.

As únicas informações disponíveis a um dado momento são as observações meteorológicas de diferente natureza (rádio sondas, Estações meteorológicas, bóia oceânica, etc.). Mas estas informações não são suficientes. Efectivamente o modelo atmosférico requer da ordem de valores (para todos os campos físicos considerados, em todos os pontos do modelo). O bem atual das observações são da ordem de . Uma mera interpolação não basta nestas condições. Ter então recursos a um método chamado "assimilação de dados".

A assimilação de dados é um método "predição/correcção". Uma previsão, calculada ao passo de tempo precedente e válido ao instante considerado, é utilizada como predição. As observações disponíveis permitem corrigir este esboço para estimar ao melhor o estado real da atmosfera.

Exemplo mero (fora da Meteorologia)[editar | editar código-fonte]

Deseja-se conhecer a temperatura numa peça que dispõe de uma fonte de calor pontual de 20°C.

fig.1 Dado ao tempo inicial

A fonte está presa. Ao tempo , faz 15°C em toda a peça. A fonte de calor activa-se, e é observada na peça.

A previsão consiste em dizer o que fará, ao cabo de um verdadeiro tempo 20°C no ponto de aplicativo da fonte, depois a cada vez mais frio em se afastando : trata-se aqui da previsão válida no conjunto da peça.

O observador volta 3 horas depois. Um termômetro fixado na peça indica 17°C num ponto bastante afastado da fonte onde está suposto fazer 18°C. A assimilação parte da ideia que esta informação vai corrigir a previsão precedente. Por exemplo supondo que localmente, uma reação do ar faz baixar esta temperatura. Ou ainda que a descida da temperatura para além da fonte de calor faz-se mais rapidamente. Obtemos assim uma análise da situação.

fig.2 Previsão da temperatura
fig.3 Uma observação que indica 17°C
fig.4 Correcção local
fig.5 Correcção global

O termômetro não é muito preciso, por exemplo um erro de +/- 0,5°C. O conhecimento do erro de observação devida à carência de precisão do termômetro reduzirá o impacto desta observação durante a nossa assimilação. O conhecimento do erro de previsão (por exemplo a carência de informação na isolação exacta da peça), vai jogar no outro sentido. Estes diferentes aspectos estarão expostos mais longe após a formulação matemática.

Formulação matemática[editar | editar código-fonte]

Querer conhecer o estado de um sistema que não evolui no tempo representado por um vetor .(com frequência de dimensão infinita). Se supor-mos espacialmente com ajuda de um operador que da o vetor de dimensão .

Fazer medidas a certos lugares no sistema. Reunir estas informações no vetor das observações de dimensão p. Associa-se um vetor de erro de observação cuja se não conhece, em geral, que a esperança e a variante (ou melhor a sua estimativa). Poder pois construir uma matriz de covariantes . Comparar as observações ao estado real do sistema com ajuda da função de observação (que pode ser linear ou não):

Utilizar um modelo que nós permite avaliar o estado do sistema de maneira aproximada. A estimativa de pelo modelo está chamado vetor de esboço anotado . Associar este vetor com um erro e uma matriz de covariante .

A assimilação de dados consiste em dar a melhor aproximação do estado do sistema a retirar do esboço e das observações. O vetor resultante é o vetor de análise . Procurar também a matriz de covariante de erro .

Primeira solução do problema[editar | editar código-fonte]

Considera-se num primeiro momento o operador linear sem prejuízo do linearizar se não o é . Procurar minimizar o erro cometido a posteriori de minimizando .

Procurar a solução com ajuda de uma regreção linear (ver método do mínimo quadrado), chamado um Ansatz.[1]em assimilação de dado:

Supor que os erros de observação e do esboço estão sem distorção sem prejuízo de retorcer a distorção se existe. Se queremos que o erro da análise se apresente sem distorção, se tem . Obtemos então :

onde se chama o vetor inovação

Procurar agora o ganho óptimo para minimizar . A análise BLUE Best linear unbiased estimator permite obter o ganho óptimo.

Sistema dependente do tempo[editar | editar código-fonte]

Supomos agora que o estado do sistema evolui no tempo. Desejar efectuar uma sucessão de análise a todos os instantes possíveis. Temos previsões procedentes do modelo às datas e das observações a várias datas cujas . Anotar o vetor de previsão (que corresponde a no parágrafo que precede), o vetor das observações e o vecteur de análise .

Os diferentes métodos de resolução[editar | editar código-fonte]

Os métodos sequenciais[editar | editar código-fonte]

Pode-se primeiramente resolver este problema com ajuda de método dito sequenciais. Neste tipo de método, há primeiramente a etapa de previsão onde se obtém , depois a etapa de análise onde se combina a informação das observações e da previsão para ter . Poder resumir este problema baixo o jogo de equação que segue:

Aqui é o erro do modelo da passagem do tempo a ao modelo. é o erro de previsão acumulada durante a sucessão das etapas. Associar a a matriz de covariante .

O filtro de Kalman com as anotações da assimilação de dados[editar | editar código-fonte]

Supõe-se para este filtro que o operador e são lineares e que os erros de observação e de previsão são sem distorção. Poder demonstrar que os erros de análises estão mostrados sem distorções.

Aqui está o algoritmo do filtro de Kalman no marco da assimilação de dados.

1. Initialização 
         Estimar 
         Estimar a matris de covariante 

2. Volta sobre as diferentes datas da observação 
         a. Análise

                 Calcular o ganho com o método BLUE
                 

                 Estimativa de 
                 

                 Calculo da matriz da covariante 
                 

         b. Previsão

                 Calcular a nova previsão 
                 

                 Calcular a matriz de covariante 
                 


O filtro de Kalman estendido[editar | editar código-fonte]

O filtro de Kalman extenso retoma exactamente o mesmo princípio que o filtro de Kalman. É apenas necessário de linearizar os operadores e em torno do estado . Aplicar logo exactamente o mesmo algoritmo que precedente. Este filtro funciona bem se a amostragem das observações é elevada bastante ou se as não linearizar do modelo não são demasiado grande.

O filtro de partículas[editar | editar código-fonte]

Neste caso, não procuramos as matrizes e mas a densidade de probabilidade de . Falha primeiramente propor este problema sob esta forma chamada filtro bayesiana.

Anotar , o conjunto das observações passadas entre os instantes e . Considerar agora que o operador de observação não é necessariamente linear e depende também do erro . A priori, conhecemos e . Em realidade, corresponde a .

A ideia do filtro de partículas é de calcular as distribuições de probabilidade com ajuda de uma amostragem do espaço do estado do sistema. Criar partículas a marchar dos pontos escolhidos para a amostragem e seu estado vai evoluir à ajuda do modelo.

Aqui está o algoritmo do filtro de partículas bootstrap.

1. Initialização 
         Amostragem à ajuda de partículas 

         Atribuir um peso idêntico às diferentes partículas 

2. Voltar sobre as diferentes datas de observação 
         a. Previsão
                 Propagar as partículas à ajuda do model
                 


         b. Analisar

                 Calcular os novos pesos das partículas
                 

                 Normalizar os pesos para obter a distribuição de 

         c. Re-amostragem
                 O filtro vai privilegiar uma partícula se se não o amostrado  (fenómeno chamado degenarativo).
                 Se re-amostrar com do peso idêntico.   

Em geral este método é eficaz para modelos fortemente não lineares mas se a dimensão do estado do sistema é demasiado grande então o filtro já não funciona (em geral maior que 8). Poder também encontrar variantes onde se re-amostra só as partículas que têm um peso demasiado elevado.


O filtro de Kalman de grupos[editar | editar código-fonte]

O filtro de grupos utiliza também a noção de partícula mas só gerará os momentos de ordem 1 e 2 da análise. A análise é a mesma que o filtro de Kalman mas das partículas estão criar para propagar os erros da observação.
Este filtro funciona com um modelo não linear mas faz falta linearizar a função de observação para calcular o ganho.

Aqui está o algoritmo:


1. Initialização 
         Estimar 
         Estimar a matriz de covariante 
         Criar N partículas que estimam à ajuda a matriz de covariante 

2. Volta nas diferentes datas de observação 

         a. Observação

                 Criar um jogo de observação  de distorção nula em torno do valor observado 

                 Calcular a matriz de covariante associada
         b. Análise

                 Cálculo do ganho com o método BLUE
                 
                 Aqui lineariza

                 Estimativa de 
                 
                 Aqui não lineariza

                 Calcular a média 

                 Cálculo da matriz de covariante 
                 

         c. Previsão

                 Calcular as novas previsões 
                 

                 Calcular a matriz de covariante 
                 

Filtros reduzidos[editar | editar código-fonte]

É possível de associar filtros para reduzir a dimensionalidade do sistema. Há vários filtros como o filtro RRSQRT,[2] SEEK[3] ou ainda SEIK.[4]

Os métodos de análises variacional[editar | editar código-fonte]

Ver artigo principal: Cálculo variacional

O método de assimilação variacional é utilizada para obter os valores aos pontos de grade do modelo os mais para perto da realidade. Implica encontrar um conjunto de pontos do modelo cuja descrição por uma função se acerca o mais perto dos valores aos pontos observados sem introduzir instabilidade no modelo numérico. Consiste pois de procurar o estado o mais verdadeiro a par dos conhecimentos disponíveis nas leis de probabilidades dos erros de observação.

Isto se faz minimizando por iteração a função perda, com mais frequência a soma dos mínimos quadradas dos desvios entre a análise e a observação ponderada pela qualidade destas últimas. Este processo pode ser feito em 3 ou 4 dimensões.

Assimilação a 3 dimensões (3D-Var)[editar | editar código-fonte]

O método a três dimensões, comunemente chamada 3D-Var, faz-se a um passo de tempo fixo nas três dimensões cartesianas X, Y e Z. Como para o filtro de Kalman, o 3D-Var consiste em minimizar a distância ao sentido dos mínimos quadrados entre o estado estimado e as diferentes fontes de informações tais que a previsão precedente e as observações ao tempo inicial. O novo estado analisado é, em geral, utilizado como ponto de saída da previsão seguinte.

A função perda expressa-se como[5]:

Onde :

  • é a matriz de covariante do erro de ruído de fundo ;
  • é a matriz de covariante do erro de observação.

Assimilação a 4 dimensões (4D-Var)[editar | editar código-fonte]

A quatro dimensões, a análise faz-se a vários passos de tempos entre o tempo inicial e um tempo futuro da previsão. Trata-se pois de uma extensão do método 3D-Var que não aponta por obter o estado óptimo a um dado instante, mas a trajectória óptima numa janela de dado tempo. As observações são pois tomadas em conta também em sua distribuição espacial e temporária e o 4D-Var propaga pois a informação contribuída pelas observações ao instante inicial da janela de assimilação.[6]

Esta melhoria do 3D-Var permite acrescentar o conhecimento da evolução do sistema como informação para a análise. Ainda que pede um bem maior de grande potência de cálculo que o método precedente, está feito para ser a mais utilizada nos sistemas de previsão operativa atmosféricas do CEPMMT em 1997, da Météo-France em 2000, e de numeroso outros centros meteorológicos internacionais.[6]

Combinação dos métodos variacional e sequenciais[editar | editar código-fonte]

As técnicas variacionais são mais eficazes para encontrar uma boa análise e as técnicas sequenciais permitem uma caracterização dos erros. Assim, os novos métodos estão inventadas para combinar estes dois aspectos.

Notas e referências[editar | editar código-fonte]

  1. «Curso Marc Bocquet» (PDF) (em inglês) 
  2. A. J. Segers Data assimilation in atmospheric chemistry models using Kalman filtering
  3. D. T. Pham (1998). «A singular evolutive extended Kalman filter for data assimilation in oceanography». J. Marine Systems (em inglês). pp. 323–340 
  4. D. T. Pham (2001). «Stochastic methods for sequential data assimilation in strongly non-linear systems». Monthly weather review (em inglês). pp. 1194–1207 
  5. Centro europeu de investigação e de formação adiantada em cálculo científico (ed.). «3D-Var». Méthode variationnelle (em francês). Consultado em 25 de julho de 2016 
  6. a b Centro europeu de investigação e de formação adiantada em cálculo científico (ed.). «4D-Var». Méthode variationnelle. Consultado em 25 de julho de 2016 

Ligações externas[editar | editar código-fonte]

  • Marc Bocquet, [1], notas de cursos do Groupe des écoles nationales supérieures de techniques avancées e a École nationale des ponts et chaussées.