AQUI VAI OT �TULO by NBtooY5

VIEWS: 2 PAGES: 17

									            PREVISÃO DO TEMPO REGIONAL NO LABORATÓRIO MASTER


                                  Pedro Pais Lopes1, Bruno Biazeto1
                                      Demerval Soares Moreira1
                                        Pedro Leite da S. Dias1




                                             ABSTRACT


Daily regional numerical weather forecast needs automation of all processes related to its
production. Running a numerical forecasting system in an university environment or small research
facilities is quite useful for teaching/research but the operation needs a low-cost, high performance
and upgrade-easy infrastructure, allied with development of the routines and programs for the
automation of the hole process. This work exemplifies an operational regional low-cost weather
forecast, showing the construction of the hardware, model implementation, conception of the
forecast-derived products and the guidelines of operationalization. Nowadays it is running and
continuing to be developed at the MASTER (Meteorology Applied to Regional Weather Systems)
at the University of São Paulo.
Keywords: weather forecast – automation – modeling – high performance computing.


                                              RESUMO

É condição fundamental para o sucesso da previsão numérica de tempo regional realizada de forma
diária que ela seja feita de forma operacional da maneira mais automática possível. É, portanto,
necessária a implementação de uma infraestrutura computacional e organizacional que proporcione
processamento de alto desempenho e automação de todos os processos envolvidos, aliados à
facilidade na implementação e atualização e ao baixo custo do sistema. O presente trabalho mostra
um exemplo de infraestrutura para previsão operacional de baixo custo, sendo relatados a
construção do equipamento para a previsão, implementação do modelo numérico, concepção de
produtos finais advindos dos resultados e a operacionalização de todo o processo. Atualmente o
sistema é utilizado regularmente e constantemente aperfeiçoado no laboratório de Meteorologia
Aplicada a Sistemas de Tempo Regionais (MASTER) do IAG/USP.
Palavras-chave: operação – previsão – automação – modelagem.


1
 IAG - Instituto de Astronomia, Geofísica e Ciências Atmosféricas da Universidade de São Paulo
Rua do Matão, 1226, Cidade Universitária, CEP: 05508-900, São Paulo – SP. Tel: 11-3091-4808.
FAX: 11-3091-4769. E-Mail: pedropl@master.iag.usp.br, bruno@master.iag.usp.br
   demerval@master.iag.usp.br, pldsdias@master.iag.usp.br
INTRODUÇÃO


       As etapas da previsão do tempo, em termos operacionais, pode ser resumida como sendo
constituída das seguintes fases: (a) pré-processamento dos dados (observados ou processados por
outros centros), incluindo aqui o processo de recebimento das informações e controle de qualidade,
(b) processamento através de modelos numéricos desses dados para inferir o estado da atmosfera no
futuro (com relação aos dados obtidos), incluindo nesta etapa o processo de assimilação de dados e
a previsão numérica propriamente dita e (c) pós-processamento dos resultados, com a confecção de
produtos para serem visualizados (gráficos, imagens, boletins). O ser humano pode interagir com
todo esse processo, como operador (comandando os computadores, gerando os produtos), como
desenvolvedor (das rotinas envolvidas, do modelo) e como analista dos resultados (no papel de um
previsor, por exemplo). Porém, para que exista a operacionalidade necessária à previsão, todo o
processo deve ser rápido e confiável para disponibilizar resultados de qualidade ao usuário final
com regularidade. Essas condições podem ser alcançadas com um estudo detalhado de todo o
processo, automatizando-o sempre que possível.


       A passagem dos dados observados ao resultado final em um processo de previsão do tempo
é algo extremamente complexo e envolve uma multiplicidade de tarefas que exigem diferentes
abordagens. Na modelagem numérica, por exemplo, é necessária a constante aplicação das teorias
físicas, aliada a complicados algorítmos matemáticos que tornam a solução o mais próximo possível
da solução analítica (que não é possível determinar, na maioria dos casos) e ao mesmo tempo o
mais eficiente possível tendo me vista a necessidade de produzir previsões em curto prazo de tempo
em função das necessidades dos usuários. Para que o modelo numérico seja executado de forma
eficiente é necessário o uso de computação de alto desempenho, e na confecção dos produtos finais
é importante o conhecimento das necessidades intrínsecas ao processo de análise dos resultados e o
constante contato com o usuário final. E não menos importante é necessário uma estimativa dos
custos envolvidos em todo esse processo, para avaliar a aplicabilidade desse tipo de operação em
diversos órgãos (de prestação de serviços, públicos regionais e empresas privadas).


       Alguns trabalhos que tratam do processo integrado da previsão numérica abordam esta
questão sob o ponto de vista das necessidades e requisitos de centros operacionais menores ou com
objetivos mistos (ensino/pesquisa/operação): Mass et al (2003) relata a experiência da Universidade
de Washington com um processo integrativo de serviços regionais em coleta de dados, previsão do
tempo regional e produtos de controle do meio ambiente. Coelho (2000) aborda uma construção de
uma operação em previsão do tempo de meso-escala com infra-estrutura computacional baseada em
computadores pessoais de baixo custo. O trabalho aqui apresentado busca tratar de uma operação
que, aliada a computação de baixo custo, tenta prover a previsão numérica de tempo de caráter
integrativo, em tempo hábil. Apesar de o MASTER contar com um cluster comercial de alta
disponibilidade para as atividades operacionais, optou-se por fazer um desenvolvimento interno
tendo em vista a questão do treinamento de estudantes e a construção de um equipamento de baixo
custo, acessível à maior parte das instituições de ensino e pesquisa.




DESENVOLVIMENTO


Estudo dos hardwares disponíveis


       A modelagem numérica impõe uma necessidade: alto poder de processamento em curto
tempo (i.e., potência) . Tal poder era conseguido somente pelo emprego de supercomputadores, por
possuírem uma arquitetura complexa, extremamente sensível e cara, com uma tecnologia de ponta.
Atualmente, uma vasta gama de problemas matemáticos encontrados pela meteorologia envolvem
enorme número de equações e cálculos, tornando absolutamente impraticável a resolução desses
sem a utilização de recurso computacional de porte. Porém, os problemas cresceram em
complexidade, fazendo-se necessário o uso de equipamentos cada vez mais potentes. Existem
possibilidades diversas de se conseguir um poder de processamento que venha a suprir a
necessidade dos problemas atmosféricos. São basicamente quatro as opções hoje existentes:


1. CPU2 ou processador vetorial3: possui a capacidade de realizar centenas ou milhares de
   operações matemáticas ao mesmo tempo, mas para o programa é somente um cálculo (uma
   soma, uma multiplicação por exemplo). Extremamente cara, além de empregar uma tecnologia
   muito complicada, são encontradas em grandes centros mundiais de previsão numérica de tempo,
   entre outros órgãos de grande porte;
2. SMP: Serial Multi Processing ou Processamento Serial Múltiplo, é o emprego de várias CPUs
   seriais4 em um único acesso a memória. Atualmente pode ser encontrada em computadores
   servidores, e as que possuem duas CPUs são as mais comuns. A Figura 1 esquematiza a
   disposição de memória com relação aos processadores;
3. Clusters: União de várias CPUs seriais para realizar uma tarefa específica, onde as CPUs são
   computadores individuais, com memória RAM, controlador de periféricos, etc. É simples e
   barata, porém possuem limitações (principalmente relacionadas a acesso e capacidade da


2- Central Processing Unit, ou unidade central de processamento. Onde são realizadas todas as operações
   matemáticas em um computador.
3- A arquitetura vetorial não foi objeto do estudo.
4- Processadores seriais são aqueles que realizam uma operação por vez.
  memória RAM5). A Figura 2 mostra os conjuntos processador-memória;




                  Figura 1: Posição da memória em uma arquitetura do tipo "compartilhada".




                    Figura 2: Posição da memória em uma arquitetura do tipo "distribuída".


4. DSM: Distributed Shared Memory, essa arquitetura emprega vários computadores com mais que
  uma CPU por computador. É um misto da segunda arquitetura com a terceira, sendo comumente
  encontrada como um cluster de computadores SMP. A Figura 3 ilustra os conjuntos.




                        Fig. 3: Posição da memória em uma arquitetura do tipo DSM.


       O processamento é denominado paralelo quando o programa realiza várias operações

5- Random Access Memory ou Memória de Acesso Aleatório, é a memória utilizada para o processamento.
matemáticas (diferente do processamento vetorial, onde o programa realiza somente uma operação
matemática e o computador realiza várias operações computacionais ao mesmo tempo6). Tal fato
ocorre com o emprego das 3 últimas arquiteturas relacionadas. Devido a diferença de preço entre as
arquiteturas vetoriais e as seriais é a forma de processamento de alto desempenho mais empregada
no mundo e no Brasil, e graças a possibilidade de alguns programas realizarem suas iterações em
paralelo o tempo de execução diminui significativamente, enquanto a capacidade de cálculo
aumenta.


         Esse estudo foi preliminar para a construção do cluster de baixo custo a ser utilizado para a
previsão operacional de tempo do MASTER (intitulado VARAL – Very Advanced Regional
Atmospheric Laboratory ou “Laboratório atmosférico regional avançado”). Devido ao custo mais
elevado das arquiteturas DSM e SMP (por empregarem hardwares mais delicados, além de não
pertencerem a uma classe de computadores do tipo PC ou desktop, comuns hoje em dia) optou-se
pelo uso de equipamento mais barato (porém de menor qualidade) a arquitetura de clusters
(memória distribuída) foi empregada.




Concepção e construção do hardware


         O cluster VARAL foi montado na arquitetura de clusters, de acordo com o estudo
apresentado. O hardware empregado é comumente utilizado em PCs do tipo desktop, deixando a
construção barata:


   motherboards com um processador somente (não SMP): são mais comuns que as SMP e mais
baratas. Não possuem concorrência de acesso a memória, porém o cluster precisa de duas vezes
mais nós de processamento para ter o mesmo número de processadores (que um cluster DSM
empregando nós “duais”, por exemplo);
   processadores de outro fabricante: foram utilizados processadores AMD Athlon XP, por serem
mais baratos (50% ou mais, dependendo do modelo e do clock empregado) dos que os da marca
Intel;
   retirada de alguns equipamentos desnecessários: foram retirados dos nós o disco rígido, o leitor
de disquete, a placa de vídeo e o gabinete (componentes comuns em computadores desktop), pois
não eram necessários para o funcionamento dos nós. No computador de gerenciamento não foram
retirados pois são necessários para a interface com o usuário, além de facilitar a operação,
armazenamento e a análise dos modelos.

5 - Aproximação do processamento vetorial. É realizado a partir de pipelines de operações, entre outras
    tecnologias.
        A montagem é “peculiar”, pois como não foram utilizados gabinetes os equipamentos
(motherboard e fonte de alimentação) precisavam ser fixos de alguma maneira. A solução
encontrada foi afixar as motherboards e as fontes de alimentação em uma placa de madeira, e
pendurá-la no teto com cordas, como um varal de teto. As fotos a seguir mostram detalhes dessa
montagem:




Figura 4: Detalhe da sustentação das placas no teto.      Figura 5: Posição das fontes com relação a motherboard.


        A montagem – sem gabinete e sem periféricos desnecessários para o processamento
facilitou a solução dos problemas que ocorriam (com menos equipamentos o processo investigativo
para encontrar o componente ou peça problemática era mais fácil e direto), aliada a extrema
facilidade de expansão do cluster e robustez no funcionamento do conjunto (menos periféricos para
a motherboard gerenciar, ficando o hardware totalmente dedicado para o processamento numérico).
A tabela a seguir lista o hardware atual do cluster, com o custo aproximado de cada expansão (por
nó de processamento):


 Conjunto         Processador Motherboard Memória Placa de rede Fonte ATX                            Preço por

(n° de nós)           (mhz)             (marca)        (mhz)     10/100 mbits        E coolers         nó (R$)
    Inicial      Athon XP 1600+        Dragon Plus     512 mb          3Com            Comuns          1700,00

      (4)             (1400)              (Soyo)       (266)     3C509CX-TXM

 1° expansão     Athon XP 1700+          A7S333        512 mb          3Com            Comuns          1500,00

      (8)             (1460)              (Asus)       (266)     3C509CX-TXM

 2° expansão     Athon XP 2700+         A7V8X-X        512 mb        VIA RHINE       Certificados      1450,00

     (10)             (1733)              (Asus)       (333)         (integrada)

Tabela 1: Descrição do hardware de cada expansão do cluster VARAL.
       A falta do gabinete gerou hipóteses acerca de problemas como proteção a choques
mecânicos, poeira, aterramento e eletricidade estática; com o funcionamento do cluster VARAL
pôde-se verificar que algumas estavam erradas: o acúmulo de poeira é mínimo (comparado a
computadores com gabinete montados na mesma época, dentro da mesma sala) pois o gabinete se
comportava como um ambiente fechado e a circulação de ar era pequena; a durabilidade das
ventoinhas, que no VARAL são duas por nó (CPU e fonte), é maior (devido ao menor acúmulo de
poeira); existe aterramento, pois a ligação entre a motherboard e a fonte possui 7 “fios-terra”, não
sendo necessária qualquer ligação motherboard-fonte para esse fim; a refrigeração é máxima,
aumentando a durabilidade dos processadores. Existem problemas de choques mecânicos porque as
motherboards ficam desprotegidas, tornando a manutenção delicada, mas até o momento não foram
observados problemas de ordem elétrica (eletricidade estática). Existe um ponto de fraqueza na
estrutura: a sustentação, que atualmente é feita com cordas de algodão e ganchos de aço pode sofrer
fadiga de material e serão trocados por ganchos melhores (com proteção anti-corrosiva) e cabos de
aço encapados com plástico, aumentando a vida útil da montagem.




Sistema operacional e programas


       O sistema operacional utilizado na montagem é baseado na distribuição Debian GNU/Linux.
A escolha do sistema operacional foi devido a maior facilidade de modificar o mesmo, além de
contar com regras rígidas para construção do sistema e distribuição de arquivos. Em conjunto com o
Debian foram utilizados os softwares do projeto OpenMOSIX.para melhorar a parte de distribuição
de carga do sistema. Estes softwares possibilitam a distribuição dinâmica e automática de carga
entre os processadores, o que é uma tarefa fundamental em ambientes com muitos processos.
Entretanto, esses aplicativos não paralelizam ou diminuem o tempo de processamento de cada
programa individualmente, mas facilitam o gerenciamento e tornam mais eficiente o processo
completo. Outra funcionalidade do OpenMOSIX é o chamado Mosix File System (MFS): esse
sistema de arquivos possibilita o compartilhamento total entre todas as máquinas participantes do
cluster, com baixo uso do processador (deixando-o dedicado para o processamento). O Oepn
MOSIX também possibilitou o desenvolvimento de um sistema operacional nos nós de
processamento totalmente independente da máquina de administração7.


       Os compiladores utilizados são o GCC (GNU C Compiler), livre de licenças e padrão no
Linux, e para os códigos escritos em FORTRAN foi utilizado o PGI Fortran Compiler (pago). Para
suporte ao paralelismo são utilizadas as bibliotecas do MPICH (Message Passing Interface). Além

6- O sistema utilizado nos nós fica residente na memória RAM do computador. Possui o mínimo necessário
   para o seu funcionamento, suficiente para receber processamento advindo da máquina gerenciadora.
dessas ferramentas são utilizadas outras para gerenciamento do cluster: GANGLIA, para estatísticas
de uso do sistema (processamento, discos, rede); OpenMOSIXView, para ajuda ao gerenciamento
dos processos; scripts diversos para monitoramento de discos, serviços, etc.
MODELO NUMÉRICO RAMS



       Os modelos numéricos de sistemas atmosféricos têm como objetivo representar               os
fenômenos físicos e químicos mais relevantes que ocorrem na atmosfera, no solo (terra, água, gelo
ou neve) e na vegetação. Devido à complexidade do sistema atmosférico, várias aproximações são
incorporadas no modelo, visando o compromisso entre o tempo da simulação e a qualidade do
simulação. À medida que ocorre o avanço da computação, pode-se diminuir o número de
aproximações no modelo e a inclusão de novos mais processos, com conseqüentes melhorias no
resultado.


        O modelo numérico escolhido como Modelo-Previsor no MASTER foi o RAMS (Regional
Atmospheric Modeling System, descrito por (Pielke et al., 1992)), inicialmente desenvolvido pela
Universidade do Estado do Colorado, EUA. O RAMS atualmente está sendo adaptado para as
condições brasileiras por uma parceria entre o CPTEC, o IAG/USP e o IME/USP, passando então
a se chamar BRAMS, com o financiamento da FINEP. O Modelo-Previsor é desenvolvido na
linguagem FORTRAN 90, e baseado no esquema de diferenciação finita, dispondo de vários
métodos de parametrização tais como: radiação, superfície, convecção, solo, vegetação, turbulência,
condições de fronteira e interação grades maiores. Estas parametrizações têm como objetivo
melhorar a representação de fenômenos em meso-escala e escala convectiva. Como o próprio nome
diz, o RAMS é um modelo regional sendo utilizado normalmente para simulações em área limitada.
Portanto, para a sua execução, é necessário fornecer parâmetros de entrada como a condição inicial
e as condições de fronteira. Em casos especiais pode ser interessante realizar uma simulação
homogênea, onde é utilizada apenas uma sondagem cujos níveis o modelo interpreta como sendo
espacialmente homogêneos e igual ao valor informado por sondagem, por exemplo. Os dados para a
condição inicial e de fronteira do modelo geralmente são extraídos de modelos globais tais como:
CPTEC; NCEP, etc, podendo-se também utilizar a própria saída do BRAMS, desde que a grade
seja menor que a rodada prévia. Nesse tipo de configuração o modelo em linhas gerais realiza um
melhoramento na resolução espacial dos dados introduzidos como condições de contorno.


       O BRAMS possui também funcionalidades que possibilitam a introdução de dados
observados tais como o SYNOP (Rede de superfície que circula no GTS - Global
Telecommunication System), METAR (Informações de superfície baseadas em observações
realizadas em aeroportos) e radiossondagens. Existe a possibilidade de utilizar grades aninhadas, ou
seja, uma grade externa com uma resolução mais baixa e outras internas com maior resolução afim
de melhor estudar uma determinada região do domínio. Evidentemente, quanto maior o número de
grades maior será o tempo de processamento. É possível controlar os parâmetros de comunicação
entre as grades, o que implica em processamento para realizar essa troca de informações.


           As configurações do modelo estão em um “namelist” chamado RAMSIN, onde são
descritos, por exemplo: i) informações sobre as grades a serem utilizadas (número de grades,
resolução e tamanho); ii) quais são os níveis verticais e os níveis de solo; iii) o tempo inicial da
simulação e sua duração; iv) escolha dos vários tipos de parametrizações. Após o término das
simulações o resultado é lido por um programa de pós-processamento (“revu” ou “ramspost”) e são
geradas saídas para programas de visualização gráfica tais como o GrADS e Vis5D.




PRODUTO FINAL


           Com o objetivo de tornar a visualização dos resultados do modelo de fácil entendimento e
interpretação, tanto para o profissional da área quanto para o leigo que por ventura venha a se
interessar pelo produto de previsão numérica, são desenvolvidos produtos gráficos adequados a
cada variável meteorológica. Cada produto requer uma atenção especial, tanto nos detalhes físicos
que o envolvem quanto na aparência, que deve deixar claro para o usuário o que esta querendo ser
visualizado. Vale ressaltar que os produtos a serem visualizados não são escolhidos por acaso e são
criados a fim de suprir a necessidade que o profissional da área de meteorologia tem em analisar o
estado atual da atmosfera, juntamente com previsões futuras dos parâmetros meteorológicos,
buscando diagnósticos precisos.


           A partir das análises e previsões geradas pelo modelo RAMS utiliza-se o software GrADS
(Grid Analisys and Display System) para a visualização e confecção dos produtos desejados. No
GrADS é possível gerar campos meteorológicos de 2 dimensões, sendo que essas dimensões podem
variar em latitude, longitude, tempo e altura. Há diversas maneiras de visualização, desde plotagens
pontuais (muito útil para análise de dados de estação como SYNOP e METAR), perfis verticais
(para plotagens de sondagens) até campos interpolados, onde é possível analisar uma variável
meteorológica de forma contínua, tanto no plano horizontal quanto no plano vertical. Uma vez
decidido o produto que vai ser gerado, o sistema é testado até que se visualize a variável desejada
da maneira mais satisfatória. À medida que os produtos vão ficando prontos, o processo de geração
é incorporado aos scripts8 (que normalmente geram produtos distintos de um modelo comum), para

8
    Scripts: termo utilizado na informática para designar uma seqüência de comandos à serem executados.
que sejam integrados à operação. É importante ressaltar que o conhecimento das necessidades
diretamente ligadas aos processos de análise dos resultados e o constante contato com o usuário
final são de extrema importância nessa etapa.
Exemplo de produto final


       Como exemplos de produtos meteorológicos desenvolvidos no MASTER, gerados
operacionalmente, temos os “índices de instabilidade termodinâmica CAPE e CINE", referentes à
energia potencial disponível para convecção e energia associada à inibição da convecção,
respectivamente. Podem ser descritos como:


                          NE
                               Tvp  Tva                                NCC
                                                                              Tvp  Tva
              CAPE  g    
                         NCC
                                 Tva
                                           dz   (1)         CINE  g     
                                                                        SUP
                                                                                Tva
                                                                                          dz   (2)



Esses índices, plotados juntamente com os campos de vento em 850mb de 500mb (vento térmico
entre estes dois níveis de pressão), permitem a identificação de regiões com maior potencial para
formação de tempestades severas, via termodinâmica.


       Com o intuito de apresentar visualmente o produto, pode-se tomar como exemplo o sistema
termodinâmico (Complexo Convectivo de Mesoescala - CCM) formado na Argentina, induzido por
convecção local, ocorrido no dia 26/10/2003, como visto na Figura 6.




                                 Figura. 6: Imagem de satélite do GOES – 12


       Apesar de um sistema frontal que passou pelo sul do Brasil na data em questão, essa figura
mostra que o CCM formado na Argentina foi praticamente induzido por forçante termodinâmica,
onde os valores de temperatura potencial equivalente são mais altos, como mostrado na Figura 7.
Pode-se notar nas Figuras 8 e 9 que os valores CAPE sobre o CCM são altos e os de CINE são
baixos, o que indica potencial para convecção.




                      Figura 7: Temperatura potencial equivalente e e vento em 850mb




                 Figura 8: CAPE                                           Figura 9: CINE



       O Modelo-Previsor não previu corretamente a evolução desse CCM, associando a chuva
somente ao sistema frontal no sul do Brasil. Devido a isso ele subestimou a precipitação, como
observado nas Figuras 10 e 11, onde pode-se observar que a previsão forneceu apenas
aproximadamente 10mm de chuva para estação de Pilar, no extremo sudoeste do Paraguai,
enquanto que os dados de SYNOP registraram 30mm. Essa aplicação mostra a importância de
utilizar indicadores do potencial de formação de sistemas convectivos e não apenas a previsão
quantitativa de chuva produzida pelo modelo. Neste caso, assim como em vários outros, indicadores
do potencial da formação de precipitação como o CAPE, CINE e outros índices permitem a
identificação das áreas de risco.




                                  Figura 10: Precipitação e Evapotranspiração.




        Figura 11: Synop x modelo (estação SYNOP Pilar, Paraguai). O modelo é representado pelos pontos
                            ligados, e os dados de SYNOP são os pontos individuais.


Outros produtos podem ser criados com o intuito de aperfeiçoar os já operacionais, e um exemplo é
a “máscara para perfis verticais de campos meteorológicos”, que surgiu da necessidade de se
localizar o relevo, principalmente para a visualização de cortes verticais em regiões montanhosas.
Quando uma plotagem deste tipo é feita no GrADS há um problema na região onde o relevo é mais
acentuado, já que o software interpola campos fictícios da variável dentro da montanha. Esses
campos fictícios devem ser descartados, pois podem confundir o usuário caso ele não conheça a
topografia da região. Criou-se então um algorítimo para a determinação da região de relevo,
descrito como:


                                          geopotencial  topografia
                       MÁSCARA                                                   (3)
                                        | geopotencial  topografia |


Como visto na figura 12, a posição da Cordilheira dos Andes (bem representada pela máscara) é
crucial na localização e intensidade do Jato de Baixos Níveis em sua encosta leste, jato este
responsável por um significativo transporte de umidade da Amazônia para a Bacia do Prata.




                       Fig 12: Perfil vertical de umidade, com a máscara de topografia




OPERACIONALIZAÇÃO DA PREVISÃO DO TEMPO


       É interessante ressaltar que a quantidade de produtos gerados operacionalmente é muito
grande, tornando inevitável a utilização de programas que funcionem de forma automática. Vários
são os fatores que reforçam tal necessidade: a previsão do tempo diária é um produto de alta
disponibilidade; a previsão de tempo tem validade prática de 12hs, então quanto antes o processo se
iniciar melhor, uma vez que esta depende de dados provenientes de outros modelos; o processo é
complexo, reunindo diversas informações advindas de outros modelos e dados observacionais a
serem inseridos no modelo.


       As dificuldades para a operacionalização não se restringem somente ao processamento
computacional pois em um processo automático existem várias outras possibilidades de “bugs”. Os
mais freqüentes problemas encontrados são devidos a atraso nos modelos globais, queda de energia,
indisponibilidade do equipamento computacional (encavalamento de processos, por exemplo), falta
de espaço no sistema de arquivos e mal funcionamento nas conexões da Internet. Para tanto são
desenvolvidas rotinas que visam verificar as anormalidades no processo e tomar decisões.


       Primeiramente a operacionalização foi esquematizada como o diagrama 1:

                      Análise do
                      modelo                       RAMS
                      GLOBAL




                                                  Controle                    Visualização
                      Dados de
                                                    de                       das estações
                      METAR +
                                                 Qualidade                     com suas
                      SYNOP
                                                                             classificações




                                              Dados de METAR +

                                              SYNOP   filtrados


                                                                            Análise
                                                                            do ciclo          Produto final
  History
    do                                            BRAMS
  último                                                                     Novo
   ciclo                                                                    history
                                                                            do ciclo


            Reinício do processo com nova análise do modelo GLOBAL e novos dados de METAR
                                                 e SYNOP
Diagrama 1: esquema da previsão do tempo implementada no MASTER.


       Com o esquema pronto, foram desenvolvidas rotinas inteligentes e algorítimos tolerantes a
erros com o intuito de diminuir a dependência humana para o funcionamento da operação, para que
ele possa dedicar-se para o monitoramento da qualidade da previsão e desenvolvimento de novos
produtos. Mas é importante frisar que o monitoramento de todo o processo é imprescindível, porque
podem ocorrer problemas que as rotinas inteligentes não conseguem resolver.


          Assim que a operação passa a gerar os produtos de forma confiável e contínua, estes são
enviados para a portal do MASTER na Internet (www.master.iag.usp.br) a fim de facilitar o acesso
aos dados e abranger o maior número de usuários possível.


          Na data da publicação desse trabalho o portal contava com três operações diárias de previsão
de tempo regionais, três previsões climáticas e aproximadamente uma dezena de outros produtos
(numéricos, imagens e tratamento de dados observacionais) com freqüência de aproximadamente
200 mil acessos mensais. O cluster VARAL estava sendo utilizado majoritariamente para pesquisas
científicas, e as operações diárias estavam sendo executadas em outro cluster (dedicado somente
para esse fim). Porém o VARAL pode realizar a operação a qualquer momento, pois possui uma
cópia das rotinas. No passado devido a problemas com a máquina dedicada a operação o VARAL
foi de extrema importância para manter a regularidade das operações. Devido a não automação das
rotinas das previsões climáticas9 elas são executadas “manualmente” utilizando os novos
processadores advindos da última expansão.




CONCLUSÃO


          Previsão numérica de tempo operacional necessita de uma infra-estrutura computacional de
alto desempenho, alta disponibilidade, confiabilidade operacional e monitoramento constante. A
operação existente no MASTER busca desenvolver todas as necessidades existentes nesse tipo de
atividade, desde a confecção de clusters de alto desempenho e baixo custo até o produto final
direcionado ao público em geral. A integração entre alunos, professores e pesquisadores possibilita
o contínuo desenvolvimento de ferramentas para melhorar essa operação. É fundamental a
constante preocupação em converter a produção científica em melhorias para uma prestação de
serviços a comunidade, seja de forma direta – trabalho científico resultando em produtos
operacionais – como indireta – trabalhos aperfeiçoando a previsão do tempo.




AGRADECIMENTOS


          Os autores agradecem ao apoio da USP e dos órgãos de apoio à pesquisa (FAPESP e FUSP)
no desenvolvimento deste projeto sem o qual não ter sido possível desenvolver o protótipo. Este
9
    As previsões climáticas estão em constante mudança. Os parâmetros do modelo são distintos para cada
     mês do ano, e os arquivos necessários para essa operação não são disponibilizados com regularidade.
trabalho também não seria possível sem o apoio do corpo de funcionários do laboratório nos testes
da infra-estrutura computacional e da operacionalidade dos aplicativos desenvolvidos neste projeto.




REFERÊNCIAS BIBLIOGRÁFICAS


BAR, M. et al. Introduction to OpenMOSIX. Acessado em 10/06/2003, disponível em:
http://openmosix.sourceforge.net/linux-kongress_2003_openMosix.pdf


BUYTAERT, C. OpenMosix HOWTO. Acessado em 1/06/2003, disponível em:
http://howto.ipng.be/openMosix-HOWTO/


CARLO, A. Debian Instalation Manual. Acessado em 1/3/2003, disponível em:
http://www.debian.org/releases/stable/i386/install
COELHO, D. G. et al. Modelagem de Mesoescala: uma alternativa de baixo custo. Anais do XII
Congresso Brasileiro de Meteorologia. Foz do Iguaçu, PR, pp. 3575-3578, 2002.


FAWCETT, T. The Linux Bootdisk HOWTO. Acessado em 10/10/2003, disponível em:
http://www.tldp.org/HOWTO/Bootdisk-HOWTO/index.html


GROPP, W., LUSK, E. Installation and User's Guide to mpich, a Portable Implementation of MPI
Version 1.2.5, the chp4 device for Workstation Networks. Acessado em 10/10/2003, disponível em:
http://www.mcs.anl.gov/mpi/mpich/docs/mpichman-chp4.pdf


JACKSON, I., SCHWARZ, C. Debian Policy Manual. Acessado em 05/05/2003, disponível em:
http://www.debian.org/doc/debian-policy/


JEUNHOMME, B. Network Boot and Exotic Root HOWTO. Acessado em 02/10/2001, disponível
em:
http://www.tldp.org/HOWTO/Network-boot-HOWTO/index.html


KOSTYRKA, A. NFS-Root Mini HOWTO. Acessado em 02/10/2001, disponível em:
http://www.tldp.org/HOWTO/NFS-Root.html


MASS, C. F. et al. Regional Enviromental Prediction over the PacificNorthwest. Bulleting of the
Am. Meteo. Society., 1353-1366, 2003.
ØSTERGAARD, J., BUESO, E. The Software-RAID HOWTO. Acessado em 04/04/2003, disponível
em: http://www.tldp.org/HOWTO/Software-RAID-HOWTO.html


PIELKE, R. A. et al. A Comprehensive meteorological modeling system -RAMS. Meteo. Atmos.
Phys., v. 49, n. 1-4, 69-91, 1992.


PORTLAND GROUP CORPORATION. PGI User's Guide: Parallel Fortran, C and C++ for
Scientists and Engineers. Acessado em 13/10/2003, disponível em:
http://www.pgroup.com/doc/pgi51ug.pdf


RADAJEWSKI, J., EADLINE, D. Beowulf HOWTO. Acessado em 14/12/2002, disponível em:
http://www.tldp.org/HOWTO/Beowulf-HOWTO.html
WALKO, R. L.; BAND, L. E.; BARON, J.; KITTEL, T.G. F.; LAMMERS, R.; LEE, T. J.; OJIMA,
D.; PILKE, R. A.; TAYLOR, C.; TAGUE, C.; TREMBACK, C. J.; VIDALE, P. L. Couple
atmosphere-biophysics-hydrology models for enviromental modeling. J. Appl. Meteorol., 39, 6,
931-944, 2000.


WALKO, R. L., TRAMBACK, C. J. Model Input Namelist Parameters for version 5.0. Acessado
em 12/10/2003, disponível em:
http://www.master.iag.usp.br/ensino/rams/ug50-model-namelist-1.1.pdf

								
To top