GEOINTELIGÊNCIA, SENSORIAMENTO REMOTO

Geração de dados sintéticos para sensoriamento remoto

A muito percebi que não a caminho de volta para um emprego cada vez mais massivo da classificação automática de alvos, no futuro da Inteligência de Imagens e suas aplicações. Tal situação passa obrigatoriamente pela criação de uma biblioteca espectral de alvos, ampla e eficiente, para que possa ter sua utilidade posta em prática de forma mais plena.

A publicação a seguir, apesar de, em alguns momentos, se ater a quesitos bastantes técnicos da computação e das redes neurais, consegue abordar vários pontos desse desafio e suas possíveis soluções, no que tange ao Estado da Arte sensoriamento remoto e a IMINT.

Aproveitando todo o potencial das redes neurais profundas para interpretação e análise de imagens 

A maior parte da interpretação e análise de imagens modernas depende de redes neurais profundas (DNNs) devido à sua precisão incomparável, grande capacidade de diferenciar várias classes de objetos distintos, generalização e relativa simplicidade para desenvolver e aplicar novas ferramentas, quando comparados aos métodos tradicionais de visão por computador. 

Nos últimos anos, a pesquisa de DNN resultou em uma classificação de prateleira, com a detecção e algoritmos de segmentação semântica que, quando devidamente treinados, aproximam-se do nível humano ou até o superam no desempenho em muitos domínios de imagens. No entanto, são necessárias grandes quantidades de dados de treinamento rotulados para tarefas específicas de maneira a obter esses benefícios. 

Esses dados devem exibir a extensão e a variabilidade do domínio de destino. Como outros modelos estatísticos, DNNs não extrapolam bem em ambientes fora do seu domínio, sem cuidados especiais. Por exemplo, treinar um modelo para segmentar estradas usando imagens de cidades norte-americanas e, em seguida, implantar esses modelos em imagens de cidades europeias produzirá um resultado aquém do ideal. Um obstáculo básico à generalização para DNNs é que as variações que parecem obviamente irrelevantes para os humanos (por exemplo, marcações de pista diferentes ou práticas agrícolas) são percebidas como sendo completamente estranhas a um DNN, levando a resultados imprevisíveis. 

O aumento de dados durante o treinamento (por exemplo, espelhamento aleatório, rotação, alterações de contraste e brilho, equilíbrio de cores, escala, etc.) pode aliviar parcialmente esses problemas; no entanto, métodos mais avançados são necessários para que os DNNs possam generalizar bem novos ambientes. Um obstáculo básico à generalização para DNNs é que as variações que parecem obviamente irrelevantes para os humanos (por exemplo, marcações de pista diferentes ou práticas agrícolas) são percebidas como completamente estranhas a um DNN, levando a resultados imprevisíveis. 

Para combater a generalização deficiente, vários métodos criam conjuntos de dados rotulados para fins de treinamento, mas fazer isso de forma eficiente, em escala e com extensibilidade em mente requer uma reflexão cuidadosa. O desenvolvimento de um sistema usando metodologias ativas de aprendizagem implantadas em ambientes colaborativos pode ajudar os anotadores a rotular dados rapidamente e criar uma capacidade operacional, começando com apenas uma pequena quantidade de dados rotulados. [1] Muitos desses insights foram feitos em outros campos, particularmente com direção autônoma e cuidados de saúde, que requerem fatores extras, como segurança e interoperabilidade. [2,3]

Além de rotulagem robusta, treinamento e um ambiente de validação e implantação, técnicas mais avançadas podem maximizar a precisão do modelo em escalas de tempo curtas e com dados de treinamento limitados. Por exemplo, a modelagem semi-supervisionada e não supervisionada pode ajudar nas tarefas de rotulagem, enquanto os ambientes simulados podem substituir ou complementar os conjuntos de dados de treinamento e validação. Este artigo se concentra na última abordagem: criar fluxos de trabalho de dados sintéticos para aumentar a precisão do modelo quando os dados rotulados são escassos.

Métodos de Simulação

O artigo de Geoffrey Hinton de 2007 “Para reconhecer formas, primeiro aprenda a gerar imagens,” [4]  teve um grande impacto no assunto rede neural e na comunidade de pesquisa estatística. O artigo apresenta as etapas para desenvolver uma rede neural de várias camadas, métodos para definir funções de perda e o cálculo para atualizar os parâmetros do modelo para maximizar a precisão do modelo (conhecido como retropropagação). Além dessa receita de treinamento de modelo altamente popular, o trabalho de Hinton discute a geração de imagens de modelagem para aumentar ainda mais a precisão da detecção ou classificação. Em essência, entender como criar imagens beneficia muito a interpretação e análise de imagens (e vice-versa).

Existem duas abordagens principais para simular dados, cada uma com vantagens e desvantagens: gráficos de computador tradicionais e modelos generativos baseados em dados. Gráficos de computador usam traçado de raio e rasterização para renderizar cenas simuladas. Isso funciona particularmente bem em casos de uso de sensoriamento remoto e veículos autônomos, onde os primitivos básicos (edifícios, estradas, veículos) e as condições espectrais (geometrias de visualização, ângulos de iluminação, conteúdo espectral, atenuação atmosférica) são relativamente simples e fáceis de modelar. 

Por exemplo, a ferramenta de modelagem Digital Imaging and Remote Sensing Image Generation (DIRSIG), desenvolvida no Rochester Institute of Technology, fornece métodos para criar imagens sintéticas baseadas na física para desenvolvimento de sensores e para auxiliar no treinamento de modelos DNN. [5,6]Métodos semelhantes foram estudados para renderizar embarcações marítimas, colocando-as em imagens reais para melhorar amplamente as métricas de detecção de objetos. [7] 

Veículos autônomos e indústrias de saúde usam métodos de renderização para gerar conjuntos de dados simulados para melhorar a precisão do modelo, especialmente quando conjuntos de dados rotulados são escassos. [8,9] No entanto, a composição das cenas a serem renderizadas pode levar tempo, principalmente se o domínio de destino for diverso. Em comparação com a abordagem ingênua de reunir e rotular dados adicionais, esta abordagem troca o trabalho do anotador humano pelo trabalho do ilustrador. Em alguns casos, pode não ser possível realizar este exercício sem um investimento significativo.

Alternativamente, a abordagem generativa para dados sintéticos vê um conjunto existente de dados reais como uma coleção de amostras da distribuição real de dados reais e tenta construir um modelo que extrai amostras adicionais dessa distribuição. As amostras (ou imagens) geradas lembram o conjunto de dados e, se o modelo for treinado corretamente, podem ter níveis muito altos de fidelidade visual. Isso reduz a necessidade de usar a abordagem de computação gráfica para construir e renderizar objetos de interesse em cenas com condições espectrais realistas. 

No entanto, se esses parâmetros forem conhecidos e estiverem disponíveis no momento do treinamento, eles também podem ser usados ​​para condicionar o modelo a controlar a saída gerada. Os principais exemplos de modelagem generativa, especificamente usando redes adversárias generativas (GANs), incluem os trabalhos de Karras et al.[10] e Wang et al. para condicionar a saída GAN no nível do pixel usando rótulos semânticos. [11]

Ilustração da estrutura GAN: D (Discriminador) é apresentado alternadamente com imagens de G (Gerador) e do conjunto de dados. D é solicitado a distinguir entre as duas fontes. O problema é formulado como um jogo minimax: D está tentando minimizar o número de erros que comete. G está tentando maximizar o número de erros que D comete nas amostras geradas. As setas curvas representam a retropropagação de gradientes no conjunto de parâmetros de destino.

Modelagem Generativa vis GANs

Um GAN consiste em um par de redes que, como o nome sugere, competem entre si durante a fase de treinamento. A rede de geradores G toma como entrada um vetor aleatório denominado vetor latente. Se outros metadados estiverem disponíveis (ângulo de iluminação, etc.), esses valores podem ser concatenados com o vetor latente para condicionar a saída. Ao gerar novos dados, a rede pode ser controlada por meio dos metadados para criar imagens com parâmetros específicos. Este vetor latente é alimentado em uma série de camadas de remodelagem e deconvoluição para reconstruir e transformar o vetor em uma imagem gerada. 

A segunda rede, o discriminador D, obtém imagens do conjunto de dados real (os dados que estamos tentando modelar) e do conjunto de dados gerado e os passa por uma série de camadas convolucionais e de remodelagem em uma imagem quase espelhada da rede do gerador. Ele tenta prever corretamente quais imagens foram geradas por G e quais são reais. Estas redes competir em um jogo minimax de dois jogadores: onde D tem por objetivo adivinhar corretamente o que foi gerado, contra imagens reais, enquanto G tem por objetivo enganar D. No resultado ideal, G gera imagens sintéticas convincentes e D não pode determinar se as imagens de G são reais ou não. Durante a implantação, G recebe vetores latentes aleatórios com metadados de condicionamento (se disponíveis) para criar novas imagens plausíveis. O discriminador normalmente é descartado. [12]

Os GANs têm sido usados ​​com sucesso no setor de saúde, que apresenta um grande desequilíbrio entre imagens médicas saudáveis ​​e aquelas que contêm tecidos ou tumores prejudiciais. Os GANs podem ajudar a reduzir esse desequilíbrio por meio da modelagem e criação de dados adicionais. [13] Além disso, quando as preocupações com a privacidade são um problema, os GANs têm sido usados ​​para aplicar o anonimato, criando dados sintéticos que carecem de informações pessoais e ainda exibem os detalhes do exame dos pacientes. [14]

Usando GANs para aplicações de sensoriamento remoto

Para treinar DNNs de sensoriamento remoto usando modelos generativos para aumento de dados, deve-se modelar as imagens e os rótulos associados com um alto grau de precisão e fidelidade. Os pesquisadores fizeram progressos nessa direção transferindo estatísticas de imagem de um domínio, onde há uma abundância de dados, para o domínio de destino que é semelhante em aparência e conteúdo, mas com muito menos exemplos.

Por exemplo, Yun et al. use redes adversárias geradoras de ciclo consistente para converter dados de banda visível em dados infravermelhos. [15] Da mesma forma, Benjdira et al. usou a saída de CycleGANs entre a banda visível e os dados infravermelhos para aumentar significativamente a precisão da segmentação de conjuntos de dados de sensoriamento remoto. [16] Seo et al. transferiu estatísticas de imagens de imagens reais em imagens renderizadas sinteticamente contendo veículos militares para aumentar a fidelidade geral da imagem. [17] Em cada um desses trabalhos, dados reais são usados ​​para aumentar os dados sintéticos para a detecção de objetos ou treinamento do modelo de segmentação.

Em nosso trabalho recente (Howe et al.), as imagens e os rótulos são modelados juntos para criar imagens rotuladas completamente novas, que foram usadas para treinar um detector de objetos. [18] Para nosso conhecimento, esta é a primeira vez que tal modelagem foi tentada usando métodos GAN para qualquer área de aplicação. Aqui, usamos o Concurso de Rotulagem Semântica 2D da Sociedade Internacional de Fotogrametria e Sensoriamento Remoto (ISPRS) – conjunto de dados de Potsdam. 

Este conjunto de dados consiste em 24 segmentação rotulada de imagens de 6.000 × 6.000 pixels coletadas a uma distância de amostra do solo de 5 cm com seis categorias de tipos de uso da terra: superfícies impermeáveis ​​(branco), edifícios (azul), vegetação rasteira (ciano), árvores (verde) , veículos (amarelo) e desordem (vermelho). Usamos os métodos de Karras et al. (ProgressiveGAN) e Wang et al. (Pix2PixHD) para modelar os espaços de máscaras de segmentação e imagens condicionadas a tais máscaras, respectivamente. [19,20] A Figura 1 apresenta exemplos de imagem real e sintética e pares de rótulos.

Figura 1. Imagem real ISPRS Potsdam e pares de rótulos (à esquerda) e pares de rótulos de imagens gerados sinteticamente (à direita). As máscaras de segmentação sintética foram geradas via ProgressiveGAN, e as imagens sintéticas foram geradas via Pix2PixHD condicionadas na máscara gerada.

De uma perspectiva qualitativa, é difícil diferenciar conjuntos de dados reais de sintéticos. A métrica Fréchet Inception Distance (FID) é comumente usada para medir quantitativamente o quão bem os dados gerados correspondem à distribuição dos dados reais. Informalmente, o FID tenta medir como as imagens são diferentes das imagens reais quando processadas por meio de um DNN específico treinado no conjunto de dados ImageNet. Observamos que aumentar a quantidade de dados de treinamento para os GANs resultou em um aumento na pontuação do FID, o que significa que as imagens geradas se tornaram menos semelhantes às imagens reais quando a quantidade de dados de treinamento foi aumentada. Isso faz sentido à medida que os GANs aprendem a interpolar entre as imagens de treinamento, o que se torna mais difícil à medida que o número e a diversidade das imagens de treinamento aumentam.

Ao usar dados gerados por GAN para aumentar conjuntos de dados de treinamento reais, uma tendência semelhante é encontrada. Se apenas uma pequena quantidade de dados estiver disponível para treinar os GANs e um detector de objetos, neste caso, RetinaNet, [21]o aumento relativo na precisão média média (mAP) pode aumentar em mais de 10 por cento, em comparação com o treinamento com dados reais sozinhos usando metodologias de aumento de dados padrão. Para uma comparação prática, essa melhoria é cerca de 40 por cento do benefício obtido ao rotular exaustivamente uma imagem adicional de 6.000 × 6.000 pixels. 

À medida que o número de imagens de treinamento aumenta, a melhoria relativa no mAP diminui; até que eventualmente este método de aumento GAN se torne prejudicial. Este pipeline é eficaz, mas apenas quando muito poucos dados rotulados estão disponíveis. Se os dados rotulados forem abundantes, podem não oferecer um benefício e possivelmente prejudicar o desempenho. No entanto, para pequenas quantidades de dados de treinamento, esses métodos podem fornecer um impulso adicional no desempenho além das técnicas tradicionais de aumento.

Resumo e trabalho futuro

Em alguns domínios de imagens, as tarefas de visão computacional de classificação, detecção e segmentação podem ser vistas como problemas resolvidos no sentido de que, com dados abundantes, diversos e bem rotulados, as técnicas de prateleira agora podem se aproximar ou mesmo exceder desempenho de nível humano. Infelizmente, na prática, esses requisitos de dados geralmente excedem em muito o volume, a diversidade e a fidelidade da maioria dos conjuntos de dados rotulados. Além disso, essas técnicas de prateleira normalmente não se aplicam bem aos conjuntos de dados altamente desequilibrados que costumam ser a norma em muitas aplicações. Esses problemas são agravados pelo fato de que as técnicas de transferência de informações de dados rotulados em um domínio para outro (geralmente chamadas de adaptação de domínio) não abordam remotamente o desempenho de nível humano, mas são uma área ativa de pesquisa.

Além de rotular mais dados, o que pode ser caro ou mesmo impossível em alguns cenários, as duas principais abordagens para aumentar os dados escassos são a síntese de dados por gráficos de computador e modelos generativos. Ambas as técnicas se mostraram promissoras em imagens de sensoriamento remoto, mas têm uma deficiência comum: elas otimizam para fotorrealismo em vez de otimizar a sua utilidade como dados de treinamento. Além de hiperparâmetros de mudança de feedback humano, nenhuma das abordagens tenta usar a precisão da previsão como um sinal de treinamento para melhorar a simulação. 

A situação é semelhante à de alunos se preparando para um exame, mas o professor ignora completamente o desempenho no exame para trabalhar o desenvolvimento do currículo posterior. Na instrução adequada, o currículo é ajustado dinamicamente com base no desempenho do aluno. No aprendizado de máquina (ML), esse ciclo de feedback, conectado por meio de gradiente descendente, é referido como meta-aprendizagem. Antecipamos que os avanços futuros na síntese de dados para ML virão da unificação de gráficos e abordagens geradoras em uma construção de meta-aprendizado para otimizar diretamente para a tarefa de visão computacional desejada, em vez de fotorrealismo.


Este artigo foi aprovado para divulgação pública pela National Geospatial-Intelligence Agency # 20-084.

  1. Ksenia Konyushkova, Raphael Sznitman e Pascal Fua. “Aprendendo Aprendizado Ativo com Dados.” Em Advances in Neural Information Processing Systems, pp. 4225-4235. 2017.
  2. https://blogs.nvidia.com/blog/2018/09/13/how-maglev-speeds-autonomous-vehicles-to-superhuman-levels-of-safety/
  3. https://developer.nvidia.com/clara
  4. Geoffrey Hinton. “Para reconhecer formas, primeiro aprenda a gerar imagens.” Progress in Brain Research. 2007. não. 165: 535-547. https://doi.org/10.1016/S0079-6123(06)65034-6
  5. http://www.dirsig.org
  6. Sanghui Han ,, Alex Fafard, John Kerekes, Michael Gartley, Emmett Ientilucci, Andreas Savakis, Charles Law et al. “Efficient Generation of Image Chips for Training Deep Learning Algorithms.” Em reconhecimento automático de alvo XXVII. 2017. vol. 10202, pág. 1020203. Sociedade Internacional de Óptica e Fotônica.
  7. Yiming Yan, Zhichao Tan e Nan Su. “A Data Augmentation Strategy Based on Simulated Samples for Ship Detection in RGB Remote Sensing Images.” ISPRS International Journal of Geo-Information 2019: 8 (6): 276.
  8. Josh Tobin, Rachel Fong, Alex Ray, Jonas Schneider, Wojciech Zaremba e Pieter Abbeel. “Domain Randomization for Transferring Deep Neural Networks from Simulation to the Real World.” Em 2017 IEEE / RSJ International Conference on Intelligent Robots and Systems (IROS). pp. 23-30. IEEE. 2017.
  9. AF Frangi, SA Tsaftaris e JL Prince. “Simulation and Synthesis in Medical Imaging.” IEEE Transactions on Medical Imaging. 2018: 37 (3): 673-679. doi: 10.1109 / TMI.2018.2800298.
  10. Tero Karras, Timo Aila, Samuli Laine e Jaakko Lehtinen. “Progressive Growing of GANs for Improved Quality, Stability, and Variation.” 2017. pré-impressão de arXiv arXiv: 1710.10196.
  11. Ting-Chun Wang, Ming-Yu Liu, Jun-Yan Zhu, Andrew Tao, Jan Kautz e Bryan Catanzaro. “High-Resolution Image Synthesis and Semantic Manipulation with Conditional GANs.” Em Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. 2018. pp. 8798-8807.
  12. Ian Goodfellow, Jean Pouget-Abadie, Mehdi Mirza, Bing Xu, David Warde-Farley, Sherjil Ozair, Aaron Courville e Yoshua Bengio. “Generative Adversarial Nets.” In Advances in Neural Information Processing Systems. 2014. pp. 2672-2680.
  13. Felix Lau, Tom Hendriks, Jesse Lieman-Sifry, Sean Sall e Dan Golden. “Scargan: Chained Generative Adversarial Networks to Simulate Pathological Tissue on Cardiovascular MR Scans.” Em Deep Learning em Medical Image Analysis e Multimodal Learning for Clinical Decision Support. 2018. Springer, Cham. pp. 343-350.
  14. Edward Choi, Siddharth Biswal, Bradley Malin, Jon Duke e Walter F. Stewart, Jimeng Sun. “Generating Multi-label Discrete Patient Records Using Generative Adversarial Networks.” In Proceedings of the 2nd Machine Learning for Healthcare Conference.2017. PMLR 68: 286-305.
  15. Kyongsik Yun, Kevin Yu, Joseph Osborne, Sarah Eldin, Luan Nguyen, Alexander Huyen e Thomas Lu. “Melhor Visível para Transformação de Imagem IR Usando Aumento de Dados Sintéticos com Redes Adversariais Consistentes em Ciclo.” Em reconhecimento e rastreamento de padrões. 2019. XXX, vol. 10995. p. 1099502. International Society for Optics and Photonics.
  16. Bilel Benjdira, Yakoub Bazi, Anis Koubaa e Kais Ouni. “Adaptação de Domínio Não Supervisionado Usando Redes Adversariais Generativas para Segmentação Semântica de Imagens Aéreas.” Sensoriamento remoto. 2019: 11 (11): 1369.
  17. Junghoon Seo, Seunghyun Jeon e Taegyun Jeon. “Domain Adaptive Generation of Aircraft on Satellite Imagery via Simulated and Unsupervised Learning.” 2018. pré-impressão de arXiv arXiv: 1806.03002.
  18. Jonathan Howe, Kyle Pula e Aaron A. Reite. “Conditional Generative Adversarial Networks for Data Augmentation and Adaptation in Remotely Sensed Imagery.” 2019. arXiv preprint arXiv: 1908.03809.
  19. Tero Karras, Timo Aila, Samuli Laine e Jaakko Lehtinen. “Progressive Growing of GANs for Improved Quality, Stability, and Variation.” 2017. pré-impressão de arXiv arXiv: 1710.10196.
  20. Ting-Chun Wang, Ming-Yu Liu, Jun-Yan Zhu, Andrew Tao, Jan Kautz e Bryan Catanzaro. “High-Resolution Image Synthesis and Semantic Manipulation with Conditional GANs.” Em Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. 2018. pp. 8798-8807.
  21. Tsung-Yi Lin, Priya Goyal, Ross Girshick, Kaiming He e Piotr Dollár. “Perda Focal para Detecção de Objeto Denso.” Em Proceedings of the IEEE International Conference on Computer Vision. 2017. pp. 2980.2988.

USGIF em 28 de abril de 2020

Autores: Dr. Jonathan Howe, NVIDIA; Dr. Aaron Reite, NGA; Dr. Kyle Pula, CACI; e Dr. Jonathan Von Stroh, CACI

Tradução e comentários: Evenuel Viana Veloza

Padrão
GEOINTELIGÊNCIA, PLATAFORMAS ORBITAIS

15 FONTES OFICIAIS DE DADOS DE IMAGENS DE SATÉLITES GRATUITAS

O segredo que não quer calar, é que existem dezenas de fontes confiáveis ​​com imagens de satélite de alta qualidade. Mas espere, tem mais…você não só pode baixar as melhores e mais recentes imagens de satélite, mas é tudo GRATUITO.

Tudo que você precisa saber é onde encontrá-los. Leia o conteúdo abaixo para ver uma lista bem interessante de fontes gratuitas de imagens de satélite.

1. USGS Earth Explorer

Descubra o poder do Landsat e muito mais. Não importa onde você more, o USGS Earth Explorer tem uma abundância de imagens de satélite para oferecer:

  • LANDSAT: Imagine ser capaz de olhar para mais de 40 anos atrás em qualquer lugar. A qualquer momento, você pode ver o quanto tudo mudou. Quanto isso valeria? Este é o legado das imagens do satélite Landsat. Sua história de quase 40 anos é incomparável com qualquer outra imagem de satélite. Baixe a história do nosso planeta através do Landsat no USGS Earth Explorer.
  • ELEVAÇÃO: se você precisa de elevação, ASTER e SRTM são modelos de elevação digital mundialmente conhecidos. Por meio do USGS Explorer, encontre sua peça em qualquer lugar do planeta.
  • HIPERSPECTRAL: Explore as imagens hiperespectrais do Hyperion. É somente por meio dessa plataforma que você pode ter uma oportunidade tão rara.

USGS Earth Explorer é uma fonte de classe mundial para imagens de satélite gratuitas. Não importa onde você more, você PRECISA olhar para o USGS Earth Explorer. Aqui está um guia sobre como baixar imagens gratuitas do Landsat do USGS Earth Explorer para ajudá-lo a começar.

2. Sentinel Open Access Hub

Sentinel-2 é o início de uma nova e emocionante era em imagens abertas de satélite. Não é apenas porque a cobertura abrange todo o globo. Mas também porque o Sentinel-2 é a imagem de satélite gratuita mais nítida disponível para download hoje.

O Sentinels Open Access Hub é a sede oficial para baixar imagens do Sentinel. É um pouco estranho se acostumar, então verifique nosso guia para saber como baixar imagens do Sentinel-2 .

  • SENTINEL-2: Dois satélites formam o Sentinel-2. Devido à sua popularidade, haverá mais 2 satélites nos próximos anos. O Sentinel-2 tem resolução de 10 metros em vermelho, verde, azul e infravermelho próximo. Suas 12 bandas espectrais variam de bandas costeiras a SWIR. Já se passaram 5 anos desde o seu lançamento. Mas a demanda disparou, tornando-se uma das imagens de satélite gratuitas mais populares disponíveis.
  • SENTINEL-1: Se você precisa de imagens de radar de abertura sintética (SAR), Sentinel-1 é banda C. O potencial para SAR é infinito. Mas você não consegue uma imagem bonita como o Sentinel-2.

Depois de baixar as imagens do Sentinel, como você as usa? Baixe o software livre Sentinel-2 Toolbox do ESA . Todas as caixas de ferramentas fornecem a estrutura para abraçar um rico conjunto de ferramentas de análise, visualização e processamento.

3. NASA Earthdata Search

Há muito o que gostar sobre o Earthdata Search da NASA . Especialmente, depois de seu novo facelift. Ele tem um novo visual e design para descobrir dados das Ciências da Terra. Em primeiro lugar, as opções de dados de satélite são incríveis.

  • DADOS DERIVADOS: A maioria dos Dados da Terra da NASA é um produto de análise para o estudo das Ciências da Terra. Por exemplo, é qualquer coisa da biosfera, criosfera, hidrosfera ou atmosfera. A maioria dos produtos vem de um centro de dados e aplicativos (DAAC).
  • COBERTURA DA TERRA: NASA Earthdata também é uma excelente fonte de uso e cobertura global da terra. Mas não são apenas as classes típicas de cobertura do solo. Possui dados especializados derivados de satélite, como permafrost e tipos de zonas úmidas.

Nossa sugestão é começar com uma pesquisa simples. Em seguida, altere os critérios de intervalo de tempo para restringir sua pesquisa. Finalmente, baixe suas imagens de satélite gratuitas. Você vai pegar o jeito depois de algumas tentativas. Este tutorial de uso da pesquisa EarthData da NASA ajudará.

4. Visualizador de acesso a dados NOAA

A NOAA substituiu seu sistema de pedido de fotografia aérea pelo NOAA Data Access Viewer . Agora, é onde você descobre conjuntos de dados confiáveis ​​ao longo das costas. Mas não é apenas para imagens de satélite. Você pode baixar:

  • IMAGENS AÉREAS / SATÉLITES: O NOAA Data Access Viewer contém imagens de satélite, aéreas e LiDAR. Primeiro, entre na sua área de interesse. Depois de fazer isso, todos os conjuntos de dados disponíveis aparecerão no painel do lado direito. A partir daqui, tudo que você precisa fazer é fazer o download.

NOAA Data Access Viewer está fora do modo beta agora. Mas as velocidades de download ainda são lentas e lentas. No geral, esta é uma ótima opção para áreas costeiras como Califórnia, Flórida e Nova York.

5. Programa de Dados Abertos DigitalGlobe

Se você deseja as imagens de satélite mais nítidas do mundo, experimente aproveitar o poder do DigitalGlobe. Na verdade, é tão nítido que quase dá para ver as placas dos carros.

De forma alguma, você pode baixar toda a biblioteca DigitalGlobe de imagens de 30 cm gratuitamente. Em vez disso, você pode baixar imagens de satélite gratuitas da DigitalGlobe de duas maneiras:

  • OPEN DATA PROGRAM: Para qualquer desastre natural, o Open Data Program da DigitalGlobe fornece imagens de satélite para alívio. Por exemplo, incêndios, inundações, furacões, tufões e terremotos fazem parte desta lista. Eles liberam dados para o domínio público sob uma licença Creative Commons 4.0. Dê uma olhada em qualquer desastre natural recente e aposto que está lá.
  • DADOS DE AMOSTRA: Se você deseja simplesmente experimentar, tente fazer o download de suas imagens de amostra . Por exemplo, possui pegadas de construção, elevação, estéreo e imagens em cores reais.

Estes são exemplos de imagens de satélite de alta resolução. Se você não conseguiu encontrar o que estava procurando aqui, a próxima opção é sua segunda melhor escolha.

6. Defesa Geo-Airbus

Assim como o DigitalGlobe, o Geo-Airbus Defense é um fornecedor comercial. De satélites como SPOT, Pleiades, RapidEye, estes são alguns dos melhores da classe. Geo-Airbus Defense também possui uma coleção de imagens de amostra. Mas, infelizmente, sua seleção gratuita de imagens de satélite é bastante limitada.

  • AMOSTRA DE IMAGENS: Geo Airbus Defense Systems oferece mais de 140 imagens de amostra para experimentação. Para imagens ópticas, fica mais fino quanto 1,5 metros com o SPOT. As imagens de radar do TerraSAR-X têm até 3 metros de nitidez. Finalmente, você pode obter uma amostra do incomparável WorldDEM de 12 metros. Isso é muito mais refinado e preciso do que os DEMs globais ASTER e SRTM.

7. NASA Worldview

NASA Worldview não é muito bom para baixar dados brutos. Por exemplo, você não pode nem mesmo baixar o famoso Blue Marble aqui. Mas você pode fazer isso no NASA NEO . Ele serve para fornecer acesso a uma variedade de produtos científicos.

  • PRODUTOS CIENTÍFICOS: O objetivo da NASA Worldview é apresentar produtos científicos em todas as disciplinas. Por exemplo, há uma seção para perigos e desastres. Além disso, você pode filetar produtos derivados de satélite por disciplina científica.

Se você deseja baixar imagens de satélite gratuitas, você deve adicionar a camada ao mapa. Em seguida, você deve escolher a data no controle deslizante de madeira abaixo. Por fim, clique na guia de dados na legenda e clique no botão “Baixar dados”.

8. NOAA CLASS

Camada intermediária    Dados Mundiais    Administração Oceânica e Atmosférica Nacional    Registro requerido

Da terra aos nossos céus e oceanos, é hora de zarpar com a NOAA CLASS. A biblioteca de imagens de satélite da NOAA é o Comprehensive Large Array-data Stewardship System (CLASS) .

Para acessá-lo, você deve se registrar para uma conta. Então, você pode fazer o login e começar a baixar imagens de satélite. NOAA CLASS é um pouco bagunçado. Mas você pode categorizar NOAA CLASS em 3 seções:

  • IMAGENS OCEÂNICAS: NOAA gerencia e protege as linhas costeiras com CoastWatch. CoastWatch é uma coleção de medidas como vento, temperatura e cor. Tudo vem de satélites como POES, JASON e GOES.
  • IMAGENS ATMOSFÉRICAS: Quando se trata de nosso clima, GOES conhece o clima. Na verdade, o GOES-R é a frota mais avançada de satélites meteorológicos até hoje. Portanto, essas cenas de imagens de satélite capturam tudo, de furacões a tornados.
  • MEIO AMBIENTE E CLIMA: Esses produtos abrangem tudo, desde ozônio até aerossol.

Mesmo que NOAA CLASS não seja tão intuitivo quanto o resto, você ainda consegue mergulhar fundo em nossos oceanos e atmosfera. E isso é muito bom.

9. National Institute for Space Research (INPE)

O Instituto Nacional de Pesquisas Espaciais (INPE) é o braço brasileiro de pesquisas espaciais. Eles desenvolveram o Catálogo de Imagens do INPE que é uma espécie de biblioteca para baixar gratuitamente imagens de satélite. Grande parte deste catálogo são imagens de satélite do CBERS.

  • CBERS: A parceria entre Brasil e China tem uma missão conjunta própria. O conjunto de dados chave neste catálogo são Recursos Terrestres China – Brasil (CBERS 2). De acordo com o INPE, serão incluídos também CBERS 4, ResourceSat e UK-DMC 2.

A única ressalva é que os dados são específicos para a América do Sul e África . Se você estiver de acordo, pode traduzir o site do português para o inglês. Depois de fazer isso, você terá que criar uma conta. Porque a cada solicitação que você faz, o INPE envia os dados do download para o seu e-mail.

Em seguida, selecione seu satélite e sensor. Em seguida, escolha um país da América do Sul e da África. Por fim, adicione-o ao seu carrinho e clique em “Vá em frente”. A partir daqui, você pode baixar gratuitamente suas imagens de satélite do site FTP do INPE.

10. Geo-plataforma indiana de Bhuvan da ISRO

A Índia fez grandes avanços na tecnologia de sensoriamento remoto por satélite. Na verdade, o lançamento do satélite Indiano de Sensoriamento Remoto (IRS 1A) remonta a 1998. Desde então, os dados estão disponíveis na Geo-plataforma indiana de Bhuvan .

A plataforma é bem construída. Mas a maioria dos dados é apenas para a Índia. Isso inclui IMS-1 (Hyperspectral), Cartosat, OceanSat e ResourceSat. Todos são satélites indianos. Os seguintes produtos também estão disponíveis para download fora da Índia:

  • NDVI : Cobertura Global do Índice de Vegetação por Diferença Normalizada.
  • CARTODEM : Este modelo de elevação de 30 metros usa imagens estéreo de imagens Cartosat-1 sobrepostas.

11. Global ALOS 3D World da JAXA

ALOS World 3d é um modelo de superfície digital (DSM) com resolução espacial de 30 metros. A JAXA o construiu e recentemente o lançou ao público. O interessante é que são os dados de elevação em escala global mais precisos no momento.

Ele usa o Satélite Avançado de Observação Terrestre “DAICHI” (ALOS), que é um tipo de radar de banda-L. Se você deseja fazer o download do ALOS 3D, vá para o portal JAXA Global ALOS . Em seguida, você terá que se registrar para uma conta. Após a aprovação, você pode baixá-lo através do portal de download.

12. VITO Vision

O site VITO Vision oferece PROBA-V, SPOT-Vegetation e METOP como imagens de satélite gratuitas. Esses satélites de resolução grosseira esculpem padrões de vegetação na superfície da Terra.

Leva algum tempo e esforço para criar uma conta para o VITO Vision. A interface é intuitiva e oferece dados de satélite de baixa resolução gratuitos ao seu alcance. Esse tipo de dado é bom para aplicativos de grande escala que não precisam de detalhes mais finos.

13. NOAA Digital Coast

Quando você está explorando os dados da Costa Digital da NOAA, tudo gira em torno da bela costa . Os dados costeiros são tudo o que você obterá nesta plataforma de imagens.

Para baixar os dados, selecione sua área de interesse. Defina seu conjunto de dados para download. E peneire os resultados. Você tem dados bênticos, de elevação, imagens, cobertura do solo e dados socioeconômicos. Você obtém uma variedade de imagens de satélite gratuitas para escolher, como radar, infravermelho e composições de cores reais.

14. Cobertura do Solo por Satélite

Nunca tivemos uma perspectiva tão boa de nosso planeta em mudança por causa das imagens de satélite. Alguns dos maiores desafios que enfrentamos hoje são mais bem compreendidos por meio da cobertura do solo por satélite. Isso ocorre porque o sensoriamento remoto cobre muito mais terreno.

  • COBERTURA DA TERRA: Listamos as melhores fontes de dados globais de cobertura da terra do Landsat, MODIS e AVHRR. A cobertura global da terra quantifica as mudanças na cobertura da terra em todo o mundo. Isso inclui vegetação, áreas geológicas, agrícolas, hidrológicas e urbanas.

15. UNAVCO

Vamos encerrar as coisas com UNAVCO. University NAVSTAR Consortium (UNAVCO) é uma organização de universidades. Se você não sabe quem é UNAVCO, aqui está UNAVCO explicado em 3 minutos .

Seu principal objetivo é apoiar a pesquisa científica utilizando a tecnologia de geodésia. Porque nosso mundo está totalmente conectado, UNAVCO fornece acesso aos dados de geodésia. Por exemplo, pense em inundações, placas tectônicas e terremotos.

  • RADAR DE ABERTURA SINTÉTICA: Sua plataforma é a Interface do Usuário de Pesquisa de Arquivo SAR da UNAVCO . Este site está inundado com radar de abertura sintética de fontes de satélites. Mas primeiro, você precisará de um nome de usuário e senha. Então, você pode finalmente colocar as mãos nos dados.

Por fim

Os dados de satélite abriram novos canais sobre como vemos o planeta. Em vez de passar dias procurando um bom mapa de base, você pode acessar esta lista de dados de imagens de satélite gratuitos. Você aprendeu alguns dos principais data centers para coletar imagens de satélite gratuitas de todo o mundo.

Fonte: GIS Geography ·(Última atualização: 7 de agosto de 2020)

Padrão
GEOINTELIGÊNCIA, PLATAFORMAS ORBITAIS

Kestrel Eye: Um microssatélite de observação tática para os militares dos EUA

Uma unidade militar está prestes a intervir em território hostil, antes de lançar sua ação, o comandante encarregado da operação solicita uma imagem atualizada da área para identificar a evolução do sistema inimigo nos últimos anos ou nas últimas horas. Poucos minutos depois de seu pedido, este recebe a imagem da área e a retransmite diretamente aos combatentes no campo de batalha para que possam levar em conta as novas ameaças e adaptar seu dispositivo de forma eficaz.

Este cenário em breve deixará de ser ficção científica se acreditarmos nos responsáveis ​​pelo programa Kestrel Eye. Graças ao lançamento  de uma verdadeira constelação de microssatélites de observação tática, em breve será possível aperfeiçoar o apoio das forças armadas, oferecendo a capacidade de obter imagens de qualquer parte do mundo em curto prazo, a pedido dos usuários. Esse tipo de capacidade reativa parece ser o caminho escolhido pelo Exército dos EUA para dotar as Forças Armadas de uma capacidade de vigilância global persistente e, em última instância, adquirir um melhor conhecimento da situação.

Mas, além do conceito, muitas questões surgem sobre os objetivos do projeto e os argumentos técnicos apresentados pelos gerentes do programa ainda estão lutando para convencer. O lançamento do primeiro modelo de demonstração, em outubro de 2018, deveria validar as tecnologias e o conceito em condições reais, mas o feedback está demorando a retornar. O programa Kestrel Eye é ambicioso demais? Quais são as reais motivações do exército americano por meio deste programa?

Recursos do satélite Kestrel Eye

Demonstrador projetado pela  Maryland Aerospace Inc  (MAI) por um custo unitário anunciado de US $ 1,3 milhão, o bloco Kestrel Eye 2M é um cubo pouco menor que um pequeno frigobar (38 cm x 38 cm x 96 cm) com um massa de cerca de 50 kg. Ele carrega um telescópio de 10 polegadas fabricado pela empresa Harris e incorpora uma câmera que garante o uso confiável em uma ampla gama de temperaturas e um amplo espectro de ondas. Essa co-configuração permite que o Kestrel Eye produza imagens com resolução de 1,5 m a uma altitude de 500 km.

Colocado em órbita da estação espacial em outubro de 2018, o objetivo do satélite era validar essas tecnologias e testar o conceito durante exercícios realizados em conjunto com as forças terrestres. As empresas do setor de pequenos satélites observaram a experiência com grande interesse, pois ela parece ser um indicador da direção estratégica que as forças armadas dos Estados Unidos podem tomar com esse tipo de tecnologia nos próximos anos.

O conceito do Kestrel Eye

O satélite Kestrel Eye foi especialmente projetado para simplificar o processo de coleta de imagens táticas. Foi apresentado pelo Exército dos Estados Unidos como um satélite de reconhecimento capaz de reduzir consideravelmente o tempo de ciclo entre a solicitação da imagem e seu retorno aos combatentes. Há alguns anos, o Exército dos EUA vem experimentando sistemas flexíveis capazes de  fornecer às forças armadas imagens de satélite em tempo real com o programa Pathfinder Eye, cujo objetivo principal é permitir que as forças armadas adquiram um melhor conhecimento da situação.

O conceito operacional do Kestrel Eye é ser acessível, principalmente, permitindo aos usuários “simplesmente” solicitar imagens na área de sua escolha quando eles expressarem a necessidade. Cada solicitação é então transmitida para um centro de comando local e então priorizada e combinada com outras solicitações de imagem de outras unidades presentes no mesmo teatro de operações, antes de ser transferida para a constelação de satélites Kestrel Eye.

Uma vez recebidos os pedidos de imagens pelo satélite, este realiza as manobras necessárias para captar o maior número de imagens possível. Durante a mesma comunicação, a imagem capturada é rapidamente transmitida para o solo, então comunicada via redes táticas para o combatente solicitante em poucos minutos. Todo o processo deve poder ser executado durante a mesma passagem do satélite para proporcionar real valor agregado operacional.

“Portanto, esta é a capacidade de detectar, rastrear e manter a custódia de qualquer coisa, digamos, maior do que um caminhão e ser capaz de realmente fornecer uma solução de controle de tiro de mira para uma arma no campo em tempo real em qualquer lugar do globo”  ”” Derek Tournear Diretor em exercício da Agência de Desenvolvimento Espacial

Em última análise, a ambição do Exército dos Estados Unidos é colocar uma verdadeira constelação de satélites Kestrel Eye em órbita baixa (LEO), capazes de processar imagens para transmitir aos combatentes apenas informações úteis, nomeadamente os alvos identificados por satélite.

Um conceito que ainda busca convencer

Se o sistema parece ser perfeito papel, o conceito de emprego levanta muitas questões quanto às reais capacidades do sistema e sua viabilidade ainda a serem comprovados. Ostentando uma necessidade orientada principalmente para operações e alvos em “tempo quase real” com meios de detecção automatizados, o Exército dos EUA parece esquecer que a resolução de seu microssatélite (1,5 m) limita sua capacidade de detecção no plano tático. O risco de perder uma ameaça não é desprezível, porque com tal configuração, mesmo um olho treinado não está imune a perder um veículo camuflado no campo (veja abaixo).

Nesse caso, é difícil destacar a capacidade do satélite de definir alvos para os combatentes em campo quando a resolução da imagem não permite uma avaliação efetiva do conteúdo de uma ameaça. A título de comparação, a resolução do satélite Kestrel Eye é a mesma oferecida pelo SPOT6 e 7 satélites do Airbus DS, um satélite acima de tudo apontado por sua capacidade de produzir imagens de campo amplo (60km no nadir contra 5km para o Kestrel Eye). Esses produtos são mais adequados para a produção de inteligência estratégica do que tática, mas também mais amplamente voltados para a produção cartográfica. Uma abordagem pouco crível, portanto, para identificar ameaças potenciais no terreno ou definir alvos, como afirmam os gerentes de projeto.

A abordagem é tanto mais incoerente quanto no contexto dos últimos conflitos assimétricos em que se envolveram, as Forças Armadas americanas confiaram fortemente em meios ISR eficientes (principalmente drones e aviões), considerados mais ágeis, e especialmente capazes de rastrear e identificar veículos armados e/ ou indivíduos dia e noite para apoiar as operações em tempo real.

Crie uma bolha de detecção em tempo real

Se o interesse pelas imagens produzidas pelo satélite Kestrel Eye parece bastante questionável, dadas as ambições do programa, a verdadeira inovação estaria antes na forma como as imagens seriam produzidas e transmitidas aos combatentes. Além da vantagem oferecida por uma constelação de pequenos satélites de observação em termos de frequência de revisita, o sistema promete extrema agilidade ao fornecer imagens aos solicitantes em menos de dez minutos! Uma pequena revolução em si mesma, quando conhecemos os atrasos nos processos de aquisição e processamento de imagens por satélites de observação tradicionais.

Mas, por meio desse programa, o Exército dos Estados Unidos visa, acima de tudo, adquirir a capacidade de processar essas imagens a bordo de satélites para detectar automaticamente alvos – como satélites dedicados à defesa antimísseis – e redistribuí-los via links de dados táticos usados ​​por combatentes e sistemas de armas.  O objetivo do programa seria, portanto, estabelecer uma solução para identificar ameaças e alvejar em “tempo quase real” (em outras palavras, uma espécie de rastreamento da Força Inimiga) para identificar e lidar com ameaças terrestres, localizado além da linha de visão dos combatentes.

Dois cenários possíveis

  1. Autonomia em questão

Pode-se imaginar que o Exército dos Estados Unidos dificilmente se conforma com o apoio que recebe nas operações. É verdade que os elementos de ligação da  National Geospatial-Intelligence Agency (NGA) destacados para as forças armadas dos Estados Unidos são frequentemente apontados por sua falta de capacidade de resposta e a inadequação de seus produtos para apoiar efetivamente a vertente operacional, mas apenas essa necessidade não justifica tal investimento.

Parece claro que o Exército dos Estados Unidos está buscando se emancipar de seus pares, construindo uma cadeia de produção de imagens que seria inteiramente dedicada a ele, permitindo-lhe assim, maiores capacidades de detecção global, a fim  de fornecer suporte informacional direto para suas unidades envolvidas em operações em todo o mundo. Este programa poderia, portanto, ser motivado por uma busca genuína de autonomia, o que não seria uma surpresa, porque esta  abordagem não é fundamentalmente nova. De fato, o Exército dos EUA já demonstrou seu pragmatismo nessa área com o lançamento do programa Buckeye em 2004, para atender às suas próprias necessidades de dados geoespaciais não classificados de alta resolução em teatros de operações iraquianos e afegãos.

2. Antecipar as necessidades dos conflitos de amanhã

É provável que o Exército dos EUA procure antecipar uma perda potencial de seus recursos aéreos ISR (Inteligência, Vigilância e Reconhecimento ) no caso de um conflito de alta intensidade (enfrentando uma nação como a Rússia ou a China). Até então, o uso massivo de drones só era possibilitado pelo ambiente permissivo dos chamados conflitos de “baixa intensidade”, onde a ameaça solo/ ar era geralmente baixa ou quase inexistente, um modelo que provavelmente será ser desafiado em confrontos com nações tecnologicamente maduras.

Daí a necessidade de o Exército dos Estados Unidos adquirir um sistema, composto por múltiplos vetores, capaz de proporcionar vantagens semelhantes em termos de persistência de observação e flexibilidade de uso, ao mesmo tempo que possibilita o imageamento de áreas potenciais com acesso proibido. O pequeno tamanho do satélite também o torna menos vulnerável a armas anti-satélite, por ser mais difícil de detectar. Esta abordagem torna possível garantir a resiliência de suas capacidades SRI. 

Uma abordagem cuja utilidade ainda não foi comprovada

A ambição deste programa parece mais impulsionada pelas fantasias de Hollywood do que por uma abordagem racional; o projeto está, na realidade, pouco em sintonia com as necessidades táticas das forças armadas hoje. Pois além de sua resolução medíocre, o satélite não parece oferecer uma imagem infravermelha ou capacidade de aquisição de vídeo e o Exército dos Estados Unidos não adianta nenhuma garantia na qualidade das imagens produzidas.

No entanto, não está excluído que as imagens irão melhorar com as próximas gerações de satélites Kestrel Eye. Por exemplo, os satélites Skysat usados ​​pela empresa Planet já oferecem imagens submétricas (0,9 m) para uma relação tamanho / peso e um design que é relativamente comparável (o peso do Skysat permanece maior) ao do satélite Kestrel Eye. Não foi divulgado nenhum número oficial sobre a quantidade de satélites previstos a longo prazo , o que alimenta especulações quanto à proposta de revisita e, portanto, à viabilidade do projeto.

Se o conceito sugere uma aparência de compromisso entre a reatividade oferecida pelos drones e os satélites de observação tradicionais, o satélite herdará os mesmos inconvenientes que estes últimos, nomeadamente os constrangimentos relacionados com a atribuição de tarefas, a priorização de pedidos, o tempo de vida do satélite, o tempo no processamento das imagens, etc … Além disso, é muito improvável que tal sistema pudesse realmente permitir uma produção relevante em um ritmo próximo ao “tempo real” como o dizem os responsáveis ​​pelo projeto.

Apenas os sistemas WAMI (Wide Area Motion Imagery ) on-board, hoje, parecem se aproximar desse conceito, com resultados muito mais convincentes no suporte  e com uma resolução muito melhor, variando de 0,5m a 1m e sendo capazes de cobrir área entre 1km² e 10km² dependendo do sistema. Quando se considera que o Exército dos Estados Unidos já opera esse tipo de sistema (em particular o Constant Hawk que equipa alguns aviões RC-12), isso tende a dar mais credibilidade ao segundo cenário e reforçar a escolha da resiliência.

Autor: Jean-Philippe Morisseau

Tradução: Evenuel Viana Veloza

  1. https://www.c4isrnet.com/newsletters/geoint/2019/10/25/how-the-army-will-use-satellites-to-track-land-threats-in-real-time/?utm_medium=social&utm_source = twitter.com & utm_campaign = Socialflow + DFN
  2. https://directory.eoportal.org/web/eoportal/satellite-missions/k/kestrel-eye
  3. https://spacenews.com/armys-imaging-satellite-up-and-running-but-its-future-is-tbd/
  4. https://geointblog.wordpress.com/2017/04/17/lere-de-la-surveillance-persistante-sur-de-grandes-etendus/
Padrão
GEOINTELIGÊNCIA

MAPAS OFFLINE PARA ANDROID

OBJETIVO: Leitura de cartas e mapas como pano de fundo de aplicativos de orientação por posicionamento global, rodando em dispositivos móveis, com sistema operacional Android.

 

  1. DESCRIÇÃO GERAL

        Este tutorial visa realizar a conversão de cartas topográficas baixadas em formato de imagens ( ‘TIF’ com dados ‘XML’ ), do site do BDGEx, bem como das cartas ou mapas produzidos pelos analistas de Geoint em programas de SIG (ArcGIS e QGIS) em formatos diversos ( ‘JPG’, ‘BMP’, ‘PNG’,’TIF’ ), para um formato legível pelo programa AlpineQuest para um dispositivo móvel com sistema Android.

  1. SOFTWARES NECESSÁRIO

          a. Aplicativo AlpineQuest

19

            O AlpineQuest GPS é uma aplicação GPS com mapas topográficos desenhados para suprir as necessidades do desportista que pratica desportos ao ar livre, como a escalada, caminhadas, caça, navegação e outras atividades similares.

           A aplicação vem com uma bússola integrada e permite não só que se veja posição atual no mapa, mas acompanhe a posição em movimento, mostrando coordenadas com informação sobre altitude e latitude.

          Como é de esperar deste tipo de aplicações, poderá estabelecer pontos de referência para marcar áreas específicas. Estas áreas permanecerão no mapa virtual até que as queira editar ou eliminar.

         Além do que foi mostrado, o AlpineQuest GPS tem uma enorme lista de estatísticas que lhe mostrarão coisas que vão desde a distância percorrida em cada evento, até à altura máxima que atingiu, assim como o tempo que gastou.

         b,Programa Mapc2mapc

20

         O MAPC2MAPC é um programa do Windows (com mais de 3000 usuários em mais de 50 países) para manipular mapas digitais e convertê-los entre diferentes plataformas e softwares. Os formatos de saída incluem mapas para os principais sistemas e dispositivos móveis – “Android”, iPhone, Garmin, Magellan, Symbian, Windows Phone, entre outros.

          c.Plugin GDAL (1600-2.0.0-64x)

       GDAL é uma biblioteca de tradutores para formatos de dados geoespaciais de imagens e vetores que são lançados sob uma licença Open Source de estilo X / MIT pela Open Source Geospatial Foundation.

            Como uma biblioteca, apresenta um único modelo de dados abstratos de imagens e um modelo de dados de resumo de vetor único para o aplicativo de chamada para todos os formatos suportados. Ele também vem com uma variedade de úteis utilitários de linha de comando para tradução e processamento de dados.

  1. AQUISIÇÃO DOS SOFTWARES

         a. Aplicativo AlpineQuest:

        Baixar aplicativo direto na loja de aplicativos para dispositivos Android, na GOOGLE PLAY.

         b. Programa Mapc2mapc

           Para começar, baixe e instale a versão mais recente do MAPC2MAPC, neste link da página de download (versão mais recente, de 3 de novembro de 2017, é a 570). Se você tiver um sistema operacional de 64 bits, então, obtenha a versão de 64 bits, caso contrário, a versão de 32 bits. Funcionalmente, eles são os mesmos, mas os sistemas operacionais de 32 bits têm um limite na memória do programa de 2-3GB, mesmo quando você tem muita memória física – então a versão de 64 bits tratará mapas maiores.

        Até que você se registre e adquira a versão paga, as imagens do mapa terão X vermelhos dispersos sobre eles, mas o programa ainda faz tudo. A compra do registro é de 15 libras esterlinas. O preço inclui suporte por e-mail e todas as versões futuras.

          O registro é pessoal e pode ser usado em qualquer máquina. Fazer contato pelo e-mail, que está no site, se precisar de licenças para uso múltiplo. Clique aqui para comprar.

            c. Plugin GDAL

            Este programa, é apenas um plugin, ou seja, após descompactar e executar, ele não aparecerá visualmente para uso, mas estará integrado ao programa MAPC2MAPC.

              A versão mais recente, (3 de novembro de 2017 é 570) – link abaixo. Se você tiver problemas para descompactar o arquivo, tente “7Zip”. Em seguida, execute a instalação “exe” que descompactar de dentro do arquivo zip.

            As preferências são gravadas em Configurações Locais / Dados da Aplicação ou o equivalente, dependendo da sua versão do Windows e serão preservados quando uma nova versão for instalada.

           Se resolver, por algum motivo, baixar este plugin de outro site, use no mínimo a versão “1600-2.0.0-64x” como referência.

             Se algum software anti-vírus relatar um vírus TB / Dropper em algumas versões, é um “falso positivo”. Se você estiver preocupado, use um antivirus para verificar o link de download.

Site: http: //www.gdal.org

Download: //http.download.osgeo.org

          Após instalado, abra o programa MAPC2MAPC e apenas nesta primeira abertura, após instalação do GDAL, deverá abrir uma pequena janela com a mensagem, indicando que ele está integrado corretamente.

   d. Programa Google Earth Pró: baixado gratuitamente através do site https://www.google.com/earth/download/gep/agree.html

  1. PROCESSO DE CONVERSÃO

       Existem dois tipos de mapas ou cartas que podem ser de interesse para converter para o uso em dispositivos móveis. As imagens com dados georreferenciados em Geotiff (dois ou três arquivos separados, de imagem e metadados de coordenadas, ou mesclados, num só arquivo da própria imagem) e as imagens sem dados de georreferência (.jpg, .png, .bmp, .tif, entre outros).

         a. Conversão de imagens com dados de georreferencia ou calibradas

        Para facilitar a utilização, após os programas e aplicativos necessários terem sido adquiridos, baixe uma carta no site do BDGEx em formato “TIF” e seu arquivo “XML” (com estes dois arquivos, é possível fazer a conversão de forma direta usando o programa mapc2mapc), para testar a realização dos procedimentos de conversão.

        Com o arquivo de imagem da carta e o arquivo xml na máquina, abra o programa MAPC2MAPC e siga o passo a passo disponibilizado em seguida, auxiliado pelas imagens descritivas.

        Passos 01 e 02: Primeiro clique na aba “File”, da barra de ferramentas superior, onde uma nova aba será aberta, nela deverá se clicar na aba “Wizard Mode”

1

2

         Passos 03, 04 e 05: Um novo layout aparecerá com cinco opções, clique na primeira opção “Load a map with calibration” (carregar mapas calibrados, ou seja, já com dados de georreferência), em seguida, escolha o arquivo de imagem “TIF” que pretende converter e clique em “Abrir”.

3

4

       Passos 06, 07 e 08: Após carregar o arquivo para conversão, o layout mudará novamente, com cinco novas opções, clique na terceira opção “Save the map a mobile application” (salve o mapa para um aplicativo de celular), uma nova janela será aberta. Nesta janela, com o nome de vários aplicativos, clique em “Alpinequest” e em “OK”.

56

         Passo 09: Aguarde o processo de conversão acompanhando as barras verdes que irão aparecer na parte inferior do layout do programa. Após o processo terminar, caso tenha aparecido nenhuma mensagem de erro durante sua execução, será criado um arquivo com extensão “AQM” no mesmo local (diretório ou pasta) em que o arquivo de imagem “TIF” original estava, inclusive com o mesmo nome, mantendo apenas a extensão diferente para diferencia-lo.

7

          b. Conversão de imagens sem dados de georreferencia

      Com o arquivo de imagem não georreferenciado (.jpg, .bmp, .png, .tif, ou outros diversos ) na máquina, abra o programa Google Earth Pró e siga o passo a passo disponibilizado em seguida, auxiliado pelas imagens descritivas.

         Passos 01 e 02: Primeiro clique na aba “Adicionar”, da barra de ferramentas superior, onde uma nova aba será aberta, nela deverá se clicar na aba “Superposição de imagem”.

89

10

    Passos 03, 04 e 05: Um novo layout aparecerá, bem como uma grade para posicionamento da imagem a ser sobreposta, Clique no ícone “Navegar…” (carregar a imagem do mapa de interesse, sem os dados de georreferência), e em seguida, clique em “Abrir”. A imagem aparecerá sobreposta a imagem do google na posição da grade.

11

      Passos 06, 07 e 08: Após carregar a imagem de interesse, use o botão “transparência”, para direita ou esquerda, de forma a aumentar a transparência da imagem sobreposta e poder encaixa-la na imagem do google. Para isso, deverá agir, com o mouse, nos vértices da grade para esticar a imagem para a direção que for necessária (conforme as setas na imagem de apoio), e na cruz ao centro para movimenta-la como um todo. Quando a imagem estiver coincidente, clique em “OK”.

1213

          Passos 09 e 10: Após clicar em “OK”, será gerado um arquivo “KMZ”, que poderá ser visualizado, no local de visualização de arquivos tradicional do google, na lateral esquerda. Clique com o botão direito do mouse sobre este arquivo e uma nova aba aparecerá. Nesta nova aba, clique em “Salvar lugar como”.

1415

         Passos 11 e 12: Escolha o lugar onde o arquivo deve ser salvo, nomeie conforme o interesse e clique em “Salvar”. Será gerado um arquivo em formato “KMZ” da imagem de interesse.

16

        O arquivo “KMZ” gerado, pode ser utilizado diretamente no programa MAPC2MAPC e ser convertido em “AQM”, para ser lido por dispositivos móveis. Para isso, basta seguir os procedimentos já descritos no ítem “b” desta seção.

  1. ENVIO E ABERTURA DA IMAGEM NO DISPOSITIVO MÓVEL

       Após a conversão da imagem de interesse, identifique o arquivo com extensão “AQM” correspondente, anexe-o em uma mensagem de e-mail e envie para uma conta que possa ser acessada do dispositivo celular de destino, que já tenha o AlpineQuest instalado.

     No celular de destino, deve ser aberta a conta de e-mail e clica-se no arquivo em anexo, iniciando o processo de download. Quando o download do arquivo “AQM” for concluído, clique no mesmo e ele será aberto diretamente no AlpineQuest. A partir deste momento, esta imagem de carta ou mapa, já se encontra na biblioteca do aplicativo, podendo ser utilizada, editada ou apagada.

Autor: Evenuel Viana Veloza.

Data da criação13 de Novembro de 2017.

REFERÊNCIAS BIBLIOGRÁFICAS:

http://www.the-thorns.org.uk/mapping/

http://www.gdal.org/

https://www.google.com/earth/

http://www.geoportal.eb.mil.br/mediador/

http://www.alpinequest.net/

http://download.osgeo.org/

https://play.google.com/

https://www.e-education.psu.edu/geog479/node/4 (Folheto TRADOC 525-7-8 e FM 3-38)

http://docplayer.com.br/15489760-Geointelligence-brasil-2014.html

17

“Uma imagem, vale mais que mil palavras. Unitas est Fortitudo”

 

Padrão
GEOINTELIGÊNCIA

TUTORIAL PARA CONVERSÃO DE CARTAS E MAPAS PARA DISPOSITIVOS MÓVEIS

     Conforme prometido, retorno com as publicações no ano de 2018.

    Neste post, venho trazer um tutorial que confeccionei no ano de 2017, para facilitar o emprego de arquivos digitais de cartas topográficas e mapas em geral, por mim, em dispositivos de telefonia móvel.

     Espero que este artigo auxilie a todos que dependem, para realizar seus trabalhos ou atividades, da orientação carta/ terreno, tornando mais simples este emprego, através do uso de dispositivos móveis com sistema Android, trabalhando de forma off-line.

   Uma das principais vantagens do uso deste método, é a possibilidade de salvar mapas ou cartas em dispositivos móveis, que atualmente, estão de posse da grande maioria das pessoas, e poder utilizá-los para fins de orientação carta/ terreno, mesmo em lugares ermos onde há a ausência total do sinal de redes celulares ou grande dificuldade na sua utilização.

 Isto sendo realizado através da utilização dos receptores de geolocalização via satélite (GPS, GLONASS) presentes em quase todos os dispositivos atuais (Smartphones e tablets).

   Para ter acesso ao tutorial em questão, basta clicar no link abaixo.

      TUTORIAL_CONVERSAO_MAPAS _PARA _MOBILE_2017

Referência: imagem retirada do site https://www.nationalgeographic.org/topics/gps/

Padrão