• Share
  • Email
  • Embed
  • Like
  • Save
  • Private Content
Cap. III - Elementos de Fotogrametria e Sensoriamento Remoto
 

Cap. III - Elementos de Fotogrametria e Sensoriamento Remoto

on

  • 5,784 views

Este documento trata dos seguintes assuntos referentes ao capítulo I da apostila de Elementos de Fotogrametria e Sensoriamento Remoto:

Este documento trata dos seguintes assuntos referentes ao capítulo I da apostila de Elementos de Fotogrametria e Sensoriamento Remoto:
- sistema sensores de imageamento;
- sistema LiDAR.

Statistics

Views

Total Views
5,784
Views on SlideShare
5,784
Embed Views
0

Actions

Likes
0
Downloads
315
Comments
0

0 Embeds 0

No embeds

Accessibility

Categories

Upload Details

Uploaded via as Adobe PDF

Usage Rights

© All Rights Reserved

Report content

Flagged as inappropriate Flag as inappropriate
Flag as inappropriate

Select your reason for flagging this presentation as inappropriate.

Cancel
  • Full Name Full Name Comment goes here.
    Are you sure you want to
    Your message goes here
    Processing…
Post Comment
Edit your comment

    Cap. III - Elementos de Fotogrametria e Sensoriamento Remoto Cap. III - Elementos de Fotogrametria e Sensoriamento Remoto Document Transcript

    • Capítulo III 92 CAPÍTULO III 3.1. Sistemas sensores de imageamento Existem diversos tipos de sensores de imageamento utilizados na Fotogrametria e Sensoriamento Remoto, os mais comuns são: detectores de arranjo matricial; detectores de arranjo linear; detectores de arranjo linear multiespectral; detectores de arranjo matricial multiespectral; e detectores de arranjo linear hiperespectral. Usualmente, os sensores são classificados como ativos e passivos, e neste capítulo, estão organizados de acordo com o tipo de tecnologia de imageamento utilizada pelo sensor. A Figura 3.1 mostra os sensores que serão estudados aqui. Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
    • Capítulo III 93 Figura 3.1. Tipos de tecnologia de imageamento. (FONTE: JENSEN, 2009) 3.1.1. Sistemas passivos De todos os tipos de sistemas utilizados no processo de gravação de dados para medidas fotogramétricas, o sistema de câmara ainda é o mais empregado. O marco inicial da evolução das câmaras aéreas se deve ao desenvolvimento do processo fotográfico e posteriormente à invenção das aeronaves. A partir deste instante, os tecnólogos iniciaram suas pesquisas em busca de tecnologia mais avançada, com a finalidade de melhorar os sensores para a aquisição dos dados, corrigir os efeitos de perspectiva, Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
    • Capítulo III 94 borramente provocado pelo arrastamento das imagens, resolução espacial, espectral, radiométrica, entre outros aspectos. A Figura 3.2 apresenta um breve histórico da evolução das câmaras aéreas destinadas ao mapeamento. Figura 3.2. Evolução das câmaras aéreas destinadas ao mapeamento. As câmaras aéreas tiveram sua primeira funcionalidade na I e II Guerra Mundial, com a finalidade da tomada de fotografias para fins de estratégia militar. A câmara do tipo handheld era utilizada de forma que um operador a segurava com as mãos para a tomada das fotografias. Percebe- se que, o uso desta câmara somente poderia ser útil para finalidades de reconhecimento, sendo totalmente desconsiderado seu uso para mapeamento cartográfico de precisão. Em 1922 surgiu a primeira câmara RMK C1, com dispositivos mecânicos mais avançados e um sistema de lentes superior à primeira Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
    • Capítulo III 95 câmara aérea desenvolvida. Com isto, o avanço graduado da tecnologia influenciou cada vez mais a melhoria dos sistemas de lentes e desta forma, câmaras aéreas com melhor qualidade geométrica e radiométrica estão sendo desenvolvidas. Em 1999, na semana fotogramétrica (Photogrammetric Week), foi anunciado o desenvolvimento da câmara digital de arranjo matricial DMC-Z/I e em 2002 ocorreu seu lançamento no mercado de mapeamento. Atualmente, existem três classificações de câmaras utilizadas na aquisição de imagens para mapeamento, isto é: Câmara métrica convencional; Câmaras digitais convencionais; e Câmaras digitais métricas. 3.1.1.1. Câmara métrica convencional Uma câmara métrica convencional é projetada especialmente para aquisição de fotografias para fins cartográficos, pois fornece precisão geométrica adequada para mapeamento. Uma câmara aérea com esta capacidade é denominada de câmara cartográfica. Esta classificação é empregada na produção de mapas e cartas topográficas. As câmaras métricas são aquelas que possuem as denominadas marcas fiduciais, cuja finalidade é materializar o sistema de coordenadas fotográficas garantindo rigidez geométrica, devido ao plano focal ser estável. Este tipo de câmara utiliza rolos de filme para gravação dos objetos contidos na superfície física, no modo pancromático ou colorido. A Figura 3.3 apresenta algumas câmaras aéreas baseada em filmes. Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
    • Capítulo III 96 Figura 3.3. Câmaras aéreas baseadas em filmes. Fotografias tomadas com câmaras métricas convencionais são denominadas de fotografias analógicas e o processo de transformação de uma fotografia analógica para uma imagem digital ocorre por meio de um processo denominado rasterização ou digitalização, via scanner fotogramétrico (ver capítulo I). As câmaras métricas convencionais são do tipo quadro fotográfico, ou seja, expõe um quadro de área do terreno em cada tomada de fotografia em um dado instante. Isto requer que as lentes forneçam uma cobertura angular adequada para que seja gravada a porção da área de interesse. A Figura 3.4 apresenta um esquema gráfico de uma câmara de quadro fotográfico. Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
    • Capítulo III 97 Figura 3.4. Quadro de área no terreno. Este tipo de câmara fornece fotografias de tamanho 23x23 cm e permite recobrimento longitudinal de 60% à 90% e lateral de 10% à 30%, com uma resolução geométrica de 2.5 m (TOMMASELLI, 2001). As principais partes de uma câmara aérea métrica convencional de quadro fotográfico são: Cone; Corpo; e Magazine. O cone de uma câmara é utilizado como suporte para o sistema de lentes fixado em relação à superfície inferior do cone. A superfície superior do cone de uma câmara contém o plano focal que possui marcas de referência, denominadas marcas fiduciais, que materializam o sistema de coordenadas da fotografia resultante, ou sistema fotográfico. O corpo da câmara é constituído do cone externo (a função do cone externo é receber o cone interno e o mecanismo de avanço motorizado do filme e servir de interface para o magazine) e de outras peças, tais como, suportes, alavancas de comando e dispositivos de controle automático do ciclo Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
    • Capítulo III 98 de funcionamento da câmara. Existem vários dispositivos para manter o filme plano, sendo o dispositivo de vácuo-sucção o mais comum. O magazine da câmara é utilizado para armazenar, avançar e aplainar o filme e possue um dispositivo de compensação de arrastamento (consiste em um borramento na imagem provocado pelo movimento relativo do objeto enquanto o obturador da câmara permanece aberto durante o tempo de exposição do filme). Para Tommaselli (2001), os dispositivos de compensação de arrastamento provocam um pequeno movimento sincronizado do negativo, na direção do vôo, enquanto o obturador está aberto (Figura 3.5a). Este pequeno movimento elimina o arrastamento e melhora significativamente a qualidade da imagem (Figura 3.5b). Na Figura 3.5b mostra-se um magazine com um dispositivo de compensação, também chamado de FMC (Forward Motion Compensation), da câmara RMK-Top, Zeiss. Figura 3.5. Compensação do arrastamento. (a) Borramento na imagem causado pelo arrastamento. (b) Imagem sem arrastamento (FONTE: TOMASELLI, 2001) (a) (b) A seguir serão apresentadas as características das câmaras digitais convencionais. Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
    • Capítulo III 99 3.1.1.2. Câmaras digitais convencionais As câmaras digitais convencionais são classificadas como: de pequeno e médio formato, com modelos amadores e profissionais. As câmaras digitais amadoras não possuem rigidez geométrica e radiométrica da imagem. As câmaras digitais profissionais possuem lentes e componentes internos de melhor qualidade geométrica, porém ainda não alcançam a precisão das câmaras métricas convencionais. Estes modelos têm sido bastante utilizados em projetos de cunho científico e, desde que devidamente calibrados, podem ser utilizados para trabalhos fotogramétricos. As câmaras de pequeno e médio formato possuem algumas vantagens em relação às câmaras métricas convencionais, tais como: são leves e de fácil manejo; custo reduzido; possuem um intervalo de distâncias focais; flexibilidade de integração com sistemas GPS e INS; podem ser integrados em diversos tipos de aeronaves; e grande disponibilidade no mercado. A seguir serão apresentadas as características das câmaras digitais métricas. 3.1.1.3. Câmaras digitais métricas 3.1.1.3.1. Sistema Tri-Linear De acordo com Fricker et al (2000), o sistema Tri-Linear possui 3 sensores CCD com configuração de varredura linear, cuja amostragem do terreno é feita em 3 faixas. O sistema consiste de 3 sensores lineares posicionados no plano focal, cujas visadas são denominadas de anterior, nadir e posterior garantindo a geometria e a cobertura estereoscópica da superfície, bem como sensores multiespectrais com sensibilidade Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
    • Capítulo III 100 controlada por filtros RGB e infravermelho, localizados próximos ao nadir. A Figura 3.6 mostra as visadas anterior, nadir e posterior do sistema Tri- Linear. Figura 3.6. Visadas de aquisição de imagens do sistema Tri-Linear. Com o sistema Tri-Linear todos os objetos aparecem em todas as três faixas coletadas pelos sensores (Figura 3.7). A Figura 3.7, mostra duas imagens adquiridas com o sistema supracitado nas visadas anterior e nadir. Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
    • Capítulo III 101 Figura 3.7. Imagens originais de visada anterior e nadir, adquiridas pelo sistema Tri-Linear. (FONTE: HAALA, 2001) Como pode ser percebida na Figura 3.7, as imagens originais apresentam-se distorcidas e por isso é necessário um tratamento da imagem (correção geométrica para ajustar as linhas imageadas) baseada no emprego dos parâmetros de posição e atitude fornecidos pelo sistema de integração GPS/INS. A partir destes parâmetros é realizada uma retificação inicial das imagens, seguida de fototriangulação para o refinamento da solução (para maiores detalhes ver HAALA, 2001). A Figura 3.8 apresenta as imagens retificadas. Figura 3.8. Imagens retificadas de visada anterior e nadir, adquiridas pelo sistema Tri-Linear. (FONTE: HAALA, 2001) Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
    • Capítulo III 102 Existem dois modelos de câmaras baseadas na abordagem Tri- Linear, isto é, as câmaras HRSC-A (desenvolvida pelo Centro Espacial da Alemanha) e ADS 40/50 (Desenvolvida pelo convênio Leica Geosystems e Centro Espacial da Alemanha). Aqui serão tratadas as características da câmara ADS 40. Câmara ADS 40 O sensores lineares ADS 40-Leica foram lançados no XIX Congresso da ISPRS em julho de 2000, desenvolvida pela LH-System em cooperação com o Centro Aeroespacial Alemão. A Figura 3.9 mostra uma imagem da câmara instalada em uma aeronave. Figura 3.9. (a) Câmara ADS40 – LEICA. (b) Câmara instalada na aeronave. (FONTE: FRICKER, 2001). (a) (b) Este tipo de câmara utiliza três componentes básicos para aquisição de imagens, tais como: uma câmara digital de arranjo linear, receptor GPS para determinação da posição e um INS para a determinação da atitude da aeronave. O sensor digital linear fornece imagens do terreno por meio de varreduras contínuas com as características do sistema Tri-Linear. Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
    • Capítulo III 103 A câmara digital possui um sistema de lente com uma ou mais distâncias focais, 3 a 5 sensores lineares no modo Pancromático (estéreo) e de 3 a 7 sensores multiespectrais (RGB e infravermelho). A Figura 3.10 apresenta a varredura contínua e o esquema de varredura para cada tipo de modo (PAN e Multiespectral). Figura 3.10. Varredura contínua e seus modos de imageamento. 0 O campo de visada (FOV) do modo PAN anterior é de 28.4 , 0 enquanto que o PAN posterior é de -14.2 ambos em relação a visada nadiral. Isto faz com que se tenha uma imagem estereoscópica e possibilita a visualização tridimensional. Para os sensores multiespectrais a visada do 0 0 infravermelho posterior é de -2.0 e a visada RGB anterior é de 16.1 . Algumas vantagens deste tipo de sistema em relação às câmaras convencionais são: A projeção da imagem é perspectiva paralela; Número de imagens para o recobrimento aéreo da região de interesse é menor; Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
    • Capítulo III 104 Resolução multiespectral melhor que as imagens de satélite de alta resolução; Produtos ligeiramente mais rápidos; Sem a necessidade de rolos de filme, laboratório fotográfico e scanners; e Resolução de 8 a 12 bits, permitindo a visualização de objetos obstruídos por sombra. Além das câmaras digitais de sensor linear também existem as câmaras digitais de sensor matricial. A Tabela 3.1 apresenta algumas diferenças entre a câmara digital de sensor linear e de sensor matricial. Tabela 3.1. Diferenças básicas entre câmara digital de sensor linear e matricial. (ADAPTADO DE FRICKER, 2001). ADS – 40 (Airbone Digital Sensor) DMC (Digital Mapping Camera) Sensor CCD de arranjo linear Sensor CCD de arranjo matricial PAN (24000 pixels) Pan (13826 x 7680 pixels) * MS – R,G,B e NIR MS – R,G,B e NIR Tamanho do pixel 6,5 x 6,5 m Tamanho do pixel 12 x 12 m 1 lente telocêntrica 4 lentes da Zeiss (PAN) + 4 lentes (MS) Distância focal 62,7 mm Distância focal 120 mm (PAN) e 25,4 mm (MS) 0 0 0 FOV 64 FOV 74 x 44 12 bits / 8 bits 12 bits Sistema inercial/GPS Sistema inercial/GPS (opcional) Resolução espacial mínima 15 cm Resolução espacial mínima 5 cm Memória 540 GB Memória 840 GB (> 2000 imagens) *NIR: infravermelho próximo. Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
    • Capítulo III 105 Sensor Digital Aerotransportado O crescente desenvolvimento dos sensores digitais fotogramétricos aerotransportados, aponta para a uma grande mudança na forma de aquisição, processamento, manuseio e geração de produtos a partir de imagens aéreas, permitindo a sua aplicação para diferentes áreas do conhecimento, proporcionando uma redução no tempo de produção (processamento totalmente digital), melhor resolução espacial e radiométrica, aquisição simultânea de imagens pancromáticas e multiespectrais, mais flexibilidade e custos mais baixos. Com base no tamanho do formato de aquisição da imagem os sensores podem ser divididos em: a) pequeno formato: geram imagens com tamanho de até 16 megapixels; b) médio formato: geram imagens entre 16 e 50 megapixel; c) grande formato: geram imagens acima de 50 megapixel (PETRIE et alii, 2007) . Dentre os sensores de grande formato existentes no mercado, citam- se os modelos que operam com foto e sensores matriciais (ITT: Geospatial System; DIMAC: Dimac Systems; DMC Z/I: Intergraph; Ultracam-D e Ultracam-X: Vexcel; STARIMAGER-TLS: Starlabo), sensores com linha simples (LINHA SIMPLES?) e varredura monocrómático (THALES OPTONICS 8010 e 8042: Vinten; GLOBAL SCAN: France), sensores com linha simples e de varredura colorido (VOS 60 e VOS-80: Zeiss; VERIMARC: Verimarc Plus Inc.), sensores com linha simples e varredura hiperespectral (ITRES RESEARCH: Canadá; SPECIM: Finlândia, INTEGRATED SPECTRONS: Austrália), sensores com linha simples com varredura panorâmico (Goodrich Paranoramic Line Scanner), sensor com três linhas e varredura linear estéreo (HRSC-AX e HRSC-AXW:DLR; JAS 150: Jena Optronik, ADS40 e a 2ª geração ADS80:Leica, 3-DAS-1 e 3-OC: Wehril Associates-USA e Geosystems-Ukraine), (PETRIE et alli, 2007). Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
    • Capítulo III 106 Aqui será tratado do sensor digital ADS 40 de varredura linear. Sensor Digital ADS 40 Lançado no XIX Congresso ISPRS de Amsterdã realizado em Julho de 2000, o sensor digital aerotransportado, figura 3.11, da LH Systems inicia uma nova era da fotogrametria digital, apropriadamente colocado no início do novo milênio. Desenvolvido em conjunto com o Deutsche Zentrum für Luft - und Raumfahrt (Centro Aeroespacial Alemão – DLR) em Berlin (SANDAU et alli, 2000), o ADS40 foi o primeiro dispositivo imageador digital aerotransportado com capacidade e performance, em termos de resolução e cobertura, nas medidas similares as estabelecidas pelas câmaras aéreas analógicas de filmes com formato 23 x 23 cm e resolução maior do que 100 linhas por milímetro (FRICKER et alli, 2001). Figura 3.11. Sensor ADS 40. Adaptado de FRICKER et alli, 2005ª. O ADS40 é um sensor digital linear aerotransportado com grande campo de visão, alta resolução, acurácia geométrica e radiométrica que utiliza o princípio de varredura com três linhas de sensores CCD (em inglês, Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
    • Capítulo III 107 Charged Coupled Device), organizadas perpendicularmente à direção de vôo (denominado pushbroom), obtendo desta forma, visada anterior, vertical e posterior, figura 3.12, possibilitando a geração de modelos em três dimensões. Figura 3.12. Princípio dos três escâner linear. Adaptado de FRICKER et alli, 2005ª. Na aquisição de imagens aéreas do terreno com o ADS40, todos os objetos são gravados três vezes em 100% das cenas ou visadas, enquanto em uma câmara aérea analógica com filme ou digital por foto, a aquisição da imagem é obtida com 60 ou 50% de todos os objetos em três fotos diferentes, figura 3.13. Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
    • Capítulo III 108 Figura 3.13. Sobreposição de imagens na ADS40. Adaptado de FRICKER et alli, 2005. O ADS40 gera imagens de faixas contínuas sem emendas ao longo de cada linha de vôo, figura 3.14, e em diferentes perspectivas centrais, figura 3.15, que permite, por exemplo, com o uso do produto do CCD linear de visada vertical, uma faixa de imagem chamada quase-ortogonal (FRICKER, 2005b). Figura 3.14. Imagem Pancromática com visada vertical. Adaptado de FRICKER et alli, 2000. Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
    • Capítulo III 109 Figura 3.15. Efeito da perspectiva central. Adaptado de FRICKER et alli, 2000. Composição do Sensor Digital ADS 40 Inertial Navegation System (INS) O ADS40 possui uma unidade de medida inercial composta por um sistema de navegação inercial que utiliza tecnologia de posicionamento por satélite (GPS) e determinação da atitude por um inercial (INS). O uso de GPS/INS fornece ao sistema a capacidade de determinar continuamente o deslocamento espacial do sensor de forma autônoma, apresentando precisão suficiente para o georreferenciamento direto de imagens digitais (MCMILLAN et alli, 1994; CRAMER et alli, 2001; CRAMER, 2003) , figura 3.16, possibilitando a realização de mapeamento com maior flexibilidade e rapidez (RUY, 2004). Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
    • Capítulo III 110 Figura 3.16. Plano focal com a posição do sensor CCD linear. Adaptado de FRICKER et alli, 2000. Módulo Plano Focal e Sensor CCD (Charged Coupled Device) O plano focal, figura 3.17a, consiste de quatro conjuntos lineares de CCD: dois deles contendo duas linhas e os outros dois contendo três linhas, figura 3.17b, cada linha com duas matrizes de 12.000 pixels (SANDAU et alli, 2000) separadas por uma distância de 3,5 m, sendo, 6,5 x 6,5 m a dimensão de cada pixel, que permitem medir os valores absolutos dos fótons que entram no sistema, como uma função de transferência linear. Os dois conjuntos de CCD externos, formados com 2x12.000 pixels operam a banda pancromática, e os dois conjuntos internos, divididos em, um conjunto contendo 3x12.000 pixels que opera as bandas RGB (vermelho, verde e azul) e o outro conjunto também com 3x12.000 pixels que opera, com duas linhas a banda pancromática e uma linha, a banda do infravermelho próximo (NIR). Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
    • Capítulo III 111 Com esta disposição o sensor tem capacidade de gerar imagens no pancromático anterior com o primeiro conjunto linear de CCD, imagens multiespectrais nas bandas RGB (vermelho, verde e azul) com o segundo conjunto, imagens no pancromático (visada vertical) com as duas primeiras linhas e na banda do infravermelho próximo com a terceira linha do terceiro conjunto de CCD e imagem no pancromático (visada posterior) com o primeiro quarto conjunto, figura 3.17c. Figura 3.17. Plano focal com a posição do sensor CCD linear e a composição de bandas da imagem. Adaptado de FRICKER et alli, 2000. Sistema Ótico Digital e Filtros A ótica inovadora da ADS40 é projetada para uso em fotogrametria e sensoriamento remoto. A lente é semelhante em suas dimensões externas, peso e resolução as lentes da câmara RC-30 com filme, sendo diferentes em relação ao modo de gravação, pois, enquanto nas câmaras com filme a Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
    • Capítulo III 112 minimização da distorção é primordial, a maior demanda requerida em câmaras digitais é o telecentrismo das imagens, em função do trabalho com bandas multiespectrais, (SANDAU et alli, 2000). O sistema ótico digital possuí, uma lente telecêntrica de distância focal de 62,5 mm, figura 3.18, tamanho de pixel na imagem de 6,5 m, uma abertura de visualização no solo com campo de visão FOV (em inglês, Field of View) com ângulo de cobertura de 64°, diafragma com abertura f:4, ângulos estéreos de 16° (visada vertical para anterior), 26° (visada posterior para vertical) e 42° (visada anterior para posterior), faixa espectral entre 428 e 887 nanômetro (R:608,662nn; G:533-587nn; B:428-492nn; NIR1:703- 757nn e NIR2:833-887nn), resolução de 150 linhas por mm, precisão geométrica de 1 m, medida dinâmica de 12-bit, resolução radiométrica de 8-bit; vermelho com freqüência de 200-800 HZ, capacidade de armazenamento com capacidade de 200-500 GB, estabilização térmica e barométrica na faixa de alta precisão de +10° até +30°, distorção radial menor ou igual a 3%, filtros de bandas e de interferência metálica além dos filtros para bandas RGB mantendo a qualidade campo visual do sensor (SANDAU et alli, 2000 e FRICKER et alli, 2005a). Figura 3.18. Sistema Ótico Digital ADS40. Adaptado de FRICKER et alli, 2000. Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
    • Capítulo III 113 Sistema de Feixes Trichroid (Tricóide) O sistema de divisão de feixes Trichroid desenvolvido pela Leica especialmente para a ADS40, foi concebido com uma perda mínima de energia, e garante que a luz, a partir da mesma área do solo, seja detectada por três arranjos lineares sensíveis ao RGB. Outra matriz linear sobre o plano focal captura os dados no infravermelho próximo, figura 3.19 (FRICKER et alli, 2001). Figura 3.19. Sistema Trichroid desenvolvido pela Leica para a ADS40. Adaptado de FRICKER et alli, 2000. Processamento e Aerotriangulação dos Dados do ADS40 Os metadados originais, com as imagens e parâmetros posicionais e de atitude do sensor no momento da tomada das imagens, permitem, a obtenção de uma visão estéreo, medidas manuais de pontos de controle e medidas automáticas de pontos fotogramétricos, e isto, garante o processamento e o ajustamento do bloco, resultando em uma imagem retificada com precisão e livre de paralaxe, que pode ser vista estereoscopicamente, e ser usada, por exemplo, para coleta e edição de feições cartográficas (FRICKER et alli, 2001). Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
    • Capítulo III 114 As imagens são classificadas de acordo com os níveis de processamento em: a) Nível 0 (zero) – Dados Brutos: consistem em imagem geométricas básicas (formato TIFF e outros formatos) e dados de orientação processados; b) Nível 1 (um) – Dados Corrigidos: consistem em imagens multiespectrais e pancromáticas estéreo totalmente retificadas; c) Nível 2 (dois) – Dados Geoposicionais: consistem em ortofotos pancromáticas e multiespectrais. Os dados de nível zero utilizam o LH Systems ADS gerador nível zero e o pós processamento applanix, já os níveis um e dois utilizam o systems ADS gerador nível um, SOCET SET, DPW, ORIMA ou três pares fotogramétricos na estação de trabalho com sensor de modelo ADS (FRICKER et alli, 2001). Aplicações e contribuições para sistema digital aerotransportado Em função do sensor aerotransportado ADS40 possuir uma resolução espacial variando entre 0,8 m e 0,01m e uma resolução espectral no pancromático e no multiespectral este sensor é indicado para aplicações de fotogrametria e sensoriamento remoto. O produto gerado pelo sensor pode ser utilizado em áreas clássicas da cartografia como, defesa, mapeamento topográfico, construção civil, infra-estrutura, telecomunicações, energia, agricultura, floresta, seguro e desastres (HEIER, 1999). Novos métodos, em comparação com os já existentes para o processamento de filmes aéreos digitalizados, foram introduzidos ao longo dos últimos anos e investigações cuidadosas têm demonstrado que o desempenho, a arquitetura, direção, georreferenciamento, modelagem do sensor, processamento de pontos, aerotriangulação do sensor aerotransportado ADS40 (FRICKER, 2001; HINSKEN et alli, 2002; SANDAU et alli, 2000; TEMPELMANN et alli, 2000) e outros sistemas Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
    • Capítulo III 115 (FRITSCH, 1997; HAALA et alli, 2000; HOFFMANN et alli, 2000; LEBERL et alli, 2003; TIANEN et alli, 2003; WEWEL et alli, 1998; apud PATERAKI et alli, 2003a). As pesquisas envolvendo o ADS40 demonstram a construção, o desempenho, geometria e resolução do sensor (SANDAU et alli, 2000; ECKARDT et alli, 2000; ZHU, 2004; CRAMER, 2006), a acurácia e a precisão no uso da fotogrametria e do sensoriamento remoto (FRICKER et alli, 2001; GREEN et alli, 2007; WASER et alli, 2007; DAI et alli, 2008; ADDULLAH, 2009), o processamento, análise da qualidade radiométrica da imagem, extração de feições por correlação de pixels e a geração de modelos digitais de superfície (GWINNER et alli, 1999; NEUKUM, 1999; SCHOLTEN, 2000; PATERAKI et alli, 2002; PATERAKI et alli, 2003a; PATERAKI et alli, 2003b; HONKAVAARA et alli, 2007), a obtenção da aerotriangulação usando os parâmetros determinados pelo sistema de navegação inercial GPS/IMU (HINSKEN et alli, 2002), a investigação da acurácia de mapeamentos topográficos (YOTSUMATA et alli, 2002) e a comparação radiométrica entre o sensor ADS40 e outros sensores (HONKAVAARA; 2007). Resolução espacial do pixel no terreno e a escala do mapa Quando tratamos de imagens aéreas da superfície terrestre por meio de sensores digitais aerotransportado, o detalhe mais importante para a definição da precisão e acurácia com que necessitamos obter o produto cartográfico não, é a escala da foto e a altitude de vôo, como no caso de câmaras aéreas convencionais, e sim o tamanho ou resolução espacial do pixel no terreno, também conhecido como GSD (em inglês, Ground Sample Distance). Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
    • Capítulo III 116 A tabela 3.2 apresenta a relação entre o GSD do sensor ADS40 e a escala do mapa. Comparação com filme Mapa Padrão fotográfico Tam GSD anho com Escala do do ADS4 Mapa pixel Acurácia x,y Intervalo de 0 Escala da Foto do RMSE Curva de Nível filme esca nead o 5 – 10 1:500 0,125 m 0,25 m 1:3.000 até 1:5.500 2,50 – cm 5,00 cm 10 – 1:1.000 0,250 m 0,50 m 1:5.000 até 1:8.000 5,00 – 15 cm 7,50 cm 15 – 1:1.500 0,400 m 0,75 m 1:6.500 até 1:10.000 7,50 – 20 cm 10,0 cm 20 – 1:2.000 0,500 m 1,00 m 1:8.000 até 1:11.000 10,0 – 30 cm 15,0 cm 25 – 1:2.500 0,600 m 1,25 m 1:8.500 até 1:13.000 12,5 – 35 cm 17,5 cm 30 – 1:5.000 1,250 m 2,50 m 1:12.000 até 1:18.000 15,0 – 50 cm 25,0 cm 40 – 1:10.000 2,500 m 5,00 m 1:17.000 até 1:27.000 20,0 – 60 cm 30,0 cm 50 – 1:20.000 5,000 m 10,00 m 1:25.000 até 1:35.000 25,0 – 70 cm 35,0 cm 50 – 1:25.000 6,250 m 12,50 m 1:28.000 até 1:42.000 25,0 – 80 cm 40,0 cm 50 – 1:50.000 12,50 m 20,00 m 1:40.000 até 1:60.000 25,0 – 100 50,0 cm cm 50 – 1:100.000 25,00 m 50,00 m 1:60.000 até 1:90.000 25,0 – 100 50,0 cm cm Tabela 3.2. Relação GSD e escala do mapa. Adaptado de FRICKER et alli, 2000. Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
    • Capítulo III 117 Figura 3.20. Exemplo de imagem de saída da ADS40. Adaptado de FRICKER et alli, 2000. De forma similar a tabela 3.3 apresenta a relação entre o campo de visada instantânea (IFOV) de um digitalizador medido em pontos por polegada (DPI - dots per inch) ou micrômetros ( m), usado na transformação de uma fotografia aérea convencional em uma imagem digital, e a resolução espacial do pixel no terreno para fotografias em diferentes escalas (JENSEN, 2009). Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
    • Capítulo III 118 Tabela 3.3. Relação ―pixel‖ no terreno e a escala da fotografia. Adaptado de JENSEN, 2009. IFOV do Resolução do “pixel” no terreno para diversas escalas das fotografias (m) Digitalizador DPI m 1:25.000 1:12.500 1:10.000 1:8.000 1:6.000 1:4.000 100 254,000 6,350 31,750 2,540 2,032 1,524 1,016 200 127,000 3,175 15,875 1,270 1,016 0,762 0,508 300 84,667 2,117 10,583 0,847 0,677 0,508 0,339 400 63,500 1,588 7,938 0,635 0,508 0,381 0,254 500 50,800 1,270 6,350 0,508 0,406 0,305 0,203 600 42,333 1,058 5,292 0,423 0,339 0,254 0,169 700 36,286 0,907 4,536 0,363 0,290 0,218 0,145 800 31,750 0,794 3,969 0,318 0,254 0,191 0,127 900 28,222 0,706 3,528 0,282 0,226 0,169 0,113 1000 25,400 0,635 3,175 0,254 0,203 0,152 0,102 1200 21,167 0,529 2,646 0,212 0,169 0,127 0,085 1500 16,933 0,423 2,117 0,169 0,135 0,102 0,068 2000 12,700 0,318 1,588 0,127 0,102 0,076 0,051 3000 8,467 0,212 1,058 0,085 0,068 0,051 0,034 4000 6,350 0,159 0,794 0,064 0,051 0,038 0,025 Conversões úteis de digitalizadores (Adaptado de JENSEN, 2009) DPI= pontos por polegada; m =micrômetro; I = polegada; M=metros De DPI para micrômetros: m = (2,54/DPI)×10.000 De micrômetros para DPI: DPI=(2,54/ m)×10.000 De polegadas para metros: M=I×0,0254 De metros para polegadas: I = M×39,37 Cálculo Do GSD (Adaptado de JENSEN, 2009) PM = tamanho do “pixel” em metros; PF = tamanho do “pixel” em pés; S= escala da foto Utilizando DPI: PM =((S/DPI)/39,37) ×100 PF=(S/DPI)/12 Utilizando micrômetros: PM = (S× m)×0,00001 PF=(S× m)×0,00000328 Por exemplo, se uma fotografia na escala 1:6.000 é digitalizada em 1200 DPI, o tamanho do pixel será (6000/1200)/39,27=0,127 metros por pixel. Se uma fotografia na escala de 1:8.000 é digitalizada com 21,167 m o tamanho do pixel será (8000×21,167)×0,000001)=0,169 metros (JENSEN, 2009). Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
    • Capítulo III 119 A seguir será apresentada a teoria sobre sistema LiDAR (em inglês, Light Detection and Ranging). 3.1.2. Sistema Ativos 3.1.2.1 Sistema LiDAR Vários algoritmos computacionais têm sido implementados para tratamento e geração automática de MDS e MDT a partir do uso de imagens. Neste sentido, ainda não se tem o conhecimento de um algoritmo ou aplicativo comercial que apresente resultados confiáveis e robustos, pois fatores como: a própria geometria perspectiva das imagens; sombra projetada por edifícios e vegetação; escala variante ponto a ponto; mudança do ponto de vista na tomada das imagens; ruídos; regiões com alta densidade predial, vegetal e regiões homogêneas, dificultam o desenvolvimento de aplicativos autônomos para a realização do processo mencionado anteriormente. Para os aplicativos desenvolvidos e de uso comercial, a porcentagem de interação homem/máquina é de 60%. Para Shan e Toth (2008) o sistema LiDAR foi o maior avanço tecnológico de sistema de aquisição de dados espaciais introduzido no mapeamento topográfico, do final do século XX. Sua principal vantagem é a capacidade de fornecer dados tridimensionais de forma direta, rápida, segura, autônoma e acurada. A acurácia do sistema se deve à acuracidade do sensor LASER (em inglês, Light Amplification by Stimulated Emission of Radiation) e dos sensores de integração GNNS (em inglês, Global Navy- Star Navegation System) e INS (em inglês, Inertial Navegation System). Ao contrário do método tradicional de Fotogrametria, LiDAR pode adquirir, de forma direta, dados espaciais sobre a superfície física com uma Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
    • Capítulo III 120 superabundância de informações, que podem ser utilizadas em inúmeras aplicações da engenharia. O desenvolvimento do sistema supracitado interveio na interdisciplinaridade das técnicas de visão computacional, computação gráfica e a fotogrametria. A adaptação gradual destas técnicas está relacionada com a calibração do sistema, processamento e registro dos dados adquiridos e a extração das informações. O sistema tem possibilitado uma leitura ousada no que tange as perspectivas na automação dos processos fotogramétricos, sobretudo para geração de ortofotos digitais verdadeiras (true ortophotos), autonomia na recuperação dos parâmetros de orientação exterior de imagens, reconhecimento e reconstrução automática de objetos presentes nas imagens digitais, abrindo novos caminhos para a fotogrametria em diversos ramos do mercado nacional. A seguir será apresentado o princípio básico de funcionamento do sistema LiDAR. Princípio de funcionamento LiDAR é um sistema de registro de informação com princípio ativo, que possibilita a determinação de coordenadas tridimensionais de cada ponto varrido pelo sistema num curto período de tempo e de forma direta. Existem dois tipos de sistemas disponíveis no mercado, isto é, o sistema dinâmico (Figura 3.21a) e o sistema estático (Figura 3.21b). Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
    • Capítulo III 121 Figura 3.21. (a) Sistema aerotransportado. (b) Sistema estático. (a) (b) Instalados em plataformas aéreas e terrestres, o sistema pode coletar uma nuvem de pontos tridimensionais perfilados sobre a superfície física, com grande volume de dados determinados com acurácia, cuja facilidade no tratamento dos dados implicou na inserção do sistema em diversas aplicações. Ambos os sistemas utilizam um feixe ótico de alta potência e bem direcionado, coerente no espaço e no tempo que proporciona, em pós- processamento, a qualidade da medida da distância entre o sistema LASER e o objeto. Sistemas dinâmicos ou aerotransportados O desenvolvimento do supracitado sistema se deve, principalmente, ao sucesso no desenvolvimento da tecnologia INS. No entanto, a introdução de sistemas aerotransportados se deu a partir do desenvolvimento da tecnologia GNSS, o que possibilitou o desenvolvimento da tecnologia de georeferenciamento direto, isto é, a integração GNSS/INS, na década de 1990, que foram capazes de fornecer dados de posição e atitude da plataforma aerotransportada com uma precisão de 4 – 7 cm e 20–60 arco-segundos, respectivamente (Shan e Toth, 2008). Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
    • Capítulo III 122 Os sistemas aerotransportados podem ser acoplados em aeronaves. Seu princípio de funcionamento depende basicamente da integração de três componentes, isto é: o GPS; o INS; e o próprio LASER. GPS: registra a posição da aeronave em intervalos de tempo fixos, enquanto outro receptor de base (no terreno) possibilita correção diferencial do posicionamento do sensor (pós-processamento); INS: registra os ângulos de atitude ( , , ) do sensor durante o vôo. Posteriormente, são utilizados em pós-processamento para determinação precisa das coordenadas dos pontos tridimensionais no terreno; e Laser: armazena o tempo de emissão e recepção de cada pulso, bem como a resposta espectral de cada objeto varrido. Os pulsos laser são gerados por um componente denominado ―gerador de pulsos‖ e emitidos pelo sistema (na faixa espectral do infravermelho) com o auxílio de um espelho de varredura que redireciona o pulso - com uma freqüência de varredura e diâmetro de espessura -, para a superfície de interesse a ser mapeada ou reconstruída tridimensionalmente. A característica mais marcante do sistema de emissão e recepção do pulso é a sua propriedade em medir distâncias com alto grau de acurácia, usualmente, baseada em um instrumento preciso para medida de tempo. Existem dois métodos de medida de tempo que podem ser empregados nos instrumentos supracitados, isto é, o TOF (em inglês, Time-of-Flight) e o CBLR (em inglês, Continuous Beam of Laser Radiation). Aqui será tratado apenas o primeiro método. O TOF é baseado na emissão de um pulso curto com alta potência de radiação por LASER. Neste caso, o pulso emitido interage com o objeto contido na superfície física. Uma porcentagem da energia emitida é Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
    • Capítulo III 123 absorvida, outra porcentagem é transmitida e a energia refletida retorna ao sistema, cuja mesma é armazenada na ―unidade de controle de armazenamento‖, juntamente com as informações fornecidas pelo GPS e INS. O intervalo de tempo (t) entre a emissão e recepção do pulso é calculado com precisão e a distância entre a plataforma e o objeto perfilado ( R ) é calculada em função da de t e a velocidade da radiação eletromagnética ( v - valor fixo), a saber: v t R (3.1) 2 Da relação acima, se pode extrair a seguinte equação, a saber (Shan e Toth, 2008): vt v t R 2 2 Onde, R é a precisão da distância, v é a precisão da velocidade e t é o valor correspondente da precisão de t. A precisão de R é determinada em função de t. Como descrito anteriormente, o GPS é utilizado em modo cinemático pós-processado, que requer um receptor de base (Figura 3.11) em um ponto de coordenadas conhecidas (por exemplo, uma RBMC – Rede Brasileira de Monitoramento Contínuo – desde que a mesma esteja próxima à área do levantamento). A Figura 3.22 apresenta um esquema do princípio de funcionamento do sistema aerotransportado. Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
    • Capítulo III 124 Figura 3.22. Princípio de funcionamento do sistema aerotransportado. O pulso laser emitido pelo sistema possui um diâmetro que aumenta na medida em que ocorre sua propagação no meio. De acordo com a Figura 3.22 verifica-se visualmente que, o diâmetro do pulso no momento da emissão é consideravelmente inferior quando o mesmo interage com a superfície. O diâmetro do pulso varia de acordo com a altitude de vôo estabelecida no levantamento aéreo. Apesar do fator descrito, a luz do laser foi escolhida para a concepção do sistema por apresentar baixa divergência, cuja propagação é similar à concepção geométrica da linha reta. Por isso, ocorrem múltiplas reflexões na iteração laser/objetos como, por exemplo, quando um pulso laser atinge a folha de uma árvore, uma parte do pulso é refletido pelas folhas e outra parte pelo terreno (este é considerado segundo retorno, pois sua reflexão atinge o sistema após o primeiro retorno do pulso – reflexões das folhas). Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
    • Capítulo III 125 Ainda ao observar a Figura 3.22 é possível verificar que a varredura do terreno é realizada aleatória e transversalmente à direção do vôo, o que possibilita o perfilamento tridimensional da área de interesse com uma freqüência que depende das especificações do projeto. A Figura 3.23 ilustra esquemas de alta e baixa freqüência de perfilamento. Figura 3.23. Freqüência de perfilamento. (a) Alta freqüência de perfilamento. (b) Baixa freqüência de perfilamento. (a) (b) A reconstrução do pulso laser emitido é dada no sistema de projeção WGS84, isto é, a distância percorrida pelo pulso entre a plataforma e o objeto perfilado é calculada em pós-processamento baseada na determinação do ângulo que o pulso formou com a aeronave no momento de sua emissão, juntamente com os dados de posição e atitude da aeronave, fornecidos pelo sistema de integração GPS/INS, bem como em função da velocidade da luz (c) e tempo de emissão e recepção do pulso Laser ( t). Em termos gerais, as coordenadas tridimensionais de um ponto qualquer na superfície física são determinadas em função de uma Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
    • Capítulo III 126 seqüência de rotações e translações aplicadas entre os componentes que compõem o sistema. A Figura 3.24 mostra a relação entre os sistemas envolvidos na determinação de coordenadas de um ponto no sistema do espaço-objeto ou referencial terrestre. Figura 3.24. Determinação de coordenadas tridimensionais de um ponto na superfície. Os pontos tridimensionais de um ponto são obtidos por meio da Equação, a saber: XP 0    YP  TT , INS RT , INS R L , INS 0 TL , INS TG , INS erros (3.1) ZP P d Onde, X PYP Z P : coordenadas tridimensionais de um ponto na superfície física;  TT , INS : translação entre sistema do espaço-objeto e o INS; Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
    • Capítulo III 127  TL , INS : translação entre o LASER e o INS;  TG , INS : translação entre o centro de fase da antena GPS e o INS; RT , INS : matriz de rotação entre o sistema do espaço-objeto e o INS; RL, INS : matriz de rotação entre o LASER e o INS; erros : erros inerentes aos componentes que integram o sistema LiDAR. Para garantir a precisão plani-altimétrica de cada ponto perfilado pelo sistema LiDAR a distância entre os receptores, aerotransportado e de base, não deve ultrapassar 50 km. Um conjunto de receptores de base deverá ser estabelecido, caso não seja possível manter a exigência descrita anteriormente. Calculadas as coordenadas tridimensionais de cada ponto ( X PYP Z P ) na superfície física devem ser aplicadas as devidas transformações entre sistemas de coordenadas, que neste caso, referem-se às conversões das coordenadas entre os sistemas WGS84 e algum sistema de referência adotado no trabalho, por exemplo, SAD-69. Assim como, as transformações das altitudes elipsoidais (fornecidas pelo GPS) para as altitudes ortométricas. De acordo com Wher e Lohr (1999), o sistema LiDAR fornece coordenadas planimétricas em torno de 50 cm e altimétricas em torno de 15 cm. O sistema da Optech ALTM 3100 (sistema canadense) possui precisão planimétrica igual a 1/2000 da altura utilizada no perfilamento a LASER (1 sigma). No entanto, a precisão do sistema depende das características dos componentes utilizados, tipo de terreno, qualidade do INS empregado e altura de vôo. Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
    • Capítulo III 128 A qualidade dos dados obtidos pelo sistema de varredura a LASER depende da qualidade dos dados fornecidos pelos componentes que compõem o sistema supracitado. Em relação ao GPS os fatores internos, externos e operacionais, tais como, solução da ambigüidade, perda de sinal dos satélites, freqüências L1 e L2, geometria e número de satélites disponíveis, deslocamentos orbitais, modelagem do geóide, multicaminhamento, erro de propagação do sinal na atmosfera, interferências eletromagnéticas e parâmetros incorretos, são os fatores mais importantes a serem cuidadosamente estudados. Além de considerar todos os possíveis erros descritos acima, ainda é necessário tomar algumas precauções para a obtenção da precisão requerida, tais como, realizar planejamento adequado, operações de vôo dentro de limites apropriados (para evitar perda de sinal do GPS) e uma boa distribuição das estações GPS de base em solo. 0 O INS apresenta precisão melhor que 0,02 e os pulsos laser são afetados pelas diferentes camadas existentes na atmosfera. A altura de vôo é fator a ser considerado na degradação da precisão das medidas relacionadas ao sistema LASER. Outra característica a ser evidenciada é o problema de divergência dos pulsos, que resultam em pequenas diferenças na interpretação dos resultados que aqui serão chamados de borda de divergência. Os erros de divergência podem ser visualizados através de uma operação de subtração de imagens do primeiro (Figura 3.25a) e último retorno do pulso (Figura 3.25b). A Figura 3.25 mostra imagens em níveis de cinza obtida por meio de um processo de quantização das coordenadas brutas altimétricas fornecidas pelo sistema da TopoSys GmbH, desenvolvido na Alemanha. Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
    • Capítulo III 129 Figura 3.25. Imagens em níveis de cinza obtidos por um processo de quantização de coordenadas altimétricas. (a) Imagem do primeiro retorno do pulso. (b) Imagem do último retorno do pulso. (c) Resultado da subtração entre as imagens a e b. (a) (b) (c) Verifica-se visualmente na Figura 3.25c que o resultado da operação de subtração entre as imagens não apresentou apenas a informação de vegetação, mas também as bordas das edificações, dadas pela diferença entre as dimensões das edificações (bordas de divergência) apresentadas em ambas às imagens. Esta diferença ocorre porque um pulso laser ao incidir sobre a borda do telhado de uma edificação, dependendo do tamanho de seu diâmetro, pode interceptar parcialmente a borda do telhado e ocorrer resposta de retorno devido às reflexões no solo e na fachada lateral do edifício (Figura 3.26), ou outras diversas reflexões do pulso, dependendo do tipo de material perfilado, até seu retorno ao sistema. A Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
    • Capítulo III 130 Figura 3.26 mostra as interceptações parciais do pulso e um exemplo do processo de reflexão do pulso. Figura 3.26. Interceptação parcial do pulso na borda do telhado e duas reflexões do pulso (solo e fachada lateral). Verifica-se também que as bordas das edificações contidas na imagem do último retorno do pulso (Figura 3.25b) são mais estreitas que as do primeiro retorno do pulso. Fato ocorrido devido ao último retorno incidir sobre o solo e posteriormente na fachada lateral da edificação (reta pontilhada na cor preta, Figura 3.26) enquanto o primeiro retorno do pulso incide diretamente na borda do telhado (retas vermelhas, Figura 3.26). Outro fator relacionado ao erro de divergência é a resposta de retorno do pulso após interagir com o objeto perfilado. Por ser esta uma função de dispersão de energia eletromagnética dentro da área do diâmetro do pulso pode-se dizer que, quanto maior a inclinação do pulso em relação ao objeto perfilado na superfície, maior será o erro de divergência e conseqüentemente maior a incerteza posicional do alvo. Para que não ocorram áreas de oclusão, devido ao fator supracitado, é necessário Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
    • Capítulo III 131 realizar um recobrimento da área de interesse com o mínimo de sobreposição possível. Tipos de espelhos de varredura Como descrito anteriormente o sistema LiDAR utiliza espelhos de varredura ótico-mecânica. Existe, basicamente, 3 tipos de espelhos de varredura. A Figura 3.27 apresenta os espelhos de varredura mais utilizados nos sistemas desenvolvidos. Figura 3.27. Mecanismos de varredura. (a) Espelho oscilador. (b) Varredura Palmer. (c) Polígono de rotação. (FONTE: WEHR e LOHR, 1999) (a) (b) (c) Os espelhos osciladores (Figura 3.27a) produzem uma configuração de perfilamento denominada linha em ―zig-zag‖ (Figura 3.27a). Os espelhos de polígono de rotação (Figura 3.27b) produzem uma varredura unidirecional com linhas paralelas (Figura 3.28b). Já os espelhos do tipo Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
    • Capítulo III 132 Palmer (Figura 3.28c) produzem efeitos de modelos elípticos na superfície (Figura 3.28c). Figura 3.28. Configuração da varredura em relação ao tipo de espelho. (a) Linhas em ―zig-zag‖. (b) Linhas paralelas. (c) Modelos elípticos. (a) (b) (c) Os pontos ao longo de uma linha são varridos em incrementos de ângulos iguais. De acordo com Wehr e Loher (1999), devido ao perfilamento aleatório e à aceleração e desaceleração do espelho de varredura, os pontos perfilados no extremo da largura da faixa exibem Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
    • Capítulo III 133 características diferentes dos demais pontos e devem ser removidos, em pós-processamento, do conjunto de dados brutos . A Figura 3.29a apresenta uma imagem de intensidade LASER resultante da varredura de um sistema com tipo de espelho oscilador. Os pontos na cor preta representam objetos que não foram perfilados pelo sistema devido à característica da configuração de perfilamento do tipo de espelho supracitado. Neste caso é necessário realizar uma amostragem dos dados por meio de técnicas de interpolação (vizinho mais próximo, bilinear, triangulação de Delanay etc). Figura 3.29. Imagem de intensidade LASER. (a) Derivada de espelhos osciladores. (b) derivada de espelhos tipo Palmer. (a) (b) A Figura 3.29b apresenta uma imagem de intensidade derivada de espelhos do tipo Palmer. Nota-se a diferença na qualidade geométrica entre as imagens apresentadas em as ambas figuras. Os sistemas de varredura LASER com espelhos do tipo Palmer oferecem precisão duas vezes melhor que os sistemas com espelhos do tipo oscilador. Outro tipo de espelho de varredura que possui vantagens em relação aos demais espelhos descritos anteriormente é o espelho de fibra ótica, Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
    • Capítulo III 134 cujo uso é característico apenas em sistemas da TopoSys GmbH. A Figura 3.30 mostra um espelho de fibra ótica. Figura 3.30. Espelho de fibra ótica. Adaptado de WEHR e LOHR (1999). Eles se diferenciam por terem um processo ótico de emissão e recepção do pulso idêntico. Segundo Wehr e Lohr (1999), matrizes lineares de fibra ótica idênticas são dispostas no plano focal das lentes de emissão e recepção. Através dos espelhos de rotação, cada fibra ótica no caminho da emissão e recepção é varrida seqüencialmente e sincronicamente. Estes espelhos propagam o sinal por meio da fibra central, fibra a fibra. Devido às pequenas aberturas das fibras, pequenos movimentos mecânicos são requeridos com alta velocidade de varredura (acima de 630 Hz). O sistema LiDAR fornece como produto final uma nuvem de pontos distribuídos irregularmente armazenados em um arquivo ASCII de linhas por ponto, composto por um conjunto de coordenadas tridimensionais referenciadas no sistema de projeção admitido no trabalho, cuja manipulação pode-se gerar um MDT e um MDS da região perfilada. Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
    • Capítulo III 135 2 A densidade dos pontos obtidos atinge vários pontos por m , dependendo da altura de vôo e a frequência de perfilamento. A frequência do sistema se situa na faixa de 500 a 1500 nm, com valores de 1040 a 1060 nm, sendo as mesmas refletidas pelos objetos contidos no terreno. Os pontos coletados podem ser utilizados diretamente ou podem ser filtrados e interpolados de forma a gerar uma grade regular de pontos. Existem alguns tipos de sistemas de varredura LASER, tais como, o sistema da Toposys GmbH II (desenvolvido na Alemanha) e Optech ALTM 2050 (desenvolvido no Canadá). O Quadro 3.1, apresenta as diferenças básicas entre os sistemas supracitados. QUADRO 3.1. Características de sistemas Toposys GmbH II e Optech ALTM 2050. Características/Sistemas Toposys GmbH II ALTM 2050 Espelho de varredura Fibra ótica Oscilador Resposta espectral não sim Frequência de varredura Até 63 Hz Até 35 Hz 0 0 Ângulo de varredura 7 20 Altura de operação 250 - 1000 m 250 - 2000 m Modo (pulso) 1º e/ou 2º 1º e/ou 2º Resposta espectral não sim Câmara digital não 4k x 4k pixels A partir dos dados da resposta espectral armazenada pelo sistema da Optech ALTM pode-se gerar, em pós-processamento, uma imagem de intensidade LASER (Figura 3.31). Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
    • Capítulo III 136 Figura 3.31. Imagem de intensidade LASER. Esta imagem é obtida a partir da interpolação dos valores da resposta espctral de cada ponto varrido pelo sistema, gerando uma imagem bidimensional de valores de intensidade. Para cada ponto é atribuído um valor de intensidade, no qual é agregado aos mesmos suas coordenadas tridimensionais compostas num arquivo de um ponto por linha de texto (arquivo bruto ASCII). Os dados são interpolados de acordo com a resolução ao qual foram perfilados os pontos no terreno. A seguir será apresentada a teoria sobre sistemas estáticos. Sistemas estáticos Existem várias aplicações que necessitam de modelagem tridimensional de objetos e superfícies e que podem ser atendidas tanto por outras técnicas de obtenção de dados dimensionais e posicionais (p. ex., técnicas fotogramétricas) quanto pela tecnologia De varredura LASER terrestre. Algumas delas, entretanto, de acordo com os requisitos de rapidez e exatidão, podem requerer um grande número de medidas, Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
    • Capítulo III 137 portanto, são melhores atendidas por uma nuvem de pontos proveniente do sistema de varredura LASER terrestre. O sistema de varredura LASER terrestre, basicamente, é compreendido por um sensor LASER (em inglês, light amplification by stimulated emission of radiation) e sistemas de espelho de varredura que direcionam o pulso para a superfície. O sistema é capaz de fornecer uma nuvem de pontos 3D sobre pontos localizados na superfície física, em um curto período de tempo. A nuvem de pontos é gerada por meio da medição simultânea de intervalo de inclinação de um sensor LASER e dois ângulos associados por encoders angulares correspondentes aos planos horizontais e verticais, passantes pelo centro do instrumento. Por isso, o sistema fornece uma nuvem de pontos de igual reamostragem no sistema de coordenadas polares. Essas medidas de distância e ângulo simultâneos são realizadas automaticamente com um ângulo de varredura de 1000 Hz ou mais, dependendo do sistema utilizado. Basicamente, o sistema emite pulsos de LASER que interagem com a superfície e são refletidos e recuperados pelo receptor do sistema. A distância entre o sensor e o alvo é calculada, em pós-processamento, em função da diferença do tempo entre a emissão e recepção do pulso. O resultado final do processo de medição e processamento é uma nuvem de pontos, que poderia ser chamada, genericamente, de Modelo Digital de Superfície (MDS), ao qual o valor de intensidade também pode ser associado. A figura 3.32 apresenta a geometria de funcionamento do referido sistema. Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
    • Capítulo III 138 Figura 3.32. Geometria de funcionamento do sistema de varredura LASER terrestre. Em princípio, pode-se dizer que o sistema estático funciona como um medidor de distâncias (distanciômetro), em função do tempo de emissão e recepção do pulso. Existem basicamente dois princípios geométricos de cálculos de coordenadas, isto é: triangulação; por intervalo de tempo (time of flight). No princípio de funcionamento por intervalo de tempo a distância é estimada por meio do tempo de emissão e recepção do pulso laser, cuja reflexão do pulso ocorre difusamente dependendo do tipo de material do objeto perfilado. Este sistema é capaz de estimar distâncias para objetos mais distantes, porém oferecem precisão de pior qualidade que o sistema de princípio por triangulação. O princípio de triangulação funciona de forma que um pulso laser é emitido pelo sistema e seu retorno é registrado por uma ou mais câmaras Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
    • Capítulo III 139 de sensores CCD. O ângulo de varredura de cada pulso emitido é registrado no sistema a cada pulso emitido. Conhecendo-se a base fixa entre o sensor LASER e a câmara, por meio de um processo de calibração, determina-se a posição dos pontos refletidos pelo objeto. A distância entre o sensor LASER e o CCD é conhecida e permite o cálculo das coordenadas tridimensionais de cada ponto perfilado pelo sistema. A precisão dos pontos determinados depende da relação base/distância. Com um comprimento de base fixa, o desvio padrão ( ) da distância medida, aumentará em proporção ao quadrado da distância. Figura 3.33. Mecanismos de varredura do sistema de varredura LASER terrestre (Adaptado de Staiger, 2003). Além das técnicas de medidas do sistema se deve considerar o tipo de mecanismo de varredura do sistema. Staiger (2003) classifica o sistema de varredura LASER terrestre como: varredura panorâmica; varredura híbrida; e varredura por quadro. A Figura 3.33 apresenta três tipos de mecanismos de varredura do sistema. Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
    • Capítulo III 140 Dentro da primeira dessas três categorias, varreduras de tipo panorâmico procedem de forma que a distância e as medições angulares em um padrão sistemático fornecem uma cobertura angular total de 360° no plano horizontal, que passa pelo centro do instrumento, e normalmente uma cobertura mínima de 180° no plano vertical perpendicular ao plano horizontal, o que possibilita uma cobertura hemisférica. Este padrão de varredura panorâmico é muito útil no contexto do mapeamento topográfico, é ainda mais desejável, de fato muitas vezes obrigatória, a medição de instalações industriais complexas, grandes pedreiras e minas de céu aberto e as fachadas de edifícios nas áreas urbanas. Uma vantagem da maioria dos sistemas de varredura LASER terrestre é o registro da informação espectral dos alvos perfilados pelo sistema. Por meio desta informação é possível gerar, em pós- processamento, imagens de intensidade. Os valores de intensidade são relativos e não absolutos, e, para os sistemas estáticos, variam de acordo com as propriedades de reflexão direcional e a reflectividade do alvo. Uma das vantagens do sistema de varredura LASER terrestre é que a nuvem de pontos gerada em campo pode ser confrontada com as informações geradas por técnicas fotogramétricas ou sensores imageadores. Atualmente, a integração entre dados derivados de sistemas de aquisições diferentes tem apontado grande potencial como conteúdo de informações complementares, ou seja, a integração de dados derivados do sistema de varredura LASER terrestre e Fotogrametria fornece uma riqueza abundante de informação, que permite a automação dos processos fotogramétricos com melhor eficiência, além de autonomia e redução da necessidade dos métodos de prospecção convencional, tais como, os levantamentos geodésicos e topográficos. Isto reduz o custo operacional e, principalmente, o tempo na linha de produção. A integração dos dados tem Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
    • Capítulo III 141 ganhado tanto prestígio na comunidade que, diversos são os trabalhos relacionados com o tema, podendo-se citar: Habib e Schenk (1999), Schenk et al. (2001), Schenk e Csatho (2002), Habib et al. (2004a, 2004b, 2004c), Furkuo e King (2004), Delara et al. (2004), Chen et al. (2004), Zhang et al. (2005), Habib et al. (2005), Habib et al. (2006), Habib et al. (2007), Abdelhafiz et al. (2007), Mitishita et al. (2008), Delara et al. (2008); etc. No caso do sistema de varredura LASER terrestre em funcionamento em um Unidade de Mapeamento Móvel (UMMT), por exemplo, é necessário integrar os sistemas de posicionamento e medida inercial de forma que a nuvem de pontos derivadas do perfilamento De varredura LASER terrestre seja adequadamente georeferenciada e acurada. Isto se deve ao movimento dinâmico da plataforma em questão (veículo transportado – UMMT), onde para cada varredura haverá uma posição e atitude diferente do sistema, ao longo do mapeamento. Sendo assim, é necessário integrar os referidos sistemas de forma que o sistema funcione com autonomia e precisão. Aqui, a precisão e acurácia do sistema estarão relacionadas com a precisão dos sistemas GPS e INS, erros no alinhamento dos dois subsistemas supracitados, modelagem matemática envolvida na transformação das coordenadas, etc. Um dos sistemas de varredura LASER terrestre mais apropriado para aplicações UMMTs são os sistemas desenvolvidos pelo fabricante Riegl. Esta empresa desenvolve uma série de sistemas de varredura LASER terrestre de longa distância baseado em pulsos contínuos, cujos modelos são: LMS-Z210ii; LMS-Z390i; Z420i; e LMS-Z620 — com alcances máximos de 650, 400, 1000 e 2000 m, respectivamente, com objetos de 80% de reflectância. Para objetos com reflectância inferior a 80%, os intervalos de medida será menor, ou seja, 200, 100, 350 e 650 m, respectivamente. Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
    • Capítulo III 142 A precisão nominal do equipamento é da ordem de ±4 a 15 mm para um intervalo de 50 m. Todos os quatro instrumentos supracitados utilizam o mesmo tipo de motor de laser com um polígono óptico continuamente rotativo, que é colocado na frente do sensor LASER para produzir a digitalização óptica básica. O sensor opera na faixa do comprimento de onda infravermelho próximo variando de 905 até 1550 nm. O intervalo de varredura angular do sistema é de 80° — que é normalmente implementado para fornecer ±40 ° acima e abaixo do plano horizontal apontando verticalmente para cima na sua posição normal de funcionamento. A taxa de medição dos equipamentos supracitados varia entre 8.000 e 12.000 pontos por segundo, embora poderão ser usadas taxas mais baixas de medição, de acordo com a aplicação requerida. Uma vantagem deste sistema é a opção de GPS-Sync disponível. Isto permite a integração com os subsistemas GPS e INS para fornecer dados de posição e orientação do sistema, como é requerido nos sistemas de operação aerotransportados. Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos
    • Capítulo III 143 Figura 3.34. (a) Equipamento da Riegl. (b) Elementos de funcionamento do sistema. Adaptado de Riegl 2001. (a) (b) Os sistemas da Riegl podem ser equipados com uma câmara digital de pequeno, médio ou grande formato. Geralmente, são escolhidos os modelos de câmara da Nikon e Canon EOS-1Ds II. As imagens coloridas podem ser fundidas com a nuvem de pontos e permitir melhor eficiência na análise da massa de dados. REFERÊNCIAS SHAN, j., TOTH, C. Topographic Laser Ranging and Scanning: principles and processing. Taylor and Francis: 593 p. 2008. STAIGER, R., 2003, Terrestrial laser scanning—Technology, systems and applications. Second FIG Regional Conference, Marrakech, Morocco, December 2–5, 2003, 10 pp. Elementos de Fotogrametria e Sensoriamento Remoto / Curso de Engenharia Cartográfica – UFPR Prof. Daniel Santos