Your SlideShare is downloading. ×
Apostilasr
Upcoming SlideShare
Loading in...5
×

Thanks for flagging this SlideShare!

Oops! An error has occurred.

×

Introducing the official SlideShare app

Stunning, full-screen experience for iPhone and Android

Text the download link to your phone

Standard text messaging rates apply

Apostilasr

521
views

Published on


0 Comments
1 Like
Statistics
Notes
  • Be the first to comment

No Downloads
Views
Total Views
521
On Slideshare
0
From Embeds
0
Number of Embeds
0
Actions
Shares
0
Downloads
31
Comments
0
Likes
1
Embeds 0
No embeds

Report content
Flagged as inappropriate Flag as inappropriate
Flag as inappropriate

Select your reason for flagging this presentation as inappropriate.

Cancel
No notes for slide

Transcript

  • 1. FUNDAMENTOS DE SENSORIAMENTO REMOTOEM AMBIENTE DE GEOPROCESSAMENTOProf. Alzir Felippe Buffara Antunes14SUMÁRIO1- INTRODUÇÃO .............................................................................................................................................. 161.1- Sensoriamento Remoto............................................................................................................................ 161.2- ........................................................................................................................ Fotogrametria.......................................................................................................................................................................... 172- PRINCÍPIOS................................................................................................................................................... 192.1- Espectro Eletromagnético...................................................................................................................... 192.3- Comportamento Espectral...................................................................................................................... 223- SENSORES ..................................................................................................................................................... 243.1- Tipos.......................................................................................................................................................... 243.2- Características das imagens.................................................................................................................... 273.3- Resoluções ................................................................................................................................................ 283.3- Formato .................................................................................................................................................... 304- SISTEMAS SENSORES ................................................................................................................................ 304.1- Sistema Imagens LANDSAT ................................................................................................................. 304.2- Sistema SPOT .......................................................................................................................................... 324.3- IKONOS ................................................................................................................................................... 334.4- Quickbird ................................................................................................................................................. 344.5 Outros sistemas ......................................................................................................................................... 364.6- Imagem de Radar .................................................................................................................................... 374.7- Principais Sensores Radar ...................................................................................................................... 394.8- Laser Scanner .......................................................................................................................................... 405- PRINCIPIOS DE PROCESSAMENTO DIGITAL DE IMAGEM NO CONTEXTO SIG..................... 435.1- Generalidades........................................................................................................................................... 435.2- Noções de Processamento........................................................................................................................ 445.3- Etapas do Processamento........................................................................................................................ 445.4- Processamento.......................................................................................................................................... 455.4.1- Realce ................................................................................................................................................. 455.4.2- Filtragem............................................................................................................................................. 485.4.3- Composição Colorida ......................................................................................................................... 525.4.4- Correção Geométrica.......................................................................................................................... 536- CLASSIFICAÇÃO......................................................................................................................................... 606.1- Interpretação de imagem ........................................................................................................................ 606.1.1- Tonalidade e cor ................................................................................................................................. 616.1.2- Forma.................................................................................................................................................. 616.1.3- Padrão................................................................................................................................................. 626.1.4- Textura................................................................................................................................................ 636.1.5- Associação (ou convergência de evidências)...................................................................................... 636.1.6- Sombra............................................................................................................................................... 636.1.5- Chave da interpretação de imagem..................................................................................................... 646.2- Classificação Digital ................................................................................................................................ 666.2.1- Classificação Supervisionada ............................................................................................................. 666.2.2- Classificação baseada em objetos: segmentação ................................................................................ 736.2.3- Acurácia.............................................................................................................................................. 746.2.4- Qualidade da Imagem Temática ......................................................................................................... 757- SENSORIAMENTO REMOTO E SIG........................................................................................................ 778- BIBLIOGRAFIA ............................................................................................................................................ 77
  • 2. FUNDAMENTOS DE SENSORIAMENTO REMOTOEM AMBIENTE DE GEOPROCESSAMENTOProf. Alzir Felippe Buffara Antunes15ApresentaçãoEste material didático visa única e exclusivamente atender a disciplina de SensoriamentoRemoto em ambiente de Geoprocessamento referente ao Curso de Especialização emGeoprocessamento. O conteúdo está de acordo com a ementa da disciplina. Aqueles quenecessitarem de um maior aprofundamento em um dos tópicos descritos recomenda-seconsultar a bibliografia citada. Roga-se aos alunos que apontem falhas e façam sugestões afim de melhorar as próximas edições.
  • 3. FUNDAMENTOS DE SENSORIAMENTO REMOTOEM AMBIENTE DE GEOPROCESSAMENTOProf. Alzir Felippe Buffara Antunes161- INTRODUÇÃO1.1- Sensoriamento RemotoPode-se definir sensoriamento remoto ou teledetecção como a ciência que tem porobjetivo a captação de imagens da superfície terrestre. Segundo BARRETT & CURTIS(1992) “é a ciência de observação à distância”. Isto contrasta com o sensoriamento in situ,onde os objetos são medidos e observados no local onde ocorrem. Em outras palavras, osensoriamento remoto está relacionado à ausência de contacto físico entre o sensor (câmarafotográfica, satélite) e o alvo (objeto). Desta forma, o sensoriamento remoto também podeincluir o estudo das técnicas de aerofogrametria e fotointerpretação, uma vez que fotografiasaéreas são remotamente captadas. Contudo, o termo se refere a captação, processamento erepresentação de imagens orbitais. As imagens de sensoriamento remoto disponíveisatualmente, são a forma mais rápida de se obter informações espaciais em formato digital,permitindo que estas fontes sejam combinadas a outras informações, de forma a constituir umbanco de dados geográfico sobre o espaço em questão. O processamento dessasinformações,espacialmente referenciadas em meio digital é a base dos sistemas de informaçãogeográfica. Dentro das geotecnologias hoje disponíveis (sistemas de posicionamento global,aerofotogrametria digital) o sensoriamento remoto desponta como tecnologia imprescindívelem aplicações geoambientais.Resumindo, o sensoriamento pode ser definido segundo alguns autores da seguinte forma:• É a aquisição de informações sobre um objeto sem entrar em contato físico com ele(Hutton).• Sensoriamento Remoto: é a ciência e a arte de obter informações sobre um objeto, área oufenômenos através da análise de dados adquiridos sem entrar em contato enquanto estão sobinvestigação (Lillesand & Kiefer).• Sensoriamento remoto é a coleção de informações sobre os recursos naturais e meioambiente usando imagens adquiridas por sensores a bordo de avião ou satélites (Ryerson).• Sensoriamento remoto é um termo restrito a métodos que aplicam a energia eletromagnéticacomo meio para a detecção e mensuração das características dos objetos (Sabins).As imagens provenientes do sensoriamento remoto podem ser processadasdigitalmente por modernos softwares em potentes hardwares, a fim de se obter da imagem omaior número de informações possíveis. JENSEN (1986) denomina o processamento digitalde imagens como “conjunto de procedimentos relativos à manipulação e análise de imagenspor meio do computador”. A Figura 1 mostra o processo de captação das imagens através desensores a bordo dos satélites.O tratamento digital de imagens difere, muitas vezes, dos procedimentos derestituição de fotografias aéreas afetas ao campo aerofotogrametria, visto que a geometria dafotografia aérea difere da geometria da imagem.
  • 4. FUNDAMENTOS DE SENSORIAMENTO REMOTOEM AMBIENTE DE GEOPROCESSAMENTOProf. Alzir Felippe Buffara Antunes17Figura 1: Captação da ImagemEm geral uma imagem é um registro da energia solar refletida pelos objetos oufeições da superfície física da terra e captada pelo sensor a bordo de um satélite.As aplicações do sensoriamento remoto nas décadas de 70 e 80 estavam ligadas aomapeamento ambiental em escalas médias e pequenas (1:50.000 a 1.000.000). A partir de1997, esta realidade começou a mudar com entrada da órbita de novos satélites de melhorresolução, havendo um aumento do campo de aplicação. Assim sendo, as imagens orbitaispassaram a servir de base para mapeamento em grandes e médias escalas (1:5.000 à1:25.000). Em 1999 as imagens passaram a reproduzir um maior nível de detalhes ampliandoainda mais as aplicações desta geotecnologia. Num futuro próximo as imagens apresentarãoum nível de detalhamento similar a fotografia aérea, o que permitirá que o sensoriamentoremoto atinja um maior número de usuários, e conseqüentemente diminuição de custos.1.2- FotogrametriaA fotogrametria segundo alguns autores pode ser definida como: A ciência, a arte e atecnologia de se obter medidas confiáveis, mapas, modelos de elevação digital e outrosprodutos a partir de fotografias”. A fotografia aérea tem sido usada desde os primórdios doSéculo XX como provedor de dados espaciais em uma grande gama de aplicações. A maioriadas bases cartográficas são provenientes desta geotecnologia e difere geometricamente dasimagens captadas por satélite. A Figura 2 mostra a câmara aérea dentro da aeronave querealiza a cobertura do fotográfica do terreno. A câmera fotogramétrica tem por finalidadeprover imagens fotográficas com estabilidade geométrica a fim de serem utilizadascartograficamente. As fotografias devem ser verticais e possuem uma escala variável deacordo com a altura de vôo e o relevo do terreno.
  • 5. FUNDAMENTOS DE SENSORIAMENTO REMOTOEM AMBIENTE DE GEOPROCESSAMENTOProf. Alzir Felippe Buffara Antunes18Figura 2: Câmara aérea 1 (Adaptado, WOLF, 1981)A escala de uma fotografia aérea é dada por pela distância focal da câmara e a altitude devôo- altura da aeronave em relação ao terreno. A figura 3 apresenta a determinação da escalade uma fotografia aérea.Figura 3: Escala de uma fotografia (Adaptado, Wolf, 1981)Como já foi citada a imagem de satélite e fotografias aéreas possuem diferenças na forma decaptação de maneira de os métodos de tratamento são também diversos, bem como de certamaneira as aplicações. A Tabela 1 mostra as principais diferenças entre uma imagem e umaPlano do negativoTerreno23 cmHc= constanteEscala da FotografiaCentroPerspectivoDdPpcEspaço ImagemEspaço ObjetoCentro Perspectivo(CP)Sistemade lentesFeixe ópticoterrenoDistância Focal( c ou f )23cm
  • 6. FUNDAMENTOS DE SENSORIAMENTO REMOTOEM AMBIENTE DE GEOPROCESSAMENTOProf. Alzir Felippe Buffara Antunes19fotografia aérea. A restituição fotogramétrica é ainda a maneira mais exata de se extrairinformações cartográficas em grandes escalas(Ex:.1: 1.000 a 1: 5.000).Tabela 1: Características das imagensCaracterísticas deCaptaçãoAplicaçõesFOTOGRAFIA • Projeção central;• Imagem em quadro;• Posição vertical;• Mapeamento emgrandes escalas (1:1.000 à 1: 50.000)IMAGEM ( S. Remoto)• Varredura ouescanerização;• Mapeamento deescalas a partir de 1:10.0002- PRINCÍPIOS2.1- Espectro EletromagnéticoO sensoriamento remoto e a fotogrametria baseiam-se na aquisição de informaçõesarmazenadas pelos sensores e câmaras , que captam a energia eletromagnética irradiada porum objeto. A energia emitida ou refletida por objetos da superfície física da terra étransmitida aos sensores em forma de ondas eletromagnéticas (figura 1). A informaçãorecebida pelo sensor pode ser codificada em termos de freqüência, intensidade e polarizaçãoda onda. O conjunto de comprimentos de onda que compõem a radiação eletromagnética édenominado espectro eletromagnético. Todas as ondas propagam-se a uma mesmavelocidade de 3 x 108 m/s, conhecida como a velocidade da luz. A fonte energética, sol,origina as perturbações periódicas em forma de campos elétricos e magnéticos. O espectroeletromagnético é dividido em regiões onde o componente comprimento de onda possuicaracterísticas similares (Figura 4). O espectro eletromagnético se estende da região dos raiosgama(γ) às microondas.Figura 4: Espectro eletromagnético ( Adaptado: Erdas, 2004)
  • 7. FUNDAMENTOS DE SENSORIAMENTO REMOTOEM AMBIENTE DE GEOPROCESSAMENTOProf. Alzir Felippe Buffara Antunes20Azul Verde Verm.Comprimento de ondaµmVisível µmγRaio RaioX Ultra-VioletaInfra Termal Microondas Radio/TVVermelhoµmOs instrumentos de sensoriamento remoto operam em todos os campos de energiaexceto nas regiões dos raios x e γ e ondas de rádio. A estreita faixa da região visível (0,4µm –0,7µm) possui uma particular importância, não apenas por ser detectável ao olho humano,mas também pela quantidade de energia disponível para detecção. Os sensores detectam earmazenam a energia (fótons) em bandas ou faixas nas quais o sensor é sensível. O número defótons (intensidade de energia) que alcança o detector varia de acordo com a quantidade deenergia emitida pela fonte de iluminação(sol), com a quantidade de energia absorvida pelaatmosfera e pelo grau de energia emitida e refletida pelos objetos da superfície.A luz visível ou luz branca é um conjunto de ondas com diferentes freqüências ecomprimentos de onda, que nosso cérebro traduz como cores. Portanto, cada cor correspondea uma determinada onda eletromagnética, com freqüência e comprimento de onda específico,que se refere a uma pequena faixa do espectro (0,4µm – 0,7µm).2.2- Janelas AtmosféricasAs porções do espectro eletromagnético apropriadas para captação pelos sensoressão bastante restritas devido à absorção da atmosfera. A atmosfera reduz a percentagem deradiação solar transmitida a terra. No obstante existem zonas em que a absorção é baixa, ouseja, alta percentagem de transmissão de energia solar. Estas regiões são denominadas janelasatmosféricas. São nestas janelas que trabalham as maiorias dos sensores que captam a energiarefletida por objetos da superfície terrestre. Desta forma, apenas parte do espectroeletromagnético é apropriada para a captação de imagens. A absorção de energia pelaatmosfera reduz a percentagem de energia transmitida do alvo até o sensor. Logo, somente aszonas de baixa absorção (janelas) serão utilizadas na captação de energia.O conhecimento da interação e dependência entre a janela espectral da atmosfera e aenergia utilizada pelo sensoriamento remoto é requisito pelos diversos métodos desensoriamento, iniciando pela construção de um sensor até a análise do comportamentoespectral e reconhecimento dos alvos. Neste caso devem ser considerados os seguintesfatores:1. sensibilidade espectral do sensor;
  • 8. FUNDAMENTOS DE SENSORIAMENTO REMOTOEM AMBIENTE DE GEOPROCESSAMENTOProf. Alzir Felippe Buffara Antunes212. existência da janela atmosférica;3. existência da fonte de energia, com intensidade de radiação e composição espectral;4. conhecimento sobre as alterações da radiação recebida através do objeto analisado.A Energia Incidente (I) sobre os alvos da superfície terrestre interage de formasdiferentes de acordo com as características de geometria e físico-químicas de cada um deles.Esta interação é específica para cada alvo e pode ser mensurada através das seguintescomponentes (Figura 5):• Energia Refletida – R• Energia Absorvida – A• Energia Transmitida – TFigura 5: Interação da energia com o alvo : Folha (Adaptado: Lingnau, 2003)As três porções de energia podem ser mensuradas pela seguinte equação:I = R + A + Tonde cada componente é uma função do comprimento de onda. A igualdade é um balanço daenergia e explica de uma forma geral a reflexão, absorção e a transmissão.Deve ser considerado que:1. para cada objeto as proporções entre reflexão, absorção e a transmissão são diferentes, oque possibilita que os objetos possam ser identificados ou diferenciados;2. significa também que para um mesmo objeto as proporções entre reflexão, absorção e atransmissão são diferentes em relação ao comprimento de onda, ou seja, um objeto pode serdiferenciado do outro em um determinado comprimento de onda e em outro comprimento deonda não.Pode-se dizer que a energia emitida ou refletida por objetos da superfície da terra étransmitida aos sensores em forma de ondas eletromagnéticas. Na natureza ocorre uma grandevariabilidade da energia refletida, sendo que o seu conhecimento é de grande importância noreconhecimento e identificação dos alvos a partir de dados de sensores remotos. Assim sendo,
  • 9. FUNDAMENTOS DE SENSORIAMENTO REMOTOEM AMBIENTE DE GEOPROCESSAMENTOProf. Alzir Felippe Buffara Antunes22deve-se descrever e explicar o conceito das características da reflexão dos alvos, objetos oufeições do terreno.2.3- Comportamento EspectralOs objetos da superfície terrestre refletem e absorvem seletivamente energia eletromagnética,devido a sua diferente composição molecular. Esta característica, denominada respostaespectral dos objetos permite identificá-los numa imagem de sensoriamento remoto. Estadepende das diferenças na composição físico-química dos materiais que compõem os objetos,e estes interagem de maneira diferente com as ondas eletromagnéticas.Com base na complicada estrutura da geometria e da heterogeneidade, ou seja, dacomposição variável da superfície natural, as características de reflectância não podem serexplicadas através de uma simples teoria eletromagnética. A heterogeinidade se reflete nograu de reflectância e seu comprimento de onda.O gráfico que representa o comportamento espectral de determinado objeto dentro dedeterminadas faixas espectrais (bandas) denomina-se assinatura espectral. Como exemplo,na figura 6 observa-se a assinatura espectral para vegetação sadia, apresentando picos evales. A reflexão visível nas diferentes faixas espectrais é originada dos pigmentos dasplantas. A clorofila absorve energia nos comprimentos de onda de 0.45-0.67 µm. A reflexãono infravermelho próximo é determinada pela estrutura celular da planta. No infravermelhomédio, a reflexão é devida ao conteúdo de água na planta. A reflexão espectral da planta variadurante o seu ciclo de crescimento. A resposta espectral da cobertura vegetal depende de suaprofundidade, densidade, idade e diversidade.A alta reflexão da vegetação ocorre na faixa de 0,7-1,3 µm (infravermelho próximo). Osvalores da reflexão da vegetação nessa faixa espectrais podem ser influenciados pelarefletância do solo.Figura 6 – Reflexão das folhas, observando-se no plano do infravermelho (0.75-1.3 µm) abaixa absorção da água (Fonte: Barret & Curtis 1992).0204060801000.4 0.6 0.8 1.0 1.2 1.4 1.6 1.8 2.0 2.2 2.4 2.6Mm%Reflexão da FolhaAbsorção da Aguaµm
  • 10. FUNDAMENTOS DE SENSORIAMENTO REMOTOEM AMBIENTE DE GEOPROCESSAMENTOProf. Alzir Felippe Buffara Antunes23Maior Reflexão conseqüentemente menor absorção. Percebe-se no gráfico da figura4 que a absorção eletromagnética é inversamente proporcional a reflexão. No caso emquestão, existe alta reflexão da vegetação na faixa do infravermelho (0.76-1,4 µm). Muitasfeições ou objetos do terreno possuem boa resposta espectral na faixa do infravermelho taiscomo: solos, relevo e sedimentação. Cada objeto terá diferentes respostas espectrais emdiferentes faixas do espectro, logo o usuário de estar ciente de que faixas escolher paramelhor mapear os objetos de interesse.
  • 11. FUNDAMENTOS DE SENSORIAMENTO REMOTOEM AMBIENTE DE GEOPROCESSAMENTOProf. Alzir Felippe Buffara Antunes24Tabela 3: refletância dos alvos (Adaptado: INPE, 2003)ÁGUA VEGETAÇÃOSOLO COMPARAÇÃO DAS REFLETANCIAS3- SENSORES3.1- TiposOs sistemas sensores são equipamentos que estão a bordo das aeronaves ou satélites e suafunção é captar e registrar a energia eletromagnética proveniente dos objetos na superfícieterrestre. Sem eles não seria possível para o satélite obter imagens, ele estaria literalmente“cego”.Os sensores podem ser classificados em apenas duas classes:• ATIVOS E• PASSIVOS.Os sensores passivos, tal como a fotografia, detecta e armazena energia solar outerrestre refletida ou emitida pelos objetos da superfície (Ex: imagens de satélite Landsat eSpot). As imagens deste tipo de sensor irão depender das condições atmosféricas, pois áreascom nuvens ou bruma não serão imageadas adequadamente. As características físico-químicoSolo% Veg.ÁguaVisível IV próximo IV médio
  • 12. FUNDAMENTOS DE SENSORIAMENTO REMOTOEM AMBIENTE DE GEOPROCESSAMENTOProf. Alzir Felippe Buffara Antunes25dos alvos imageados permitirão que a energia refletida seja registrada diferentemente em cadaporção do espectro eletromagnético (Figura 7).Os sensores ativos, tal como o radar, gera energia ou radiação que é refletida pelosobjetos do solo. A energia refletida pode ser armazenada em meio fotográfico ou na formadigital. Os sensores de microondas são um exemplo, pois detectam energia de 0.1 a 25 cm,onde a absorção atmosférica é mínima. A energia emitida para os objetos é refletida por essesao sensor ( Ex: Radarsat, ERS-1). O imageamento independe das condições atmosféricas(Figura 7).Figura 7: Tipos de sensoresCada satélite possui então as suas características peculiares de obtenção de dados.Esta característica refere-se ao percurso que ele realiza em torno da superfície terrestre. Estarota denominamos de órbita. Dependendo do objetivo do satélite para o qual foi projeto eleterá uma órbita específica.Por exemplo, satélites de comunicação possuem órbita geossíncrona. Um satélite emórbita geossíncrona equatorial (GEO) localiza-se diretamente acima da linha do equador,aproximadamente a 36.000 Km de altura. Nesta distância o satélite demora 24 horas para daruma volta completa no planeta. Sabendo que a Terra demora 24 horas para dar uma voltasobre o seu eixo (Movimento derotação), podemos observar que o satélite e a Terra se movem juntos. Sendo assim o satéliteGEO sempre está parado em relação ao mesmo ponto na terra, e por isso é denominado deórbita geossíncrona ou órbita geoestacionária.Mesmo com muitos satélites de comunicação em órbitas Geoestacionárias , eles não cobremas regiões polares da Terra. Para isso, são necessários os satélites de órbitas elípticas, quecobrem as áreas extremas dos dois hemisférios.Órbitas polares são muito usadas para a observação da superfície de nosso planeta. Como aórbita do satélite tem a direção Norte-Sul e a Terra gira na direção Leste-Oeste, isto resultaque um satélite em órbita polar pode eventualmente "varrer" a superfície inteira da Terra. Poressa razão, satélites de monitoramento global como satélites de sensoriamento remoto emeteorológicos sempre efetuam uma órbita polar. Nenhum outro tipo de órbita consegue umamelhor cobertura da terra, Figura 8.
  • 13. FUNDAMENTOS DE SENSORIAMENTO REMOTOEM AMBIENTE DE GEOPROCESSAMENTOProf. Alzir Felippe Buffara Antunes26Figura 8: Satelite de órbita polarExiste diferentes níveis de aquisição de dados e o sistema do sensor, em geral os sensorespodem ser • imageadores (varredura) ou• não-imageadores (não varredura). Os sensores sãocriados de acordo com o objetivos e aplicações. O quadro 1 abaixo apresenta o grupo desensores de acordo com sua origem.Quadro1: Classificação dos sensores
  • 14. FUNDAMENTOS DE SENSORIAMENTO REMOTOEM AMBIENTE DE GEOPROCESSAMENTOProf. Alzir Felippe Buffara Antunes273.2- Características das imagensA localização de pixels (picture element) na imagem é determinada através de umsistema bidimensional de linhas e colunas, expressas em coordenadas X e Y. A imagemorganizada desta forma num reticulado de linhas e colunas é denominada dado raster ouformato matricial. A imagem está relacionada a uma função bidimensional de intensidade daluz f (x, y), onde x e y são coordenadas espaciais linhas e colunas. Existe ainda uma outravariável z relacionada à variação tons de cinza da imagem. O valor de z é denominado, digitalnumber- DN, ou tom de cinza (Figura 9).A imagem digital pode ser representada por uma matriz de linhas x, colunas y e zpara os DN. Desta forma, uma imagem digital é uma função discreta f (x, y), definida por umagrade regular de m linhas e n colunas, representada por:f (i,j), onde : 0<i<m-1 e 0<j< n-1;para f variando de [0 ,k-1];onde, k= níveis de cinza (DN).Cada elemento dessa matriz (i, j) é determinado por elementos da imagem, pixel.Este sistema poderá ser transformado para um sistema cartográfico de coordenadas através depontos de controle reconhecíeis na imagem. Desta forma, uma imagem devidamente tratada,poderá servir de base para à concepção de carta imagem (uma fonte de dados para Sistema deInformações Geográficas).Figura 9: Captação da Imagem
  • 15. FUNDAMENTOS DE SENSORIAMENTO REMOTOEM AMBIENTE DE GEOPROCESSAMENTOProf. Alzir Felippe Buffara Antunes283.3- ResoluçõesUm dado orbital geralmente é descrito por sua resolução, ou seja, características daimagem de acordo com a radiometria, tamanho do pixel e faixas espectrais. As resoluçõespodem ser:• Espacial• Espectral• Radiometrica• TemporalA resolução espacial corresponde à área do terreno representada por um pixel naimagem. O tamanho do pixel esta diretamente relacionado à informação contida na imagem,quanto menor o pixel mais detalhes podem ser extraídos da imagem, logo melhor a resolução,figura 10.O sistema sensor tem a capacidade de cobrir uma linha de largura especifica compostapor um conjunto de pixels. Cada pixel corresponde a uma unidade mínima de área, que semuito grande os detalhes são perdidos, visto que os vários objetos ou feições são agrupadosem um mesmo pixel, denominado pixel mistura (figura 10). O tamanho do pixel depende dascaracterísticas de cada sensor a resolucao espacial é função o ângulo de visada do sensor e aaltura da plataforma.Figura 10: Resolução Espacial- Tamanho do PixelResolução de 30 metros Resolução de 4 metrosTabela 3: Classificação das imagens quanto a resolução espacialTamanho do Pixel (metros) Sensores Aplicações0,67- 05: Alta Quickbird, Ikonos Mapeamento em escalasgrandes10-30 : media Landsat, CBERS II Mapeamento em escalasmedias. Meio Ambiente.40- 1000: Baixa NOAA, SPOT Veg, CBERSWFIMonitoramento Ambiental
  • 16. FUNDAMENTOS DE SENSORIAMENTO REMOTOEM AMBIENTE DE GEOPROCESSAMENTOProf. Alzir Felippe Buffara Antunes29A Resolução Espectral refere-se a um intervalo específico de comprimento de onda doespectro-eletromagnético armazenado pelo sensor (ex: bandas do visível e infravermelho). Aresolução espectral dos sensores é inerente às imagens multiespectrais e hiperespectrais.Neste caso, a resolução indica a quantidade de regiões do espectro eletromagnético e pelointervalo de comprimento de onda. Estas imagens denominam-se bandas espectrais erepresentam a energia registrada pelos detectores do sensor numa determinada região doespectro eletromagnético, figura 11.Assim sendo, uma imagem pode possuir conjuntos de dados de uma mesma cena.Cada banda refere-se à determinada porção do espectro eletromagnético de reflexão e emissãode luz ou calor de uma parte da superfície terrestre, que compõe a cena. Cada porção doespectro eletromagnético detectado pelo sensor irá gerar uma imagem, com característicasespecificas segundo a resposta espectral de cada objeto.Figura 11: Resolução EspectralA Resolução Radiométrica refere-se ao número possível de dados para cada banda, ou seja,o número de bits. Por exemplo, em um dado de 8 bits os valores dos tons de cinza para cadapixel variam de 0 a 255 (ex: uma imagem de 11bits possui 2048 tons de cinza, figura 12).Figura 12: Níveis de Cinza
  • 17. FUNDAMENTOS DE SENSORIAMENTO REMOTOEM AMBIENTE DE GEOPROCESSAMENTOProf. Alzir Felippe Buffara Antunes30A Resolução Temporal é a periodicidade em que determinada área é registrada pelo satélite.A resolução temporal é de fundamental importância quando se pretende monitorar processosdinâmicos como, por exemplo: a ocorrência de incêndios ou queimadas em reservas florestais,derramamento de óleo no oceano, maremotos, mudanças fenológicas de culturas e ocrescimento de uma cidade. Alguns satélites como Ikonos revista uma mesma região a cada 5dias.3.3- FormatoEm geral imagens de sensoriamento remoto apresentam-se como arquivo multi-banda (conjuntos de várias imagens referentes às faixas espectrais) ou banda simples (ex.imagem digitalizada), de formato contínuo. Para cada (linha , coluna) existe um z (nível decinza). Um dado contínuo é aquele que contém um conjunto valores contínuos para os DNs(Ex. Landsat, Spot, MDT). Um outro tipo de formato muito comum é o temático, oriundo deimagens processadas de uma banda, associada a uma tabela de atributo. Esta imagem estávinculada a dados qualitativos e/ou categóricos (Ex: mapa de uso do solo, vegetação), estetipo de dado é bastante comum ao SIG. A imagem temática pode ser descontínua, poisdeterminado pixel pode não estar associado à determinada classe ou valor. Atualmenteexistem vários formatos para as imagens dependendo do software disponível, contudo oformato mais comumente utilizado é o tiff ou geotiff.4- SISTEMAS SENSORES4.1- Sistema Imagens LANDSATTalvez a mais importante fonte de dados digitais em forma de imagens sobre a superfícieterrestre pertence ao conjunto de satélites do projeto Landsat, programa lançado pela NASA apartir de 1972 para aquisição contínua de dados digitais de sensoriamento remoto (NASA,1988). Landsat 4 foi lançado em julho de 1982 e o Landsat 5 em março de 1984. O Landsat 6caiu e nunca entrou em fase operacional. O Landsat 7 foi lançado em abril de 1999, tendofuncionado normalmente até março de 2003 quando interrompeu-se a captação de imagenspor problemas técnicos. As imagens apresentam distorções o que inviabilizou o seu usocomercial. A nova geração de satélite Landsat está prevista para 2007.Apesar dos problemas é ainda hoje o sistema Landsat o maior provedor de imagenssobre a superfície terrestre, figura 13.Figura 12: Característica da captação da Imagem
  • 18. FUNDAMENTOS DE SENSORIAMENTO REMOTOEM AMBIENTE DE GEOPROCESSAMENTOProf. Alzir Felippe Buffara Antunes31TABELA 4- Bandas do sistema Landsat TM 7BandasResoluçãoEspacialComprimento de OndaµmAplicações1 30m 0.45-0.52 - Azul Mapeamento de corpos d’água; diferenciação deágua e solo2 30m 0.52-0.60 – Verde Reflexão de vegetação sadia3 30m 0.63-0.69 – Vermelho Absorção de clorofila; diferenciação de espéciesvegetais, solo úmido e solo seco.4 30m 0.76-0.90-InfravermelhopróximoLevantamentos de biomassa, copas das árvores,rios.5 30m 1.55-1.75-Infravermelho MédioDetecção de umidade da vegetação6 60m 10.4-11.7 – Termal Umidade da vegetação; geologia.7 30m 2.08-2.35-Infravermelho AltoUmidade da vegetação; solos e geologia.PAN 15m 0,50 – 0,90 µm-Pancromático.Exclusivo TM7Útil no reconhecimento de padrões que necessitede uma maior resolução espacial. Ex: estradas,avenidas, quadras. Atualização cartográfica.O Landsat 7 Thematic Mapper Plus (ETM+), que apresentou como principal inovação àbanda pancromática com 15 metros de resolução espacial . A banda pancromática inclui a
  • 19. FUNDAMENTOS DE SENSORIAMENTO REMOTOEM AMBIENTE DE GEOPROCESSAMENTOProf. Alzir Felippe Buffara Antunes32faixa do visível 0,50 a 0,90 µm, sobrepondo a faixa do espectro visível. Apesar de senilidadeo satélite Landsat 5 continua a mandar imagem à terra pouco utilizáveis devido a ruídos edistorções geometricas. A tabela 4 mostra a característica do Landsat 7.4.2- Sistema SPOTO programa SPOT (Systéme Probatoire de l’Observation de la Terre) foi planejado eprojetado como um sistema operacional e comercial. Estabelecido pelo governo francês em1978, com a participação da Suécia e Bélgica, o programa é gerenciado pelo Centro Nacionalde Estudos Espaciais – CNES (Tolouse-França), que é o responsável pelo desenvolvimentodo programa e operação dos satélites. Já foram lançados os SPOT 1, 2 e 3 ,4 e o mais recenteSpot 5 em 2002. O SPOT 5 apresenta maior detalhamento,mantendo as mesmas faixas deobservação.Dois novos instrumentos HRG (High-Resolution Geometric) imageiam com 5 m deresolução em Pancromático e 2.5 metros em "supermode". Cada um dos dois instrumentosrecobre uma faixa de 60 Km no solo, dentro de um corredor potencial de visibilidade de ±420km.Da mesma forma que os sensores dos antecessores do SPOT 5, os instrumentos HRG podemimagear igualmente em modo multiespectral em 4 bandas (faixa espectral da luz verde,vermelho, infravermelho próximo e infravermelho médio) . Graças as bandas noinfravermelho o SPOT 5 permite uma maior aplicabilidade ao mapeamento temático.Se comparado com seu antecessor (SPOT 4) ainda em funcionamento pode-seresumir as inovações a partir dos seguintes aspectos:5 m e 2.5 m de resolução em P&B no modo Pancromático, contra 10manteriormente;10 m de resolução em cores contra 20 m anteriormente;A área recoberta por cada cena será mantida 60 km x 60 km.Resolução temporal de 3 a 5 dias.Estas características permitem o uso das imagens SPOT 5 para aplicações nas escalas entre1:10.000 e 1:50.000. Atualmente este tipo de imagem vem sendo utilizado com vistas aatualização do mapeamento sistemático.
  • 20. FUNDAMENTOS DE SENSORIAMENTO REMOTOEM AMBIENTE DE GEOPROCESSAMENTOProf. Alzir Felippe Buffara Antunes33Figura 14: Cobertura SPOT 54.3- IKONOSO satélite IKONOS lançado em 1999, foi o primeiro de alta resolução espacial de1m na banda pancromática e de 4 metros nas bandas multiespectral. A Tabela 5 mostra asprincipais características das imagens e do satélite IKONOS.Tabela 5- Características da Imagem Ikonos (Adaptado, Engesat, 2003)Resolução no terreno decada bandaPancromática: 1m (considerando posição nominal de 26º forado nadir)Multiespectral: 4m (considerando posição nominal de 26º forado nadir)Bandas espectrais 0.45 a 0.90µ (pan)Azul 0.45 - 0.52µVerde 0.52 - 0.60µVermelho 0.63 - 0.69µInfra vermelho próximo 0.76 - 0.90µFaixa de imageamento 13km no nadir (cena simples 13km x 13km)Tamanho das cenassugeridosFaixas de 11km x 100km até 11km x 1000kmMosaicos de até 12.000km2Até 20.000km2 de área continua imageada em uma única
  • 21. FUNDAMENTOS DE SENSORIAMENTO REMOTOEM AMBIENTE DE GEOPROCESSAMENTOProf. Alzir Felippe Buffara Antunes34passagemAcurácia métrica Horizontal: 12mVertical: 10m(correção de sistema, sem pontos de controle cartográficos)Precisão relativa de pelo menos 90% da cena;Horizontal: 2mVertical: 3m (com pontos de controle)Precisão relativa em pelo menos 90% da cena;Tempo de Revisita 2.9 dias (pan)1.5 dias (multiespectral)Esses valores referem-se a alvos ao longo da latitude de 40º. Otempo de revisita para latitudes maiores será menor, enquantoque para as latitudes próximas ao Equador, o tempo será maislongo.Dentre os principais avanços, podem ser citados os seguintes:• A maior resolução espacial possível entre as imagens orbitais atualmente disponível nomercado.• Facilidade para interpretação visual.• Radiometria de 11 bits (2048 níveis de cinza) aumenta o poder de contraste e dediscriminação das imagens.• Bandas espectrais no visível são mais largas (quando comparadas com Landsat 5 e 7),permitindo uma maior penetração na atmosfera e maior poder de discriminação dos alvosterrestres, principalmente da cobertura vegetal, áreas sombreadas e de corpos d’água.• Imagens com 4m de resolução espacial oferecem até 25 vezes mais informações queimagens com 20m de resolução.• Com imagens pancromáticas de 1m, é possível distinguir objetos do tamanho de 1m 2.4.4- QuickbirdO Satélite de alta resolução Quickbird , além de sua apurada precisão, conta ainda comsensores pancromáticos e multiespectrais. A grande capacidade de armazenamento de dados abordo de si, aliado ao fato de que este satélite capta cenas de 2 a 10 vezes maiores quequalquer outro satélite de alta resolução, fazem com que o Quickbird seja o melhor em suacategoria, no que concerne a resolução espacial.Tabela 6- Características do Quickbird (FONTE: Engesat)QuickBirdData de lançamento Outubro de 2001Veículo de lançamento Boeing Delta IILocal de lançamento Vandenberg Air Force Base, CaliforniaCapacidade de armazenamento de 128 Gbytes, aproximadamente 57 áreas imagens
  • 22. FUNDAMENTOS DE SENSORIAMENTO REMOTOEM AMBIENTE DE GEOPROCESSAMENTOProf. Alzir Felippe Buffara Antunes35dados simplesAltitude da órbita 450 kmInclinação da órbita 98 graus, em sincronismo com o SolVelocidade 7.1 km / segundoHorário de passagem 10:30 hDuração da órbita 98 minutosCapacidade de envio de dados 320 Mbps em banda XPeso, tamanho 953 kg, 3.04-metros de comprimentoTempo de vida útil No mínimo de 7 anosTempo de revisita 1 a 3,5 dias, dependendo da latitude (30ooff-nadir)Largura do imageamento 16.5 km x 16.5 km, no nadirPrecisão métricaHorizontal: 23 metros (CE 90%)Vertical : 17 metros (LE 90%)Digitalização 11 bitsResolução*Pan: 61 cm (nadir) a 72 cm (25ooff-nadir)Multiespectral: de 2.44 m (nadir) até 2.88 m (25ooff-nadir)Formatos disponíveis GeoTIFF 1.0, NITF 2.1 ou NITF 2.0Máximo para aquisição simples 1x10, 1 par estéreoPancromática 450 - 900 nmAzul: 450 - 520 nmVerde: 520 - 600 nmVermelho: 630 - 690 nmBandasInfravermelho próximo : 760 - 900 nmA resolução dos satélites de alta resolução depende do ângulo visada nadiral e pós-nadiral. Dependendo deste ângulo a área imageada é maior, porem a resolução do pixel édeteriorada, Para o Quickbird a imagem Pan: 61 cm no nadir até 72 cm (ângulo de 25opós-nadir), igualmente para imagem multiespectral de 2.44 m (nadir) até 2.88 m (25opos-nadirou off-nadir), Figura 13.Figura 13: Imagem Nadiral e Pós-Nadiral
  • 23. FUNDAMENTOS DE SENSORIAMENTO REMOTOEM AMBIENTE DE GEOPROCESSAMENTOProf. Alzir Felippe Buffara Antunes364.5 Outros sistemasHoje existe no mercado um grande numero de satélites dentre os quais podemos citar:a) CBERS: China Brazil Earth Resources Satellite. Lançado em 1999 na China, o satélitesino-brasileiro passou a gerar imagens comerciais a partir do segundo semestre de 2000;b) IRS: Indian Remote Sensing Satellite, possui a pancromática de 5 m de resolução, cadauma recobrindo 70 por 70 Km;c) ASTER (Advanced Spacebone Thermal Emission and Reflection Radiometer) é um dosInstrumentos a bordo do satélite EOS AM-1 e obtém imagens de alta resolução (15 a 90m);d) NOAA : são satélites originariamente concebidos para observação de dadosmeteorológicos, no entanto estes dados tem sido utilizados em agronomia e oceanografia.O primeiro satélite foi lançado em 1978. Abrange pequenas escalas visto que apresentaum resolução espacial de 1.1 x 1.1 km e a varredura é de 2700 km.Pixel 0,88 cm , nadirPixel 0,67 cm , nadirInclinaçãomaior área
  • 24. FUNDAMENTOS DE SENSORIAMENTO REMOTOEM AMBIENTE DE GEOPROCESSAMENTOProf. Alzir Felippe Buffara Antunes37Tabela 6: Sistemas SensoresSENSOR RESOLUÇÃOESPACIALRESOLUÇÃOESPECTRALPAIS APLICAÇOESCBERS II,2002CCD: 20mWFI: 260mIR-MSS4 bandas + Pan2 bandas IV3 Bandas + PanBrasil/China, MonitoramentoAmbientalIRS, 1997 Pan: 5 mMSS: 20 m1 bandas3 bandasÍndia AtualizaçãoCartográficaASTER VNIR 15 mSWIR 30 mTIR 90m3 bandas6 bandas3 bandasEUA MonitoramentoAmbientalNOAA, 1978 MSS: 1,1 km Visível + IV EUA Meteorologia4.6- Imagem de RadarO Radar é um sensor ativo da faixa da microonda. Uma imagem Radar é construídadigitalmente pela seqüência de uma quantidade de pontos ou pixels como os demais tipos deimagens de satélites. Cada pixel na imagem Radar representa a intensidade da reflexão opulso de energia para a área correspondente no solo, onde:• áreas mais escuras são superfícies de retorno ou reflexão de fraca intensidade do sinalRadar, ou seja que uma proporção menor ou mínima da energia do pulso Radar foirefletida pelo alvo de volta para a antena do Instrumento Radar;• áreas mais brilhantes correspondem a alvos para os quais a reflexão de energia para aantena do instrumento Radar foi maior e mais intensa.A reflexão do sinal de Radar para uma alvo ou uma área de interesse num comprimento deonda específico varia bastante em função de uma quantidade de condições físicas:Tamanho e geometria do alvo ou reflector;Umidade do alvo;Polarização do sinal emitido;Ângulos de incidência do sinal emitido.
  • 25. FUNDAMENTOS DE SENSORIAMENTO REMOTOEM AMBIENTE DE GEOPROCESSAMENTOProf. Alzir Felippe Buffara Antunes38Figura 15: Comportamento dos alvos numa imagem radarA pesar das imagens ópticas serem mais fáceis de ser interpretada pelo usuário a imagem deRadar apresentam algumas vantagens:o devido ao maior comprimento de onda da faixa de microondas este tipo de energia écapaz de atravessar as nuvens;o por possuírem fonte própria de energia, não necessitam do Sol como fonte deiluminação;o comparativamente às outras faixas do espectro eletromagnético, as microondaspenetram mais na vegetação, além de eventualmente poderem adentrar no solo.Quando a radiação é refletida por uma superfície cuja rugosidade é da mesma ordem degrandeza que o comprimento de onda, a interferência das ondas produz o ruído chamadoSpeckle. É um ruído multiplicativo, proporcional à intensidade do sinal recebido. Visualmentepercebe-se o efeito deste ruído através de uma textura granulosa que dificulta a interpretaçãodas imagens, figura 16. Para amenizar este ruído existem dois métodos: multi-look efiltragem. O multi-look pode ser utilizado quando se tem imagens obtidas por SAR, sendo quea imagem corrigida é composta da média das imagens de cada look geradas separadamente.As imagens de radar atualmente podem ser associadas à imagens de sensores passivos afim de compor novas faixas espectrais, o que permite extrair mais dados sobre os alvos deinteresse, a integração e fusão de imagens é um tema que vem sendo muito discutido pelacomunidade afeta.
  • 26. FUNDAMENTOS DE SENSORIAMENTO REMOTOEM AMBIENTE DE GEOPROCESSAMENTOProf. Alzir Felippe Buffara Antunes39Figura 16: Imagem Radar4.7- Principais Sensores RadarRadarsatO satélite canadense Radarsat lançado em 1995 é composto por um sensor ativo demicroondas, o que permite obtenção de dados independentemente das condições atmosféricase iluminação. O sistema possui as seguintes características:a) observa a terra com um angulo obliquo variável, o que permite ampliar o leque deaplicações (Figura 16);b) possui resolução variável de 10 a 100 metros e periodicidade de 85 dias.
  • 27. FUNDAMENTOS DE SENSORIAMENTO REMOTOEM AMBIENTE DE GEOPROCESSAMENTOProf. Alzir Felippe Buffara Antunes40Figura 16: Modo de operação (Fonte:www.radarsar.com)A quantidade de energia espalhada pelo satélite é influenciada pela rugosidade da superfície.Isto permite distinguir diferentes padrões de textura na imagem, os quais são úteis paradetectar áreas desmatadas, áreas de cultivos, florestas, corpos d’água e feições antrópicas(RADARSAT,1997).ERS-1: satélite de radar lançado pela Agência Européia em 1991, é uma das maiores fontesde dados radar disponível. Possui uma resolução espacial de 30 x 30 metros e uma cena cobre100 km2(ERDAS, 1995).JERS-1: imageador a radar janonês, lançado em fevereiro de 1992. Resolução espacial 18metros4.8- Laser ScannerO sistema de escaneamento a laser embarcado (ALS), é um sistema de modelagem desuperfície que tem como principio a emissão e recepção de feixes de raios laser da plataformaaté a superfície da terra e transformar o intervalo de tempo envolvido em distância. Estatécnica é um sistema que integra uma serie de sensores que juntos, permitemdeterminar a posição tridimensional georeferenciada de pontos da superficie terrestre.O sistema ALS é composto por: a) a unidade laser de medida: dispositivoresponsável pela medida das distancias entre o sensor e superfície; b) unidade de varredura:dispositivo responsável pela deflexão dos pulsos laser emitidos transversalmente a linha devôo; c) unidade de posicionamento: constituído de um receptor GPS dupla freqüência quepermite o posicionamento geodésico dos pontos (Figura 17).Oprincipio de funcionamento baseia-se na utilização de um feixe de laser (LASER:Light Amplification by Stimulatied Emission of Radiance) que é emitido em direção aosobjetos. Ao atingir sua superfície, este feixe é refletido e uma parte dele retorna ao sistema. Apartir da intensidade do sinal de retorno é possível derivar informações a respeito da naturezada superfície do objeto, mas o dado mais relevante é o tempo decorrido entre a emissão dofeixe e o registro do retorno, pois permite calcular a distância entre o sensor e o objeto. Este
  • 28. FUNDAMENTOS DE SENSORIAMENTO REMOTOEM AMBIENTE DE GEOPROCESSAMENTOProf. Alzir Felippe Buffara Antunes41tipo de sistema também é chamado de LIDAR - Light Detection And Ranging ou LADAR -Laser Detection And Ranging (BRANDALIZE, 2004).Figura 17- Esquema de funcionamento do sistemaA unidade de Varredura a Laser é composta de um dispositivo de medição laser, umsistema de varredura óptico-mecânico e uma unidade de registro de medições de apoio. Aunidade de medição laser é responsável pela geração e emissão dos pulsos laser. Estes pulsossão gerados pelo estímulo de um cristal sintético. O tipo de cristal geralmente utilizado éNd:YAG (Neodiminium: Yttrium Aluminum Garnet) e seu estímulo varia entre 10-15 ηs. Amaioria dos sistemas laser operam numa faixa do espectro eletromagnético variando entre 0,8µm e 1,6 µm . Os pulsos emitidos pelo sistema são apontados a diferentes pontos nasuperfície. Ao atingir a superfície, parte do pulso é refletido de volta ao sensor, onde étransformado em digital e armazenado.O produto gerado a partir do processamento dos dados coletados por um sistema ALSé, basicamente, grades ou malhas regulares de pontos 3D georreferenciadas (E,N,H). Oprocessamento é totalmente automático, mesmo quando as etapas de classificação, filtragem einterpolação não são realizadas pelo programas fornecidos pelos fabricantes de tais sistemas.Em geral o produto é uma imagem resultante de uma grade regular de pontos. Estas gradessão resultantes da interpolação o que nada mais é que um método de geração de superfície,que pode ser classificada em:• Modelo Digital de Elevação: grade que exclui a vegetação e as feições artificiais (Ex:prédios, postes etc.), é um modelo similar aquele gerado a partir de curvas de nível;• Modelo Digital de Superfície: estes incorporam os valores da altitude para todas asfeições que se encontram acima da superfície do terreno, tais como arvores, prédios,torres, etc.
  • 29. FUNDAMENTOS DE SENSORIAMENTO REMOTOEM AMBIENTE DE GEOPROCESSAMENTOProf. Alzir Felippe Buffara Antunes42Para direcionar os pulsos, um sistema de varredura (scanner) é necessário. O sistemade varredura pode ser uni ou bidirecional. Eles podem ser do tipo óptico-mecânico, maisutilizado, como o espelho oscilante, a varredura Palmer e o polígono de rotação.Para o cálculo da posição do feixe incidente na superfície do terreno são necessáriasduas unidades de apoio que são encarregadas da determinação da atitude e posição do sensorna hora da emissão do feixe. A posição é determinada mediante um sistema de GPSdiferencial (DGPS), encarregado de calcular a posição da plataforma no espaço.O feixe associado a um pulso Laser disparado desde um avião sofre uma pequenadivergência. Por este motivo, a área associada ao feixe depende da altura do vôo. O tamanhodos objetos, em relação à projeção do feixe (footprint), bem como o material que compõe asuperfície, determinam a intensidade do pulso que retorna ao sensor. Assim sendo, o feixepode não atingir um único objeto e pode ser refletido por diferentes pontos localizados adiferentes distâncias do sensor, como é mostrado na Figura 18. Sendo assim, o ponto maispróximo ocasionará um pulso que retorna mais rapidamente e o ponto mais distante umretorno mais demorado. Esta característica ganha relevância quando se leva em consideraçãoa diferença de penetração que pode existir em um único pulso, pois permite a distinção deelevações. Alguns sistemas laser possuem como característica a medição de diferentesretornos do sinal emitido, refletido por diferentes objetos dentro da projeção do feixe noterreno (footprint). É possível medir o primeiro e o último retorno do pulso (first/last pulse),ou até pode-se medir toda a variação do retorno, se for necessário. Na figura 19 é mostradoum exemplo de duas grades altimétricas de uma mesma região, associadas ao primeiro eúltimo pulso. Pode-se verificar visualmente que alguns feixes conseguem atravessar a copadas árvores, atingindo o terreno.
  • 30. FUNDAMENTOS DE SENSORIAMENTO REMOTOEM AMBIENTE DE GEOPROCESSAMENTOProf. Alzir Felippe Buffara Antunes43Figura 18 – Demonstração do primeiro e último pulso (adaptado www.toposys.com, 2005)Figura 19 – Diferentes retornos do pulso Laser. (a) Primeiro retorno. (b) Segundo retorno.(a) (b)Os resultados encontrados até o momento levam a uma acurácia horizontal de 0,5 a 1 m euma acurácia vertical pode chegar até 0,15 m, estes valores são obtidos para uma altura devôo de 1.000 m. Isto faz que os dados altimétricos extraídos do perfilamento a Laser sejamadequados ao mapeamento em grandes escalas, podendo por vezes substituir a restituiçãoaltimétrica.5- PRINCIPIOS DE PROCESSAMENTO DIGITAL DE IMAGEM NO CONTEXTOSIG5.1- GeneralidadesAs imagens digitais tais como Landsat, Spot, Ikonos, Quickbird e Radar são umaimportante fonte de informação hoje disponível, em algumas partes do planeta a única. Em
  • 31. FUNDAMENTOS DE SENSORIAMENTO REMOTOEM AMBIENTE DE GEOPROCESSAMENTOProf. Alzir Felippe Buffara Antunes44algumas situações é a fonte mais barata de informação de dados geoambientais. Comaquisição de imagens de alta resolução próxima a 1 metro houve uma ampliação dosaplicativos de Sensoriamento Remoto à área do planejamento urbano.A classificação de dados digitais pode gerar, atualizar e complementar um banco dedados geográficos. A associação de dados vetoriais e matriciais, hoje viabilizada nosprincipais softwares de sensoriamento remoto (Erdas, Emapper, Spring, PCI, Envi, Idrisidentre outros), permitem através de rotinas de álgebra matricial e análise estatística extrairinformações acuradas dos objetos imageados.Na atualidade, os usos das técnicas de sensoriamento remotos já se tornaramimprescindível para análise de alterações ambientais e onde a tecnologia de Sistemas deInformações Geográficas tem um papel fundamental. A tendência é que as imagens desatélite passem a minimizar a grande lacuna para a implementação do SIG: a aquisição dedado. Com custo decrescente e disponibilidade crescente, o sensoriamento remoto será amaior e mais barata fonte de dados para os sistemas de informação.5.2- Noções de ProcessamentoO objetivo do uso do processamento digital de imagens, consiste em melhorar oaspecto visual de certas feições estruturais para o analista humano e fornecer outros subsídiospara a sua interpretação, inclusive gerando produtos que possam ser posteriormentesubmetidos a outros processamentos. Área de processamento digital de imagens tem atraídogrande interesse nas últimas duas décadas. A evolução da tecnologia de computação digital,bem como o desenvolvimento de novos algoritmos para lidar com sinais bidimensionais estápermitindo uma gama de aplicações cada vez maior.Como resultado dessa evolução, a tecnologia de processamento digital de imagensvem ampliando seus domínios, que incluem as mais diversas áreas, como por exemplo:análise de recursos naturais e meteorologia por meio de imagens de satélites; transmissãodigital de sinais de televisão ou facsímile; análise de imagens biomédicas, incluindo acontagem automática de células e exame de cromossomos; análise de imagens metalográficase de fibras vegetais; obtenção de imagens médicas por ultrassom, radiação nuclear ou técnicasde tomografia computadorizada; aplicações em automação industrial envolvendo o uso desensores visuais em robôs, etc.GONZALEZ & WOODS (2000) descrevem o objetivo do processamento digital deimagem como sendo um conjunto de procedimentos que melhoram a informação pictorialpara interpretação do olho humano, bem como, para o reconhecimento do dado imageadopelo computador. O processamento de imagens orbitais envolve procedimentos que sãoexpressos em forma de algorítmica de aplicação específica. A concepção de programascomputacionais para eliminação de ruídos, melhora da nitidez da imagem e segmentação irádepender do tipo e sensor que gerou a imagem (ex. radar, multiespectral).5.3- Etapas do ProcessamentoPara o usuário de SIG, as imagens são úteis na geração e atualização da basecartografia. O processamento deve de certa forma permitir a extração de informação daimagem. As imagens de sensoriamento remoto são, em geral, multibandas ou de natureza
  • 32. FUNDAMENTOS DE SENSORIAMENTO REMOTOEM AMBIENTE DE GEOPROCESSAMENTOProf. Alzir Felippe Buffara Antunes45multiespectral, que em sua forma natural, muitas vezes são de difícil interpretação. Oesquema da figura 20 mostra os passos do processamento digital (PDI) onde a imagem ésubmetida à uma análise dirigida denominada pré-processamento. Este permite obtercomposições coloridas (pseudocores) por meio de combinação de bandas, salientardeterminadas feições através do aumento de contraste e eliminação de ruídos (filtragem). Asegmentação que divide uma imagem de entrada em partes ou objetos constituintes o quefacilita a obtenção de regiões homogêneas na imagem. O processo de descrição, tambémchamado seleção de características, procura extrair caracteristicas que resultem em algumainformação quantitativa de interesse ou que sejam básicas para discriminação entre classes deobjetos (em se tratando de reconhecimento de caracteres, descritores tais como vegetação,solo, etc) . O último estágio envolve reconhecimento e interpretação. reconhecimento é oprocesso que atribui um rótulo a um objeto, baseado na informação fornecida pelo seudescritor. A interpretação envolve a atribuição de significado a um conjunto de objetosreconhecidos.Figura 20: Etapas do Processamento Digital PDI5.4- ProcessamentoDe acordo com o exposto no item acima será abordado alguns práticas de processamento comvistas a extrair informações da imagem para formar a base de dados de um SIG. Asprocedimentos mais conuns são:a)- Realce de imagem;b)- Correção geométrica;c)- Segmentação;d)- Classificação.5.4.1- RealceUma imagem de sensoriamento remoto deve num primeiro momento ser avaliadaatravés do seu histograma. O usuário deve perceber as variações tonais e a relacionadas com
  • 33. FUNDAMENTOS DE SENSORIAMENTO REMOTOEM AMBIENTE DE GEOPROCESSAMENTOProf. Alzir Felippe Buffara Antunes46os dados estatísticos da imagem. O histograma de uma imagem fornece informação útil parafazer realce e análise da imagem. O histograma de uma imagem revela a distribuição dosníveis de cinza da imagem. É representado por um gráfico que dá o número de pixels naimagem para cada nível de cinza.Definição: Seja uma imagem digital g de M linhas e N colunas. O histograma da imagemg, Hg, pode, analiticamente, ser definido por :onde nk é o número de vezes que o nível de cinza K aparece na imagem.O histograma permite obter informação sobre quantos pixels na imagem possuemdeterminado valor de cinza (que numa imagem de 8 bits varia de 0, preto, a 255, branco). Osdados discretos, representados nos histogramas de freqüências, são de fundamentalimportância no que concerne manipulação de contraste e realce de uma imagem(RICHARDS, 1997). Análise do histograma fornece informações a respeito de brilho econtraste da imagem. Toda a imagem possui um histograma, que permite para cada bandadistribuir no eixo horizontal os valores de tons de cinza e no eixo vertical o número de pixelspara cada um desses valores.A manipulação do histograma permite contrastar, melhorar a sua qualidade visualsob critérios subjetivos ao olho humano. Esse processo não aumenta a quantidade deinformação contida na imagem, mas torna mais fácil a sua percepção. É normalmenteutilizada como uma etapa de pré-processamento. Tipicamente, os sensores são capazes dediscretizar os valores recebidos da cena em um intervalo máximo que vai de 0 até 255 (8 bits= 256 possíveis valores). Devido à má iluminação, defeitos do sensor ou mesmo àscaracterísticas da cena, o intervalo de valores de intensidade ocupados pelos pixels presentesem uma imagem, pode ser muito menor que esse intervalo máximo. Diz-se então que aimagem possui baixo contraste, o que torna difícil a sua visualização ou interpretação por umintérprete humano ou um sistema de processamento digital, figura 21.
  • 34. FUNDAMENTOS DE SENSORIAMENTO REMOTOEM AMBIENTE DE GEOPROCESSAMENTOProf. Alzir Felippe Buffara Antunes47Figura 21: Aumento de contraste baseado na manipulação do histogramaImagem: efeito HistogramaO brilho e contraste da imagem podem ser modificados alterando os níveis de cinza. Umaimagem pode se tornar adicionando um valor constante ao nível de cinza. Um dos métodosmais comuns é o aumento linear de contraste onde:g(x)= f(x). a + b ; sejag(x)= novos valoresf(x)= distribuição originalb= constanteSe a>1 o contraste é aumentado e a<1 o contraste é reduzido, figura 22Figura 22: Manipulação linear do contraste (equação da reta)0 255DNN0 255DN
  • 35. FUNDAMENTOS DE SENSORIAMENTO REMOTOEM AMBIENTE DE GEOPROCESSAMENTOProf. Alzir Felippe Buffara Antunes48Quando muitos valores de intensidade na imagem original são mapeados para o valor mínimoou máximo na imagem original diz-se que, ocorreu uma saturação (overflow) e uma perda deinformação, pois os pixels que originalmente podiam ser diferenciados na imagem originalagora possuem o mesmo valor de intensidade. No entanto isto pode ser um efeito desejado,por exemplo, quando as regiões escuras da imagem com pequenas variações radiométricascorrespondem a áreas com o mesmo tipo de cobertura as quais não se deseja diferenciar.Um procedimento de modificação de contraste útil é o mapeamento linear por partesou pontos de quebra com a função de mapeamento caracterizada por um conjunto de pontosde quebra, que pode ser escolhido pelo usuário, figura 23. Funções de mapeamento não-lineares podem ser usadas para realçar detalhes específicos na imagem.Figura 23: Pontos de quebraUma função linear também utilizada é a função negativa. Ela realiza o mapeamento inversodos níveis de cinza, revertendo a ordem do preto para o branco, de tal forma que pixels comintensidade clara serão mapeados para escuro e vice-versa. A escolha do mapeamento diretoadequado é, em geral, essencialmente empírica, mas existe uma classe de métodos nos quais omapeamento tem por finalidade produzir uma imagem cujo histograma tenha um formatodesejado.5.4.2- FiltragemO grande número de diferentes freqüências de uma imagem dificulta muitas vezes ainterpretação das feições. Para minimizar este problema, utilizam-se técnicas de filtragemespacial da freqüência. As operações matemáticas efetuadas na imagem com a finalidade derealçar padrões, são realizadas por dois processos distintos: um que opera no domínio espacialda imagem, convolução cúbica (janelas m x n), e outro que opera no domínio da freqüênciabaseado nas transformadas de Fourrier.ga>1 e b≠0Aumento deContrastefga<1 e b=0Diminuição deContrastefgPontos de quebraf
  • 36. FUNDAMENTOS DE SENSORIAMENTO REMOTOEM AMBIENTE DE GEOPROCESSAMENTOProf. Alzir Felippe Buffara Antunes49O termo domínio espacial refere-se ao agregado de pixels que compõem uma imagem, e ométodos no domínio espacial são procedimentos que operam diretamente sobre estes pixels.Funções de processamento em f (x,y) é uma imagem de entrada e g (x,y) é uma imagem desaída, e T é um operador sobre f , definido sobre uma vizinhança de (x, y).Os filtros são geralmente utilizados a fim de realçar algumas feições da imagem através daalteração das freqüências espaciais. O processo de convolução ou filtragem espacial daimagem consiste na alteração do valor de determinados conjuntos de pixels ao longo daimagem. Uma matriz (m x n) é utilizada para modificar os valores dos pixels levando-se emconta os valores dos pixels vizinhos.Em geral, a matriz (m x m) é passada por toda a imagem alterando o valor dos pixels. NaFigura 24 observa-se uma matriz (janela) 3 x 3 aplicada para um pixel na terceira coluna eterceira linha, centro da convolução.Figura 24- Convolução ou filtragem matriz 3 x 3 (Fonte: Erdas Field, 2002)Figura 25- Exemplo de filtragemDado Filtro (kernel)Janela 3x3Movimento da janelaImagemEntrada: 9 valores dos pilxels da imagemSaída : valor do pixel central baseado nos pesos da janela.
  • 37. FUNDAMENTOS DE SENSORIAMENTO REMOTOEM AMBIENTE DE GEOPROCESSAMENTOProf. Alzir Felippe Buffara Antunes50De acordo com o esquema da figura 25, para computar novo valor deste pixel, cada valor dofiltro é multiplicado pelo valor do pixel correspondente no filtro. O somatório do produto édividido pelo total da soma dos valores do filtro, tal como se segue:V=((-1 x 8) + (-1 x 6) + (-1 x 6) + (-1 x 2) + (16 x 8) + (-1 x 6) + (-1 x 2) + (-1 x 2) +(-1 x 8) / (-1 + -1 + -1 + -1 + 16 + -1 + -1 + -1 + -1) = (88/8) = 11;generalizando,Os valores da nova imagem filtrados serão dados pela fórmula:=∑ ∑= =FfijdijVqiqj1 1onde:f ij = coeficiente referente ao filtro (m x n) na posição i,j ;d ij = coeficiente referente ao valor do pixel correspondente fij;q = dimensão da matriz, no exemplo 3 x 3;F = soma dos coeficientes do filtro;V = novo valor do pixel.Este filtro é um exemplo de um filtro de alta freqüência, onde os valores mais baixos tornam-se ainda mais baixos e valores mais altos tornam-se ainda maiores, aumentando a freqüênciaespacial da imagem.Vale a pena lembrar que as bordas da imagem original não podem ser calculadas por nãoexistir vizinhança. Em geral as bordas da imagem filtrada (linhas e colunas) possuem osvalores iguais o da imagem. Em outras palavras são se pode filtrar as linhas e colunaslimítrofes de uma imagem.3.4.1- Tipos de ConvoluçãoOs filtros de baixa freqüência, ditos de passa baixa ou suavização, eliminam as altasfreqüências da imagem deixando passar somente as baixas freqüências, suavizando assim aimagem. A matriz abaixo exemplifica um filtro de baixa freqüência que de acordo com afórmula de convolução vista acima. A nova imagem terá pixels mais homogêneos, uma vezque, os novos valores seriam uma média dos pixels vizinhos, resultando numa imagem maissuavizada:Os filtros de alta freqüência ou passa alta eliminam as feições de baixa freqüência, deixandoapenas as de alta freqüência. Os filtros de alta freqüência servem para realçar bordas ( limitesentre padrões na imagem). Os filtros de alta freqüência servem com filtros de realce de bordasuma vez que estes salientam limites bordas entre grupos de pixels com DNs próximos. Osvalores das matrizes abaixo, mostram um filtro de alta freqüência aplicado numa janela 3 x 3.
  • 38. FUNDAMENTOS DE SENSORIAMENTO REMOTOEM AMBIENTE DE GEOPROCESSAMENTOProf. Alzir Felippe Buffara Antunes51De acordo com os valores dos pixels vizinhos valores baixos ficam ainda mais baixos (ex:100 para 009) e o valores altos mais altos (ex:125 para 187).Existe um grande número de filtros que podem ser elaborados pelo próprio usuário a fim defacilitar a interpretação da mesma. As janelas ou matrizes podem variar de dimensão, as maisusuais são: (3 x 3), (5 x 5) e ( 7 x 7).Os filtros de passa alta e baixa são filtro lineares pouco aplicáveis em imagenstemáticas e segmentadas. A aplicação das técnicas de convolução são por meio de filtros nãolineares de mediana, moda em imagens temáticas destina-se, geralmente, na eliminação deruídos, generalização de classes e análise espacial. No filtro de moda , a freqüência relativados valores dos pixels na vizinhança é calculada para depois escolher o pixel mais freqüente, amoda, que é utilizado para substituir ao valor do pixel central referente a máscara ou janela.Figura 26- Exemplos de filtros passa alta e passa baixaImagem OriginalLandsat PanImagem FiltradaPassa AltaEfeito:Detecção de BordasJanela 3x3-1 - 1 - 1-1 17 -1-1 - 1 -1Imagem FiltradaPassa BaixaEfeito:SuavizaçãoJanela 3x31 1 11 1 11 1 1
  • 39. FUNDAMENTOS DE SENSORIAMENTO REMOTOEM AMBIENTE DE GEOPROCESSAMENTOProf. Alzir Felippe Buffara Antunes525.4.3- Composição ColoridaImagens multiespectrais são aquelas que possuem diversas bandas que podem sercombinadas entre si de maneira a melhorar a interpretação da imagem. Como foi citadasanteriormente as características de refletância dos objetos podem ser representados por tonsde cinza ou dn. O sistema de cores geralmente utilizado é o RGB (vermelhor, verde, azul)baseado nas cores primarias. Logo se pode visualizar neste sistema de cores somente trêsbandas de cada vez. A cor pura é representada pelo valor Maximo de bits como na tabela 7abaixo:Tabela 7 – Cores sistema RGB, coordenadas para 8 bitsCOR R- vermelho G- verde B- azulVermelho 255 0 0Verde 0 255 0Azul 0 0 255As diferentes cores são formadas misturando os valores dos tons de cinza de três bandasmultiespectrais. Supondo que se deseje fazer uma composição colorida ou falsa cor de umaimagem Landsat, escolheriam-se três bandas, e para cada uma delas se associaria uma corprimaria do sistema RGB.Supondo uma composição 4, 3, 2, pode-se dizer que os tons de cinza da banda quatro esta emtons de vermelho, os tons da banda 3 estao em tons de verde e a banda 2 em tons de azul. Assobreposições destes tons artificiais darão a composição colorida denominada falsa cor, comopode ser observado na Figura 27.Figura 27- Composição colorida de uma imagem Landsat 7 do município de Paranaguá-PrComposição: R= banda 4; G= banda 3, B= banda 2.Observa-se solo exposto em tons de cor de rosa, vegetação em tons de verde, alterando adisposição das bandas os objetos do terreno teriam diferentes cores. As composições coloridasprincipalmente quando se misturam as bandas do infravermelho pode ser bastante útil para adescriminação de diferentes objetos que dificilmente seriam inidentificáveis quandoobservadas as bandas individualmente (preto e branco).
  • 40. FUNDAMENTOS DE SENSORIAMENTO REMOTOEM AMBIENTE DE GEOPROCESSAMENTOProf. Alzir Felippe Buffara Antunes535.4.4- Correção Geométrica5.4.4.1- ConceitoAs imagens de sensoriamento remoto, por abrangerem uma grande área da superfícieterrestre, apresentam distorções devido à curvatura da terra e do sensor. O registro de umaimagem compreende uma transformação geométrica que relaciona coordenadas de imagem(linha, coluna) com coordenadas de um sistema de referência, em geral UTM ou coordenadasgeodésicas. O registro estabelece uma relação entre coordenadas de imagem e coordenadasgeodésicas. A este processo ainda denomina geocodificação e georreferenciamento. Éimportante, contudo, fazer uma distinção clara entre registro e correção geométrica. Oprocesso de correção geométrica de imagens elimina as distorções geométricas sistemáticasintroduzidas na etapa de formação das imagens, enquanto o registro apenas usatransformações geométricas simples (usualmente transformações polinomiais de 1o. e 2o.graus) para estabelecer um mapeamento entre coordenadas de imagem e coordenadasgeodésicas.O georreferenciamento ou registro é uma operação necessária para se fazer aintegração de uma imagem à base de dados existente num SIG. A sobreposição de informaçãode dados matriciais e vetoriais só é possível se estiverem num mesmo sistema decoordenadas.Alem disso, o georreferenciamento também é importante para se combinarimagens de sensores diferentes sobre uma mesma área ou para se realizar estudos multi-temporais, caso em que se usam imagens tomadas em épocas distintas.A imagem captada pelo satélite após a correção geométrica , passa a ter um sistemade coordenadas. As deformações da imagem podem ser reduzidas através de transformações,entre o sistema matricial (n x m) da imagem e o sistema referencia cartográfica. A correçãogeométrica permite corrigir a imagem geral estas distorções são minimizadas por meio de umestabelecimento matemático que relaciona o endereço dos pontos na imagem com osrespectivos pontos no terreno. Alguns autores denominam o processo de correção geométricaquando esta permite corrigir as distorções do relevo de ortorretificação.Figura 28 - Transformação de diferente sistema de coordenadas
  • 41. FUNDAMENTOS DE SENSORIAMENTO REMOTOEM AMBIENTE DE GEOPROCESSAMENTOProf. Alzir Felippe Buffara Antunes545.4.4.2- Distorções da ImagemO objetivo primordial das transformações para a retificação de uma imagem é gerar umanova imagem vertical sem as distorções introduzidas pela atitude do sensor durante a tomadada imagem. A imagem resultante poderá, inclusive, está isenta dos erros de deslocamentodevido ao relevo. As distorções geométricas verificadas são :Distorções inerentes à plataforma: Efemérides (posição e velocidade) e atitude;Distorções inerentes ao instrumento;Distorções inerentes ao modelo da Terra: Rotação,esfericidade e relevo.Em geral em imagens de alta resolução alguns erros oriundos a variação da altitude daplataforma poderá acarretar uma alteração de escala na direção da plataforma. A figura 29ilustra de forma conjunta as distorções devido as variações de altitude e velocidade daplataforma(Figura 29).
  • 42. FUNDAMENTOS DE SENSORIAMENTO REMOTOEM AMBIENTE DE GEOPROCESSAMENTOProf. Alzir Felippe Buffara Antunes55Figura 29 : Distorções devido às variações de altitude e velocidade da plataforma.As transformações matemáticas empregadas para corrigir as deformações geométricaspodem ser agrupadas em modelos matemáticos de sensores físicos rigorosos e modelogeneralizado.Os modelos generalizados independem da plataforma, ex: Transformação afimno Plano e Polinomial; Transformação Linear Direta (DLT).Já os modelos matemáticos físicos ou rigorosos dependem dos parâmetros daplataforma (efemérides , altitude, ângulo de inclinação; freqüência de varredura; orientaçãoentre os sistema de referencia do instrumento e do sensor de altitude). As vantagens destemodelo são :Eliminar as distorções geométricas globalmente;Permitir a representação da imagem corrigida em qualquer sistema de projeçãocartográfica;Permite o refinamento dos dados de altitude ou dos dados de efemérides a partir dealguns pontos de controle;As desvantagens porem sao :ComplexidadeDificuldade em se obter os parâmetros orbitaisAltitudeVelocidadeRotaçãoOndulação
  • 43. FUNDAMENTOS DE SENSORIAMENTO REMOTOEM AMBIENTE DE GEOPROCESSAMENTOProf. Alzir Felippe Buffara Antunes56Figura 30- Distorções de imageamento, ortoretificação.5.4.4.2- Modelos MatemáticosSeja u= f (E,N) e v=g(E,N); onde E, N são coordenadas no ponto no terreno (UTM)e u, v o local desses pontos na imagem. Geralmente, essas funções são desconhecidas, logo seutilizam polinômios para impor este relacionamento. As funções são relacionadas através depontos de controle que estabelece a relação terreno e imagem. Existe influencia do númerode pontos de controle na estimação dos parâmetros de transformação e na eficiência domodelo matemático. Com a introdução das imagens de alta resolução faz-se necessário àrevisão das técnicas de correção geométrica. Os modelos matemáticos polinomiais 2D (ex:.transformação afim ) amplamente utilizados em imagens tipo Landsat 7, Spot 4 e Cbers,possuem eficiência reduzida quando aplicados em imagem tipo Ikonos ou Quickbird, nestecaso vem-se testando modelos matemáticos 3D, ou ainda, modelos de ortorretifiçãoaplicados na fotogrametria.A- Transformação afimPara transformar um sistema de coordenadas em outro sistema devem-se conhecer osparâmetros de transformação denominada afim (rotação, translação, escala). Estes parâmetrospodem ser determinados por meio de pontos de controle (ground control points, CGP), ouseja, pontos que sejam reconhecíveis e conhecidos em ambos sistemas, de maneira a formarum sistema de equações.
  • 44. FUNDAMENTOS DE SENSORIAMENTO REMOTOEM AMBIENTE DE GEOPROCESSAMENTOProf. Alzir Felippe Buffara Antunes57Xo= a1xi + a2yi + TxYo= a3xi + a4yi + Tyonde: Xo, Yo: coordenadas a serem retificadas;xi, yi : Coordenadas originaisa1 a2 Txa3 a4 Ty ; parâmetros de transformação.Na verdade, com o mínimo de três pontos de controle este sistema teria solução (6equações a 6 incógnitas), porém quanto maior o número de pontos de controle mais acuradoserá a determinação dos parâmetros de transformação. Com vários pontos de controle, tem-seum sistema superabundante de equações, o que permite avaliar o erro da transformação erejeitar os pontos de controle que acumulam maior erro. Este modelo é bastante utilizado emimagens tipo Landsat, Spot 4, Cbers, onde a distorção causada pelo relevo possui umarelevância secundária.Determinação da Acurácia da TransformaçãoUma vez que se possui vários pontos de controle pode-se verificar quais dos pontosse ajustam melhor à transformação. O erro total cometido na transformação é dado pelo erroquadrático médio EQM ou RMS, determinado pela fórmula:EQM= 22)()( mtmt yyxx −+−onde: xt, yt, são as coordenadas transformadas e xm,ym são os pontos de controle(GCP), onde :Ex= xt -xm e Ey=yt-ym, os resíduos.O erro quadrático médio pode ser expresso pela diferença em distância entre os pontos decontrole e os transformados a partir destes (Figura 31)Figura 31 -Erro (RMS)EcCoordenada transformadaCoordenada do ponto de controleExEy
  • 45. FUNDAMENTOS DE SENSORIAMENTO REMOTOEM AMBIENTE DE GEOPROCESSAMENTOProf. Alzir Felippe Buffara Antunes58Da mesma maneira, pode-se determinar os erros individuais para cada ponto deforma que a erro será dado por:Ec= Ex Eynin21 121= =∑ ∑+ , onde EQMi erro por pontos, n número de pontos GCP, Ex2e Ey2, sãoos resíduos para as coordenadas x e y (Figura 32).Figura 32 - (A) pontos de controle distribuídos na imagemErro tolerável depende da resolução da imagem e da escala do mapeamento. Umatransformação com um RMS de 1 pixel significa para uma imagem Ikonos cuja resolução é 1x 1 metro, o erro é de um raio de um metro. Alguns autores aceitam para o Ikonos um erro deaté um pixel. Por esta razão, nem sempre o mapas servem para retificar imagens uma vez queestes podem acumular um erro posicional superior à resolução da imagem. No entanto, muitosdestes mapas podem ser úteis quando a escala que se pretende trabalhar na imagem é menorque a do mapa topográfico (Ex.: um mapa na escala 1:50.000 pode ser utilizado na retificaçãose a escala da imagem for inferior 1:100.000).Para se obter um erro mínimo na transformação deve-se levar em conta:• A precisão dos pontos de controle deve ser melhor que a resolução do pixel;• O erro total da transformação deverá ser compatível com a acurácia esperada para escalada imagem;• A localização dos pontos de controle deve ser em nível de pixel na imagem;• As curvas de nível e/ou altitudes devem ser precisas oriundas de mapas em escala 1:5.000,ou maior (ver item 4.1).Imagem de Alta ResoluçãoUma outro conceito vindo da fotogrametria é a ortoretifição que significatransformar as imagens ou fotografias,adquiridas em perspectiva central para a projeçãoortogonal, ou corrigindo os erros advindos do relevo. No que se refere as imagens de altaresolução, a transformação geométrica deve levar em conta a variação do relevo. Com a
  • 46. FUNDAMENTOS DE SENSORIAMENTO REMOTOEM AMBIENTE DE GEOPROCESSAMENTOProf. Alzir Felippe Buffara Antunes59disponibilidade de imagens de alta resolução espacial, o modelo de polinômios racionais (ourazões polinomiais) está sendo amplamente utilizado para a correção geométrica. TAO &HU(2001) consideram que os polinômios racionais são essencialmente uma forma genérica depolinômios, e apresentam a descrição das soluções direta e iterativa dos polinômios racionaispelo MMQ. A resolução dos polinômios racionais utilizados nos testes descritos a seguir foiefetuada pela solução direta, sendo consideradas como observações (ou medições) apenas ascoordenadas de imagem; assim, o método adotado para o ajustamento pelo MMQ foioparamétrico (como na transformação afim). O modelo de polinômios racionais é utilizadopara modelar a superfície topográfica (representada pelo modelo digital de elevação) nacorreção geométrica de imagens de alta resolução espacial. O modelo poder ser extraídoatravés das curvas de nível ou mais modernamente por laser scanning.A equação geral para os polinômios racionais é:Ln= P1(XN,YN,ZN)/ P2(XN,YN,ZN) (1)Cn= P3(XN,YN,ZN)/ P4(XN,YN,ZN)Onde:Ln e Cn são, respectivamente, as coordenadas de imagem linha e coluna normalizadoscorrespondentes a um ponto objeto cujas coordenadas normalizadas são Xn, Yn, e Zn.Para o caso de 3º grau, os polinômios são expressos como:P1 = (1 Z Y X . . . Y3 X3 )* (a0 a1 . . . a19)TP2 = (1 Z Y X . . . Y3 X3 )* (1 b1 . . . b19)T (2)P3 = (1 Z Y X . . . Y3 X3 )* (c0 c1 . . . c19)TP4 = (1 Z Y X . . . Y3 X3 )* (1 d1 . . . d19)TOs termos ai e bi são os parâmetros a serem determinados por meio dos pontos de controle.Um outro modelo que pode ser utilizado é o modelo APM , conhecido como equaçãode projeção paralela que projeta o espaço 3D no plano 2D. Modelo é o que se segue:Onde:x, y, z : coordenadas do espaço imagem;X,Y,Z: coordenadas no terrenoa1 ...a12: : parâmetros de transformaçãoPara o modelo Afim 3D se deve obter as coordendas Z, por meio do modelo digitaldo terreno, Figura 33. O resultado da transformação é uma ortoimagem que não possuidistorções devido ao relevo. A ortoimagem por si só não é substituta para a carta, deve serapenas uma ferramenta para a produção ou atualização cartográfica e integração com ogeoprocessamento. A pesquisa de modelos matemáticos, métodos e técnicas para a geração deortoimagens ainda é um tema em discussão pela comunidade de S. Remoto.Figura 33- Geração de uma ortoimagemxyz=a1 a2 a3a5 a6 a7a9 a10 a11XYZ+a4a8a12
  • 47. FUNDAMENTOS DE SENSORIAMENTO REMOTOEM AMBIENTE DE GEOPROCESSAMENTOProf. Alzir Felippe Buffara Antunes606- CLASSIFICAÇÃO6.1- Interpretação de imagemUm dos objetivos principais do sensoriamento remoto é a extração defeições das imagens brutas por meio do processo de Classificação ou Categorização dosPixels, por meio de amostragem estatística. Define-se como classificação das imagens desensoriamento remoto, a associação a cada pixel uma informação qualitativa (atributo). Osvalores de cada nível de cinza (DN) para cada pixel pode ser associado à reflectância dosmateriais que o compõem no terreno. Desta forma, cada pixel ou um conjunto de pixels, estaráassociado a uma classe ou tema.A fotointerpretação ou interpretação da imagem é o primeiro passo para seclassificar uma imagem, pois o correto reconhecimento dos objetos da imagem é fundamentalpara a aplicação de algoritmos de classificação digital. A interpretação visual da imagem fazuso de elementos de reconhecimento, os quais servem de fatores-guia no processo dereconhecimento e identificação dos alvos na superfície terrestre através de uma fotografiaaérea ou imagem de satélite. Estes elementos básicos de leitura de uma fotografia ou imagemsão os seguintes:• Tonalidade e cor;• Forma e tamanho;
  • 48. FUNDAMENTOS DE SENSORIAMENTO REMOTOEM AMBIENTE DE GEOPROCESSAMENTOProf. Alzir Felippe Buffara Antunes61• Padrão;• Textura;• Associação• Sombra.6.1.1- Tonalidade e corA tonalidade refere-se a intensidade de energia eletromagnética refletida por um tipo dealvo na superfície terrestre, em uma determinada banda do espectro eletromagnético,em outras palavras, a tonalidade está estreitamente relacionada com o comportamentoespectral das diferentes coberturas da superfície terrestre. Em fotografias aéreas a cor estáassociada ao tipo de filme (preto e branco, colorido normal, infravermelho preto e branco einfravermelho colorido). Em uma imagem de satélite, devido à reflexão seletiva dos alvosexistentes na superfície terrestre, nas distintas bandas do espectro eletromagnético,analisamos os tons de cinza nas bandas individualmente ou as cores através das composiçõescoloridas. O olho humano é mais sensível a cores que a tons de cinza. Desta formaassociamos cores aos tons de cinza (Figura 34).Figura 34- Exemplo de Tonalidade e cor- imagem LANDSAT /TM do encontro das águas dosrios Solimões (azul claro) e Negro (preto) formando o rio Amazonas6.1.2- FormaA forma é definida através da geometria dos objetos e o tamanho é diretamenteproporcional à escala. A forma é um elemento importante, pois facilita o reconhecimentode alguns alvos na superfície terrestre, tais como: estradas e linhas férreas (que apresentam
  • 49. FUNDAMENTOS DE SENSORIAMENTO REMOTOEM AMBIENTE DE GEOPROCESSAMENTOProf. Alzir Felippe Buffara Antunes62formato longitudinal), cultivos (que tem formas regulares e bem definidas pois as culturas sãoplantadas em linha ou em curva de nível), reflorestamentos (que tem formas regulares)(Figura 35), áreas irrigadas por pivô central (que apresentam formas arredondadas)reservatórios, complexos industriais, aeroportos, estruturas geológicas e geomorfológias,cidades (que apresentam formas reticulares devido aos cruzamentos de suas avenidas e ruas)(Figura 3), rios (que apresentam forma sinuosa) etc. Paralelamente a forma deve-setambém levar em consideração o tamanho dos alvos, pois algumas vezes alvos diferentesapresentam formas semelhantes, mas tamanhos diferentes, o que auxilia na sua caracterização.Por exemplo, as áreas de horticultura têm forma semelhante às áreas de plantio de cana-de-açúcar, porém elas têm tamanhos diferentes. O mesmo acontece com rios, os rios principais eos tributários têm a mesma forma sinuosa, mas tamanhos diferentes (LINGNAU, 2003).Figura 35- Imagem IKONOS de área agrícola com padrão quadriculado bem definido.(Fonte: http://www.engesat.com.br).6.1.3- PadrãoEste elemento é bastante utilizado em fotografias aéreas e em imagens de alta resolução.O padrão é definido a partir da união e extensão das formas que podem se repetirregularmente com variações tonais na imagem. O padrão pode ser representado por obrasfeitas pelo homem ou feições naturais, p. ex. padrões de drenagem, padrão das plantações, deconstruções, de minerações, etc. Em estudos de bacias de drenagem o padrão de drenagem éum elemento importante, pois ele está associado ao tipo de solo, rocha e estrutura geológicana área que está sendo estudada. O Padrão também nos permite identificar alguns tipos decoberturas artificiais tais como plantações, áreas de reflorestamento, áreas urbanas, distritosindustriais, área urbana (Figura 36) e algumas áreas de lazer, etc
  • 50. FUNDAMENTOS DE SENSORIAMENTO REMOTOEM AMBIENTE DE GEOPROCESSAMENTOProf. Alzir Felippe Buffara Antunes63Figura 36: Padrão linear, típico em áreas de plantios agrícolas ou florestais.6.1.4- TexturaA textura pode ser definida como a variação de tonalidade criada em função doconjunto de objetos demasiadamente pequenos para ser percebidos individualmente. A texturapoderia também ser defina como a repetição tonal de alguns grupos de objetos nãoidentificáveis individualmente. A textura é o produto da forma, tamanho, sombra e tom decada objeto. A textura oferece a impressão visual de rugosidade ou lisura de determinadasuperfície. Em geral a textura é uma ferramenta valiosa na interpretação de padrões florestaise formas de relevo em imagens orbitais de alta resolução e fotografias aéreas. A textura variasempre com a escala.Figura 37- Comparação entre a imagem LANDSAT e IKONOS de uma parte da BaciaParacatú na escala 1:25.000.6.1.5- Associação (ou convergência de evidências)Elementos ou objetos que estão comumente associados, nos quais um tende a ocorrerem função do outro. Por exemplo, a ocorrência de mangue se dá por uma conjuntura defatores de influência fluvio-marinha.6.1.6- SombraÉ outro elemento importante na interpretação de imagens de satélite,mas na maioria dasvezes dificulta a interpretação das imagens, porque esconde a informação onde ela estásendo projetada. De um modo geral o relevo sempre provoca uma sombra do lado oposto a
  • 51. FUNDAMENTOS DE SENSORIAMENTO REMOTOEM AMBIENTE DE GEOPROCESSAMENTOProf. Alzir Felippe Buffara Antunes64incidência do sol, fazendo com que estas áreas apresentem tonalidades escuras na imagem,dificultando assim a caracterização dos alvos na superfície terrestre.6.1.5- Chave da interpretação de imagemCom base nestes elementos elabora-se então uma chave de classificação, a qual serve de guiaao fotointérprete para identificar rapidamente os alvos na fotografia ou na imagem. A chavevem a ser descrição e ilustração típica dos alvos. Este tipo de interpretação visual pode sermuito interessante quando não se quer ou não é viável realizar uma classificação digital daimagem Este material também pode ser preparado um trabalho com finalidades deinterpretação preliminar em campo para posterior classificação automática. As chaves deinterpretação não têm aplicabilidade ampla, ou seja, ela deve ser desenvolvida para umadeterminada região e imagem.A vantagem da utilização de chaves é que elas podem ser adaptadas para sensores dediferentes satélites e permite que o fotointérprete iniciante organize as informações nafotografia ou imagem, de modo a melhorar a eficiência do mapeamento.A tabela 8 mostra o exemplo da chave da fotointerpretação para uma composição coloridapara a Imagem IKONOS no município de Nova Esperança – PR. Na imagem onde avegetação aparece em vermelho, a combinação de bandas foi feita da seguinte forma: a corazul foi associada à banda 2 (visível), a cor verde à banda 3 (visível) e a cor vermelha à banda4 (infra-vermelho próximo). Esta combinação é chamada de falsa-cor, porque os alvosaparecem na imagem em cores falsas, e não como são vistos na natureza. Este tipo decombinação é muito usado para identificação de diferentes tipos de matas ou diferenciaráreas de mata sadia das atacadas por enfermidades, ou para realçar sedimentos emsuspensão na água.
  • 52. FUNDAMENTOS DE SENSORIAMENTO REMOTOEM AMBIENTE DE GEOPROCESSAMENTOProf. Alzir Felippe Buffara Antunes65Tabela 08 – Exemplo dos elementos de interpretação para a Imagem IKONOS, composiçãoB4, B3 e B2 em RGB. (Fonte: Adaptado, ANTUNES, 2003)Descrição em Campo Imagem IKONOS Característica no CampoCorazul mesclado c/ rosa erosaTextura ásperaPadrão LinearÁreas de agricultura que podem serfacilmente subdivididas em função dotipo de cultura e época de plantio.Cor azul escuroTextura LisaÁreas pequenas e com solo expostoCor Azul escuroTextura MarmorizadaÁrea úmida ao redor do eixo docórrego, a qual possui uma vegetaçãotípica de banhado.Cor vermelhaTextura grosseiraVegetação arbórea que ocorre aolongo do curso d’água.Cor AzulTextura LisaLago artificial com baixo índice desedimentação.
  • 53. FUNDAMENTOS DE SENSORIAMENTO REMOTOEM AMBIENTE DE GEOPROCESSAMENTOProf. Alzir Felippe Buffara Antunes66Cor Azul claroTextura FinaSolo exposto e arado pouco antes daobtenção da imagem.Cor azul e rosaTextura FinaPadrão LinearOs diferentes tons indicam osdiferentes tipos de pasto.6.2- Classificação DigitalO processo de se associar pixels a feições distintas pode ser realizado por diferentesmétodos, denominados classificação supervisionada e não supervisionada.A método de classificação supervisionada consiste na classificação controlada pelousuário ou conhecedor da área (analista) a ser classificada. Baseado na chave dafotointerpretação o analista seleciona na imagem amostras (pixels) de feições conhecidaspreviamente. Estas amostras devem representar o melhor possível as feições a seremclassificadas. Este tipo de classificação é indicado quando o analista tem facilidade dereconhecer todos os padrões da imagem e classes bem distintas entre si. O analista deveprimeiramente determinar as classes e posteriormente as assinaturas, ou seja, o conjunto dedados estatísticos de cada amostra coletada na imagem. Através da análise estatística saber-se-á a qualidade da amostra.A classificação a não supervisionada requer do usuário apenas alguns parâmetrostais como número de classes e interações. O algoritmo permite agrupar pixels comcaracterísticas espectrais similares. É necessário posteriormente associar classes aosagrupamentos, procedimento este que é feito de maneira totalmente automatizada. Esteprocesso também pode ser denominado de segmentação, que significa o agrupamento depixels dentro de determinados intervalos de variação. O método mais utilizado é o Self-Organizing Data Analysis Technique ou Isodata (agrupamento). Este algoritmo permitereunir pixels de maneira seqüencial, através de uma mínima distância espectral. Assim sendo,cada pixel é associado a determinado agrupamento ou cluster. O resultado da classificaçãonão supervisionada é a segmentação da imagem dentro de intervalos pré-fixados de variaçãoespectral.6.2.1- Classificação Supervisionada
  • 54. FUNDAMENTOS DE SENSORIAMENTO REMOTOEM AMBIENTE DE GEOPROCESSAMENTOProf. Alzir Felippe Buffara Antunes67O primeiro requisito para proceder à classificação supervisionada é o corretoreconhecimento e interpretação da imagem por parte do usuário. Uma vez que, as feições doterreno são reconhecidas na imagem, inicia-se o processo de seleção das áreas detreinamento ou amostras. Vários autores definem como áreas de treinamento ouamostragem de imagem um conjunto de pixels que representam determinada feição, classe oucategoria. Estas irão compor um arquivo de assinaturas que servirá de base à classificação(JANSEN, 1986; SABINS, 1987; RICHARDS, 1997; McCLOY, 1995 ).As amostras são selecionadas interativamente na imagem através do agrupamento de pixelsque possuam uma variação espectral pequena. Na Figura 39 observa-se a amostragem de umconjunto de pixels a serem associados à classe de solo exposto.Figura 39- Seleção de uma amostra, imagem Ikonos multiespectral.As amostras devem representar o melhor possível as classes a que estão associadas. Aestatística da amostra é fundamental para que se obtenha amostras mais homogêneaspossíveis, com pouca variação espectral entre os pixels. Os parâmetros mais comuns deavaliação estatística são os seguintes:• Histograma da Amostra• Desvio padrão, Variância• ElipsesObserva-se na Figura 40 o histograma da amostra de reflorestamento dafigura 32, há um grande espalhamento dos valores dos DNs que variam de 51 à 243, porém amaioria dos pixels encontra-se na faixa de 100 à 200. Supõe-se que no centro do histogramaestejam os valores mais prováveis da classe de solos expostos. Esta amostra possui um altodesvio padrão 15,7 o que leva a crer que a amostra é homogênea, se tratando de umaimagem de alta resolução. Entretanto, uma amostra pode ter diferentes desvios padrões paradiferentes bandas. Dessa forma deve-se levar em consideração todas as bandas da imagem.AmostraEx: Reflorestamento
  • 55. FUNDAMENTOS DE SENSORIAMENTO REMOTOEM AMBIENTE DE GEOPROCESSAMENTOProf. Alzir Felippe Buffara Antunes68Figura 40- Histograma da amostra reflorestamento para banda 3Na avaliação das amostras numa imagem multi-banda, as elipses são ferramentasúteis. A partir das médias e desvios padrões do arquivo das amostras, pode-se construir numafigura bidimensional onde no eixo vertical tem-se as variações dos níveis de cinza para umabanda e, no eixo horizontal, as mesmas variações para uma outra banda. Geralmente, asassinaturas possuem elipses que se sobrepõem , representando classes de difícil distinçãoespectral (Figura 41). O seu efeito visual permite a melhor compreensão da distribuiçãoespectral dos dados amostrados em cada assinatura ou classe.Observa-se na Figura 41: a) que as amostras das assinaturas 1 e 2 se sobrepõem,significando uma confusão entre estas duas classes; b) a separação entre as elipses mostrauma boa amostram para as assinaturas 1 e 2 neste par de bandas. As elipses devem seranalisadas par a par de bandas a fim de se determinar em quais faixas se pode selecionar asmelhores amostras.Figura 41- Elipses (Fonte: adaptação Erdas fieldguide, 2003)Para realizar uma seleção adequada de amostras na imagem, deve-se levar emconsideração os seguintes requisitos:• As amostras mais homogêneas possíveis - baixo desvio padrão;• Amostras representativas das categorias a serem classificadas;(a) (b)nº Pixels70 125 Nível de Cinza
  • 56. FUNDAMENTOS DE SENSORIAMENTO REMOTOEM AMBIENTE DE GEOPROCESSAMENTOProf. Alzir Felippe Buffara Antunes69• Serem constituídas por no mínimo 15 pixels;• O histograma deverá ter uma distribuição próxima de uma curva normal.Após a amostragem das diferentes feições do terreno pode-se proceder a classificação daimagem por métodos paramétricos que levam em conta a estatística das amostras coletadas osprincipais métodos são : mínima distância; máxima probabilidade. Existem ainda métodosnão paramétricos como o baseado em Lógica Fuzzy.6.2.1.1- Mínima distânciaA regra da mínima distância, também denominada distância espectral, determina a distânciaespectral entre a medida do vetor do pixel candidato e do vetor médio para cada assinatura nasdiferentes bandas da imagem. O pixel candidato é classificado na assinatura mais próximaespectralmente. A equação de classificação basea-se na distância Euclidiana (Figura 42).Figura 42- Pixel candidato e a distancia espectral entre as classes( )SD Xxyc ci xyiin= −=∑ µ12Onde: n = numero de bandasi = uma banda em particularc = uma classe em particularXxyi = valor do pixel para uma banda iµci = média do valor na banda i para a classe cSDxyc = distância espectral do pixel x,y para a média da classes cPor esta regra não existirão pixels sem classificação, não obstante, não se considera avariabilidade da classe, ou seja, a variância, uma vez que os pixels longe da média com umagrade variância poderiam pertencer a uma outra classe. O método de Mahalonobis é umaregra de decisão, que associa a matriz covariância da amostra à mínima distância, melhorandoa precisão da classificação. Entretanto, tende a superclassificar amostras que possuam amplosvalores de covariância. Este método é bastante utilizado para se classificar imagens de mediaresolução com diferentes bandas espectrais( Ex:. Landsat; Cbers)Pixel Candidato
  • 57. FUNDAMENTOS DE SENSORIAMENTO REMOTOEM AMBIENTE DE GEOPROCESSAMENTOProf. Alzir Felippe Buffara Antunes706.2.1.2- Máxima probabilidade ou verossimilhançaEste método estatístico baseado no teorema de Bayes é o mais utilizado emsensoriamento remoto para classificação digital de imagens multiespectrais de mediaresolução.Seja ωi classes espectrais de imagem, o teorema de Bayes preconiza que aprobabilidade de pixel x pertencer a uma classe ωi é dada por:P (ωi| x)= P (x|ωi). P (ω1)/P (x),onde:P(ωi| x) = probabilidade a posteriori baseada em amostragem;P(ωi) = probabilidade a priori ou evidência baseada num conhecimento prévio.A amostragem de determinada feição permite associar determinado pixel a determinadaclasse. Logo um vetor de observação X poderá pertencer a uma classe ω1 ou ω2 de acordocom as probabilidades descritas pelas funções f1(x) e f2(x) da Figura 43Figura 43: funções densidade de probabilidade para classes ω1 e ω2f(x)Assumindo que P(ωi) ≠ P(ωj) de diferentes probabilidades a priori, então, as funçõesdescriminantes poderiam ser dadas pela seguinte expressão matemática:gi (X) = ln P (x|ωi).P (ω1) ; gi (X) = ln P(x|ωi) + lnP(ω1);logo , X ∈ ω1 se gi (X) > gj (x) para todo j≠i.Muitas vezes as probabilidades a priori são as mesmas, sendo assim, são desconsideradas nocálculo da probabilidade a posteriori:gi (x)= -0.5{ln|Ci| + di2(X)};o termo -0.5ln|Ci| releva algo sobre o tamanho e forma da função para classe ωi;o termo di2(X) é a distância estatística baseada na variância (Figura 44).classe(ω2)classe(ω1)f1 (x) f2 (x)a b X (reflectância)P(X|ω1) = a;P(X|ω2) = b;f(x) = função densidade de probabilidade(distribuição normal)(1/σ (2π)1/2)∗ (e –1/2[(X -µ/σ)]2)Regra de decisão: a > b X pertence a ω1a < b X pertence a ω2
  • 58. FUNDAMENTOS DE SENSORIAMENTO REMOTOEM AMBIENTE DE GEOPROCESSAMENTOProf. Alzir Felippe Buffara Antunes71Figura 44: Regra de decisãoO algoritmo de decisão da máxima probabilidade, as assinaturas apresentarãodistribuições normais e as distâncias calculadas levarão em conta a matriz covariância. Deforma mais simplificada poder-se-ia determinar a distância pela seguinte expressão:D ln(ac) [0.5l ( |Covc| )] [0,5(X c)t(1/ Covc)(X c)]= − − − −µ µonde:D = distância com pesos;c = classe;X = vetor dos dados do pixel candidato;µc = vetor média dos valores para classe c;ac = probabilidade a priori de qualquer pixel pertencer à classe c;Covc = matriz covariância da assinatura c;|Covc| = determinante da matriz covariância;1/Covc = matriz inversa da covariância;ln = logaritmo natural;t = transposta.Assume-se neste caso, que em todas as assinaturas as probabilidades são iguais paratodas as classes, ou seja, ac = 1. Todos os pixels da imagem são classificados de acordo comesta regra de decisão. Este método, em relação a mínima distância é o que apresentamelhores resultados. Isto se deve-se ao fato de considerar um maior número de variáveis. Noentanto, existe uma tendência de superclassificação, ou seja, relacionar um maior número depixels às amostras com maiores valores relativos contidos na matriz. Deve-se em mente que aclassificação baseada em probabilidade estatística está sempre sujeita a erros. O resultadodeve ser sempre confrontado com a realidade de campo.6.2.1.3- Classificação FuzzyDefinindo matematicamente um conjunto fuzzy, sendo X o espaço dos pontos(pixels), com um elemento genérico de X denotado por x, então:X= {x}A= {x, fA(x)}; x ∈ X.f(X)ω1• • ω2d2d1∗Xµ1 µ2 XX ∈ ω2 d2>d1
  • 59. FUNDAMENTOS DE SENSORIAMENTO REMOTOEM AMBIENTE DE GEOPROCESSAMENTOProf. Alzir Felippe Buffara Antunes72O conjunto fuzzy (classe) A em X é caracterizado por uma função de pertinênciafA(x) que associa cada ponto em X a um número real no intervalo [0,1]. O valor de fA(x)representa o grau de pertinência de x em A. Este grau não é uma medida de probabilidade,mas sim uma possibilidade. Desta forma pontos podem pertencer a um conjunto fuzzy numgrau maior ou menor (WANG, 1990; AZEVEDO et al., 2000). A função de pertinência de umconjunto fuzzy é expressa por fA(x), definido o grau de pertinência de x em A (Figura 45).Figura 45- Função de pertinênciaNa representação fuzzy, as classes podem ser definidas como conjunto fuzzy e ospixels como elementos. Um pixel pode pertencer a uma determinada classe com um grau depertinência e a uma outra classe com outro grau de pertinência. A Figura 46 mostra os grausde pertinência de diferentes classes baseadas em uma função de pertinência.A representação fuzzy é bastante adequada à classificação quando se deseja obtercondições intermediárias entre classes, através dos graus de pertinência. Estes graus podemser utilizados como um conhecimento a priori da área a ser classificada, bastante útil para amelhora da imagem temática resultante ( ANTUNES & LINGNAU, 2001). Espaço espectralFuzzy (WANG, 1990b). O pixel em preto possui uma maior pertinência a classe várzea. Ospixels coloridos mostram o valor médio para cada classe.Figura 46- Espaço espectral Fuzzy (Adaptado, ANTUNES, 2003)VárzeaAgriculturafVarzea = 0,60fAgricultura= 0,4B3B4B3B4Superfícies dedecisãoNível de CinzafA(x)Possibilidade1 -0.5 -0
  • 60. FUNDAMENTOS DE SENSORIAMENTO REMOTOEM AMBIENTE DE GEOPROCESSAMENTOProf. Alzir Felippe Buffara Antunes736.2.2- Classificação baseada em objetos: segmentaçãoA classificação baseada em objeto ou segmentos permite o agrupamento depixels dentro de uma variação espectral estipulada pelo usuário. É um processo desegmentação da imagem onde o usuário pode diferenciar algumas feições de característicasespectrais similares. Métodos de classificação supervisionada e não supervisionada podem serprocessados conjuntamente. Os agrupamentos de pixels podem ser úteis na seleção deamostras mais homogêneas. Isto permite ao usuário obter amostras (assinaturas) de dispersãomais baixa e conseqüentemente maior separabilidade entre as diferentes feições da imagem.Objetiva-se também com a segmentação dividir uma imagem em grupos de pixels ouobjetos de acordo com determinado grau de homogeneidade, a fim de associá-los a umafeição do terreno. Dependendo do tipo de imagem e do objetivo, diferentes métodos desegmentação podem ser aplicados.A segmentação de uma imagem pode ser definida conforme FU & MUI (1981) como adivisão de uma imagem em diferentes regiões, onde cada uma destas regiões possuipropriedades específicas. As regiões consistem em um agrupamento de valoresmultiespectrais ou hiper-espectrais similares. A segmentação é uma componente importantepara o reconhecimento de padrões. Entretanto, não existe um modelo formal parasegmentação. O processo é essencialmente empírico e, em geral, ajustável aos diferentes tiposde imagem, com limiares definidos face a complexidade dos alvos investigados.De acordo com GONZALEZ & WOODS (2000) e TILTON (2002) os algoritmos parasegmentação de imagens são geralmente baseados nas propriedades básicas de valores deníveis de cinza, descontinuidade e similaridade. Na primeira categoria, a abordagem éparticionar a imagem baseada em mudanças bruscas de tons de cinza. Este tipo desegmentação é utilizado quando se deseja detectar bordas e pontos isolados. A segundacategoria (similaridade) baseia-se em limiarização e crescimento de regiões.De acordo com GONZALEZ & WOODS (2000) o crescimento de regiões é umatécnica de agrupamento espacial no qual somente pixels adjacentes, contíguos na imagem,podem ser agrupados. Esta técnica consiste em partir de um ou vários pixels consideradosuniformes, analisar os pixels na vizinhança e adicionar os vizinhos que forem similares aogrupo inicial, de maneira que a região formada cresça num processo iterativo que terminaquando as fronteiras naturais dos objetos presentes na cena forem atingidas. Ao final doprocesso, a imagem encontra-se dividida em várias sub-regiões.Seja I todos os objetos da imagem, a segmentação por região pode ser vista como o processode subdivisão de I em n sub-regiões, R1, R2, ...RN, tal que:UniRRi1== , onde todos os pixels devem pertencer a uma única região,Ri , região conexa, i=1,2,3 ...n;As regiões devem ser disjuntas, tal que, Ri ∩ Rj = Ø para todo i e j, i≠j;Os pixels em Ri de uma mesma região devem possuir a mesma intensidade ou característica;P(Ri)= verdadeiro para i= 1,2,..n e para diferentes regiões P(Ri U Rj )= falso, para i ≠ j. Emque P(Ri) é um predicado lógico sobre os pontos do conjunto Ri e Ø é o conjunto vazio;A condição (1) sugere que a segmentação deve ser completa . A segunda condição requer quepixels de uma mesma região devem ser conexos.
  • 61. FUNDAMENTOS DE SENSORIAMENTO REMOTOEM AMBIENTE DE GEOPROCESSAMENTOProf. Alzir Felippe Buffara Antunes74A região cresce através da agregação de pixels com características similares tipo cor,brilho. A agregação que forma o objeto ou região é interrompida até não poder crescer mais,baseados nos parâmetros associados e limiar, exemplo Figura 47.Figura 47- Imagem multiespectral segmentada em regiões homogêneas espectralmenteImagem tipo IKONOS e QUICKBIRD são em geral classificadas após seremsegmentadas. Os segmentos ou objetos oriundos da segmentação podem ser categorizadosautomaticamente por algoritmos tipo fuzzy, mínima distância, ou manualmente pelo usuário.A Figura 48 mostra a classificação digital posteriormente a segmentação.Figura 48- Classificação orientada a objeto, imagem Ikonos.6.2.3- AcuráciaA discussão sobre a análise da confiabilidade temática da imagem requer queinicialmente sejam definidos os termos acurácia, precisão e exatidão, os quais geralmente sãousados de forma confusa. Define-se precisão como o grau de concordância de uma série deobservações ou medidas, enquanto a acurácia esta relacionada a proximidade de umaobservação ou medida do seu valor real. Pode-se, então, associar a precisão os erros aleatóriosou acidentais, e acurácia aos efeitos dos erros aleatórios e sistemáticos conjuntamente. Umaobservação pode ser considerada como exata se não tiver ocorrido o erro sistemático ou bias.A falta de exatidão das observações são geralmente oriundas dos erros sistemáticos e tendema se acumular num mesmo sentido.SegmentosObjetos Classificados manualmente por fotointerpretação após a segmentação
  • 62. FUNDAMENTOS DE SENSORIAMENTO REMOTOEM AMBIENTE DE GEOPROCESSAMENTOProf. Alzir Felippe Buffara Antunes75Considerando uma amostragem, a acurácia seria expressa pelo desvio padrão daamostra do valor real da população. A precisão poderia ser relacionada ao desvio padrão damédia da amostra. É possível que uma amostragem possua uma alta precisão, ou seja empequeno desvio em relação a média, e ao mesmo tempo, devido a falta de exatidão, um grauacurácia inferior.6.2.4- Qualidade da Imagem TemáticaA conservação, preservação, planos de manejo ambiental com vistas a compor a basede um SIG requerem um mapeamento da situação atual da área em questão. Os mapastemáticos então disponíveis são tidos geralmente como corretos. No entanto, sabe-se queerros desde a obtenção dos dados até a geração de um mapa podem ocorrer em diferentesníveis e escalas.Grande parte do mapeamento digital do uso do solo, a nível regional, vem sendorealizado através de imagens de sensoriamento remoto. Técnicas de classificaçãosupervisionada associadas ao processamento digital de imagens tem dado bons resultados naextração de informação que compõem determinada região. No entretanto, todo o processo declassificação está sujeito a erros dos mais diversos tipos e fontes. A avaliação da acuráciados dados extraídos das imagens está diretamente relacionado com a qualidade domapeamento. Todas as classes que compõem a imagem ou o mapa temático devem serassociadas a um controle de qualidade para que estas possam ser validadas. Entende-se queum mapeamento temático só deva ser utilizado como fonte fidedigna de informações quandoassociados a processos de avaliação da acurácia dos dados que o compõem. Observa-se queraramente mapas temáticos provenientes de classificação digital ou mesmo dafotointerpretação apresentam um relatório de acurácia das informações, apesar da maioria dossoftwares de processamento digital de imagem possuírem ferramentas para tal fim.Erros podem ocorrer em diferentes níveis, ou seja, desde a aquisição de dados,processamento até na verificação dos resultados obtidos. Estes diferentes tipos de erros muitasvezes não são distinguíveis mensuráveis. Na obtenção dos dados a partir de imagens desatélite os erros podem ser primários ou secundários. Erros primários são ocasionados devidoa sensor, condições do meio (variações de temperatura, umidade, iluminação) e ainda nainterpretação da imagem. Existem, também os erros secundários, que são introduzidosatravés do processamento dos dados e sua reprodução. A classificação automatizada deimagens de alta resolução pode conter erros temáticos muitas vezes superiores àsimagens de média resolução quando aplicado o classificador maxver.• No processamento podem ocorrer erros na correção geométrica, sendo estes aindapodem ser devido a má definição dos pontos de controle e/ou no algorítmo deinterpolação dos elementos de imagem;• Áreas de treinamento mal definidas: caso as áreas de treinamento não foremhomogêneas e um mínimo de variância entre os níveis de cinza for obtido, naclassificação os elementos de imagem poderão ser agrupados errôneamente;• Elementos de imagem mistos são aqueles que representam mais de uma categoria.Ocorrem geralmente em bordaduras das classes;• Sobreposição de classes no espaço de atributos, daqueles que foram escolhidos deforma representativa;• Erros na classificação em função das condições topográficas e atmosféricas;• Categorização errada devido ao tipo de imagem e classificador utilizado.
  • 63. FUNDAMENTOS DE SENSORIAMENTO REMOTOEM AMBIENTE DE GEOPROCESSAMENTOProf. Alzir Felippe Buffara Antunes76A qualidade temática da imagem pode ser realizada por avaliação da acuráciaatravés coeficientes de concordância, sendo que estes podem ser expressos comoconcordância total ou para classes individuais.O coeficiente mais comum é o coeficienteKappa, usado para avaliar a grau de concordância entre a realidade do terrono ou de campocom as classes observadas na imagem temática. O coeficiente Kappa é determinado após amontagem da matriz de erros, ou seja, pás cada classe do mapa temático deve-se escolher umnumero de amostras e verificá-las em campos. Erros e acertos devem ser computados demaneira a calcular Kappa, de acordo com a equação geral abaixo:κ =−−o eeP PP1Seja, Po para toda a matriz de erros é dado pela razão do somatório da diagonalprincipal pelo número total de observações (N). Po pode ser traduzido pela proporção deunidades (pontos de referência) que concordam. Pc é expresso pelo somatório do produto doselementos das linhas e colunas marginais pelo número total de observações ao quadrado. Pctraduz a proporção de elementos atribuídos a determinada classe ao acaso. O valor positivo deKappa sugere que o valor observado de concordância é maior que a concordância ao acasoesperada. O valor κ= 1 ocorre quando houver total concordância entre os pontos de referênciae as categorias classificadas. Kappa é um valor abstrato, ou seja, mostra um tendência dequalidade da classificação, alguns autores comentam que o coeficiente de concordânciaaceitável para um mapa temático deve ser superior a 0,70. Deve-se considerar obviamente ocontexto de cada classificação para fixar nível ou índice de qualidade.
  • 64. FUNDAMENTOS DE SENSORIAMENTO REMOTOEM AMBIENTE DE GEOPROCESSAMENTOProf. Alzir Felippe Buffara Antunes777- SENSORIAMENTO REMOTO E SIGDe acordo com o que foi visto as imagens de satélite pode ser aplicada num projetode sistema de informações geográficas nas seguintes áreas:Atualização da base cartográfica;Analise espacial por álgebra de Mapas;Classificação digitalSeja qual for a aplicação a imagem deve ser sempre corrigida geometricamente eassociada ao sistema cartográfico de referência, a fim de se possa sobrepor à imagem outrasinformações.Uma imagem classificada a partir de imagem multiespectral possui uma tabela deatributos que pode ser associada à base de dados. Comumente uma imagem temática podeser convertida em formato vetorial baseado com topologia. A topologia permite relacionar osdiferentes vetores com fins de análise espacial, figura 49.Figura 49: Conversão matrical para vetor com topologia de polígonos.Imagem Temática Camada vetorial8- BIBLIOGRAFIAANTUNES, A.F.B. Object oriented analysis and semantic network for high resolution image classification.Boletim de Ciências Geodésicas. Volume 9, n 2, 2003.ANTUNES, A. F.B & LINGNAU, C. Análise da aplicabilidade da teoriat fuzzy para classificação deimagens de alta resolução. Anais II Colóquio Brasileiro de Ciências Geodésicas. UFPR. Curitiba. 2001.ANTUNES, F.B. Análise do uso do processamento digital de imagem na segmentação de tipologiasvegetais da APA de Guaraqueçaba-Pr. Dissertação de mestrado. Universidade Federal do Paraná. 1996ANTUNES, A . F.B & LINGNAU, C. Avaliação da acurácia de mapas temáticos oriundos da classificaçãodigital de imagem. VI Simpósio de Geoprocessamento. São Paulo. 1977.ANTUNES, A . F.B & LINGNAU, C. Curso de educação a distância em geoprocessamento. Apostila.IEP &Universidade Eletrônica do Paraná. Curitiba. 2002.ANTUNES, F.B. Avaliação da resolução temática de imagem híbrida resultante da fusão spot-landsat.Artigo PGCCG. Universidade Federal do Paraná. 1999
  • 65. FUNDAMENTOS DE SENSORIAMENTO REMOTOEM AMBIENTE DE GEOPROCESSAMENTOProf. Alzir Felippe Buffara Antunes78BARRETT, E. C.; CURTIS, L. Introduction to environmental remote sensing. Londres:Chapman & Hall.1992.CAMARA, G. Geoprocessamento para aplicações em meio ambiente. Salvador: Apostila . VII Simpósiobrasileiro de sensoriamento remoto. INPE, 1996.CRÓSTA, A. P. Processamento digital de imagens de sensoriamento remoto. Instituto de Geociências,UNICAMP. Campinas, 1993.CURRAN, P. J. Principles of remote sensing . 5ºed. Londres. Longman Scientific & Technical. 1995.DRURY, S. A. Image interpretation in geology. London: Allen & Unwin. 1987.ERDAS. Erdas field guide. Manual Erdas Imagine 8.6, Atlanta. 2002.GONZALEZ,R.C, WOODS, R. Processamento de imagens digitais. Editora Edgard Blucher Ltda. SPaulo.2000.HOFFER, R. M. Biological and physical considerations in applying computer-aided analysis techniques toremote sensor data. In: SWAIN, P.H; DAVIS, S.M. Remote Sensing –The quantitive approach. sanFrancisco, MacGraw-Hill, p.227-286. 1988.HUDSON,W. D.; RAMM, W. Correct formulation of Kappa coeficient of agreement. Photogrammetricengineering and remote sensing, nº4, p.421-422, 1987.INPE. Sensoriamento remoto. Aplicações para a preservação, conservação e desenvolvimento sustentávelda amazônia, CDROM, 2003.INPE, Setélite CBERS. www.inpe.br . acesso abril 2000.JANSEN, J. R. Introductary digital image processing. New Jersey : Prentice Hall. 1986.MULLER, J. P. Digital Image Processing. London: Taylor & Francis. 1988.RICHARDS, A. J. Remote sensing digital image analysis. Berlim: Springer- Verlag. 1997.ROBINSON, H.A et Al. Elements of Cartography. John Wiley & Sons, Inc. Sixth Edition, p127-158. 1995SABINS, F. F. Remote Sensing: Principles and Interpretation. San Francisco: W.H Freeman. 1987.ENGESAT, Sensor IKONOS. www.engesat.com.br. acesso maio 2005.WANG, Fangju. Fuzzy Supervised Classification of Romote Sensing Images. IEEE Transations onGeoscience and Remote Sensing. vol.28, pp194-201. 1990.USDA, FOREST SERVICE. Guidelines of the use of digital imagery for vegetation mapping. Salt LakeCity: Integration of Remote sensing Program Nationwide Forestry Application Program, 1994.