• Share
  • Email
  • Embed
  • Like
  • Save
  • Private Content
D kokubum cnc
 

D kokubum cnc

on

  • 353 views

 

Statistics

Views

Total Views
353
Views on SlideShare
353
Embed Views
0

Actions

Likes
0
Downloads
2
Comments
0

0 Embeds 0

No embeds

Accessibility

Categories

Upload Details

Uploaded via as Adobe PDF

Usage Rights

© All Rights Reserved

Report content

Flagged as inappropriate Flag as inappropriate
Flag as inappropriate

Select your reason for flagging this presentation as inappropriate.

Cancel
  • Full Name Full Name Comment goes here.
    Are you sure you want to
    Your message goes here
    Processing…
Post Comment
Edit your comment

    D kokubum cnc D kokubum cnc Document Transcript

    • UNIVERSIDADE ESTADUAL PAULISTA Faculdade de Ciências e Tecnologia Câmpus de Presidente Prudente ESTUDO DE MÉTODOS PARA CLASSIFICAÇÃO ELOCALIZAÇÃO PRECISA DE PADRÕES USANDO UM SISTEMA DE LUZ ESTRUTURADA Christiane Nogueira de Carvalho Kokubum Presidente Prudente 2004
    • UNIVERSIDADE ESTADUAL PAULISTA Faculdade de Ciências e Tecnologia Câmpus de Presidente Prudente Pós-Graduação em Ciências Cartográficas CHRISTIANE NOGUEIRA DE CARVALHO KOKUBUMESTUDO DE MÉTODOS PARA CLASSIFICAÇÃO ELOCALIZAÇÃO PRECISA DE PADRÕES USANDO UM SISTEMA DE LUZ ESTRUTURADA Dissertação apresentada ao Programa de Pós-Graduação em Ciências Cartográficas da Faculdade de Ciências e Tecnologia da UNESP, como parte dos requisitos exigidos para a obtenção do título de Mestre em Ciências Cartográficas. Orientador: Prof. Dr. Antonio M. G. Tommaselli Presidente Prudente 2004
    • RESUMOAlgumas das tarefas mais significativas em Visão Computacional e emFotogrametria Digital à curta distância estão associadas à segmentação, aoreconhecimento de objetos na imagem e à posterior reconstrução. Esta dissertaçãoapresenta uma metodologia para a identificação e para a medição automáticas dealvos projetados em imagens tomadas à curta-distância, usando o sistema ativodenominado luz estruturada. Para a classificação de tais padrões, dois métodos decorrespondência são comparados: correspondência por padrão (template matching)e por assinatura. O método de correspondência por padrão consiste na classificaçãopor correlação, que mede a similaridade entre as janelas de referência e de buscautilizando uma função de correlação adequada. Os problemas existentes nestemétodo estão relacionados com os ruídos na imagem, variações de brilho,distorções geométricas, o grande número de padrões a serem comparados e aescolha do tamanho do padrão. O método de assinatura consiste na comparação darepresentação funcional unidimensional da fronteira do padrão. Este método deassinatura não varia em relação à translação, mas depende da rotação e damudança de escala. Para a localização precisa, dois métodos foram comparados:correspondência por mínimos quadrados e detector de cantos. O método decorrespondência por mínimos quadrados refina a correspondência obtida porcorrelação, estimando os parâmetros de transformação radiométricos e geométricosentre as janelas de referência e de pesquisa, de acordo com o critério de erro dosmínimos quadrados. Já o detector de cantos determina as coordenadas subpixelusando uma combinação dos operadores de Moravec e de Förstner. Experimentosrealizados com dados simulados e reais foram conduzidos com o objetivo deverificar a eficácia da metodologia com respeito à detecção e a localização precisa.Os resultados mostram que a metodologia de classificação funcionaadequadamente, identificando 98% de alvos em superfícies planas e 93% emsuperfícies oblíquas. Os métodos de correspondência por mínimos quadrados edetector de cantos mostraram-se equivalentes para a localização precisa.Palavras-chave: Correlação, correspondência por mínimos quadrados, luzestruturada, assinatura, reconhecimento de padrões, detecção de cantos.
    • ABSTRACTSome of the main tasks in computer vision and close range Photogrammetry arerelated to the processes of segmentation, object recognition in the image and laterreconstruction. The aim of this work is to study an automatic recognition system toidentify and to measure targets projected with a structured light system. For targetrecognition two methods are compared: template matching and the signaturemethod. The template matching method consists in the detection of area similarity bycorrelation. The idea of correlation is to compare the gray level distribution of a smallsub image with its homologous in the search image. In this paper, the function usedis the modified cross covariance which presented the best results. The problems inthis method are related to illumination differences between the two images, geometricdistortions, noise, the great number of templates to be compared and determinationof template size. The signature method is based in the analysis of the one-dimensional representation of target border. The signature depends on the rotationand the scale changes of the target. Two methods were compared for preciselocalization: LSM (least square matching) and corner detection. The idea of leastsquares matching is to minimize the gray level differences between the image patchand the matching window; the geometric and radiometric parameters from thetemplate to the matching window are determined in the adjustment process. Thecorner detection consists in the determination of the subpixel coordinates of cornersusing the Förstner and Moravec operators. Experiments were performed, in order toverify the performance of the methodology for detection and precise localization. Theresults showed that the classification works appropriately, identifying 98% of targetsin plane surfaces and 93% in oblique surfaces. Besides, the results of preciselocalization were equivalent in both methods: LSM and corner detection.Keywords: Template matching, structured light, signature, recognition of targets,corner detection.
    • LISTA DE FIGURASFIGURA 1 - Princípio de formação de uma imagem digital......................................... 25FIGURA 2 Definição do sistema de coordenadas de uma imagem digital............... 26FIGURA 3 Regiões definidas no processo de limiarização local.............................. 37FIGURA 4 Representação das magnitudes dos gradientes e do ângulo de direçõesdas bordas................................................................................................................ 39FIGURA 5 Máscaras usadas no operador de Sobel(a) Gradiente em x; (b) Gradienteem y.......................................................................................................................... 40FIGURA 6 - Janelas 3x3 mostrando os vetores de 0º, 45º, 90º e 135º, respectivamente................................................................................................................................. 42FIGURA 7 - Ferramenta de produção automotiva ...................................................... 47FIGURA 8 - Padrão desenvolvido por Dunn e Keizer (1989)...................................... 53FIGURA 9 - Detalhe do padrão binário projetado. ...................................................... 54FIGURA 10 - O padrão de iluminação composto de quatro primitivas. ....................... 54FIGURA 11 Pesquisa bidimensional de imagens correlatas. ................................... 59FIGURA 12 - Representação do pixel reamostrado.................................................... 69FIGURA 13 Padrões que reduzem a quantidade de parâmetros a seremdeterminados pelo modelo matemático mencionado nesta seção. (a) escala em y; (b)rotação; (c) duas escalas; (d) todos na direção y; (e) todos na direção y e escala emx; (f) todos................................................................................................................. 70FIGURA 14 Fronteiras e suas respectivas assinaturas............................................ 71FIGURA 15 Assinatura: (a) Princípio da construção (b) Assinaturas para um círculo eum triângulo. ........................................................................................................... 71FIGURA 16 Alvo codificado...................................................................................... 78FIGURA 17 Seqüência das operações e processamentos realizados. ................... 80FIGURA 18 - Padrões primitivos. ................................................................................ 82FIGURA 19 Vizinhança dos padrões. ...................................................................... 83FIGURA 20 - Sistema sensor e projetor...................................................................... 84FIGURA 21 Configuração da janela do limiar local.................................................. 86FIGURA 22 Fluxograma do algoritmo de segmentação de padrões........................ 89FIGURA 23 - Padrão com diferentes rotações e idênticas assinaturas. ..................... 93FIGURA 24 Pontos iniciais dos padrões utilizados. ................................................. 93
    • FIGURA 25 Direções obtidas dos pontos................................................................. 94FIGURA 26 Exemplo de uma imagem de padrões. ............................................... 101FIGURA 27 - Dimensão dos padrões projetados em pixel........................................ 101FIGURA 28 Resultados da limiarização. (a) Imagem original; (b) Método deexpansão do histograma; (c) Método de transformação local. ............................... 102FIGURA 29 - (a) Imagem original (tomada de um dorso humano) com o sistema de luzestruturada; (b) Parte da imagem original; (c) (d) Limiarização com o método de Otsulocal; (e) (f) Limiarização com Pun local ................................................................. 104FIGURA 30 Resultados de imagens segmentadas. (a) Todos os alvos foramsegmentados. (b) Alguns alvos não foram segmentados. ...................................... 105FIGURA 31 Resultados da correspondência por correlação usando padrões binários(imagens invertidas). (a) Imagem dos alvos projetados em um cilindro; (b) Imagemrealçada de uma imagem sem variação de rotação; (c) Classificação dos alvos paraa imagem com padrões projetados distorcidos; (d) Imagem realçada de uma imagemcom variação na rotação; (e) Classificação dos alvos para a imagem com padrõesprojetados distorcidos............................................................................................. 110FIGURA 32 - Classificação dos alvos de um cilindro após a segmentação.............. 111FIGURA 33 - Classificação dos alvos após a segmentação de um dorso humano .. 111FIGURA 34 Resultados da correspondência por correlação usando padrõessuavizados pela média (imagens invertidas) (a) Imagem realçada de uma imagemsem variação de rotação; (b) Classificação dos alvos para a imagem sem variaçãoda rotação; (c) Imagem realçada de uma imagem com padrões projetadosdistorcidos; (d) Classificação dos alvos para a imagem com padrões projetadosdistorcidos. ............................................................................................................. 113FIGURA 35 Resultados da correspondência por correlação usando padrõesreamostrados (Padrões 23 pixels x 23 pixels) (imagens invertidas) (a) Imagemrealçada de uma imagem sem variação de rotação; (b) Classificação dos alvos paraa imagem sem variação da rotação; (c) Imagem realçada de uma imagem compadrões projetados distorcidos; (d) Classificação dos alvos para a imagem compadrões projetados distorcidos............................................................................... 115FIGURA 36 Reamostragem dos padrões primitivos sem moldura......................... 116FIGURA 37 Resultados da correspondência por correlação usando padrõesreamostrados sem bordas (Padrões 90 pixels x 90 pixels) (a) Imagem realçada deuma imagem sem variação de rotação; (b) Classificação dos alvos para a imagem
    • sem variação da rotação; (c) Imagem realçada de uma imagem com padrõesprojetados distorcidos; (d) Classificação dos alvos para a imagem com padrõesprojetados distorcidos............................................................................................. 117FIGURA 38 Resultados da correspondência por correlação usando padrõesreamostrados usando molduras (Padrões 90 pixels x 90 pixels) (a) Imagem realçadade uma imagem sem variação de rotação; (b) Classificação dos alvos para a imagemsem variação da rotação; (c) Imagem realçada de uma imagem com padrõesprojetados distorcidos; (d) Classificação dos alvos para a imagem com padrõesprojetados distorcidos............................................................................................. 118FIGURA 39 Extração de fronteiras usando o método de perseguição defronteiras.(a) Extração de fronteiras dos alvos projetados em um cilindro;(b) Detalheda imagem com as fronteiras dos alvos extraídos.................................................. 120FIGURA 40 - Assinatura dos padrões armazenados. ............................................... 121FIGURA 41 Assinaturas dos padrões e dos alvos segmentados........................... 123FIGURA 42 Resultado da classificação usando o método de assinatura. ............. 124FIGURA 43 - Localização precisa dos alvos usando padrões pré-definidos............. 126FIGURA 44 Localização precisa usando o método de reamostragem dos padrões................................................................................................................................ 127FIGURA 45 Localização precisa por detecção de cantos usando padrõesreamostrados.......................................................................................................... 128FIGURA 46 Uma das quatro imagens usadas para calibração da câmara............ 129
    • LISTA DE TABELASTABELA 1 Resolução espacial. ............................................................................... 24TABELA 2 Resolução radiométrica. ......................................................................... 25TABELA 3 Exemplos de aplicações de reconhecimento de padrões....................... 58TABELA 4 - Parâmetros de orientação interior calibrados.......................................... 85TABELA 5 - Padrões pré-definidos e as suas instâncias armazenadas. .................... 90TABELA 6 Exemplo de saída do reconhecimento de padrões. ............................. 129TABELA 7 - Métodos usados e respectivos erros médios quadrático usando apenasos alvos do tipo A. .................................................................................................. 131TABELA 8 Resultados da reconstrução usando o método de detector de cantos paratodos os cinco padrões........................................................................................... 132
    • CONTEÚDO CAPÍTULO I1. INTRODUÇÃO .................................................................................................. 18 1.1. Considerações iniciais ............................................................................ 18 1.2. Objetivos................................................................................................. 21 1.2.1. Objetivo geral....................................................................................... 21 1.2.1. Objetivos específicos ........................................................................... 21 1.3 . Estrutura do trabalho ............................................................................ 23 CAPÍTULO II2. IMAGENS DIGITAIS: AQUISIÇÃO E PROCESSAMENTO ............................... 24 2.1. Imagem Digital............................................................................................ 24 2.2. Câmaras digitais......................................................................................... 25 2.3. Sistemas de coordenadas .......................................................................... 26 2.4. Efeitos sistemáticos.................................................................................... 27 2.5. Melhoramento de contraste linear .............................................................. 29 2.5.1. Método de expansão do histograma.................................................... 29 2.5.2. Transformação local ............................................................................ 30 2.6. Segmentação ............................................................................................. 32 2.7. Limiarização ............................................................................................... 33 2.7.1. Método de Otsu ................................................................................... 34 2.7.2. Método de Pun..................................................................................... 36 2.7.3. Limiarização local ................................................................................ 37 2.8. Detecção de bordas ................................................................................... 38 2.8.1. Operadores de gradiente ..................................................................... 38 2.8.1.1. Operadores de Sobel .................................................................... 40 2.9. Detector de cantos ..................................................................................... 41 2.9.1. Operadores de interesse...................................................................... 41 2.9.1.1. Operador de Moravec.................................................................... 41
    • 2.9.1.2. Operador de Förstner .................................................................... 43 2.9.2. Técnica híbrida usada para detecção de cantos ................................. 44 CAPÍTULO III3. FOTOGRAMETRIA À CURTA DISTÂNCIA ....................................................... 46 3.1. Aplicações da Fotogrametria à curta distância ........................................... 46 3.2. Luz estruturada........................................................................................... 49 3.2.1. Técnicas utilizando o sistema de luz estruturada................................. 50 CAPÍTULO IV4. RECONHECIMENTO DE PADRÕES................................................................ 57 4.1. Correspondência por padrão (Template matching) .................................... 59 4.1.1. Funções básicas de correlação ........................................................... 60 4.1.1.1. Função covariância cruzada.......................................................... 61 4.1.1.2. Função covariância cruzada modificada ou coeficiente de correlação................................................................................................... 62 4.1.1.3. Função correlação cruzada ........................................................... 63 4.1.2. Correspondência por mínimos quadrados ........................................... 63 4.2. Correspondência por assinatura................................................................. 70 4.2.1. Determinação da discrepância entre as assinaturas ........................... 72 4.3. Outras técnicas para o reconhecimento de padrões .................................. 75 CAPÍTULO V5. MATERIAIS E MÉTODOS ................................................................................. 79 5.1. Materiais ..................................................................................................... 79 5.2. Métodos...................................................................................................... 80 5.2.1. Geração de padrões ............................................................................ 81 5.2.2. Coleta de dados................................................................................... 83 5.2.3. Limiarização local ................................................................................ 85
    • 5.2.4. Segmentação....................................................................................... 87 5.2.5 Classificação......................................................................................... 88 5.2.5.1 Correlação...................................................................................... 90 5.2.5.2 Assinatura ...................................................................................... 92 5.2.6. Localização precisa ............................................................................. 95 5.2.6.1. Método de correspondência de imagens por mínimos quadrados e reamostragem ............................................................................................ 95 5.2.6.2. Detecção de cantos....................................................................... 97 5.2.7. Critério para avaliação do método de localização precisa ................... 98 CAPÍTULO VI6. DESENVOLVIMENTO E IMPLEMENTAÇÃO.................................................. 100 6.1. Geração automática de padrões .............................................................. 100 6.2. Limiarização local ..................................................................................... 102 6.3. Segmentação ........................................................................................... 105 6.4. Classificação ............................................................................................ 106 6.4.1. Correspondência por correlação........................................................ 107 6.4.4.1. Comparação dos alvos segmentados com os padrões pré-definidos e com as suas instâncias armazenadas................................................... 108 6.4.4.2. Comparação dos alvos segmentados com os padrões pré-definidos suavizados e com as suas instâncias suavizadas armazenados ............. 112 6.4.4.3. Comparação dos alvos segmentados com os padrões pré-definidos reamostrados ........................................................................................... 113 6.5. Localização precisa .................................................................................. 125 6.5.1. Correspondência de imagens por mínimos quadrados...................... 125 6.5.2. Detecção de cantos ........................................................................... 127 CAPÍTULO VII7. CONCLUSÕES E RECOMENDAÇÕES.......................................................... 133REFERÊNCIAS BIBLIOGRÁFICAS .................................................................... 135
    • LISTA DE SIGLASA/D Analógico/DigitalAMD Advanced Micro DevicesCC Calibração de câmarasCCD Charge Coupled Device Dispositivo de carga acopladaDC Detector de cantosDPI Dots per inch Pontos por polegadasEMQ Erro médio quadráticoFAPESP Fundação de Amparo à Pesquisa do Estado de São PauloFCT Faculdade de Ciências e TecnologiaGB GigabytesMB MegabytesMMQ Método dos mínimos quadradosMQ Mínimos quadradosNC Nível de cinzaPPD Padrões pré-definidosPPP Pontos por polegadasPR Padrões reamostradosRAM Random Acess Memory Memória de acesso aleatórioUNESP Universidade Estadual PaulistaUPTK Unesp Photogrammetric ToolKit
    • 18 CAPÍTULO I1. INTRODUÇÃO1.1. Considerações iniciais Atualmente, a reconstrução tridimensional é um dos assuntos maisabordados na literatura relacionada à Fotogrametria Digital e a Visão Computacional. Há diversos sistemas para reconstrução 3D no mercado, porém,apresentam algumas das desvantagens: alto custo, necessidade de operadoresaltamente qualificados, impossibilidade de resposta em tempo real em curto períodode tempo e dificuldade de reconstrução em superfícies com texturas homogêneas. Pensando nestas desvantagens, decidiu-se criar um sistema quepossuísse as seguintes características: baixo custo e facilidade de operação comalto grau de automação. Dos vários sistemas de reconstrução pesquisados, aquelescujas características mais se aproximam destes requisitos são os sistemas dereconstrução por luz estruturada. Neste tipo de sistema utiliza-se uma fonte de luz,que projeta um padrão de luz conhecido na cena medida. Inicialmente, um sistema de reconstrução composto por uma câmaradigital Kodak DC 40 e um projetor de padrões foi construído. Os padrões projetadospara este sistema eram brancos e circulares. A identificação automática para estesalvos é fácil, porém, nos objetos de superfícies com relevo muito irregular ocorreramChristiane N. C. Kokubum
    • 19oclusões de alguns alvos, acarretando em incorretas identificações (TOMMASELLI,1997). Uma solução para este problema de oclusão de padrões foi usar padrõescoloridos com três diferentes formas, porém, em superfícies coloridas, alguns alvosficaram oclusos dificultando na sua identificação (SCALCO, 2000). Observando estes inconvenientes em trabalhos anteriores, resolveu-se usar padrões brancos com cinco diferentes formas neste trabalho. Além disso, umsistema formado por uma câmara de maior resolução foi criado para a captura daimagem em substituição à câmara anterior. Como a reconstrução tridimensional é uma etapa muito complexa,dividiu-se o processo em duas etapas: reconstrução 3D e reconhecimento depadrões. A etapa em que consiste esta dissertação objetiva encontrar um métodoapropriado para a identificação e a medição automática de alvos, em uma ou maisimagens, procedimento fundamental na reconstrução. As vantagens da automaçãodestes processos são: processos fotogramétricos mais flexíveis, maior agilidade emenor possibilidade de ocorrer erros grosseiros uma vez que é menor a intervençãodo operador. Além disto, alguns métodos permitem, ainda, a medição dascoordenadas com precisão subpixel. Para a identificação e medição de alvos, um dos métodos maisutilizados é a correspondência por padrão (template matching). Achar um padrão naimagem vincula detecção (métodos de correlação cruzada e correlação baseada emfeições), localização precisa (métodos baseados em áreas e métodos baseados emfeições) e verificação. A correlação mede a similaridade de uma máscara dereferência com uma janela de busca utilizando uma função de correlação adequada.Já a correlação por mínimos quadrados procura refinar esta correspondência pelaestimação dos parâmetros de transformação radiométricos e geométricos entre asChristiane N. C. Kokubum
    • 20janelas de referência e de pesquisa, de acordo com o critério dos mínimosquadrados. Esses métodos baseados em área são sensíveis ou afetados porproblemas como: - Iluminação não adequada; - Distorção dos padrões; - Ruídos; - Tamanho da janela de referência; e, - Grande número de janelas de referência a serem comparadas. Por estes problemas mencionados acima, resolveu-se comparar osmétodos de classificação por correlação com o método de assinatura e o método delocalização precisa por mínimos quadrados com os por detector de cantos. A assinatura é um método de correspondência que consiste nacomparação da representação funcional unidimensional de uma fronteira. Há váriasmaneiras de se adquirir uma assinatura. Uma das mais fáceis de obtê-la é a partir dográfico da distância da fronteira do alvo ao centróide em função da direção. Estaassinatura não varia em relação à translação, mas depende da rotação e mudançade escala (GONZALES e WOODS, 2000). A eficácia deste processo depende dosoperadores que são utilizados para a etapa de extração de feições. A detecção de cantos, neste trabalho, é obtida pela combinação dedois operadores: Moravec e Förstner. O operador de Moravec gera coordenadascom precisão pixel que são posteriormente usadas como coordenadas aproximadaspara a determinação subpixel das coordenadas com o operador de Förstner.Christiane N. C. Kokubum
    • 21 Os experimentos são apresentados e discutidos, mostrando asvantagens e desvantagens de cada metodologia, além de indicar o método maiseficaz para a detecção e localização precisa para os tipos de alvos usados.1.2. Objetivos1.2.1. Objetivo geral Este trabalho tem como objetivo o estudo e o desenvolvimento demétodos de classificação e de localização automáticos de alvos em imagenstomadas à curta-distância usando o sistema de luz estruturada.1.2.1. Objetivos específicos Implementar programas relacionados aos métodos de reconhecimento e localização automáticos de alvos em imagens tomadas à curta-distância: - Geração automática de padrões para criação de fotolitos, os quais serão projetados na cena desejada, usando o sistema de luz estruturada;Christiane N. C. Kokubum
    • 22 - Limiarização local da imagem; - Segmentação da imagem por crescimento de regiões; - Determinação da fronteira pelo método de perseguição de fronteiras; - Assinatura; - Correspondência por correlação; - Correspondência por mínimos quadrados. Realizar experimentos para comparação dos resultados: - Comparação dos métodos de correlação e de assinatura para a detecção automática dos alvos projetados; - Comparação dos métodos de mínimos quadrados e de detector de cantos para a localização automática precisa dos alvos; - Análise dos métodos a partir da comparação das discrepâncias dos dados a partir de uma reconstrução. Integração à biblioteca de classes e de funções UPTK (Unesp Photogrammetric ToolKit) desenvolvida no Departamento de Cartografia.Christiane N. C. Kokubum
    • 231.3 . Estrutura do trabalho Este trabalho é composto de sete capítulos. No primeiro capítuloapresenta-se uma abordagem geral sobre algumas técnicas empregadas e os seusproblemas para realização do reconhecimento automático de alvos. No segundo capítulo, efetua-se uma revisão a respeito de imagensdigitais e os conceitos envolvidos em sua aquisição. No capítulo seguinte, é feita uma revisão a respeito da Fotogrametriaà curta distância, suas aplicações, além de enfatizar o método ativo denominado luzestruturada. No quarto capítulo são revisados alguns métodos de detecção e delocalização precisa utilizados no trabalho. No quinto capítulo são apresentados os materiais utilizados nodesenvolvimento do trabalho, bem como os métodos desenvolvidos eimplementados. O sexto capítulo descreve o desenvolvimento, a implementação e osexperimentos realizados da metodologia discutida anteriormente. O sétimo capítulo traz as considerações finais e as recomendaçõespara os futuros trabalhos nesta área de pesquisa.Christiane N. C. Kokubum
    • 24 CAPÍTULO II2. IMAGENS DIGITAIS: AQUISIÇÃO E PROCESSAMENTO2.1. Imagem Digital Segundo Schenk (1999), imagem é uma função contínua F x, y naqual as coordenadas x, y são as variáveis espaciais e o valor da função são osníveis de cinza. A discretização desta função resulta na imagem digital com umafunção discreta f x, y . A qualidade de uma imagem depende de dois fatores: - Resolução espacial: relacionada com o tamanho do pixel e é freqüentemente expressa em ppp (pontos por polegadas; dpi - dots per inch). Na Tabela 1 pode-se observar a dimensão do pixel para diferentes resoluções. TABELA 1 Resolução espacial. ppp 300 600 1200 1270 2540 Tamanho do pixel ( m) 84 42 21 20 10 - Resolução radiométrica: Depende dos níveis de quantização (transformação da função contínua em valores de cinza discretos)Christiane N. C. Kokubum
    • 25 empregados. A Tabela 2 mostra o número de bits necessários para representar certos níveis de cinza. TABELA 2 Resolução radiométrica. n Bits 1 2 3 4 5 6 7 8 2n Níveis de cinza 2 4 8 16 32 64 128 2562.2. Câmaras digitais Segundo Tommaselli et al (2000), câmaras digitais são dispositivoscompostos de um sistema de lentes, um chip sensor, que pode ser do tipo CCD(Charge Coupled Device) ou CMOS (Complementary Metal Oxide Semiconductor),processadores e uma memória para a coleta e armazenamento de imagens digitais.O princípio de formação de uma imagem digital pode ser observado na Figura 1. Sensor CCD Conversor Eixo óptico Circuitos Analógico/ Frame eletrônicos Digital buffer (A/D) Sistema de Filtro lentes colorido FIGURA 1 - Princípio de formação de uma imagem digital. (Adaptado de TOMMASELLI et al, 2000)Christiane N. C. Kokubum
    • 26 O conversor A/D possui como objetivo transformar o sinal elétricoanalógico gerado pelo CCD em um sinal digital, que é armazenado em uma memóriatemporária (frame buffer).2.3. Sistemas de coordenadas O sistema de coordenadas de uma imagem digital é um sistemaplano-retangular com origem no canto superior esquerdo, sendo o eixo dasabscissas coincidente com a primeira linha e o eixo das ordenadas com a primeiracoluna (Figura 2). Para realização de procedimentos fotogramétricos com as imagensdigitais, utiliza-se um sistema intermediário (x, y) com origem definida no centro daimagem (Figura 2). 0 j (colunas) x Centro da imagem i (linhas) FIGURA 2 Definição do sistema de coordenadas de uma imagem digital.Christiane N. C. Kokubum
    • 27 A transformação das coordenadas do sistema imagem para osistema intermediário depende de uma translação entre as origens dos sistemas,uma reflexão no eixo das ordenadas e um fator de escala equivalente ao tamanhodo pixel, a fim de estabelecer as coordenadas num sistema métrico (Equação 1). x ( j cx ) * S x (1) y (i c y ) * S yOnde: W 1cx 2 H 1cy 2x, y coordenadas referidas ao sistema intermediário;i, j coordenadas referidas ao sistema da imagem;c x , c y - coordenadas do centro da imagem no sistema de imagem;H ,W números de linhas e colunas, respectivamente;SxSy dimensões do pixel nas componentes x e y, respectivamente.2.4. Efeitos sistemáticos No processo de formação de uma imagem digital, há efeitossistemáticos que produzem distorções, com causas e características distintas. EstesChristiane N. C. Kokubum
    • 28efeitos ocorrem com freqüência e podem ser modelados matematicamente, a fim deque se possam minimizar os efeitos de afastamento da geometria projetiva. Alguns dos efeitos sistemáticos existentes na formação das imagensdigitais, segundo Galo (1993) e Mikhail et al (2001) são: - Deslocamento do ponto principal; - Distorção das lentes. O deslocamento do ponto principal ocorre pela não coincidência doeixo óptico com o centro da imagem. Segundo Mikhail et al (2001), a distorção das lentes é a aberraçãomais relevante para a prática fotogramétrica. Estas distorções são causadas pelosdesvios dos raios que, ao atravessar em um sistema de lentes, prejudicam ageometria por meio de deslocamentos na imagem. Esta aberração pode ser divididaem: distorção radial simétrica e distorção descentrada. A distorção radial simétrica é o deslocamento radial de um ponto naimagem, isto é, uma mudança no ângulo entre o raio de luz e o eixo óptico sofridapor um raio de luz ao atravessar uma lente ou um sistema de lentes (MIKHAIL et al,2001). A distorção descentrada é um deslocamento da imagem advindo daimpossibilidade do fabricante em alinhar perfeitamente os eixos ópticos das lentesde uma objetiva.Christiane N. C. Kokubum
    • 292.5. Melhoramento de contraste linear O melhoramento de contraste linear consiste no processamento deuma imagem, de modo que o resultado seja mais apropriado para uma aplicaçãoespecífica do que a imagem original. O contraste nas imagens é afetado pelailuminação não homogênea e abertura incorreta do diafragma da câmara durante aaquisição da imagem. É normalmente usado como uma etapa de pré-processamentopara sistemas de reconhecimento de padrões (GONZALES e WOODS, 2000). Dentre os métodos existentes para solucionar este problemaencontram-se: método denominado expansão do histograma, método de contrastelinear percentual e método de transformação local.2.5.1. Método de expansão do histograma Este método de melhoramento ocupa todo o intervalo de cinza, nãoprovocando nenhuma perda. Esta operação é realizada a partir de uma interpolaçãolinear (Equação 2) (SPRING, 2003). Gi Gmin Gt * maior _ nivel (2) Gmax GminChristiane N. C. Kokubum
    • 30Onde:Gmin menor nível de cinza encontrado na imagem;Gmax maior nível de cinza encontrado na imagem;Gi nível de cinza original de um pixel na imagem;Gt nível de cinza resultante de um pixel após a transformação;maior_nível indica o maior nível de quantização disponível. Por exemplo: se aimagem possui 8 bits, o maior nível é dado por 28 1 = 255. Outra forma de melhoramento do contraste é denominada decontraste linear percentual. Este processo é utilizado quando se deseja especificaros valores de G min e Gmax para realçar determinado intervalo de cinza. Neste caso,utiliza-se uma certa percentagem de pixels a partir da média do histograma. Oproblema deste processo é a perda de informação em benefício do realce dainformação que se deseja realçar. Além disso, como escolher a percentagem depixels a se trabalhar porque depende da imagem original (GONZALES e WOODS,2000).2.5.2. Transformação local Os métodos mostrados na Seção 2.4.1 são globais no sentido de queos pixels são modificados através de uma função de transformação baseada nadistribuição dos níveis de cinza sobre uma imagem inteira, não garantindo o realcelocal desejado. Uma transformação local baseada nas propriedades de intensidadesChristiane N. C. Kokubum
    • 31da média e do desvio-padrão de pixels pode ser observada na Equação 3(GONZALES e WOODS, 2000). g x, y A x, y f x, y m x, y m x, y (3)Onde:A x, y kM / x, y ;f x, y - níveis de cinza da imagem original;g x, y - níveis de cinza da imagem resultante;m x, y - nível de cinza médio calculado numa vizinhança centrada em x, y ; x, y - desvio-padrão calculado numa vizinhança centrada em x, y ;M - média global de f x, y ;k - constante variando no intervalo 0,1 . Este método possui um melhor resultado em relação ao método deexpansão do histograma pelo fato de realizar um melhoramento local, porém, possuiuma desvantagem na automação do processo, já que, a constante k a ser sugeridadepende das características da imagem original.Christiane N. C. Kokubum
    • 322.6. Segmentação A segmentação consiste em subdividir uma imagem em regiõeshomogêneas usando propriedades desejadas como: nível de cinza, cor ou textura.Os principais objetivos da segmentação são reduzir a quantidade de dados a seremprocessados na análise de imagens e obter importantes informações a respeito deobjetos e feições contidas nelas (EL-HAKIM, 1996). Os métodos de segmentação podem ser divididos em dois tipos:baseados em bordas e baseados em regiões (SONKA et al, 1998). Os métodos de segmentação baseados em bordas procuramdiscriminar os objetos pelos contornos detectados a partir das descontinuidades emalgumas das propriedades. O problema deste método está no fato de não haverpixels com valores de gradientes nulos, resultante de ruídos ou variações deiluminação. Os métodos de segmentação baseados em regiões procuram dividira imagem em regiões que devem corresponder às áreas de interesse da aplicação.Estas regiões consistem no conjunto de pixels contíguos que se espalhambidirecionalmente e que apresentam uniformidade (SPRING, 2003). O método maisconhecido para este tipo de segmentação é o crescimento de regiões. Este métodoconsiste em agrupar pixels vizinhos que apresentam regiões homogêneas segundocritérios de similaridade. Um dos critérios que pode ser usado é comparar se amédia e o desvio-padrão dos níveis de cinza de duas regiões e verificar se estesvalores são estatisticamente compatíveis.Christiane N. C. Kokubum
    • 33 Para o reconhecimento de padrões, a etapa de segmentação éinteressante porque não necessita que cada alvo armazenado percorra toda aimagem comparando os níveis de cinza, otimizando o processo, evitando diferentesrespostas para o mesmo tipo de alvo e proporcionando resultados mais confiáveis.2.7. Limiarização Segundo Gonzales e Woods (2000), a etapa de limiarização é umadas abordagens mais importantes para a segmentação de imagens. A limiarização pode ser resolvida a partir de técnicas globais e locais.As técnicas globais consistem em determinar um único limiar para toda a imagem. Aescolha da modificação dos níveis de cinza depende da significância do objeto naimagem. Isto é, caso o objeto significativo possua valores de níveis de cinza altos,todos os valores acima do limiar permanecem com o nível de cinza original e abaixodeste limiar recebem zero. Porém, esta técnica traz problemas causados pela reflectância,sombras e iluminação não adequada. O sucesso deste método depende de umhistograma bimodal. Uma das maneiras de determinar o limiar (T) é a partir da média (m)e do desvio-padrão (s) dos níveis de cinza da imagem, a partir da Equação 4. T m 3s (4)Christiane N. C. Kokubum
    • 34 Uma melhor alternativa, portanto, são as técnicas locais, queconsistem em determinar um limiar para cada região da imagem, que pode serdelimitada por uma janela. Outras técnicas destinadas à obtenção de um valor de limiar sãodescritas resumidamente nas seções seguintes. Para maiores detalhes ver Sonka etal (1998) e Artero (1999).2.7.1. Método de Otsu O método de Otsu é baseado na análise discriminante e o valor dolimiar é obtido supondo que os pixels da imagem podem ser classificados em duasclasses: fundo ( C1 :níveis de cinza no intervalo 1, t ) e objeto ( C 2 :níveis de cinza nointervalo t 1, L ) (OTSU, 1979). Neste caso, a distribuição de probabilidade deambas as classes podem ser descritas por: p1 p pt 1 pL C1 : ,..., t e C2 : ,..., (5) 1 t 1 t 2 t 2 tOnde: t L 1 t pi e 2 t pi i 1 i t 1Christiane N. C. Kokubum
    • 35 As médias para as classes C1 e C2 são dadas por: t L i. p i i. p i 1 e 2 (6) i 1 i t i t 1 2 t Sendo T a intensidade média para toda a imagem, então: 1 t 1 2 t 2 T (7) e 1 t 2 t 1 (8) Utilizando a análise discriminante, a variância entre as classes daimagem limiarizada é definida por: 2 2 2 B 1 t 1 2 2 t 2 1 (9) O limiar ótimo t* é determinado como sendo aquele cuja variância 2entre as classes B é máxima, isto é: 2 t* arg max B t ,1 t L (10)Christiane N. C. Kokubum
    • 362.7.2. Método de Pun O método de Pun está relacionado com a teoria da informação, quese baseia na premissa de que a geração de informação pode ser modelada comoum processo probabilístico (GONZALES, 1993). A partir desta teoria, define-se a entropia da imagem como: Entropia x x log x (11) Como neste método pretende-se segmentar em duas classes (fundoe objeto), têm-se duas entropias (Equação 12). t Hb p i log e p i (12) i 0 l 1 Hw p i log e p i i t 1 O limiar, neste método, é obtido por: T ArgMaximo H b t Hw t (13)Christiane N. C. Kokubum
    • 372.7.3. Limiarização local Artero (1999) utilizou uma técnica de limiarização local da imagemque consiste em determinar um limiar utilizando os pixels pertencentes a uma janelade 60 pixels x 60 pixels. O valor de limiar assim obtido é utilizado para todos ospixels localizados na região central desta janela (uma região de tamanho 20 pixels x20 pixels). As dimensões destas janelas foram definidas empiricamente e podem seralteradas dependendo das características da imagem. Como algumas regiões não possuem todos os blocos vizinhos,algumas alterações devem ser realizadas no momento da implementação. No total,são nove regiões da borda da imagem que necessitam ser diferenciada em relaçãoao tamanho da máscara a ser percorrida e a região que será alterada pelo limiardeterminado (Figura 3). Situação 1 Situação 2 Situação 3 40x40 60x40 40x40 20x20 20x20 20x20 20x20 Situação 5 Situação 6 60x60 1 2 2 2 ... 2 3 40x60 4 5 5 5 ... 5 6 20x20 Situação 4 20x20 4 5 5 5 ... 5 6 40x60 ... ... ... ... ... 5 6 4 5 5 5 ... 5 6 Situação 9 7 8 8 8 ... 8 9 40x40 Situação 7 40x40 Situação 8 20x20 60x40 20x20 20x20 FIGURA 3 Regiões definidas no processo de limiarização local. (Fonte: ARTERO, 1999).Christiane N. C. Kokubum
    • 382.8. Detecção de bordas A etapa de detecção de bordas é essencial para o cálculo dascoordenadas subpixel. Este método consiste na aplicação de um detector de bordas,que normalmente é baseado na aplicação de operações de detecção de variaçõesde brilho na imagem. Para a detecção de bordas, os operadores de gradiente sãoimprescindíveis. Estes gradientes são apresentados a seguir.2.8.1. Operadores de gradiente Segundo Gonzales e Woods (2000), o gradiente ( f ) de umaimagem f x, y na posição x, y é dado pelo vetor na Equação 14. f Gx x f f (14) Gy yOnde:Gx , G y gradientes em x e y, respectivamente. Nos métodos de detecção de bordas, a magnitude deste vetor émuito importante porque o alto valor da magnitude indica a presença de bordas, istoChristiane N. C. Kokubum
    • 39é, uma grande variação entre os níveis de cinza na imagem. A magnitude destevetor é obtida pela raiz quadrada da soma dos quadrados dos gradientes em x e y(Equação 15). f (Gx) 2 (Gy ) 2 (a) (15) f Gx Gy (b) Outro valor importante na detecção de bordas é a direção do vetor( ) para cada pixel em relação ao eixo x. Este ângulo é determinado pela Equação16. Gy arctg (16) Gx A representação geométrica das grandezas calculadas nas Equações15a e 16 pode ser percebida por meio da Figura 4. Gx Magnitude Gy FIGURA 4 Representação das magnitudes dos gradientes e do ângulo de direções das bordas.Christiane N. C. Kokubum
    • 402.8.1.1. Operadores de Sobel O operador de Sobel é definido com valores maiores na parte centraldas máscaras, o que equivale, considerar que os pixels centrais têm uma maiorinfluência em relação aos pixels das bordas. Os gradientes são determinados a partirde duas máscaras representando os gradientes em x e y. Estas máscaras podemser observadas na Figura 5. -1 0 1 -1 -2 -1 -2 0 2 0 0 0 -1 0 1 1 2 1 (a) (b) FIGURA 5 Máscaras usadas no operador de Sobel. (a) Gradiente em x; (b) Gradiente em y. Uma vantagem do operador de Sobel em relação a outrosoperadores de gradiente é conseguir detectar bordas em qualquer direção. A detecção de bordas, neste método, consiste em realizar aconvolução das máscaras na imagem desejada. Para cada convolução, determinam-se os gradientes em x e y para o pixel central. No final do procedimento, a imagemresultante dos gradientes possui o mesmo tamanho da imagem original. Como emcada convolução, os gradientes em x e y são determinados apenas para os pixelscentrais, uma implementação utilizando-se as vizinhanças parciais é necessária paradeterminar os gradientes nas bordas da imagem.Christiane N. C. Kokubum
    • 412.9. Detector de cantos2.9.1. Operadores de interesse Os operadores de interesse podem ser definidos como um operadorde vizinhança que objetiva localizar com uma alta precisão as coordenadas pixel ousubpixel (HARALICK e SHAPIRO (1993) apud GALO e TOZZI (2002)). Dentre osdiversos operadores de interesse pode-se citar: operador de Moravec e operador deFörstner.2.9.1.1. Operador de Moravec Este operador baseia-se na medida de variância direcionalconsiderando os quadrados das diferenças de tons de cinza em quatro direções: 0º,45º, 90º e 135º (Figura 6). Levando-se em conta uma janela com n x n pixels e admitindo que oelemento inteiro (n/2, n/2) é o pixel central, pode-se obter a resposta do operador deinteresse Moravec pelo cálculo das equações 17.Christiane N. C. Kokubum
    • 42 (0,0) C LFIGURA 6 - Janelas 3x3 mostrando os vetores de 0º, 45º, 90º e 135º, respectivamente (GALO e TOZZI, 2002). 2N 2N 1 2 V0 g (r , c) g (r , c 1 nn 1 r 0c N N 2N 1 2 V45 2 g (r , c) g (r 1, c 1 n 1 r 0c N OI [r ][c] min N 2N (17) 1 2 V90 g (r , c) g (r 1, c nn 1 r 0 c 0 N N 1 2 V135 2 g (r , c) g (r 1, c 1 n 1 r 0 c 0Onde:r, c - linhas e colunas da imagem, respectivamente;g (r , c) - níveis de cinza para posição (r , c) ;N (n 1) / 2 ; e,OI operador de interesse. A Equação 17 determina, para cada ponto da imagem, o valormínimo do operador de interesse nas quatro direções. A partir do valor do operadorde interesse obtido na Equação 17, para cada ponto da imagem, os máximos locaisde OI r c podem ser encontrados. Pixels com valores de OI r c superiores a umChristiane N. C. Kokubum
    • 43limiar pré-estabelecido correspondem a pontos de quina. O resultado deste operadorserão as coordenadas dos cantos com precisão pixel. Vale ressaltar que o uso de janelas de dimensão ímpar (Equação17) não é uma restrição do operador de Moravec, mas uma opção de Galo e Tozzi(2002). Esta restrição deve ao fato de se ter escolhido o pixel central da janela comoorigem, sendo a janela simétrica a este ponto.2.9.1.2. Operador de Förstner Para determinação da posição das quinas com acurácia subpixelpode-se usar o fato de que uma quina é formada pela intersecção de pelo menosdois segmentos lineares, isto é, a quina é localizada pela intersecção dos vetoresperpendiculares às direções de máximo gradiente sobre as bordas. Um dos operadores mais usados para detecção de quinas(operadores de interesse) é o operador de Förstner. As coordenadas destes operadores de interesse (cantos) sãodeterminadas com precisão subpixel usando a Equação 18. (FÖRSTNER, 1988apud GALO e TOZZI, 2002). 2 1 2 L0 g Li g Li g Ci Li g Li Ci g Li g Ci 2 2 (18) C0 g Li g Ci g Ci Ci g Ci Li g Li g CiOnde:L0, C 0 - coordenadas dos cantos com precisão subpixel;Li , C i - coordenadas do pixel de uma janela m x m;Christiane N. C. Kokubum
    • 44g Li , g Ci - gradientes em y e x, respectivamente. Como pode ser observado na Equação 18, a estimação da posiçãodos cantos com precisão subpixel depende das posições com precisão pixel e osgradientes ao longo das linhas e colunas. Os gradientes em x e y podem serdeterminados a partir dos operadores de Sobel (Seção 2.7.1.1). A matriz inversa 2 x 2 na Equação 18 pode ser vista como a matrizvariância-covariância do ajustamento. Esta matriz pode ser usada para obter a elipsedos erros associada à quina L0 ,C 0 e fazer a discriminação de pontos comdiferentes características (HARALICK e SHAPIRO, 1993 apud GALO e TOZZI,2002).2.9.2. Técnica híbrida usada para detecção de cantos Galo e Tozzi (2002) desenvolveram um método para a extração depontos com acurácia subpixel em imagens digitais usando uma combinação dosmétodos de detecção de quinas: Moravec e Förstner. Primeiramente, detectam-seos cantos usando o operador de Moravec com precisão pixel que são usados,posteriormente, como pontos iniciais para obtenção das coordenadas de cantossubpixel. Esta etapa é realizada normalizando a matriz dos valores de OI (Equação17) no intervalo 0,255 e fazendo-se a supressão dos não máximos aplicando-se umcerto limiar que pode ser expresso de modo percentual (Tp). Os pixels com níveis deChristiane N. C. Kokubum
    • 45cinza superiores ao limiar ( Lim Tp ) determinado são rotulados como pixelsprováveis de serem de quinas. 255 Lim T p 100 TP * (19) 100 Com esta segmentação, a imagem original fica subdividida em duasclasses. Como em torno das quinas tem-se um conjunto de pontos, podem-seagrupar estes pontos e usar o centro de massa destas regiões como posiçõesaproximadas das quinas. O centro de massa de cada região é então rotulado como255 e, portanto, tem-se como resultado uma imagem composta de três classes.Estes pixels com rótulos iguais a 255 são usados como centro da janela a serselecionada para o cálculo das coordenadas subpixel usando o operador deFörstner (Seção 2.8.1.2). Um cuidado a ser tomado, neste procedimento, estárelacionado ao tamanho da janela a ser selecionada para determinação dosgradientes em x e y. Caso a janela a ser selecionada seja muito pequena, alocalização precisa torna-se precária; porém, se a janela for muito grande também,pode-se capturar dados que não façam parte do canto a ser determinado,deteriorando os resultados. Outro cuidado que merece atenção é o fato de se usarlimiar global para a supressão dos não máximos. Uma solução para evitar quequinas em regiões de baixo contraste sejam selecionadas é realizar todos osprocedimentos em áreas locais selecionadas da imagem. Outro problema existente é advindo da aquisição da imagem,acarretando em cantos arredondados e dificultando na intersecção das retas.Christiane N. C. Kokubum
    • 46 CAPÍTULO III3. FOTOGRAMETRIA À CURTA DISTÂNCIA Fotogrametria terrestre é o ramo da Fotogrametria realizada comfotografias obtidas com câmaras situadas na superfície terrestre. Um caso especialda Fotogrametria terrestre, com fotografias tiradas até uma distância de 100 m, édenominado de Fotogrametria à curta distância (WOLF, 1983). Um método alternativo deste ramo da Fotogrametria e muitoutilizado para a identificação e medição automática de superfícies é o método ativodenominado luz estruturada. Este método possui como objetivo substituir uma dascâmaras por uma fonte de luz, facilitando no processo de determinação decorrespondência.3.1. Aplicações da Fotogrametria à curta distância As aplicações da Fotogrametria à curta distância encontram-se,principalmente, nas seguintes áreas: - Indústria: Os principais setores envolvidos, de acordo com Fraser (1996), englobam a fabricação de aeronaves e automóveis, asChristiane N. C. Kokubum
    • 47 indústrias aeroespaciais, químicas e nucleares e o controle de qualidade da produção. Peipe e Schneider (1995) apud Fraser (1996) aplicaram um sistemadenominado DPA-Win VM para inspeção das ferramentas de produção automotiva(Figura 7). A tarefa envolveu a medida de 30 suportes, os quais foram sinalizadoscom quatro alvos para obtenção dos parâmetros de orientação e posição. Uma redecomposta de 40 câmaras foi necessária para obter a cobertura total dos alvos parauma imagem com escala 1:50 e maior. A acurácia obtida após a triangulação porfeixes de raios foi de 0.05 mm ou 1:70.000.FIGURA 7 - Ferramenta de produção automotiva (PEIPE e SCHNEIDER (1995) apud FRASER (1996)). - Medicina: Utilizada na reconstrução e na determinação de formas e dimensões de órgãos e membros do corpo humano, inclusive com uso de ondas eletromagnéticas em outras faixas do espectro que abrange o visível, como por exemplo, os raios-X.Christiane N. C. Kokubum
    • 48 Wong et al (1992) apud Newton e Mitchell (1996) empregarammétodos fotogramétricos para estudar o crescimento e a distribuição de massacorporal. A cobertura completa foi obtida através de nove câmaras digitaisagrupadas 3 a 3. Cada conjunto de 3 câmaras formava um triângulo com distânciade 2 m do paciente. - Arquitetura: Utilizada na representação de fachadas ou elevações de monumentos históricos e estruturas. Segundo Dallas (1996), um exemplo de aplicação é o levantamentoda igreja St. Mary, North Yorkshire, realizado em 1994 pela agência governamentalresponsável pela preservação e gerenciamento de aproximadamente 400monumentos na Inglaterra denominada English Heritage. Nesta igreja, foi realizadauma cobertura estéreo, tanto na porção interior como exterior utilizando a câmaraUMK 30/1318 da Zeiss. - Arqueologia: Utilizada na reconstrução de objetos arqueológicos e achados de sítios arqueológicos. Segundo Dallas (1996), um exemplo desta aplicação foi à tomada defotos do navio Romano-Celta, encontrado próximo a Magor, a partir da câmara WildP31. No total, 15 fotografias foram necessárias. Hasegawa et al (1999) descreveram uma metodologia paradeterminação das coordenadas dos achados arqueológicos ao longo da margem doRio Paraná. As tomadas fotográficas realizadas nas trincheiras eram quase navertical e ocupavam geralmente uma área de um metro quadrado. A câmara usadaChristiane N. C. Kokubum
    • 49para este trabalho foi uma Kodak DC210. A etapa de reconstrução do objeto foirealizada usando as equações de colinearidade.3.2. Luz estruturada Segundo Battle et al (1996), a percepção de profundidade é uma dasetapas mais importantes da Visão Computacional. A necessidade de conhecerinformações 3D a respeito da superfície pode ser resolvida a partir de métodospassivos ou ativos, como já foi mencionado. Dentre os métodos ativos encontra-se atécnica denominada de luz estruturada. Segundo Newton e Mitchell (1996), esta técnica envolve o uso deum projetor e uma câmara, no qual o sistema de projeção é usado para projetar opadrão sobre o objeto na cena e uma câmara captura a imagem dos padrões quesão distorcidos pela superfície de projeção. O projetor é equivalente a segundacâmara usada na Fotogrametria e qualquer ponto projetado na cena com direção ecom identificação conhecidas pode ser reconstruído usando os princípios deintersecção dos raios de luz da Fotogrametria analítica (relação câmara-projetor). Adeterminação das relações geométricas existentes entre o sensor e os feixes deraios luminosos dos padrões projetados é conseguida por uma calibração desistema. O sistema de luz estruturada permite a reconstrução 3D para cada ponto devista, sendo necessária à combinação de vários pontos de vistas para criar ummodelo 3D completo do objeto. Uma das vantagens deste sistema é quando esteusa fontes de luz branca e conseqüentemente, não há a necessidade de cuidadosChristiane N. C. Kokubum
    • 50especiais de segurança, ao contrário de sistemas de varredura a laser, cuja luzpossui algum nível de radiação. Além disso, alguns sistemas de luz estruturadapossuem precisões compatíveis com o sistema laser. Como vantagem deste sistemahá a possibilidade de se capturar todos os alvos projetados e a imagem do objeto deuma só vez, não sendo necessário manter o objeto estático durante a aquisição.Também pode haver a necessidade de tomada de múltiplas posições para cobririnteiramente um objeto, quando ele for maior que o campo de cobertura do sensor. As vantagens deste sistema em relação a técnicasestereofotogramétricas estão relacionadas com (BATTLE et al, 1996): - Menor tempo entre a tomada de fotos e a resposta final; - Menor custo dos equipamentos; - Não necessidade de pessoas especializadas para manusear os equipamentos; e, - Menor dificuldade ao medir superfícies homogêneas.3.2.1. Técnicas utilizando o sistema de luz estruturada Muitas são as formas de identificar e medir pontos conjugados oucorrespondentes. A seguir, são descritas algumas técnicas para solucionar esteproblema, particularmente para sistemas à curta distância. Ballard e Brown (1982) descreveram a técnica de luz estruturada, naqual a superfície é seccionada por um plano de luz e a cena é imageadacontinuamente, enquanto a fonte de luz faz a varredura de toda a superfície. AChristiane N. C. Kokubum
    • 51vantagem é a simplificação do processo de extração de feições, uma vez queapenas uma linha aparece em cada imagem. O problema é a necessidade deimobilizar tanto o objeto quanto a câmara, durante o processo de aquisição deimagens. Hummel e Carrihill (1985) desenvolveram um sistema baseado noconceito de J. T. Schwartz, onde se pode reconstruir a profundidade a partir de duasimagens sem necessidade de resolver o problema de correspondência. Este sistemautiliza-se do princípio de plano de luz para reconstrução da geometria 3D, onde umponto objeto é determinado pela intersecção do plano vertical passando através docentro da lente do projetor e a linha de sinal determinada pela imagem da câmara.Este plano vertical é determinado de duas maneiras: com uma intensidade projetadauniformemente e com intensidades graduadas produzidas por um filtro linear. Keefe e Riley (1986) utilizaram o princípio de luz estruturada parareconstrução 3D de formas faciais. Este sistema projeta uma linha de pontosverticais gerada por um laser. A partir de um estereopar das imagens da face épossível reconstruir um contorno de uma parte desta. Wang et al (1987) introduziram uma abordagem para adeterminação das orientações da superfície com luz estruturada, semcorrespondência. Neste método, assume-se que a geometria da câmara e doprojetor podem ser aproximada por uma projeção ortográfica. A função de calibraçãodetermina a orientação relativa do plano da imagem da câmara, o plano do slide e oplano base. Dois padrões ortogonais de faixas paralelas são projetados sobre asuperfície do objeto. A orientação da superfície pode ser inferida das direções dasfaixas na imagem coletada pela câmara. Para cada padrão, uma injunçãogeométrica na orientação da superfície é obtida. Esta orientação pode ser obtidaChristiane N. C. Kokubum
    • 52pela intersecção das duas curvas na esfera gaussiana e interpoladas utilizando ainterpolação bicúbica. Portanto, a profundidade relativa pode ser determinada daorientação da superfície a partir da integração de uma equação diferencial. Boyer e Kak (1987) implementaram um esquema de código coloridoque projeta um padrão de faixas verticais vermelhas, verdes, azuis e brancas sobrea cena. O padrão projetado possui diversos subpadrões chaves. O padrão chavepode ser localizado na imagem da câmara usando um conjunto de correlatoresbinários. A localização dos padrões chaves serve como semente para indexar asfaixas vizinhas. Este método, como o de Scalco (2000), traz problemas pelo fato deutilizar alvos coloridos. Isto dificulta na identificação dos alvos se o fundo for colorido. Dunn e Keizer (1989), usando luz estruturada, recuperaram a formatridimensional de partes do corpo humano. Este sistema projeta uma gradequadrada de 35 mm que aparece distorcida na imagem coletada pela câmara devidoà curvatura e a variação na orientação da superfície. As coordenadas 3D sãodeterminadas pela intersecção das linhas da grade projetada seguida de umatriangulação. Este sistema realiza o processamento em quatro passos: - Determinação das matrizes de calibração da câmara e do projetor; - Processamento da imagem para localizar as interseções da grade na imagem da câmara; - Rotulação da grade; e, - Triangulação. O padrão desenvolvido por Dunn e Keizer (1989) pode serobservado na Figura 8. Este padrão apresenta problemas quando se trabalha comChristiane N. C. Kokubum
    • 53superfícies com descontinuidades porque as retas oblíquas são desconectadas naimagem, não havendo possibilidade de identificação do restante da imagem. FIGURA 8 - Padrão desenvolvido por Dunn e Keizer (1989). Schalkoff (1989) descreveu um sistema de reconstrução, com luzestruturada. Neste sistema utiliza-se de um projetor como câmara ativa que projetaum conjunto de raios no plano da imagem. O objetivo desta técnica é controlar ailuminação e simplificar o problema de determinação de correspondências. Osproblemas deste método estão relacionados com a modelagem geométrica dacâmara e do projetor. Oosterlinck e Vuylsteke (1990) desenvolveram um padrão deiluminação para determinar a posição espacial do ponto a partir de uma formabinária. O padrão de iluminação utiliza-se de dois níveis de intensidade (preto ebranco) que definem uma grade de pontos e marca cada ponto individualmente comum bit de codificação. Os pontos da grade a serem reconhecidos na cena sãolocalizados a partir da intersecção das bordas horizontais e verticais, isto é, ondeChristiane N. C. Kokubum
    • 54quatro quadrados se encontram. Cada quadrado do tabuleiro é marcado por umquadrado menor na forma de um sinal claro ou escuro. A escolha dos códigos debits para os pontos da grade é baseada em duas seqüências binárias. O tipo depadrão utilizado por Oosterlinck e Vuylsteke (1990) pode ser visto nas Figuras 9 e10. 0 1 62 FIGURA 9 - Detalhe do padrão binário projetado. (Fonte: OOSTERLINCK e VUYLSTEKE, 1990). 0+ 0- 1+ 1- FIGURA 10 - O padrão de iluminação composto de quatro primitivas. (Fonte: OOSTERLINCK e VUYLSTEKE, 1990). Maas (1992) usou luz estruturada para a medição de superfícies deobjetos que não apresentam textura na superfície. Neste método, trabalhou-se comdois tipos de objetos: um painel de carbono e um carro. Os padrões de luzestruturada são projetados sobre o objeto por um projetor de slides e a imagem écapturada por duas ou mais câmaras. O estabelecimento de correspondências érealizado usando informações de linhas epipolares. A quantidade de câmaras aserem usadas depende da superfície, dos valores aproximados das coordenadas edo número de pontos projetados.Christiane N. C. Kokubum
    • 55 Plassman (1995) apud Scalco (2000) utilizou luz estruturada para amedida de ulcerações cutâneas. O instrumento desenvolvido projeta uma seqüênciade faixas paralelas de luz sobre a superfície da ulceração. Estes padrões sãocapturados pela câmara e processados em um sistema computacional conectado aela. O mapa de profundidade é obtido por triangulação. Singh et al (1997) apud Scalco (2000) utilizaram o princípio de luzestruturada na medição de coordenadas 3D da superfície sem textura. Estascoordenadas são determinadas pela combinação de um método de limiarizaçãoconvencional e correlação por mínimos quadrados. Scalco (2000) utilizou o sistema 3DScan com o princípio de luzestruturada. Este sistema foi desenvolvido no Departamento de Cartografia daUnesp de Presidente Prudente (TOMMASELLI, 1997) e baseia-se na intersecçãodas retas projetantes, calculadas a partir de pontos homólogos na imagem e noprojetor, após a correspondência entre eles. A partir desta intersecção, ascoordenadas 3D dos pontos na superfície são determinadas. As coordenadas docentro do alvo são calculadas pela média geométrica entre os centros de massa. Oalvo deve ser maior que uma determinada área informada anteriormente para nãoser considerado um ruído. A imagem é varrida pixel a pixel e, ao ser encontrado umpixel colorido, este é rotulado e é obtido um centro inicial do alvo. A partir dosexperimentos realizados por Scalco (2000) com os algoritmos de correlação, algunsinconvenientes puderam ser percebidos como: - Necessidade de definir diferentes imagens de referência para cada tipo de alvo;Christiane N. C. Kokubum
    • 56 - Necessidade de redefinir as imagens de referência para cada cena a ser reconstruída porque os alvos se modificam consideravelmente, limitando a automação do sistema; As vantagens deste processo são: - Confiabilidade equivalente a sistemas estéreo-fotogramétricos convencionais; - Componentes de baixo custo, disponíveis no mercado da informática; - Redução da complexidade do sistema devido à introdução do projetor de padrões, que possui geometria conhecida e que pode ser tratado como uma segunda câmara.Christiane N. C. Kokubum
    • 57 CAPÍTULO IV4. RECONHECIMENTO DE PADRÕES O reconhecimento de padrões consiste em dotar uma máquina coma capacidade de aproximar, em um determinado sentido, a capacidade similar dosseres humanos. Por exemplo, em um sistema para a leitura automática de imagensde documentos datilografados, os padrões de interesse são caracteresalfanuméricos, enquanto a meta é atingir uma dada precisão de reconhecimento decaracteres que sejam a mais próxima possível à excelente capacidade exibida porseres humanos na realização de tais tarefas (GONZALES e WOODS, 2000). Segundo JAIN et al (2000), o sistema de reconhecimento depadrões, na maioria das vezes, engloba cinco etapas: aquisição de dados; pré-processamento; extração de características; seleção de características (análise dosdados) e classificação (decisão). Algumas aplicações do reconhecimento de padrões estão vinculadasà classificação de documentos (procurar textos em documentos); organização erecuperação de base de dados; e, biométrica (identificação de pessoas a partir doconhecimento de atributos físicos, tais como, face e impressão digital). Outrasaplicações estão descritas na Tabela 3.Christiane N. C. Kokubum
    • 58 TABELA 3 Exemplos de aplicações de reconhecimento de padrões. (Fonte: JAIN et al, 2000) Domínio do Aplicação Padrão de Classes do padrão problema entrada Bioinformática Análise de DNA/ Conhecimento dos tipos seqüências Seqüência de genes protéica Mineração de Procura por Pontos em Agrupamentos dados padrões espaços compactos e bem significativos multidimensionais distribuídosClassificação de Procura na Texto Categorias semânticas documentos Internet (esporte, turismo, etc). Indústria Inspeção na Imagem de Natureza do produto: placa de intensidade defeituosa ou não circuitosRecuperação de Procura na Vídeo clipe Gêneros de filmes (ação, dados Internet suspense).Reconhecimento Identificação Face, íris, Usuários autorizados biométrico pessoal impressão digital. para uma área de acesso Sensoriamento Prever o Imagens Categorias de uso da remoto rendimento da multiespectrais terra, padrão de colheita crescimento das colheitas. A etapa de reconhecimento de padrões é ainda um grande problemapara pesquisas realizadas nas áreas de Fotogrametria e de Visão Computacionalporque as propostas tendem a se concentrar em uma tarefa específica ou sãodifíceis de serem usadas. Além disto, segundo Gonzales e Woods (2000), como esteprocedimento é muito complexo, há a necessidade de formular algumas restrições eidealizações para reduzir a complexidade da tarefa a um nível tratável. Segundo Jain et al (2000), as quatro melhores abordagens para oreconhecimento de padrão são: correspondência por padrão, classificaçãoestatística, correlação estrutural ou sintática e redes neurais.Christiane N. C. Kokubum
    • 594.1. Correspondência por padrão (Template matching) Segundo Schenk (1999), o método de correspondência por padrão éum método baseado em área, que consiste em comparar a distribuição de níveis decinza de uma matriz amostra (padrão) com matrizes candidatas pertencentes a umamatriz de busca, usando uma função de correlação adequada (Figura 11). Matriz candidata FIGURA 11 Pesquisa bidimensional de imagens correlatas. (Adaptado de ANDRADE, 1998). Na Fotogrametria, não há métodos de correlação que possam serempregados para todas as aplicações. Portanto, algumas considerações a respeitodo ambiente são necessárias: localização aproximada dos alvos; iluminação; se osChristiane N. C. Kokubum
    • 60alvos encontram-se parcialmente oclusos; tempo de resposta; precisão; acurácia;confiabilidade; deformação geométrica e radiométrica; e, rotação dos alvos. Além disso, alguns aspectos devem ser discutidos neste métodocomo (SCHENK, 1999): - Dimensão do padrão: padrões com dimensões maiores garantemuma melhor correspondência, porém, aumentam o custo computacional; - Localização e dimensão da janela de busca o método decorrespondência baseado em área garante boas aproximações, e, portanto,métodos de redução do espaço de busca devem ser usados.4.1.1. Funções básicas de correlação Segundo Schenk (1999), as técnicas de correlação possuem umagrande tradição na determinação de pontos conjugados na Fotogrametria. A idéiafundamental da técnica de correlação é medir a similaridade entre o padrão e ajanela de busca, calculando o coeficiente de correlação. Este coeficiente decorrelação é determinado para cada matriz candidata, pertencente à matriz debusca, e, dependendo da função escolhida, determina-se a matriz homóloga aopadrão, a partir do ponto de máximo ou mínimo. As principais funções para a determinação de correspondência porcorrelação são: função correlação, função covariância cruzada, função erro, funçãoerro modificada e função quociente.Christiane N. C. Kokubum
    • 614.1.1.1. Função covariância cruzada A melhor janela de correlação, nesta função, ocorre quando ocoeficiente de correlação a ser determinado é máximo. A função covariância cruzadapode ser observada na Equação 20. ry 1 rx 1 1 g r i, j gr gb i a, j b gb (20) rx ry i 0 j 0Onde: - coeficiente de correlação;gr , gb níveis de cinza da janela de referência (matriz amostra) e da matrizcandidata, respectivamente;rx , ry dimensões da janela de referência na coluna e na linha, respectivamente;i, j índices dos pixels na janela de referência e na matriz candidata;a, b valores para mudanças de posição em linha e coluna na janela de busca(matriz de busca).g r , g b - médias dos níveis de cinza da janela de referência e da matriz candidata.Christiane N. C. Kokubum
    • 624.1.1.2. Função covariância cruzada modificada ou coeficiente de correlação Esta função de correlação é resultado da normalização da funçãocovariância cruzada (Seção 4.1.1.1) (Equação 21). O coeficiente de correlação,neste caso, varia de 1 a 1. O valor 1 para o coeficiente de correlação correspondea medida de similaridade máxima, o valor 0 indica que não há correlação e o valor -1indica correlação inversa (KRAUS, 1993) rb g r i, j gr gb i a, j b gb (21) r b 2 2 g r i, j gr gb i a, j b gbOnde: RB covariância entre a janela de referência e a matriz candidata; R desvio-padrão da janela de referência; B - desvio-padrão da matriz candidata. O problema desta função é quando o denominador for igual a zero,isto é, quando a janela de referência ou a matriz candidata forem homogêneas. Para evitar estes casos, é importante fazer uma pré-análise da janelade referência (COSTA et al, 2003).Christiane N. C. Kokubum
    • 634.1.1.3. Função correlação cruzada Esta função de correlação consiste no produto entre os tons de cinzada janela de referência e a matriz candidata. O maior valor do coeficiente decorrelação corresponde a melhor correspondência na matriz homóloga. ry 1 rx 1 1 g r i , j g b i a, j b (22) rx ry i 0 j 04.1.2. Correspondência por mínimos quadrados Este método de correspondência tem como objetivo procurar o menorvalor para o somatório dos quadrados das diferenças entre os níveis de brilho entreambas as imagens, isto é, refinar a solução de tal modo que e2 mínimo(ANDRADE, 1998 e ACKERMAN, 1984). Gruen (1996) detalha o método de correlação por mínimosquadrados bidimensionalmente. Inicialmente, assume-se que a janela de referênciae a janela de pesquisa são idênticas. Como as imagens são afetadas por ruído,insere-se uma função erro a uma das imagens (Equação 23). f x, y e x, y g x, y (23)Christiane N. C. Kokubum
    • 64 A Equação 23 pode ser considerada como uma equação que associao vetor das observações f x, y com uma função g x, y , na qual a localização najanela de pesquisa em relação a janela de referência necessita ser estimada. Estalocalização é descrita por parâmetros de deslocamento x, y relacionados àposição inicial de g x, y . Para determinação de uma melhor correspondência, parâmetrosrelacionados à geometria e à radiometria são inseridos. Primeiramente, atransformação geométrica é modelada pelo seguinte polinômio: x tT Atx y (24) y tT Btx yOnde: T 2 m 1 tx 1 x0 x0 ... x 0 tT y 1 y0 2 y0 m ... y 0 1 (25) a11 a12 ... a1m b11 b12 b1m a 21 b21 A ,B a m1 am2 ... a mm bm1 bm 2 bmmx0 , y 0 - posições da malha regular dos pontos de g 0 x, y ;g 0 x, y - aproximação inicial da posição de g x, y . Sendo a Equação 23 não linear, esta pode ser linearizada da formaexpressa na Equação 26.Christiane N. C. Kokubum
    • 65 g 0 ( x, y ) g 0 x, y f x, y e x, y g 0 x, y dx dy (26) x y x y dx dp i dy dp i pi piOnde:p i - parâmetros da transformação que serão obtidos posteriormente; a11 a12 A partir de uma transformação afim com as matrizes A e a 21 0 b11 b12B , tem-se: b21 0 x a11 a12 x0 a 21 y 0 (27) y b11 b12 x 0 b21 y 0Onde:a11 ,b11 - equivale aos parâmetros de translação x, y. Realizando uma diferenciação da Equação 27, tem-se: dx da11 da12 x0 da 21 y 0 (28) dy db11 db12 x0 db21 y 0 Simplificando a Equação 28 e acrescentando os parâmetrosradiométricos rs (deslocamento - brilho) e re (escala - contraste), a Equação 26equivale a:Christiane N. C. Kokubum
    • 66 f x, y e x, y g o x, y gxda11 gxx0 da12 gxy 0 da 21 gydb11 gyx0 db12 (29) gyy 0 db21 rs g 0 x, y reOnde: 0 0 g x, y g x, y gx gy x y Combinando os parâmetros da Equação 29 no vetor X, tem-se: XT da11 , da12 , da 21 , db11 , db12 , db21 , rs , re Para estimar estes parâmetros pode ser usado o método paramétrico(GEMAEL, 1994) que é adequado para modelos do tipo explícito. n La1 F u Xa1 (30)Onde:La vetor dos valores observados ajustados;Xa vetor dos parâmetros ajustados;n número de observações;u número de incógnitas. Sabendo que La Lb V e Xa Xo X , a equação acimalinearizada pode ser descrita por:Christiane N. C. Kokubum
    • 67 F Lb V F Xo X F Xo X (31) Xa Xa Xo F Sendo Lo F Xo e A , a Equação 31 pode ser reescrita Xa Xa Xocomo: Lb V Lo AX (32) Considerando L Lo Lb , a equação torna-se: V n 1 n Au u X 1 n L1 (33)Onde:V vetor dos resíduos;A matriz das derivadas parciais;X vetor das correções aos parâmetros;Lo vetor dos valores aproximados;Lb vetor dos valores observados. O vetor dos parâmetros ajustados é determinado a partir de: Xa Xo X (34)Christiane N. C. Kokubum
    • 68Onde: 1X AT PA AT PL ;Xo - vetor dos parâmetros aproximados;P matriz peso. Após a estimação dos parâmetros geométricos e radiométricos, umatransformação afim direta é aplicada para determinação das coordenadas e a janelade pesquisa é reamostrada usando o método de interpolação bilinear para o cálculodos novos níveis de cinza. A iteração deste processo ocorre até que os valoresabsolutos dos parâmetros geométricos sejam menores que o critério deconvergência adotado (Equação 35). da11 c1 da12 c3 da 21 c5 (35) db11 c2 db12 c4 db21 c6Onde:ci ,1 i 6 - critérios de convergência. Os critérios de convergência escolhidos dependem da imagemutilizada. Para isto, antes de realizar todo o processo automático, necessita realizarum treinamento. O conceito básico da interpolação bilinear é realizar a interpolaçãolinear nas direções das linhas e das colunas. O modelo matemático para ainterpolação bilinear (Equação 36) pode ser estabelecido com base na Figura 12.Christiane N. C. Kokubum
    • 69 NCI (i, j) NC I (i 1, j ) dy dx NC IR (i, j ) NC I (i, j 1) NC I (i 1, j 1) FIGURA 12 - Representação do pixel reamostrado. NC IR 1 dx * 1 dy * NC I i, j dx * 1 dy * NC I i 1, j (36) dy * 1 dx * NC I i, j 1 dx * dy * NC I i 1, j 1Onde:NC IR - nível de cinza da imagem reamostrada;NC I - nível de cinza da janela de pesquisa;i, j coordenadas da janela de pesquisa. A estimação do modelo matemático deve acomodar os parâmetrossuficientes para realizar uma boa modelagem das distorções radiométricas egeométricas para não ocorrer o problema de superparametrização. Isto quer dizerque o modelo a ser escolhido deve conter apenas os parâmetros que conseguirãoser determinados porque, caso contrário, estes dados trarão um efeito negativo aoresultado, deteriorando a qualidade do mesmo. Testes podem ser realizados paradeterminar aqueles parâmetros que são não-determináveis. Isto pode ser realizadotrabalhando com variáveis estocásticas, associando pesos que devem estarChristiane N. C. Kokubum
    • 70relacionados ao tamanho da distorção a ser esperada. Alguns alvos binários noquais certos parâmetros não podem ser determinados encontram-se na Figura 13. FIGURA 13 Padrões que reduzem a quantidade de parâmetros a seremdeterminados pelo modelo matemático mencionado nesta seção. (a) escala em y; (b)rotação; (c) duas escalas; (d) todos na direção y; (e) todos na direção y e escala em x; (f) todos (Fonte: GRUEN, 1996). O modelo matemático pode ser simplificado, considerando apenasos parâmetros geométricos supondo-se que uma normalização geométrica tenhasido realizada previamente.4.2. Correspondência por assinatura Segundo Gonzales e Woods (2000), a definição de assinatura é umarepresentação funcional unidimensional de uma fronteira. Há várias maneiras de sedeterminar a assinatura de um alvo. Uma das maneiras mais fáceis de obtê-la é apartir do gráfico da distância do limite ao centróide em função do ângulo. Estaassinatura é invariante à translação, mas depende da rotação e mudança de escala.Exemplos deste tipo de assinatura podem ser observados na Figura 14.Christiane N. C. Kokubum
    • 71 A A FIGURA 14 Fronteiras e suas respectivas assinaturas. Segundo Sonka et al (1998), a assinatura pode ser obtida como umaseqüência da distância dos contornos normais. Esta distância é calculada para cadaelemento da fronteira como uma função da distância, isto é, para cada pontopertencente à fronteira são traçadas a sua tangente e a sua normal até que a normalintercepte o outro lado da fronteira. Como as assinaturas são sensíveis a ruídos,uma suavização na fronteira é necessária para redução destes. A forma de obteresta assinatura pode ser vista na Figura 15. (a) (b)FIGURA 15 Assinatura: (a) Princípio da construção (b) Assinaturas para um círculo e um triângulo. (Fonte: Adaptado de SONKA et al, 1998).Christiane N. C. Kokubum
    • 72 Como o método da assinatura depende da rotação, umanormalização é realizada através do estabelecimento do ponto inicial para a geraçãoda assinatura. Uma das maneiras de determinar este ponto é escolher o ponto commaior distância ao centróide, caso o mesmo seja único e independente de rotaçãodos objetos de interesse. Um outro problema da assinatura está relacionado com a mudançade amplitude advinda dos diferentes tamanhos dos padrões. Para resolver isto, umamudança simples de escala de todas as funções de maneira que as mesmas variemdentro do mesmo domínio é necessária. Este método é bem simples, porém, tem adesvantagem da função depender apenas de dois valores: o máximo e o mínimo.Uma melhor abordagem consiste na divisão da amostra pela variância, desde que amesma seja diferente de zero. A idéia, neste caso, é remover a dependência,preservando a forma fundamental da função. Para verificar a similaridade entre duas assinaturas, vários critériospodem ser usados. Na Seção 4.2.1, observa-se alguns critérios para a determinaçãoda discrepância entre as assinaturas.4.2.1. Determinação da discrepância entre as assinaturas Segundo Mustafa et al (1999), esta discrepância pode serdeterminada a partir do cálculo de quatro erros métricos entre as assinaturasarmazenada e gerada na cena. Estes erros são:Christiane N. C. Kokubum
    • 73 - Erro de distância: mede a distância entre duas distribuiçõesespaciais das assinaturas. Valores próximos a zero indicam que as distribuiçõespossuem o mesmo valor médio e são distribuídas ao redor dos mesmos pontos defreqüência. Os valores próximos a unidade refere-se a distribuições ao redor dediferentes freqüências. Este erro é calculado por: 1 S1 , S 2 1 2 (37) cnOnde:S1 , S 2 - assinaturas a serem comparadas;cn constante de normalização; 1 , 2 - médias das assinaturas. Um problema na determinação deste erro está relacionado àdefinição da constante de normalização já que o processo é automático e estaconstante de normalização depende dos dados de entrada usados. - Erro na forma: mede a diferença de variância entre as assinaturas.Valores próximos a zero indicam que as formas de ambas as assinaturas sãosimilares. Este erro é dado por: 0 1 2 0 S1 , S 2 1 2 (38) 1 2Christiane N. C. Kokubum
    • 74Onde: 1 , 2 - desvios-padrão da distribuição; - Erro de dispersão: mede a diferença de dispersão da distribuiçãoentre duas assinaturas em relação à média. Valores próximos a zero indicam que asassinaturas são similares. Este erro é dado por: S1 , 1 S2 , 2 ( S1, S 2 ) (39) S1 , 1 S2 , 2 k 1 S, Sk e 1 2 k 2 - Erro de correlação: mede a correlação entre as duas assinaturas.Valores próximos a zero indicam forte correlação e conseqüentemente grandesimilaridade. A fórmula para determinar este erro é: S1 1 S2 2 S1 , S 2 1 (40) 2 2 S1 1 S2 2 O problema encontrado para determinação deste erro de correlaçãoestá relacionado às duas assinaturas terem que possuir a mesma quantidade depixels no alvo. Por isso, há a necessidade de realizar uma amostragem dos dados.Christiane N. C. Kokubum
    • 754.3. Outras técnicas para o reconhecimento de padrões Mayr e Poth (1995) utilizaram o processo de correlação binária paraa identificação de marcas fiduciais. Cada marca fiducial é localizadaindependentemente. A boa qualidade da solução no nível anterior da pirâmide deimagens reduz a janela de procura, aumentando a velocidade do processo. Estatécnica denominada de pirâmide de imagens consiste de um conjunto de imagensreamostradas da imagem original, cada uma com um grau de resolução menor. Aacurácia final obtida está em torno de 0.1 pixel. Picard (1997) apud Jain (2000) identificou uma aplicação modernade reconhecimento de padrão, chamada de computação afetiva que dará aocomputador a habilidade de reconhecer e de expressar emoções, responderinteligentemente a emoção humana e empregar mecanismos de emoção nasdecisões racionais. Drewniok e Rohr (1997) desenvolveram uma abordagem automáticapara orientação exterior de imagens aéreas baseada no ajustamento analítico demodelos à imagem. Esta técnica é denominada ajustamento por modelo e possuicomo objetivo a detecção e localização das marcas artificiais (pontos pré-sinalizados) ou naturais (pontos de controle). A utilização destes modelos érecomendada quando se deseja alta acurácia no momento da localização e quandose tem uma alta variabilidade estrutural. Mustafa et al (1999) descrevem um sistema para identificação doobjeto. Dado um conjunto de objetos 3D e uma cena contendo um ou mais destesobjetos, o sistema identifica quais os objetos que aparecem na cena através doChristiane N. C. Kokubum
    • 76método de assinatura. Neste trabalho, dois tipos de assinaturas são utilizados:curvatura e espectral. Para testar a discrepância entre duas assinaturas, quatroerros métricos são usados: erro de distância, erro na forma, erro de dispersão e errode correlação. Este sistema testou 95 objetos e conseguiu bons resultados emaproximadamente 77 objetos. Howard e Padgett (1999) implementaram um programa para oreconhecimento de padrões em imagens de satélite em tempo real usando redesneurais. Primeiramente, realizou-se a segmentação da imagem para separar osdiferentes tipos de alvos existentes nas imagens a partir de um agrupamento(clustering). Os alvos obtidos deste agrupamento foram treinados a partir de umclassificador de redes neurais para validar ou não se o alvo extraído contém um dosalvos agrupados anteriormente. Valores acima de um limiar escolhido dependendoda imagem que se está trabalhando são considerados como objeto e os menores,como fundo. Testes realizados mostraram que o algoritmo conseguiu detectar 99%dos alvos quando usou imagens hiper-espectrais. Os problemas encontrados nasredes neurais para o reconhecimento de padrões estão relacionados à demora doprocesso referente ao treinamento e aos valores de pesos a serem estipulados noinício dos processos intermediários. Além disto, os processos intermediários não sãotransparentes e nem de entendimento fácil, atrapalhando o desenvolvimento. Ting e Leung (1999) propuseram uma técnica baseada na descriçãode estruturas lineares usando um conjunto de caracteres. Linhas, textos e espaçossão convertidos em representações lineares. O documento é lido da esquerda paradireita e de cima para baixo. A cada objeto encontrado, especifica-se o seu tipo, istoé, linha vertical, linha horizontal, caixa de texto ou espaço em branco. Conhecendo oseu tipo, um conjunto de caracteres é criado com todos os objetos do documento.Christiane N. C. Kokubum
    • 77Para saber se este documento é idêntico a outro, compara-se o conjunto decaracteres de ambos os documentos. O uso desta técnica permite uma medidarápida e robusta de similaridade entre dois documentos. Além disto, este processode descrição de conjunto de caracteres permite uma tolerância significativa emrelação às inconsistências da segmentação. Testes realizados mostraram boassoluções. Porém, esta técnica depende das primitivas usadas para determinar oconjunto de caracteres. Quanto maior o número de primitivas, melhor o resultado aser encontrado, porém, maior o custo computacional. Além disso, outros problemasdificultam este reconhecimento de padrões: distorções do documento e símbolosincompletos. Hattori et al (2000) realizaram medidas simuladas de uma geladeiradoméstica com um desenho especial para os alvos codificados (Figura 16). Peladificuldade em encontrar os alvos devido às diferenças de profundidade, estesnecessitam ser selecionado no pré-processamento. Os alvos devem ser bemdistribuídos para facilitar na sua medição. O padrão do desenho é feito de um material circular refletivo que éfixado no objeto. O tamanho do alvo é ajustado para que um pequeno círculo naimagem tenha aproximadamente 3 pixels. A codificação é realizada a partir dos bitsassociados ao círculo. Primeiramente, um número pequeno de alvos codificados foiidentificado para obter os parâmetros de orientação, enquanto, os alvos medidosforam identificados pela intersecção de múltiplos raios. Este processo conseguiu reconhecer 97% dos alvos das imagenspor uma simples binarização de imagens.Christiane N. C. Kokubum
    • 78 14 mm 24 mm 30 mm 2 mm FIGURA 16 Alvo codificado (Fonte: HATTORI et al, 2000).Christiane N. C. Kokubum
    • 79 CAPÍTULO V5. MATERIAIS E MÉTODOS5.1. Materiais Nesta seção estão listados os equipamentos e programascomputacionais que foram usados para a realização deste trabalho de pesquisa: - Uma câmara digital KODAK DX 3500; - Um computador AMD Athlon XP 2200+, 80 GB de disco rígido e 256 MB de memória RAM; - Um projetor de padrões composto por: i. Sistema de lentes; ii. Suporte para fixação dos fotolitos a serem projetados; iii. Sistema de iluminação; iv. Condensador interno e flash; v. Suporte para acoplar a câmara digital. - Compilador Borland C/C++ Builder 5.0; - Software Microstation Bentley. - Microsoft Office 2000 Standard; - Software Paint Shop Pro 4.0. - Software Surfer 7.0 Demo.Christiane N. C. Kokubum
    • 80 5.2. Métodos Para compreensão dos processos envolvidos para a classificação e a localização precisa dos alvos, um fluxograma é apresentado na Figura 17. Projeção de padrões Coleta de imagem Limiarização local SegmentaçãoCálculo da altura e da Utilização de alvos Utilização de alvos Extração de largura do alvo binários pré- pré-definidos fronteiras segmentado definidos suavizados Reamostragem do padrão Reconhecimento por assinatura Determinação do coeficiente de correlação Classificação dos alvos Localização precisa por Localização precisa por mínimos quadrados detecção de cantos Análise dos resultados FIGURA 17 Seqüência das operações e processamentos realizados. Christiane N. C. Kokubum
    • 815.2.1. Geração de padrões No método de reconhecimento de padrões a ser usado, cada padrãonecessita ser classificado unicamente, pois a cada um estão associados osparâmetros de seu vetor diretor para determinação das coordenadas 3D. Estudos anteriores utilizaram padrões projetados com luz branca sobformas circulares e padrões baseados em uma combinação de formas e cores.Apesar das formas circulares serem de fácil identificação automática, estas semostraram inadequadas quando alguns padrões eram oclusos, isto pois inviabilizavaa análise de vizinhança. A utilização de padrões com diferentes formas e cores possibilita aidentificação automática de alguns casos de oclusão, porém, as cores dos padrõesprojetados podem coincidir com a superfície dos objetos, acarretando em erros nasegmentação de alvos. Observando estes problemas, chegou-se a várias possibilidades deabordagens, sendo a mais adequada, a utilização de padrões de luz branca comformas específicas. Entretanto, haveria a necessidade de alguma técnica para queestes padrões pudessem ser reconhecidos univocamente em relação aos demais.Uma solução seria a utilização de padrões com formas diferentes umas das outras.Esta solução seria impraticável, pois haveria a necessidade de muitas formas paracompor todos os padrões e de um banco de dados relativamente grande paraarmazenar cada uma das características dos padrões pré-definidos. Isto traria umaumento do custo computacional para a identificação de cada padrão e aumentariaa possibilidade de redundância no reconhecimento.Christiane N. C. Kokubum
    • 82 A solução mais viável foi utilizar um conjunto pequeno de formas econciliá-las com uma análise de vizinhança. Além disto, procurou-se gerar padrõesde forma a privilegiar a existências de quinas, que poderiam ser usados comopontos para localização precisa. Os padrões escolhidos são mostrados na Figura 18. Padrão A Padrão B Padrão C Padrão D Padrão E FIGURA 18 - Padrões primitivos. Com estas cinco formas é possível classificar cada padrão dentro,naturalmente, de cinco classes, que serão rotuladas pelas letras: A, B, C, D e E,cujas relações entre forma e rótulo são mostradas na Figura 18. Como a forma dopadrão representado pela letra A é a que possui maior facilidade de ser detectada,dentre as demais formas, usando o método de correlação de imagens, este padrãofoi assumido como pivô de uma estrutura bidimensional de vizinhança oito (Figura19). Além disto, a geração dos padrões seguiu algumas restrições: - Padrões do tipo A não possuem outro A como vizinho; - Assumindo-se que uma máscara de padrões é formada por noveelementos em uma matriz 3x3 com um padrão A como pivô, não há outra máscarade padrões semelhante dentro de um raio de quatro pivôs A, isto é, dentro desteraio, somente a metade dos padrões é idêntica.Christiane N. C. Kokubum
    • 83 Pivô FIGURA 19 Vizinhança dos padrões. Apenas com o intuito de facilitar na leitura, decidiu-se nomear osprotótipos primitivos por padrões e os protótipos projetados como alvos.5.2.2. Coleta de dados A coleta de dados é realizada a partir de um sistema baseado noprincípio de luz estruturada. Este sistema é composto por um sistema projetor depadrões de luz estruturada e um sensor (uma câmara digital de pequeno formato ede foco fixo) (Figura 20).Christiane N. C. Kokubum
    • 84 Condensador interno e luz do flash Fotolito removível Espelho Câmara digital e Lentes fotocélula Controle do flash e bateria FIGURA 20 - Sistema sensor e projetor. A câmara usada para a construção deste protótipo com o sistema deluz estruturada foi a KODAK DX 3500 que possui uma distância focal nominal de 38mm, resolução máxima de 1800 x 1200 pixels e tamanho do pixel de 19,44 mconsiderando um tamanho teórico do sensor de 35 mm. As vantagens desta câmarasão: foco fixo e disparo de um único flash por imagem. Esta câmara foi calibrada por meio de um processo de calibraçãopor feixe de raios (bundle method) usando o programa CC (GALO, 1993). Nesteprocesso, apenas os quatro parâmetros mais significativos foram considerados:distância focal, ponto principal ( x0 , y0 ) e o primeiro parâmetro de distorção radialsimétrica K1 . A quantidade de pontos de apoio, de fotocoordenadas e de imagensusada para a calibração da câmara foi de 28, 80 e 6, respectivamente. Osresultantes são mostrados na Tabela 4. Maiores informações a respeito dacalibração podem ser encontradas em Reiss e Tommaselli (2004).Christiane N. C. Kokubum
    • 85 TABELA 4 - Parâmetros de orientação interior calibrados. (REISS e TOMMASELLI, 2004). Parâmetros Valores estimados Desvios-padrão estimados f (mm) 38,329 0,012 x0 (mm) -0,297 0,008 y0 (mm) -0,226 0,013 K1 (mm) -0,000102184 0,3984 x 10-6 O projetor de padrões é composto de fotocélula, condensadorinterno, placa com os padrões, bateria, lentes e espelho (Figura 20). O fotolito foiimpresso usando um processo fotográfico e encontra-se entre duas placas de vidroplanas, usadas para absorver parte do calor gerado pela lâmpada. O controlador doflash assegura a sincronização entre o instante de aquisição da imagem pela câmarae a iluminação da cena pelo projetor. Este tipo de iluminação instantânea evita oaquecimento do projetor e a deformação do padrão reproduzido no materialfotográfico. A calibração do projetor foi realizada por Reiss e Tommaselli (2004).5.2.3. Limiarização local Devido à lei de iluminância, a luz que atinge os cantos da imagem éatenuada por um fator de cos4 , onde é o ângulo entre o eixo óptico da câmara e oponto em análise. Com isto a área central da imagem é mais iluminada que aperiferia, gerando um efeito semelhante ao de vinhete, embora devido a causasChristiane N. C. Kokubum
    • 86diferentes. Para reduzir este efeito, realizou-se uma etapa prévia de limiarizaçãolocal, para separar o fundo do sinal gerado pelos alvos projetados. O método usado foi o de limiarização local (Seção 2.7.3) porque severificou experimentalmente a necessidade de definir diferentes limiares para cadaregião da imagem. Inicialmente, foi considerada a hipótese de definir um valor de limiarpara cada pixel da imagem (calculado a partir de uma pequena região em torno dopixel). Porém, devido ao grande volume de processamento que isto implicaria, umanova estratégia foi desenvolvida e, resolveu-se implementar uma variante dalimiarização pelos métodos de Otsu e de Pun. Neste caso, o limiar é calculado apartir de uma subimagem 3w x 3w e aplicado em uma janela w x w (Figura 21).Maiores informações podem ser encontradas em ARTERO (1999). Isto permite umatransição suave de uma janela para outra, evitando o efeito de ladrilho na imagemlimiarizada. Pixels com níveis de cinza inferiores ao limiar recebem zero enquanto osoutros pixels permanecem com o nível de cinza original. O processo desenvolvido é uma variante do método original, porquea imagem não é binarizada. 3w R2 w R1 3w w FIGURA 21 Configuração da janela do limiar local.Christiane N. C. Kokubum
    • 875.2.4. Segmentação A segmentação dos alvos na imagem é feita usando o método decrescimento de regiões. Esta técnica consiste no agrupamento e na rotulação detodos os pixels de cada padrão. Isto é feito percorrendo toda a imagem até encontrarum pixel que possua um limiar maior que um limiar global determinado. Este pixel édenominado de pixel semente e é rotulado. A partir deste pixel semente, comcoordenadas (i, j), observam-se os pixels vizinhos: frente (i, j+1), abaixo (i+1, j) eatrás (i, j-1). Caso o nível de cinza de um destes pixels seja maior que o limiar globaldeterminado, ele é agrupado ao pixel semente e rotulado. A segmentação do padrãofinaliza quando os níveis de cinza dos pixels vizinhos forem menor que o limiar.Finalizada a segmentação do alvo, reinicia-se a varredura a partir do pixel sementedo padrão segmentado anteriormente. Alvos pertencentes ao fundo recebem rótulo1, zero indica que o pixel não foi rotulado e os padrões segmentados recebemrótulos de 2 até o número de alvos segmentados. Este procedimento é realizado atéque todos os pixels da imagem tenham sido rotulados. As informações geradasneste procedimento são: centro de massa de cada alvo segmentado; número dorótulo e coordenadas de todos os pixels pertencentes ao alvo; e, os valores máximose mínimos para cada padrão para a determinação da altura e da largura do alvo paraposterior reamostragem. O centro de massa é determinado a partir de uma médiaponderada das discrepâncias entre os níveis de cinza dos pixels segmentados e olimiar global determinado. Um fluxograma da etapa de segmentação de padrõespode ser observado na Figura 22.Christiane N. C. Kokubum
    • 88 Esta etapa de segmentação de padrões faz-se necessária paradiminuir o número de máscaras a serem comparadas nos métodos de detecção dealvos por correspondência por padrão e assinatura. Isto torna menor o custocomputacional porque este procedimento evita a busca de vários padrões por toda aimagem, procedimento que é pouco confiável, devido às várias respostas diferentespara o mesmo tipo de alvo.5.2.5 Classificação A etapa de classificação de padrões é fundamental porque é nestaetapa que os alvos são identificados e são definidos os valores aproximados para alocalização precisa. Esta classificação visa atribuir a cada alvo segmentado,baseado nas suas características de forma, a qual classe de padrões ele tem maiorprobabilidade de pertencer, dentro das cinco classes pré-definidas (Figura 18). Para a etapa de classificação, dois métodos foram implementados ecomparados neste trabalho: correspondência por área usando as funções decorrelação e o método de assinatura.Christiane N. C. Kokubum
    • 89 Reinicia a varredura Varredura na imagem no pixel semente do alvo segmentado anteriormente N Se o NC(i, j) > Pixel é rotulado S limiar como 1 Fim da segmentação do S alvoPixel atual é considerado pixel semente e é rotulado. Pixel atual (i, j) é rotulado. N Se NC(i+1, j) > N Se NC(i, j+1) > limiar limiar S S Pixel recebe o mesmo Pixel recebe o mesmo N rótulo que o pixel Se NC(i, j-1) > rótulo que o pixel semente limiar semente S Pixel recebe o mesmo rótulo que o pixel semente Realiza-se o incremento dos índices FIGURA 22 Fluxograma do algoritmo de segmentação de padrões. Christiane N. C. Kokubum
    • 905.2.5.1 Correlação Nesta etapa de classificação, três metodologias foram avaliadas:comparação dos alvos segmentados com os padrões pré-definidos e com as suasinstâncias (cópia de um objeto com alterações em escala ou rotação) armazenadas,comparação dos alvos segmentados com os padrões pré-definidos suavizados ecom as suas instâncias armazenadas suavizadas, comparação dos alvossegmentados com os padrões pré-definidos reamostrados.- 1ª Metodologia: Comparação dos alvos segmentados com os padrões pré-definidos e as suas instâncias armazenadas (imagens binárias). Neste caso, 45 padrões são armazenados para posteriorcomparação (Tabela 5). Estes padrões variam em relação à escala. Esta escala foiescolhida a partir de visualizações realizadas na imagem original. TABELA 5 - Padrões pré-definidos e as suas instâncias armazenadas. Padrão A B C D ETamanho(pixels) 11 x 11 13 x 13 15 x 15 17 x 17 19 x 19 13 x 15 15 x 13 15 x 17 17 x 15Christiane N. C. Kokubum
    • 91- 2ª Metodologia: Comparação dos alvos segmentados com os padrões pré-definidos e as suas instâncias armazenadas suavizadas. Neste caso, os mesmos 45 padrões são armazenados para posteriorcomparação. Porém estes padrões sofreram uma suavização pela média antes dacomparação com os alvos segmentados. Os inconvenientes das duas metodologias anteriores estãorelacionados ao número de padrões e instâncias a serem armazenados e que sãonecessários para obter a melhor correspondência e os melhores valoresaproximados para a determinação das coordenadas subpixel.- 3ª Metodologia: Comparação dos alvos segmentados com os padrões pré-definidos reamostrados. Este método consiste em armazenar apenas 5 padrões e reamostrá-los de acordo com a dimensão do alvo segmentado. A dimensão do alvosegmentado é obtida a partir das discrepâncias entre as coordenadas máximas emínimas em x e y. Com estas coordenadas, determina-se a altura e a largura do alvosegmentado. Com a dimensão do alvo, reamostra os padrões pré-definidos quepossuem uma dimensão superior aos alvos segmentados. Este procedimento podeser usado porque as imagens sofrem uma pequena rotação que pode serdesconsiderada. As vantagens deste método em relação aos dois primeiros estãorelacionadas ao número de padrões armazenados e a melhor determinação dascoordenadas aproximadas para a localização precisa. Os resultados destes experimentos são mostrados na Seção 6.4.1Christiane N. C. Kokubum
    • 925.2.5.2 Assinatura A outra técnica de classificação a ser usada é a de assinatura. Estatécnica consiste na comparação entre as assinaturas dos alvos armazenados esegmentados. As etapas necessárias para a classificação, usando o método deassinatura são: - Extração da fronteira do alvo pelo método de perseguição de fronteiras. Este método consiste em obter as coordenadas de todos os pixels localizados na fronteira do alvo. Nesta etapa, observa-se a lista de alvos gerada na segmentação de imagens. Se o rótulo armazenado na lista for diferente de um (o que significa que o pixel pertence ao fundo), armazenam-se as coordenadas do pixel e o número do seu rótulo em uma outra estrutura de lista. A partir do primeiro pixel, observam-se os seus pixels vizinhos na seguinte ordem: frente, abaixo e atrás. Este procedimento ocorre até que todos os alvos segmentados sejam percorridos. Pixels que não pertencem à fronteira são rotulados como 1, representando fundo. - Determinação do ponto inicial: O problema em determinar o ponto inicial está relacionado com padrões de formas idênticas que variam em relação à rotação. Como este ponto é determinado pela maior distância do centróide ao ponto pertencente à fronteira, algumas assinaturas geradas são idênticas. Isto pode ser observado na Figura 23 em que os padrões B e E e C e D geram as mesmas assinaturas.Christiane N. C. Kokubum
    • 93 A técnica utilizada, portanto, é determinar o ponto que possui o menor valor no eixo das abscissas e a partir deste procurar o menor valor no eixo das ordenadas. Os pontos iniciais de cada alvo podem ser observados na Figura 24. Distância (pixels) Padrões: B e E Direção (radianos) Padrões: C e D Direção (radianos) FIGURA 23 - Padrão com diferentes rotações e idênticas assinaturas. FIGURA 24 Pontos iniciais dos padrões utilizados. - Determinação da distância de todos os pontos da fronteira ao centróide e cálculo da sua direção. Como são conhecidas as coordenadas de três pontos (ponto inicial, centróide e ponto da fronteira) (Figura 25), determina-se a direção a partir da fórmula dos cossenos dada por:Christiane N. C. Kokubum
    • 94 a2 b2 c2 2bc cos (41)Onde:a distância entre o ponto inicial e um ponto pertencente à fronteira;b distância entre o ponto inicial e o centróide;c distância de um ponto pertencente à fronteira e o centróide; - direção a ser calculada. Ponto inicial a b c Centróide FIGURA 25 Direções obtidas dos pontos. - Normalização do gráfico: o fato dos padrões conterem tamanhos diferentes e conseqüentemente, número de pixels diferentes, acarreta na necessidade de realizar a normalização dos mesmos. Isto é feito pela normalização dos dados no intervalo de [0,1]. - Criação do gráfico relacionando a distância em função do ângulo; - Interpolação dos dados. Esta etapa é necessária porque na determinação da métrica de correlação, há necessidade dos padrões a serem comparados possuírem quantidades de pixels idênticas;Christiane N. C. Kokubum
    • 95 - Determinação da discrepância entre as assinaturas, usando a métrica de correlação (Seção 4.2.1). O uso somente da métrica de correlação está relacionado ao tipo de padrões utilizados no trabalho. Como os padrões são semelhantes, as métricas de distância, dispersão e forma não se mostraram adequadas como critério para estabelecer a correspondência.5.2.6. Localização precisa A localização automática precisa dos cantos dos alvos projetadospossui a vantagem em relação aos métodos manual ou semi-automático, pordiminuir o tempo de resposta do sistema e fornecer uma resposta com precisãosubpixel. Nesta etapa, dois métodos de localização precisa foram comparados como objetivo de refinar a solução obtida na classificação: correspondência por mínimosquadrados e detecção de cantos.5.2.6.1. Método de correspondência de imagens por mínimos quadrados ereamostragem O método de correspondência de imagens por mínimos quadradosconsiste em um refinamento na posição dos cantos dos padrões, obtida na etapa deChristiane N. C. Kokubum
    • 96classificação a uma precisão subpixel. Para isto, determinaram-se os parâmetrosradiométricos e geométricos a partir do conhecimento dos níveis de cinza dasjanelas de referência e de pesquisa de acordo com a Seção 4.1.2. Porém, osresultados obtidos para os parâmetros radiométricos não ofereceram resultadossatisfatórios. Uma melhor metodologia, portanto, foi determinar separadamente osparâmetros radiométricos e geométricos. Primeiramente, realizou-se a correçãoradiométrica da imagem e, posteriormente, fez-se a sua correção geométrica.Ambos os parâmetros foram obtidos por um ajustamento usando o métodoparamétrico. Após a etapa de mínimos quadrados, realizou-se a reamostragem dajanela de pesquisa a partir do conhecimento dos parâmetros obtidos pelo método decorrespondência por mínimos quadrados para determinação da posição e dos níveisde cinza da nova imagem. As novas posições dos pixels na imagem e seusrespectivos níveis de cinza são determinados a partir de uma transformação afimdireta e de uma interpolação bilinear. A aplicação do método de correspondência por mínimos quadradose a reamostragem ocorrem até o momento em que as correções dos parâmetrosgeométricos determinados sejam menores que os critérios pré-definidos inicialmente(critérios de convergência = 0.00001). As coordenadas com precisão subpixel são determinadas a partir doconhecimento das coordenadas aproximadas obtidas no processo de classificaçãopor correlação e os novos parâmetros determinados.Christiane N. C. Kokubum
    • 975.2.6.2. Detecção de cantos A detecção de cantos foi realizada usando o método descrito naSeção 2.9. Para a detecção de cantos, é necessário realizar previamente adetecção de bordas, neste caso usando-se os operadores de Sobel (Seção 2.8.1.1).Estes operadores permitem a determinação dos gradientes em x e y para os pixelscentrais após a convolução das máscaras na imagem original. Para determinação dos gradientes nas molduras na janela do alvosegmentado, uma janela maior na imagem original é selecionada, isto é, para seobter uma matriz 5 x 5 composta de gradientes em x e y, uma subimagem 7 x 7 deveser selecionada. O tamanho da subimagem a ser analisada depende do tipo depadrão. Em padrões do tipo A, para todos os cantos, as subimagens podem sermaiores que em outros padrões porque a distância entre os cantos é grande. Estefato tende a garantir uma melhor qualidade subpixel dos cantos do padrão tipo A.Para os alvos B, C, D e E, o tamanho da subimagem a ser analisada depende daposição em que se encontram os alvos. Quanto menor a distância entre os alvos,menor a janela a ser analisada e menor a precisão do detector de cantos nalocalização dos padrões porque o número de observações é pequeno. Um problema está relacionado com os padrões pré-definidos,porque, por mais que estes garantam um grande número de cantos com localizaçãoprecisa para reconstrução, a etapa de aquisição da imagem acaba interferindo naforma dos alvos, arredondando os cantos e dificultando na localização precisa.Christiane N. C. Kokubum
    • 98 Após a realização da detecção de bordas com os operadores deSobel e, portanto, com o conhecimento dos gradientes na imagem e a posiçãoaproximada de cada vértice do alvo, obtida na classificação dos alvos, determinam-se os cantos da imagem usando a metodologia citada na Seção 2.9.2.5.2.7. Critério para avaliação do método de localização precisa Uma vez que as coordenadas reconstruídas a partir dos padrõesprojetados sobre uma imagem plana deveriam gerar uma superfície plana perfeita, aforma encontrada para avaliar os resultados da calibração dos vetores diretores foi aseguinte: - Executar o processo de reconstrução sobre a imagem; - Efetuar a regressão de uma superfície plana sobre as coordenadas 3D reconstruídas; e conseguinte, - Calcular as discrepâncias entre as coordenadas Z obtidas na reconstrução e as coordenadas Z calculadas pelo plano ajustado (Equação 42); Z ( X ,Y ) A00 A01Y A10 X (42)Onde:Z - profundidade dos pontos;Christiane N. C. Kokubum
    • 99X ,Y - coordenadas obtidas da reconstrução;A00 , A01 , A10 - coeficientes do plano. Estes coeficientes foram obtidos usando osoftware Surfer 7.0. - Cálculo do erro médio quadrático. O método de reconstrução usado neste trabalho é umaimplementação da modelagem matemática desenvolvida na primeira versão dosistema de reconstrução (TOMMASELLI, 1997). A reconstrução da superfície é realizada conhecendo-se cada vetordiretor dos cantos dos alvos e suas respectivas coordenadas subpixel. Os vetoresdiretores dos vértices dos alvos são calculados por uma calibração do projetor, apartir do conhecimento das coordenadas subpixel determinadas nos métodos delocalização precisa, da orientação interior, da orientação exterior, das coordenadasdo projetor e dos valores aproximados dos vetores diretores. Os parâmetros deorientação interior e de orientação exterior e as coordenadas do projetor são obtidospela calibração da câmara. Maiores detalhes de todo o processo de reconstruçãopodem ser vistos em Reiss e Tommaselli (2004).Christiane N. C. Kokubum
    • 100 CAPÍTULO VI6. DESENVOLVIMENTO E IMPLEMENTAÇÃO Para atender aos objetivos deste trabalho, alguns programas foramimplementados em Linguagem C/C++ como: geração automática de padrões,limiarização local, segmentação por crescimento de regiões, extração de fronteiras,correspondência por área, assinatura e detecção de bordas. Além disto, valeressaltar que os programas de segmentação por crescimento de regiões elimiarização foram implementados pelo Msc. Mário Luiz Lopes Reiss. As funçõesimplementadas podem ser encontradas na biblioteca UPTK, que está sendodesenvolvida pelo Departamento de Cartografia da FCT/Unesp (TOMMASELLI,2003).6.1. Geração automática de padrões O programa de geração automática de padrões tem como resultadoa criação de um padrão composto pela combinação de cinco padrões primitivos(Figura 18). Como mencionado anteriormente, esta combinação de padrões possuialgumas restrições para ser realizada. Estes padrões primitivos foram combinadosem matrizes, gerando-se uma malha. A partir de um processo fotográfico foramChristiane N. C. Kokubum
    • 101então gerados fotolitos. No total, dez fotolitos foram criados, modificando-se otamanho do padrão e o espaçamento entre os mesmos (Figura 26). O fotolito projetado neste trabalho possui padrões com tamanho de 9pixels. x 9 pixels. e com espaçamento de 7 pixels entre os padrões (Figura 27). FIGURA 26 Exemplo de uma imagem de padrões. 9 4 9 4 7 FIGURA 27 - Dimensão dos padrões projetados em pixel.Christiane N. C. Kokubum
    • 1026.2. Limiarização local Inicialmente, dois métodos foram implementados para solucionareste problema: método de expansão do histograma e método de transformação localbaseado nas propriedades de intensidades da média e de desvio-padrão de pixels(Seção 2.5). Estes métodos, entretanto, não proporcionaram um resultadosatisfatório como pode ser observado na Figura 28. (a) (b) (c) FIGURA 28 Resultados da limiarização. (a) Imagem original; (b) Método de expansão do histograma; (c) Método de transformação local. O problema do método de expansão do histograma está relacionadoa este ser um método global e, portanto, determina um único limiar por toda aimagem. O método de transformação local garante um melhor resultado que ométodo de expansão do histograma por este método ser local, porém, emprocedimentos totalmente automáticos, este método possui a restrição em relação àChristiane N. C. Kokubum
    • 103constante k, pela necessidade de informá-la inicialmente e esta ser dependente daimagem original a ser usada. Portanto, como os métodos anteriores não garantiram resultadossatisfatórios, uma nova metodologia foi sugerida. Esta metodologia consistiu naimplementação de uma limiarização local (Seção 2.6.3) comparando doisoperadores de limiarização automática: Otsu (Seção 2.6.1) e Pun (Seção 2.6.2).Neste método de limiarização informa-se o tamanho da máscara a ser percorrida naimagem e o método de limiarização desejado. Para cada percurso da máscara naimagem, um limiar é determinado a partir do método de Otsu ou de Pun e aplicado àimagem, em função da região central da máscara. Os pixels com valores abaixo dolimiar determinado pelos métodos de Otsu ou de Pun recebem nível de brilho zero eos pixels com níveis de cinza superiores a este valor, permanecem com o mesmovalor de nível de cinza. Os resultados deste processo podem ser observados na Figura 29.Como se podem perceber visualmente, ambos os métodos de limiarizaçãoconseguiram eliminar completamente os ruídos do fundo, sem prejudicar o processode reconhecimento. Além disto, foram comparados três diferentes tamanhos demáscaras (3x3, 5x5 e 7x7). A partir de testes, observou-se que a máscara 3x3usando o método de Otsu proporcionou melhores resultados aliados a um menorcusto computacional. Conseqüentemente, pensando no custo computacional,decidiu-se usar o método de Otsu. Outra maneira de comparar os métodos delimiarização é observar os resultados das segmentações, verificando o número dealvos perdidos e suas respectivas formas.Christiane N. C. Kokubum
    • 104 (a) (b) (c) (d) (e) (f)FIGURA 29 - (a) Imagem original (tomada de um dorso humano) com o sistema de luzestruturada; (b) Parte da imagem original; (c) (d) Limiarização com o método de Otsu local; (e) (f) Limiarização com Pun local (REISS e TOMMASELLI, 2004).Christiane N. C. Kokubum
    • 1056.3. Segmentação A segmentação consiste em subdividir uma imagem em regiõeshomogêneas usando critérios de similaridade. Neste caso, o método desegmentação usado foi por crescimento de regiões, usando como critério desimilaridade os níveis de cinza. Neste processo de segmentação de regiões, o fundoda imagem recebe o rótulo 1 e os padrões são rotulados com números desde 2 até onúmero de padrões segmentados. Após a segmentação de um alvo, adiciona-se +1ao número do rótulo. Simultaneamente à segmentação, são calculadas ascoordenadas dos centros de massa de cada padrão. As coordenadas dos pixelssegmentados e o rótulo de cada padrão são armazenados em uma lista para serusada nas próximas etapas. Os resultados da etapa de segmentação podem serobservados na Figura 30. (a) (b) FIGURA 30 Resultados de imagens segmentadas. (a) Todos os alvos foram segmentados. (b) Alguns alvos não foram segmentados. Como pode ser observado na Figura 30a, todos os alvos foramsegmentados. Na Figura 30b, entretanto, alguns alvos não foram segmentados. IstoChristiane N. C. Kokubum
    • 106ocorreu porque foram feitas algumas considerações a respeito do tamanho do alvo,isto é, baseado na relação da distância focal da câmara com as distâncias máxima emínima do centro perspectivo da câmara à superfície do objeto, foi possíveldeterminar a quantidade aproximada de pixels de cada padrão. Assim, alvos comquantidade de pixels não pertencentes ao intervalo estabelecido são eliminadosapós a segmentação. Esta restrição ocorre para não adquirir pixels que sejam ruídosna imagem ou alvos muito grandes que são conseqüência da deformação dos alvosno objeto ou junção de alvos, proporcionando um reconhecimento equivocadoposteriormente.6.4. Classificação A partir da imagem segmentada, inicia-se uma das etapasfundamentais para a realização da reconstrução: a classificação dos alvos. Estaetapa é importante porque os seus resultados interferem completamente nalocalização precisa e posterior reconstrução pois as coordenadas aproximadas doscantos dos alvos são determinadas nesta etapa. A classificação de alvos objetivainformar a melhor correspondência do alvo segmentado quando comparado com ospadrões. Nesta etapa de classificação, dois métodos de correspondênciaforam comparados: a correspondência por padrão e a assinatura.Christiane N. C. Kokubum
    • 1076.4.1. Correspondência por correlação A correspondência por correlação consiste na comparação entre osníveis de cinza de duas imagens sobrepostas usando uma função desejada. Váriasfunções podem ser utilizadas, porém, neste trabalho foram comparadas cinco delas:erro, erro quadrático, correlação cruzada, covariância cruzada e covariância cruzadamodificada. A partir de testes realizados, observou-se que a função covariânciacruzada modificada é a que apresentou melhores resultados. Os resultados dasoutras funções acarretaram em erros de um e dois pixels em relação ao valor exatonas imagens testadas. Porém, esta função possui uma desvantagem em relação àsoutras funções: maior custo computacional porque a função é mais complexa.Mesmo havendo o inconveniente do custo computacional, decidiu-se usar estafunção para a classificação dos alvos porque as imagens a serem comparadas sãopequenas e não prejudicariam o rendimento computacional. Na função de covariância cruzada modificada, a melhorcorrespondência será aquela em que o coeficiente de correlação for o mais próximoda unidade. Porém, se a imagem sofre rotações, variações na escala ou perda departe do alvo, uma falsa correspondência pode ocorrer ou o coeficiente decorrelação ser tão pequeno que não possa ser considerado. A partir de testesrealizados, observou-se que um limiar para este coeficiente de correlação poderiaser 0.7 porque garantiria uma classificação correta para as imagens usadas e nãoprovocaria uma perda significativa dos alvos. Portanto, três metodologias foram comparadas: comparação dosalvos segmentados com os padrões pré-definidos e com as suas instânciasChristiane N. C. Kokubum
    • 108armazenadas, comparação dos alvos segmentados com os padrões pré-definidossuavizados e com as suas instâncias armazenadas suavizadas, comparação dosalvos segmentados com os padrões pré-definidos reamostrados.6.4.4.1. Comparação dos alvos segmentados com os padrões pré-definidos e comas suas instâncias armazenadas O método consiste, portanto, na comparação de todos os alvossegmentados na imagem com os cincos padrões armazenados e suas instânciasgeradas por modificação em relação à escala. No total são 45 padrões bináriosarmazenados. A variação de escala foi determinada a partir de observaçõesempíricas realizadas na imagem. Além das imagens de cada padrão, foramarmazenadas em uma estrutura de lista as coordenadas em pixels dos cantos, quesão usadas posteriormente como valores aproximados na localização precisa. Oresultado deste reconhecimento pode ser observado na Figura 31. Na Figura 31b, osalvos encontram-se sem rotação porque se concentram na parte central do cilindro,enquanto que na Figura 31d, os alvos estão distorcidos. Por uma questão de visualização, os alvos detectados forampintados em cores diferentes: padrão A (preto); padrão B (azul); padrão C(vermelho); padrão D (verde) e padrão E (roxo). Neste experimento, todos os alvos foram detectados corretamente(Figura 31c). Os alvos que não foram detectados apresentavam-se parcialmenteincompletos ou deformados pela superfície e não geraram um coeficiente deChristiane N. C. Kokubum
    • 109correlação maior que o pré-definido como limiar (0.7) com nenhum dos padrões ousuas instâncias. Uma dificuldade observada foi a detecção de alvos em escalasdiferentes em x e y e distorcidos (Figura 31d), já que não é recomendável gerarmuitos padrões instanciados, porque isto aumentaria o custo computacional. Nestescasos, como os alvos sofrem modificações diferentes em escalas x e y, umadetecção correta pode ocorrer, porém, as coordenadas aproximadas não sãoconfiáveis. Vale ressaltar que este procedimento proporciona bons resultadosporque é pequena a percentagem de alvos não reconhecidos (em torno de 15%).Isto garante um grande número de vértices para a localização precisa e tende agarantir uma melhor reconstrução do objeto se comparada com a reconstruçãoobtida apenas pelo centro de massa de cada alvo. Um exemplo de classificação detodos os alvos da imagem pode ser observado nas Figuras 32 e 33.Christiane N. C. Kokubum
    • 110 (a) (b) (c) (d) (e) FIGURA 31 Resultados da correspondência por correlação usando padrões binários(imagens invertidas). (a) Imagem dos alvos projetados em um cilindro; (b) Imagem realçada de uma imagem sem variação de rotação; (c) Classificação dos alvos para a imagem com padrões projetados distorcidos; (d) Imagem realçada de uma imagem com variação na rotação; (e) Classificação dos alvos para a imagem com padrões projetados distorcidos.Christiane N. C. Kokubum
    • 111FIGURA 32 - Classificação dos alvos de um cilindro após a segmentação (imagem invertida). FIGURA 33 - Classificação dos alvos após a segmentação de um dorso humano (imagem invertida).Christiane N. C. Kokubum
    • 112 Pensando em melhorar os resultados da classificação porcorrelação, usaram-se os mesmos padrões armazenados e suas instânciassuavizadas pela média.6.4.4.2. Comparação dos alvos segmentados com os padrões pré-definidossuavizados e com as suas instâncias suavizadas armazenados Esta escolha foi feita observando como eram os alvos projetados, jáque a correspondência com alvos binários poderia ser prejudicada por causa davariação entre os níveis de cinza entre as imagens armazenadas e segmentadas. Osresultados após estas considerações podem ser observados na Figura 34. Como pode ser observada na Figura 34, a correspondência porcorrelação usando padrões armazenados suavizados garantiu melhores resultadosque o método usando imagens binárias. Em imagens com pouca variação narotação, este método conseguiu classificar aproximadamente 94% dos alvossegmentados enquanto em imagens com variação na rotação, 90% dos alvos foramclassificados corretamente. Mesmo considerando que os resultados eram bons com asmetodologias anteriores, decidiu-se refinar ainda mais os resultados. Como os alvosprojetados sofrem uma variação diferente de escala em x e y, o alvo segmentadopoderia ser correlacionado com um padrão de diferente tamanho e proporcionarcoordenadas aproximadas incorretas para a localização precisa. Uma possibilidadeseria aumentar o número de padrões armazenados, porém, isto aumentaria o custoChristiane N. C. Kokubum
    • 113computacional. Uma melhor maneira, foi trabalhar com padrões reamostrados emtempo real. (a) (b) (c) (d) FIGURA 34 Resultados da correspondência por correlação usando padrões suavizados pela média (imagens invertidas) (a) Imagem realçada de uma imagem sem variação de rotação; (b) Classificação dos alvos para a imagem sem variação da rotação; (c) Imagem realçada de uma imagem com padrões projetados distorcidos; (d) Classificação dos alvos para a imagem com padrões projetados distorcidos.6.4.4.3. Comparação dos alvos segmentados com os padrões pré-definidosreamostrados Esta metodologia consiste armazenar apenas os cinco padrõesprimitivos e a partir do conhecimento da dimensão dos alvos segmentados,Christiane N. C. Kokubum
    • 114reamostrá-los em tempo real. Neste caso, três experimentos foram realizados:reamostrando padrões primitivos com dimensão 23 x 23 pixels, 90 x 90 pixels (commoldura) e 90 x 90 pixels (sem moldura).- 1º Experimento: Reamostrando padrões primitivos com dimensão 23 x 23pixels Esta dimensão dos padrões armazenados foi escolhidaempiricamente, a partir de observações realizadas na imagem. A dimensão dosalvos segmentados foi obtida a partir da diferença entre as coordenadas máximas emínimas de cada alvo. Este procedimento pode ser usado, neste caso, porque asimagens usadas possuem uma pequena variação da rotação. O método usado paraa reamostragem dos alvos nas imagens foi o método de interpolação bilinear (Seção4.1.2). Para este tipo de método, aproximadamente 96% dos alvos conseguiram serclassificados corretamente para imagens com pequena rotação e em regiões comum alto gradiente, todos os alvos foram classificados (Figura 35). É importanteressaltar que este procedimento conseguiu classificar corretamente mesmo algunsalvos estando incompletos.Christiane N. C. Kokubum
    • 115 (b) (a) (c) (d) FIGURA 35 Resultados da correspondência por correlação usando padrões reamostrados (Padrões 23 pixels x 23 pixels) (imagens invertidas) (a) Imagemrealçada de uma imagem sem variação de rotação; (b) Classificação dos alvos para a imagem sem variação da rotação; (c) Imagem realçada de uma imagem com padrões projetados distorcidos; (d) Classificação dos alvos para a imagem com padrões projetados distorcidos. Posteriormente, observou-se, adicionalmente, que esta técnica declassificação poderia ser melhorada ainda mais a partir do uso de padrões comdimensão proporcional ao do alvo projetado ao invés da escolha empírica de suadimensão, com base apenas na observação dos alvos na imagem. Neste caso, adimensão escolhida para os padrões armazenados foi de 90 pixels x 90 pixels.Christiane N. C. Kokubum
    • 116- 2º Experimento: Reamostrando padrões primitivos com dimensão 90 x 90pixels (sem moldura) Neste experimento, resolveu-se reamostrar apenas a parte brancado alvo e posteriormente, inserir a moldura preta com dimensão de 2 pixels (Figura36). Os resultados obtidos com este método podem ser observados na Figura 37. FIGURA 36 Reamostragem dos padrões primitivos sem moldura.Christiane N. C. Kokubum
    • 117 (a) (b) (c) (d) FIGURA 37 Resultados da correspondência por correlação usando padrões reamostrados sem bordas (Padrões 90 pixels x 90 pixels) (a) Imagem realçada de uma imagem sem variação de rotação; (b) Classificação dos alvos para a imagem sem variação da rotação; (c) Imagem realçada de uma imagem com padrões projetados distorcidos; (d) Classificação dos alvos para a imagem com padrões projetados distorcidos.- 3º Experimento: Reamostrando padrões primitivos com dimensão 90 x 90pixels (com moldura) Como o resultado obtido e mostrado na Figura 37 não proporcionouos resultados esperados, decidiu-se usar padrões com dimensão proporcional ao doalvo projetado (90 pixels x 90 pixels). Porém, ao invés de reamostrar o alvo sem asChristiane N. C. Kokubum
    • 118molduras, reamostrou-os com molduras de dimensão 2 pixels. Os resultados destametodologia podem ser observados na Figura 38. (a) (b) (c) (d) FIGURA 38 Resultados da correspondência por correlação usando padrõesreamostrados usando molduras (Padrões 90 pixels x 90 pixels) (a) Imagem realçadade uma imagem sem variação de rotação; (b) Classificação dos alvos para a imagem sem variação da rotação; (c) Imagem realçada de uma imagem com padrões projetados distorcidos; (d) Classificação dos alvos para a imagem com padrões projetados distorcidos. A partir destes experimentos realizados pode-se observar que osmétodos usando a reamostragem por interpolação bilinear em tempo realproporcionaram melhores resultados. Além disso, usando o método dereamostragem por interpolação bilinear, pode-se diminuir o limiar até valores como0.5, e mesmo assim o procedimento ainda consegue correlacionar perfeitamenteChristiane N. C. Kokubum
    • 119sem muitas perdas de alvos. Verificou-se, ainda, que não é viável reamostrar apenasa imagem sem as molduras e depois inseri-las. Este procedimento faz com que aimagem não sofra uma suavização e os valores dos coeficientes de correlaçãosejam inferiores aos valores estipulados anteriormente. Realizando este mesmoprocedimento com os alvos pré-definidos, a perda de alvos é mais elevada e ainda,alguns alvos já começam a ser correlacionados erroneamente. Por outro lado, ométodo de classificação usando alvos pré-definidos também proporcionou bonsresultados e poderia ser melhorado ainda mais, se o número de padrõesarmazenados fosse maior. Porém, isso não é viável porque aumentaria muito ocusto computacional.6.4.2. Assinatura A assinatura de um alvo consiste de um gráfico relacionando adistância e a direção de cada pixel pertencente à sua fronteira. Para determinar ospixels que fazem parte da fronteira, uma extração é realizada usando o método deperseguição de fronteiras (Figura 39). Neste método, uma estrutura de lista é criadacomposta do número do rótulo do alvo e as respectivas coordenadas dos pixelspertencentes à fronteira. Como os alvos encontram-se com dimensão pequena, asegmentação, em alguns casos, não proporciona resultados satisfatórios,interferindo na extração da fronteira e prejudicando na detecção pelo método daassinatura (ver Figura 39).Christiane N. C. Kokubum
    • 120 (a) (b) FIGURA 39 Extração de fronteiras usando o método de perseguição de fronteiras. (a) Extração de fronteiras dos alvos projetados em um cilindro; (b) Detalhe da imagem com as fronteiras dos alvos extraídos. Para a comparação entre as assinaturas armazenadas (relacionadasaos padrões) e assinaturas geradas (referentes aos alvos segmentados), resolveu-se primeiramente, armazenar as distâncias e as direções em um arquivo comextensão .dat. Porém, o usuário poderia querer alterar os padrões a seremcomparados e, para isto, decidiu-se determinar a assinatura dos padrõesChristiane N. C. Kokubum
    • 121armazenados juntamente com as dos alvos segmentados. As características dasassinaturas de cada padrão armazenado podem ser vistas na Figura 40. Padrão A 7 6 5 4 Padrão A 3 2 1 0 0 0,39 0,96 1,44 1,78 2,3 2,84 3,2 3,64 4,21 4,65 5,01 5,56 6,07 Padrão B Padrão C 7 12 6 10 5 8 4 Padrão B 6 Padrão C 3 4 2 1 2 0 0 0 0,46 0,79 1,29 1,97 2,43 2,99 3,65 4,04 4,41 4,71 4,7 6,28 6,28 0 0,41 5,67 5,68 4,09 4,09 3,71 3,38 3,36 4,04 4,54 5,05 5,73 6,17 Padrão D Padrão E 9 7 8 6 7 5 6 5 4 Padrão D Padrão E 4 3 3 2 2 1 1 0 0 0 0,5 1,12 1,54 1,94 2,32 2,36 3,72 3,81 4,02 4,43 4,82 5,39 5,98 0 0,34 0,96 1,58 2,01 2,66 3,23 3,55 4 4,09 4,07 5,68 5,67 6,14 FIGURA 40 - Assinatura dos padrões armazenados. Como dito anteriormente, estes gráficos são gerados a partir doconhecimento das distâncias e das direções. As direções são obtidas a partir doconhecimento de três pontos: dois pontos da fronteira e o centróide usando afórmula dos cossenos. Portanto, este gráfico é construído com as direções (emfunção das distâncias) no eixo das abscissas e as distâncias no eixo das ordenadasChristiane N. C. Kokubum
    • 122(em função das coordenadas dos pixels pertencentes à fronteira e o centro demassa do padrão). Para comparar as assinaturas geradas e armazenadas, quatro errosmétricos foram calculados: erro de distância, erro de forma, erro de dispersão e errode correlação. Para isto, necessitou-se realizar uma subamostragem dos dados paradeterminar o erro de correlação porque na determinação deste erro, necessita-seque tanto o padrão armazenado quanto o alvo gerado tenham a mesma quantidadede pixels na fronteira. A subamostragem foi realizada fazendo com que o alvo commaior quantidade de pixels na fronteira tivesse no final, um número idêntico ao outroalvo. O resultado desta subamostragem pode ser observado na Figura 41. Apóstestes realizados, observou-se que os erros métricos de distância, dispersão e formanão poderiam ser usados para os tipos de alvos escolhidos neste trabalho porque osalvos B, C, D e E são idênticos, variando apenas na rotação. Portanto, preferiu-seusar apenas a métrica de correlação.Christiane N. C. Kokubum
    • 123 Te m plate A Te m plate CPadrão A Padr ão maior Padrão C Templat e Templat e P adr ão m aior Padr ão P adr ão subamost r ado subam ost r ado Te m plate A Te m plate C Templat e Tem plat e Padr ão menor P adr ão m enor Templat e Tem plat e subamost r ado subam ost r ado Te m plate B T emp l at e DPadrão B P adr ão Templ ate subam ost r ado Padrão D Tem plat e Padr ão mai or Padr ão P adr ão m aior subamostr ado Te m plate B Te m plate D Tem plat e Templat e P adr ão m enor Padr ão menor Tem plat e Templat e subam ost r ado subamost r ado Te m plate E Te m plate EPadrão E Templat e Templat e Padr ão maior Padr ão menor Padr ão Templat e subamost r ado subamost r ado FIGURA 41 Assinaturas dos padrões e dos alvos segmentados. A Figura 41 mostra os resultados da subamostragem da assinatura. São mostrados dois gráficos para cada tipo de alvo e cada gráfico contém três Christiane N. C. Kokubum
    • 124assinaturas. Os gráficos mostram a assinatura do padrão, a assinatura do alvosegmentado e a assinatura do padrão ou do alvo subamostrado, dependendo daquantidade de pixels. A partir destes gráficos, pode-se perceber a similaridade dasassinaturas dos alvos após a reamostragem. O problema de compatibilização dasassinaturas por meio de reamostragem é complicado, pois ao reamostrar pode-seperder informação. Na Figura 41 podem ser vistos padrões nos quais os picos sãoachatados, em função da reamostragem. Os resultados obtidos com o método deassinatura usando a subamostragem dos dados proporcionaram uma classificaçãocorreta de aproximadamente 67% dos alvos em regiões com pequena variação narotação (centro do cilindro) e 55% em regiões com alto gradiente. Os alvosvermelhos na Figura 42 indicam que estes não foram classificados. FIGURA 42 Resultado da classificação usando o método de assinatura. Pensando em melhorar estes resultados, decidiu-se realizar umasuperamostragem dos dados com uma freqüência de, no mínimo, duas vezesChristiane N. C. Kokubum
    • 125superior a maior freqüência para não haver perda de dados. Porém, os resultadosobtidos não proporcionaram melhores resultados que a subamostragem dos dados.6.5. Localização precisa A etapa de localização precisa possui como objetivo obter ascoordenadas dos cantos dos alvos projetados com precisão subpixel. Os valoresaproximados para as coordenadas com precisão pixel foram obtidos após aclassificação dos alvos. Para realizar esta etapa, dois métodos foram comparados:correlação por mínimos quadrados e detecção de cantos.6.5.1. Correspondência de imagens por mínimos quadrados A correspondência de imagens por mínimos quadrados consiste emrefinar a solução obtida na detecção de alvos a partir da determinação dosparâmetros geométricos usando o ajustamento baseado no método paramétrico(Seção 4.1.2). Neste caso, dois experimentos foram comparados: um usandopadrões pré-definidos e o outro com padrões reamostrados. O resultado do experimento referente à localização precisa usandoalvos pré-definidos pode ser observado na Figura 43.Christiane N. C. Kokubum
    • 126Cantos obtidos da classificação azulCantos com coordenadas subpixel cor-de-rosa FIGURA 43 - Localização precisa dos alvos usando padrões pré-definidos. Na Figura 43 podem ser observados os cantos plotados a partir dosvalores aproximados, resultantes do processo de classificação de alvos comocírculos amarelo, e os cantos com coordenadas subpixel em verde. Como pode ser observada na Figura 43, a localização precisa foidificultada porque os valores aproximados resultantes do processo de detecçãousando padrões pré-definidos, não foram precisos o suficiente. Isto ocorre porque hávariações de escalas diferentes em x e y. Para melhorar a localização precisa, decidiu-se gerar apenas cincopadrões para serem comparados. Neste caso, como se conhecia a altura e a largurado alvo, fez-se uma reamostragem dos alvos a partir de uma interpolação bilinear.Como as imagens usadas não possuíam uma rotação muito elevada, este métodode reamostragem do alvo a partir do conhecimento da altura e da largura nãoacarretou em problemas. A localização precisa, neste caso, forneceu melhoresresultados porque foram melhores as coordenadas aproximadas com precisão pixel(Figura 44).Christiane N. C. Kokubum
    • 127Cantos obtidos da classificação azulCantos com precisão subpixel - amarelo FIGURA 44 Localização precisa usando o método de reamostragem dos padrões.6.5.2. Detecção de cantos Antes de detectar os vértices com precisão subpixel, foi necessáriodeterminar os gradientes da imagem. Para isto, foram usados os operadores deSobel como descritos na Seção 2.8.1.1. Para cada convolução das máscaras nasubimagem, os gradientes em x e y para o pixel central são determinados a partir deuma maior imagem recortada. Por exemplo, se a máscara de gradientes a serdeterminada é 5 pixels x 5 pixels, seleciona-se uma imagem 7 pixels x 7 pixels. Comtodos os gradientes em x e y da imagem obtidos e com a localização aproximadados vértices dos alvos obtida pela correlação no momento da classificação,determinou-se os cantos dos alvos com precisão subpixel. As coordenadas subpixelforam obtidas a partir de um programa baseado em Galo e Tozzi (2002). Como areamostragem por interpolação bilinear proporcionou melhores resultados que aChristiane N. C. Kokubum
    • 128utilização de padrões pré-definidos, resolveu-se fazer experimentos apenas com adetecção de cantos usando padrões reamostrados em tempo real (Figura 45).Cantos obtidos da classificação amarelo.Cantos com precisão subpixel vermelho. FIGURA 45 Localização precisa por detecção de cantos usando padrões reamostrados. Como visualmente é difícil afirmar qual o melhor método delocalização precisa, resolveu-se realizar a reconstrução de duas linhas selecionadasde uma imagem (linhas 14 e 15) (Figura 46). Inicialmente, escolheu-se uma imagemde um plano com quatro diferentes orientações. Para cada imagem, determinaram-se as coordenadas de todos os vértices usando três métodos: correspondência pormínimos quadrados usando padrões pré-definidos e suas instâncias;correspondência por mínimos quadrados reamostrando em tempo real os padrõesarmazenados; e, detecção de cantos reamostrando os padrões armazenados. Areamostragem destes padrões é feita a partir do conhecimento da altura e da largurado alvo segmentado. Com as coordenadas determinadas, criaram-se três arquivos,um para cada método. Cada arquivo é composto pelo nome da imagem,Christiane N. C. Kokubum
    • 129identificação do padrão e as coordenadas de imagem de cada vértice (Tabela 6).Além disso, as coordenadas do centro de massa dos demais alvos foram usadas. FIGURA 46 Uma das quatro imagens usadas para calibração da câmara. TABELA 6 Exemplo de saída do reconhecimento de padrões. Nome da imagem Identificador do Coordenadas (pixel) sem extensão padrão X Y DCP_2517 145413 1377,54 530,54 O identificador do padrão é dividido em quatro partes: os quatroprimeiros dígitos equivalem à linha e a coluna do padrão, respectivamente. O quintodígito está relacionado ao número do vértice do padrão e o último ao tipo do padrão.A numeração dos vértices de cada padrão inicia-se no ponto inicial mostrado naFigura 24 e continua no sentido horário. Em relação ao tipo do padrão, a numeraçãoé a seguinte: A (1), B (2), C (3), D (4) e E (5). Para a realização da reconstrução, dois procedimentos sãonecessários anteriormente: calibração da câmara e calibração do projetor.Christiane N. C. Kokubum
    • 130 A calibração do projetor consiste na determinação dos vetoresdiretores de cada padrão projetado e das coordenadas do projetor no referencial dacâmara (Xp, Yp e Zp). Para realização desta etapa, necessita-se: - Determinação dos parâmetros de orientação interior a partir dacalibração de câmara; - Resseção espacial para determinação dos parâmetros deorientação exterior. Esta etapa depende das coordenadas dos alvos fixados na placade calibração (pontos de apoio sistema global) e das coordenadas dos mesmospontos na imagem; - Calibração do projetor: nesta etapa, calculam-se, inicialmente, ascoordenadas dos pontos projetados no referencial global, usando suas coordenadasimagem, os parâmetros de orientação exterior obtidos na etapa anterior e a equaçãode colinearidade inversa. Com várias nuvens de pontos, que correspondem a váriosplanos de projeção, calculam-se os elementos do projetor (REISS e TOMMASELLI,2004). Com as coordenadas X, Y e Z no espaço objeto de cada ponto,determina-se a coordenada Z a partir do ajuste de um plano (Seção 5.2.7).Calculam-se, então, as discrepâncias entre as coordenadas Z obtidas dareconstrução e as coordenadas Z obtidas pela equação do plano ajustado, e,posteriormente, o erro médio quadrático para todas as discrepâncias. O programa dereconstrução 3D foi baseado na modelagem matemática desenvolvida na primeiraversão do sistema de reconstrução (TOMMASELLI, 1997). Como os alvos do tipo A oferecem uma detecção e uma localizaçãoprecisa melhor que outros alvos, decidiu-se realizar dois experimentos. O primeiroexperimento consiste em determinar o erro médio quadrático usando apenas osChristiane N. C. Kokubum
    • 131vértices dos padrões do tipo A enquanto o segundo experimento, calcula o erromédio quadrático para os vértices de todos os alvos. Os erros médios quadráticos determinados por cada método noexperimento um podem ser observados na Tabela 7. TABELA 7 - Métodos usados e respectivos erros médios quadrático usando apenas os alvos do tipo A. Coeficientes da regressão EMQ Erro Erro Método polinomial (mm) máximo mínim usado A00 A01 A10 (mm) o (mm) MQ (PPD) -1083.599 0.0065506 0.0807629 0.84 5.042 -3.146 MQ (PR) -1083.570 0.0069474 0.0806655 0.44 3.341 0.000 DC (PR) -1083.611 0.0066874 0.0810187 0.39 2.019 0.000MQ Método dos mínimos quadrados DC Detector de cantosPPD Padrões pré-definidos PR Padrões reamostrados Como pode ser observado pela Tabela 7, o método que obtevemelhores resultados foi o detector de cantos usando imagens reamostradas. Osresultados da localização precisa com alvos reamostrados foram melhores do que oscom alvos pré-definidos, o que já era esperado, porque não ocorre o problema dedetecção com alvos de tamanhos diferentes, acarretando em incertezas nascoordenadas dos vértices aproximados da etapa de detecção de alvos. Como o erromédio quadrático obtido com o método dos mínimos quadrados com alvos pré-definidos foi elevado em relação aos outros métodos, decidiu-se comparar somenteos outros dois métodos: detecção de cantos e MMQ usando alvos reamostrados(Tabela 8).Christiane N. C. Kokubum
    • 132TABELA 8 Resultados da reconstrução usando o método de detector de cantos para todos os cinco padrões. Coeficientes da regressão EMQ Erro Erro ErroMétodo polinomial (mm) máximo mínimo relativousado A00 A01 A10 (mm) (mm)MQ (PR) -1083.711 0.0069474 0.0806655 0.71 6.349 0.000 1/1600DC (PR) -1083,585 0,0066416 0,0799038 0.52 5.776 0.000 1/2000 A partir destes resultados, pode-se dizer que ambos os métodosofereceram bons resultados. A partir do EMQ pode-se afirmar que a detecção decantos proporcionou melhores resultados para este trabalho, porém, a diferençaentre os dois métodos é pequena, o que permite afirmar que ambos os métodos sãobons para a localização precisa. Além disso, estes experimentos mostraram que ométodo de reamostragem dos padrões é significativamente melhor que o métodousando padrões pré-definidos.Christiane N. C. Kokubum
    • 133 CAPÍTULO VII7. CONCLUSÕES E RECOMENDAÇÕES O processo de classificação de alvos por correspondência depadrões, apresentado neste trabalho, produziu bons resultados em imagenscoletadas com um sistema de luz estruturada. Como pôde ser observado, aidentificação de alvos usando o método baseado em área proporcionou melhoresresultados do que o método baseado em assinatura. Isto pode ser conseqüência dospré-processamentos realizados como perseguição de fronteiras ou da dimensão dosalvos. Com relação ao tipo de padrões pré-definidos a serem usados (template),notou-se que o uso de imagens suavizadas proporcionou melhores resultados doque padrões binários. Para classificação, os padrões reamostrados em tempo realfoi o que apresentou os melhores resultados. Com relação à localização precisa usando o método decorrespondência por mínimos quadrados, o método de reamostragem em tempo realdos padrões primitivos provou ser melhor que o método usando alvos pré-definidos esuas instâncias estáticas. Verificou-se, ainda, que a diferença entre os resultadosproporcionados pelos métodos de detecção de cantos e de correspondência pormínimos quadrados é pequena, permitindo afirmar que ambos os métodos sãoequivalentes para a localização precisa. Em ambos os casos os cantos dos alvosforam localizados com precisão subpixel. Além disso, podem-se mencionar os seguintes problemas dacorrespondência por mínimos quadrados: determinação dos valores aproximadosChristiane N. C. Kokubum
    • 134dos cantos dos padrões e a forma dos padrões projetados. O problema na forma dospadrões está relacionado a retas em que os gradientes são idênticos nestas áreas. Uma analogia muito interessante a se mencionar neste trabalho estárelacionada às duas metodologias comparadas para localização precisa. Ambos osmétodos (Moravec e correspondência por padrão) determinam coordenadasaproximadas com precisão pixel e estas mesmas coordenadas são refinadas pelosmétodos de Förstner e correspondência por mínimos quadrados. Outras estratégias que podem ser usadas para melhorar osresultados são: - Utilizar o conhecimento à priori a respeito das posições e das orientações da câmara e do projetor em relação ao espaço objeto para fazer a predição de localização e aspecto do alvo; - Realizar uma predição da rotação e da escala do alvo a partir do conhecimento das distâncias e dos ângulos entre os alvos segmentados e a partir disto reamostrar os alvos primitivos. Esta estratégia parece ser confiável, porém, possui problemas em áreas de descontinuidades; - Realizar a detecção de padrões unindo os dados obtidos pelos detectores baseados em área e baseados em contornos (assinatura); - Realizar uma operação de melhoramento local da imagem por meio da técnica de especificação do histograma, o que deve melhorar a localização precisa dos alvos; - Melhorar o sistema de projeção e captura com a aquisição de uma nova câmara de melhor resolução e construção.Christiane N. C. Kokubum
    • 135REFERÊNCIAS BIBLIOGRÁFICASACKERMAN, F. High precision digital image correlation. Proceedings of the 39thPhotogrammetric Week, Stuttgart, 1984, p. 231-243.ANDRADE, J. B. Fotogrametria. Curitiba. SBEE, 1998.ARTERO, A.O. Técnicas para a extração automática de feições retas emimagens digitais. Dissertação de Mestrado, Curso de Pós Graduação em CiênciasCartográficas, Presidente Prudente, 1999, 117p.BALLARD, D.H.; BROWN, C.M. Computer Vision, New Jersey: Prentice-Hall, 1982,522p.BATTLE, J.; MOUADIBB, E.; SALVI, J. Recent progress in coded structured lightas a technique to solve the correspondence problem: a survey. PatternRecognition, vol. 31, nº 7, p. 963-982, 1996.BOYER, K. L; KAK, A. C. Color-encoded structured light for rapid range sensing.IEEE Transactions Pattern Analysis machine Intelligence, vol. PAMI-9, nº 1, p. 14-28,1987.CARRIHILL, B; HUMMEL, R. Experiments with the intensity ratio depth sensor.Computer Vision Graphics Image Processing, vol. 32, p. 337-358, 1985.COSTA, E. R.; TOMMASELLI, A.M.G.; GALO, M.. Incorporação da pré-análise noprocesso de correspondência de pontos em Fotogrametria Digital. XXICongresso Brasileiro de Cartografia, Belo Horizonte, 2003.DALLAS, R.W.A. Architectural and archaelogical Photogrammetry. In: ATKINSON,K.B. Close range photogrammetry and machine vision. Department ofPhotogrammetry and Surveying, University College London. Whittles Publishing, 1996.DREWNIOK, C.; ROHR, K. Exterior orientation an automatic approach basedon fitting analytic landmark models. ISPRS JOURNAL OF PHOTOGRAMMETRY& REMOTE SENSING 52, 132-145, Alemanha, 1997.Christiane N. C. Kokubum
    • 136DUNN, S. M.; KEIZER, R. L. Measuring the area and volume of the human bodywith structured light. IEEE TRANSACTIONS ON SYSTEMS, MAN, ANDCYBERNETICS, vol. 19, nº 6, 1989.EL-HAKIM, S. F. Vision-based automated measurement techniques. In:ATKINSON, K.B. Close range photogrammetry and machine vision. Department ofPhotogrammetry and Surveying, University College London. Whittles Publishing, 1996.FRASER, C.S. Industrial measurement applications. In: ATKINSON, K.B. Closerange photogrammetry and machine vision. Department of Photogrammetry andSurveying, University College London. Whittles Publishing, 1996.GALO, M. Calibração e Aplicação de Câmaras Digitais. Curitiba, 1993.Dissertação de Mestrado, Curso de Pós-Graduação em Ciências Geodésicas,UFPR.GALO, M; TOZZI, C. L. Extração de pontos com acurácia subpixel em imagensdigitais. Série em Ciências Geodésicas. Universidade Federal do Paraná, Curso dePós-Graduação em Ciências Geodésicas, Curitiba, volume 2, 2002.GEMAEL, C. Introdução ao ajustamento de observações: aplicações geodésicas.Curitiba, UFPR, 1994, 319p.GONZALES, R.C., Digital Image Processing, Addison Wesley, New York, 1993.GONZALEZ, R. C.; WOODS, R. E. Processamento de Imagens Digitais, Tradução:Roberto Marcondes César Junior e Luciano da Fontoura Costa, Ed, Edgard Blücher,São Paulo, 2000, 509p.GRUEN, A. Least squares matching: a fundamental measurement algorithm. In:ATKINSON, K. B. Close range photogrammetry and machine vision. Department ofPhotogrammetry and Surveying, University College London. Whittles Publishing,1996.HARALICK, R.; SHAPIRO, L. G. Computer and robot vision. Reading: Addison-Wesley Publishing Company, 1993, Vol. II, 630 p.HASEGAWA, J. K.; KÜNZLI, R.; THOMAZ, R. C. C. Corrida contra o tempo:Salvamento arqueológico. Geoconvergência, vol. 2, nº 2, 1999.HATTORI, S.; AKIMOTO, K.; OKAMOTO, A.; HASEGAWA, H.; FRASER, C.S.Design and Use of Coded Targets for Automatic Measurement with a CCDChristiane N. C. Kokubum
    • 137Camera. ASPRS Annual Conference. Portland, Oregon, American Society ofPhotogrammetry & Remote Sensing: 11, 2000.HOWARD, A; PADGETT, C. A generalized approach to real-time patternrecognition in sensed data. Pattern Recognition 32, 1999, p. 2069-2071.JAIN, A. K.; DUIN, R.P.W.; MAO, J. Statistical Pattern Recognition: A Review. In:IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol: 22, No. 1, 5-37:264-323, January 2000.KEEFE, M; RILEY, D. R. Capturing facial surface information. PhotogrammetricEngineering and Remote Sensing, vol. 52, p. 1539-1548, 1986.KRAUS, K. Photogrammetry Fundamentals and Standard Processes.DÜMMLER / BONN, volume 1, 1993.MAAS, H.G. Robust Automatic Surface Reconstruction with Structured Light.In: INTERNATIONAL ARCHIVES OF PHOTOGRAMMETRY AND REMOTESENSING. Proceedings. P.709-713. Washington, 1992.MAYR, W.; POTH, Z. Automatic generation of stereomodels. JOINT ISPRSWORKSHOP WG III/2 AND IC WG II/III. Stockholm, Sweden, 1995.MIKHAIL, E. M., BETHEL, J. S, MCGLONE, J. C. Introduction to ModernPhotogrammetry. Ed. John Wiley & Sons, Inc. New York, 2001.MUSTAFA, A. A. Y.; SHAPIRO, L.G.; GANTER, M.A. 3D object identification withcolor and curvature signatures. Pattern recognition, 1999, 339-355.NEWTON, I.; MITCHELL, H.L. Medical Photogrammetry. In: ATKINSON, K. B.Close range photogrammetry and machine vision. Department of Photogrammetryand Surveying, University College London. Whittles Publishing, 1996.OOSTERLINCK, A.; VUYLSTEKE, P. Range image acquisition with a singlebinary-encoded light pattern. IEEE Transactions on pattern analysis and machineintelligence, vol. 12, nº 2, 1990.OTSU, N. A threshold selection method from gray-level histogram. IEEETransactions on System Man Cybernetics, Vol. SMC-9, nº 1, 1979, pp. 62-66.Christiane N. C. Kokubum
    • 138REISS, M.L.L; TOMMASELLI, A.M.G. Calibração de um projetor de padrões parareconstrução 3D por luz estruturada. I SIMGEO Simpósio de CiênciasGeodésicas e tecnologias da Geoinformação, Recife, 2004.SCALCO, P.A.P. Determinação automática de correspondência em um sistemade reconstrução com luz estruturada. Dissertação de Mestrado. Curso de PósGraduação em Ciências Cartográficas, FCT/UNESP, Presidente Prudente, 2000.SCHALKOFF, R.J. Digital image processing and computer vision. Department ofElectrical and Computer Engineering Clemson University, 1989.SCHENK, T. Digital Photogrammetry. The Ohio State University, volume 1, 1999.SONKA, M.; VAKLAV, H; BOYLE, R. Image processing, analysis, and machinevision. PWS PUBLISHING. 770p, 1998.SPRING: Tutorial de Geoprocessamento. Descrição geral do SPRING.Disponível em: <http://www.dpi.inpe.br/spring/teoria/index.html>. Acesso em: 03 demarço de 2003.TING, A.; LEUNG, M. K. H.. Form recognition using linear structure. PatternRecognition 32, 1999, p. 645-656.TOMMASELLI, A.M.G. Implementação de Um Sistema Fotogramétrico DigitalPara Reconstrução de Imagens. Relatório Final de Bolsa de Pesquisa, nível 2c,apresentado ao CNPq, Faculdade de Ciências e Tecnologia, Unesp, PresidentePrudente, 1997, 115p.TOMMASELLI, A. M. G.; GALO, M.; HASEGAWA, J. K. Modernas Tecnologias deAquisição de Imagens em Fotogrametria. BOLETIM DE CIÊNCIASGEODÉSICAS. Curitiba, v. 6, nº 1, p. 49-64, 2000.TOMMASELLI, A. M. G.; GALO, M.; HASEGAWA, J. K. Desenvolvimento de umabiblioteca de funções e classes para Fotogrametria. XXI Congresso Brasileiro deCartografia, Belo Horizonte, 2003.WANG, Y. F.; MITICHE, A.; AGGARWAL, J. K. Computation of surface orientationand structure of objects using grid coding. IEEE Transactions on Pattern AnalysisMachine Intelligence, vol. PAMI-9, nº 1, p. 129-137, 1987.Christiane N. C. Kokubum
    • 139WOLF, P.R. Elements of Photogrammetry, with air photo interpretation andremote sensing. McGRAW-HILL Internation Editions, 1983.Christiane N. C. Kokubum
    • This document was created with Win2PDF available at http://www.daneprairie.com.The unregistered version of Win2PDF is for evaluation or non-commercial use only.