E-book Fotogrametria Digital
-
Upload
egberto-pereira-santos-filho -
Category
Documents
-
view
13 -
download
1
description
Transcript of E-book Fotogrametria Digital
FOTOGRAMETRIA DIGITAL
1a. Edição
Jorge BRITO
Luiz COELHO
Instituto Militar de Engenharia
2002
i.1
c2002
INSTITUTO MILITAR DE ENGENHARIA
Praça General Tibúrcio, 80 – Praia Vermelha
Rio de Janeiro - RJ CEP: 22290-270
Este exemplar é de propriedade do Instituto Militar de Engenharia, que
poderá incluí-lo em base de dados, armazenar em computador, microfilmar ou
adotar qualquer forma de arquivamento.
É permitida a menção, reprodução parcial ou integral e a transmissão
entre bibliotecas deste trabalho, sem modificação de seu texto, em qualquer
meio que esteja ou venha a ser fixado, para pesquisa acadêmica, comentários e
citações, desde que sem finalidade comercial e que seja feita a referência
bibliográfica completa.
Os conceitos expressos neste trabalho são de responsabilidade do(s)
autor(es).
i.2
PREFÁCIO
Esta obra traduz o esforço e a motivação de um jovem engenheiro e
promissor pesquisador, recém-graduado em Engenharia Cartográfica, cujo
interesse pela fotogrametria digital transcendeu as atividades acadêmicas da
disciplina homônima, que lhe foi ministrada no currículo de Graduação do
Instituto Militar de Engenharia, no ano de 2001.
Tendo partido de um conjunto de notas de aula preparadas, em 1999,
pela equipe de professores da disciplina Fotogrametria Digital, no IME, a
qual tive o privilégio de liderar, seu autor estendeu e consolidou os
ensinamentos teórico-práticos recebidos, por intermédio de um projeto de
final de Curso que teve, dentre seus objetivos, a disponibilização do material
didático que ora se apresenta, sobre o tema em questão, julgado de grande
importância para o campo do conhecimento da engenharia cartográfica.
A obra está organizada em dez capítulos, a saber: 1. Introdução; 2.
Princípios Básicos; 3. Orientação Interior; 4. Correlação de Imagens; 5.
Orientação Exterior; 6. Aerotriangulação Analítica; 7. Retificação e
Normalização de Imagens; 8. Extração de MDT; 9. Ortorretificação e; 10.
Restituição Digital. Estes capítulos compõem o núcleo básico de assuntos
relacionados à fotogrametria digital. Na elaboração dos mesmos, o autor
procurou explicitar não apenas os princípios teóricos, mas também a
montagem das equações e algoritmos, além de realizar comparações entre
métodos e resultados. Como resultados da estratégia empregada pelo autor,
espera-se que a auto-aprendizagem possa ser obtida sem requisitar do
leitor qualquer conhecimento prévio sobre fotogrametria. Assim, espera-se
que o leitor que possua conhecimentos básicos sobre as ciências
cartográficas, possa, através do texto, compreender a fotogrametria como um
todo: seus princípios, conceitos e utilização atual.
i.3
Sem ter qualquer sombra de dúvida sobre a utilidade do presente
material, não só pelo seu conteúdo, mas, sobretudo, pela concatenação
lógica dos conceitos apresentados e pela clareza da redação, expresso meu
desejo de que os conceitos nele contidos possam ser entendidos, avaliados
e aprimorados pela maior quantidade possível de interessados.
Na oportunidade, agradeço ao autor desta obra pela deferência do
convite para a co-autoria da mesma, a qual declinei, apesar de endossar-lhe
o conteúdo, por não considerar justa a repartição do mérito pelo esforço e
êxito alcançados por este jovem engenheiro. Satisfaço-me intelectualmente
apenas pelo privilégio de tê-lo orientado e pela sua motivação para o
estudo da fotogrametria.
Como uma última idéia, gostaria de apontar o autor como um exemplo
a ser seguido pelas atuais e futuras gerações de engenheiros cartógrafos,
certo de que muito terá a contribuir para o engrandecimento das ciências
cartográficas no nosso país, em vista do potencial até aqui demonstrado.
Rio de Janeiro, novembro de 2002.
Jorge Luís Nunes e Silva Brito – Cel R/1 – Ph. D.
Sobre os Autores...
Jorge Luís Nunes e Silva Brito é formado em Engenharia Cartográfica pelo Instituto
Militar de Engenharia (1984), tendo seguido carreira como oficial do Quadro de Engenheiros
Militares do Exército Brasileiro. Possui os títulos de Mestre em Sistemas e Computação,
também pelo IME (1989) e Doutor em Ciências Geodésicas pela Ohio State University
(1996). Após vários anos de trabalho contínuo em ensino e pesquisa no Instituto, encontra-
se atualmente como Coronel na reserva, exercendo as funções de professor associado do
IME e efetivo da Universidade do Estado do Rio de Janeiro..
Luiz Carlos Teixeira Coelho Filho é formado em Engenharia Cartográfica também pelo
Instituto Militar de Engenharia (2002) e, tendo trabalhado desde 1999 como orientando do
primeiro na área de imageamento digital. Nos últimos três anos, vivenciou diretamente a
implementação de técnicas fotogramétricas digitais, vindo a culminar com o
desenvolvimento do projeto E-FOTO. Tendo escolhido a opção de carreira de oficial da
ativa, encontra-se atualmente como 1 o Tenente do Quadro de Engenheiros Militares
i.4
ÍNDICE
TÓPICO PÁGINA
CAPÍTULO 1 – INTRODUÇÃO À FOTOGRAMETRIA DIGITAL
1.1 FOTOGRAMETRIA – CONCEITO INICIAL ........................................... 1.1
1.2 CONTRADIÇÕES E DIVERGÊNCIAS QUANTO AO CONCEITO
DE FOTOGRAMETRIA ............................................................................... 1.3
1.3 OBJETIVO E CLASSIFICAÇÕES DA FOTOGRAMETRIA ................... 1.6
1.4 BREVE HISTÓRICO DA FOTOGRAMETRIA ..................................... 1.10
1.4.1 FOTOGRAMETRIA PIONEIRA (1840-1900) ................................... 1.10
1.4.2 FOTOGRAMETRIA ANALÓGICA (1901-1950) ................................ 1.11
1.4.3 FOTOGRAMETRIA ANALÍTICA (1951-1990) .................................. 1.12
1.4.4 FOTOGRAMETRIA DIGITAL (1990-DIAS DE HOJE) ...................... 1.13
1.5 OBJETIVO DA FOTOGRAMETRIA DIGITAL ..................................... 1.14
1.6 A ESTAÇÃO FOTOGRAMÉTRICA DIGITAL ...................................... 1.16
1.7 EXEMPLOS DE ESTAÇÕES FOTOGRAMÉTRICAS DIGITAIS E
SOFTWARES DE FOTOGRAMETRIA DIGITAL ...................................... 1.18
1.7.1 Z/I IMAGING .................................................................................... 1.18
1.7.2 LH SYSTEMS ................................................................................... 1.21
1.7.3 ISM ................................................................................................... 1.22
1.7.4 KLT ................................................................................................... 1.23
1.7.5 DAT/EM ............................................................................................ 1.24
1.7.6 VINGEO ........................................................................................... 1.25
1.7.7 DVP .................................................................................................. 1.26
1.7.8 TOPOL ............................................................................................. 1.27
1.7.9 SUPRESOFT ................................................................................... 1.28
1.7.10 AUTOMETRIC/BOEING ................................................................. 1.28
1.7.11 PROGRAMAS DIVERSOS EM FOTOGRAMETRIA ...................... 1.28
i.5
TÓPICO PÁGINA
1.8 CONCLUSÃO ...................................................................................... 1.29
REFERÊNCIAS BIBLIOGRÁFICAS .......................................................... 1.31
A
CAPÍTULO 2 – PRINCÍPIOS BÁSICOS DE FOTOGRAMETRIA
2.1 RADIAÇÃO ELETROMAGNÉTICA ....................................................... 2.1
2.1.1 INTERAÇÃO ENTRE DIFERENTES CORPOS E A ENERGIA
ELETROMAGNÉTICA ................................................................................. 2.6
2.1.2 A CÂMARA FOTOGRÁFICA .............................................................. 2.9
2.2. A CÂMARA FOTOGRAMÉTRICA ...................................................... 2.12
2.2.1 AQUISIÇÃO DE IMAGENS FOTOGRAMÉTRICAS ANALÓGICAS . 2.18
2.2.1.1 RESOLUÇÕES DAS IMAGENS FOTOGRAMÉTRICAS
ANALÓGICAS ........................................................................................... 2.21
2.2.2 AQUISIÇÃO DE IMAGENS FOTOGRAMÉTRICAS DIGITAIS ......... 2.25
2.2.2.1 RESOLUÇÕES DAS IMAGENS FOTOGRAMÉTRICAS
DIGITAIS ................................................................................................... 2.27
2.2.2.2 MÉTODOS DE AQUISIÇÃO DE IMAGENS FOTOGRAMÉTRICAS
DIGITAIS ................................................................................................... 2.31
2.3 PRINCIPAIS PROBLEMAS QUE AFETAM A AQUISIÇÃO DE
IMAGENS .................................................................................................. 2.35
2.3.1 ABERRAÇÕES GEOMÉTRICAS ..................................................... 2.35
2.3.2 ABERRAÇÃO CROMÁTICA ............................................................ 2.37
2.3.3 DISTRIBUIÇÃO DE LUZ NO PLANO FOCAL .................................. 2.38
2.3.4 ARRASTAMENTO DA IMAGEM ...................................................... 2.39
2.3.5 EFEITOS ATMOSFÉRICOS ............................................................ 2.39
2.4 PROCESSAMENTO DIGITAL DE IMAGENS ..................................... 2.40
2.5 CARACTERÍSTICAS BÁSICAS DE OBTENÇÃO DAS IMAGENS ...... 2.43
2.6 MÉTODOS FOTOGRAMÉTRICOS DE RESTITUIÇÃO
APROXIMADA .......................................................................................... 2.48
2.6.1 AQUISIÇÃO MONOSCÓPICA DA ALTURA DE OBJETOS ............. 2.49
2.6.2 GEORREFERENCIAMENTO ........................................................... 2.50
2.6.3 PARALAXE ESTEREOSCÓPICA APROXIMADA ............................ 2.52
2.7 CONCLUSÃO ..................................................................................... 2.59
REFERÊNCIAS BIBLIOGRÁFICAS .......................................................... 2.60
i.6
TÓPICO PÁGINA
CAPÍTULO 3 – ORIENTAÇÃO INTERIOR
3.1 CONCEITO INICIAL .............................................................................. 3.1
3.2 PROCEDIMENTOS PARA A EXECUÇÃO DA ORIENTAÇÃO
INTERIOR ................................................................................................... 3.2
3.3 POR QUE A TRANSFORMAÇÃO ENTRE MILÍMETROS E PIXELS É
NECESSÁRIA? ........................................................................................... 3.3
3.4 MODELOS MATEMÁTICOS PARA A ORIENTAÇÃO INTERIOR ......... 3.5
3.4.1 TRANSFORMAÇÃO AFIM GERAL .................................................... 3.5
3.4.1.1 MODELO MATEMÁTICO ................................................................ 3.9
3.4.2 TRANSFORMAÇÃO ORTOGONAL OU AFIM ORTOGONAL ......... 3.12
3.4.3 TRANSFORMAÇÃO ISOGONAL ..................................................... 3.14
3.4.4 QUALIDADE DO AJUSTAMENTO ................................................... 3.15
3.4.5 CORREÇÕES ADICIONAIS ............................................................. 3.16
3.5 CONCLUSÃO ...................................................................................... 3.17
REFERÊNCIAS BIBLIOGRÁFICAS .......................................................... 3.18
A
CAPÍTULO 4 – CORRELAÇÃO DE IMAGENS
4.1 CONCEITO INICIAL .............................................................................. 4.1
4.2 O COEFICIENTE DE CORRELAÇÃO ρ ................................................ 4.1
4.3 VISUALIZAÇÃO EM GRÁFICOS DO COEFICIENTE DE
CORRELAÇÃO ........................................................................................... 4.4
4.4 DETERMINAÇÃO DAS COORDENADAS DO PONTO HOMÓLOGO .. 4.7
4.5 APLICAÇÕES ....................................................................................... 4.9
4.5.1 CALIBRAÇÃO DE SCANNER ............................................................ 4.9
4.5.2 LOCALIZAÇÃO DOS CENTROS DE MARCAS FIDUCIAIS ............ 4.10
4.5.3 LOCALIZAÇÃO DOS PONTOS DE HOMÓLOGOS DE UM PONTO DO
TERRENO EM DIFERENTES IMAGENS ................................................ 4.11
4.6 CONCLUSÃO ...................................................................................... 4.12
REFERÊNCIAS BIBLIOGRÁFICAS .......................................................... 4.13
A
CAPÍTULO 5 – ORIENTAÇÃO EXTERIOR
5.1 CONCEITO INICIAL .............................................................................. 5.1
5.2 OS PARÂMETROS DA ORIENTAÇÃO EXTERIOR ............................. 5.2
i.7
TÓPICO PÁGINA
5.3 AS EQUAÇÕES DE COLINEARIDADE ................................................ 5.4
5.3.1 DEMONSTRAÇÃO ............................................................................. 5.5
5.4 A RESSEÇÃO ESPACIAL ................................................................... 5.10
5.5 A INTERSEÇÃO ESPACIAL ............................................................... 5.14
5.6 AEROTRIANGULAÇÃO ANALÍTICA (POR AJUSTAMENTO DE FEIXES
PERSPECTIVOS) ..................................................................................... 5.15
5.7 CONCLUSÃO ...................................................................................... 5.15
REFERÊNCIAS BIBLIOGRÁFICAS .......................................................... 5.17
A
CAPÍTULO 6 – AEROTRIANGULAÇÃO ANALÍTICA
6.1 REVISÃO INICIAL ................................................................................. 6.1
6.2 DEFINIÇÃO ........................................................................................... 6.3
6.3 PREPARO DA AEROTRIANGULAÇÃO ................................................ 6.5
6.4 DADOS ADICIONAIS ............................................................................ 6.7
6.5 CONCLUSÃO ........................................................................................ 6.9
REFERÊNCIAS BIBLIOGRÁFICAS ............................................................ 6.9
A
CAPÍTULO 7 – RETIFICAÇÃO E NORMALIZAÇÃO DE IMAGENS
7.1 CONCEITO INICIAL .............................................................................. 7.1
7.2 MODELOS MATEMÁTICOS ................................................................. 7.2
7.2.1 TRANSFORMAÇÃO AFIM ................................................................. 7.2
7.2.2 TRANSFORMAÇÃO PROJETIVA ...................................................... 7.5
7.2.3 OUTRAS TRANSFORMAÇÕES ........................................................ 7.5
7.2.4 CONSIDERAÇÕES SOBRE AS TRANSFORMAÇÕES MATEMÁTICAS
APRESENTADAS ....................................................................................... 7.6
7.2.5 EQUAÇÃO DA COLINEARIDADE ..................................................... 7.6
7.3 REAMOSTRAGEM ................................................................................ 7.8
7.3.1 REAMOSTRAGEM POR VIZINHO MAIS PRÓXIMO ......................... 7.9
7.3.2 REAMOSTRAGEM POR INTERPOLAÇÃO BILINEAR .................... 7.10
7.3.3 REAMOSTRAGEM POR MÉTODOS DE VIZINHANÇA 4 X 4
PIXELS ...................................................................................................... 7.11
7.4 NORMALIZAÇÃO DE IMAGENS ........................................................ 7.12
7.4.1 MODELO MATEMÁTICO ................................................................. 7.15
i.8
TÓPICO PÁGINA
7.5 CONCLUSÃO ...................................................................................... 7.18
REFERÊNCIAS BIBLIOGRÁFICAS .......................................................... 7.19
A
CAPÍTULO 8 – GERAÇÃO DE MODELOS NUMÉRICOS DE ELEVAÇÕES
8.1 CONCEITO INICIAL .............................................................................. 8.1
8.2 AQUISIÇÃO DE DADOS PARA MODELOS NUMÉRICOS DE
ELEVAÇÕES ............................................................................................... 8.2
8.3 TIPOS DE GRADE DE UM MDT ........................................................... 8.4
8.4 EXTRAÇÃO FOTOGRAMÉTRICA DE UM MNE ................................... 8.6
8.5 PROBLEMAS DA EXTRAÇÃO AUTOMÁTICA DO MNE ...................... 8.8
8.6 CONCLUSÃO ........................................................................................ 8.9
REFERÊNCIAS BIBLIOGRÁFICAS ............................................................ 8.9
A
CAPÍTULO 9 – GERAÇÃO DE ORTO-IMAGENS
9.1 CONCEITO INICIAL .............................................................................. 9.1
9.2 MODELOS MATEMÁTICOS ................................................................. 9.4
9.2.1 TRANSFORMAÇÃO AFIM ................................................................. 9.4
9.2.2 TRANSFORMAÇÃO PROJETIVA ...................................................... 9.5
9.2.3 RETIFICAÇÃO DIFERENCIAL ........................................................... 9.5
9.3 FONTES DE ERRO EM ORTO-IMAGENS DIGITAIS ........................... 9.6
9.4 PRODUTOS DERIVADOS .................................................................... 9.7
9.5 CONCLUSÃO ........................................................................................ 9.8
REFERÊNCIAS BIBLIOGRÁFICAS ............................................................ 9.9
A
CAPÍTULO 10 – RESTITUIÇÃO DIGITAL
10.1 REVISÃO .......................................................................................... 10.1
10.2 A RESTITUIÇÃO ............................................................................... 10.2
10.3 TENDÊNCIAS EM RESTITUIÇÃO DIGITAL ..................................... 10.7
10.4 CONCLUSÃO .................................................................................... 10.9
REFERÊNCIAS BIBLIOGRÁFICAS ........................................................ 10.10
A
i.9
1. INTRODUÇÃO À
FOTOGRAMETRIA DIGITAL
1.1 FOTOGRAMETRIA – CONCEITO INICIAL
Para um leigo no assunto, fica difícil expressar com segurança o
que vem a ser fotogrametria. Etimologicamente, a palavra
“fotogrametria” vem a ser “photon - luz, graphos – escrita, metron –
medições”, ou medições executadas através de fotografias. Muitas
abordagens e discussões para o tema foram desenvolvidas ao longo do
último século, tornando tal assunto confuso para aqueles que estão
tomando um primeiro contato com o mesmo. Entretanto, o consenso geral
define tal termo, a grosso modo, como a ciência e tecnologia de se obter
informação confiável, através de imagens adquiridas por sensores.
Ciência – pois utiliza-se de métodos científicos para o estudo do
funcionamento dos processos de captação da energia eletromagnética e
análise dos registros advindos dos mesmos.
Tecnologia – uma vez que lança mão do estado da arte da tecnologia
para tornar tais processos mais rápidos e eficazes para os usuários.
Informação confiável – seja ela sob a forma de um mapa, lista de
coordenadas, modelo tridimensional ou qualquer outro modo de
representação geometricamente classificado dentro de tolerâncias de
precisão e acurácia desejáveis. Esses requintes variam de aplicação para
aplicação, como por exemplo, a identificação do desvio de uma viga de
1.1
sustentação em uma usina nuclear, que tolera erros de ordem de
milímetros ou menos ou a confecção de uma carta em escala 1:250000,
onde são tolerados erros da ordem de metros.
Imagens – Imagens ópticas podem ser definidas como “a reprodução
aparente de um objeto, formado por um sistema de lentes ou espelhos, a
partir de ondas luminosas refletidas, refratadas ou difratadas”
(Encyclopædia Britannica, 2001). Tal conceito, pôde, durante anos, cobrir
a definição para “imagem” utilizada pela fotogrametria, pois os processos
fotogramétricos concentravam-se somente nas imagens fotográficas,
cobrindo a faixa do visível (ou seja, ondas eletromagnéticas de 0,4 a 0,7
µm). Hoje em dia, no entanto, diversos sensores são capazes de imagear
nas diversas regiões do espectro eletromagnético, gerando uma profusão
de informação nunca antes imaginada. Assim, pode-se definir como
“imagens utilizadas pela fotogrametria” as representações das interações
eletromagnéticas entre um ou mais objetos captadas por um dado sensor,
em um dado momento.
Sensores Remotos – Segundo (Novo, 1992), um sensor é “qualquer
equipamento capaz de transformar alguma forma de energia em um sinal
passível de ser convertido em informação sobre o ambiente, sem contato
físico entre este sensor e os alvos de interesse”. Como citado
anteriormente, a energia utilizada neste caso é a eletromagnética. Um
exemplo simples de sensor comumente utilizado é a câmara fotográfica,
que utiliza a sensibilização química no filme para gerar suas imagens.
Diversos tipos de câmaras digitais e sensores de varredura (utilizando
CCD's – charge coupled devices, detectores que convertem energia
eletromagnética em corrente elétrica) também encaixam-se nesta
categoria.
Basicamente esta definição tem um alto grau de correlação com as
inúmeras outras encontradas em livros e textos científicos sobre o tema.
Entretanto, ela não se extingue neste ponto, uma vez que o texto ainda é
muito vago, deixando a um leitor neófito a nítida impressão de nada ter
acrescentado aos seus conhecimentos. Por isso, surgiram inúmeras
interpretações, que serão melhor discutidas no tópico seguinte.
1.2
1.2 CONTRADIÇÕES E DIVERGÊNCIAS QUANTO AO CONCEITO
DE FOTOGRAMETRIA
Como já citado anteriormente, a fotogrametria sofreu um grande
impacto com a possibilidade de obtenção de imagens multiespectrais
(cobrindo diversas bandas do espectro), em geral, através de sensores
digitais (como câmaras digitais e varredores), acarretando em uma total
reestruturação do pessoal e aparatos empregados para processá-los (uma
maior descrição das gerações da fotogrametria e das diferenças entre elas
pode ser encontrada no tópico 1.4). Paralelamente a esta revolução,
novas plataformas passaram a portar tais tipos de sensores (há uma
discussão sobre tais plataformas em 1.3), havendo, notoriamente, a
introdução de sensores orbitais (satélites e outros veículos espaciais).
Esta “nova” ciência, então em ascensão, passou a ser chamada de
sensoriamento remoto.
Inicialmente, as imagens tinham baixa resolução geométrica, ou
seja, dificuldade em distinguir-se os inúmeros objetos imageados, ou, em
termos leigos, “falta de nitidez”. Isto era causado pelo aumento ainda
insuficiente dos sistemas de lentes e pela grande distância entre os
satélites e a superfície, o que levava à impossibilidade de adaptação de
tais imagens à estrutura já montada para processamento fotogramétrico,
uma vez que os aparelhos eram projetados apenas para imagens tomadas
de aviões segundo determinado padrão, os sistemas computacionais de
processamento de imagens digitais ainda eram rudimentares para
solucionar as pesadas rotinas fotogramétricas e não havia a possibilidade
de visualização estereoscópica das mesmas. A fotogrametria, então,
seguiu o seu curso anteriormente estabelecido (primando pela restituição
de cartas ou mapas do terreno fotografado), e deixando o estudo de tais
imagens a cargo de todo um grupo de especialistas que nelas viu a
oportunidade de extração de informações para eles consideradas
fundamentais (geólogos, pedólogos, geógrafos, oceanógrafos,
estatísticos, etc.).
1.3
Figura 1.1 – Dissensão inicial e errônea entre fotogrametria (plataformas aéreas,
fotografias e produtos cartográficos) e sensoriamento remoto (plataformas orbitais,
imagens digitais e vários tipos de produtos, como mapas geológicos ou florestais)
Assim, a princípio, houve informalmente uma dicotomia entre
fotogrametria e sensoriamento remoto (figura 1.1). Curiosamente, as
associações que congregavam os profissionais de fotogrametria não
seguiram esta divergência, abraçando também o estudo das imagens de
sensores remotos. Um caso notório foi a troca do nome de ASP
(American Society of Photogrammetry – Sociedade Americana de
Fotogrametria) para ASPRS (American Society for Photogrammetry and
Remote Sensing – Sociedade Americana de Fotogrametria e
Sensoriamento Remoto). Com a ISPRS (International Society for
Photogrammetry and Remote Sensing), acontecimento similar também
ocorreu.
É óbvio que tais decisões não foram tomadas de maneira
1.4
impensada. Tais especialistas verificaram que não era coerente a divisão
informal que estava acontecendo, uma vez que o que estava sendo
(informalmente) chamado de sensoriamento remoto (imagens digitais e
orbitais) era uma ciência irmã do que se chamava (informalmente) de
fotogrametria (imagens fotográficas e aéreas).
Como cabe a uma sociedade deste escopo, definições foram
estabelecidas de modo a orientar os profissionais, estudantes e leigos
quanto à abrangência e funções de cada uma. Daí surgiram algumas
interessantes contradições:
Segundo a ASPRS, fotogrametria é “a arte, ciência, e tecnologia de
se obter informação confiável sobre objetos físicos e o meio-ambiente,
através de processos de gravação, medição e interpretação de imagens e
padrões de energia eletromagnética radiante e outros fenômenos”, ao
passo que sensoriamento remoto não recebe nenhuma definição. A única
referência que a associação faz é que “técnicas de sensoriamento remoto
são usadas para adquirir e processar informação sobre um objeto sem
contato físico direto (entre o sensor e o alvo de interesse)”.
Um dos presidentes que a mesma ASPRS teve, Thomas Lillesand,
no livro do qual é co-autor, define sensoriamento remoto como “a ciência e
arte de se obter informação sobre um objeto, área ou fenômeno através da
análise dos dados adquiridos por um aparelho que não está em contato
com o objeto, área ou fenômeno sob investigação” (Lillesand et al., 2000).
Como fotogrametria, o mesmo livro descreve sendo “a ciência e tecnologia
de se obter medições e outros produtos geometricamente confiáveis a
partir de fotografias”.
A ISPRS, por sua vez, enuncia que “fotogrametria e sensoriamento
remoto é a arte, ciência e tecnologia de se obter informação confiável de
imagens de sensores imageadores e outros, sobre a Terra e seu meio-
ambiente, e outros objetos físicos e processos através de gravação,
medição, análise e representação”. Convém ressaltar o “é”, no singular,
que destaca a idéia de junção de ambos em um só conceito.
Uma leitura aprofundada das definições deixa muitas dúvidas no ar.
Primeiramente, nenhuma delas coincide completamente com as outras,
embora haja o reforço de que a fotogrametria tem um enfoque na
1.5
obtenção de informação confiável. Uma conclusão precipitada poderia
levar à idéia que a fotogrametria é o “sensoriamento remoto confiável”.
Porém, o que é “confiável”? Remontando ao exemplo do tópico 1.1, no
caso da usina nuclear, confiável implica em precisão e acurácia de
milímetros. No caso da carta 1:250000, confiável implica em precisão e
acurácia de metros. Outro exemplo seria o de uma carta geológica,
elaborada a partir de imagens de satélite. É confiável? Obviamente, se
for realizada por pessoal especializado. Logo, é fotogrametria. Ou não?
A última das definições (ISPRS) é mais abrangente, não realizando
uma separação de conceitos, e, conseqüentemente, fugindo da discussão
sobre confiabilidade das informações obtidas. Além disso, a definição dá
uma idéia de que ambas as ciências estão altamente relacionadas, como
se fossem uma só.
Na verdade, nenhuma das definições está incorreta. Cada uma
reflete uma visão diferente sobre o tema, que expressa diferentes perfis e
diferentes épocas. A tendência, hoje em dia, principalmente com o
desenvolvimento da fotogrametria digital e de sensores orbitais
compatíveis com a atividade fotogramétrica é que a fotogrametria esteja
inserida no contexto global de sensoriamento remoto, a grosso modo
definido como “ciência e tecnologia de aquisição de informação sobre um
objeto sem contato direto entre este e o sensor”.
Mesmo assim, isso não define onde a fotogrametria atua dentro
deste contexto, ou ainda, quais seriam seus objetivos. Estes objetivos
serão objeto de estudo no próximo tópico.
1.3 OBJETIVO E CLASSIFICAÇÕES DA FOTOGRAMETRIA
Poder-se-ia enumerar vários objetivos da fotogrametria, tais como:
reduzir o trabalho de campo no levantamento de coordenadas de um ou
vários objetos e reduzir o tempo de obtenção de tais dados. Entretanto, o
objetivo principal da fotogrametria pode ser enunciado como a
reconstrução de um espaço tridimensional, chamado de espaço objeto,
1.6
a partir de imagens bidimensionais, chamadas de espaço imagem.
Trata-se, então, de uma transformação entre sistemas. Um sistema
bidimensional, chamado sistema fotográfico e um sistema tridimensional,
que representa o próprio espaço objeto. Normalmente, utiliza-se um
sistema bidimensional próprio de cada câmara, com origem
aproximadamente no centro de seu quadro, e de coordenadas
determinadas por calibração da câmara em laboratório, antes de sua
utilização. O sistema tridimensional, no caso mais comum, representa o
sistema de coordenadas do terreno sobre o qual obtém-se as imagens, o
qual pode estar sendo representado em coordenadas geodésicas
(latitude, longitude e altura ou altitude), planialtimétricas (E, N e altitude)
ou cartesianas (X, Y, Z). Para outros tipos de alvos, como monumentos
ou objetos pequenos, pode-se criar um sistema de referência próprio, de
origem arbitrária.
Para que a transformação seja implementada, também é necessário
um conjunto de pontos de controle (ou de campo), que são expressos no
espaço-objeto. Uma vez locados no espaço imagem, tem-se os
parâmetros de entrada para a dedução da função que mapeia um sistema
no outro. Quanto maior o número de pontos de controle, melhores são os
resultados finais, porém, convém também verificar até onde é
economicamente viável a obtenção de tantos pontos de controle. Devido
a isso, alguns processos (aerotriangulação, por exemplo) foram
desenvolvidos, de modo que, a partir de apenas alguns pontos de
controle, possa ser gerada uma infinidade de outros, a precisões
aceitáveis para que sejam utilizados como se controle fossem.
Em resumo, crê-se na possibilidade de se estabelecer uma área de
abrangência da fotogrametria, respondendo às perguntas propostas no
tópico anterior, da seguinte maneira:
“Fotogrametria é a ciência e tecnologia de se reconstruir o
espaço tridimensional, ou parte do mesmo (espaço objeto) a partir de
imagens bidimensionais, advindas da gravação de padrões de ondas
eletromagnéticas (espaço imagem), sem contato físico direto com o
objeto ou alvo de interesse.”
1.7
Figura 1.2 – Representação esquemática da fotogrametria
Por espaço objeto, entende-se qualquer elemento, ou conjunto de
elementos tridimensionais a serem imageados. Desse modo, o sensor
pode estar localizado em qualquer plataforma (figura 1.3). Convencionou-
se usar a classificação de fotogrametria terrestre, fotogrametria aérea (ou
aerofotogrametria) e fotogrametria orbital para, a grosso modo, expressar
estes diferentes modos de posicionar-se o sensor. A aerofotogrametria é,
tradicionalmente, a mais envolvida com a geomática. A fotogrametria
terrestre encontra uma gama de aplicações variadas, como arquitetura,
controle industrial, engenharia civil e artes plásticas. A fotogrametria
orbital é uma tendência para o futuro, já sendo empregada nos dias de
hoje em escala crescente.
1.8
Figura 1.3 – Visão atual de fotogrametria (imagens advindas de diversos sensores, em
meio analógico ou digital, gerando produtos que representem o espaço objeto). O
sensoriamento remoto é mais abrangente, considerando a geração de outros tipos de
produtos, como mapas temáticos, imagens classificadas, etc.
O número de imagens envolvidas é variável, sendo desejável que
sejam ao menos duas, tomadas de ângulos diferentes, com área de
superposição, de modo a viabilizar a visão estereoscópica
(tridimensional), que possibilita uma maior acurácia na restituição
tridimensional do espaço objeto (figura 1.4).
Outras classificações ainda poderiam ser propostas como
“fotogrametria à curta distância e à longa distância”, ou aerofotogrametria
com imagens verticais e com imagens oblíquas. Este, porém, não é o
objetivo deste texto. A classificação histórica, no entanto, por ser
considerada uma das mais importantes, será apresentada no tópico a
seguir.
1.9
Figura 1.4 – Tomada de imagens com região de adjacência a partir de fotos aéreas
1.4 BREVE HISTÓRICO DA FOTOGRAMETRIA
1.4.1 FOTOGRAMETRIA PIONEIRA (1840-1900)
Poucos anos após a descoberta da fotografia (graças aos trabalhos
pioneiros de Nicéphore Nièpce, em 1826 e Louis-Jacques Daguerre, em
1839), surgiram propostas, como a do francês Argo, em 1840, com o
objetivo de aproveitá-la para os dispendiosos levantamentos topográficos.
Infelizmente, mais alguns anos se passaram sem nada de concreto sobre
o tema.
Em 1851, Aimé Laussedat desenvolve os primeiros princípios e
técnicas fotogramétricos, sendo seguido por trabalhos importantes de
documentação de edifícios, e prédios históricos, como os de Meydenbauer
e Ernst Mach. A então nascente Ciência recebeu seu primeiro livro
1.10
teórico em 1889, o Manual de Fotogrametria, de autoria do alemão C.
Koppe.
Algumas fotografias aéreas foram inclusive tiradas, sendo as mais
notórias a de Nadar, ou Gaspard Félix Tournachon, sobre a cidade de
Bièvre, na França, em 1858 (que infelizmente foi perdida com o passar
dos anos) e a de James Wallace Black, em 1860, sobre a cidade de
Boston, nos Estados Unidos. No entanto, somente com a invenção do
avião, tal situação viria a mudar sensivelmente
1.4.2 FOTOGRAMETRIA ANALÓGICA (1901-1950)
A invenção do aparelho “estereocomparador”, por Pullfrich, marca a
primeira revolução da fotogrametria, através da qual foi possível facilitar
surpreendentemente o trabalho dos usuários, graças à substituição dos
inúmeros cálculos matemáticos por aparelhos óptico-mecânicos.
Em 1911, o austríaco Theodore Scheimpflug cria um método bem-
sucedido de retificação de fotografias aéreas, iniciando todo um processo
de utilização de tais fotografias para mapeamento de extensas superfícies.
Os retificadores analógicos passam a ser utilizados largamente, sendo
posteriormente substituídos pelos famosos restituidores analógicos, que
permitiam visão estereoscópica, através da utilização de um par
estereoscópico (ou seja, um par de fotografias com áreas de
superposição). Inúmeros aparelhos, sobretudo os suíços e alemães,
como os restituidores Wild (figura 1.5), Zeiss e Kern possibilitavam a
obtenção de cartas topográficas a precisões surpreendentes.
Obviamente, tal trabalho passou a ser altamente específico, tornando
fundamental a figura do técnico em fotogrametria, uma vez que tais
aparelhos necessitavam de treinamento específico e aprofundado.
O trabalho de campo também foi enormemente facilitado, com a
introdução do processo da aerotriangulação analógica, que permitia o
adensamento em laboratório dos pontos de campo.
Paralelamente a estes desenvolvimentos, surgiram câmaras cada
1.11
vez mais específicas para esta tarefa, chamadas de câmaras métricas. As
mesmas dispunham de mecanismos para imprimir nas fotos informações
relevantes quanto ao sistema de coordenadas de imagem, aumentando
ainda mais a precisão das medições efetuadas. Um exemplo são as
marcas fiduciais, que estão em todas as fotos e cujas coordenadas no
sistema fotográfico são determinadas em laboratório.
Figura 1.5 – Restituidor Analógico Wild B-8 (fonte: Universidade Estadual do Rio de
Janeiro)
Convém ressaltar que é deste período a criação e fortalecimento de
inúmeras associações e entidades congregando todos os interessados na
área. A ISP (International Society for Photogrammetry), atual ISPRS
(International Society for Photogrammetry and Remote Sensing) foi
fundada em 1910, por E. Dolezal, na Áustria.
1.4.3 FOTOGRAMETRIA ANALÍTICA (1951-1990)
A invenção do computador, nos anos 40, deu início a uma
transformação nos processos fotogramétricos de então. A grande
quantidade de cálculos necessários, que havia sido substituída pelos
aparelhos mecânicos, passou a poder ser executada computacionalmente.
O primeiro estudo nesta área foi desenvolvido em 1953, pelo Dr. Helmut
Schmidt, do Laboratório de Pesquisa Balística, em Aberdeen, Maryland,
1.12
Estados Unidos. Neste estudo, foram estabelecidas as bases da
fotogrametria analítica, incluindo-se o tratamento matricial, as soluções
por mínimos quadrados (um tipo de método estatístico), a solução
simultânea utilizando múltiplas imagens e uma análise completa de
propagação de erros.
Em 1957, o finlandês Uki Helava desenvolve o conceito de
restituidor analítico, utilizando servo-mecanismos para medir as
coordenadas das marcas fiduciais nas imagens. Computadores
realizavam todos os demais cálculos, simplificando bastante o processo
final. Os primeiros restituidores analíticos foram apresentados no
congresso da ISP (atual ISPRS) em 1976. A partir daí, tais aparelhos
revolucionaram o conceito de fotogrametria, permitindo a aerotriangulação
de blocos (conjuntos de fotos) cada vez maiores e a utilização de câmaras
comuns (não-métricas).
1.4.4 FOTOGRAMETRIA DIGITAL (1990 - DIAS DE HOJE)
A fotogrametria digital teve o seu surgimento nos anos 80, tendo
como grande inovação a utilização de imagens digitais como fonte
primária de dados. A imagem digital pode ser adquirida diretamente de
uma câmara digital, ou mesmo através da digitalização matricial de uma
imagem analógica (submetendo-a a um scanner). Nos anos 90, este ramo
da fotogrametria realmente pôde ser usado de maneira extensiva, graças
ao desenvolvimento de computadores com capacidade suficiente para o
processamento interativo de imagens digitais, gerando elevados volumes
de dados.
O restante do processamento se dá de maneira semelhante à
fotogrametria analítica, sendo possível, hoje em dia, a elaboração de
produtos digitais (além das cartas digitais) que necessitam de
processamento computacional extremamente elaborado, como as
ortoimagens ou imagens ortorretificadas (imagens em perspectiva
ortogonal) e mosaicos digitais, que consistem na junção de várias
1.13
imagens. Esses mosaicos são considerados sendo não-controlados se
não houver tratamento sobre as imagens e controlado, caso as imagens já
tiverem sido ortorretificadas.
Os aparelhos atualmente empregados também mudaram, sendo
chamados de estações fotogramétricas digitais, ou seja, estações de
trabalho inteiramente voltadas para a fotogrametria. Computadores
comuns também podem ser aproveitados para este fim, sendo chamados
de computadores repotencializados, por receberem hardware e software
específicos.
Um comentário que se faz necessário neste ponto é quanto à
diferença de fotogrametria digital e fotogrametria apoiada por computador
(ou simplesmente, fotogrametria com uso de computadores). Com o
objetivo de não perder a experiência de anos de trabalho de operadores
habilidosos e também de aumentar a expectativa de vida dos ainda
eficazes aviógrafos analógicos e analíticos, computadores foram ligados
aos mesmos, possibilitando uma saída de dados digital, ou seja, um
arquivo de computador (em geral um formato compatível com os inúmeros
programas de CAD – Computer Aided Design existentes). Mesmo assim,
estes aparelhos não podem ser relacionados à fotogrametria digital, uma
vez que a entrada de dados ainda se dá de modo analógico (fotografia
impressa em filme). Mesmo o restituidor analítico, que realiza todo o
restante do processamento de forma computacional, ainda as considera
como dado de entrada. Somente na fotogrametria digital tem-se uma
análise computacional completa de todo o processo.
Tal assunto ainda pode estar a causar muitas dúvidas. Para lançar
alguma luz sobre o assunto, apresenta-se a tabela 1.1:
1.5 OBJETIVO DA FOTOGRAMETRIA DIGITAL
A fotogrametria digital tem como seu objetivo principal a
reconstrução automática do espaço tridimensional (espaço objeto), a
partir de imagens bidimensionais (espaço imagem).
1.14
Fotogrametria Entrada Processamento SaídaAnalógica Foto analógica
(em filme)
Analógico (opto-
mecânico)
Analógica
(scribes/fotolitos)
no passado ou
digital (CAD, por
exemplo) no
presenteAnalítica Foto analógica
(em filme)
Analítico
(computacional)
Analógica
(scribes/fotolitos)
no passado ou
digital (CAD, por
exemplo) no
presenteDigital Imagem digital
(obtida de câmara
digital, por
exemplo) ou
digitalizada (foto
analógica
submetida a um
scanner)
Analítico
(computacional)
Digital
Tabela 1.1 – Histórico da Fotogrametria (adaptada de Augusto, 2000)
Uma observação mais atenta ao parágrafo acima permite uma
simples conclusão: a fotogrametria digital preocupa-se em automatizar a
fotogrametria, principalmente levando-se em conta que os equipamentos
de informática hoje em dia permitem o rápido processamento da
avalanche de dados que surge em conseqüência destes processos.
Ter-se-ia, então, como ideal a criação de uma “máquina de mapeamento
automático”, capaz de reconhecer automaticamente as feições do terreno
(como prédios, pontes e outras construções) e extrair a forma do relevo da
região a ser mapeada.
Porém, o problema proposto não é tão simples assim, uma vez que
não há um espaço 3D tão “bem comportado”. Pelo contrário, o relevo da
superfície terrestre apresenta-se com inúmeras descontinuidades, o que
1.15
torna praticamente impossível seu mapeamento automático. Surgem
então várias condições de contorno para sua solução, exigindo a
interação do homem em vários processos. Hoje em dia, pode-se dizer que
o estado da arte em fotogrametria digital é o mapeamento semi-
automático, ou seja, os processos implementados tentam ser automáticos,
porém, ainda exigem a supervisão, e eventual intervenção humana nos
mesmos.
Figura 1.6 – Processo da ortorretificação, que transforma uma imagem em perspectiva
central em outra em perspectiva ortogonal. Graças à fotogrametria digital, processos
matematicamente complexos como este puderam ser implementados e popularizados.
Hoje, ortoimagens têm alcançado níveis de popularidade próximos aos das cartas
convencionais e essa situação tende a continuar.
1.6 A ESTAÇÃO FOTOGRAMÉTRICA DIGITAL
Como já mencionado anteriormente, o estado da arte da
fotogrametria encontra-se no desenvolvimento de estações
1.16
fotogramétricas digitais. Um sistema como este, em geral, é composto de:
• Monitor(es) de vídeo
• Dispositivo de visão estereoscópica – Óculos, monitores especiais,
etc.
• CPU gráfica, ou placa de vídeo especial
• CPU geral
• Periféricos de Entrada/Saída – Teclado, mouse, scanner, mesa
digitalizadora, plotter e/ou impressora.
• Dispositivo de medição estereoscópica – Trackball, topo-mouse, etc.
• Módulos de software dedicado às operações fotogramétricas, tais
como: Orientação interior, orientação relativa e orientação absoluta, ou
orientação exterior (relativa + absoluta simultaneamente),
aerotriangulação (medição e cálculo), restituição, retificação e
reamostragem de imagens (geometria epipolar), extração de modelos
digitais do terreno, geração de orto-imagens, integração com sistemas de
informação geográfica, etc.
O padrão atual de monitores de vídeo para este tipo de aplicação
encontra-se entre 19 e 21 polegadas. Algumas estações apresentam
monitores de vídeo próprios de dimensões diferentes das usuais, de modo
a maximizar a visualização estereoscópica.
Quanto às máquinas utilizadas, há modelos de vários fabricantes.
Estações Unix e Silicon Graphics já foram utilizadas amplamente, porém,
a tendência hoje em dia é de serem usados PC's com o sistema
operacional Windows NT.
Os sistemas de visão estereoscópica apresentam soluções ainda
mais variadas. Há quatro tipos principais diferentes:
• Separação espacial – a tela do monitor exibe o par lado a lado e utiliza-
se um estereoscópio de espelhos para visualizá-las estereoscopicamente;
• Anaglifo – ambas as imagens são exibidas uma sobre a outra, porém
em cores diferentes, necessitando de um óculos especial com uma lente
1.17
de cada cor;
• Separação radiométrica – semelhantes aos de anaglifo, apresentam
polarizações da luz diferentes;
• Separação temporal – exibem alternadamente as imagens do modelo, a
altas freqüências.
Os sistemas mais modernos utilizam uma combinação do princípio
da polarização (passiva, se a tela de polarização é montada no monitor e
ativa, se a tela de polarização é montada nos óculos) e da separação
temporal.
Entre os fatos positivos do advento das estações fotogramétricas
digitais e dos programas de fotogrametria digital, pode-se descrever a
possibilidade de, mesmo sem o aparato completo descrito acima, serem
executadas várias operações, embora de maneira não-otimizada. Outra
vantagem é a concentração de todas as rotinas em um só computador,
poupando espaço e ganhando em versatilidade e tempo de operação. No
passado, ao contrário, para cada uma das etapas que levavam até a
restituição do terreno, as fotos passavam de aparelho para aparelho, de
especialista a especialista, em diferentes seções (e até diferentes
empresas). A entrada de dados também é muito mais facilitada, já que
como se utiliza rotinas genéricas, os softwares aceitam imagens de
quaisquer formatos, inclusive de câmaras não-fotogramétricas (ou seja,
cujas fotos não têm um sistema de coordenadas a elas atrelado). Os
aparelhos restituidores anteriores só aceitavam fotos de determinado
padrão, provindas de câmaras de distâncias focais de valores constantes.
1.7 EXEMPLOS DE ESTAÇÕES FOTOGRAMÉTRICAS DIGITAIS E
SOFTWARES DE FOTOGRAMETRIA DIGITAL
1.7.1 Z/I IMAGING
A Z/I Imaging é uma companhia derivada da fusão entre a
1.18
tradicional Carl Zeiss, Oberkochen (Alemanha) e a Intergraph (Estados
Unidos). Enquanto a primeira consagrou-se no desenvolvimento de
câmaras, restituidores analógicos, analíticos e estações fotogramétricas
digitais ao longo do último século, a última foi destaque no
desenvolvimento das famosas estações ImageStation, muitíssimo aceitas
e populares.
Com a criação do joint venture entre as duas, a linha de estações
fotogramétricas digitais da Zeiss foi descontinuada, deixando espaço para
a concentração de todos os esforços na área para a linha ImageStation.
O modelo mais recente de ImageStation (2001), na verdade, é um
computador extremamente sofisticado, com várias soluções únicas
desenvolvidas pela Z/I. Compõe-se, ao todo de:
• Mesa especial, com altura da área de digitalização e área de suporte
dos monitores eletricamente controlada;
• Controle hand-held para digitalização à mão livre e seleção de menus
na ponta dos dedos;
• Gabinete (localizado na parte inferior) onde fica localizado o computador
e um espaço livre para que o usuário coloque seu material;
• O computador é um Pentium III dual, com 512 MB de RDRAM, drive
para o sistema de 36,7 GB, dois drives de dados de 73,4 GB e placa de
vídeo com acelerador gráfico WildCat 5110 AGP, de 64 MB;
• Um ou dois monitores de 21” ou 24”;
• Dispositivo de visão estereoscópica combinando polarização ativa e
temporal nos óculos;
• Programas funcionando sob Windows 2000, com a possibilidade de
leitura de imagens JPEG;
Uma solução mais modesta oferecida pela Z/I chama-se SSK
(Stereo Softcopy Kit) (figura 1.8). É formado pelo hardware e software
necessário à emulação de uma estação ImageStation: óculos de
visualização estereoscópica, mouse de precisão, placa de vídeo e
programas fotogramétricos.
A título de curiosidade, a Z/I também vende uma versão do
restituidor analítico Zeiss Planicomp, o Z/I Planicomp P3 (ou P33) (figura
1.9). Justifica-se a fabricação de tal aparelho devido à sua grande
1.19
popularidade ainda nos dias de hoje.
Figura 1.7 – Estação fotogramétrica ImageStation 2001 (fonte: ImageStation factsheet)
Figura 1.8 – SSK (fonte: ImageStation factsheet)
Figura 1.9 – Planicomp P3 (fonte: Z/I Imaging)
O fato de tais máquinas estarem sendo fabricadas serve como
prova cabal da aplicação ainda hoje de restituidores analíticos e
analógicos repotencializados.
1.20
1.7.2 LH-SYSTEMS
LH-Systems é a divisão da Leica GeoSystems (empresa suíça
advinda da tradicionalíssima Wild Heerbrugg) especializada em
fotogrametria. Ela apresenta uma solução em fotogrametria digital
chamada Socet-Set (figura 1.10), que se constitui de um conjunto de
programas que executam obtenção de atributos, triangulação e
ortomosaicagem. Orima é o nome do pacote específico para
aerotriangulação, enquanto Pro-600 oferece restituição, com integração
do sistema ao programa Microstation da empresa Bentley, muito
conhecido pelos profissionais de cartografia.
Figura 1.11 – Restituidor analítico SD2000/3000 (fonte: LH-Systems)
Além disso, vêm junto aos softwares o chamado “topo-mouse” (um
dispositivo de precisão para restituição) e óculos para visualização
estereoscópica.
O pacote Socet-set pode ser instalado em computadores sob
Windows NT ou Unix.
A LH-Systems também mantém uma linha de restituidores
analíticos, os SD2000/3000 (figura 1.11), bem como kits de
repotencialização de restituidores analógicos.
1.21
Figura 1.10 – Pacote Socet-Set em um Sun Solaris (fonte: LH-Systems)
1.7.3 ISM
A ISM é uma empresa canadense pioneira no segmento de
fotogrametria digital. Seu produto principal nos dias de hoje é o conjunto
de programas DiAP (Digital image Analytical Plotter), que é composto de
um núcleo, chamado também de DiAP, responsável pelas orientações
interior, relativa e absoluta e restituição, com integração ao MicroStation
e vários módulos adicionais, a saber:
• DiAP ATM – Executa aerotriangulação analítica por ajustamento de
feixes;
• DiAP AIM – Permite a automação de várias rotinas, como orientações
e aerotriangulação;
• SysImage – Dá todo o suporte necessário para a realização de
ortoimagens e ortomosaicos;
Figura 1.12 – Captura de tela – DiAP (fonte: ISM)
1.22
• TIN/CIP – Geração de modelos digitais do terreno na estrutura TIN
(rede de triangulação irregular) e quadrangulares (grids). O módulo
TIN/CIP pode ser totalmente integrado com o SysImage;
• Production Works – Edição vetorial (CAD) dos dados obtidos por
DiAP. Também encontra-se em total integração com MicroStation;
• DiAP Viewer – Permite a visualização estereoscópica dos modelos,
após a orientação relativa. Permite também a superposição de um
arquivo CAD no formato MicroStation (DGN).
1.7.4 KLT
A KLT é uma companhia norte-americana, de Massachussets, que
produz a linha fotogramétrica Atlas (figura 1.13), para extração de
informação do terreno.
A estação ATLAS Digital StereoPlotter é composta de um
computador pessoal, manivelas para as mãos e pedal rotatório para os
pés (de modo a imitar a movimentação da marca flutuante nos antigos
resituidores analógicos), teclado e mouse especiais para a produção
fotogramétrica.
Como de hábito, executa as orientações interior e exterior
estereoscópica (relativa + absoluta) e a aerotriangulação analítica. O
pacote ATLAS provê a obtenção e edição de mapas digitais a partir dos
dados da ATLAS DSP. ATLAS TIN e Ortho são, por sua vez,
responsáveis pela extração de modelos digitais do terreno e
ortorretificação. Ainda há outros programas complementares, como o
Batch, que executa correções do arquivo digital gerado tais como
polígonos abertos, linhas cruzadas e atributos indevidamente
posicionados. Há ainda o Translator, que interpreta vários formatos de
arquivos digitais para assimilação ao sistema. Outras soluções para
plotagem e digitalização manual são disponíveis.
Um aspecto notável desta estação é a sua existência ainda sob
ambiente DOS. Tentando reverter esta situação, a KLT lançou uma
1.23
versão para Windows do ATLAS, o WinATLAS, que, segundo o fabricante,
permite o correto funcionamento do sistema ATLAS, mesmo os módulos
ainda em DOS, sob Windows de 32 bits.
Figura 1.13 – Estação Fotogramétrica ATLAS DSP (fonte: KLT)
1.7.5 DAT/EM
Sediada no Alasca, Estados Unidos, a DAT/EM possui dois
produtos principais na área de fotogrametria digital: Summit Evolution e
Summit PC.
Summit Evolution é um conjunto de ferramentas e programas para
execução de todas as tarefas fotogramétricas. O kit vendido pela DAT/EM
contém os seguintes componentes:
• Todos os programas do pacote Summit Evolution;
• Programa Capture NT para MicroStation ou AutoCAD;
• Automatização da edição vetorial dos mapas gerados pela estação;
• Programas para permitir a visualização esteroscópica;
• Placa de vídeo 3D Labs Oxygen GVX 420;
• Controle de mão para movimentação da marca flutuante ou manivelas e
pedal para a execução da mesma tarefa;
• Z-Screen (tela estereográfica) com três óculos passivos ou emissor
Crystal Eyes com dois óculos ativos;
1.24
• Teclado especial.
A DAT/EM recomenda um computador Pentium III dual com 512 MB
de memória RAM e disco rígido de 32 GB, sob Windows NT 4.0, de modo
a executar estas tarefas com maior precisão.
A estação Summit PC (figura 1.14) é uma versão mais modesta e
anterior à Summit Evolution. As funções básicas são as mesmas, porém
esta tem a propriedade de medição subpixel, além do gerenciamento de
projeto, não existente na versão anteriormente mencionada. Obviamente,
estas diferenças implicam no preço final, tornando uma mais barata que a
outra.
Figura 1.14 – Estação Fotogramétrica Summit PC (fonte: DAT/EM)
1.7.6 VINGEO
A companhia ucraniana VinGeo (setor da Vinnitsa) produz a
estação fotogramétrica Delta (figura 1.14), que prima por sua praticidade e
simplicidade. Seu sistema de visualização utiliza estereoscópio de
espelhos, e a marca flutuante pode ser movida apenas com o mouse,
embora as tradicionais manivelas e pedais possam ser utilizados.
O software empregado permite a operação com estereomodelos ou
imagens isoladas (utilizando um modelo digital do terreno) e concentra-se
1.25
na restituição, extração de MDTs e suporte para integração com os
programas de CAD existentes. Há também outras soluções para
aerotriangulação e ortorretificação/ortomosaicagem.
Figura 1.14 – Estação Fotogramétrica Delta (fonte: VinGeo)
1.7.7 DVP
A estação DVP (Digital Video Plotter) (figura 1.15), da empresa de
mesmo nome, é produto de um bem-sucedido projeto de pesquisa
realizado na Universidade Laval, no Québec, Canadá. Hoje em dia, é
uma das estações mais baratas e versáteis. A versão completa da mesma
é composta de orientação monoscópica ou estereoscópica,
aerotriangulação, vetorização (restituição) e geração de ortoimagens.
A versatilidade da mesma se manifesta realmente nas inúmeras
configurações de hardware possíveis. Para visualização, duas opções –
estereoscópio de espelhos e um monitor ou monitor com polarização ativa
e óculos passivos mais um outro monitor de controle. Para controle da
marca estereoscópica, pode-se usar o mouse comum, um mouse 3D ou as
tradicionais manivelas e pedais. O sistema propõe-se a calibrar qualquer
tipo de scanner, desde os mais simples, de escritório, até os legítimos
scanners fotogramétricos. Para executar estas tarefas, exige-se no
mínimo uma CPU Pentium 166, 64 MB de RAM e placa de vídeo de 4 MB.
1.26
O sistema operacional pode ser qualquer Windows 32-bit, sem a
obrigatoriedade de que seja NT.
Figura 1.15 – Diferentes configurações para o DVP (fonte: DVP)
Como a faculdade de Engenharia Geomática da Universidade Laval
insere-se no contexto do Departamento de Engenharia Florestal, estudos
interessantes foram desenvolvidos nesta área, provendo o DVP com
várias ferramentas específicas para planejamento ambiental/florestal e,
certamente, dando um atrativo a mais aos interessados em aplicações de
tais áreas do conhecimento.
Seguindo a tendência de utilização de imagens de satélite em
fotogrametria, a estação DVP também oferece um conjunto de ferramentas
para processamento fotogramétrico de imagens Spot.
1.7.8 TOPOL
A estação tcheca PhoTopoL, fabricada pela empresa TopoL
oferece módulos semelhantes aos das outras: orientações,
ortorretificação, edição vetorial e visualização estereoscópica. Algumas
diferenças são: a possibilidade de se executar a orientação exterior
durante o ajustamento por feixes perspectivos e as diversas opções de
visualização e movimentação da marca flutuante, também disponíveis no
1.27
DVP.
1.7.9 SUPRESOFT
A Supresoft, uma empresa chinesa baseada em atividades
relacionadas à geomática, apresenta a estação fotogramétrica digital
VirtuoZo NT. Também vinda de um projeto acadêmico, iniciado em 1978
pelo professor Zhi Zhuo Wang. hoje em dia é uma das estações mais
complexas em desenvolvimento. Compõe-se de mais de uma dezena de
módulos e processa inúmeros tipos de imagens (Spot, aéreas e terrestres,
coloridas ou não).
1.7.10 AUTOMETRIC/BOEING
A Autometric foi uma das primeiras empresas a investir no mercado
de fotogrametria digital. Hoje em dia, sua linha de desenvolvimento
baseia-se em dois produtos: o KDSP (Kork Digital StereoPlotter), que é
uma estação completa hardware/software e o SoftPlotter, que se constitui
apenas de programas para fotogrametria digital. Em termos de
plataformas suportadas, esta é uma das versões mais completas, cobrindo
cinco ao todo.
Maiores informações sobre os produtos anteriormente mencionados
podem ser encontradas na bibliografia.
1.7.11 PROGRAMAS DIVERSOS EM FOTOGRAMETRIA
Há atualmente inúmeros programas que executam operações
fotogramétricas, especialmente ortorretificação e reconstrução de modelos
1.28
3D para fotogrametria à curta distância. Entre os primeiros, destacam-se
o Erdas Ortho-Imagine e o PCI OrthoEngine, que admite realizar
operações fotogramétricas com imagens do satélite Ikonos, atualmente o
de maior resolução geométrica (1m/pixel), mesmo não possuindo
parâmetros precisos da órbita do mesmo. Para fotogrametria à curta
distância, destaca-se o PhotoModeler, muito utilizado em aplicações
arquiteturais, industriais e artísticas.
Uma lista com os sítios www de todos os programas citados nos
tópicos anteriores e vários outros encontra-se na bibliografia.
1.8 CONCLUSÃO
Após uma leitura detalhada deste capítulo, pode-se esperar que
algumas perguntas estejam devidamente respondidas e sedimentadas,
tais como:
- O que é fotogrametria? Resposta – item 1.3.
- Qual é o objetivo da fotogrametria? Resposta – item 1.3.
- Onde a fotogrametria se insere no contexto de sensoriamento remoto?
Resposta – item 1.3, em especial a figura 1.3.
- A fotogrametria trata apenas de imagens aéreas ou engloba outras
plataformas (satélites, câmaras terrestres, etc.)? – item 1.3, em especial
a figura 1.3.
- Quais são as divisões históricas da fotogrametria? Resposta – item
1.4.
- O que torna a fotogrametria digital diferente das outras? Seria o
formato da imagem? Resposta – item 1.4.
- Qual é o objetivo da fotogrametria digital? Resposta – item 1.5.
- De que é composta uma estação fotogramétrica digital? Resposta –
item 1.6.
- O que torna a estação fotogramétrica digital e os programas de
fotogrametria digital mais práticos e versáteis que os restituidores
1.29
analógicos ou analíticos? Resposta – item 1.6.
Outras perguntas talvez tenham surgido ou ainda estejam sem
explicação, instigando dúvidas e questionamentos. Estas serão
explicadas posteriormente, à medida que novos conceitos são
introduzidos. Basicamente, os capítulos subseqüentes seguem os
seguintes temas:
O capítulo 2 trata de conceitos básicos da fotogrametria e da
obtenção de imagens fotogramétricas analógicas e digitais e todas as
medidas necessárias para que as mesmas possam vir a ser utilizadas nas
operações posteriores. Este capítulo visa concentrar todos os conceitos
de fotogrametria necessários para uma compreensão global da mesma,
sem necessidade de conhecimento prévio.
No capítulo 3, discute-se sobre a orientação interior, que tem como
objetivo referenciar a imagem a um sistema métrico, relativo à câmara,
reconstituindo, assim, o caminho dos feixes perspectivos (os “feixes de
luz” que entravam pelo sistema de lentes da câmara e sensibilizavam o
filme ou matriz de detectores).
O capítulo 4 trata dos métodos estatísticos de correlação de
imagens, que serão úteis em vários procedimentos fotogramétricos.
O capítulo 5 apresenta a orientação exterior, que, referencia as
imagens advindas da orientação interior ao terreno que as mesmas
cobrem.
No capítulo 6, é abordada a aerotriangulação por métodos
analíticos, de fundamental importância para o adensamento de pontos de
controle a partir de alguns existentes.
O capítulo 7 aborda os processos de retificação e normalização de
imagens, com reamostragem por geometria epipolar, o que as torna
preparadas para a extração de um modelo numérico de elevações
(capítulo 8).
No capítulo 9, é discutida a geração de ortoimagens, que a cada
vez são mais populares no meio fotogramétrico.
Por fim, o capítulo 10 é uma breve introdução das técnicas de
restituição em ambiente digital, da informação espacial contida nas
1.30
imagens fotogramétricas digitais.
Os apêndices apresentam conceitos não-essenciais, porém
igualmente pertinentes nos dias atuais.
REFERÊNCIAS BIBLIOGRÁFICAS
Agnard, J-P; Boulianne, M.; Gagnon, P-A.; Nolette, C. Present Status of the DVP System.
Geomatica Vol. 49, No. 4, 1995, pp. 479-487. Canadian Institute of Geomatics.
Ottawa, Canadá: 1995.
Albertz, J; Kreiling, Walter. Photogrammetric Guide. Karlsruhe. Wichmann, Alemanha:
1989.
Altan, Orhan; Toz, Gönül; Seker, Dursun. Photogrammetry – Lecture Notes. Istanbul
Technical University. 1a Ed. Turquia: 2002.
Augusto, Eduardo Gurgel Garcia. Fotogrametria Analógica - Notas de Aula. Instituto
Militar de Engenharia. Rio de Janeiro, Brasil: 2000.
Brito, Jorge Luís Nunes e Silva; Prado, Walter da Silva; Augusto, Eduardo Gurgel Garcia.
Estágio de Fotogrametria Digital para Engenheiros Cartógrafos - Notas de Aula.
Instituto Militar de Engenharia. Rio de Janeiro, Brasil: 1999.
Burch, Robert. A Short History of Photogrammetry. The Institute for Digital Mapping,
Ferris State University. Estados Unidos: 1997.
Digital Photogrammetry - An Addendum to the Manual of Photogrammetry. The
American Society for Photogrammetry and Remote Sensing. Bethesda, MA, Estados
Unidos: 1997.
Heipke, C. State-of-the-art of Digital Photogrammetric Workstations for Topographic
Applications. Photogrammetric Engineering and Remote Sensing, 61(1): 49-56.
Estados Unidos: 1995
ImageStation 2001 Factsheet. Z/I Imaging. 2001.
Introduction to Photogrammetry. Universidade de Viena. Viena, Áustria: 2000.
ISPRS Brochure. The International Society for Photogrammetry and Remote Sensing.
Suíça: 2001.
Jones, Nicole. Photogrammetry – Lecture Notes. The University of Melbourne.
Melbourne, Austrália: 1998.
Kraus, Karl. Photogrammetry - Fundamentals and Processes. Volume 1, 4a Ed. Ferg,
Dummler Verlag. Bonn, Alemanha: 1999.
Lillesand, Thomas M.; Kiefer, Ralph W. Remote Sensing and Image Interpretation. John
Wiley & Sons. 4a Ed. Estados Unidos: 2000.
Novo, Evlyn. Sensoriamento Remoto: Princípios e Aplicações. Editora Edgard Blücher.
1.31
2a Ed. São Paulo, Brasil: 1992.
Schenk, Toni. Digital Photogrammetry – Volume I. TerraScience. 1a Ed. Estados
Unidos: 1999.
Sítios www (até Março de 2002):
Estações Fotogramétricas Digitais
EMPRESA PAÍS ESTAÇÃO
Z/I Imaging Alemanha/EUA ImageStation e ImageStation SSK
http://www.ziimaging.com/Products/Workstations/default.htm
LH-Systems Suíça/EUA SocetSet
http://www.lh-systems.com/products/socet_set.html
ISM Canadá DiAP
http://www.askism.com
KLT EUA Atlas DSP
http://www.kltassoc.com/
DAT/EM EUA Summit PC e Summit Evolution
http://www.datem.com/products/index.html
VinGeo Ucrânia Delta
http://www.vinnitsa.com/geo/Hardware.htm
DVP Canadá DVP
http://www.dvp.ca
TopoL Rep. Tcheca PhoTopoL
http://www.topol.cz/english/share/?doc=../docs/photopol.php3
Supresoft China VirtuoZo
http://www.supresoft.com/english/html/products/products_index.htm
Autometric EUA SoftPlotter
http://www.autometric.com/NEW/Products/Production/
Softwares de fotogrametria:
EMPRESA PAÍS ESTAÇÃO
RWEL Alemanha DMS
http://www.rwel.com/dms.htm - Geração de ortoimagens
ERMAPPER EUA ERMAPPER
http://www.ermapper.com/ - Geração de ortoimagens
PCI Canadá OrthoEngine
http://www.pcigeomatics.com/ - Geração de ortoimagens
Vexcel EUA OrthoGIS
http://www.vexcel.com/aerial/orthogis.html - Geração de ortoimagens
Erdas EUA Ortho-Imagine!
http://www.erdas.com/home.asp - Geração de ortoimagens
1.32
EOS Canadá Photo Modeler
http://www.photomodeler.com/ - Fotogrametria a curtas distâncias
Rolleimetric Alemanha 3-D Modelle
http://www.rolleimetric.de/startie.html - Fotogrametria a curtas distâncias para
aplicação industrial
Technet Alemanha Pictran
http://www.technet-gmbh.com/english_old/products_e.htm - Fotogrametria a curtas
distâncias
K2 Alemanha PATB, PATM
http://www.k2-photogrammetry.de/ - Aerotriangulação
1.33
2. PRINCÍPIOS BÁSICOS DE
FOTOGRAMETRIA
2.1 RADIAÇÃO ELETROMAGNÉTICA
A maioria dos sensores imageadores detecta e registra radiação
eletromagnética. Esta radiação caracteriza-se por viajar à velocidade da
luz (2 997 924 m/s ~ aproximadamente 3 x 108 m/s) e possuir dois campos
a ela associados: um campo elétrico e um campo magnético associados
(Figura 2.1), os quais são perpendiculares entre si e variam
senoidalmente. Vale dizer que, embora possa ser encarada como onda,
também pode ser considerada como pacotes de energia (partículas ou
quanta) chamados fótons, caracterizando-se a “dualidade onda-partícula”.
Figura 2.1 – Onda Eletromagnética
A radiação eletromagnética, vista como uma onda, possui um
espectro de comprimentos de onda e, conseqüentemente, de freqüência
2.1
distintos. Como exemplos, encontram-se a luz visível, a região do
infravermelho, do ultravioleta e as ondas de rádio, além dos raios X, raios
Gama e outros, de menor importância. Considerando a clássica fórmula
de propagação de ondas:
v = λ . f (2.1)
onde:
“v” é a velocidade da onda; neste caso v = c = 3 x 108 m/s;
“λ“ é o comprimento da onda;
“f” é a freqüência (número de ciclos por segundo passando por dado
ponto) com a qual a onda se apresenta;
Obviamente, a freqüência é inversamente proporcional ao
comprimento de onda. As diferentes variedades de ondas
eletromagnéticas podem ser, então, escalonadas da seguinte forma
(Figura 3.2):
Figura 2.2 – Espectro Eletromagnético
Voltando-se à natureza quântica da radiação eletromagnética, uma
consideração importante pode ser feita a partir da equação de Planck para
um pacote de energia. Sabe-se que esta fórmula equivale a:
Q = h . f (2.2)
onde:
2.2
“h” é a constante de Planck;
“f” é a freqüência da radiação;
“Q” é a energia do pacote.
Combinando-se as equações (2.1) com a (2.2) chega-se a:
Q = hc/ λ (2.3)
Donde se deduz que, a medida que é maior a freqüência, menor é
o comprimento de onda e maior é a energia transportada. Ou seja, é mais
fácil de se detectar a radiação, pelo menos teoricamente, já que a
quantidade de energia disponível é maior.
Nesse ponto, uma pergunta pode surgir: “Como é originada essa
energia”. Ou ainda... “Como os corpos interagem com essa energia?”
Primeiramente, pode-se dizer que todos os corpos (na verdade,
todos os corpos a mais de 0 Kelvin) emitem energia. A lei de Stefan-
Boltzmann expressa quantitativamente a quantidade de energia emitida
por um corpo, em função da sua temperatura:
M = σ T4 (2.4)
onde:
“M” é o fluxo de energia em W m-2;
“σ“ é a constante de Stefan-Boltzmann (5,6697 . 10-8 Wm-2K-4);
“T” é a temperatura do corpo, em K;
Mesmo sabendo que essa fórmula só se aplica numa situação ideal
(absorção total da energia incidente e emissão total da energia que possui
– corpo negro), percebe-se que a quantidade de energia emitida aumenta
consideravelmente à medida que sobe a temperatura do corpo. A fórmula
de Wien relaciona a temperatura do corpo o comprimento de onda da
radiação dominante, ou seja, a radiação que será a mais emitida.
λd = A / T (2.5)
2.3
onde:
“λd ”, como já foi dito, é a radiação dominante em µm;
“A” é uma constante, e equivale a 2898 µm K;
“T” é a temperatura do corpo, em K;
Para a temperatura do sol (aproximadamente 6000 K), a radiação
mais emitida está na faixa do espectro visível. O espectro de luz chamado
“visível” recebe essa denominação, em especial, e é a única região do
espectro eletromagnético que sensibiliza os olhos dos seres humanos. O
olho humano, de acordo com as teorias mais recentes, é sensível à luz em
três colorações básicas: vermelho, verde e azul. Estas cores são as
chamadas cores primárias e, a partir de combinações luminosas das três,
pode-se gerar qualquer uma das outras (figura 2.3).
Figura 2.3 – Cores primárias da luz (processo aditivo – Sistema RGB) e cubo de cores,
com cor genérica “X” representada graficamente como uma combinação das outras três
Figura 2.4 – Cores complementares da luz, e primárias da
impressão (processo subtrativo – Sistema CMYK)
De fato, o sistema denominado RGB (de Red, Green, Blue –
2.4
vermelho, verde e azul em inglês) é utilizado nos televisores e monitores
de computador. As cores complementares são o amarelo, o magenta e o
ciano e são formadas pela subtração das cores primárias da cor branca.
Nos sistemas de impressão (figura 2.4), as cores complementares são
tomadas como básicas, ocorrendo fato inverso: as cores primárias passam
a ser formadas pela combinação das complementares, isto é, o sistema
denominado CMYK (Cyan, Magenta, Yellow and blacK) neste caso, a cor
preta, que seria a subtração das três. Logo, atenção especial deve ser
tomada de modo a, em uma impressão, manter-se a fidedignidade das
cores exibidas.
O espaço RGB também pode ser visto como um espaço vetorial de
cores (cubo RGB), onde cada tonalidade pode ser obtida a partir de uma
combinação primária das cores promárias (figura 2.3).
Figura 2.5 – Intensidade de emissão de energia eletromagnética por um corpo negro (ideal)
a 6000 K, para diferentes comprimentos de onda.
Fonte: http://solarsystem.colorado.edu/applets/stellarOutput/
Para um corpo com uma temperatura de 300 K (temperatura da
maior parte dos corpos na superfície terrestre), o comprimento de onda da
2.5
radiação emitida encontra-se na região do infravermelho termal, nome que
decorre justamente do relacionamento direto com a temperatura dos
corpos que encontram-se ao nosso redor.
De modo a visualizar estes dados de um modo mais interativo, é
interessante utilizar um aplicativo que mostre as curvas para corpos de
diferentes temperaturas. Como exemplo, tem-se o “Black Body Applet”,
da Universidade de Colorado (Estados Unidos). As figuras 2.5 e 2.6
mostram as curvas para um corpo negro de 6000 K e 300 K.
Figura 2.6 – Intensidade de emissão de energia eletromagnética por um corpo negro (ideal)
a 300 K, para diferentes comprimentos de onda.
Fonte: http://solarsystem.colorado.edu/applets/stellarOutput/
2.1.1 INTERAÇÃO ENTRE DIFERENTES CORPOS E A
ENERGIA ELETROMAGNÉTICA
Os corpos respondem à energia eletromagnética sobre eles, que
incide de três maneiras: absorvendo-a, transmitindo-a ou refletindo-a
2.6
além, é claro, da emissão, que é natural de todos os corpos. Para o
Sensoriamento Remoto interessa principalmente a reflexão, pois é a partir
da energia refletida pelas feições da superfície terrestre que os filmes ou
dispositivos CCD das câmaras são sensibilizados.
Essa reflexão se dá de duas maneiras: especular e difusa. Na
reflexão especular, parte da luz incidente (que não é absorvida nem
transmitida) é refletida com um ângulo igual ao de incidência, equivalendo-
se a um espelho. Um exemplo é mostrado na figura 2.7.
Figura 2.7– Reflexão especular
A reflexão difusa ou Lambertiana é a de maior interesse à aquisição
de imagens (Figura 2.8), pois, neste tipo, parte da luz incidente, que não é
absorvida nem transmitida, é refletida em diversos ângulos e em diversas
intensidades. Ora, cada corpo reage de maneira diferente à mesma
radiação, graças às idiossincrasias que naturalmente cada um deles
possui. Assim, para diferentes corpos e diferentes radiações e,
conseqüentemente, para diferentes comprimentos de onda, têm-se
diferentes intensidades refletidas e/ou emitidas. Graças a essa
propriedade, pode-se ter o conceito de cores. Assim, vê-se um corpo
como “verde” porque, em verdade, este reflete e/ou emite (de forma
difusa) radiação na faixa do verde. Sabendo-se como determinado corpo
reage aos mais diversos tipos de radiação eletromagnética, pode-se traçar
um padrão de resposta espectral (ou assinatura espectral) para este
corpo.
2.7
Figura 2.8– Reflexão difusa
Um caso interessante de diferentes respostas espectrais ocorreu
durante a segunda grande guerra, quando os aliados passaram a usar
filmes que detectam radiação na faixa do infravermelho. Embora, no
visível, a camuflagem de folhagem artificial tenha a mesma coloração que
a vegetação natural, no infravermelho, a vegetação viva reflete muito
melhor, graças à clorofila e à estrutura interna das folhas. Em
conseqüência disso, tornou-se fácil a identificação de abrigos e casamatas
inimigas camufladas.
Outro aspecto importante a ser considerado é a reação da
atmosfera à radiação que passa por ela. É notório o fato de que os raios
ultravioleta são filtrados na atmosfera, graças à camada de ozônio (que,
por sinal, está em processo de contínua destruição). Estes tipos de
mecanismos se aplicam na atmosfera, até porque servem como uma
proteção, que possibilita a existência de vida na superfície terrestre, uma
vez que muitas das radiações eletromagnéticas são nocivas aos seres
vivos.
Desse modo, diz-se que há “janelas atmosféricas”, ou seja, zonas
do espectro em que a atmosfera permite a passagem de energia. As
principais são o visível, o infravermelho e as microondas (radar). Pode-se
captar as duas primeiras diretamente a partir da energia gerada e refletida
pelos corpos, por intermédio de sensores passivos. Para captar energia
na faixa das microondas, deve-se gerá-la no próprio sensor (sensores
ativos), uma vez que a quantidade de energia naturalmente disponível
nessa faixa é muito baixa.
Além disso, a atmosfera é responsável pelo fenômeno do
2.8
espalhamento, que, como o nome diz, “espalha” de modo disperso
determinada radiação. O espalhamento de Rayleigh (o mais famoso)
decorre da interação de partículas muito menores que o comprimento de
onda da radiação. Graças a ele, vemos o céu azul, pois a radiação na
faixa do azul (a de menor comprimento de onda) é a mais espalhada por
esse tipo de partículas.
O espalhamento de Mie ocorre para partículas da mesma ordem de
grandeza que o comprimento de onda e afeta principalmente os
comprimentos de onda maiores.
O espalhamento não-seletivo é devido às partículas muito maiores
que os comprimentos de onda (poeira em suspensão), e que espalham
igualmente radiação de todos os comprimentos de onda. Por isso a
neblina e as nuvens se apresentam na cor branca.
O espalhamento pode empobrecer a imagem adquirida sobre
determinada área onde esse efeito se faz notável. Filtros podem ser
colocados nas câmaras para atenuar estes problemas. Técnicas de
processamento digital também podem ser executadas. Ambos os casos
serão estudados no decorrer do capítulo.
2.1.2 A CÂMARA FOTOGRÁFICA
O processo chamado de fotografia foi desenvolvido a partir de
1839, graças aos esforços dos pioneiros Nicephore Nièpce, William Talbot
e Louis Daguerre. O princípio da câmara escura é de tal simplicidade e
eficácia que até os dias de hoje é utilizado em sua essência. Tal princípio
está descrito esquematicamente na figura 2.9. Tem-se um objeto a ser
fotografado e uma câmara, que se constitui em um recipiente oco (com um
pequeno furo por onde passa a luz), com as paredes internas escuras,
exceto uma, onde se encontra um dispositivo que pode ser sensibilizado
pela luz (um filme ou matriz de CCD's, como exemplos). A imagem é
formada de maneira invertida, em uma distância que depende da distância
do objeto ao furo.
2.9
Figura 2.9– Princípio da câmara escura
Tal aparato não se mostrou prático, pois eram necessárias horas de
exposição para sensibilizar suficientemente o filme. Para contornar esse
problema, instala-se um sistema de lentes na frente da câmara, o que
diminui sensivelmente o tempo de exposição, como exibido na figura 2.10.
Figura 2.10– Princípio da câmara fotográfica
Quando o arranjo está devidamente posicionado, pode-se
relacionar a distância focal (f), a distância imagem (i) e a distância objeto
(o) do seguinte modo (Lei de Gauss):
1/f = 1/o + 1/i (2.6)
Embora a fórmula rigidamente especifique uma determinada
distância imagem e uma determinada distância objeto necessárias para
que o sistema esteja absolutamente focado, há um intervalo de tolerância
dentro do qual mudanças de posição do objeto não acarretam perda de
nitidez da imagem. Tal conceito chama-se profundidade de campo.
No caso de fotografias aéreas (ou terrestres visando longas
2.10
distâncias), a distância-objeto assume valores muito grandes, reduzindo a
equação 2.6 a 1/f = 1/i, donde se conclui que, nestes casos, f = i.
Outro conceito importante para as câmaras fotográficas é a
exposição em qualquer ponto do plano focal. Esta, de acordo com
(Lillesand, Kiefer, 2000) é expressa pela fórmula:
Exp = sd2 t
4f2 (2.7)
“Exp” é a exposição em si, expressa em J mm-2;
“s” expressa o “brilho” da cena, em J mm-2 s-1;
“d” é o diâmetro da abertura da lente em mm;
“t” é o tempo de exposição em s;
“f” é a distância focal da câmara, em mm.
Outro conceito igualmente importante é o de velocidade das lentes,
ou f-stop. Este é dado pela relação entre a distância focal da câmara e o
diâmetro da lente.
f-stop = f / d (2.8)
Com isso, pode-se reescrever a equação 2.7 da seguinte forma:
Exp = st
4 ¢fBstop£2 (2.9)
Pode-se verificar que, à medida que o f-stop aumenta, a exposição
diminui. Em geral, o f-stop é representado em potências de 2.
Convenciona-se, para um valor “x” de f-stop, representá-lo como f/x.
Assim, alguns valores comuns seriam: f/4, f/2, f/1.4 e assim por diante.
Como na verdade, a velocidade das lentes é representada por uma
relação, quanto maior a abertura das lentes (pequenos f-stop) permitem
mais luz chegando ao filme, logo, sendo possível a diminuição da
exposição. Pequenas aberturas de lentes obrigam maiores tempos de
exposição, porém aumentam a profundidade de campo. É interessante
2.11
ressaltar que não existe uma relação “ideal”, cabendo ao profissional
envolvido escolher o melhor filme e as melhores condições para cada
situação prática que se apresente.
As câmaras fotográficas podem ser classificadas quanto à
fabricação em analógicas (sensibilizam um filme, que, se revelado, leva a
uma imagem analógica) ou digitais (obtêm a imagem diretamente em
formato digital).
Outra chave de classificação das câmaras fotográficas permite
dividi-la em dois grandes grupos, a saber: câmara métrica e câmaras não-
métricas ou de fotógrafo amador. As câmaras métricas distinguem-se das
não-métricas pelo fato de possuirem características especiais, descritas no
tópico a seguir.
2.2 A CÂMARA FOTOGRAMÉTRICA
Convencionou-se chamar de “câmara fotogramétrica” a câmara que
possui certas características especiais. No caso, o que determina a
dissensão entre estas definições é o maior rigor métrico na definição dos
parâmetros que regem a câmara. Assim, pode-se extrair informação
métrica e precisa das imagens adquiridas por tal tipo de câmara.
As câmaras fotogramétricas em geral são aéreas, porém, podem
ser terrestres (para uso em fotogrametria arquitetônica ou mesmo na
aquisição de imagens oblíquas de determinadas feições bastante
irregulares). Deve-se, porém, considerar que, para câmaras terrestres, a
distância focal não é constante e os valores de profundidade de campo
devem ser respeitados. No decorrer desse texto, entretanto, dar-se-á uma
importância maior para as câmaras aéreas, pois são, de longe, as mais
utilizadas em mapeamento fotogramétrico (aerolevantamentos).
As partes principais de que se compõe uma câmara fotogramétrica
são o cone e o magazine (figura 2.11).
No cone, localiza-se o sistema de lentes da objetiva, o diafragma, o
obturador, o suporte de filtros e a esquadria de registros.
2.12
Figura 2.11– Representação esquemática de uma câmara fotogramétrica
O sistema da objetiva é um conjunto de lentes que deve direcionar
os raios luminosos vindos do exterior em direção à imagem que será
formada no plano focal.
O obturador é responsável pela abertura necessária do diafragma
(um conjunto de cortinas circulares concêntricas), de modo a se obter uma
exposição desejada.
Os filtros podem ser aplicados caso se queira aplicar determinados
efeitos em especial às imagens. Convém ressaltar que a existência de
filtros, caracterizados por sua transmitância (isto é, a percentagem de
energia luminosa que estes deixam passar de tudo o que chega até eles),
obriga maiores tempos de exposição dos filmes. Logo, estes devem ser
utilizados apenas em casos indispensáveis.
A esquadria de registros comporta várias informações marginais
que virão a ser impressas em cada uma das fotografias. As mais
importantes, de longe, são as marcas fiduciais (figura 2.12), que definem
um sistema rígido de coordenadas da imagem. Outros dados que podem
ser impressos são o número da foto, a empresa contratante, o vôo, dentre
outros.
O plano focal é onde se forma a imagem (f ~ i para câmaras
aéreas) e onde se posiciona o filme. Nas câmaras digitais, há uma matriz
de detectores nessa região da câmara, isto é, no lugar do filme.
2.13
Figura 2.12 – Alguns dados marginais de fotografias aéreas (cortesia
1a Divisão de Levantamento do Exército Brasileiro – Porto Alegre, Brasil)
Figura 2.13 – Exemplo de Certificado de Calibração (cortesia
1a Divisão de Levantamento do Exército Brasileiro – Porto Alegre, Brasil)
2.14
No magazine, localiza-se o sistema de aderência a vácuo e de troca
de filmes (câmaras analógicas apenas).
Toda câmara fotogramétrica vem acompanhada de um certificado
de calibração, ou seja: um documento que atesta os valores precisos de
determinados parâmetros fundamentais da câmara, que serão
devidamente utilizados nos processos fotogramétricos posteriores. Um
exemplo de certificado encontra-se na figura 2.13.
Os parâmetros principais da câmara são:
• Tipo de Câmara e Tipo de Lentes – Possui informações sobre o nome do
fabricante e modelo da câmara, bem como das lentes utilizadas;
• Distância Focal – Vem da lei de Gauss, exemplificada na equação (2.6).
No caso de uma imagem tomada a grandes distâncias, o valor de f é
constante e igual à distância-imagem. Em geral, f assume valores
nominais de 88 mm, 150 mm ou 300 mm;
Figura 2.14 – Representação da posição do filme na tomada da fotografia (neste caso, o
sistema de lentes está simplificado como se houvesse apenas uma)
• Ângulo de Abertura – Este parâmetro está exemplificado graficamente na
figura 2.15. Em geral, pode assumir três valores principais, a saber:
ângulo normal, grande angular e supergrande angular. A tabela 2.1
apresenta as principais características de cada tipo:
2.15
Tipo decâmara
Ângulode
abertura
Distânciafocal
Características (recomendação de uso)
Ângulonormal
~ 75o ~ 300 mm Diminui bastante a distorção radial
(neste momento, basta saber que
esta é uma distorção que se
manifesta aproximadamente de modo
uniforme de acordo com a distância a
partir do centro da imagem), permite
maior altura de vôo, porém é
desaconselhável para trabalhos
estereoscópicos;
Grandeangular
~ 150o ~ 150 mm Geralmente utilizadas para a
confecção de cartas topográficas em
escalas médias e grandes.
Apresentam um bom rendimento;
Supergrande
angular
~ 88o ~ 88 mmAumentam bastante a cobertura,
principalmente em baixas alturas de
vôo. Entretanto, as distorções radiais
tornam-se realmente incômodas em
alguns casos. É mais utilizada para
vôos em escalas pequenas.
Tabela 2.1 – Características dos diferentes tipos de câmaras fotogramétricas
A seguir serão listados pontos notáveis para o estudo das câmaras:
• Ponto Nodal Anterior – Ponto de entrada de um raio de luz no sistema de
lentes com o mesmo.
• Ponto Nodal Posterior – Ponto de saída de um raio de luz do sistema de
lentes.
• Ponto Principal de Autocolimação – Ponto, no plano do filme, onde chega
um raio de luz que entra perpendicular ao sistema de lentes da câmara.
• Ponto Principal de Simetria – Ponto situado no plano focal, onde as
distorções são praticamente simétricas. A distância focal referente a este
2.16
ponto é chamada de distância focal calibrada.
Figura 2.15 – Relacionamento entre a distância focal e o ângulo de abertura
• Eixo Óptico – É o eixo que contém os centros de curvatura de
determinada lente. O sistema de lentes da câmara possui para si um eixo
óptico comum, a não ser que hava um desalinhamento dos eixos dos
diversos componentes do mesmo, o que na prática, sempre acontece. A
distância focal efetiva nas proximidades do eixo óptico é chamada de
distância focal equivalente (Andrade, 1997).
Alguns dos elementos anteriormente descritos encontram-se
destacados na figura 2.16, de modo a facilitar o entendimento dos
mesmos.
Constam dos certificados de calibração, em geral, as seguintes
informações: coordenadas do ponto principal, distância focal calibrada,
coordenadas das marcas fiduciais e coeficientes para correção das
distorções (a serem melhor estudadas posteriormente), acompanhados
2.17
dos respectivos desvios-padrão. Os métodos utilizados para a calibração
de câmaras fogem um pouco do escopo desta obra, sendo aconselhável
aos mais interessados a leitura de (Andrade, 1998).
Figura 2.16 – Alguns parâmetros da câmara fotogramétrica
2.2.1 AQUISIÇÃO DE IMAGENS FOTOGRAMÉTRICAS
ANALÓGICAS
Para a aquisição de imagens fotogramétricas analógicas, usam-se
as já consagradas câmaras fotogramétricas a filme, ou seja, câmaras
onde há um filme no plano focal que é sensibilizado pela luz que chega
até ele. Em geral, um sistema de aderência a vácuo, que possui sistemas
de enrolamento e descompressão, permitindo o avanço automático de
uma fotografia para outra, sem haver dobras ou amassos no filme.
Variam de filme para filme os aspectos referentes à absorção de luz
e sensibilização da emulsão; porém, em geral, o filme fotográfico
pancromático padrão é composto por diversos grãos de haleto de prata,
que são sensibilizados pela luz que chega até eles. Obviamente, em cada
parte do filme, chegará luz em comprimentos de onda e intensidades
diferentes (uma vez que cada objeto reflete e/ou emite energia de formas
2.18
diferentes), acarretando em distintas exposições. A redução dos grãos,
após a revelação, produz um depósito de prata no filme. À medida que
essa prata se deposita, mais escura fica a região onde se dá o acúmulo –
ou seja, objetos mais claros terão suas imagens mais escuras – a isso se
chama negativo.
Caso se queira gerar uma imagem em filme correspondente à
coloração dos objetos, deve-se sensibilizar um filme com um negativo à
frente. Esse filme, quando revelado, passa a se chamar diapositivo. Os
diapositivos são muito empregados em fotogrametria, devido à
translucidez característica deles, que permite melhor visualização contra
projetores de luz e scanners.
Obviamente, as fotografias em papel, opacas, são também geradas
do mesmo modo. Sua utilização é igualmente irrestrita, servindo para a
confecção de mosaicos analógicos e de apoio ao pessoal de campo,
quando da medição dos pontos de controle e coleta dos topônimos.
A medida chamada transmitância (T) expressa a razão entre a
quantidade de luz que pode passar pelo diapositivo (ou pelo negativo) e o
total de luz que incide sobre o filme. A opacidade (O) é igual ao inverso da
transmitância. Assim, quanto mais escura for a imagem, menor é a
quantidade de luz que por ela passa, menor é a transmitância e maior é a
opacidade, e maior é a densidade (D). A densidade é o logaritmo decimal
da opacidade. O uso de unidades logaritmicas advém do fato de o olho
humano responder aos estímulos visuais de modo aproximadamente
logaritmico.
Colocando-se em um gráfico a densidade (D) pelo logaritmo da
exposição (log E), obtém-se uma curva denominada curva característica
do filme. Em geral, ela é representada para o filme em negativo, porém,
curvas para diapositivos também podem ser encontradas. A figura 2.17
expressa o formato aproximado de tais curvas.
Pode-se perceber que a curva característica possui uma parte
central que assemelha-se a uma reta. É esta a área de utilização do filme.
Se a exposição for curta demais, a densidade será baixa e a curva
característica cairá numa região não-linear (início da curva). Se a
exposição for longa demais, fato semelhante ocorrerá (final da curva).
2.19
Figura 2.17 – Perfil de curvas características para um negativo e um diapositivo
A tangente do ângulo α, representado na figura 2.18, é chamada γ
(gama). O γ varia de filme para filme, porém, está relacionado com o
conceito de contraste. Assim, quanto maior é o γ , maior é o contraste (e
vice-versa), ou seja, para menores diferenças na exposição do filme, há
maiores diferenças na densidade de grãos sensibilizados. Na prática, isso
quer dizer que, para pequenas diferenças de iluminação, há maiores
diferenças de coloração no negativo.
Figura 2.18 – Representação da parte reta de uma curva característica
Cada filme possui sua própria curva característica. Isso
determinará, de acordo com os objetivos do aerolevantamento, a escolha
da emulsão mais propícia. Para ajudar nesta escolha, vários parâmetros
2.20
foram estabelecidos – os mais importantes, denominados resoluções, são
demonstrados no tópico a seguir.
2.2.1.1. RESOLUÇÕES DAS IMAGENS FOTOGRAMÉTRICAS
ANALÓGICAS
Toda imagem possui quatro resoluções básicas, ou seja, quatro
parâmetros básicos de avaliação de suas capacidades de aquisição de
dados. Estas resoluções são denominadas: resolução espacial,
resolução radiométrica, resolução espectral e resolução temporal.
A resolução espacial está diretamente relacionada com a
capacidade de “enxergar” objetos tão pequenos quanto o filme permita.
Uma resolução, por exemplo, de 1m, quer dizer que os menores objetos
passíveis de serem distinguidos terão 1m de dimensões. Objetos
menores não serão visualizados. Esta resolução é determinada pelo
tamanho dos grãos de haleto de prata da emulsão. Maiores grãos recaem
em menor resolução espacial, porém, se sensibilizam mais rápido. Em
especial para câmaras aéreas, o tempo de exposição deve ser o menor
possível, de modo a evitar os efeitos danosos que a movimentação da
aeronave pode acarretar (seção 2.3). Isso causa ao responsável pelo
trabalho fotogramétrico um considerável problema: balancear resolução
espacial e velocidade do filme.
Para medir a resolução espacial, em laboratório, tiram-se fotos
contra um alvo composto de inúmeras linhas brancas sobrepostas a um
fundo preto (Figura 2.19).
A resolução espacial é determinada pela quantidade de linhas que
podem ser identificadas em um milímetro (l/mm). Também é comum a
expressão “pares de linhas por milímetro” (lp/mm), que é exatamente igual
à primeira, apenas considerando que os espaços em preto entre as linhas
em branco são equivalentes a “linhas pretas” – daí a expressão “pares de
linhas”. Essa identificação pode ser visual (processo mais rudimentar), ou
realizada por aparelhos denominados densitômetros (mais informações na
2.21
seção 2.2.2), cuja tarefa é identificar até que ponto a imagem obtida
mantém os padrões regulares de transição “branco para preto”.
Figura 2.19 – Alvo para determinação de
resolução espacial de uma câmara (fonte: USAF)
Convém ressaltar que estes valores (resolução espacial estática),
obtidos em laboratório, não correspondem ao real, uma vez que um vôo
incorre em inúmeros outros problemas que afetam a resolução espacial
final. Para obter uma medida mais realista, pode-se realizar um vôo
contra um grande alvo com os padrões semelhantes aos da Figura 2.19.
A resolução obtida por este método seria chamada resolução espacial
dinâmica, porém, raramente tais testes são realizados.
Figura 2.20 – Padrões ideais de transição “branco para preto”
(ondas quadradas) e padrões obtidos através de um densitômetro
(senóides). A tarefa de tal aparelho é identificar até onde há um
verdadeiro contraste entre as linhas claras e escuras, uma vez que,
à medida que as senóides se atenuam, a imagem perde sua
nitidez nas bordas (fonte: USAF).
2.22
Os filmes geralmente utilizados em aerofotogrametria possuem
uma resolução espacial em torno de 40 l/mm (ou 40 lp/mm). Para um vôo
na escala de 1:25000, a resolução espacial no terreno seria igual a: 25000
(denominador da escala) / 40 = 625 mm = 0,625 m.
A resolução radiométrica é um fator que está relacionado com a
capacidade de se detectar as menores variações possíveis de incidência
de energia sobre o filme. Por exemplo, um filme que seja capaz de
registrar apenas dois tons: preto e branco, tem uma resolução
radiométrica menor que um filme que seja capaz de registrar várias
nuances de cinza dentro da mesma faixa de exposição. Esse exemplo vale
muito mais para imagens digitais, porém, para imagens analógicas
também se aplica.
A resolução radiométrica pode ser melhor verificada através de um
gráfico comparativo entre duas emulsões, como atesta a Figura 2.21.
Obviamente, há um intervalo mínimo de variação de densidade que
acarreta em uma diferença de tonalidade na imagem final. Se, para esse
intervalo mínimo de variação, corresponder uma menor diferença de
exposição, logo, a resolução radiométrica é maior. Imagens com alta
resolução radiométrica apresentam alto γ.
Figura 2.21 – Duas amostras de curvas características de filmes. Nota-se a maior
resolução radiométrica da amostra da esquerda, uma vez que, dentro da mesma faixa de
exposição (entre linhas pontilhadas), pode-se perceber onze nuances diferentes de cinza
(relacionadas com as variações mínimas de densidade necessárias para acarretar uma
mudança de tonalidade na imagem final. Na imagem da direita, há menos de seis varia-
ções de tons de cinza no mesmo intervalo de exposição e mesmas variações de densidade.
2.23
A resolução espectral envolve o número de bandas e a espessura
de cada banda que o filme é capaz de cobrir. Um filme pancromático
cobre a faixa do visível, por exemplo. Um filme colorido cobre a mesma
faixa, porém em três bandas diferentes: vermelho, azul e verde. Como o
filme colorido tem três bandas, e cada banda é mais estreita que o
pancromático (obviamente, pois este equivale às três juntas), pode-se
dizer que o filme colorido tem uma maior resolução espectral que o
pancromático.
Existem praticamente apenas quatro variedades de filme:
pancromático (todo o visível, foto em tons de cinza), pancromático
incluindo a faixa do infravermelho, colorido e falsa-cor (associa a
coloração vermelha da foto à radiação infravermelha, a coloração verde à
radiação vermelha e a coloração azul à radiação verde). O uso da cor se
justifica devido à maior facilidade do olho humano de discernir entre cores
diferentes, ao invés de tons de cinza. Entretanto, os filmes coloridos
geralmente são mais pobres em termos de rapidez de exposição e
resolução espacial – o que limita seu uso apenas a casos em que são
estritamente necessários.
O filme colorido funciona de modo semelhante ao pancromático,
porém envolve três emulsões diferentes, e que possuem curvas
características semelhantes. Vale lembrar que, assim como no caso do
negativo preto-e-branco, cuja emulsão corresponde, em coloração,
contrariamente à radiação que o sensibiliza (exemplo: um objeto branco,
no negativo, é representado com coloração preta) as emulsões sensíveis a
determinada cor, são representadas, no negativo do filme colorido, pela
coloração contrária à da radiação. Um exemplo: se um objeto azul é
fotografado, sairá com a coloração amarela no negativo (basta ver no
diagrama de cores primárias, ou complementares, qual é a cor que se
encontra exatamente do lado oposto da cor desejada).
As emulsões do filme colorido são as seguintes: emulsão sensível à
luz azul – e que tinge o negativo de amarelo; emulsão sensível à luz verde
e à luz azul e emulsão sensível à luz vermelha e à azul. Como as duas
últimas emissões são sensíveis ao azul também, convenciona-se colocar
um filtro azul bastante fino entre a primeira camada de emulsão e as
2.24
outras duas. Com isso, chega às duas últimas apenas a luz vermelha e a
verde, e com isso elas passam a se tornar: emulsão sensível à luz verde –
que tinge o negativo de magenta e emulsão sensível à luz vermelha – que
tinge o negativo de ciano. Como qualquer radiação no visível é uma
composição de vermelho, verde e azul, pode-se representá-las através da
fotografia colorida.
Para os filmes falsa-cor, o princípio é o mesmo, apenas variando as
radiações que os sensibilizam (maiores detalhes sobre a composição
cromática do filme são encontrados em (Lillesand, Kiefer, 2000)).
A última das resoluções de uma imagem é a resolução temporal, e
que se relaciona com o tempo de revisita da plataforma na qual a câmara
está montada. Um satélite que, por exemplo, adquira imagens de uma
mesma região de 17 em 17 dias terá uma resolução temporal maior que
uma série de vôos para atualização cartográfica que cobrem a mesma
área, imageando-a apenas uma vez a cada ano. É um conceito que
interessa muito às aplicações temáticas, tais como: movimentação de
bacias, crescimento populacional, poluição urbana e estudos ambientais,
etc. Como, em geral, para vôos fotogramétricos, a área é coberta apenas
uma vez, este é um conceito que se aplica principalmente para imagens
orbitais.
2.2.2 AQUISIÇÃO DE IMAGENS FOTOGRAMÉTRICAS
DIGITAIS
Para a fotogrametria digital, interessa bastante esse tópico, uma
vez que as imagens digitais são a fonte para a aquisição dos dados
tridimensionais das feições nela contidas.
Há, basicamente, dois tipos de imagem digital: vetorial e matricial.
A imagem vetorial é caracterizada pela delimitação de objetos pelos
pontos que os determinam. Ela será melhor explicada posteriormente, na
parte que abordará a restituição digital.
A imagem digital é uma matriz composta por células quadradas,
2.25
chamadas pixels (picture elements). Dentro de cada pixel, há somente
uma coloração sólida, definida por um número digital. Neste momento,
basta saber que cada número digital possui uma determinada coloração
associada a ele. Os pixels podem ser melhor evidenciados se a imagem
for sucessivamente ampliada (Figura 2.22).
Figura 2.22 – Note-se a estrutura de pixels existente na imagem e melhor evidenciada após
sucessivas ampliações da mesma
Pode-se, assim, definir qualquer imagem digital por uma matriz,
tendo por valor de cada um dos elementos o número digital equivalente.
Isso fica explicitado de maneira melhor na figura 2.23.
Figura 2.23 – Distribuição matricial (à direita) equivalente a
um conjunto de pixels (à esquerda)
2.26
2.2.2.1. RESOLUÇÕES DAS IMAGENS FOTOGRAMÉTRICAS
DIGITAIS
As quatro resoluções já delineadas para a imagem fotogramétrica
analógica também se aplicam à imagem fotogramétrica digital. Entretanto,
os conceitos variam razoavelmente entre elas, dada a natureza distinta
que elas possuem.
Na imagem digital, a resolução espacial está diretamente
relacionada com o “tamanho do pixel”. Essa terminologia exprime o
quanto, no terreno, equivale ao lado de um pixel na imagem. Um exemplo
do cálculo desse valor: determinada imagem, de 32 X 32 pixels, equivale,
no terreno, a uma área de 32 X 32 metros. Assim, cada pixel equivale a
um quadrado de 1m X 1m no terreno. Como dentro de um pixel só pode
haver uma coloração, pode-se dizer, a grosso modo, que esta equivale a
uma composição das tonalidades dos diferentes objetos existentes
naquela área. O tamanho do pixel, portanto, está diretamente relacionado
com a capacidade de se discernir objetos no terreno. Obviamente, quanto
menor o tamanho do pixel, maior é a resolução espacial da imagem digital.
Hoje em dia, já há sensores por satélite com a capacidade de adquirir
imagens de pixels iguais ou menores que 1m X 1m. Imagens digitalizadas
a partir de fotografias analógicas ou adquiridas por câmaras aéreas
digitais apresentam resoluções ainda maiores, habilitando a utilização em
fotogrametria digital em escalas cada vez maiores.
Por fim, convém ainda citar que, no momento em que se arranja
uma área física da Terra em uma matriz de pixels de dimensões definidas,
executa-se um processo chamado discretização. O espaço contínuo e de
unidades de medida infinitamente complexas é reduzido a um conjunto
discreto de elementos arrumados em uma matriz. Obviamente, se houver
mais pixels cobrindo uma mesma área (Figura 2.24), a discretização dar-
se-á de modo mais realista, porém, isso aumenta proporcionalmente o
tamanho do arquivo final. Por exemplo, um trecho de 20 X 20 pixels é
quatro vezes menor que um de 40 X 40 pixels.
A resolução radiométrica, como exposto anteriormente, está ligada à
2.27
capacidade de discernir quantidades cada vez maiores de tons dentro
de uma determinada banda do espectro eletromagnético. Para as
imagens digitais, esse fator é mais facilmente quantificável, uma vez que,
por definição, a imagem digital deve possuir uma quantidade certa de
tons.
Figura 2.24 – Imagens da mesma região em resoluções geométricas diferentes (cortesia
1a Divisão de Levantamento do Exército Brasileiro – Porto Alegre, Brasil)
Uma vez que o sistema utilizado em informática é o binário, a
quantidade de tons de uma imagem digital está relacionada a uma
potência de 2. Como exemplo, pode-se citar uma imagem de 256 tons de
cinza. 256 = 28, ou seja, 8 bits (dígitos binários) por pixel. Na prática, isso
quer dizer que o número digital relacionado a cada pixel deve ser expresso
por oito dígitos binários, de modo a permitir 256 variações numéricas
diferentes, podendo assim expressar a multiplicidade de tonalidades
desejada. Uma imagem de 1 bit por pixel, ou seja, que só pode exprimir 21
= 2 variações de tonalidade é chamada imagem binária, e somente vai
possuir tons de preto e branco. Intuitivamente, ela terá uma menor
resolução radiométrica que a imagem de 256 tons de cinza, podendo-se
formular que “quanto maior a quantidade de tonalidades em uma
determinada banda, maior é a resolução radiométrica”. O tamanho do
arquivo da imagem também é influenciado por esta resolução. Uma
imagem que tenha, por exemplo, 20 pixels ao todo, se for expressa em
formato tipo “mapa de bits (bitmap)”, sem compressão ou compactação,
possuirá o tamanho de 20 X 8 bits (1 byte) = 160 bits ou 20 bytes, se tiver
256 tons. Se tiver apenas dois, possuirá o tamanho de 20 X 1 bit = 20
bits.
Quando uma imagem é adquirida ou convertida para a forma digital
2.28
(tópico a seguir), faz-se necessário realizar um processo chamado
quantificação. Isso equivale a encaixar todas as respostas espectrais do
terreno imageado, na banda desejada, ao número de tonalidades pré
determinado.
Figura 2.25 – Imagens da mesma região em resoluções radiométricas diferentes - imagens
da esquerda para a direita de: 8 bits, 4 bits, 2 bits e 1 bit (cortesia – 1a Divisão de
Levantamento do Exército Brasileiro – Porto Alegre, Brasil)
Um exemplo ilustrativo hipotético seria uma imagem que expresse,
em 16 (24 = imagem de 4 bits/pixel) tons de cinza, as variações de
quantidade de energia que chega ao sensor, na faixa de 0 a 16 unidades
de energia (u.e.). A distribuição final equivalerá a:
de 0 a 1 u.e. – número digital igual a zero (preto)
de 1 a 2 u.e. – número digital igual a 1 (preto)
de 2 a 3 u.e. – número digital igual a 2 (cinza)
de 3 a 4 u.e. – número digital igual a 3 (cinza)
de 4 a 5 u.e. – número digital igual a 4 (cinza)
de 5 a 6 u.e. – número digital igual a 5 (cinza)
de 6 a 7 u.e. – número digital igual a 6 (cinza)
de 7 a 8 u.e. – número digital igual a 7 (cinza)
de 8 a 9 u.e. – número digital igual a 8 (cinza)
de 9 a 10 u.e. – número digital igual a 9 (cinza)
de 10 a 11 u.e. – número digital igual a 10 (cinza)
de 11 a 12 u.e. – número digital igual a 11 (cinza)
de 12 a 13 u.e. – número digital igual a 12 (cinza)
de 13 a 14 u.e. – número digital igual a 13 (cinza)
de 14 a 15 u.e. – número digital igual a 14 (cinza)
2.29
de 15 a 16 u.e. – número digital igual a 15 (branco)
As tonalidades mais claras sempre terão números maiores, pois
correspondem a uma quantidade maior de energia chegando ao sensor.
Para um número de tons igual a 2k, o tom mais escuro será igual a 0 e o
mais claro igual a 2k – 1.
É importante frisar que, embora, emissões de 13,1 u.e. e 13,9 u.e.
sejam diferentes, durante a quantificação, elas serão representadas do
mesmo modo, tornando-se indistinguíveis. Aumentar o número de tons
diminui esse tipo de problema, porém aumenta o tamanho do arquivo.
Uma discussão mais aprofundada sobre esse tema será apresentada no
tópico seguinte.
As outras duas resoluções (espectral e temporal) funcionam de
modo semelhante ao das imagens analógicas. Apenas cabe aqui falar um
pouco sobre as imagens digitais coloridas. Elas são compostas por três
imagens separadas, que serão representadas visualmente por vermelho,
verde e azul, mas que podem equivaler a quaisquer combinações de
bandas do espectro. Uma imagem colorida que é exibida na tela de um
computador é, na verdade, uma combinação de três imagens separadas.
A grosso modo, pode-se compará-la a três diapositivos em tons de cinza
que expressam três bandas do espectro e que são projetados sobre uma
mesma superfície através dos filtros vermelho, azul e verde (um filtro para
cada imagem). Assim, uma imagem colorida de 16 milhões de cores
(16777216 cores, na verdade) é uma combinação de três imagens de 256
cada, ou ainda, uma imagem de 8 bits por banda, exibindo três bandas.
Embora ela tenha mais tons que uma imagem pancromática comum de
256 tons de cinza, diz-se que sua resolução radiométrica é igual, pois,
para cada banda, a quantidade de tons é a mesma que a da imagem
pancromática. Outro erro comum é dizer que essa imagem colorida é de
24 bits/pixel. Na prática, é isso que acontece, mas, formalmente ela
continuará sendo uma imagem de 8 bits, porém, com três bandas. Dentro
de cada banda, a capacidade de perceber variações de energia é a
mesma, daí a injustiça de classificá-la como de resolução radiométrica
maior. Ela terá, aí sim, uma resolução espectral maior, pois cobre bandas
2.30
menores e em maior quantidade.
2.2.2.2. MÉTODOS DE AQUISIÇÃO DE IMAGENS
FOTOGRAMÉTRICAS DIGITAIS
Para se obter a uma imagem fotogramétrica digital, há,
basicamente, dois modos. O primeiro é a digitalização matricial de
fotografias ou outro tipo de imagem analógica, por intermédio de
aparelhos chamados scanners. O segundo é a aquisição diretamente no
formato digital, a partir de câmaras fotogramétricas digitais.
A digitalização matricial envolve vários tipos de scanner. O mais
conhecido do usuário comum de informática é o scanner de mesa (Figura
2.26). A utilização do mesmo envolve a colocação da imagem analógica
sobre a mesa de vidro. Após isso, a matriz de CCD's (charge coupled
devices) percorrerá a imagem para a frente e para trás, gravando os
valores dos números digitais dos pixels que comporão o arquivo digital.
Figura 2.26 – Scanner de mesa Microtek (fonte: howstuffworks.com)
O CCD é, na verdade, um conjunto de pequenos diodos sensíveis a
determinada radiação (neste caso, à luz) que convertem fótons em
2.31
elétrons, gerando uma pequena corrente em cada um dos detectores.
Quanto maior a quantidade de energia que chega a um detector, maior é a
corrente gerada no mesmo.
Os scanners usados com fotogrametria digital são geralmente os
drum scanners, ou os scanners a vácuo. Estes usam a tecnologia PMT
(photo multiplier tube). O documento a ser digitalizado é posicionado em
um cilindro de vidro (caso dos drum scanners), ou colado a vácuo a uma
superfície lisa (caso dos scanners a vácuo). No centro do sistema, há um
sensor que separa a luz refletida pelo documento em três raios. Cada raio
é enviado a um filtro colorido onde a luz é transformada em um sinal
elétrico correspondente, de modo semelhante aos scanners de mesa.
Figura 2.27 – Drum Scanner (fonte: printingsystems.com)
Os scanners vêm, geralmente, com um programa de configuração,
onde serão definidos os parâmetros radiométricos, como: digitalização em
tons de cinza ou colorida, quantidade de bits por pixel e outros. A
gradação dos diferentes tons da imagem será feita do seguinte modo: o
tom mais claro equivalerá à corrente mais alta gerada para aquela imagem
e o tom mais escuro à corrente mais baixa gerada para aquela imagem.
Dentro deste intervalo, divide-se a variação entre a corrente mais alta e a
mais baixa pelo número de tons envolvidos.
Um fato importante que deve sempre ser ressaltado é a perda de
informação decorrente do processo de digitalização. Esta perda é
inevitável, uma vez que ainda não há dispositivos capazes de registrar em
sua integridade toda a complexidade radiométrica da imagem original. A
2.32
perda de resolução geométrica pode ser evitada, como será visto a seguir,
porém, freqüentemente é desejável, assim como a radiométrica, de modo
a diminuir o tamanho dos arquivos finais. O papel do profissional
envolvido na área de fotogrametria é fundamental no estabelecimento dos
limites de discretização e quantificação, de modo a permitir o tratamento
preciso dos dados, preservando a elegância das imagens originais. Um
erro nesta fase pode acarretar em dados obtidos sem precisão ou
imagens tão grandes que se tornam difíceis de manipular.
Em geral, para a resolução radiométrica, os valores mais utilizados
são os de 256 níveis de cinza (8 bits) ou 16 milhões de cores (8 bits em 3
bandas). Para a resolução geométrica (ou espacial), importantes
considerações são apresentadas a seguir.
Já foi previamente dito que a imagem analógica possui uma certa
resolução espacial, expressa em linhas/mm (ou lp/mm). O chamado
teorema da amostragem define que a resolução da imagem digital (RID)
deve ser o dobro da resolução da imagem analógica (RIA), ou seja:
RID=RIA2
(2.10)
O valor de RIA é determinado calculando-se o quanto, em
unidades métricas, equivale a uma linha. Por exemplo, 40 linhas/mm
equivalem à RIA de 0,025 mm/linha, ou 25 µm/linha. Analogicamente, os
valores de RID devem ser expressos em (unidades métricas)/pixel.
Outro parâmetro definido empiricamente é o Fator Kell, que
considera a possibilidade de desalinhamento da imagem analógica. Pelo
fator Kell,
RID=RIA
2 2 (2.11)
Por fim, tendo (2.10) e (2.11), pode-se estabelecer a seguinte
relação:
2.33
RIA
2 2TRIDTRIA
2 (2.11)
Para o caso já citado anteriormente (RIA = 40µm), a resolução
ótima da imagem digital deve estar entre 14 e 20 µm/pixel. Tomando-se
uma média, pode-se fixar o valor para 17 µm/pixel. Ainda mais: se a
escala da foto é de, por exemplo, 1:20000, o valor, no terreno, do lado do
pixel será de 17 µm/pixel X 20000 = 0,34 m/pixel, que será o elemento de
resolução no terreno (ERT).
Hoje em dia, há scanners capazes de digitalizar pixels do tamanho
de 3,5 µm/pixel, a 16 bits por banda, com acurácia geométrica de menos
de 2 µm em cada eixo de digitalização.
Figura 2.28 – Três sistemas diferentes de obtenção de imagens a partir de câmaras aéreas:
o primeiro envolve uma matriz de pixels completa (sistema de quadro), que adquire
imagens sobre todo um trecho do terreno; o segundo é o sistema por varredura eletrônica:
há somente uma linha de pixels, que adquirem uma linha imediatamente abaixo dela (a
imagem final é montada a partir da união das imagens parciais adquiridas); o terceiro é o
sistema por varredura mecânica: um conjunto de detectores é rotacionado até percorrer a
área desejada (notadamente, é o método que envolve o maior esforço computacional para
corrigir as distorções).
O segundo método de aquisição de imagens digitais (câmaras
fotogramétricas digitais) ainda não se encontra tão difundido para
2.34
levantamentos aéreos devido, sobretudo, aos altos preços das câmaras
fotogramétricas digitais. Estas possuem um funcionamento semelhante
ao de uma câmara a filme, porém, ao invés de ter um filme no plano focal,
há uma matriz de CCD's. É vital perceber a diferença conceitual entre
esse tipo de câmara e as câmaras digitais de satélites de sensoriamento
remoto. Devido à maior distância entre estes e o terreno a ser imageado,
é mais fácil utilizar arranjos mais econômicos de CCD's, como os de
varredura (dois tipos: eletrônica e mecânica). A diferença entre os três
sistemas está explicada sob forma de ilustração (Figura 2.28).
2.3 PRINCIPAIS PROBLEMAS QUE AFETAM A AQUISIÇÃO DE
IMAGENS
2.3.1 ABERRAÇÕES GEOMÉTRICAS
Estas aberrações são devidas ao formato das lentes que compõem
o sistema de lentes da câmara. São as seguintes:
• Aberração de Esfericidade – É devida à curvatura da superfície da lente e
afeta as imagens de objetos situados no eixo óptico. Como conseqüência,
há uma falta de clareza e nitidez, reduzindo o contraste da imagem e
piorando a observação de detalhes. Para corrigi-la, utilizam-se
combinações de lentes no próprio sistema de lente da câmara.
• Coma – É devida à forma da lente e afeta as imagens de objetos situados
fora do eixo óptico (raios oblíquos). É eliminada através da alteração da
superfície dos elementos componentes do sistema óptico e limitando-se a
abertura do diafragma.
• Astigmatismo – Produz, a partir de um ponto objeto, imagens definidas
por linhas retas perpendiculares entre si, diminuindo a qualidade da
imagem. É reduzido quando o plano focal é colocado no círculo de
confusão mínima, onde o astigmatismo é minimizado.
2.35
• Curvatura de Campo – Objetos situados em um mesmo plano no objeto a
ser imageado não possuem seus círculos de confusão mínima situados no
mesmo plano, o que faz com que o plano-objeto não seja estritamente
plano, e sim parabolóide. É bastante controlado quando se diminui a
abertura do diafragma.
• Distorção – É a única que afeta a posição dos objetos imageados, e não
a qualidade da imagem. Há dois tipos de distorção: radial simétrica e
descentrada. A distorção radial simétrica é devida à refração sofrida por
um raio de luz ao atravessar uma lente e afeta regularmente os pontos da
imagem, a partir do ponto principal de simetria. A distorção descentrada é
causada pelo não-alinhamento dos eixos ópticos dos componentes da
objetiva de uma câmara. Ambas são modeladas por equações
matemáticas, cujos coeficientes são obtidos através do certificado de
calibração de câmara.
Para a distorção radial simétrica, as equações são do tipo
polinomial (Schenk, 1999):
δx = (k0 + k1 r2 + k2 r4 +k3 r6) x'' (2.12)
δy = (k0 + k1 r2 + k2 r4 +k3 r6) y'' (2.13)
x' = x'' - δx (2.14)
y' = y'' - δy (2.15)
δx e δy são as componentes da distorção radial simétrica;
r é o raio a partir do ponto principal de simetria;
k0, k1, k2 e k3 são os coeficientes que constam do certificado de
calibração de câmara;
x'' e y'' são as coordenadas do ponto sem correção, referidas ao ponto
principal de simetria;
x' e y' são as coordenadas corrigidas da distorção radial simétrica.
Para a distorção descentrada, o seguinte modelo foi estabelecido
(Schenk, 1999):
2.36
δx' = p1(r2 + 2x''2) + 2 p2 x''y'' (2.16)
δy' = p2(r2 + 2y''2) + 2 p1 x''y'' (2.17)
x = x' - δx (2.18)
y = y' - δy (2.19)
δx' e δy' são as componentes da distorção radial descentrada;
r é o raio a partir do ponto principal de simetria;
p1 e p2 são os coeficientes que constam do certificado de calibração de
câmara;
x'' e y'' são as coordenadas do ponto sem correção, referidas ao ponto
principal de simetria;
x' e y' são as coordenadas corrigidas da distorção radial simétrica;
x e y são as coordenadas corrigidas das duas distorções.
No passado, utilizavam-se princípios opto-mecânicos para corrigir
estas distorções. Atualmente, os métodos numéricos mostram-se
infinitamente mais práticos. Uma descrição mais detalhada da utilização
deles será efetuada no capítulo 3.
2.3.2 ABERRAÇÃO CROMÁTICA
Este tipo de efeito advém do fato de a luz se decompor em diversos
comprimentos de onda ao passar por um sistema de lentes, de modo
semelhante a um prisma. A distribuição de tal aberração independe da
abertura do diafragma e é razoavelmente constante para todas as áreas
do plano-imagem. A correção para este problema se dá ao combinar duas
lentes de convergências opostas e índices de refração diferentes. Para
maiores detalhes, pode-se consultar (Andrade, 1997).
2.37
2.3.3 DISTRIBUIÇÃO DE LUZ NO PLANO FOCAL
A luz que chega ao plano focal para um ponto situado na periferia
do plano focal tem uma intensidade proporcional ao fator E0 cos4α (Figura
2.29), onde E0 é a intensidade em um plano no eixo focal. A principal
conseqüência é o escurecimento dos cantos da imagem.
Hoje em dia, através de filtros especiais, tal efeito é quase que
completamente eliminado.
Figura 2.29 – Princípio do escurecimento dos cantos da imagem (extraído de Lillesand,
Kiefer, 2000)
2.38
2.3.4 ARRASTAMENTO DA IMAGEM
O movimento da plataforma (sensor), durante o tempo de
exposição, pode provocar este efeito, que se caracteriza por uma perda de
nitidez na imagem final. Ele equivale a:
a = V t E (2.20)
a é o valor do arrastamento;
V é a velocidade da plataforma, em m/s;
t é o tempo de exposição, em s;
E é a escala da foto.
O arrastamento pode ser corrigido através do uso de mecanismos
de compensação de movimento (Forward Motion Compensation), que
movem o filme durante a exposição, mantendo-o na mesma posição
relativa ao terreno. As melhores câmaras hoje em dia possuem sistemas
desse tipo.
2.3.5 EFEITOS ATMOSFÉRICOS
Variam de dia para dia. Alguns casos clássicos são:
• Dias ensolarados – Causam sombras muito compridas em determinados
horários. A solução é realizar vôos quando o sol está alto. Valores para
ângulo de elevação do sol em função da época do ano e da atitude média
do lugar são encontrados em (Albertz, Kreiling, 1989)
• Umidade – Acentua a reflexão da luz solar nas camadas atmosféricas nas
regiões tropicais, principalmente. Causa o efeito chamado hot-spot, que
diminui o contraste da imagem final. Deve-se programar o vôo para que a
distância zenital do sol esteja superior à metade do campo de abertura da
objetiva da câmara usada.
2.39
• Névoa atmosférica – As partículas da névoa tendem a refletir o azul
(espalhamento de Rayleigh), deixando a foto azulada. Para diminuir esse
efeito, usa-se um filtro amarelo (chamado de minus blue) com boa
transmitância para as demais cores.
• Variação do índice de refração nas camadas atmosféricas – Em função dos
diferentes índices de refração, os raios ópticos não são exatamente retos,
sofrendo de curvaturas que levam, na imagem, ao deslocamento dos
pontos de sua verdadeira posição. (Schenk, 1999) indica uma fórmula
para a correção deste efeito:
dr=K¢rAr3
f2£ (2.21)
K=¦ 2410H
H2B6HA250B 2410h2
¢h2B6hA250£H§10B6 (2.22)
r é a distância do ponto principal (i.e. centro da foto) a um determinado
ponto na imagem;
dr é a variação entre a posição verdadeira do ponto e a posição registrada
na foto (a distância eivada de refração é sempre maior, logo, dr deve ser
subtraído de r original);
f é a distância focal da câmara;
H é a altura de vôo;
h é a altitude do plano médio do terreno.
2.4 PROCESSAMENTO DIGITAL DE IMAGENS
Após a obtenção das imagens, em geral, é necessário realizar
certas operações nas mesmas, de modo a melhorar a capacidade de
interpretação e utilização das mesmas. Embora fuja um pouco do escopo
desta obra, os principais métodos de processamento digital de imagens de
sensoriamento remoto são citados adiante.
• Aumento de contraste – Eventualmente, a imagem adquirida poderá
2.40
apresentar-se bastante clara ou escura. A função de aumento de
contraste trabalha com a imagem, alterando os números digitais dos pixels
de acordo com uma nova distribuição. Neste caso, objetos muito claros
ou muito escuros perderão sua fidedignidade. Um exemplo apresenta-se
na figura 2.30.
Figura 2.30 – Aumento de contraste (cortesia – 1a Divisão de Levantamento do Exército
Brasileiro – Porto Alegre, Brasil)
• Filtragem – O algoritmo de filtragem espacial funciona através do
deslocamento de uma máscara ou janela de dimensões ímpares (3X3,
5X5, etc.). Essas janelas possuem valores diferentes para cada
componente, os quais variam em função do filtro aplicado. O
procedimento de filtragem consiste em se passar esta janela sobre a
imagem, pixel a pixel, multiplicando os números digitais de todos os pixels
sob a janela pelos valores contidos na janela e substituindo o pixel central
da imagem original pelo resultado. Esse procedimento é melhor
exemplificado na figura 2.31.
Alguns tipos de filtros importantes são:
• Filtros “passa-baixa” – Recebem esta denominação os filtros que deixam
passar apenas as baixas freqüências, ou seja, eliminam grandes
contrastes, como, por exemplo, bordas bem definidas. São chamados
filtros de suavização devido ao efeito que causam na imagem original,
depois de sua aplicação;
• Filtros “passa-alta” – Esses filtros deixam passar apenas as altas
freqüências espaciais. São chamados filtros de realce de bordas, pois
ressaltam mudanças bruscas nos níveis de cinza, que caracterizam
bordas;
• Filtros direcionais – São filtros passa-alta que realçam determinada
2.41
direção;
• Filtros de convolução – São filtros destinados à eliminação de ruído nas
imagens digitais. Como exemplos, citam-se os filtros de stripping e o salt
& pepper (Albertz, Kreiling, 1989).
Figura 2.31 – Filtragem (Extraído de Crósta, 1993)
• Operações aritméticas – Consistem em, a partir de duas (ou mais)
imagens da mesma região, realizar uma operação aritmética elementar
nos valores dos números digitais dos pixels de mesmo índice das
imagens.
• Manipulação da imagem alterando o sistema de cores de RGB para HSI –
Uma maneira diferente de exprimir o sistema de coordenadas pelo qual se
representa uma imagem digital é o sistema HSI (Hue, Saturation and
Intensity – matiz, saturação e intensidade). Genericamente, pode-se
relacionar ao conceito de matiz a idéia de coloração, à saturação, a idéia
de tons mais puros ou mais pastéis e à intensidade a idéia de “claro e
escuro”.
Uma operação muito útil que se torna possível graças a esse
conceito é a fusão (merge) entre imagens de resoluções diferentes
cobrindo a mesma área. Nesta hipótese, o objetivo é aliar a maior
2.42
resolução geométrica de uma imagem pancromática (tons de cinza) à
maior resolução radiométrica de uma imagem em três bandas. Para fazer
isso, basta trocar a coordenada intensidade da imagem colorida pela da
imagem pancromática, preservando as proporções de tamanho dos pixels.
O produto final é uma imagem que alia as duas resoluções ótimas.
2.5 CARACTERÍSTICAS BÁSICAS DE OBTENÇÃO DAS
IMAGENS
Como já citado no capítulo 1, as imagens devem possuir áreas de
superposição de, no mínimo 50%, de modo a terem seu potencial
fotogramétrico plenamente aproveitado. Alia-se a isso a necessidade de
fixação de parâmetros rígidos de obtenção das mesmas, que implicarão
na melhor manipulação destas a partir dos modelos matemáticos já
desenvolvidos para a fotogrametria digital. Estes procedimentos serão
explicitados para os três casos mais freqüentes de obtenção de imagens
fotogramétricas: terrestre, aéreo e orbital.
No método terrestre, a aquisição de imagens fotogramétricas se dá
através de fototeodolitos ou de câmaras não-métricas montadas em tripés
bem fixados. A utilização da câmara métrica neste caso, visa uma maior
rigidez nas coordenadas de câmara, além de contar com seus parâmetros
já definidos em um certificado de calibração. Entretanto, dado o fato que,
em quase todos os casos, os levantamentos terrestres são realizados a
partir de estações estáticas (em relação à Terra), os efeitos danosos do
deslocamento da plataforma onde se instala a câmara são completamente
eliminados. Assim, a utilização de câmaras não-métricas passou a ganhar
grande importância, uma vez que estas são muito mais baratas e práticas.
Inúmeras pesquisas foram estabelecidas nesta área, levando a
procedimentos seguros de calibração. Este procedimento é realizado, em
geral, fotografando-se um determinado alvo. Maiores detalhes sobre o
assunto são fornecidas por (Ferreira, 2001).
Para a restituição e geração de produtos fotogramétricos, o objeto
2.43
deve ser imageado a partir de, pelo menos, dois pontos de vista diferentes
– obtendo-se, assim, um par estereoscópico da cena. Outros pontos de
vista colaboram como injunções a mais nos cálculos. Esse método
encontra especial importância na restituição de monumentos e acidentes
naturais de difícil acesso. O referencial utilizado é local e, em geral,
definido para cada projeto em separado. Os pontos de controle podem
ser pré-sinalizados (marcados no objeto) ou determinados posteriormente,
embora a primeira opção seja a mais utilizada neste caso. A Figura 2.32
mostra um caso de levantamento terrestre, desde sua obtenção até os
produtos finais gerados.
Figura 2.32 – Tomada de um par estereoscópico de um monumento (Solar da Imperatriz) e
produto final – restituição digital sobre ortoimagem (Prado et al 1999)
2.44
Os modelos matemáticos que se aplicam em um levantamento
fotogramétrico terrestre de curta distância são razoavelmente genéricos e
aplicáveis em todos os casos, desde que guardadas as analogias quanto
ao sistema de coordenadas global e aos pontos de controle.
O método aéreo foi, de longe, o mais empregado para obtenção de
dados cartográficos do terreno. Portanto, foi o que mais gozou dos
benefícios de uma organização padronizada de métodos e procedimentos.
Como resultado, foi possível, desde o início do século passado a criação
de aparelhos capazes de executar operações fotogramétricas a partir de
imagens aéreas tomadas sob determinadas condições – e que, até hoje,
já na era digital, são mantidas. São elas:
• Distância focal e abertura da câmara – Como já dito, obedecem a três
padrões: normal, grande angular e supergrande angular;
• Recobrimento lateral e longitudinal – as imagens adjacentes devem ter
um recobrimento (área de superposição) nominal de 60%. Duas faixas de
vôo devem possuir recobrimento de 30%. Isso garante maior
operacionalidade às imagens obtidas, em detrimento do maior número
necessário sobre determinada região. Esta condição é apresentada na
figura 2.33.
Figura 2.33 – Recobrimentos lateral e longitudinal
em uma imagem fotogramétrica
• Escala de vôo – Para imagens aéreas, a câmara encontra-se focalizada
para o infinito, devido à grande distância ao terreno. Isso possibilita que
relações simples de razão e proporção sejam estabelecidas, a fim de que
sejam determinadas variáveis dependentes da escala em um vôo
2.45
fotogramétrico. Assim, seja a Figura 2.34, que exibe melhor estes
parâmetros.
Figura 2.34 – Parâmetros de um vôo fotogramétrico
A escala da foto é definida pela relação entre uma distância na
imagem e sua homóloga no terreno:
E = d / D (2.23)
Tomando como base a figura 2.34, outras relações também podem
ser descritas:
E = f / H (2.24)
E = f / (hm – h) (2.25)
onde h é a altitude da câmara e hm é a altitude média do terreno
A escala da equação 2.25 é aproximada, e constante para toda a
2.46
foto.
Os métodos orbitais são mais recentes, já que a fraca resolução
espacial dos primeiros satélites impedia seu uso para a elaboração de
documentos cartográficos de precisão. Somente a partir do satélite SPOT
(Système Pour l'Observation de la Terre), majoritariamente francês, a
possibilidade de aplicação em restituição fotogramétrica tornou-se viável
(a própria França alega ter realizado diversas folhas de seu mapeamento
sistemático na escala 1:50000 utilizando tal satélite). Este sistema
introduziu a possibilidade de estereoscopia, pois a câmara poderia ser
rotacionada, permitindo o imageamento da mesma região em outra órbita
(Figura 2.35). Esse sistema também é utilizado pelos satélites CBERS I e
II (Satélite Sino-Brasileiro de Recursos Terrestres) e IKONOS II (que, por
ter resolução espacial de 1m, é considerado o primeiro satélite de
sensoriamento remoto realmente voltado para a cartografia precisa). Não
é um sistema ideal, pois entre uma órbita e outra, o terreno pode mudar
drasticamente, dificultando a estereoscopia e o reconhecimento
automático de pontos homólogos por correlação (Capítulo 4).
Figura 2.35 – Estereoscopia a partir do satélite CBERS – China Brazil
Earth Resources Satellite (cortesia – Projeto CBERS)
O satélite japonês ALOS-2 (Figura 2.36) possui um de seus
2.47
sistemas sensores equipado com três câmaras do mesmo tipo
posicionadas em inclinações diferentes, de modo a adquirir imagens com
recobrimento em um mesmo instante. A resolução desse sistema é de 2,5
m/pixel.
Figura 2.36 – Sensor estereoscópico PRISM (Panchromatic Remote sensing Instrument for
Stereo Mapping) do satélite japonês ALOS II (Advanced Land-Observing Satellite)
(cortesia – NASDA – National Agency for Space Development of Japan)
As imagens de satélites fotogramétricos, devido às estruturas
diferentes de cada câmara e de cada sistema, exigem análise diferenciada
e criação de modelos matemáticos adequados a cada satélite, o que
acaba dificultando sua popularização. Nesse sentido, passam a ser
necessários módulos adicionais para permitir seu processamento
fotogramétrico), estimulando a subutilização das mesmas apenas em
georreferenciamentos (2.6.2). Espera-se que, para o futuro, esta total falta
de padronização possa ser contornada.
2.6 MÉTODOS FOTOGRAMÉTRICOS DE RESTITUIÇÃO
APROXIMADA
Neste tópico, são enfatizados alguns métodos de obtenção de
informação espacial a partir de imagens (o que os caracteriza como
fotogramétricos), embora sem grande rigor métrico. Tais métodos são de
grande valia nas fases de planejamento de levantamentos fotogramétricos
e ainda hoje são utilizados nas instituições produtoras de dados
2.48
cartográficos.
2.6.1 AQUISIÇÃO MONOSCÓPICA DA ALTURA DE OBJETOS
Seja a figura 2.37, onde está representada uma elevação sobre o
terreno (torre).
Figura 2.37 – Efeito do deslocamento devido ao relevo
a e a' são as imagens dos pontos A e A' da torre. Nota-se que o
objeto apresenta-se na imagem bidimensional com um deslocamento
relativo entre a e a'. Esse fato será explorado na formulação a seguir,
para determinar um relacionamento matemático que chegue a htorre.
dr é a diferença entre r e r' e expressa o deslocamento devido ao
relevo sofrido pelo objeto
Por semelhança de triângulos, tem-se:
2.49
OA'P' α Oa'p fH=r'/P'A' (2.26)
OAP α Oap f
HBhtorre
=r /PA (2.27)
Dividindo-se membro a membro, e considerando que PA = P'A':
h=drEHr
(2.28)
(Andrade, 1997) enuncia que o valor calculado desta forma é
aproximado, uma vez que a altura de vôo sobre o plano médio não é
conhecida com grande exatidão e que estas fórmulas só valem em sua
amplitude para fotografias perfeitamente verticais.
2.6.2 GEORREFERENCIAMENTO
Antes de definir tal conceito, convém explicitar o conceito mais
genérico de registro. Registro é uma transformação geométrica que
relaciona as coordenadas planas de um determinado objeto com as
coordenadas de referência. Georreferenciamento é o registro executado
quando as coordenadas de referência modelam a superfície terrestre
(exemplo: latitude, longitude e altitude, coordenadas UTM, etc.).
Pode-se georreferenciar vários tipos de objetos. Um exemplo é
uma carta que foi digitalizada matricialmente e apresenta-se em um
sistema de coordenadas plano definido pela linha e coluna dos pixels.
Outro caso é o de dados obtidos via mesa digitalizadora, que encontram-
se em determinado sistema de coordenadas da própria mesa.
Neste caso, interessa compreender o georreferenciamento de uma
imagem digital, que compreende determinada região do terreno. O tema
georreferenciamento está inserido no capítulo 7 – Retificação e
Normalização de Imagens, porém, como é de uso corrente em aplicações
2.50
de geociências, alguns pontos devem ser esclarecidos previamente, de
modo a condicioná-lo como método de restituição aproximada.
O georreferenciamento, como toda transformação, cria parâmetros
que permitem, a partir da leitura das coordenadas pixel da imagem, obter
as correspondentes coordenadas de terreno para aquele ponto. Vários
modelos podem ser utilizados, sendo a transformação afim com seis
parâmetros a mais comum (maiores informações sobre essa
transformação serão fornecidas no capítulo 3 – Orientação Interior).
Obviamente, as dificuldades naturais de se obter coordenadas
tridimensionais a partir de um sistema bidimensional são marcantes nesse
processo (no caso de um registro entre coordenadas planas com outro
tipo de coordenadas planas, como, por exemplo, entre mesa e carta, estes
problemas são menos visíveis). No mínimo três pontos de controle (isto é,
que têm coordenadas planas e espaciais conhecidas) devem ser
estabelecidos, porém, para que sejam obtidos parâmetros de precisão
adequados, recomenda-se a adoção de mais deles.
Freqüentemente, o georreferenciamento é associado a uma
reamostragem (maiores informações também no capítulo 7). Nesse
ponto, basta realizar uma analogia de reamostragem com um algoritmo
que “estica” ou “encolhe” determinadas partes da imagem, a fim de tentar
representá-la no mesmo sistema de projeção da base cartográfica.
Terrenos movimentados tendem a apresentar resultados muito ruins no
georreferenciamento/reamostragem, o que sugere parcimônia na
utilização de tais rotinas, aumentando o uso de pontos de controle e/ou
separando a imagem por áreas homogêneas.
Finalmente, após o que foi exposto, deve-se dizer que
georreferenciamento não passa de uma adequação entre sistemas de
coordenadas, e, nem de longe chega aos níveis de precisão dos métodos
fotogramétricos que trabalham com a reconstrução dos feixes perspectivos
na tomada de cada uma das imagens. Nem por isso deixa de ter sua
utilidade, pois pode ser aplicado em imagens que não possuem
considerável deslocamento devido ao relevo, bem como para sistemas de
características de câmara desconhecidas. Além disso, é útil caso se
deseje maior rapidez no processo, em detrimento da precisão final. Suas
2.51
principais aplicações são na atualização cartográfica e em elaboração de
mapas temáticos.
2.6.3 PARALAXE ESTEREOSCÓPICA APROXIMADA
O termo paralaxe refere-se à mudança aparente das posições
relativas de imagens de objetos estacionários causada por uma mudança
do ponto de vista. Um exemplo simples é a observação de diferentes
objetos através da janela de um veículo. Aqueles que estão distantes,
como montanhas aparentam mover-se muito pouco em relação ao
referencial (janela). Objetos mais próximos da janela aparentam mover-se
em distâncias muito maiores.
Tomando agora como referencial o avião utilizado para
levantamentos fotogramétricos, percebe-se que tal fenômeno ocorre de
maneira semelhante, e que o mesmo pode ser utilizado em proveito do
usuário de fotogrametria. Assim, para elevações mais altas, o movimento
em relação à aeronave aparentará ser mais intenso que para elevações
mais baixas. Um exemplo interessante deste princípio está na Figura
2.38.
Figura 2.38 - Efeito da paralaxe em fotografias aéreas
A figura mostra duas tomadas de um mesmo monumento (obelisco)
em Washington D.C., EUA. Como tal obra é consideravelmente mais
2.52
elevada que o restante do terreno englobado pelas imagens, observa-se
uma distância bem menor entre os topos que entre as bases. Porém, não
é de grande interesse ao fotogrametrista estabelecer coordenadas e
alturas apenas de monumentos. Assim, tal fenômeno deve ser estudado
também para as feições naturais do relevo, tais como depressões e
elevações. A figura 2.39 descreve, para dois pontos de uma elevação no
terreno, o efeito posicional em duas fotos diferentes.
Figura 2.39 - Deslocamentos devido à paralaxe em fotografias verticais (extraído de
Lillesand, Kiefer, 2000)
Uma reconstrução geométrica mostra o porquê da natureza da
paralaxe e sua conseqüente mudança de posição dos pontos observados
2.53
em relação ao referencial (neste caso a estação de exposição). Medindo
as coordenadas dos pontos a e b nas duas imagens, paralelamente à
linha de vôo, pode-se estabelecer uma relação, definida pela primeira
equação da paralaxe:
pa = xa - x’a (2.29)
Uma primeira importante conclusão que pode ser tirada é que os
deslocamentos devidos à paralaxe ocorrem apenas paralelamente à linha
de vôo (no caso, eixo x).
Neste momento, uma consideração se faz necessária: para que
haja tal coordenada, deve haver um sistema de coordenadas pré-
-estabelecido. Naturalmente, surge à mente a idéia de utilizar o sistema
das marcas fiduciais, que, em condições ideais, tem seu eixo x coincidente
com a linha de vôo. Contudo, a linha de vôo, na prática, não é
exatamente reta, devido às constantes mudanças de orientação do avião.
A verdadeira linha de vôo pode ser achada localizando-se os pontos
principais e seus conjugados (aqueles que correspondem aos pontos
principais das outras imagens), unindo-se estes pontos, obtém-se uma
linha de vôo mais aproximada da realidade, e que é usada como
referência para medições de paralaxe. Unindo-se todas as fotos de uma
faixa, a figura resultante da linha de vôo é uma polilinha, ou um conjunto
de linhas. Para um par estereoscópico, a figura será uma linha,
materializada por quatro vértices (dois pontos principais e dois
conjugados). A figura 2.40 mostra este efeito graficamente.
A formulação expressa a seguir foi extraída de (Lillesand, Kiefer,
2000), e resume os princípios básicos da medição de paralaxe.
A figura 2.41 mostra a utilidade da paralaxe para a determinação da
altitude em um ponto. Sabendo-se a altitude de vôo, ou a altitude da
estação H, a base aérea, ou B, que é a distância entre as estações no
sentido da linha de vôo, a distância focal da câmara utilizada e a paralaxe
do ponto a, pode-se facilmente calcular a altitude de A, hA.
A figura 2.41.b é resultante da superposição de dos triângulos L e L’
de modo a mostrar graficamente a paralaxe pa.
2.54
Figura 2.40 - Linhas de vôo verdadeiras e aproximadas (ao ligar-se os pontos principais aos
seus homólogos)
Figura 2.41 - Relacionamento entre as paralaxes de um ponto A, no terreno (extraído de
Lillesand, Kiefer, 2000)
Por semelhança de triângulos:
pa
f= B
H-hA
(2.30)
2.55
H-hA = Bfpa
(2.31)
E, consequentemente:
hA = H − Bfpa
(2.32)
Também por semelhança de triângulos:
XA
H − hA= xa
f (2.33)
XA = xaH − hA
f (2.34)
Substituindo-se de (2.31) a (2.34), tem-se:
XA = Bxapa
(2.35)
Analogamente,
YA = Byapa
(2.36)
As equações acima citadas são comumente conhecidas como as
equações da paralaxe. Sabendo-se suas incógnitas, pode-se levantar
coordenadas de toda a região de superposição do par estereoscópico.
Em algumas aplicações, entretanto, deseja-se apenas saber a
diferença de altura entre dois pontos. Para este caso, utiliza-se a fórmula:
∆h = ∆pH2/pa (2.37)
onde ∆h é a diferença em elevação entre dois pontos cuja diferença de
paralaxe é ∆p, H é a altura de vôo sobre o ponto de menor altitude e pa é a
paralaxe do ponto mais alto.
2.56
Até agora, não se discutiu sobre o modo pelo qual as paralaxes são
medidas. Inicialmente, assumiu-se que os valores de x e x’ fossem
medidos diretamente nas fotos esquerda e direita, respectivamente. As
paralaxes seriam, então, calculadas a partir das diferenças algébricas de x
e x’. É notável que tal processo torna-se extremamente enfadonho
quando muitos pontos são analisados.
A figura 2.42 demonstra um método de medição que requer apenas
uma simples medição para cada ponto de interesse. Se as duas
fotografias que constituem um estereopar tiverem seus pontos principais e
respectivos homólogos alinhados (reconstituindo assim,
aproximadamente, a linha de vôo), a distância D permanece constante
para o conjunto e a paralaxe pode ser obtida a partir da medida d, ou seja:
Figura 2.42 - Estereopar alinhado para medição de paralaxe (extraído de Lillesand, Kiefer,
2000)
p = x - x’ = D - d (2.38)
A distância “d” pode ser medida com uma simples régua, desde que
a e a’ sejam identificáveis. Em áreas uniformes, tal procedimento torna-se
muito difícil e outra abordagem faz-se necessária.
Pode-se utilizar o princípio descrito na figura 3.3.1, e para o mesmo,
numerosos instrumentos foram desenvolvidos. Estes utilizam o princípio
2.57
da marca flutuante, descrito a seguir.
Ao observar-se através de um estereoscópio, o analista utiliza um
aparelho que posiciona pequeninas marcas de referência sobre os pontos
desejados. Tais marcas podem ser cruzes, pontos ou x’s. A marca
esquerda é vista apenas pelo olho esquerdo, e a direita, apenas pelo olho
direito. Modificando a posição relativa entre as duas marcas na direção de
vôo, pode-se vê-las “fundir”, formando uma marca única que parece
“flutuar” em um nível específico sobre o modelo. A aparente elevação da
marca flutuante varia com o espaçamento entre as marcas esquerda e
direita.
Para visualizar estereoscopicamente, uma série de estereoscópios
foram desenvolvidos. O mais simples de todos é o estereoscópio de
bolso.
Este tipo de estereoscópio consiste de um par de lentes
convergentes, de distância focal igual ao comprimento de seu suporte.
Assim, os raios de luz emergenges dessas lentes e oriundas de um
mesmo ponto no plano focal onde são colocadas as fotos, serão paralelos,
como se o ponto estivesse situado sobre o infinito. Com isso, há a
focalização dos cristalinos para o infinito e conseqüentemente, o
paralelismo entre os eixos ópticos dos olhos, permitindo que na retina de
cada um seja projetada a imagem que lhe corresponde.
Entre as desvantagens deste processo, a principal é o fato de que
para visualizar estereoscopicamente, as fotos devem ser colocadas uma
por cima da outra, limitando a área útil e obrigando o operador a
constantemente ficar reposicionando as mesmas.
Conseqüentemente, foi desenvolvido um estereoscópio que supera
tais limitações; trata-se do estereoscópio de espelhos, que permite uma
completa visualização de todo o modelo, sem necessidade de
superposição de fotos.
O estereoscópio de espelhos nada mais é do que um estereoscópio
de lentes que, com auxílio de espelhos, permite um afastamento maior
das imagens. Lembra-se que as imagens independem do nível em que
foram colhidas para fim de visão estereoscópica.
A distância focal das lentes do estereoscópio de espelho é igual ao
2.58
caminho óptico da luz desde cada fotografia até o centro de cada lente. Os
espelhos podem ser substituídos por prismas.
Um dos aparatos mais comuns que empregam o princípio da marca
flutuante para medir a paralaxe com estereoscópios de espelhos é a barra
de paralaxe, que consiste de duas placas de vidro providas de marcas.
Tais placas estão unidas por uma barra graduada provida de um parafuso
micrométrico de alta precisão, de modo a medir com grande exatidão as
distâncias (leituras da ordem de 0,01 mm). Mantém-se a marca esquerda
fixa em sua posição enquanto a direita é movida ao acionar-se o parafuso
micrométrico.
Os aparatos descritos podem ser vistos na Figura 2.43.
Figura 2.43 – Estereoscópio de bolso (à esquerda) e estereoscópio de espelhos com barra
de paralaxe montada sobre as fotos (à direita) (cortesia: Sokkia)
2.7 CONCLUSÃO
Este capítulo teve como principal objetivo, fornecer ao leitor os
dados auxiliares necessários para o entendimento das técnicas de
fotogrametria digital que serão posteriormente estudadas. Com estes
conhecimentos, estima-se que o leitor possa ter uma noção geral dos
processos de obtenção de imagens fotogramétricas.
A partir do próximo capítulo, os algoritmos que caracterizam a
fotogrametria digital começarão a ser estudados. Para estes, a imagem
será considerada já adquirida em formato digital, de acordo com os
princípios descritos neste capítulo.
2.59
REFERÊNCIAS BIBLIOGRÁFICAS
Albertz, J; Kreiling, Walter. Photogrammetric Guide. Karlsruhe. Wichmann, Alemanha: 1989.
Altan, Orhan; Toz, Gönül; Seker, Dursun. Photogrammetry – Lecture Notes. Istanbul Technical
University. 1a Ed. Turquia: 2002.
Andrade, Dinarte Francisco Pereira Nunes de. Fotogrametria Básica. Instituto Militar de
Engenharia. Rio de Janeiro, Brasil: 1997.
Andrade, J. Bittencourt de. Fotogrametria. Ed. SBEE. Curitiba, Brasil: 1998.
Brito, Jorge Luís Nunes e Silva; Prado, Walter da Silva; Augusto, Eduardo Gurgel Garcia.
Estágio de Fotogrametria Digital para Engenheiros Cartógrafos - Notas de Aula. Instituto
Militar de Engenharia. Rio de Janeiro, Brasil: 1999.
Crósta, Álvaro Penteado. Processamento Digital de Imagens de Sensoriamento Remoto.
Unicamp. Campinas, Brasil: 1993.
Digital Photogrammetry - An Addendum to the Manual of Photogrammetry. The American Society
for Photogrammetry and Remote Sensing. Bethesda, MA, Estados Unidos: 1997.
Ferreira, Jaime Mauricio Cardoso. Geração de Ortomosaico a Partir de Câmara Fotográfica Digital
Não-métrica Kodak DC 265. Dissertação (Mestrado em Engenharia Cartográfica) -
Instituto Militar de Engenharia. Rio de Janeiro, Brasil: 2001.
Introduction to Photogrammetry. Universidade de Viena. Viena, Áustria: 2000.
ISPRS Brochure. The International Society for Photogrammetry and Remote Sensing. Suíça:
2001.
Jones, Nicole. Photogrammetry – Lecture Notes. The University of Melbourne. Melbourne,
Austrália: 1998.
Kraus, Karl. Photogrammetry - Fundamentals and Processes. Volume 1, 4a Ed. Ferg, Dummler
Verlag. Bonn, Alemanha: 1999.
Lillesand, Thomas M.; Kiefer, Ralph W. Remote Sensing and Image Interpretation. John Wiley &
Sons. 4a Ed. Estados Unidos: 2000.
Novo, Evlyn. Sensoriamento Remoto: Princípios e Aplicações. Editora Edgard Blücher. 2a Ed.
São Paulo, Brasil: 1992.
Prado, Walter da Silva; Gomes, Camillo José Martins; Erwes, Herbert; Koatz, Gilson
Dimenstein. Solar da Imperatriz – O Primeiro Projeto Fotogramétrico no Brasil Utilizando as
Regras 3X3. In: XIX Congresso Brasileiro de Cartografia. Recife, Brasil: 1999.
Robinson, Arthur H.; Morrison, Joel L.; Muercke, Phillip C. et al. Elementsof Cartography. John
Wiley & Sons. 6a Ed. Estados Unidos: 1995.
Schenk, Toni. Digital Photogrammetry – Volume I. TerraScience. 1a Ed. Estados Unidos:
1999.
2.60
3. ORIENTAÇÃO INTERIOR
3.1 CONCEITO INICIAL
Por orientação interior entende-se a reconstrução do feixe
perspectivo, ou seja, o referenciamento da imagem em relação à câmara.
Uma vez que as imagens obtidas encontram-se isoladas uma das outras e
meramente salvas como arquivos digitais, sem nenhuma informação
métrica, isto é, utilizando apenas o sistema de coordenadas em pixels,
próprio das imagens digitais; faz-se necessário reconstituir o sistema
interno câmara-imagem correspondente ao momento em que as
fotografias foram obtidas. Somente assim, poderão ser efetuadas
medidas com precisão sobre as imagens fotográficas.
Figura 3.1 – Representação da posição do filme na tomada da fotografia
3.1
Felizmente, o sistema câmara-fotografia (figura 3.1) não é de difícil
reconstrução geométrica. É composto, basicamente, de uma
perpendicular ao centro da fotografia, e mede um comprimento igual à
distância focal calibrada.
Conceitualmente, a orientação interior consiste apenas em colocar
as imagens por imagem em posição semelhante à que exerciam dentro da
câmara, no momento em que foram obtidas.
Figura 3.2 – Conceito de orientação interior: reconstrução da geometria do feixe
perspectivo, isto é, da posição do plano de imagem em relação ao eixo óptico da câmara
fotográfica
3.2 PROCEDIMENTOS PARA A EXECUÇÃO DA ORIENTAÇÃO
INTERIOR
As primeiras soluções para este problema datam dos tempos da
fotogrametria analógica. Nos restituidores analógicos, o diafilme é
centrado em seu porta-placas,o operador faz as marcas fiduciais do filme
coincidirem com pequenas marcas marcadas no porta-placas, e o projetor
é posicionado à distância focal calibrada.
Na fotogrametria analítica, uma alternativa inteiramente radical foi
3.2
adotada: ao invés de materializar-se a orientação interior, basta calcular-
se os parâmetros de transformação entre o sistema no qual a imagem foi
colocada inicialmente e o sistema fotografia-câmara que é, em última
análise, o objetivo final da orientação interior.
O restituidor analítico possui um conjunto de servo-mecanismos
que executa a medição das coordenadas das marcas fiduciais em um
sistema próprio do aparelho. O sistema final (foto-câmara) é expresso
pelas coordenadas fotográficas das marcas fiduciais e pela distância focal
calibrada, que constam do certificado de calibração da câmara. Um
ajustamento é realizado para delimitar os coeficientes de transformação
entre os dois e, a partir daí, qualquer ponto pertencente ao espaço
imagem poderá ser posicionado num sistema de eixos cartesianos.
Na fotogrametria digital, procedimento muito semelhante ocorre,
apenas sem a presença dos servo-mecanismos. O sistema inicial, que
variava de restituidor analítico para restituidor analítico passa a ser o
sistema de coordenadas de pixel (linha e coluna), comum a todas as
imagens digitais, e expresso por números inteiros. O próprio software de
fotogrametria digital realiza as medições das coordenadas das marcas
fiduciais no sistema de pixel, com ou sem intervenção do operador. A
partir daí, o processo segue de forma semelhante à fotogrametria
analítica, com a entrada dos valores constantes do certificado de
calibração e o ajustamento para a definição dos parâmetros de
transformação entre um sistema e outro.
3.3 POR QUE A TRANSFORMAÇÃO ENTRE PIXELS E
MILÍMETROS É NECESSÁRIA?
Uma pergunta que pode vir a surgir a partir de uma análise dos
conceitos anteriormente descritos seria “por que não utilizar o sistema
pixel diretamente relacionado ao sistema de terreno, sem a necessidade
de um outro sistema intermediário?”.
Uma boa razão inicial para tal é o fato de haver uma uniformização
3.3
das unidades utilizadas, uma vez que o sistema fotográfico é expresso em
milímetros, que são unidades métricas. Em geral o terreno também está
expresso em unidades métricas (metros, por exemplo). Assim, a
associação posterior entre estes sistemas tornar-se-á muito mais fácil.
A formulação já existente na época do advento da fotogrametria
digital também considerava um sistema métrico para a imagem, definido
pelo certificado de calibração da câmara. Logo, é muito mais prático
utilizar esta formulação já desenvolvida e devidamente estabelecida.
Além disso, a transformação entre pixels e milímetros também
serve para corrigir vários erros de aquisição das imagens, tais como má
colocação do diafilme no scanner, deformações no filme, efeitos
atmosféricos não-modelados, distorção na digitalização via scanner ou
aquisição da imagem digital via câmara, e que causam deformações na
imagem digitalizada, tais como rotações, translações e fatores de escala.
Figura 3.3 – Sistemas de pixel e fotográfico (métrico). Note-se o mau posicionamento da
imagem no primeiro sistema, onde observa-se claramente as distorções existentes na
imagem.
Outros erros, tais como os erros sistemáticos causados pela
refração atmosférica e pela curvatura da Terra, também poderão ser
eliminados. Para isso, deve-se informar outros dados complementares
constantes do certificado de calibração, tais como as coordenadas do
ponto de menor distorção e parâmetros de aberração das lentes.
No final do processo, obtém-se não apenas uma simples
transformação entre sistemas de imagem analógica e digital e sim um
3.4
modo de, dado qualquer ponto na imagem digital, imediatamente ter suas
coordenadas no sistema métrico de câmara, que é altamente rígido e
preciso, pois se baseia em parâmetros de calibração da mesma.
3.4 MODELOS MATEMÁTICOS PARA A ORIENTAÇÃO INTERIOR
3.4.1 TRANSFORMAÇÃO AFIM GERAL
A transformação afim modela seis parâmetros, que consideram que
o sistema inicial, neste caso, o sistema de imagem digital, pode apresentar
as seguintes características:
1) Não-ortogonalidade dos eixos (figura 3.4) – Como o sistema de
imagem digital possui seguramente eixos ortogonais, essa consideração
servirá para corrigir distorções na própria imagem decorridas, por
exemplo, de má calibração do scanner. Embora o sistema de
coordenadas de uma imagem digital sempre seja ortogonal, pode-se
mapear distorções sistemáticas do scanner ou câmara como se a imagem
estivesse ortogonal e os eixos distorcidos. A figura 3.4 tenta explicar esta
analogia:
Figura 3.4 – Princípio da transformação afim
2) Rotação da imagem (figura 3.5) – Uma má colocação da mesma no
3.5
scanner, ou mesmo erros sistemáticos na aquisição através de uma
câmara digital pode fazer com que a imagem esteja rotacionada, tornando
o sistema pixel rotacionado de mesmo ângulo do sistema fotográfico.
Figura 3.5 – Efeito da rotação de uma imagem ao ser adquirida ou digitalizada
Figura 3.6 – Efeito da translação em x e em y
3) Translação em x e y (figura 3.6) – Isso é causado devido à não
coincidência dos centros dos dois sistemas. Como a imagem digital tem o
centro de seu sistema de coordenadas iniciando próximo ao canto
superior esquerdo e o sistema fotográfico utiliza o centro da fotografia para
origem, sempre haverá uma translação de aproximadamente -(lado da
foto)/2 em x e (lado da foto)/2 em y. O “aproximadamente” refere-se à
possibilidade de, após inúmeras utilizações e calibrações, o centro da foto
não coincidir com a média dos lados. Além disso, o sistema de imagem
pode não ter sua origem exatamente no canto superior esquerdo da foto.
3.6
Essa situação é muito comum, pois sempre há algumas “sobras” de pixels
em branco no início e fim dos arquivos digitais; estas são deixadas por
precaução, de modo a não haver cortes no processo de digitalização da
imagem.
4) Escalas Diferentes, em x e em y – Obviamente, os sistemas de imagem
digital e analógica têm unidades diferentes. Para, por exemplo, uma
digitalização a 600 dpi, o arquivo digital terá cerca de 5500 pixels por 5500
pixels, ao passo que o outro sistema compõe uma imagem de cerca de
230 mm por 230 mm. Como se deseja realizar a transformação do
sistema pixel para o sistema fotográfico, o fator de escala a ser adotado é,
em módulo, aproximadamente, pela equação 3.1:
(lado da foto em milímetros)/(lado da foto em pixels) mm/px. (3.1)
Atenção redobrada deve ser tomada devido à inversão do sentido
da coordenada “linha” em relação às coordenadas y. Assim, pode-se
assegurar que:
Cx = (lado da foto em milímetros)/(lado da foto em pixels) mm/px (3.2)
Cy = - (lado da foto em milímetros)/(lado da foto em pixels) mm/px (3.3)
Com todos os parâmetros descritos, pode-se seguir com a
formulação genérica, que considera a existência dos seis ao mesmo
tempo:
x = Cx cosα . coluna + Cy senα . linha + X0 (3.4)
y = - Cx sen(α+ε) . coluna + Cy cos(α+ε) . linha + Y0 (3.5)
Tais expressões podem ser descritas de forma linear, como:
x = a0 + a1 . coluna + a2 . linha (3.6)
y = b0 + b1 . coluna + b2 . linha (3.7)
3.7
Para deduzir estes valores, deve-se utilizar um ajustamento de
observações. O modelo paramétrico é o mais adequado, uma vez que
ajusta simultaneamente as observações e os parâmetros (incógnitas).
Figura 3.6 – Transformação afim – caso geral
Neste caso, as incógnitas são os valores de a0, a1, a2, b0, b1 e b2,
“parâmetros de transformação entre os dois sistemas”. Os valores de “x” e
“y” das marcas fiduciais advêm do certificado de calibração. Seus
equivalentes linha e coluna são localizados automaticamente pelo
programa (alguns softwares possuem um banco de dados com imagens
de diferentes tipos de marcas fiduciais e procuram a marca que mais se
assemelha na imagem – maiores informações sobre o método de
correlação de imagens no capítulo 4), ou são selecionados na tela pelo
usuário, clicando-se sobre o centro das marcas na imagem exibida.
Figura 3.7 – Marcas fiduciais nos dois sistemas
3.8
Como as incógnitas são em número de seis, há a necessidade de
ao menos seis observações para uma solução. Felizmente, há 4 marcas
fiduciais (figura 3.7) na pior das hipóteses (algumas câmaras têm 8, ou até
mais), que dão 8 coordenadas (x1, y1, x2, y2, x3, y3, x4 e y4) e (linha1,
coluna1, linha2, coluna2, linha3, coluna3, linha4, coluna4), duas a mais
que o mínimo necessário.
Rearranjando as equações (3.6) e (3.7) em forma matricial e
isolando-se o vetor que contém as incógnitas:
¦xy§=¦1 coluna linha 0 0 0
0 0 0 1 coluna linha§E¦a0a1a2b0b1b2§ (3.8)
L = A X
Para quatro marcas fiduciais, o sistema ficará igual a:
¦x1y1x2y2x3y3x4y4
§=¦1 coluna1 linha1 0 0 00 0 0 1 coluna1 linha11 coluna2 linha2 0 0 00 0 0 1 coluna2 linha21 coluna3 linha3 0 0 00 0 0 1 coluna3 linha31 coluna4 linha4 0 0 00 0 0 1 coluna4 linha4
§E¦a0a1a2b0b1b2§ (3.9)
L = A X
3.4.1.1 MODELO MATEMÁTICO
A formulação para o método paramétrico pode ser encontrada em
(Gemael, 1994). A seguir transcrevem-se as fórmulas mais comuns
empregadas no ajustamento, através das equações 3.10 a 3.12:
3.9
Xa = (AT P A)-1 . (AT P Lb) (3.10)
V = A Xa - Lb (3.11)
La = Lb + V (3.12)
“Xa” é o vetor dos parâmetros ¢â0,â1,â2,b0,b1,b2£ ajustados (é o que
se deseja conhecer);
Xa=¦a0a1a2b0b1b2§
ajustados
“A” é a matriz dos coeficientes dos parâmetros, que contém, entre outros,
os valores das coordenadas pixel das marcas fiduciais;
A=¦1 coluna1 linha1 0 0 00 0 0 1 coluna1 linha11 coluna2 linha2 0 0 00 0 0 1 coluna2 linha21 coluna3 linha3 0 0 00 0 0 1 coluna3 linha31 coluna4 linha4 0 0 00 0 0 1 coluna4 linha4
§“Lb” é o vetor das observações, que são os valores das coordenadas em
mm das marcas fiduciais constantes do certificado de calibração da
câmara.
Lb=¦x1y1x2y2x3y3x4y4
§3.10
“P” é a matriz peso das observações. Se todos os pontos tiverem o
mesmo peso (por exemplo, se todas as marcas passaram pela mesma
calibração), P é igual à matriz identidade.
“V” é a matriz dos resíduos.
“La” é o vetor das observações ajustadas.
La=¦x1y1x2y2x3y3x4y4
§ajustadas
Também é interessante obter-se as matrizes variância-covariância
para Xa, La e V. As diagonais principais destas matrizes darão os valores
das variâncias para o respectivo parâmetro estimado. Por exemplo, para
Xa[3], ou seja, o terceiro elemento do vetor de Xa, que é o valor ajustado
de a2, a variância será o elemento [3,3] da matriz variância-covariância de
Xa.
As fórmulas para estas matrizes são expressas pelas equações
3.13 a 3.15:
Σ Xa = êâ02
(AT P A)-1 (3.13)
Σ La = êâ02
A (AT P A)-1 AT (3.14)
Σ V= êâ02
[A (AT P A)-1 AT - P-1] (3.15)
onde:
“ êâ02 = (VT P V) / (n – m) ” é a variância da unidade de peso a posteriori
(calculada após o ajustamento)
“n” é o número de observações
3.11
“m” é o número de incógnitas.
3.4.2 TRANSFORMAÇÃO ORTOGONAL OU AFIM ORTOGONAL
Esta transformação é uma variante da afim para o caso em que
ambos os sistemas são ortogonais (ε = 0).
Figura 3.8 – Transformação ortogonal – caso geral
A formulação para este caso recai em: (3.1) e (3.2), com ε = 0:
x = Cx cosα . coluna + Cy senα . linha + X0 (3.16)
y = - Cx senα . coluna + Cy cosα . linha + Y0 (3.17)
Neste caso, faz-se necessário um ajustamento pelo modelo
paramétrico não-linear.
O modelo não-linear exige valores aproximados de partida para os
parâmetros, como já discutido.
“Cx” varia em torno de: (lado da foto em milímetros)/(lado da foto
em pixels) mm/px;
“Cy” em torno de: - (lado da foto em milímetros)/(lado da foto em
pixels) mm/px;
”α” inicialmente pode ser arbitrado igual a zero;
3.12
”X0” = -(lado da foto)/2 (em mm)
”Y0” = (lado da foto)/2 (em mm)
Estes valores são colocados numa matriz de parâmetros iniciais X0.
A matriz “A” receberá as derivadas parciais de 3.16 em relação a
todos os parâmetros e também as de 3.17 na linha subseqüente dessa
matriz. São repetidos tais valores quantas vezes forem necessários para
o número de observações (no caso de quatro marcas, A terá 8 linhas),
como o exemplo abaixo:
A = ¦^x1^Cx
^x1^Cy
^x1^Ñ
^x1^X0
^x1^Y0
^y1^Cx
^y1^Cy
^y1^Ñ
^y1^X0
^y1^Y0
^x2^Cx
^x2^Cy
^x2^Ñ
^x2^X0
^x2^Y0
^y2^Cx
^y2^Cy
^y2^Ñ
^y2^X0
^y2^Y0
^x3^Cx
^x3^Cy
^x3^Ñ
^x3^X0
^x3^Y0
^y3^Cx
^y3^Cy
^y3^Ñ
^y3^X0
^y3^Y0
^x4^Cx
^x4^Cy
^x4^Ñ
^x4^X0
^x4^Y0
^y4^Cx
^y4^Cy
^y4^Ñ
^y4^X0
^y4^Y0
§ L0 = A . X0 (3.18)
Xa = X0 – (AT P A)-1 . [AT P (L0 – Lb)] (3.19)
As demais matrizes seguem as fórmulas para o caso linear já
descrito em 3.4.1.
3.13
3.4.3 TRANSFORMAÇÃO ISOGONAL
A transformação isogonal também é denominada afim isogonal, de
helmert, de similaridade, conforme ou euclidiana.
Trata-se de uma variação do caso ortogonal, considerando que o
fator de escala é constante, ou seja, Cx = Cy.
A formulação torna-se, então:
x = C cosα . coluna + C senα . linha + X0 (3.20)
y = - C senα . coluna + C cosα . linha + Y0 (3.21)
Esta transformação permite linearização, reduzindo-se à forma:
x = a. coluna + b. linha + c (3.22)
y = -b. coluna + a . linha + d (3.23)
Na forma matricial, tal arranjo ficaria deste modo:
¦xy§=¦coluna linha 1 0
linha Bcoluna 0 1§E¦abcd§ (3.24)
Os valores de (3.22), (3.23) e (3.24), contudo, mesmo corretos
matematicamente, não funcionarão com o caso da transformação entre
coordenadas pixel e milímetros. Tal fato explica-se pelo fato do eixo y do
sistema analógico estar invertido em relação ao homólogo no sistema
digital (pixels). Tal fato implica que os valores de Cx estejam positivos e
os de Cy, embora muito próximos ou até mesmo iguais em módulo,
negativos.
Soluciona-se o problema com um rebatimento do eixo y. As novas
fórmulas serão as seguintes:
x = a. coluna + b. linha + c (3.25)
3.14
y = b. coluna - a . linha + d (3.26)
¦xy§=¦coluna linha 1 0
Blinha coluna 0 1§E¦abcd§ (3.27)
Os quatro parâmetros são, então, calculados por um ajustamento
linear, conforme já explicado anteriormente, sendo o valor da matriz A
igual a:
A=¦coluna1 linha1 1 0Blinha1 coluna1 0 1coluna2 linha2 1 0Blinha2 coluna2 0 1coluna3 linha3 1 0Blinha3 coluna3 0 1coluna4 linha4 1 0Blinha4 coluna4 0 1
§O restante do procedimento será análogo ao tópico 3.4.1.1 (Modelo
matemático).
3.4.4 QUALIDADE DO AJUSTAMENTO
Para que os parâmetros de transformação venham a ser
devidamente empregados futuramente, algumas medidas da qualidade
devem ser adotadas.
Um primeiro teste é a utilização dos parâmetros em uma
transformação a partir das coordenadas pixel das marcas fiduciais. Como
o ajustamento foi executado levando-se em conta os valores destas
marcas, as diferenças entre as coordenadas obtidas com os parâmetros
de transformação e as coordenadas do certificado de calibração devem
ser pequenas.
3.15
Outro teste se dá verificando-se o desvio padrão dos resíduos.
Como as variâncias dos resíduos estão contidas na diagonal principal da
matriz , extraindo-se a raiz de tais valores, acham-se os respectivos
desvios-padrão. Estes deverão encontrar-se em unidade métrica (mm).
Valores empíricos entre 0,3 e 0,4 pixel para estes desvios-padrão indicam
um bom ajustamento. Como convertê-los? Sabendo-se a resolução de
digitalização em dpi (pontos por polegada = pixels por polegada). Por
exemplo, para 600 dpi.
600 dpi = 600 px/polegada = 600 px/ 25,4 mm = 23,62 px/mm
Ou seja, em 1 mm há 23,62 px. Para um desvio-padrão de um dos
resíduos igual a 0,19 mm, por exemplo:
0,019 mm – x px
1 mm – 23,62 px
Neste caso, o desvio padrão é igual a x = 0,4488 px. Está um
pouco acima dos padrões desejáveis.
A maioria das soluções computacionais adota estes padrões, dando
ao usuário a possibilidade de continuar com o processo ou reprová-los,
realizando um novo ajustamento.
Segundo (Andrade, 1998), para as imagens dotadas das comuns
quatro marcas fiduciais, a transformação afim geral é a que apresenta os
resultados mais satisfatórios, devendo ser usada na maioria dos casos.
3.4.5 CORREÇÕES ADICIONAIS
Deve-se lembrar que os valores a serem encontrados em
coordenadas de câmara para determinado ponto equivalem às
coordenadas x” e y” das equações (2.12) a (2.19) – ou seja, estão eivadas
ainda dos erros concernentes às distorções radial e descentrada. Para
3.16
que sejam obtidos os valores mais corretos, empregam-se os modelos já
explicitados no tópico 2.3.1.
Além desta correção, ainda há correções quanto à refração
atmosférica e curvatura das imagens, caso o vôo seja de escalas muito
pequenas, que são parametrizadas por inúmeros modelos.
Na maior parte dos casos, nenhuma das correções aqui citadas é
realizada, porém, tendo-se em mãos seus coeficientes, sempre é útil
reforçar os dados finais, assegurando uma maior precisão dos valores
finais.
3.5 CONCLUSÃO
Neste ponto, o leitor já deve estar a par do processo de orientação
interior, especialmente em determinados aspectos:
- A orientação interior serve para associar um sistema de coordenadas
à imagem, que antes encontrava-se livre no espaço;
- Associando-se um sistema fotográfico, rígido, definido em laboratório
através da calibração da câmara, o feixe perspectivo é recomposto
matematicamente;
- Em fotogrametria digital, a orientação interior constitui-se no cálculo
dos parâmetros de transformação entre o sistema de coordenadas de
imagem digital (linha e coluna do pixel) e o sistema fotográfico;
- Uma transformação pixels-milímetros é necessária, por vários motivos,
como: aproveitamento da formulação já existente, correção de várias
deformações na imagem e uniformização das unidades dos sistemas;
- Há três modelos fundamentais de transformação utilizados: afim,
ortogonal e isogonal, sendo as duas últimas particularizações da
primeira;
- Do ajustamento por mínimos quadrados e modelo paramétrico provêm
os parâmetros de transformação necessários;
- No mínimo três pontos de coordenadas conhecidas em ambos os
3.17
sistemas devem ser utilizados como dado de entrada. Em geral, se
utilizam as marcas fiduciais, cujas coordenadas em sistema fotográfico
encontram-se no certificado de calibração e cujas coordenadas no
sistema imagem digital são determinadas durante a execução do
programa, com a intervenção do usuário (que clicaria sobre elas) ou
automaticamente (caso o programa de cálculo da orientação interior
possua um banco de imagens de marcas fiduciais, as quais são
comparadas com a imagem inteira para a localização de outras
semelhantes);
- Parâmetros estatísticos são utilizados para que os resultados obtidos
sejam avaliados.
Com estas dúvidas devidamente estabelecidas, pode-se seguir com
a descrição dos processos que, por sua vez referenciarão as imagens
previamente referenciada as um sistema métrico. Assim, possibilitar-se-á
a reconstrução tridimensional do espaço-objeto.
REFERÊNCIAS BIBLIOGRÁFICAS
Albertz, J; Kreiling, Walter. Photogrammetric Guide. Karlsruhe. Wichmann, Alemanha: 1989.
Altan, Orhan; Toz, Gönül; Seker, Dursun. Photogrammetry – Lecture Notes. Istanbul Technical
University. 1a Ed. Turquia: 2002.
Andrade, J. Bittencourt de. Fotogrametria. Ed. SBEE. Curitiba, Brasil: 1998.
Brito, Jorge Luís Nunes e Silva; Prado, Walter da Silva; Augusto, Eduardo Gurgel Garcia.
Estágio de Fotogrametria Digital para Engenheiros Cartógrafos - Notas de Aula. Instituto
Militar de Engenharia. Rio de Janeiro, Brasil: 1999.
Digital Photogrammetry - An Addendum to the Manual of Photogrammetry. The American Society
for Photogrammetry and Remote Sensing. Bethesda, MA, Estados Unidos: 1997.
Gemael, Camil. Introdução ao Ajustamento de Observações. Ed. UFPR. Curitiba, Brasil: 1994.
Introduction to Photogrammetry. Universidade de Viena. Viena, Áustria: 2000.
Jones, Nicole. Photogrammetry – Lecture Notes. The University of Melbourne. Melbourne,
Austrália: 1998.
Kraus, Karl. Photogrammetry - Fundamentals and Processes. Volume 1, 4a Ed. Ferg, Dummler
Verlag. Bonn, Alemanha: 1999.
Schenk, Toni. Digital Photogrammetry – Volume I. TerraScience. 1a Ed. Estados Unidos:
3.18
1999.
Vasconcellos, José Carlos P. de. Ajustamento de Observações: Modelos e Análises. Instituto
Militar de Engenharia. Rio de Janeiro, Brasil: 2000.
3.19
4. CORRELAÇÃO DE IMAGENS
4.1 CONCEITO INICIAL
Em várias aplicações no âmbito da fotogrametria digital, faz-se
necessária a localização do ponto em uma (ou mais) imagens, que é
homólogo a determinado ponto de outra imagem que tenha uma área de
superposição com a imagem de referência. Tal fato decorre da
necessidade de superposição entre as imagens utilizadas em
fotogrametria. Desse modo, o mesmo objeto (ou feição) deverá estar
presente em duas ou mais imagens ao mesmo tempo.
Mecanismos estereoscópicos e acurada visualização por parte do
operador permitem localizar tais pontos manualmente, porém, muito mais
interessante, é a idéia de se haver uma localização automática dos
mesmos (figura 4.1).
4.2 O COEFICIENTE DE CORRELAÇÃO ρρ
O coeficiente de correlação de Pearson pode ser entendido como
uma “medida do grau de relacionamento linear entre duas variáveis
aleatórias”.
Logo, o coeficiente de correlação tem ênfase na predição do grau
de dependência entre duas variáveis aleatórias.
4.1
Figura 4.1 – Problema proposto: localização automática de um homólogo (em uma ou mais
imagens) a determinado ponto dado em outra imagem.
O cálculo da correlação, segundo (Stockburger, 1998) é realizado
através da seguinte fórmula:
ì=âXY
âXâY (4.1)
onde:
“ âXY ” é a covariância entre as duas variáveis;
“ âX ” é o desvio-padrão da variável X;
“ âY ” é o desvio-padrão da variável Y.
A covariância e os desvios-padrão podem ser estimados
estatisticamente através de seus equivalentes amostrais, a saber: a
covariância amostral, e os desvios-padrão amostrais, que terão suas
fórmulas exibidas ao fim do exemplo literal que se segue.
Partindo-se então de duas amostras para X e Y, cada uma
4.2
composta de diversos elementos Xi e Yi:
X=¦X1
X2
X3
Xn§ e Y=¦
Y1
Y2
Y3
Yn§ (4.2)
Cada um delas tem uma média amostral composta pela soma dos
elementos componentes de cada um dos vetores:
mX=
å1
n
X i
n
emY=
å1
n
Y i
n
(4.3)
A covariância amostral covXY, estimador da covariância âXY pode
ser definida como:
covXY=
åi=1
n
¢X iBmX£¢Y iBmY£
nB1
(4.4)
Já os valores dos desvios-padrão amostrais sX e sY são:
sX=
åi=1
n
¢X iBmX£2
nB1
esY=
åi=1
n
¢YiBmY£2
nB1
(4.5)
Por fim, o estimador para o coeficiente de correlação, pode ser
definido por ρ, que, analogamente a (4.1) é:
ì=covXY
sX sY
(4.6)
O coeficiente de correlação pode levar qualquer valor entre -1 e 1.
O sinal do coeficiente de correlação (+ , -) define a direção da
4.3
relação entre as duas variáveis (positiva ou negativa). Uma correlação
positiva indica que, enquanto os valores das componentes de uma variável
aumentam, os valores das componentes da outra variável aumentam e
vice-versa. Para uma correlação negativa, acontece o oposto: enquanto
uns aumentam, os outros diminuem e vice-versa.
O valor em módulo do coeficiente de correlação mede a “força” da
relação entre as duas variáveis. Um coeficiente igual a 0,5 indica maior
grau de dependência linear que um de 0,4. Um coeficiente de valor zero
indica a total ausência de relacionamento linear entre as variáveis e
coeficientes de valor 1 e -1 indicam uma perfeita dependência linear entre
elas.
4.3 VISUALIZAÇÃO EM GRÁFICOS DO COEFICIENTE DE
CORRELAÇÃO
Uma boa forma de se entender tais variações de correlação é
representar os valores de cada variável em um gráfico bidimensional,
representando cada Xi em relação ao respectivo Yi (figura 4.2).
Figura 4.2 – Representação da variável X contra a variável Y
A reta azul de melhor ajuste dá informações importantes sobre a
correlação entre as duas variáveis: quanto mais os pontos se aproximam
dela, maior é a correlação em módulo. E mais: quanto mais o ângulo α
4.4
estiver próximo a 45o, mais o coeficiente se aproxima de 1: quanto mais
próximo o ângulo estiver de 135o, mais se aproxima de -1.
Utilizando o programa SticiGui (programado pelo Professor Philip B.
Stark, da Universidade de Berkeley), no módulo correlação, pode-se
verificar a evolução dos coeficientes, desde -1 até 1. Escolhendo 200
pontos (ou seja, 200 valores para a variável X e também 200 para Y), os
seguintes gráficos podem ser exibidos:
Figura 4.3 – Coeficiente igual a -1
Figura 4.4 – Coeficiente igual a -0,75
Figura 4.5 – Coeficiente igual a -0,5
4.5
Figura 4.6 – Coeficiente igual a -0,25
Figura 4.7 – Coeficiente igual a 0
Figura 4.8 – Coeficiente igual a 0,25
Figura 4.9 – Coeficiente igual a 0,5
4.6
Figura 4.10 – Coeficiente igual a 0,75
Figura 4.11 – Coeficiente igual a 1
Para correlação de imagens com o intuito de localizar-se pontos
homólogos, interessam sobretudo as correlações positivas. Assim, pode-
se presumir que, onde for maior for este coeficiente, localizar-se-á o ponto
homólogo desejado.
4.4 DETERMINAÇÃO DAS COORDENADAS DO PONTO
HOMÓLOGO
Como já definido, o objetivo da correlação de imagens é determinar
pontos homólogos nas imagens digitais.
Para isso, um recorte (template) é definido na imagem de
referência. Tal processo pode ser facilmente implementado
computacionalmente: o usuário clica no ponto do qual deseja extrair
4.7
homólogos em outras imagens. O programa (ou rotina) que está sendo
utilizado grava numa matriz os valores dos números digitais (intensidade
de coloração; como exemplo, numa imagem de 256 níveis de cinza, o
número digital pode ir de 0 a 255) do pixel central e de vários outros
adjacentes a ele. Esses valores são arranjados em uma coluna, e
equivalerão à variável X. Devem ser utilizados templates de números
ímpares, para que o ponto de interesse esteja no seu centro. Em geral,
usam-se matrizes 9X9 ou 11X11 para isto. Na figura 4.12, por
simplicidade, utilizou-se uma matriz 3X3.
O próximo passo é escolher uma janela de procura na imagem
conjugada (da direita). Tal fato pode ser realizado através de interação
homem-máquina, na qual o operador clica e arrasta a janela de busca, e o
programa salva todos os valores dos números digitais como uma matriz
maior, ou automaticamente, sabendo-se a fotobase – percentagem de
recobrimento entre uma imagem e outra – arbitra-se onde deverá estar o
ponto homólogo através destes dados e recorta-se em torno dele uma
janela razoavelmente grande.
A partir daí, dentro da janela de procura, um template equivalente
em tamanho ao da primeira imagem corre pixel a pixel, da esquerda para
a direita e de cima para baixo. Os valores armazenados neste segundo
recorte serão equivalentes à variável Y.
Figura 4.12 – Imagem esquerda, com template definido pelo usuário, e imagem da direita,
mostrando em destaque, a janela de procura e dois templates; um é o inicial e o outro o
final. Além desses, vários outros intermediários teriam de ser empregados, para que se
selecione o que tem melhor correlação com o da imagem esquerda. Imagem adaptada
de (Alberz, Kreiling, 1989 apud Brito, Prado e Augusto, 1999)
4.8
Assim, calcula-se o coeficiente de correlação entre X e cada um
dos valores assumidos por Y. Aquela combinação que possuir o maior
valor para o coeficiente de correlação será equivalente aos pontos
homólogos. As coordenadas para este ponto serão as coordenadas do
pixel central de ambos os templates (X e Y).
4.5 APLICAÇÕES
4.5.1 CALIBRAÇÃO DE SCANNER
Para calibrar-se um scanner, deve-se, primeiro, digitalizar uma folha
de calibração. O caso mais simples (quadriculado) é descrito a seguir.
Neste caso, é importante que os cruzamentos das linhas sejam
definidos, de modo que suas coordenadas sejam conhecidas e saiba-se
se estão todos a distâncias iguais uns dos outros, para que possa ser
realizado um modelo de correção a todas as imagens obtidas com aquele
dispositivo.
Figura 4.13 – Template de um cruzamento e, ao lado, imagem de calibração, que é a janela
de procura. Simulando-se para essa figura uma tela do programa em tempo de execução,
pode-se dizer que três pontos homólogos já foram encontrados (estão marcados em
vermelho).
4.9
Utiliza-se, então, um recorte de um desses cruzamentos como
template, e a imagem digitalizada como área de procura. O programa de
calibração deverá ser capaz de perceber que o coeficiente de correlação
atingirá altos valores de forma cíclica, atribuindo a esses valores os pontos
homólogos (cruzamentos) da imagem de calibração (Figura 4.13).
4.5.2 LOCALIZAÇÃO DOS CENTROS DE MARCAS FIDUCIAIS
Uma aplicação inicial da correlação é a localização das marcas
fiduciais em uma imagem digital, quando da orientação interior. Neste
caso, a janela de procura e o recorte encontrar-se-iam na mesma imagem.
A alternativa de implementação utilizada seria, dado o número de
marcas fiduciais na imagem e sua posição aproximada (exemplos: quatro
cantos, ou metade dos lados) escolher áreas de procuras em torno destas
regiões. O recorte pode vir de um banco de imagens de diferentes tipos
de marca fiducial já existente ou ser criado quando da definição do centro
da primeira marca – neste caso, o usuário terá que, ao menos para uma
delas, fazer a medição (colimação da marca de referência) precisa no
centro. A figura 4.14 ilustra este exemplo:
Figura 4.14 – Template de uma marca fiducial (ampliado), que pode ser extraído de um
banco de dados de diferentes marcas ou determinado na hora; imagem inteira com
janelas de procura em torno das marcas fiduciais e resultado final, com centros das
marcas localizados sem a intervenção do usuário.
4.10
4.5.3 LOCALIZAÇÃO DOS PONTOS DE HOMÓLOGOS DE UM
PONTO DO TERRENO EM DIFERENTES IMAGENS
Esta é a aplicação clássica da correlação e foi o tema central do
texto. Foi proposta na figura 4.1 e, neste ponto, já pode-se enunciar uma
solução para a mesma, que encontra-se graficamente descrita na figura
4.15.
Figura 4.15 – Nesta figura, estão representados: template na imagem 1, janela de procura
na imagem 2 e template de maior correlação contendo em seu centro o ponto homólogo.
É utilizada em todas as fases do processo fotogramétrico em que é
necessário realizar a medição de coordenadas de pontos, tanto no
espaço-imagem, quanto no espaço-objeto.
4.11
4.6 CONCLUSÃO
Ao fim de mais um capítulo, algumas conclusões podem ser
traçadas sobre o importantíssimo coeficiente de correlação:
• É um método estatístico de implementação relativamente simples e de
grande utilidade;
• Está em função da covariância e desvios-padrão das imagens
utilizadas, sendo, portanto, importantíssima a determinação dos
estimadores amostrais dos mesmos;
• Em fotogrametria digital, tais implementações foram necessárias para
a automação de diversos processos, tais como: calibração de scanner,
localização de centros de marcas homológas, orientação exterior
(relativa, absoluta ou monoscópica), além do ajustamento por feixes
perspectivos.
Também é importante recordar-se a rotina genérica para sua
execução, a saber:
1) Define-se um recorte (template) na imagem 1;
2) As coordenadas do pixel central desse template são armazenadas;
3) Os valores dos números digitais dos pixels do recorte são
ordenadamente armazenados em um vetor X;
4) Define-se uma janela de procura na imagem 2;
5) Define-se um template nos mesmos moldes que o primeiro dentro
desta área de procura (de preferência no canto superior esquerdo),
guardando as coordenadas centrais do pixel e armazenando os
números digitais em um vetor Y;
6) Realiza-se a correlação entre X e Y;
7) Anda-se com o template 2 um pixel para a direita ou para baixo (se
tiver chegado ao limite horizontal da área de procura);
8) Guardam-se novas coordenadas e vetor Y;
9) Realiza-se a correlação entre X e Y;
4.12
10) O processo segue até que se chegue ao final da área de procura. A
coordenada equivalente ao template 2 que obteve maior correlação
com o primeiro é o ponto homólogo.
A próxima etapa é a utilização desta e de mais ferramentas no
processo de orientação chamado Orientação Exterior, e que terá, ao
fim, todas as imagens do mesmo vôo orientadas ao terreno, permitindo
que sobre elas sejam executadas medições de coordenadas no espaço
objeto, ou seja, no sistema de terreno.
REFERÊNCIAS BIBLIOGRÁFICAS
Albertz, J; Kreiling, Walter. Photogrammetric Guide. Karlsruhe. Wichmann, Alemanha: 1989.
Altan, Orhan; Toz, Gönül; Seker, Dursun. Photogrammetry – Lecture Notes. Istanbul Technical
University. 1a Ed. Turquia: 2002.
Andrade, J. Bittencourt de. Fotogrametria. Ed. SBEE. Curitiba, Brasil: 1998.
Augusto, Eduardo Gurgel Garcia. Determinação Automática dos Parâmetros da Orientação
Exterior de uma Imagem Fotogramétrica Digital – Trabalho de Tópicos Especiais em
Engenharia Cartográfica. Instituto Militar de Engenharia. Rio de Janeiro, Brasil: 1999.
Brito, Jorge Luís Nunes e Silva; Prado, Walter da Silva; Augusto, Eduardo Gurgel Garcia.
Estágio de Fotogrametria Digital para Engenheiros Cartógrafos - Notas de Aula. Instituto
Militar de Engenharia. Rio de Janeiro, Brasil: 1999.
Costa, Felipe André Lima. Medição Automática de Coordenadas em Imagens Fotogramétricas
Digitais - Projeto do PIBIC/1998. Instituto Militar de Engenharia. Rio de Janeiro, Brasil:
1999.
Costa, Felipe André Lima. Geração de Coordenadas Tridimensionais do Terreno a Partir de
Imagens Fotogramétricas Digitais - Projeto do PIBIC/1999. Instituto Militar de Engenharia.
Rio de Janeiro, Brasil: 2000.
Coelho F., Luiz C. T. Sistema de Medição Automática de Coordenadas de Pontos em Imagens
Fotogramétricas Digitais - Projeto do PIBIC/2000. Instituto Militar de Engenharia. Rio de
Janeiro, Brasil: 2001.
Digital Photogrammetry - An Addendum to the Manual of Photogrammetry. The American Society
for Photogrammetry and Remote Sensing. Bethesda, MA, Estados Unidos: 1997.
Gemael, Camil. Introdução ao Ajustamento de Observações. Ed. UFPR. Curitiba, Brasil: 1994.
Introduction to Photogrammetry. Universidade de Viena. Viena, Áustria: 2000.
Jones, Nicole. Photogrammetry – Lecture Notes. The University of Melbourne. Melbourne,
4.13
Austrália: 1998.
Kraus, Karl. Photogrammetry - Fundamentals and Processes. Volume 1, 4a Ed. Ferg, Dummler
Verlag. Bonn, Alemanha: 1999.
Schenk, Toni. Digital Photogrammetry – Volume I. TerraScience. 1a Ed. Estados Unidos:
1999.
Stark, Philip B. SticiGui: Statistics Tools for Internet and Classroom Instruction with a Graphical User
Interface. Department of Statistics, University of California, Berkeley. California,
Estados Unidos: 2001.
Stockburger, David W. Introductory Statistics: Concepts, Models and Applications. Versão
WWW 1.0. Southwest Missouri State University. Missouri, Estados Unidos: 1998.
4.14
5. ORIENTAÇÃO EXTERIOR
5.1 CONCEITO INICIAL
O objetivo primordial da orientação exterior (ou externa) é a
obtenção da posição e atitude de cada foto em relação ao referencial do
espaço objeto. Essa situação é mostrada na figura 5.1:
Figura 5.1 – Objetivo da orientação exterior
Pode-se dizer, então, que uma imagem está orientada
exteriormente se são conhecidos os seis parâmetros de orientação
exterior para a mesma, a saber: coordenadas no espaço-objeto para o
5.1
centro de perspectiva e ângulos de rotação ou de atitude do sensor (φ, ω e
κ).
Este método difere dos adotados nas fotogrametrias analógica e
analítica, que o dividem em dois processos: orientação relativa e
orientação absoluta. A relativa servia para referenciar cada feixe em
relação ao seu homólogo, reconstruindo a posição exata de um par no
espaço durante a tomada das fotos. A absoluta, por sua vez, referencia o
par de feixes em relação ao terreno (colocando o modelo em escala e
nivelando-o).
Com a orientação exterior, não há a necessidade de se realizar
duas etapas diferentes. Sabendo-se os seis parâmetros já enumerados
para cada uma das imagens de um vôo, pode-se reconstruí-lo totalmente.
5.2 OS PARÂMETROS DA ORIENTAÇÃO EXTERIOR
Como já citado no tópico anterior, há seis parâmetros que localizam
a imagem no espaço. Segue uma explicação mais detalhada de cada um
deles.
“X0“ representa a posição do centro de perspectiva no eixo X do sistema
de coordenadas do espaço objeto.
“Y0” representa a posição do centro de perspectiva no eixo Y do sistema
de coordenadas do espaço objeto.
“Z0” representa a posição do centro de perspectiva no eixo Z do sistema
de coordenadas do espaço objeto.
Os ângulos de Euler (φ, ω e κ) representam rotações sofridas pelo
sistema local de coordenadas x, y e z (de cada câmara) em relação ao
sistema global do terreno X, Y e Z. Rotacionando-se x, y, z de -φ, -ω e -κ,
pode-se torná-lo paralelo a X, Y, Z.
5.2
“ω“ representa a rotação do eixo x em relação a X. É contado no sentido
anti-horário. Este ângulo deve ser pequeno, não devendo ultrapassar 5o
em valor absoluto, no caso de fotografias perfeitamente verticais.
“φ“ representa a rotação do eixo y em relação a Y. É contado no sentido
anti-horário. Este ângulo deve ser pequeno, não devendo ultrapassar 5o
em valor absoluto, no caso de fotografias perfeitamente verticais.
“κ“ representa a rotação do eixo z em relação a Z. O sentido é anti-
horário.
Figura 5.2 – Ângulos de atitude do avião φ, ω e κ.
A matriz de rotação equivalente a cada ângulo expressa a
transformação necessária para rotacionar um sistema em relação a outro
de tal ângulo. São expressas da seguinte forma:
Rå=¦cosî 0 Bsenî0 1 0
senî 0 cosî § (5.1)
Rè=¦1 0 00 cosè senè0 Bsenè cosè§ (5.2)
RÚ=¦ cosÚ senÚ 0BsenÚ cosÚ 0
0 0 1§ (5.3)
5.3
Multiplicando-se todas, pode-se obter a matriz de rotação R, que
equivale aos três movimentos simultaneamente. Assim, R é igual a:
R=RîRèRÚ=¦ cosîcosÚ BcosîsenÚ senîcosîsenÚAsenèsenîcosÚ cosècosÚBsenèsenîsenÚ BsenècosîsenîsenÚBcosèsenîcosÚ senècosÚAcosèsenîsenÚ cosècosî § (5.4)
“R” rotaciona do espaço-objeto para o espaço-imagem. Já “M”, que
é igual a R-1 ou RT rotaciona do espaço-imagem para o espaço-objeto.
5.3 AS EQUAÇÕES DE COLINEARIDADE
As duas equações de colinearidade podem ser consideradas a
base da fotogrametria digital, uma vez que estas relacionam os
parâmetros da orientação exterior, as coordenadas fotográficas de um
ponto e as coordenadas tridimensionais do mesmo ponto. Assim,
sabendo-se em quantidades razoáveis qualquer um deles, pode-se, ao
fim, obter os outros através de um ajustamento por mínimos quadrados.
Figura 5.3 – Condição de colinearidade
5.4
A demonstração de tal formulação decorre da chamada “condição
de colinearidade”. Esta pode ser enunciada da seguinte forma:
“No momento da tomada da fotografia, o ponto objeto P, o centro de
projeção O e o ponto imagem P' formam uma linha reta.”
A figura 5.3 oferece uma descrição gráfica desta condição. Nela,
pode-se ver um ponto objeto (P), marcado com uma cruz em vermelho, e
a linha reta que o une ao seu respectivo ponto imagem (p), também
marcado com uma cruz vermelha, sobre a foto. Na linha reta que une os
dois, encontra-se o centro de perspectiva (CP).
5.3.1 DEMONSTRAÇÃO
Figura 5.4 – Condição de colinearidade para uma imagem
5.5
Esta figura representa a condição de colinearidade para um
determinado ponto P, e sua projeção na imagem (p). Note-se,
primeiramente, que a fotografia está rebatida, localizando-se abaixo do
centro de perspectiva (a posição correta seria o plano superior). Porém,
representada deste modo, não se alteram as suas relações geométricas
fundamentais, que serão a base da demonstração.
Figura 5.5 – Fotografia rebatida em relação ao CP
Voltando à figura 5.4, o ponto O representa o centro de projeção,
ou seja, o ponto pelo qual todos os raios vindos do terreno passaram para
sensibilizar o filme em diversas regiões. Também pode ser chamado de
centro de perspectiva.
Note-se que suas coordenadas no sistema imagem não coincidem
exatamente com a origem. Isso acontece sempre, devido aos
movimentos e rotações que a câmara sofre durante o vôo, embora quase
sempre estas diferenças sejam bastante pequenas. Em todo caso, a
projeção de O no sistema imagem recebe as coordenadas ξ0 e η0,
enquanto o ponto p recebe coordenadas ξ e η.
Para compatibilizar os sistemas de coordenadas imagem e terreno,
uma terceira coordenada foi atribuída ao primeiro, tornando-o
5.6
tridimensional (equivalentemente ao sistema de câmara). Esta
coordenada (ζ) é constante nos pontos da imagem, e de valor igual a -c (o
valor da distância focal com o sinal trocado).
Figura 5.6 – Sistema de coordenadas de câmara
Outros dois sistemas presentes na figura são o sistema de
coordenadas objeto (X Y Z) e o sistema de coordenadas objeto paralelo
ao sistema imagem (X' Y' Z'), que nada mais é que o primeiro, rotacionado
dos ângulos de atitude da câmara, de modo a que seja paralelo ao
sistema de coordenadas imagem. Os pontos A, B, D e P estão
posicionados neste sistema. O centro perspectivo, ou O, terá as
seguintes coordenadas: X'0 Y'0 e Z'0, ao passo que P terá como
coordenadas X' Y' e Z'.
Com estes conceitos, podem ser enunciadas duas relações de
razão e proporção, sendo a primeira:
Oab]OAB
Que é facimente visualizada, de acordo com a figura 5.7:
ÞBÞ0
c=
X'BX'0Z'0BZ'
(5.5)
A outra proporção, que pode ser igualmente observada é:
Oad]OAD
E que se encontra representada na figura 5.8.
5.7
Figura 5.7 – Primeira relação de proporcionalidade
Figura 5.8 – Segunda relação de proporcionalidade
5.8
×B×0
c=
Y'BY'0Z'0BZ'
(5.5)
Rearranjando-se as equações 5.4 e 5.5 chega-se a:
Þ=Þ0BcX'BX'0Z'BZ'0
(5.6)
×=×0BcY'BY'0Z'BZ'0
(5.7)
Os sistemas X' Y' Z' e X Y Z se relacionam da seguinte maneira:
¦XBX0
YBY0
ZBZ0§=R¦X'BX'0
Y'BY'0Z'BZ'0
§ e ¦X'BX'0Y'BY'0Z'BZ'0
§=RB1¦XBX0
YBY0
ZBZ0§ (5.8)
Onde R-1 = RT e R = ¦r11 r12 r13
r21 r22 r23
r31 r32 r33§ .
Utilizando-se as relações acima, chega-se, enfim, a:
Þ=Þ0Bcr11¢XBX0£Ar21¢YBY0£Ar31¢ZBZ0£r13¢XBX0£Ar23¢YBY0£Ar33¢ZBZ0£
(5.9)
×=×0Bcr12¢XBX0£Ar22¢YBY0£Ar32¢ZBZ0£r13¢XBX0£Ar23¢YBY0£Ar33¢ZBZ0£
(5.10)
São as chamadas equações de colinearidade. A partir das
mesmas, pode-se, então, realizar uma série de cálculos diferentes, que
serão descritos nos próximos tópicos.
5.9
5.4 A RESSEÇÃO ESPACIAL
A partir das equações de colinearidade, pode-se determinar os seis
elementos de orientação exterior de uma fotografia (X0, Y0, Z0, φ, ω, κ) a
partir de, no mínimo três pontos de controle.
Como os pontos de controle foram identificados na imagem, são
conhecidas as suas coordenadas pixel. A partir dos parâmetros da
orientação interior, chega-se às suas coordenadas no sistema imagem
(fotográfico) ξ1 e η1, ξ2 e η2, ξ3 e η3, ... Como dados, também encontram-se
disponíveis suas coordenadas tridimensionais (obviamente, pois são
pontos de controle, ou de campo) X1, Y1, Z1, X2, Y2, Z2, X3, Y3, Z3, ...
A distância focal já é conhecida, uma vez que está contida no
certificado de calibração da câmara. As coordenadas do ponto principal
ξ0 e η0 (no espaço imagem) também encontram-se no mesmo, porém,
caso não estejam descritas, podem ser adotadas como os valores das
médias das coordenadas em ξ e η das marcas fiduciais.
Com todos estes valores conhecidos, resta apenas determinar as
incógnitas. Um exemplo literal vem a seguir, considerando quatro pontos
de campo.
Dados:
Distância principal (ou focal, ou focal calibrada): c;
Coordenadas do ponto principal: ξ0 e η0;
Coordenadas de 4 pontos no espaço imagem: ξ1 e η1, ξ2 e η2, ξ3 e η3, ξ4 e η4;
Coordenadas de 4 pontos no espaço objeto: X1, Y1, Z1, X2, Y2, Z2, X3, Y3,
Z3, X4, Y4, Z4;
Fórmulas:
Þ1=Þ0Bcr11¢X1BX0£Ar21¢Y1BY0£Ar31¢Z1BZ0£r13¢X1BX0£Ar23¢Y1BY0£Ar33¢Z1BZ0£
5.10
×1=×0Bcr12¢X1BX0£Ar22¢Y1BY0£Ar32¢Z1BZ0£r13¢X1BX0£Ar23¢Y1BY0£Ar33¢Z1BZ0£
Þ2=Þ0Bcr11¢X2BX0£Ar21¢Y2BY0£Ar31¢Z2BZ0£r13¢X2BX0£Ar23¢Y2BY0£Ar33¢Z2BZ0£
×2=×0Bcr12¢X2BX0£Ar22¢Y2BY0£Ar32¢Z2BZ0£r13¢X2BX0£Ar23¢Y2BY0£Ar33¢Z2BZ0£
Þ3=Þ0Bcr11¢X3BX0£Ar21¢Y3BY0£Ar31¢Z3BZ0£r13¢X3BX0£Ar23¢Y3BY0£Ar33¢Z3BZ0£
×3=×0Bcr12¢X3BX0£Ar22¢Y3BY0£Ar32¢Z3BZ0£r13¢X3BX0£Ar23¢Y3BY0£Ar33¢Z3BZ0£
Þ4=Þ0Bcr11¢X4BX0£Ar21¢Y4BY0£Ar31¢Z4BZ0£r13¢X4BX0£Ar23¢Y4BY0£Ar33¢Z4BZ0£
×4=×0Bcr12¢X4BX0£Ar22¢Y4BY0£Ar32¢Z4BZ0£r13¢X4BX0£Ar23¢Y4BY0£Ar33¢Z4BZ0£
Verifica-se, então, que, para que seja realizado um ajustamento,
são necessárias aproximações iniciais para as incógnitas, uma vez que o
modelo é não-linear.
Estes valores, chamados de X00, Y00, Z00, φ0, ω0, κ0 podem ser
estimados de diferentes formas, como enunciado por (Kraus, 1999):
- Ajustamento por modelos independentes;
- Transformação linear direta (geometria projetiva);
- Adotando-se os seguintes valores:
φ0 = 0, ω0 = 0
Figura 5.9 – Cálculo de κ0
κ0 dado pela direção de vôo (ângulo, no sentido anti-horário,
5.11
necessário para fazer coincidir a linha de vôo com o eixo X do sistema de
coordenadas de terreno).
X00, Y00, Z00 podem ser obtidos de duas maneiras: uma é realizando
a resseção espacial considerando φ0, ω0 e κ0 como valores para φ, ω e κ.
A outra é realizando uma transformação afim, nos mesmos moldes da
realizada para a orientação interior, porém, desta vez relacionando
coordenadas fotográficas com coordenadas planimétricas de terreno. Ao
se obter estes parâmetros de transformação, os mesmos são utilizados
para calcular X00, Y00 a partir de ξ0 e η0. Z00, para este caso, é a soma da
altura de vôo e o plano médio do terreno, que são previstos desde o
planejamento do vôo.
Agora, pode-se realizar um ajustamento pelo modelo não linear.
Este segue a seguinte formulação:
A=¦^Þ1
^X0
^Þ1
^Y0
^Þ1
^Z0
^Þ1
^å^Þ1
^è^Þ1
^Ú^×1
^X0
^×1
^Y0
^×1
^Z0
^×1
^å^×1
^è^×1
^Ú^Þ2
^X0
^Þ2
^Y0
^Þ2
^Z0
^Þ2
^å^Þ2
^è^Þ2
^Ú^×2
^X0
^×2
^Y0
^×2
^Z0
^×2
^å^×2
^è^×2
^Ú^Þ3
^X0
^Þ3
^Y0
^Þ3
^Z0
^Þ3
^å^Þ3
^è^Þ3
^Ú^×3
^X0
^×3
^Y0
^×3
^Z0
^×3
^å^×3
^è^×3
^Ú^Þ4
^X0
^Þ4
^Y0
^Þ4
^Z0
^Þ4
^å^Þ4
^è^Þ4
^Ú^×4
^X0
^×4
^Y0
^×4
^Z0
^×4
^å^×4
^è^×4
^Ú
§5.12
Xa=¦X0
Y0
Z0
åèÚ§
X0=¦X00
Y00
Z00
å0
è0
Ú0
§L0=¦
Þ10
×10
Þ20
×20
Þ30
×30
Þ40
×40
§Lb=¦
Þ1
×1
Þ2
×2
Þ3
×3
Þ4
×4
§ Xa = X0 – (AT P A)-1 . [AT P (L0 – Lb)] (5.11)
As demais estatísticas de qualidade e precisão seguem as fórmulas
já descritas no capítulo 3.
5.13
5.5 A INTERSEÇÃO ESPACIAL
Conhecendo-se os parâmetros da orientação exterior para um par
de fotografias com superposição (X01, Y01, Z01, φ1, ω1, κ1, X02, Y02, Z02, φ2, ω2,
κ2,), pode-se, a partir das mesmas equações de colinearidade, gerar as
coordenadas tridimensionais de um ponto.
Isto se deve ao fato de, desta vez, serem conhecidos os
parâmetros para cada foto, mais as coordenadas do ponto principal no
sistema fotográfico e a distância focal. Ao haver estereoscopia entre as
imagens, é possível localizar as coordenadas de determinado ponto no
sistema fotográfico de cada uma das imagens ( ξ1 e η1, ξ2 e η2).
Figura 5.10 – Interseção espacial
As equações de colinearidade podem então ser reescritas da
seguinte forma:
Þ1=Þ10Bcr11
1 ¢XBX01£Ar21
1 ¢YBY01£Ar31
1 ¢ZBZ01£
r131 ¢XBX0
1£Ar231 ¢YBY0
1£Ar331 ¢ZBZ0
1£
×1=×10Bcr12
1 ¢XBX01£Ar22
1 ¢YBY01£Ar32
1 ¢ZBZ01£
r131 ¢XBX0
1£Ar231 ¢YBY0
1£Ar331 ¢ZBZ0
1£
5.14
Þ2=Þ20Bcr11
2 ¢XBX02£Ar21
2 ¢YBY02£Ar31
2 ¢ZBZ02£
r132 ¢XBX0
2£Ar232 ¢YBY0
2£Ar332 ¢ZBZ0
2£
×2=×20Bcr12
2 ¢XBX02£Ar22
2 ¢YBY02£Ar32
2 ¢ZBZ02£
r132 ¢XBX0
2£Ar232 ¢YBY0
2£Ar332 ¢ZBZ0
2£
Como o ponto em questão é o mesmo, as incógnitas passam a ser
as suas coordenadas tridimensionais no espaço-objeto (X,Y,Z). O número
de equações ao todo é igual a quatro. Logo, há superabundância de
dados e um ajustamento por mínimos quadrados, nos moldes da resseção
espacial, pode ser aplicado.
5.6 AEROTRIANGULAÇÃO ANALÍTICA (POR AJUSTAMENTO DE
FEIXES PERSPECTIVOS)
Um caso mais genérico da utilização das equações de
colinearidade é a aerotriangulação com ajustamento por feixes
perspectivos (bundle adjustment). Neste caso, ajusta-se um bloco inteiro,
simultaneamente, recorrendo às diversas possibilidades de superposição,
que podem localizar um determinado ponto em até seis imagens,
adicionando mais injunções ao modelo. O resultado final são os
parâmetros da orientação exterior para todas as imagens do bloco, mais
as coordenadas tridimensionais dos diversos pontos fotogramétricos
selecionados pelo operador. O capítulo 6 vem a tratar exclusivamente
desse assunto.
5.7 CONCLUSÃO
Os métodos de orientação exterior através de ajustamentos
envolvendo equações de colinearidade só se tornou-se disponível para
5.15
uso após a implementação de técnicas computacionais para a resolução
do mesmo. Tais métodos, embora exijam valores de entrada
aproximados, apresentam grande consistência em seus resultados finais
(Andrade, 1998), sendo, portanto, largamente recomentados.
Convém ressaltar que muitas das soluções encontradas hoje em
dia ainda utilizam a antiga abordagem “orientação relativa e orientação
absoluta”, utilizando adaptações da formulação já existente para o caso
das fotogrametrias analógica e analítica. Isso se deve ao fato de os
usuários ainda estarem acostumados com os métodos tradicionais, sendo
adequada sua adaptação à fotogrametria digital utilizando os mesmos
métodos. É obrigatório observar, porém, que um processo utilizando
ajustamento por feixes perspectivos, por exemplo, une as etapa da
orientação exterior e aerotriangulação em uma só, permitindo resultados
muito mais rápidos para os operadores.
Alguns outros pontos importantes a serem observados também
encontram-se listados abaixo:
- A orientação exterior na fotogrametria digital consiste em orientar cada
uma das imagens em relação ao sistema de coordenadas do espaço-
objeto;
- Isso se dá através do conhecimento dos seis parâmetros da
orientação exterior (X0, Y0, Z0, φ, ω e κ) para cada uma das imagens;
- Entre vários métodos para encontrá-los, ressaltam-se as soluções por
ajustamentos por equações de colinearidade;
- A resseção espacial serve para obter, para cada imagem, os valores
dos parâmetros de orientação exterior. Necessita-se de, pelo menos,
três pontos de apoio;
- A interseção espacial permite, para um par de imagens, a obtenção
das coordenadas tridimensionais no sistema de espaço-objeto para
qualquer ponto que esteja na área de superposição. Necessita dos
parâmetros da orientação exterior para ambas as imagens;
- O ajustamento por feixes perspectivos propicia a obtenção de todos os
valores citados nos tópicos acima, recursivamente, para um bloco de
imagens. É bastante utilizado atualmente.
5.16
Findo este processo, surgem várias outras possibilidades no fluxo
da fotogrametria digital. Uma delas é a aerotriangulação por feixes
perspectivos, que pode ser efetuada em separado da orientação exterior,
tendo os parâmetros obtidos pela resseção espacial para cada uma das
imagens inseridos como dados, e não mais como incógnitas. Outras
opções são a restituição dos modelos, ou a utilização de métodos como
retificação, extração de modelos numéricos de elevações e
ortorretificação, que serão melhor apresentados posteriormente.
REFERÊNCIAS BIBLIOGRÁFICAS
Albertz, J; Kreiling, Walter. Photogrammetric Guide. Karlsruhe. Wichmann, Alemanha: 1989.
Altan, Orhan; Toz, Gönül; Seker, Dursun. Photogrammetry – Lecture Notes. Istanbul Technical
University. 1a Ed. Turquia: 2002.
Andrade, J. Bittencourt de. Fotogrametria. Ed. SBEE. Curitiba, Brasil: 1998.
Augusto, Eduardo Gurgel Garcia. Determinação Automática dos Parâmetros da Orientação
Exterior de uma Imagem Fotogramétrica Digital – Trabalho de Tópicos Especiais em
Engenharia Cartográfica. Instituto Militar de Engenharia. Rio de Janeiro, Brasil: 1999.
Brito, Jorge Luís Nunes e Silva; Prado, Walter da Silva; Augusto, Eduardo Gurgel Garcia.
Estágio de Fotogrametria Digital para Engenheiros Cartógrafos - Notas de Aula. Instituto
Militar de Engenharia. Rio de Janeiro, Brasil: 1999.
Costa, Felipe André Lima. Medição Automática de Coordenadas em Imagens Fotogramétricas
Digitais - Projeto do PIBIC/1998. Instituto Militar de Engenharia. Rio de Janeiro, Brasil:
1999.
Costa, Felipe André Lima. Geração de Coordenadas Tridimensionais do Terreno a Partir de
Imagens Fotogramétricas Digitais - Projeto do PIBIC/1999. Instituto Militar de Engenharia.
Rio de Janeiro, Brasil: 2000.
Coelho F., Luiz C. T. Sistema de Medição Automática de Coordenadas de Pontos em Imagens
Fotogramétricas Digitais - Projeto do PIBIC/2000. Instituto Militar de Engenharia. Rio de
Janeiro, Brasil: 2001.
Digital Photogrammetry - An Addendum to the Manual of Photogrammetry. The American Society
for Photogrammetry and Remote Sensing. Bethesda, MA, Estados Unidos: 1997.
Gemael, Camil. Introdução ao Ajustamento de Observações. Ed. UFPR. Curitiba, Brasil: 1994.
Introduction to Photogrammetry. Universidade de Viena. Viena, Áustria: 2000.
Jones, Nicole. Photogrammetry – Lecture Notes. The University of Melbourne. Melbourne,
Austrália: 1998.
5.17
Kraus, Karl. Photogrammetry - Fundamentals and Processes. Volume 1, 4a Ed. Ferg, Dummler
Verlag. Bonn, Alemanha: 1999.
Schenk, Toni. Digital Photogrammetry – Volume I. TerraScience. 1a Ed. Estados Unidos:
1999.
5.18
6. AEROTRIANGULAÇÃO ANALÍTICA
6.1 REVISÃO INICIAL
No capítulo anterior, foi apresentada a resseção espacial como
método de obtenção dos seis parâmetros da orientação exterior (X0, Y0, Z0,
φ, ω e κ) para cada uma das imagens. Mais adiante, demonstrou-se que,
uma vez já conhecidos estes valores, pode-se aplicar um outro algoritmo,
chamado interseção espacial, com o intuito de se conhecer as coordenadas
de campo de qualquer ponto que se localize em, pelo menos, duas
imagens (ou seja, em pelo menos um modelo estereoscópico). A figura
6.1 evidencia este caso simplificadamente:
Figura 6.1 – Triângulo formado no espaço entre os feixes perspectivos e a linha de vôo
6.1
Coincidentemente com essa valiosa ferramenta de obtenção de
coordenadas de pontos, percebe-se uma certa dificuldade de obtenção de
pontos de campo em quantidade desejável. Sabe-se que as precisões
para coordenadas de pontos requeridas pela fotogrametria não estão
entre as mais restritivas, mas, na maior parte dos casos, demandam
posicionamento geodésico por satélites (figura 6.2) com precisão
submétrica, o que exige tempo de ocupação prolongado, especialmente
para bases longas. Em lugares distantes de referências de nível ou
quaisquer outros tipos de marcos de altitude, outros métodos devem ser
adotados, como a barometria, por exemplo. Em áreas de floresta ou com
densa cobertura, os métodos de topografia clássica (como a poligonação,
por exemplo) são a única opção que resta à equipe de campo,
prolongando o tempo consumido e aumentando os custos do projeto.
Conclui-se, a partir do apresentado, que qualquer método que se
apresente de modo a minimizar este dispêndio de tempo e recursos torna-
se extremamente atraente.
Figura 6.2 – Equipe de campo, executando trabalho de posicionamento
geodésico por satélite (cortesia: 4a Divisão de Levantamento do Exército
Brasileiro – Manaus, Brasil)
Neste ponto, uma solução pode ser proposta: a execução de
interseção espacial em pares de imagens já orientadas, de modo a se
densificar o número de pontos de coordenadas de terreno conhecidas.
Um problema relacionado a essa solução seria o trabalho computacional
6.2
envolvido em realizar-se um ajustamento para cada ponto a ser
determinado. Além disso, os pontos imageados podem estar presentes
em até seis imagens ao mesmo tempo. Perder-se-ia, neste método, a
superabundância de dados, que poderia vir a melhorar ainda mais a
qualidade dos dados ajustados (figura 6.3).
Figura 6.3 – Interseção espacial para seis imagens
Ao fim dessa discussão, verifica-se que a interseção espacial ainda
não é a solução definitiva para o problema. Deseja-se algo que vá mais
além: uma solução que tenha o mínimo de esforço computacional (ou
seja, um algoritmo único), com o mínimo de pontos de coordenadas de
terreno conhecidas e aproveitando ao máximo a superabundância de
dados existente.
6.2 DEFINIÇÃO
A aerotriangulação por ajustamento de feixes perspectivos (bundle
adjustment) pode ser entendida como sendo a execução de uma resseção
espacial simultaneamente à execução da interseção espacial para um conjunto
de imagens digitais adquiridas sobre determinado trecho do terreno. Dessa
6.3
forma, com um só ajustamento, obtêm-se os parâmetros da orientação
exterior para todas as imagens do vôo, associados às coordenadas no
espaço-objeto (sistema de terreno) de uma série de pontos previamente
medidos sobre as imagens e de poucos pontos medidos “in situ”. O nome
aerotriangulação deriva da formação de triângulos no espaço, quando da
interseção espacial. É um método, portanto, de densificação de pontos de
campo. Entretanto, não é capaz de realizar milagres. Seu uso com
parcimônia garante um excelente aproveitamento dos recursos
disponíveis, mas, para isso, convém seguir as regras descritas a partir do
tópico seguinte.
Antes de passar a ele, é importante realizar-se uma pequena
observação quanto aos métodos anteriores de aerotriangulação: analógica
e semi-analítica (por modelos independentes). O método analógico já de
há muito tempo está em desuso, e pressupunha a realização das ligações
entre os modelos com intervençào humana, forçando-se as coordenadas
dos modelos anteriores a coincidirem com a dos posteriores em aparelhos
analógicos. O método de modelos independentes (figura 6.4) ainda é
usado nas organizações que empregam métodos de restituição semi-
analítica (ou analógica assistida por computador). Primeiramente, cada
modelo é medido em aparelho restituidor. Feito isso, estes são
conectados através de solução analítica (computacional), chegando-se ao
conhecimento dos modelos de transformação para as faixas e para o
bloco.
Figura 6.4 – Aerotriangulação por modelos independentes
O método por ajustamento de feixes perspectivos, adotado como
padrão no decorrer desse texto é o único que pode ser considerado
6.4
totalmente analítico. É utilizado pela maior parte dos restituidores
analíticos e soluções digitais atuais.
6.3 PREPARO DA AEROTRIANGULAÇÃO
Para que a aerotriangulação atinja resultados satisfatórios, deve-se
dispor de dados iniciais de qualidade, porém, sem levar a dispêndios
excessivos. Esses dados iniciais compõem-se, no caso do ajustamento
por modelos independentes, obrigatoriamente, de pontos HV e pontos V.
Para o caso do ajustamento por feixes perspectivos, convencionou-se
adotar a mesma padronização, por costume, embora ela não seja
necessária.
Os pontos HV, ou de duplo apoio, possuem coordenadas
planimétricas e altimétricas conhecidas. Já os pontos V, ou pontos de
apoio vertical dispõem apenas de sua altitude como dado de entrada.
O espaçamento da distribuição de cada um destes tipos de pontos
segue as fórmulas de H. M. Karara (extraídas de T34-304, 1984), a saber:
Espaçamento do apoio planimétrico:
n=0,04725000dcarta
dfoto
(6.1)
Espaçamento do apoio entre as linhas de apoio altimétrico:
ÜH=Ü0 Z2
Bf¢2,304B0,506NA0,250N2£ (6.2)
onde:
n é o espaçamento do apoio planimétrico;
dcarta é o denominador da escala da carta;
dfoto é o denominador da escala da foto;
N é o espaçamento do apoio entre as linhas de apoio altimétrico;
6.5
µ0 = 0,01 mm;
µH = 0,5 (equidistância das curvas de nível)/1,66;
Z é a altura de vôo em metros;
B é a aerobase em metros;
f é a distância focal da câmara em milímetros.
Os pontos de duplo apoio são colocados na periferia do bloco, de
acordo com o espaçamento previamente calculado (no sentido da faixa,
usar o espaçamento planimétrico e no sentido perpendicular às faixas, o
espaçamento entre as linhas de apoio altimétrico). No mínimo, deve haver
um ponto HV em cada canto do bloco. Os pontos de apoio vertical são
distribuidos ao longo das linhas formadas pelos pontos HV,
perpendicularmente às linhas de de vôo. Eles devem ser posicionados na
superposição lateral entre modelos pertencentes a duas faixas diferentes.
A figura 6.5 mostra um caso em que o espaçamento planimétrico é
igual a 4 modelos e o espaçamento entre as linhas de apoio altimétrico é
igual a 5 modelos.
Figura 6.5 – Exemplo de arranjo de pontos V e HV em um bloco
Os pontos devem ser escolhidos em lugares nítidos,
preferencialmente de fácil acesso, como cantos de cercas, estradas ou
construções. Consideram-se más escolhas árvores, regiões homogêneas
6.6
e locais próximos de espelhos d'água.
Os pontos escolhidos são marcados em cópias das fotos do vôo,
através de circunferências desenhadas com lápis dermatográfico. A
equipe de campo usará esta informação para determinar as coordenadas
de terreno dos pontos escolhidos. No verso da foto, ou em fichas
especiais, é desenhado um croqui ou é anexada uma foto da localização
exata do ponto. Outras informações pertinentes também podem ser
anotadas (descrição do itinerário realizado para chegar-se ao ponto,
pontos notáveis próximos, etc.).
Em casos especiais, pode-se contar com a pré-sinalização, que é a
marcação in loco dos pontos a serem coletados antes da execução do
vôo. Ao serem fotografadas, os sinais ficam visíveis nas fotos (figura 6.6),
acelerando o processo de identificação. Trata-se de um método caro,
sendo pouco usual, exceto em vôos de calibração ou treinamento.
Figura 6.6 – Ponto pré-sinalizado (fonte:
Wild-Heerbrugg Training Programme)
6.4 DADOS ADICIONAIS
Ainda há outros dados podem ser inseridos, como injunções
adicionais. Entre eles, pode-se citar:
- Pontos de lago – No mínimo em três modelos diferentes, valem-se da
propriedade de a superfície de corpos d'água manter-se com altitude
6.7
constante (figura 6.7).
- Estatoscópio e APR (Air Profile Recorder) – Estes dispositivos dão
valores aproximados da altura de vôo em relação a uma superfície
isobárica e/ou ao terreno no momento da tomada da foto. Podem ser
arrolados como estimativas iniciais para Z0.
Figura 6.7 – Pontos de lago (todos têm a mesma altitude)
- Vôo apoiado por GPS – Utiliza-se o modo cinemático, podendo ser pós-
processado. Colocam-se antenas nas asas e no dorso do avião durante o
vôo, permitindo o conhecimento automático dos parâmetros de orientação
exterior para cada tomada da foto (com precisão posicional centimétrica).
Não sendo necessária a execução da orientação exterior, este caso
dispensa o conhecimento de coordenadas de quaisquer pontos de campo.
Caso seja usado o modo RTK (Real Time Kinematic – método de
posicionamento relativo cinemático em tempo real), pode-se até mesmo
realizar-se o restante da aerotriangulação em tempo real (on-the-fly). É
muito empregado em sistemas orbitais de fotogrametria.
- Imagens adicionais – Podem ser fotografias não-métricas, vôos antigos
ou imagens de satélite. O método analítico permite que imagens de
diversas fontes sejam anexadas ao bloco, uma vez que depende-se
apenas das equações de colinearidade. Cada imagem é equacionada a
partir de seus próprios parâmetros de orientação interior e exterior
6.8
(distância focal, parâmetros de transformação imagem/câmara, X0, Y0, Z0,
φ, ω e κ). Algumas soluções dispõem desta opção, considerada,
juntamente com o vôo apoiado por GPS o estado da arte em termos de
aerotriangulação.
6.5 CONCLUSÃO
A aerotriangulação representa um grande avanço nas técnicas
fotogramétricas, por permitir a obtenção de coordenadas de vários pontos
no terreno a partir da interpolação de apenas alguns pontos de campo,
racionalizando custos na produção fotogramétrica.
Por se tratar de um processo de interpolação, não é absolutamente
perfeito, porém, se respeitadas as precisões adequadas a cada escala na
obtenção dos pontos de apoio básicos, chega-se a resultados aceitáveis
para o mapeamento topográfico. Os parâmetros obtidos na
aerotriangulação são essenciais nas práticas posteriores da retificação,
ortorretificação e restituição. Ressalta-se aí a importância fundamental
desta tarefa, sendo então essencial a sua realização criteriosa.
REFERÊNCIAS BIBLIOGRÁFICAS
Aerotriangulacão – T34-304 – Manual Técnico. Exército Brasileiro. 2a Ed. Brasília, Brasil: 1984.
Albertz, J; Kreiling, Walter. Photogrammetric Guide. Karlsruhe. Wichmann, Alemanha: 1989.
Altan, Orhan; Toz, Gönül; Seker, Dursun. Photogrammetry – Lecture Notes. Istanbul Technical
University. 1a Ed. Turquia: 2002.
Andrade, J. Bittencourt de. Fotogrametria. Ed. SBEE. Curitiba, Brasil: 1998.
Augusto, Eduardo Gurgel Garcia. Determinação Automática dos Parâmetros da Orientação
Exterior de uma Imagem Fotogramétrica Digital – Trabalho de Tópicos Especiais em
Engenharia Cartográfica. Instituto Militar de Engenharia. Rio de Janeiro, Brasil: 1999.
Brito, Jorge Luís Nunes e Silva; Prado, Walter da Silva; Augusto, Eduardo Gurgel Garcia.
Estágio de Fotogrametria Digital para Engenheiros Cartógrafos - Notas de Aula. Instituto
Militar de Engenharia. Rio de Janeiro, Brasil: 1999.
6.9
Costa, Felipe André Lima. Medição Automática de Coordenadas em Imagens Fotogramétricas
Digitais - Projeto do PIBIC/1998. Instituto Militar de Engenharia. Rio de Janeiro, Brasil:
1999.
Costa, Felipe André Lima. Geração de Coordenadas Tridimensionais do Terreno a Partir de
Imagens Fotogramétricas Digitais - Projeto do PIBIC/1999. Instituto Militar de Engenharia.
Rio de Janeiro, Brasil: 2000.
Coelho F., Luiz C. T. Sistema de Medição Automática de Coordenadas de Pontos em Imagens
Fotogramétricas Digitais - Projeto do PIBIC/2000. Instituto Militar de Engenharia. Rio de
Janeiro, Brasil: 2001.
Digital Photogrammetry - An Addendum to the Manual of Photogrammetry. The American Society
for Photogrammetry and Remote Sensing. Bethesda, MA, Estados Unidos: 1997.
Gemael, Camil. Introdução ao Ajustamento de Observações. Ed. UFPR. Curitiba, Brasil: 1994.
Introduction to Photogrammetry. Universidade de Viena. Viena, Áustria: 2000.
Jones, Nicole. Photogrammetry – Lecture Notes. The University of Melbourne. Melbourne,
Austrália: 1998.
Kraus, Karl. Photogrammetry - Fundamentals and Processes. Volume 1, 4a Ed. Ferg, Dummler
Verlag. Bonn, Alemanha: 1999.
Normas Provisórias para Fotogrametria Digital. 1a Divisão de Levantamento (Exército Brasileiro).
Porto Alebre, Brasil: 2000.
Photogrammetric Mapping – EM 1110-1-1000 – Engineer Manual (Series Engineering and Design).
U.S. Army Corps of Engineers. Washington DC, Estados Unidos: 2002.
Schenk, Toni. Digital Photogrammetry – Volume I. TerraScience. 1a Ed. Estados Unidos:
1999.
6.10
7. RETIFICAÇÃO E NORMALIZAÇÃO
DE IMAGENS
7.1 CONCEITO INICIAL
Segundo (Andrade, 1998), retificar uma imagem consiste em
projetá-la, segundo seu próprio feixe perspectivo, para um plano
horizontal. Isso significa que, através da retificação, é possível modificar e
até mesmo eliminar completamente os ângulos de atitude da câmara em
relação a um dado referencial, bem como a distância focal da imagem
resultante. Tal fato pode ser evidenciado mais claramente na Figura 7.1.
Figura 7.1 – Imagem original, com suas devidas inclinações e imagem retificada de modo a não es-tar
rotacionada. Note-se que, no processo de retificação, a escala da imagem poderá ser alterada.
7.1
No caso da fotogrametria aérea/orbital, ou seja, a fotogrametria
com vistas ao mapeamento em larga escala, interessa transformar as
imagens em perfeitamente verticais, ou seja: eliminar os ângulos φ e ω,
gerando, então, imagens perfeitamente verticais. Vale lembrar que, para
imagens aéreas, φ e ω devem ser menores que 5o. Caso se queira, pode-
se alterar além dos ângulos já citados, o ângulo de deriva κ e a distância
focal da imagem, o que serve para uniformizar todas as imagens de um
mesmo vôo (ou mesmo de vôos diferentes).
O objetivo primordial da retificação para a fotogrametria
aérea/orbital é gerar uma nova imagem vertical sem as distorções
introduzidas pela atitude do sensor durante a tomada da imagem. A
imagem resultante poderá, inclusive, está isenta dos erros de
deslocamento devido ao relevo. Nessa hipótese, deve-se realizar o
processo da ortorretificação.
A retificação é orientada à imagem, sendo necessário o
conhecimento dos parâmetros de orientação interior e exterior da mesma.
A seguir serão apresentados alguns dos métodos matemáticos mais
utilizados para este fim.
7.2 MODELOS MATEMÁTICOS
Existem basicamente duas formas para a realização das operações
de retificação, a saber: transformações (afim, polinomial, projetiva, etc.) e
princípio da colinearidade.
7.2.1 TRANSFORMAÇÃO AFIM
A já conhecida transformação afim também pode ser utilizada para
a retificação aproximada de uma imagem. Consiste em, conhecendo-se
as coordenadas de, no mínimo três pontos não-colineares no sistema de
7.2
coordenadas da imagem inicial e no sistema de coordenadas da imagem
final, através de um ajustamento pelo método paramétrico, calcular os
coeficientes de transformação entre ambos os sistemas. Tais coeficientes
são a0, a1, a2 e b0, b1, b2. A formulação da transformação afim é a
seguinte:
x = a0 + a1 . x' + a2 . y' (7.1)
y = b0 + b1 . x' + b2 . y' (7.2)
(x, y) representa o sistema de coordenadas de imagem final,
enquanto (x', y') é o sistema de imagem inicial.
Neste caso, deseja-se corrigir as distorções causadas pela rotação
da câmara em relação a um referencial. Dispõe-se de uma imagem inicial,
em sistema de pixels (discreto) e quer-se chegar a outra imagem digital,
porém retificada. O sistema de coordenadas desta segunda imagem
também é discreto. Sem embargo, pode-se reescrever as equações (7.1)
e (7.2) como:
coluna = a0 + a1 . coluna' + a2 . linha' (7.3)
linha = b0 + b1 . coluna' + b2 . linha' (7.4)
Resta ainda uma condição para executar-se o ajustamento: alguns
pontos de controle (no mínimo três) são necessários. Para estes pontos,
deve-se conhecer suas coordenadas no sistema da imagem retificada.
Uma boa saída é escolher os cantos do objeto a ser retificado, se o
mesmo for retangular. Caso queira-se eliminar totalmente a distorção
causada pela rotação da câmara, esses cantos terão de ser
obrigatoriamente os cantos da imagem retificada, ou seja, as coordenadas
(0,0) ; (0,l); (c,l) e (c,0), onde c e l são valores arbitrados e que devem ser
obtidos aproximadamente caso se deseje manter a proporcionalidade.
Um exemplo que serve para clarificar este modelo de
transformação é o da figura 7.2. Nela, tem-se uma imagem da fachada de
um pequeno edifício, obviamente eivada das distorções convencionais.
Sua representação retificada pode ser vista ao lado. Como a fachada é
7.3
retangular, pode-se utilizar seus cantos como pontos de controle e dizer
automaticamente que estes serão os cantos da imagem final. Para dar
um valor aproximadamente igual à proporção base X altura da fachada à
imagem final, é possível, por exemplo, verificar quanto valem as alturas
(pela direita e pela esquerda) e as bases (embaixo e em cima) do prédio
na imagem distorcida e tirar uma média. Esta foi a estratégia adotada
neste caso, chegando-se ao resultado a seguir.
Figura 7.2 – Imagem original, com suas devidas distorções e imagem retificada de modo a
não estar rotacionada. Os pontos de controle estão marcados com cruzes vermelhas.
Tem-se em mãos, agora, valores de coordenadas de quatro pontos
no sistema da imagem original (obviamente, pois o usuário terá de
escolhê-las) e no sistema da imagem final (no caso da figura 7.2, porque
foram arbitrados os cantos da imagem). Arranjando-se os termos em
forma matricial, chega-se a:
¦coluna1linha1
coluna2linha2
coluna3linha3
coluna4linha4
§=¦1 coluna1' linha1' 0 0 00 0 0 1 coluna1' linha1'1 coluna2' linha2' 0 0 00 0 0 1 coluna2' linha2'1 coluna3' linha3' 0 0 00 0 0 1 coluna3' linha3'1 coluna4' linha4' 0 0 00 0 0 1 coluna4' linha4'
§E¦a0a1a2b0b1b2§ (7.5)
7.4
Um ajustamento pelo método paramétrico pode ser realizado,
tendo, como valores finais: a0, a1, a2 e b0, b1, b2 ajustados.
7.2.2 TRANSFORMAÇÃO PROJETIVA
A transformação projetiva é expressa da seguinte forma:
x =c11 x'Ac12 y'Ac13
c31 x'Ac32 y'A1 (7.6)
y =c21 x'Ac22 y'Ac23
c31 x'Ac32 y'A1 (7.7)
Esta transformação requer quatro pontos de controle no mínimo
para sua execução. Outro inconveniente da mesma é que ela mapeia
planos em planos, sendo desaconselhável para a retificação de
superfícies tridimensionais (um terreno, por exemplo). Para superfícies
planas, ou aproximadamente planas (uma fachada “bem-comportada”, por
exemplo), ela chega a apresentar melhores resultados finais que a
transformação afim.
7.2.3 OUTRAS TRANSFORMAÇÕES
Ao invés de se utilizar a transformação afim, pode-se escolher
modelos menos completos (isto é, que modelam menos parâmetros,
porém, que exigem menos pontos de controle), facilitando o esforço
computacional do ajustamento por mínimos quadrados. Como exemplos,
citam-se as transformações isogonal e ortogonal.
Polinômios de maior ordem também podem ser empregados,
porém, deve-se ter em mente que estes implicarão em maior volume de
cálculos, e também em não-linearidade do modelo a ser ajustado.
7.5
7.2.4 CONSIDERAÇÕES SOBRE AS TRANSFORMAÇÕES
MATEMÁTICAS APRESENTADAS
As transformações já citadas são de uso e implementação
relativamente simples. Porém, é claro que estas não modelam de forma o
mais eficaz possível o problema da retificação, uma vez que elas não têm
como variáveis ou injunções os valores dos ângulos de rotação aos quais
a câmara foi submetida.
Explica-se: no caso da retificação, é de interesse a eliminação (ou
modificação) das distorções causadas por tais ângulos. Entretanto,
nessas transformações, não se modelam tais ângulos. O que se faz é
uma correção aproximada dos mesmos. Assim, para uma retificação mais
acurada, faz-se necessária a entrada de tais valores no ajustamento.
7.2.5 EQUAÇÃO DA COLINEARIDADE
Neste caso, utiliza-se o princípio da colinearidade, já utilizado
anteriormente (Capítulo 5) para a orientação exterior e o ajustamento,
porém, com alguns coeficientes modificados, de modo a adequar-se ao
problema aqui proposto.
As equações são as seguintes:
xN=BfN
r11 xpAr12 ypBr13 fp
r31 xpAr32 ypBr33 fp
(7.8)
yN=BfN
r21 xpAr22 ypBr23 fp
r31 xpAr32 ypBr33 fp
(7.9)
Na figura 7.3, encontram-se identificadas graficamente as variáveis
envolvidas:
O sistema xp, yp e fp pertence à imagem não retificada, sendo fp a
7.6
distância focal com a qual ela foi obtida.
O sistema xN, yN e fN equivale à imagem retificada, sendo, em geral
utilizado fN igual a fp, porém não necessariamente há que se seguir tal
convenção.
Observa-se que a cada ponto da imagem original, corresponde um
outro na imagem retificada. Os valores da matriz de rotação modelam as
rotações entre os eixos. Em geral, se usa para estes valores os mesmos
ângulos de atitude da câmara, de modo a eliminá-los na imagem final.
Nada impede, entretanto, que sejam utilizados outros, de modo a se criar
uma imagem com inclinação específica.
Figura 7.3 – Princípio da colinearidade para a retificação de imagens
A partir daí, segue um ajustamento por mínimos quadrados,
7.7
utilizando-se o método paramétrico não-linear, tendo, como resultados, os
valores ajustados dos coeficientes de transformação entre os dois
sistemas. Um problema, porém, continua a existir: embora seja modelada
uma transformação onde x e y possam assumir valores reais, o espaço
representado deve ser discreto (pixels). Assim, de modo a exibir, na
imagem final, a distribuição radiométrica mais adequada possível, diversos
métodos de reamostragem dos níveis de cinza dos pixels são necessários.
A seguir, serão vistos alguns deles.
7.3 REAMOSTRAGEM
O grande problema da reamostragem encontra-se, como já dito, na
determinação exata do tom de cinza a ser destinado aos pixels da nova
imagem. Como exemplo, um determinado pixel, que encontra-se na
coluna 430 e linha 289 possui o nível de cinza igual a 17. De acordo com
a transformação utilizada para executar a retificação, a posição
equivalente deste ponto (430; 289) na nova imagem deve ser (427,35;
288,78). A figura 7.4 demonstra graficamente, a situação apresentada.
Como apresentado, a imagem original encontra-se com seu grid de
pixels em vermelho-escuro. Já a nova imagem encontra-se representada
através do quadriculado azul-marinho sobreposto. Essa representação
gráfica demonstra claramente o problema decorrente da transformação
utilizada para retificar uma imagem e os inconvenientes decorrentes da
dos eventuais resultados a serem obtidos. Neste caso, vê-se que o pixel
de nível de cinza 17 da imagem original deve influenciar
radiometricamente ao menos outros quatro da imagem retificada (colunas
427 e 428 e linhas 288 e 289). A reamostragem, neste caso, faz-se
necessária para que os novos pixels tenham a cor que deveriam ter por
estarem em tal posição. Vários métodos então, foram desenvolvidos para
realizar esta correspondência. Os mais utilizados são: vizinho mais
próximo, interpolação bilinear, splines bicúbicas e polinômios de Lagrange,
conforme citado em (Andrade, 1998).
7.8
Figura 7.4 – O problema da reamostragem: compatibilizar a radiometria da imagem original
para uma nova distribuição de pixels
7.3.1 REAMOSTRAGEM POR VIZINHO MAIS PRÓXIMO
Este método apenas atribui o valor do nível de cinza de
determinado pixel da imagem reamostrada ao pixel da imagem original
que estiver mais próximo. Trata-se então, apenas de um arredondamento.
Para o caso anteriormente citado, o pixel (427; 289) – que é o
arredondamento de (427,35; 288,78) – da imagem final receberá o nível
de cinza (tonalidade) igual a 17. Este método possui 0,5 pixel de erro, e
isso leva a descontinuidades na imagem reamostrada. Algumas de suas
vantagens, segundo (Novo, 1992) são seu rápido processamento e fácil
implementação. Além disso, esta reamostragem não altera os valores
radiométricos da imagem original.
(Andrade, 1998) apresenta tal método na forma de equações, de
7.9
modo a facilitar a pronta utilização em implementações computacionais.
As mesmas foram transcritas a seguir:
A'(k,l) = A(i,j) para dx P 0,5 e dy P 0,5 (7.10)
A'(k,l) = A(i+1,j) para dx U 0,5 e P 0,5 (7.11)
A'(k,l) = A(i,j+1) para dx P 0,5 e dy U 0,5 (7.12)
A'(k,l) = A(i+1,j+1) para dx U 0,5 e dy U 0,5 (7.13)
A notação empregada (e que será adotada também nas equações
para os outros métodos) é a seguinte:
“A'” é o valor reamostrado do pixel;
“A” é o valor do pixel na imagem original;
“dx” e “dy” são os valores calculados, em números reais, das coordenadas
definidoras da posição de um pixel (na imagem a ser reamostrada) e os
seus valores inteiros menores.
7.3.2 REAMOSTRAGEM POR INTERPOLAÇÃO BILINEAR
O valor do nível de cinza, neste método, será determinado a partir
dos quatro pixels da imagem inicial que a ele são vizinhos.
Com este método, segundo (Novo, 1992), haverá uma maior
precisão geométrica e o desaparecimento de descontinuidades.
Entretanto, há que se considerar o maior processamento de cálculos e a
alteração dos valores de níveis de cinza da imagem original.
Segue a fórmula contida em (Andrade, 1998).
A(k,l) = A(i,j) + dx [A(i+1,j) – A(i,j)] + dy [A(i,j+1) – A(i,j)] + (7.14)
+ dx dy [A(i,j) – A(i+1,j) – A(i,j+1) + A(i+1,j+1)]
7.10
7.3.3 REAMOSTRAGEM POR MÉTODOS DE VIZINHANÇA 4 X 4
PIXELS
Estes métodos apresentam um resultado de melhor visualização,
incorrendo em menos erros de interpolação. Entretanto, recaem em
cálculos muito mais complexos, uma vez que utilizam cálculos envolvendo
os tons dos 16 pixels vizinhos, além de terem, obviamente, a modificação
dos tons da imagem original.
(Andrade, 1998) apresenta as formulações para os métodos de
splines bicúbicas e polinômio de Lagrange. As mesmas são inteiramente
transcritas a seguir.
Para splines bicúbicas:
Primeiro, define-se uma função “df(x)”:
df(x) = |x|3 – 2 |x|2 +1, se |x| P 1
df(x) = –|x|3 + 5 |x|2 – 8 |x| + 4, se 1 T |x| P 2 (7.15)
df(x) = 0, se x U 2
E uma outra função “a(n)”:
a(n) = df(dx+1)*A(i–1,j+n–2) + A(i,j+n–2)*df(dx) + (7.16)
+ A(i+1,j+n-2)*df(dx–1) + A(i+2,j+n–2)*df(dx–2)
Por fim, “A'(k,l)” equivale a:
A'(k,l) = a(1) df(dy+1) + a(2) df(dy) + a(3) df(dy–1) +a(4) df(dy-2) (7.17)
Para polinômio de Lagrange:
7.11
a(n) = A(i–1,j+n–2)*(dx–1)*(dx–2)*dx/(–6) +
+ A(i,j+n–2)*(dx+1)*(dx–1)*(dx–2)/2 + (7.18)
+ A(i+1,j+n–2)*(dx+1)*(dx–2)*dx/(–2) +
+ A(i+2,j+n–2)*(dx+1)*(dx–1)*dx/6
A(k,l) = a(1)*(dy–1)*(dy–2)*dy/(-6) +
+ a(2)*(dy+1)*(dy–1)*(dy–2)/2 + (7.19)
+ a(3)*(dy+1)*(dy–2)*dy/(–2) +
+ a(4)*(dy+1)*(dy–1)*dy/6
(Stucki, 1979) apud (Andrade, 1998) apresenta um quadro
comparativo quanto aos erros e número de operações matemáticas
envolvidos nos quatro processos apresentados. Esta informação está
contida na tabela 7.1
Método Vizinhança Operações de
adição e
multiplicação
Erros de
interpolação
Vizinho mais
próximo1x1 1 15,70%
Interpolação
bilinear2x2 8 3,70%
Splines bicúbicas 4x4 110 0,30%
Polinômio de
Lagrange4x4 80 quase 0
Tabela 7.1 – Métodos de reamostragem (fonte: Stucki, 1979 apud Andrade, 1998)
7.4 NORMALIZAÇÃO DE IMAGENS
Outro processo extremamente útil é a normalização de imagens.
Diferentemente da retificação, que é feita imagem a imagem, a
normalização é “orientada” ao par estereoscópico, porém sem restringir-se
7.12
à área de superposição das imagens.
O objetivo principal da normalização é gerar um novo par de
imagens digitais que se adeqüe à assim chamada geometria epipolar.
Normalmente, um par estereoscópico não está adequado à
geometria epipolar. Cada imagem está eivada de ângulos de rotação
diferentes da outra, além de estarem deslocadas em Y e em Z. Como
visto na figura 7.5, embora as linhas que se originam dos centros
perspectivos, passando pelos pontos p e p' se encontrem no ponto P (no
terreno), não se pode dizer que C', C, p', p e P estejam em um mesmo
plano. Da mesma forma, observa-se que p e p' não se encontram na
mesma linha em cada uma das imagens. Isso dificultaria bastante caso
fosse realizado um processo de correlação automática, uma vez que a
janela de procura na segunda imagem deveria ser bastante grande,
ampliando o tempo de processamento. Some-se a isso o não paralelismo
entre a linha que une os dois centros de perspectiva e os sistemas de
coordenadas (x, y, z) de cada um dos centros de perspectiva.
A geometria epipolar é materializada pela presença de um plano
epipolar e de linhas epipolares. O plano epipolar é definido pelos dois
centros de perspectiva das imagens e por um ponto no espaço objeto (P).
Na figura 7.6, encontra-se representado em verde claro. As linhas
epipolares são as interseções do plano epipolar com os planos das
imagens normalizadas. Uma linha epipolar está representada em azul-
marinho na mesma figura.
Dessa forma, normalizar um estereopar é torná-lo compatível com a
geometria epipolar, seguindo, então, a configuração demonstrada na
figura 7.6. Pode-se ver que, para um par normalizado, C', C, p', p e P
estão em um mesmo plano, os pontos p e p' estão na mesma linha, tanto
na imagem direita quanto na esquerda. Ainda vê-se que as linhas
epipolares encontram-se paralelas aos sistemas de coordenadas
centrados nos centros de perspectiva. Uma situação ideal como essa
permite muito mais facilmente a execução de algoritmos de localização
automática de pontos homólogos, uma vez que ambos devem estar em
uma mesma linha, diminuindo a área de procura na segunda imagem.
Para adequar um par à geometria epipolar, se faz necessário
7.13
eliminar todos os ângulos de atitude da aeronave (convém lembrar que
para a retificação, apenas φ e ω obrigatoriamente deveriam ser zerados).
Além disso, os componentes de base BY e BZ do par também devem ser
eliminados, para que ambas as imagens estejam em uma mesma altura e
com seus pontos homólogos em uma mesma linha (linha epipolar). É
importante dizer que BX não é eliminado. Eliminar BX (base
fotogramétrica) seria equivalente ao ato de colocar uma imagem sobre a
outra, impossibilitando completamente a possibilidade de se tirar proveito
das condições geométricas advindas do princípio da colinearidade e da
geometria epipolar. Por isso, apenas a distância em X relativa entre uma
imagem e a outra deve ser mantida, qualquer outro tipo de movimento
não.
Figura 7.5 – Um par esteroscópico não-normalizado (note-se a não-coplanaridade de
C',C,p',p e P e a localização em linhas diferentes de p e p')
Caso ainda seja necessário, uma rotação adicional ainda pode ser
executada, a fim de otimizar a reamostragem para a geometria epipolar.
O produto final, embora dotado de uma rigidez geométrica muito boa,
7.14
ainda não elimina o deslocamento devido ao relevo (como já dito, apenas
a ortorretificação é capaz de realizar tal tarefa).
Figura 7.6 – Um par esteroscópico normalizado (note-se a coplanaridade de C',C,p',p e P e
a localização na mesma linha de p e p')
7.4.1 MODELO MATEMÁTICO
O processo da normalização envolve um modelo matemático que
pode ser melhor representado matricialmente.
A equação da normalização pode ser sucintamente representada
por:
RN = RB . RT (7.20)
Onde “RB” equivale a RΩ Rφ Rκ (não se deve confundir com “R”, que é a
matriz de rotação: R = Rφ Rω Rκ).
7.15
Na figura 7.7, ficam melhor evidenciadas as relações matemáticas
entre os componentes de base do par estereoscópico. Com elas, pode-se
calcular RΩ, até então desconhecido.
Figura 7.7 – Um par esteroscópico normalizado e seus correspondentes não-normalizados,
referenciados a um sistema cartesiano (livre adaptação de Digital Photogrammetry - An
Addendum to the Manual of Photogrammetry)
Note-se os triângulos retângulos em violeta. Seus lados são
paralelos aos eixos do sistema cartesiano, e representam os componentes
de base BX, BY e BZ (ou seja, a diferença entre X' e X, Y' e Y e Z' e Z).
Os ângulos relativos κ e ω também estão representados.
Por relações trigonométricas:
Ú=arctg¢BYBX£ (7.21)
Ú=Barctg¢ BZ
BX2ABY2£ (7.22)
7.16
Ω será igual à média aritmética entre ω1 e ω2:
Ð=è1Aè2
2 (7.23)
Um exemplo de algoritmo de reamostragem por geometria epipolar
foi desenvolvido na The Ohio State University. O algoritmo de Schenk-
Choo constitui-se em uma transformação do tipo:
T4 = T3(T2(T1(linhai, colunaj)[epipolar])) (7.24)
Figura 7.8 – Proposta de algoritmo de Shenck-Choo
(retirada de Choo, Schenk, Madani, 1992)
Cada um destas transformações tem seu significado próprio, a saber:
T1: Constitui-se na transformação entre imagem digital e analógica
7.17
correspondentes.
T2: Normalização da imagem analógica (ou seja, retificação aliada à
eliminação dos componentes de base.
T3: Definição do sistema de coordenadas para a imagem epipolar.
T4: Transformação entre a imagem epipolar vazia e a imagem digital
origial para a reamostragem dos níveis de cinza (o algoritmo parte de uma
imagem em branco e sobre ela executa a reamostragem). A figura 7.8
mostra graficamente tal conjunto de operações.
7.5 CONCLUSÃO
A retificação (eliminação das distorções causadas pelos ângulos de
atitude da câmara) e a normalização (eliminação dos ângulos e
componentes de base BX e BY) de imagens permitem a preparação das
imagens propriamente ditas para a execução de outras tarefas
fotogramétricas. Pode-se dizer, inclusive, que este capítulo marca o fim
das tarefas de preparação das imagens para extração de informações. A
partir dele, todas as tarefas seguintes gerarão produtos-fim da
fotogrametria, tais como: modelos digitais do terreno - MDT's, originais de
restituição fotogramétrica, fotocartas, ortoimagens e ortofotocartas.
Outro fato a ser ressaltado quanto à normalização de imagens é a
aplicação destinada primariamente à extração semi-automática de MDT's
(objeto de análise mais profunda no capítulo a seguir). Isso, no entanto,
não impossibilita a utilização de pares normalizados, por exemplo, em
outras aplicações. Os próprios MDT's também podem ser gerados de
forma manual, a partir de pares não-normalizados, e ainda o são com
freqüência. Assim, em caso de economia orçamentária ou de tempo, essa
etapa pode ser descartada sem maiores prejuízos à linha de produção
cartográfica.
A retificação (eliminação das distorções causadas pelos ângulos de
atitude da câmara) já possuiu maior relevância na época da fotogrametria
analógica e analítica, no entanto, hoje em dia, com a maior facilidade na
7.18
produção de ortoimagens e ortomosaicos, a retificação pura e simples não
tem sido mais tão empregada, podendo, inclusive, não ser efetuada caso
não haja necessidade de uso da mesma. Reserva-se a ela,
principalmente, a utilização em fotogrametria com fotos oblíquas, a curta
distância ou com câmaras não-métricas.
REFERÊNCIAS BIBLIOGRÁFICAS
Albertz, J; Kreiling, Walter. Photogrammetric Guide. Karlsruhe. Wichmann, Alemanha: 1989.
Altan, Orhan; Toz, Gönül; Seker, Dursun. Photogrammetry – Lecture Notes. Istanbul Technical
University. 1a Ed. Turquia: 2002.
Andrade, J. Bittencourt de. Fotogrametria. Ed. SBEE. Curitiba, Brasil: 1998.
Augusto, Eduardo Gurgel Garcia. Determinação Automática dos Parâmetros da Orientação
Exterior de uma Imagem Fotogramétrica Digital – Trabalho de Tópicos Especiais em
Engenharia Cartográfica. Instituto Militar de Engenharia. Rio de Janeiro, Brasil: 1999.
Augusto, Eduardo Gurgel Garcia. Normalização de Estereogramas e sua Aplicação na Geração de
Modelos Numéricos de Elevação. Dissertação (Mestrado em Engenharia Cartográfica).
Instituto Militar de Engenharia. Rio de Janeiro, Brasil: 1999.
Brito, Jorge Luís Nunes e Silva; Prado, Walter da Silva; Augusto, Eduardo Gurgel Garcia.
Estágio de Fotogrametria Digital para Engenheiros Cartógrafos - Notas de Aula. Instituto
Militar de Engenharia. Rio de Janeiro, Brasil: 1999.
Brito, Jorge Luís Nunes e Silva. Precision of Digital Orthoimages: Assessment and Application to
the Occlusion Detection Problem. The Ohio State University. Columbus, Estados Unidos:
1997.
Choo, W.; Schenk, T.; Madani, M. Resampling Digital Imagery to Epipolar Geometry. The Ohio
State University. Columbus, Estados Unidos: 1992.
Digital Photogrammetry - An Addendum to the Manual of Photogrammetry. The American Society
for Photogrammetry and Remote Sensing. Bethesda, MA, Estados Unidos: 1997.
Gemael, Camil. Introdução ao Ajustamento de Observações. Ed. UFPR. Curitiba, Brasil: 1994.
Kraus, Karl. Photogrammetry - Fundamentals and Processes. Volume 1, 4a Ed. Ferg, Dummler
Verlag. Bonn, Alemanha: 1999.
Novo, Evlyn. Sensoriamento Remoto: Princípios e Aplicações. Editora Edgard Blücher. 2a Ed.
São Paulo, Brasil: 1992.
Schenk, Toni. Digital Photogrammetry – Volume I. TerraScience. 1a Ed. Estados Unidos:
1999.
The Fundamentals of Digital Photogrammetry. ISM International Systemap Corporation.
Vancouver, Canadá: 2000.
7.19
8. GERAÇÃO DE MODELOS NUMÉRICOS
DE ELEVAÇÕES
8.1 CONCEITO INICIAL
A modelagem digital do terreno é um conceito relativamente novo.
As pesquisas iniciais nesta área são creditadas ao Professor Charles L.
Miller, do Massachussets Institute of Technology (MIT), tendo como
objetivo principal a execução de projetos de estradas auxiliados por
computação. Nele, eram criados modelos altimétricos do terreno a partir
de pontos de altitudes obtidas por métodos fotogramétricos, espaçados a
intervalos regulares.
Hoje em dia, o conceito de mapeamento em geral envolve o
conceito de modelos digitais de superfícies, em particular a do relevo
terrestre, e não mais apenas o traçado de curvas de nível analógicas
sobre uma base de poliéster. O modelo digital de superfícies (MDS) pode
ser definido como qualquer representação numérica para uma
determinada superfície física (relevo, por exemplo) do terreno a ser
representada (Brito, Prado, Augusto, 1999).
Desse modo, um MDS pode exprimir vários tipos de atributos, tais
como: temperatura, pressão, declividade, entre outros; além, é claro, da
altitude. Quando um MDS exprime altitudes, chama-se “modelo numérico
de elevações (MNE)” ou “modelo digital de elevações” (MDE – em inglês:
DEM / Digital Elevation Model).
Os processos fotogramétricos extraem, geralmente, altitudes ou
8.1
alturas. Por isso, neste capítulo, será tratada a extração de modelos
numéricos de elevações apenas.
Figura 8.1 – Exemplo de MNE em vista de topo e perspectiva isométrica
8.2 AQUISIÇÃO DE DADOS PARA MODELOS NUMÉRICOS DE
ELEVAÇÕES
Existem várias fontes de dados para se obter as altitudes para a
elaboração de um MNE. Um dos primeiros métodos adotados era a
digitação das coordenadas de determinados pontos, obtidos por inspeção
na carta ou provenientes da aerotriangulação. Obviamente, como se trata
de uma abordagem muito pouco prática e altamente passível de erros,
não veio a se popularizar.
Outro método, este ainda hoje utilizado, é a digitalização de cartas
em papel através de mesa digitalizadora (Figura 8.2). Este aparelho
possui um transdutor, com um cursor, que transfere as coordenadas
planimétricas do mapa que está sobre a superfície da mesa. Percorrendo-
se uma curva de nível com o cursor, pode-se obter as coordenadas
planimétricas de pontos situados sobre a curva. Assim, um documento
cartográfico analógico pode ser digitalizado a partir desses
procedimentos.
Nos dias atuais, um terceiro método está sendo bastante
empregado: é a aquisição de dados via GPS em método cinemático ou
semi-cinemático (Figura 8.3). Percorre-se o terreno com a antena portátil,
8.2
ligada a um coletor de feições – e, ao fim, descarregam-se os dados para
seu pós-processamento. Este método é aplicável apenas em pequenas
extensões de terreno, sendo, mesmo assim, empregado em extensões
maiores, na maioria dos casos pelo desconhecimento dos métodos
fotogramétricos, muito mais práticos.
Figura 8.2 – Extração por mesa digitalizadora (fonte: Esteio Aerolevantamentos)
Figura 8.3 – Coleta de pontos tridimensionais (imagem disponível em:
http://gauss.gge.unb.ca/images/OTF_survey/)
O último dos métodos de geração de MNE's, que é o propósito
principal deste capítulo é o método de extração fotogramétrica digital. É,
seguramente, o mais prático, pois pode ser realizado em boa parte dentro
de gabinete, sendo justificável a ida a campo apenas para coleta de
pontos de controle.
Os dados, podem ser adquiridos de acordo com várias formas de
8.3
aquisição, tais como: dispersa, semi-regular ou regular (Figura 8.4).
A forma dispersa não segue qualquer ordem de aquisição. Os
pontos são adquiridos livremente no espaço a ser representado no MNE.
A forma semi-regular segue algum arranjo específico, sem, no
entanto, possuir espaçamento constante entre os pontos. Exemplos de
aquisição semi-regular podem ser a coleta de curvas de nível via mesa
digitalizadora, ou a coleta de pontos de um sistema viário por GPS.
A forma regular é aquela em que todos os pontos estão igualmente
espaçados em X e Y. Só pode ser conseguida por meio de métodos de
fotogrametria analítica ou digital. Sua principal importância reside no fato
de se obter os pontos já arranjados em forma de grade regular.
Figura 8.4 – Formas de aquisição
8.3 TIPOS DE GRADE DE UM MDT
Antes de seguir adiante com a descrição da aquisição por métodos
fotogramétricos, convém descrever os dois principais tipos de grade
utilizados em modelagem digital do terreno (Figura 8.5).
Figura 8.5 – Tipos de grade
8.4
A grade regular (Figura 8.6) pode ser obtida tanto por aquisição
regular quanto por interpolação. Sua principal vantagem é o fato de, dado
seu arranjo regular, poder ser armazenada e representada sem maior
esforço computacional. Entretanto, como em geral é advinda de
interpolação, perde-se a precisão dos pontos originais. A grade regular
também não permite a inserção de linhas de quebra (breaklines), o que
impede que certas feições descontínuas (como rios, estradas, etc.) sejam
representadas fielmente.
Figura 8.6 – Exemplo de grade regular, em vista isométrica
A rede triangular irregular (triangular irregular network), ou TIN
(Figura 8.7), é composta pelos pontos originais, ligados três a três,
formando triângulos irregulares, porém, com propriedades matemáticas
bem definidas (Brito, 2002).
Figura 8.7 – Exemplo de TIN, vista de topo
8.5
O modo como se ligam os pontos é determinado por um algoritmo
chamado “triangulação de Delaunay”, que liga determinado ponto apenas
a seus vizinhos (o conceito de vizinhança está intrinsecamente ligado ao
próprio algoritmo, fugindo do escopo deste texto. Cabe aqui apenas
ressaltar que os triângulos formados tão próximos de triângulos
equiláteros quanto possível).
8.4 EXTRAÇÃO FOTOGRAMÉTRICA DE UM MNE
A maior parte dos métodos empregados na extração do modelo de
elevações já é conhecida e foi descrita nos capítulos anteriores. Resta
apenas enunciar a seqüência de passos a serem seguidos, bem como os
principais problemas envolvidos neste processo e as estratégias
diferenciadas para variadas situações.
Primeiramente, as imagens devem ser convertidas para o meio
digital, e, de modo a realizar uma conversão do sistema digital para o
sistema de câmara; a tarefa seguinte deve ser a orientação interior da
imagem (Capítulo 3).
Uma vez concluída a orientação interior, realiza-se a orientação
exterior, por resseção espacial (Capítulo 5), ou pelos métodos
convencionais de paralaxe, realizando-se separadamente a orientação
relativa e a absoluta. O importante, ao fim desta etapa, é obter os
parâmetros da orientação exterior, ou seja: a posição tridimensional do
centro de perspectiva e os ângulos de atitude da câmara, em cada uma
das imagens adquiridas.
A tarefa seguinte não é obrigatória; porém, para o caso de extração
automática é indispensável: trata-se da normalização do par
estereoscópico (Capítulo 7). Esta operação otimiza o algoritmo de
localização automática de pontos homólogos, os quais devem situar-se
sobre uma mesma linha epipolar. Assim, a janela de procura pode ser
bastante reduzida. A figura 8.8 ilustra este caso.
A partir daí, dá-se a extraçào dos pontos tridimensionais
8.6
propriamente ditos. Nas formas dispersa e semi-regular, o usuário, caso
disponha de um sistema de visão estereoscópica, localiza os pontos
homólogos e, a partir daí, realiza-se a extração manual.
No caso da extração semi-automática, os pontos homólogos são
localizados por correlação. A partir de um determinado ponto no terreno,
sabendo-se a sobreposição entre as imagens, define-se uma janela de
procura na imagem conjugada. Esta janela de procura será bastante
reduzida, pois as imagens foram normalizadas (Figura 8.8). Encontrando-
se o homólogo, segue-se com o processo, repetindo a localização dos
pontos, dado um espaçamento pré-definido pelo operador.
Figura 8.8 – Vantagem da normalização do esteropar: como os pontos homólogos
localizam-se na mesma linha epipolar, a janela de procura (em verde) é bem menor,
permitindo a localização automática de pontos homólogos com tempo de computação
considerávelmente menor
Após a grade de homólogos identificada, segue-se corrigindo os
lugares onde a correlação não funcionou (ex.: áreas de oclusão, sombras,
paralaxe de objetos altos). Findas estas correções, realiza-se a
interseção espacial em cada um deles, chegando-se, ao final, às
coordenadas tridimensionais para um conjunto de pontos, arranjados em
8.7
grade (regularmente).
Por fim, caso se queira inserir linhas de quebra, estas podem ser
restituidas, seguindo-se a forma de aquisição semi-regular, já descrita
anteriormente. Pesquisas têm sido conduzidas com o objetivo de se
reconhecer automaticamente determinadas feições que seguem certa
simetria (como nuvens, estradas, prédios, rios e outros tipos de acidentes
naturais e obras de edificação), porém, estas ainda não implicaram em
soluções totalmente automáticas, de eficácia comprovada.
8.5 PROBLEMAS DA EXTRAÇÃO AUTOMÁTICA DO MNE
Um problema que surge de imediato é a definição do espaçamento
dos pontos da grade, bem como a direção que esta deve seguir. Este
espaçamento deve ser definido previamente, seguindo os parâmetros
definidos para o projeto, tais como escala, resolução geométrica da
imagem, parâmetros de qualidade do MNE gerado e o tipo de terreno.
Terrenos planos não exigem uma densidade muito grande de pontos. Já
terrenos acidentados precisam de um número de pontos tão grande
quanto possível.
Uma estratégia para terrenos heterogêneos, isto é, que possuem
áreas planas, onduladas e acidentadas ao mesmo tempo é a sua divisão
em várias áreas homogêneas, a extração dos respectivos MNE's (cada
qual seguindo a densidade de pontos mais adequada para a área em
questão) e a junção posterior dos MNE's, que pode ser realizada através
de software específico. Esta solução, bastante elegante, maximiza a
acurácia e precisão do modelo gerado, e minimiza o espaço em disco que
este virá a ocupar.
Um outro grande problema envolve as áreas onde a correlação
falha (já citadas no tópico 8.4). Neste caso, a única solução cabível é a já
citada “extração manual”.
8.8
8.6 CONCLUSÃO
A modelagem digital do terreno é uma área do conhecimento que
cresceu bastante nos últimos tempos. Suas aplicações nas várias áreas
do conhecimento que exigem uma visualização tridimensional do terreno
são cada vez mais exigidas e bem aproveitadas. Em conseqüência, cada
vez mais refinam-se os métodos fotogramétricos de extração de modelos
numéricos de elevações, uma vez que, desconsiderando tecnologias mais
recentes e ainda pouco utilizadas (como radares aerotransportados e
laser-scanning), é a que implica em menor trabalho de campo, e,
obviamente, menor esforço logístico.
Os algoritmos empregados para a determinação das altitudes não
são novos para o leitor que vem acompanhando os capítulos anteriores,
porém, na extraçào de MNE's, a metodologia de uso dos mesmos segue
um modelo diferente, totalmente voltado a esta atividade. Isso justifica a
abordagem aqui descrita, pois cada vez mais a fotogrametria encaminha-
se para a produção de ortoimagens e ortofotocartas (que exigem modelos
numéricos de elevações para serem realizadas) – e que serão
examinadas mais a fundo no capítulo subseqüente.
REFERÊNCIAS BIBLIOGRÁFICAS
Albertz, J; Kreiling, Walter. Photogrammetric Guide. Karlsruhe. Wichmann, Alemanha:
1989.
Altan, Orhan; Toz, Gönül; Seker, Dursun. Photogrammetry – Lecture Notes. Istanbul
Technical University. 1a Ed. Turquia: 2002.
Andrade, J. Bittencourt de. Fotogrametria. Ed. SBEE. Curitiba, Brasil: 1998.
Augusto, Eduardo Gurgel Garcia. Determinação Automática dos Parâmetros da
Orientação Exterior de uma Imagem Fotogramétrica Digital – Trabalho de
Tópicos Especiais em Engenharia Cartográfica. Instituto Militar de Engenharia.
Rio de Janeiro, Brasil: 1999.
Augusto, Eduardo Gurgel Garcia. Normalização de Estereogramas e sua Aplicação na
Geração de Modelos Numéricos de Elevação. Dissertação (Mestrado em
8.9
Engenharia Cartográfica). Instituto Militar de Engenharia. Rio de Janeiro, Brasil: 1999.
Brito, Jorge Luís Nunes e Silva; Prado, Walter da Silva; Augusto, Eduardo Gurgel Garcia.
Estágio de Fotogrametria Digital para Engenheiros Cartógrafos - Notas de Aula.
Instituto Militar de Engenharia. Rio de Janeiro, Brasil: 1999.
Brito, Jorge Luís Nunes e Silva. Modelagem Digital do Terreno. Instituto Militar de
Engenharia. Rio de Janeiro, Brasil: 2002.
Brito, Jorge Luís Nunes e Silva. Precision of Digital Orthoimages: Assessment and
Application to the Occlusion Detection Problem. The Ohio State University.
Columbus, Estados Unidos: 1997.
Choo, W.; Schenk, T.; Madani, M. Resampling Digital Imagery to Epipolar Geometry.
The Ohio State University. Columbus, Estados Unidos: 1992.
Digital Photogrammetry - An Addendum to the Manual of Photogrammetry. The
American Society for Photogrammetry and Remote Sensing. Bethesda, MA, Estados
Unidos: 1997.
Kraus, Karl. Photogrammetry - Fundamentals and Processes. Volume 1, 4a Ed. Ferg,
Dummler Verlag. Bonn, Alemanha: 1999.
Schenk, Toni. Digital Photogrammetry – Volume I. TerraScience. 1a Ed. Estados
Unidos: 1999.
The Fundamentals of Digital Photogrammetry. ISM International Systemap Corporation.
Vancouver, Canadá: 2000.
8.10
9. GERAÇÃO DE ORTO-IMAGENS
9.1 CONCEITO INICIAL
Com os conhecimentos acumulados até aqui, o nome “orto-
imagem” traz à tona uma definição simples para o tema: “imagens em
perspectiva ortogonal”. As imagens adquiridas por câmaras
convencionais encontram-se em perspectiva central, com os inúmeros
raios de luz advindos de diferentes pontos imageados, passando por um
só ponto (centro de perspectiva), localizado no sistema óptico da câmara
(Figura 9.1). Ao conjunto destes raios, chama-se feixe perspectivo.
Figura 9.1 – Princípio dos feixes perspectivos, que guia a projeção central
Obviamente, uma imagem em perspectiva central (Figura 9.2) não
pode ser tomada como fonte de informação métrica segura, uma vez que a
mesma possui erros devido à rotação do sensor e deslocamentos devido
ao relevo, inerente à perspectiva cônica.
Em uma projeção ortogonal, raios ortogonais são projetados a partir
9.1
da região imageada (Figura 9.3). Os raios nunca se encontram, e a
imagem final em um sistema como esse não possui desvios nem
distorções relativos ao relevo.
Figura 9.2 – Imagem da região obtida na figura 9.1. Deve-se notar a diferença entre as
distâncias de um lado do edifício medidas na base ou no topo, que na verdade são
iguais.
Figura 9.3 – Projeção ortogonal e imagem advinda de um sistema hipotético capaz de
registrar tal tipo de perspectiva
A imagem em projeção ortogonal (Figura 9.3), ao contrário da
projeção central, pode ser tomada como um documento cartográfico,
podendo ser empregada em qualquer atividade que demande um mapa ou
carta ou fonte de dados similar.
A perspectiva central, entretanto, não é ruim. Há que se desfazer a
impressão de que esta é um obstáculo, devido à impossibilidade de se
usar imagens isoladas como fontes de dados espaciais. Por exemplo, é a
imagem de perspectiva cônica que traz certas noções básicas de que o
fotogrametrista irá dispor, como luz e sombras, proximidade e distância de
objetos, paralaxe e estereoscopia (Figura 9.4).
9.2
Figura 9.4 – Alguns conceitos advindos da perspectiva central: sombras projetadas por objetos,
diferença de tamanho relativo entre objetos iguais a distâncias diferentes e paralaxe.
A perspectiva central está presente nos fenômenos ópticos que
regem o mundo real, uma vez que o olho humano, bem como fontes de luz
e câmaras podem ser tomados como centros para diversos feixes que
deles partem.
A perspectiva ortogonal é um fenômeno artificial. Assim, para obter
orto-imagens, faz-se necessário realizar uma transformação sobre as
imagens já existentes (em perspectiva central), chamada ortorretificação.
Os primeiros aparelhos capazes de realizar tal operação eram chamados
ortoprojetores. Estes eram aparelhos analógicos que possuíam a
capacidade de aproximar ou afastar a fotografia de acordo com a
aproximação ou afastamento da marca flutuante em relação ao terreno
estereoscópicamente construído. No momento em que a marca estava
posicionada, “encostando” em determinado trecho do terreno, o operador
acionava o disparo de um sistema fotográfico que registrava a imagem de
um pequeno trecho relativo ao ponto alcançado pela marca, e que tinha
determinado o afastamento ou aproximação da fotografia. A junção das
imagens de todos estes pequenos trechos formava a ortofoto.
Obviamente, era um processo demasiadamente demorado e,
conseqüentemente, caro. Isso o tornava extremamente restrito a casos de
9.3
maior necessidade.
Em fotogrametria digital, a ortorretificação é realizada através de
transformações sobre números digitais dos inúmeros pixels das imagens
origem e ortorretificadas. Esta transformação será melhor detalhada no
tópico 9.2.
Por fim, após esta breve introdução sobre a ortorretificação, podem
surgir dúvidas quanto à diferença entre ortorretificação e retificação
(capítulo 7). Pode-se dizer que, a ortorretificação é “um passo a mais”,
pois, além de retirar as distorções relativas à rotação da câmara (como já
é realizado pela retificação), elimina a distorção relativa ao relevo (através
da transformação da perspectiva cônica em ortogonal). É aí que reside a
importância fundamental das orto-imagens, pois em bases de dados para
SIG e documentos cartográficos analógicos e digitais, as imagens
retificadas não se mostram uma opção adequada, pois continuam em
perspectiva central, ainda que se trate de um par normalizado –
reamostrado por geometria epipolar.
9.2 MODELOS MATEMÁTICOS
Há três modelos empregados para a ortorretificação. Os dois
primeiros foram melhor explicados no capítulo que trata da retificação e
normalização de imagens: são a transformação afim / polinomial e a
projetiva. O outro método ainda não abordado nesta publicação é,
contudo, o mais empregado: trata-se da retificação diferencial.
9.2.1 TRANSFORMAÇÃO AFIM
Segue exatamente a mesma formulação apresentada no item 7.2.1.
É empregada quando o centro de perspectiva está bem longe do terreno
imageado (ex.: imagens orbitais). É um método aproximado.
9.4
9.2.2 TRANSFORMAÇÃO PROJETIVA
Esta também utiliza a mesma formulação abordada no item 7.2.2 e
deve ser empregada quando trata-se de uma região bastante plana, como
uma fachada de uma edificação ou um campo de futebol, por exemplo.
Também trata-se de um método aproximado.
9.2.3 RETIFICAÇÃO DIFERENCIAL
É o método mais genérico e por intermédio do qual se obtêm os
melhores resultados. Seu objetivo é gerar uma nova imagem digital em
perspectiva ortogonal, através da reconstrução dos feixes perspectivos.
Para realizá-la, primeiramente, define-se uma “orto-matriz” vazia
sobre o terreno. Essa orto-matriz é associada a uma imagem digital “em
branco” com pixels cujas dimensões são da ordem do elemento de
resolução do terreno (ou seja, o “tamanho real” equivalente a um pixel).
Figura 9.5 – Processo de ortorretificaçào digital por intermédio
da retificação diferencial
Determinam-se as coordenadas tridimensionais conhecidas do
9.5
centro de cada pixel da orto-matriz vazia. Para isso, é indispensável o
conhecimento do modelo numérico de elevações. A partir dessas
coordenadas, por intermédio das equações de colinearidade (parâmetros
da orientação exterior conhecidos), determinam-se as coordenadas no
espaço imagem para aquele ponto. Através dos parâmetros da orientação
interior, chega-se ao pixel correspondente, e, conseqüentemente, ao seu
nível de cinza (ou de cor). Essa tonalidade é, então, reamostrada na
imagem vazia.
Os procedimentos podem ser melhor esquematizados através da
figura 9.5.
9.3 FONTES DE ERRO EM ORTO-IMAGENS DIGITAIS
As ortoimagens são passíveis dos mesmos erros encontrados nas
cartas restituídas pelos métodos fotogramétricos convencionais. Entre
eles, podem ser citados: problemas relacionados à má determinação do
plano de vôo, má resolução dos sistemas fotográficos e/ou das imagens
digitais ou digitalizadas, o que diminui a resolução geométrica do espaço-
imagem.
Ainda relacionado à imagem digital, outra provável fonte de erros é
a má reamostragem dos níveis de cinza, tanto durante a
digitalização/obtenção da imagem digital, quanto durante a ortorretificação
digital. No pior dos casos (reamostragem por vizinho mais próximo), o
erro é da ordem de 0,5 pixel.
Ainda há mais erros relacionados à imagem digital, tais como: erros
relacionados à ampliação e compressão (o caso mais comum é o de
arquivos JPEG e TIFF comprimido), entretanto, o único tipo de erro que é
exclusivo das ortoimagens, e que, em geral, incorre em maiores
problemas é a incompatibilidade entre o modelo numérico de elevações
empregado e a realidade do terreno (figura 9.6). Isso ocorre
principalmente quando o MNE é extraído a partir do solo exposto, sem
levar em conta os acidentes artificiais. Estes, durante a ortorretificação,
9.6
ficarão inegavelmente distorcidos. Em outra hipótese, o MNE pode ter
sido adquirido realmente com erros, e aí, todos os acidentes (naturais e
artificiais) na área com problemas serão afetados. Por fim, MNE's com
espaçamento de grade maior que a resolução da ortoimagem digital
obviamente causarão degradação da precisão do produto final.
Figura 9.6 – Efeito do deslocamento de um ponto no modelo digital do terreno
Informações detalhadas sobre as fontes de erro em orto-imagens
digitais e na influência na precisão de orto-imagens são apresentadas por
(Brito, 1997).
9.4 PRODUTOS DERIVADOS
A partir do processo de ortorretificação, alguns produtos podem ser
confeccionados.
O primeiro e mais simples, é a ortoimagem em si. Embora ela
esteja corrigida de todo tipo de distorção, fica muito difícil para o usuário
final aproveitar essa informação. Isso leva a outras alternativas,
apresentadas a seguir.
Outra hipótese é mesclar a imagem ortorretificada com uma carta
9.7
digital. O produto final é chamado ortofotocarta ou carta-ortoimagem, e
apresenta as feições que se quer ressaltar desenhadas sobre a imagem.
Em última instância, pode-se, até mesmo usar a ortoimagem para,
sobre ela, restituir uma carta completa da região imageada. Hoje em dia,
dada a facilidade de se produzir ortoimagens e o imenso número de
pacotes que realizam tal tarefa, tal método de restituição se popularizou,
em especial pois dispensa a visualização estereoscópica (os vetores são
traçados diretamente sobre a ortoimagem), o que permite sua realização
em computadores comuns. Este método de restituição fotogramétrica
obviamente restringe-se às feições planimétricas, sendo denominado
“monorestituição”.
9.5 CONCLUSÃO
Entre os diferentes processos que a fotogrametria pode oferecer à
obtenção de informação espacial, a ortorretificação ganha especial
destaque por estar sendo utilizada de forma cada vez mais intensiva nos
últimos tempos. Com isso, seu estudo reveste-se de especial importância.
Para os eventuais utilizadores e produtores de ortoimagens e
produtos derivados, os seguintes pontos devem ser bastante explicitados:
a ortoimagem não possui distorções devido ao relevo tampouco rotações
devido à inclinação da câmara no momento da tomada das imagens
originais; entretanto, a ortoimagem por si só não é uma substituta para a
carta, uma vez que esta já está devidamente traduzida para um código
mais compreensível para os seres humanos, enquanto aquela possui
informação excessiva e não-traduzida.
A qualidade do MNE utilizado também influi diretamente na
ortoimagem final. Assim, caso não haja MNE's de resolução compatível
com a ortoimagem a ser gerada, é melhor utilizar-se os métodos mais
convencionais de restituição, a serem aprofundados no capítulo 10.
9.8
REFERÊNCIAS BIBLIOGRÁFICAS
Albertz, J; Kreiling, Walter. Photogrammetric Guide. Karlsruhe. Wichmann, Alemanha:
1989.
Altan, Orhan; Toz, Gönül; Seker, Dursun. Photogrammetry – Lecture Notes. Istanbul
Technical University. 1a Ed. Turquia: 2002.
Andrade, J. Bittencourt de. Fotogrametria. Ed. SBEE. Curitiba, Brasil: 1998.
Augusto, Eduardo Gurgel Garcia. Determinação Automática dos Parâmetros da
Orientação Exterior de uma Imagem Fotogramétrica Digital – Trabalho de
Tópicos Especiais em Engenharia Cartográfica. Instituto Militar de Engenharia.
Rio de Janeiro, Brasil: 1999.
Augusto, Eduardo Gurgel Garcia. Normalização de Estereogramas e sua Aplicação na
Geração de Modelos Numéricos de Elevação. Dissertação (Mestrado em
Engenharia Cartográfica). Instituto Militar de Engenharia. Rio de Janeiro, Brasil: 1999.
Brito, Jorge Luís Nunes e Silva; Prado, Walter da Silva; Augusto, Eduardo Gurgel Garcia.
Estágio de Fotogrametria Digital para Engenheiros Cartógrafos - Notas de Aula.
Instituto Militar de Engenharia. Rio de Janeiro, Brasil: 1999.
Brito, Jorge Luís Nunes e Silva. Precision of Digital Orthoimages: Assessment and
Application to the Occlusion Detection Problem. The Ohio State University.
Columbus, Estados Unidos: 1997.
Digital Photogrammetry - An Addendum to the Manual of Photogrammetry. The
American Society for Photogrammetry and Remote Sensing. Bethesda, MA, Estados
Unidos: 1997.
Gemael, Camil. Introdução ao Ajustamento de Observações. Ed. UFPR. Curitiba,
Brasil: 1994.
Kraus, Karl. Photogrammetry - Fundamentals and Processes. Volume 1, 4a Ed. Ferg,
Dummler Verlag. Bonn, Alemanha: 1999.
Novo, Evlyn. Sensoriamento Remoto: Princípios e Aplicações. Editora Edgard Blücher.
2a Ed. São Paulo, Brasil: 1992.
Schenk, Toni. Digital Photogrammetry – Volume I. TerraScience. 1a Ed. Estados
Unidos: 1999.
The Fundamentals of Digital Photogrammetry. ISM International Systemap Corporation.
Vancouver, Canadá: 2000.
9.9
10. RESTITUIÇÃO DIGITAL
10.1 REVISÃO
Até este ponto, foram estudados diversos métodos e processos de
orientação e/ou extração de dados a partir de imagens digitais. A
restituição digital pode ser considerada o ápice deste processo e, neste
momento, pode-se dizer que não há mais grandes conceitos a serem
apresentados. Entretanto, de modo a fundamentar a base desta “pirâmide
do conhecimento” convém relembrar alguns pontos importantes que
podem ter passado despercebidos aos olhos do leitor.
1) As imagens para fotogrametria (figura 10.1) podem ser adquiridas
diretamente no formato digital, ou em formato analógico, sendo, nesta
hipótese, digitalizadas em aparelhos digitalizadores matriciais, ou
scanners.
Figura 10.1 – Imagem fotogramétrica digital
10.1
2) A orientação interior reconstrói a posição dos feixes perspectivos em
relação à câmara no momento da tomada da foto (figura 10.2). Para
materializar este efeito, são calculados os parâmetros que relacionam o
sistema de coordenadas de imagem digital (pixels) em um sistema
característico de cada câmara, dado pelos parâmetros do certificado de
calibração de câmara fotogramétrica. Simplificadamente, pode-se afirmar
que a imagem digital, que estava “solta” (não-referenciada) é atrelada à
posição que exercia dentro da câmara quando foi obtida.
Figura 10.2 – Orientação Interior
3) A orientação exterior irá relacionar o sistema de câmara (reconstruído
na orientação interior) com o terreno imageado naquele instante (figura
10.3), através da determinação dos seis parâmetros que regem a posição
do centro de perspectiva na tomada da foto – posição tridimensional e
rotações nos três eixos (resseção espacial). Isso quer dizer que agora
são conhecidas a posição da imagem em relação à câmara (espaço-
imagem) e em relação ao terreno (espaço-objeto). Com o conhecimento
destes parâmetros, pode-se agora deduzir as coordenadas, no espaço-
objeto, de qualquer ponto representado no espaço-imagem (objetivo da
fotogrametria), através das equações de colinearidade, que consideram as
coordenadas do ponto no espaço-objeto como incógnitas (interseção
espacial).
Há que se observar que, visando-se as convenções das eras
10.2
analógica e analítica, esta orientação encontra-se dividida em duas
etapas: relativa (relaciona pares estereoscópicos) e absoluta (relaciona
estes pares em relação ao terreno), porém, com resultados finais
equivalentes.
Figura 10.3 – Orientação Exterior
4) A aerotriangulação é uma fonte segura de cálculo de coordenadas no
espaço de pontos medidos fotogrametricamente. Ela nada mais é que um
conjunto de resseções espaciais realizado simultaneamente com um
conjunto de interseções espaciais para um conjunto de imagens (bloco).
Em certos casos, é preciso reorientar-se o modelo estereoscópico
levando-se em conta uma quantidade considerável de pontos nele
contidos. Através da aerotriangulação, pode-se necessitar das
coordenadas “in loco” de apenas uns poucos pontos espaçados pelo
bloco para calcular quantos pontos forem necessários para cada modelo.
Isto é o que é normalmente denominado “adensamento” de pontos de
campo.
5) Os processos de extração de modelos digitais do terreno e
(orto)retificação de imagens pressupõem conhecidos os parâmetros das
orientações, bem como coordenadas de pontos de campo. Eles levam à
obtenção de produtos cartográficos finais, que não precisam de posterior
processamento e/ou tradução. Entretanto, não chegam ao máximo de
10.3
interpretação de informações possível. Isso somente dar-se-á através da
restituição digital.
10.2 A RESTITUIÇÃO
A restituição objetiva a interpretação das diversas feições
manifestas no terreno, extraindo-as geograficamente referenciadas
(coordenadas no espaço-objeto), de modo a compor a base cartográfica
daquela região, em uma dada escala.
A base cartográfica é o conjunto de objetos geograficamente
referenciados a um determinado sistema de coordenadas. Estes objetos
serão omitidos ou representados de diversas formas, de acordo com a
escala empregada (figura 10.4). No Brasil, segue-se como modelo para
representação de feições a TBCD (Tabela da Base Cartográfica Digital),
elaborada pela DSG (Diretoria de Serviço Geográfico do Exército
Brasileiro).
Figura 10.4 – Feição (açude) e representação de acordo
com a TBCD (fonte: T34-700, 1998)
A restituição digital nada mais é que a restituição executada em
ambiente digital. O estado da arte nessa área é a utilização de sistemas
CAD ou CADD (Computer Aided Design) com suporte a sistemas de
coordenadas cartográficas. Esses sistemas pressupõem a junção de um
modelo da Terra, ou sistema geodésico, sobre o qual será aplicada uma
projeção cartográfica. No Brasil, usa-se principalmente, o sistema de
coordenadas UTM aplicado sobre sistemas geodésicos diversos, sendo os
mais comuns, em ordem decrescente de modernidade: SIRGAS (Sistema
10.4
de Referência Geocêntrico para a América do Sul), SAD-69 (South
Americam Datum 1969) e Córrego Alegre.
Hoje em dia, há diversos programas CAD capazes de admitir tais
tipos de coordenadas, e que funcionam paralelamente a programas de
restituição fotogramétrica digital, instalados como plug-ins, permitindo a
visualização do modelo estereoscópico sobre o arquivo onde são
inseridas as feições. A formulação matemática já é conhecida: o operador
ao colimar a marca estereoscópica ao terreno, na verdade está indicando
ao sistema as coordenadas de determinado ponto nas duas imagens do
par. Como os parâmetros da orientação interior e exterior já são
conhecidos, imediatamente estas coordenadas são traduzidas em
coordenadas métricas de câmara e, através das equações de
colinearidade, deduzem-se as coordenadas de terreno, diretamente no
sistema adotado.
A obtenção de todos estes dados se dá em arquivos digitais
vetoriais. Estes diferem dos arquivos matriciais porque, ao invés de
expressarem seus objetos através de células (pixels) de coloração
constante, os representam por suas coordenadas inicial e final, levando a
três tipos básicos de objeto: pontos, linhas e áreas (figura 10.5). A esses
objetos, atribuem-se outras características, como cor, espessura, estilo
(figura 10.6) e nível (figura 10.7). Esta última reveste-se de importância,
por permitir uma melhor organização do arquivo obtido, colocando-se em
cada um dos níveis feições relacionadas entre si, como hidrografia,
vegetação ou transportes. Os níveis podem ser exibidos ou não, de
acordo com a preferência do usuário, permitindo que se visualize somente
o nível que está sendo trabalhado.
Figura 10.5 – Tipos básicos de objetos vetoriais
10.5
Figura 10.6 – Linhas de diferentes cores, espessuras e estilos
(estes padrões também podem se aplicar a pontos e áreas)
Figura 10.7 – Exemplo de dois níveis diferentes (hidrografia e
altimetria), que juntamente com outros compõem um arquivo
de restituição do terreno representado abaixo deles
10.6
Obviamente, todo este trabalho árduo não fica somente sob a
responsabilidade do restituidor. Outros profissionais, como o editor e o
revisor irão tratar o arquivo proveniente da restituição fotogramétrica –
que ainda não está padronizado de acordo com as normas para a base
cartográfica e que pode ainda estar contendo erros de restituição. O
resultado final é a carta em formato digital, que pode ser impressa para
manuseio ou aproveitada na integração a um sistema de informações
geográficas (SIG).
10.3 TENDÊNCIAS EM RESTITUIÇÃO DIGITAL
A estrutura em níveis apresentada anteriormente é bastante eficaz
para cartas com poucos temas, porém, folhas de mapeamento sistemático
apresentam uma quantidade tão grande de dados que elas se tornam
impossíveis para a especificação de tamanho máximo da maior parte dos
arquivos vetoriais digitais. Por isso, as instituições responsáveis pela
produção e atualização de bases cartográficas têm separado cada um
destes níveis em arquivos diferentes – o que não invalida a analogia da
figura 10.7 (nessa hipótese, apenas deve-se considerar a hidrografia e a
altimetria como arquivos diferentes). A prática de separação em
diferentes arquivos tem se tornado uma tendência em todo processo de
restituição, deixando-se a divisão em níveis para subdivisões de cada
arquivo. Por exemplo; as curvas de nível mestras, as curvas de nível
comuns e os pontos cotados situar-se-iam em níveis diferentes dentro do
arquivo denominado “altimetria”.
No mapeamento sistemático brasileiro, convencionou-se gerar os
seguintes arquivos:
• Sistema de Transportes – Categoria 01
• Infra-Estrutura – Categoria 02
• Edificações – Categoria 03
• Limites – Categoria 04
10.7
• Pontos de Referência – Categoria 05
• Hidrografia – Categoria 06
• Localidades – Categoria 07
• Altimetria – Categoria 08
• Vegetação – Categoria 09
• Arquivos de toponímia referentes a cada uma das categorias citadas
acima.
Os arquivos digitais, caso seja necessário incorporá-los a base de
dados de SIG's, devem ser validados. Este fato é cada vez mais comum
nos dias de hoje.
Figura 10.8 – Dois exemplos de processos que ocorrem na validação:
fechamento de polígonos abertos e criação de pontos na interseção de linhas
A validação é um processo que torna os arquivos topologicamente
coerentes, para que sejam devidamente compreendidos por um sistema
de informação. Entre outras tarefas, o algoritmo de validação verifica
erros que, em uma impressão podem não aparecer, tais como: polígonos
abertos, linhas duplas, pontos redundantes e segmentos livres. Além
disso, o algoritmo quebra todas as interseções de linhas em pontos, de
10.8
modo a adequá-los à topologia empregada em SIG's (figura 10.8). Por
auxiliar o processo de revisão, futuramente, toda produção cartográfica
deverá passar por um processo equivalente. Hoje, ainda há cartas sendo
produzidas pelo método convencional.
Maiores informações sobre procedimentos operacionais específicos
da restituição fotogramétrica assistida por computador podem ser
enconhtrados nas Normas Provisórias para Fotogrametria Digital, que
constam das referências bibliográficas.
10.4 CONCLUSÃO
Ao se chegar ao fim do texto principal desta obra, espera-se que o
leitor tenha podido compreender melhor o processo de aquisição de
informação espacial por meio de técnicas fotogramétricas, com ênfase
especial no estado-da-arte da tecnologia – a fotogrametria digital.
Os dez capítulos-base podem ser tratados como obra única de
referência para o tema, não necessitando de leituras prévias ou
adicionais. Na bibliografia ao fim de cada capítulo, entretanto, encontram-
se obras que, devido à sua relevância, foram objeto de intensa consulta
quando da elaboração do texto principal.
Os apêndices que se seguem enfocam assuntos colaterais, nem
por isso de menor importância. Estão a ser escritos à medida da
disponibilidade de tempo e recursos para tal.
Como consideração final, é inegável ressaltar que a fotogrametria
tem sido empregada substancialmente na restituição de cartas, plantas e
produtos afins há cerca de cem anos. As reviravoltas proporcionadas pela
era digital proporcionaram rapidez e praticidade aos processos clássicos,
sem abdicar da precisão preconizada por eles. Assim, não é demasiado
sonhar com outros cem anos de utilização de tecnologias fotogramétricas.
Hoje em dia, emprega-se fotogrametria desde a imagem ortorretificada de
satélite sub-métrico até sistemas de reconhecimento de caracteres,
passando por aplicações ainda mais inusitadas, como a modelagem
10.9
numérica de falhas e deformações em estruturas.
Uma conclusão fundamental pode então ser tirada de tudo o que se
viu: o conhecimento, ao menos básico, dos métodos fotogramétricos é
essencial para todo profissional que queira trabalhar com dados
espacialmente referenciados. Ao ser concebido, esse texto visou tratar do
tema com um enfoque totalmente novo, minimizando o contato com
tecnologias em desuso – o que poderia levar a experiências traumáticas e
tentando explicar os métodos modernos com o máximo de profundidade,
sem abdicar da simplicidade e clareza que devem permear uma obra
deste escopo. Espera-se que estes objetivos tenham sido atingidos.
REFERÊNCIAS BIBLIOGRÁFICAS
Albertz, J; Kreiling, Walter. Photogrammetric Guide. Karlsruhe. Wichmann, Alemanha:
1989.
Altan, Orhan; Toz, Gönül; Seker, Dursun. Photogrammetry – Lecture Notes. Istanbul
Technical University. 1a Ed. Turquia: 2002.
Andrade, J. Bittencourt de. Fotogrametria. Ed. SBEE. Curitiba, Brasil: 1998.
Brito, Jorge Luís Nunes e Silva; Prado, Walter da Silva; Augusto, Eduardo Gurgel Garcia.
Estágio de Fotogrametria Digital para Engenheiros Cartógrafos - Notas de Aula.
Instituto Militar de Engenharia. Rio de Janeiro, Brasil: 1999.
Convenções Cartográficas – T34-700 – Manual Técnico. Exército Brasileiro. 2a Ed.
Brasília, Brasil: 1998.
Digital Photogrammetry - An Addendum to the Manual of Photogrammetry. The
American Society for Photogrammetry and Remote Sensing. Bethesda, MA, Estados
Unidos: 1997.
Kraus, Karl. Photogrammetry - Fundamentals and Processes. Volume 1, 4a Ed. Ferg,
Dummler Verlag. Bonn, Alemanha: 1999.
Normas Provisórias para Estruturação e Validação de Arquivos Digitais. 1a Divisão de
Levantamento (Exército Brasileiro). Porto Alegre, Brasil: 2000.
Normas Provisórias para Fotogrametria Digital. 1a Divisão de Levantamento (Exército
Brasileiro). Porto Alegre, Brasil: 2000.
Photogrammetric Mapping – EM 1110-1-1000 – Engineer Manual (Series Engineering
and Design). U.S. Army Corps of Engineers. Washington DC, Estados Unidos: 2002.
Schenk, Toni. Digital Photogrammetry – Volume I. TerraScience. 1a Ed. Estados
Unidos: 1999.
10.10
TBCD - Tabela da Base Cartográfica Digital. Exército Brasileiro. 2a Ed. Brasília, Brasil:
1998.
The Fundamentals of Digital Photogrammetry. ISM International Systemap Corporation.
Vancouver, Canadá: 2000.
10.11