Sie sind auf Seite 1von 41

1.

INTRODUCCIÓN
Las imágenes digitales satelitales y las fotografías aéreas juegan un papel importante
en la elaboración general de mapas y en la adquisición y visualización de datos GIS.
En primer lugar, ayudan a proporcionar un efecto visual sólido.
Los satélites de observación de la tierra han dado paso a una nueva disciplina que se
viene utilizando en todas las labores que tienen que ver con los Recursos Naturales. Un
aspecto no muy conocido de las imágenes satelitales es su composición, ya que una
imagen satelital aparenta ser una fotografía a color, sin embargo, una imagen es una
disposición matricial de valores digitales numéricos y como tal susceptible de ser
analizados. Estos valores tienen parámetros estadísticos y es en base a estos una
imagen puede ser realzada para realizar una mejora visual por medio de ajustes y filtros
para una mejor interpretación visual de las imágenes y en la presente revisión, se trata
de realizar una aproximación a la descripción de los realces y filtrajes que se realizan en
una imagen en base a los componentes estadísticos de una imagen y mejorar la calidad
visual de estas imágenes.
Ejemplos de esto son características tales como carreteras, vegetación y cuerpos de
agua. Antes de que esta información pueda ser recogida de una forma que sea útil para
un sistema de elaboración de mapas o GIS, los datos de imágenes satelitales o
fotografías aéreas deben prepararse de forma que se elimine la distorsión de la
imagen. Sin este proceso no sería capaz de realizar funciones tales como realizar
medidas precisas y directas de distancias, ángulos, posiciones y áreas.

2. OBJETIVOS

 Conocer que es una imagen satelital

 Conocer la importancia de las imágenes satelitas en la elaboración de


mapas y visualización de datos GIS

.
 Conocer cada una de las fases de los tratamientos imágenes satélites.
3. MARCO TEORICO
Este servicio fotogramétrico se realiza a partir de imágenes satelitales estereoscópicas
de alta resolución las cuales permiten obtener Modelos Digitales de Elevación (MDE) con
alto nivel de detalle además de sus productos derivados tales cómo curvas de nivel,
perfiles y maquetas 3D.
Estos modelos y la visualización 3D sirven para mejorar la comunicación de información
espacial y por ende la participación ciudadana en los grandes proyectos de inversión
pública y privada.

WORLD VIEW - 1
Este es un nuevo satélite puesta en órbita a fines del 2007, la principal característica es
que capta imágenes pancromáticas con una resolución de 0,5 metros. Próximamente,
se espera el lanzamiento del satélite World View–2, para la adquisición de imágenes
multiespectrales.
SATÉLITE PALSAR
El sensor PALSAR, es un sensor activo de RADAR, con una resolución variable de 10 a
100 metros. Este sensor permite captar escenas a través de las nubes, bruma, niebla o
humo, tanto de día como de noche. Por lo tanto, es ideal para realizar estudios en áreas
tropicales o polares. También son utilizadas en la geología, movimientos en masa,
aplicaciones marítimas, entre otros.
La primera imagen satelital de la Tierra fue tomada el 14 de agosto de 1959 por el satélite
estadounidense Explorer 1. La primera fotografía satelital de la luna fue tomada por el
satélite soviético Luna 3 el 6 de octubre de 1959, en una misión para fotografiar el lado
oculto de la Luna. También en 1972 los Estados Unidos comenzaron con el programa
Landsat, el mayor programa para la captura de imágenes de la tierra desde el espacio.
SATÉLITE ASTER
Estas imágenes son captadas desde 1999 por el satélite Terra. Poseen 14 bandas
separadas en 3 grupos, el primero con una resolución de 15 metros, en donde están las
bandas del visible y del infrarrojo cercano; el segundo con una resolución de 30 metros
compuesto por 6 bandas del infrarrojo; y un tercer grupo termal, con una resolución de
90 metros. Sus principales aplicaciones están en el análisis de suelos, cuerpos de agua,
geología, medio ambiente, usos de suelo, entre otros.
QUICK BIRD
Estas imágenes son denominadas de alta resolución,se componen de una imagen
multiespectral, que posee las bandas visibles y la infrarroja cercana, con una resolución
espacial de 2.4 metros; y una imagen pancromática, con una resolución de 0.6 metros.
Cada escena QuickBirdtiene una extensión de 16.5*16.5 Km2. Las aplicaciones que se
pueden realizar con estas imágenes son variadas, como por ejemplo: generación de
cartografía urbana, aplicaciones agrícolas, forestales, de recursos hídricos, medio
ambiente, seguridad, entre otros.
SATÉLITE - LANDSAT
Se caracterizan por la variedad de bandas que las componen. Se separan en 2 tipos:
Landsat7 (sensor ETM+) y Landsat5 (sensor TM); ambas poseen 7 bandas
multiespectrales que van desde el visible hasta el infrarrojo medio, con una resolución
de 30 metros, en la mayoría de ellas.
SATÉLITE PRISM
A diferencia del sensor anterior, el PRISM capta imágenes pancromáticas y se destaca
por la resolución espacial que estas poseen de 2.5 metros y porque cada escena
contiene 3 perspectivas (nadir, hacia atrás y hacia delante), con una superficie común de
35*35 Km2, de manera que permite hacer estereoscopía y generar modelos digitales de
elevación de alta precisión.
SATELITE - ALOS
Las imágenes ALOS, son captadas por 3 sensores: VNIR, PRISM y PALSAR. En el caso
del sensor VNIR, este capta imágenes multiespectrales, que poseen las bandas del
visible y el infrarrojo cercano, con una resolución de 10 metros. Cada imagen tiene una
extensión de 70*70 Km2. Tiene aplicación en el área medioambiental, clasificación de
suelos y seguimiento de desastres naturales.
CARACTERÍSTICAS DE LAS IMÁGENES SATELITES:
 Compuestas por bandas y pixeles, en líneas y columnas.
 Generada por la energía que genera la tierra y la atmósfera. Recibida por un
sensor que se halla en el satélite: teledetección.
 Brindan información No Visible al espectro electromagnético. Permiten calcular
variables físicas: Humedad: suelo y atmósfera Temperatura: mar, tierra y nubes.
 Pueden ser: en blanco y negro. nocturnas térmicas
 Pueden ser: de baja o alta resolución ópticas o de radar captadas en el espectro
visible o infrarrojo.
 Textura, permiten diferenciar montañas de llanuras, el limo en los océanos.

TRATAMIENTO DE LAS IMÁGENES SATELITALES


El procesamiento de las imágenes digitales consiste en la manipulación numérica de
dichas imágenes e incluye:
- Pre procesamiento
-Realce
- Clasificación.
1 PRE PROCESAMIENTO.
Consiste en el procesamiento inicial de los datos crudos para corregir las distorsiones
radiométricas y geométricas de la imagen y eliminar el ruido. Las distorsiones
radiométricas obedecen a mecanismos que alteran los valores de brillo de los pixeles y
se deben fundamentalmente a interferencias atmosféricas y a efectos asociados a
instrumentación. Las correcciones atmosféricas constituyen un problema muy complejo
si se quieren aplicar sobre la base de modelos físicos del comportamiento de las
radiaciones. En efecto, estos modelos tienen el mérito de su rigor científico, precisión y
aplicabilidad a un amplio rango de circunstancias, pero suelen exigir complejos
programas de computadora así como información meteorológica detallada relativa a las
condiciones en que se registró la escena. Esta información es muy difícil de obtener y
podemos decir que la aplicación rutinaria de estos modelos actualmente no es
posible. Una aproximación sencilla y práctica a la corrección del efecto atmosférico se
basa en la consideración de los histogramas de las imágenes espectrales. Un histograma
es un gráfico o tabla que muestra el número de pixeles f (DN) de una imagen que poseen
un valor DN.
Los efectos instrumentales se asocian principalmente a desajustes en las equivalencias
de las curvas de respuesta de los diferentes detectores de un instrumento (ej. diferentes
valores en la “corriente oscura” y en la ganancia en las curvas de respuesta). Se puede
efectuar una corrección adoptando un sensor como standard y ajustando el brillo de
todos los pixeles registrados por los demás detectores de modo que los brillos promedio
y desviaciones standard se emparejen con los del detector de referencia.
Las distorsiones geométricas responden a muy diversas causas y pueden clasificarse
en geo sistemáticas y no sistemáticas.
Las principales causas de distorsiones geométricas sistemáticas son las siguientes:
Sesgo de escaneado:
Causado por el movimiento de avance de la plataforma durante
el tiempo requerido para cada barrido del espejo (sistemas whiskbroom).
La línea de barrido sobre el terreno no es normal a la proyección de la trayectoria sino
que resulta ligeramente oblicua, produciendo una distorsión geométrica cruzada con la
trayectoria.
Velocidad del espejo de escaneado.
La velocidad de éste usualmente no es constante durante un dado ciclo, produciendo
una distorsión geométrica a lo largo del escaneado.
• Efecto panorámico y curvatura terrestre. El efecto panorámico deriva del hecho de que
como para los sensores de las plataformas satelitales el IFOV angular es constante, el
tamaño del pixel sobre el terreno será mayor en los extremos de la oscilación que en el
nadir. También la curvatura terrestre conduce a un efecto similar, aunque para satélites
de barrido poco extenso, como el LANDSAT (185 km) o el SPOT (120 km) el efecto es
despreciable, a diferencia de lo que ocurre con los NOAA, con 2700 km de FOV.
• Velocidad de la plataforma. Si la velocidad de la plataforma cambia, la cobertura
terrestre a lo largo de su traza terrestre para sucesivos escaneos también cambiará.
Se producirá una distorsión de escala a lo largo del trayecto.

Rotación de la Tierra.
A medida que el sensor escanea el terreno la Tierra se desplaza de oeste a este. De
modo que un punto del terreno registrado al fin del escaneado va a estar más al oeste
que cuando comenzó el barrido. Esto produce una distorsión según la traza de barrido.
Como casos de distorsiones geométricas no sistemáticas citemos los efectos por altitud
y actitud.
Altitud.
Si la plataforma se desvía de su altitud normal o si aumenta la elevación del terreno se
producen distorsiones de escala.

Actitud.
Hace referencia a la orientación del satélite (o bien plataforma aérea) en el espacio
tridimensional en que se desplaza. En tal sentido podemos definir un sistema de
tridimensional de coordenadas ortogonales centrado en el centro de gravedad de la
plataforma considerada.
De acuerdo con esto puede definirse la orientación de la plataforma por la contribución
de los movimientos respecto a estos ejes principales

2. EL REALCE
Realces
Son procedimientos que tienden a mejorar la interoperabilidad visual de una
imagen, aunque no aumentan la cantidad de información contenida en ella. El rango de
opciones de que dispone el analista para realces de imagen es virtualmente ilimitado,
aunque la mayoría de estas técnicas pueden ubicarse en dos grupos: operaciones de
punto, que modifican independientemente el brillo de cada pixel y operaciones locales,
que modifican el valor de cada pixel basadas en el valor de los pixeles vecinos. Dentro
de las primeras citaremos algunas como estiramiento de contraste y manipulaciones
espectrales, y entre las segundas el filtrado espacial.
Estiramiento de contraste.
Este procedimiento involucra un cambio de forma del histograma reasignando los valores
de los pixeles. A continuación Vemos un ejemplo de cómo, a través de una función
de transferencia lineal se puede efectuar dicha transformación.

Filtrado espacial.
Las operaciones de contraste descritas en la sección previa no alteran los datos de la
imagen, simplemente modifican su visualización. En el filtrado espacial, en cambio, los
datos de la imagen son modificados. En efecto, el valor de un pixel en una dada ubicación
es cambiado en función de los valores de los pixeles vecinos.
En percepción remota las imágenes se caracterizan por un parámetro denominado
frecuencia espacial. Esta puede definirse como el número de cambios que ocurren en el
valor del pixel (o brillo) por unidad de distancia para alguna región particular de la
imagen. Si sobre una dada área de la imagen ocurren pocos cambios de brillo se
considera como un área de baja frecuencia (ej. grandes extensiones agrícolas, cuerpos
de agua extensos, etc.)
Si, por otra parte, los cambios de brillo son numerosos y notorios tendremos un área de
alta frecuencia (calles o caminos en zonas urbanas, parcelas agrícolas pequeñas, etc.).
En las imágenes de percepción remota la frecuencia espacial puede realzarse o
deprimirse según la conveniencia del analista utilizando el filtrado espacial.
Este no es sino una aplicación de la operación general de procesamiento de imágenes
denominada convolución y que implica el siguiente procedimiento:
1. Se define una ventana móvil que contiene un arreglo de coeficientes o
factores ponderales. Estos arreglos se definen como operadores o kernels, cuyo tamaño
es normalmente el de un número impar de pixeles (3x3, 5x5, 7x7, etc)
2. Dicho kernel se mueve a través de la imagen original, y el valor del pixel central
del kernel en la imagen de salida se obtiene multiplicando cada coeficiente del
kernel por el correspondiente valor del pixel en la imagen original y sumando el
resultado de todos los productos resultantes . La operación se repite para cada pixel de
la imagen original.
VENTANA MOVIL IMAGEN PROYECCION DE LA VENTANA MOVIL SOBRE LA
IMAGEN A PROCESAR
Existen muchos tipos de filtros de convolución. En las siguientes imágenes se dan
ejemplos de los efectos obtenidos con algunos de dichos filtros (Figs. 51 a,b y c, y
Fig.51 bis a,b y c)
Los filtros de baja frecuencia reducen las desviaciones respecto al promedio local de
la imagen y ésta aparece como más difusa, efecto que aumenta al aumentar el tamaño
de la ventana (5x5, 7x7, etc.).
Este filtro suele ser útil para reducir ciertos patrones de ruido, como por ejemplo los
efectos de ¨salt-and-pepper¨ de algunas imágenes. Los filtros de alta frecuencia
deprimen los componentes de baja frecuencia reteniendo los de alta frecuencia
(variaciones locales). Pueden ser utilizados para realzar bordes entre distintos objetos
de una imagen así como para hacer ésta más nítida. Una importante aplicación es en la
identificación y mapeos de características geológicas, incluyendo fallas,
fracturas, monoclinas, que poseen diferentes rangos de frecuencias espaciales. Un
kernel de alta frecuencia puede ser el siguiente:

Los filtros de mediana sustituyen cada pixel de la imagen por la mediana de los pixeles
vecinos. Ejemplo:

En orden crecientes los valores de los pixeles cubiertos por la ventana móvil son

115, 119, 120, 123, 124, 125, 126, 127, 150

El valor de la mediana será pues 124.


La mediana es un parámetro de posición más robusto que la media. En efecto, un
pixel vecino con un valor no representativo no afectará significativamente el valor de la
mediana. Además, como la mediana es uno de los valores de los pixeles vecinos,
conduce a resultados más realistas que la media. Esto hace que la mediana si bien
¨suaviza¨ la imagen preserva los bordes más grandes cuyas dimensiones sean mayores
que las dimensiones del kernel. Esto es muy conveniente cuando este filtro se aplica
para eliminar ruidos como los de ¨salt and pepper¨ o los speckles de las imágenes de
radar.
La detección de cambios significantes de DN al pasar de un pixel a otro es un
problema común en percepción remota. Dichos cambios usualmente indican límites
físicos en la escena, como una línea costera, una carretera, el borde de una sombra, etc.
Si bien existen muchas aproximaciones para el tratamiento de este problema una de las
más usadas es el empleo de algún filtro de gradiente, como por ejemplo el de Sobel.

Este consiste en filtrar la imagen en dos direcciones ortogonales, por ej. horizontal y
vertical. Los filtros de gradiente utilizados son:

Componente horizontal Componente vertical

Los resultados g x y g y para cada pixel se combinan en un vector cuya magnitud y


dirección vienen dadas por:

Además de los filtros que hemos mencionado como ejemplos típicos se han descrito
muchos otros que escapan del alcance de esta Introducción. Citemos por ejemplo los
filtros gaussianos, laplacianos, de transformada de Fourier, etc.
ANALISIS POR COMPONENTES PRINCIPALES
Un problema frecuente en el análisis de imágenes multiespectrales es el de la
correlación existente entre ellas, es decir que contienen mucha información redundante.
Esta no aporta nada nuevo y aumenta enormemente la carga computacional cuando
dichas imágenes son sometidas a procesos matemáticos. Esto podemos apreciarlo en
la Fig. 56, en la que se observan los dispersogramas típicos de los pares de bandas
TM1/TM2, TM2/TM3 y TM3/TM4 del LANDSAT. Sólo las bandas 3 y 4 presentan baja
correlación.

La técnica de Análisis por Componentes Principales (PCA, Principal Components


Analysis) es una transformación que permite reducir esta redundancia y puede ser
aplicada previamente a un análisis visual o a un proceso más complejo de clasificación
a través de algoritmos matemático-estadísticos.
El propósito de esta técnica es “comprimir” toda la información contenida en un conjunto
original de N bandas espectrales a un conjunto menor de nuevas bandas o componentes.
Sin entrar en detalles matemáticos sobre esta transformación representaremos
gráficamente los conceptos involucrados. Para simplificar tomemos sólo dos bandas
espectrales. Representemos por d1 el valor del pixel en la banda 1 y por d2 el valor del
pixel en la banda 2. Podemos definir una combinación lineal de estas dos bandas:
Donde :
d'1 y d'2 representan los valores del pixel luego de la transformación. Esta puede ser
representada gráficamente como en las Figs. 57 a y b

Los componentes principales del conjunto de dos bandas está constituido por el sistema
de combinaciones lineales de dichas bandas, que con una adecuada selección de
los coeficientes aij resultarán independientes y no correlacionados entre sí. Esto se
ilustra en las Figs. 57 a y b. En (a) los valores de los pixeles graficados en el espacio
bidimensional d1 y d2 están notoriamente correlacionados. En (b) se observa cómo,
luego de una adecuada combinación lineal la correlación es removida.
Vemos que la transformación no es sino una rotación en el espacio bidimensional de los
valores de los pixeles, y el ángulo de rotación quedará determinado por la correlación
entre los valores de d1 y d2.El eje d'1 define la dirección del primer componente principal,
y el eje d'2 la dirección del segundo componente principal. Puede observarse que los
datos a lo largo del primer componente principal
poseen una varianza o rango dinámico mayor que el correspondiente a cualesquiera de
los dos ejes originales. Por su parte los datos a lo largo del segundo componente principal
(eje d'2) poseen una varianza considerablemente menor que la correspondiente a d'1.
Es decir que hemos volcado la mayor parte de la información al primer componente
principal. El tratamiento podemos generalizarlo para un sistema de N bandas,
representándolo en forma matricial:
Donde:
d es un vector columna conteniendo los N valores originales de los pixeles de d1 a dN,
d' es el correspondiente vector luego de la transformación
A es la matriz de los coeficiente aij. .
Obviamente la clave de una transformación exitosa radica en la optimización de los
coeficientes aij, lo cual puede hacerse por una transformación en componentes
principales (PCT) también conocida como transformación de Karhunen-Loeve o de
Hotelling, cuyos detalles escapan del alcance de esta Introducción. En general los
softwares para tratamiento de imágenes ofrecen módulos para realizar este tipo de
transformación.
En el caso de imágenes de más de tres bandas usualmente ocurre que el primer
componente principal incluirá cerca de 90% de la varianza total de la imagen, mientras
que los sucesivos PC2, PC3,,PCN poseerán porcentajes decrecientes. En general PCN
será mayormente ruido.
En la Fig. 59, se observa el resultado de la transformación en componentes principales.
En la Fig.60 se presentan algunos dispersogramas de las bandas resultantes de la
transformación, donde se puede observar la ortogonalidad de los CP.
COMBINACIONES DE COLORES
Combinaciones de color
Vimos que las imágenes satelitales suelen ser multiespectrales, es decir que son
registradas simultáneamente en varias regiones del espectro electromagnético. Estas
imágenes pueden ser estudiadas individualmente en escalas de grises o en imágenes
coloreadas obtenidas a partir de las primeras. Estas últimas se generan según el modelo
de color RGB (del inglés Red, Green, Blue). Este hace referencia a la composición del
color en términos de la intensidad de los colores primarios con los que se forma: el rojo,
el verdey el azul. Es un modelo de color basado en la síntesis aditiva, es decir basado
en la mezcla por adición de dichos primarios.
Para indicar en qué proporción se mezcla cada color se asigna un valor a cada uno de
los colores primarios. Así por ejemplo, para un display de computadora de 8 bits por
pixel el rango de valores posibles (o sea de DN) para cada componente de color es de 0
a 255. En consecuencia existirán 2563 = 16.777.216 combinaciones posibles de rojo,
verde y azul, y a cada pixel de una combinación de color corresponderá un punto dentro
del cubo de color representado en las Figs. 61 y 62 (a esta última se le extrajo un sector
para mejor visualización interior).

Por lo tanto, las coordenadas del rojo serán (255,0,0), del verde (0,255,0) y del
azul (0,0,255). La ausencia de color, es decir el negro corresponde al punto (0,0,0).
La combinación de dos colores a nivel 255 con un tercero a nivel 0 da lugar a tres
colores intermedios: el amarillo (255,255,0), el cyan (0,255,255) y el magenta
(255,0,255). El blanco se forma con los tres colores primarios a su máximo nivel
(255,255,255).
La escala de grises es la diagonal que une el blanco y el negro. Concretando, para
preparar una combinación de color se seleccionan tres bandas de interés de la escena
multiespectral y computadora mediante se le asigna a cada una de ellas uno de los tres
colores primarios.
El display nos entregará una combinación RGB correspondiente a las bandas
seleccionadas y a la asignación de colores. Las bandas a seleccionar
quedarán condicionadas, aparte de las posibilidades ofrecidas por el sensor del satélite,
por aquellos rasgos de la escena que se desea realzar, y la asignación de colores
además de ser condicionada por dicho factor puede corresponder a un criterio
profesional o heurístico del analista.
De todos modos, existen ciertas combinaciones que demostraron ser de
particular interés, sobre todo asociadas a temas ambientales y agronómicos. Dichas
combinaciones son:
 RGB3,2,1

Esta combinación suele llamarse “color natural” pues involucra a las tres bandas
.,visibles y se le asigna a cada una de ellas su verdadero color, resultando una
combinación que se aproxima a los colores naturales de la escena. La vegetación
aparece en diversos tonos de verde y los suelos en colores marrones o tostados.
Además, las bandas visibles tienen buena penetración en los cuerpos de agua y
esta combinación permite observar detalles en agua poco profundas (turbidez,
corrientes, batimetría, plumas de sedimentos, etc.).

 RGB5,4,3

Constituye una “simulación”del color natural, pese a utilizar 2 bandas infrarrojas.

RGB4,3,2

Esta combinación suele llamarse “falso color infrarrojo” pues los colores
resultantes en la imagen son similares a los de las fotografías obtenidas con film
infrarrojo color. Al asignar el rojo a la bandas 4 (NIR) resultará que todos los tonos
de rojo, desde el rojo muy oscuro al rosado pálido corresponden a vegetación:
los tonos más oscuros se relacionan con la presencia de vegetación arbórea
densa, como bosques, montes, etc., pudiéndose identificar algunas especies
como pinos y eucaliptos. Rojos claros indican cultivos y praderas vigorosas. Los
rosados corresponden a vegetación poco densa como pasturas naturales.
El celeste corresponde a suelo desnudo, seco o áreas rocosas. El azul-celeste
puede corresponder a zonas urbanas. El azul oscuro a negro se relaciona con
agua clara en cursos o cuerpos de agua. Si éstos presentan partículas en
suspensión aparecerán con tonalidades azul-verdosas (cian). Los colores verde
a verde azulado corresponden a parcelas aradas o suelos descubiertos con
mayor o menor contenido de humedad.

RGB4,5,3

Al asignarle el color rojo a la banda 4 (infrarroja cercana) esta banda va a tener


ciertas similitudes con la combinación RGB 4,3,2 . Sin embargo, al dar más peso
a la región infrarroja (bandas 4 y 5) se ve realzada la diferencia de humedad en
suelos y vegetales. Generalmente cuanto mayor es la humedad del suelo más
oscuro aparecerá éste.
En las Figs. 63 y 64 , se presenta una imagen LANDSAT de una forestación en
Paysandú. A efectos comparativos esta imagen fue sometida a las combinaciones
de color arriba mencionadas.
Las combinaciones de color que acabamos de ver hacen referencia a las bandas del
LANDSAT, pero los criterios son aplicables a otros satélites teniendo en cuenta las
características espectrales de sus bandas. No todas las imágenes satelitales presentan
la diversidad de bandas del LANDSAT, y en tales casos algunas de las combinaciones
antesreferidas no pueden realizarse con las escenas de dichas satélites, no obstante lo
cual el analista puede intentar otras combinaciones que permitan realzar características
de interés. Así por ejemplo la Fig. 65 corresponde a una imagen NOAA-17 captada sobre
el Uruguay en Mayo de 2007, en un período de intensas inundaciones. Este satélite sólo
posee una banda visible (roja), dos en el infrarrojo (cercano y medio) y dos en el infrarrojo
térmico.
La combinación de color utilizada en este caso es RGB 3,2,1 (infrarrojo medio, infrarrojo
cercano, rojo). Las bandas infrarrojas que son intensamente absorbidas por el agua
permiten destacar nítidamente los contornos de los ríos (color negro), algunos de los
cuales en este período estaban desbordados, así como las zonas anegadas al oeste de
la laguna Merim (colores oscuros). Las áreas forestadas aparecen con color verdoso
más intenso(Rivera, Paysandú). Otro ejemplo es el caso del ASTER (instrumento a
bordo del satélite TERRA) que en el modo de resolución espacial de 20 m sólo posee
una banda en el verde, otra en el rojo y una tercera en el infrarrojo cercano. En este caso
es posible la combinación RGB 3,2,1 (i.r. cercano, rojo, verde) como se aprecia en la Fig.
66, captada sobre Rincón del Bonete.
La diversidad de las bandas del LANDSAT, y en tales casos algunas de las
combinaciones antes referidas no pueden realizarse con las escenas de dichos satélites,
no obstante lo cual el analista puede intentarotras combinaciones que permitan realzar
características de interés. Así por ejemplo la Fig. 65 corresponde a una imagen NOAA-
17 captada sobre el Uruguay en Mayo de 2007, en un período de intensas inundaciones.
Este satélite solo posee una banda visible (roja), dos en el infrarrojo (cercano y medio) y
dos en el infrarrojo térmico. La combinación de color utilizada en este caso es RGB 3.2,1
(infrarrojo medio, infrarrojo cercano, rojo). Las bandas infrarrojas que son intensamente
absorbidas por el agua permiten destacar nítidamente los contornos de los ríos (color
negro), algunos de los cuales en este período estaban desbordados, así como las zonas
anegadas al oeste de la laguna Merín (colores oscuros). Las áreas forestadas aparecen
con color verdoso más intenso /Rivera, Paysandú). Otro ejemplo es el caso del ASTER
(instrumento a bordo del satélite TERRA) que en el modo de resolución espacial de 20
m solo posee una banda en el verde, otra en el rojo y una tercera en el infrarrojo cercano.
En este caso es posible la combinación RGB 3,2,1 (r.r. cercano, rojo, verde) como se
aprecia en la Fig. 66, captada sobre Rincón del Bonete.
3. CLASIFICACION
Clasificación.
En las etapas de procesamiento de imágenes que acabamos de discutir se busca sea
corregir distorsiones geométricas y realizar correcciones radiométricas eliminando
formas de ruido presentes en los datos, sea aplicar manipulaciones de realce para
mejorar la interpretación visual de la imagen. Con la clasificación llegamos a la etapa de
operaciones, extracción de información reemplazando el análisis visual de la imagen
mediante la aplicación de técnicas cuantitativas para automatizar la identificación de los
objetos contenidos en una escena. Esto implica el análisis de datos de escenas
multiespectrales aplicando distintas técnicas, entre ellas reglas de decisión basadas en
conceptos estadísticos para establecer la identidad de cada pixel en una imagen. Antes
de seguir, repasemos algunos conceptos previos.
Vimos que cada pixel de una dada banda espectral tiene un pixel coincidente en cada
una de las demás bandas. Así, para una imagen que conste de K bandas habrán K
niveles de grises asociados a cada pixel. Esos K niveles de grises generan un espacio
espectral k-dimensional en el que cada pixel está representado por un vector que es su
firma espectral. Vayamos a un caso sencillo y concreto. Supongamos que queremos
analizar una imagen multiespectral identificando tres clases muy generales como suelo,
agua y vegetación. Para simplificar supongamos que nuestro conjunto de bandas está
formado sólo por las bandas LANDSAT TM 2,3 y 4. En la Fig. 67 se representan las
curvas de reflectancia espectral de las clases consideradas. A dichas curvas se han
superpuesto los rangos espectrales de las bandas TM 2,3 y 4. En el espacio
tridimensional definido por estas bandas las clases suelo, agua y vegetación están
representadas por los vectores (firmas espectrales) de la Fig. 68.
Sin embargo, la reflectancia de una dada cubierta terrestre no está usualmente
caracterizada por una curva única y definida. En efecto, la operación de diversos
factores naturales (topograficos, atmosféricos, genéticos, fenológicos, etc.) hacen que
en lugar de una sola curva haya que considerar una Familia de curvas, parecidas entre
sí pero que introducen cierta indeterminación en la caracterización de la cubierta
considerada.
O sea que no bastará un solo vector para representar una clase sino que caracterizarán
por vectores próximos entre sí y cuyas puntas determinarán un cluster, tal como se
aprecia en el diagrama de dispersión tridimensional de la Fig. 69, en la que se
han representado sólo los extremos de los vectores.

Hasta aquí nuestro ejemplo ha sido un poco simplista en el sentido de que no


hemos planteado una situación que se da corrientemente y es la superposición parcial
de los clusters. En estos casos se presentan dificultades para asignar un dado pixel a
una u otra de las clases cuyos clusters se solapan. Este problema obliga a recurrir a
soluciones de compromiso recurriendo a procedimientos de clasificación que pasaremos
a considerar. Concretando, el proceso de clasificación intenta categorizar todos los
pixeles de una imagen digital asignándolos a una o más clases de coberturas terrestres
o clases temáticas. Esta clasificación de carácter multiespectral no es sino un proceso
de extracción de información que analiza la firma espectral de los pixeles y los asigna a
clases basadas en firmas similares. Para lograr la mencionada categorización de los
pixeles se recurre a clasificadores que pueden ser considerados como ciertos
programas de computadora que implementan estrategias específicas para la
clasificación de la imagen. En el curso del tiempo se han diseñado muchas de tales
estrategias, y entre éstas el analista debe resolver cuál de ellas se adapta mejor a las
necesidades de su trabajo. Actualmente no es posible decidir qué clasificador es el mejor
para todas las situaciones dada la gran variedad de escenas y circunstancias que los
trabajos de percepción remota enfrentan. En tal sentido será conveniente referirnos a
las estrategias alternativas para la clasificación de imágenes.
Los métodos tradicionales de clasificación involucran dos alternativas: no supervisada
y supervisada. El método no supervisado crea agrupamientos espectrales o clusters que
no tienen mayor significado desde el punto de vista del usuario, por lo que el analista
debe intentar asociar una clase temática a cada uno de dichos grupos. En el método
supervisado, en cambio, el analista supervisa el proceso de categorización del pixel
especificando al algoritmo de la computadora descriptores numéricos de los varios tipos
de coberturas terrestres presentes en la escena. Para ello debe recurrirse a un muestreo
de sitios representativos de coberturas conocidas, llamadas áreas o sitios de
entrenamiento que permitan compilar un código de interpretación numérica que describe
los atributos espectrales para cada cobertura de interés.
Cada pixel de la escena es entonces comparado con el código de cada categoría
asignándole el nombre de aquella categoría a la que más se asimila. O sea que en el
enfoque supervisado el analista define sus categorías de interés y examina su
separabilidad espectral, mientras que en el no supervisado primero determina las clases
espectralmente separables y luego define las clases temáticas de interés. La preferencia
por uno u otro enfoque va a depender de la naturaleza del problema en estudio. En los
casos en que la definición de las áreas de entrenamiento y la correspondiente
codificación de las clases de interés sea satisfactoriamente realizable, el método
supervisado va a ser superior al no supervisado y será el preferido. En el caso de áreas
de terreno complejas, en cambio, el método no supervisado resultará superior al
supervisado. En efecto, en este caso el analista tendrá dificultades para definir sus áreas
de entrenamiento dada la variabilidad de la respuestra espectral dentro de cada clase.
Además, el enfoque supervisado es subjetivo en el sentido de que el analista intenta
definir clases temáticas compuestas a veces por varias clases espectrales, lo que no
ocurre en el método no supervisado que revela clases espectralmente distinguibles
dentro de las condicionantes impuestas al algoritmo de agrupamiento (o
“clusterificación”). Además, el método no supervisado posee el potencial para revelar
clases temáticas no previstas previamente.
Clasificación supervisada.
Podemos definir esta clasificación como un proceso en que pixeles de identidad
conocida, ubicados dentro de las áreas de entrenamiento, se utilizan para clasificar
pixeles de identidad desconocida. La clasificación supervisada involucra las siguientes
etapas:
Etapa de entrenamiento
·Selección del algoritmo de clasificación adecuado y clasificación.
· Operaciones de post clasificación.
En la etapa de entrenamiento el analista selecciona áreas de identidad conocida de
la cubierta terrestre de interés (cultivos, forestaciones, suelos, etc.) delineándolas sobre
la imagen digital bajo formas de rectángulos o polígonos cuyos datos numéricos
quedan archivados en la computadora como regiones de interés constituyendo los
“datos de entrenamiento”. Para realizar la selección el analista debe tener un
conocimiento previo del área de estudio, sea por reconocimientos de campo sea por
consulta de mapas,fotografías aéreas,etc
Una vez que se dispone de un conjunto de estos datos de entrenamiento debe tratase
de adjudicar cada uno de los pixeles de la escena a alguna clase. Entre los algoritmos
clásicos par estos fines citemos los siguientes
-clasificador por mínima distancia
.clasificador por paralelipedos

Clasificador por mínima distancia.

Con este clasificador los datos de entrenamiento se utilizan sólo para determinar la media
de las clases seleccionadas como regiones de interés. El programa efectuará la
clasificación ubicando cada pixel no identificado en la clase cuya media se encuentra
más cercana para lo cual puede utilizar la distancia euclidiana. El procedimiento se
ejemplifica gráficamente en el diagrama de dispersión de la Fig. 70. Por razones de
simplicidad la representación la hacemos tomando sólo dos bandas (Banda I y Banda
II), pero debe tenerse en cuenta que cuando el procedimiento se implementa
numéricamente puede generalizarse para cualquier número de bandas
Un pixel a de identidad desconocida, será adjudicado a una dada clase computando las
distancias euclidianas entre el pixel y el centroide de cada clase. Aunque simple desde
el punto de vista computacional este algoritmo tiene ciertas limitaciones, entre ellas
la insensibilidad a los diferentes grados de varianza en las respuestas espectrales de
las diferentes clases.
Así por ejemplo el punto b en la Fig. 70 clasificador lo adjudicaría a clase 3, aunque la
mayor variabilidad de la clase 1 nos hace pensar que tal vez sería más
realista adjudicarlo a ésta.. Por tal motivo este clasificador no es muy apropiado para
aquellos casos en que las clases espectrales están muy próximas entre sí en el espacio
de medida y a la vez tienen elevadas varianzas.
Clasificador por paralelipedos
Este clasificador se implementa definiendo un subespacio en forma de paralelepípedo
(es decir, un hiper-rectángulo) para cada clase. En este procedimiento se introduce
sensibilidad respecto a la varianza de las clases. En efecto, los límites de cada
paralelepípedo son definidos por el rango de valores para cada área de entrenamiento,
o sea por los números digitales máximo y mínimo para dicha área.
Alternativamente, dichos límites pueden definirse tomando cierto número de
desviaciones standard para ambos lados de la media del área de entrenamiento. En este
caso la regla de decisión es que el pixel de identidad desconocida caiga dentro de
alguno de los paralelepípedos para adjudicarlo a la correspondiente clase. Un ejemplo
de la aplicación de este clasificador en el caso sencillo de un diagrama de dispersión de
sólo dos bandas se presenta en la Fig. 71:
Este clasificador es rápido y fácil de implementar. Tiene sin embargo fuentes de
error asociadas al relativamente frecuente solapamiento de los paralelepípedos: un pixel
puede caer dentro de más de un paralelepípedo si éstos se solapan. Puede darse
también el caso de que no caiga en ninguno. Estos factores quitan robustez al
clasificador.

CONCLUSIONES
 Conocimos los procesos de tratamientos de imágenes digitales los cuales son:
Pre procesamiento, Realce, Clasificación.
 Conocimos las características de las imágenes satelitales

BIBLIOGRAFIA

 https://prezi.com/q5k7sgmcczag/topografia-mediante-imagenes-satelitales/
 http://www.teledet.com.uy/tutorial-imagenes-satelitales/procesamiento-
imagenes-satelitales.htm
ANEXOS
Imágenes multi-espectrales – hiper-espectrales - Imágenes Aéreas de muy alta
resolución

WorldView – 3
Imágenes Satelitales RapidEye

Sistema UX5
Firmas espectrales - imágenes de satélite

Multi - espectral vs. Hiper – espectral


Imagen a color con bandas multiespectrales de LandSat

Composición a color usando LandSat 8


Firmas espectrales - imágenes aéreas
Imagen aérea

El sensor WV 3 y el SWNIR

Das könnte Ihnen auch gefallen