Beruflich Dokumente
Kultur Dokumente
INTRODUCCIÓN
Las imágenes digitales satelitales y las fotografías aéreas juegan un papel importante
en la elaboración general de mapas y en la adquisición y visualización de datos GIS.
En primer lugar, ayudan a proporcionar un efecto visual sólido.
Los satélites de observación de la tierra han dado paso a una nueva disciplina que se
viene utilizando en todas las labores que tienen que ver con los Recursos Naturales. Un
aspecto no muy conocido de las imágenes satelitales es su composición, ya que una
imagen satelital aparenta ser una fotografía a color, sin embargo, una imagen es una
disposición matricial de valores digitales numéricos y como tal susceptible de ser
analizados. Estos valores tienen parámetros estadísticos y es en base a estos una
imagen puede ser realzada para realizar una mejora visual por medio de ajustes y filtros
para una mejor interpretación visual de las imágenes y en la presente revisión, se trata
de realizar una aproximación a la descripción de los realces y filtrajes que se realizan en
una imagen en base a los componentes estadísticos de una imagen y mejorar la calidad
visual de estas imágenes.
Ejemplos de esto son características tales como carreteras, vegetación y cuerpos de
agua. Antes de que esta información pueda ser recogida de una forma que sea útil para
un sistema de elaboración de mapas o GIS, los datos de imágenes satelitales o
fotografías aéreas deben prepararse de forma que se elimine la distorsión de la
imagen. Sin este proceso no sería capaz de realizar funciones tales como realizar
medidas precisas y directas de distancias, ángulos, posiciones y áreas.
2. OBJETIVOS
.
Conocer cada una de las fases de los tratamientos imágenes satélites.
3. MARCO TEORICO
Este servicio fotogramétrico se realiza a partir de imágenes satelitales estereoscópicas
de alta resolución las cuales permiten obtener Modelos Digitales de Elevación (MDE) con
alto nivel de detalle además de sus productos derivados tales cómo curvas de nivel,
perfiles y maquetas 3D.
Estos modelos y la visualización 3D sirven para mejorar la comunicación de información
espacial y por ende la participación ciudadana en los grandes proyectos de inversión
pública y privada.
WORLD VIEW - 1
Este es un nuevo satélite puesta en órbita a fines del 2007, la principal característica es
que capta imágenes pancromáticas con una resolución de 0,5 metros. Próximamente,
se espera el lanzamiento del satélite World View–2, para la adquisición de imágenes
multiespectrales.
SATÉLITE PALSAR
El sensor PALSAR, es un sensor activo de RADAR, con una resolución variable de 10 a
100 metros. Este sensor permite captar escenas a través de las nubes, bruma, niebla o
humo, tanto de día como de noche. Por lo tanto, es ideal para realizar estudios en áreas
tropicales o polares. También son utilizadas en la geología, movimientos en masa,
aplicaciones marítimas, entre otros.
La primera imagen satelital de la Tierra fue tomada el 14 de agosto de 1959 por el satélite
estadounidense Explorer 1. La primera fotografía satelital de la luna fue tomada por el
satélite soviético Luna 3 el 6 de octubre de 1959, en una misión para fotografiar el lado
oculto de la Luna. También en 1972 los Estados Unidos comenzaron con el programa
Landsat, el mayor programa para la captura de imágenes de la tierra desde el espacio.
SATÉLITE ASTER
Estas imágenes son captadas desde 1999 por el satélite Terra. Poseen 14 bandas
separadas en 3 grupos, el primero con una resolución de 15 metros, en donde están las
bandas del visible y del infrarrojo cercano; el segundo con una resolución de 30 metros
compuesto por 6 bandas del infrarrojo; y un tercer grupo termal, con una resolución de
90 metros. Sus principales aplicaciones están en el análisis de suelos, cuerpos de agua,
geología, medio ambiente, usos de suelo, entre otros.
QUICK BIRD
Estas imágenes son denominadas de alta resolución,se componen de una imagen
multiespectral, que posee las bandas visibles y la infrarroja cercana, con una resolución
espacial de 2.4 metros; y una imagen pancromática, con una resolución de 0.6 metros.
Cada escena QuickBirdtiene una extensión de 16.5*16.5 Km2. Las aplicaciones que se
pueden realizar con estas imágenes son variadas, como por ejemplo: generación de
cartografía urbana, aplicaciones agrícolas, forestales, de recursos hídricos, medio
ambiente, seguridad, entre otros.
SATÉLITE - LANDSAT
Se caracterizan por la variedad de bandas que las componen. Se separan en 2 tipos:
Landsat7 (sensor ETM+) y Landsat5 (sensor TM); ambas poseen 7 bandas
multiespectrales que van desde el visible hasta el infrarrojo medio, con una resolución
de 30 metros, en la mayoría de ellas.
SATÉLITE PRISM
A diferencia del sensor anterior, el PRISM capta imágenes pancromáticas y se destaca
por la resolución espacial que estas poseen de 2.5 metros y porque cada escena
contiene 3 perspectivas (nadir, hacia atrás y hacia delante), con una superficie común de
35*35 Km2, de manera que permite hacer estereoscopía y generar modelos digitales de
elevación de alta precisión.
SATELITE - ALOS
Las imágenes ALOS, son captadas por 3 sensores: VNIR, PRISM y PALSAR. En el caso
del sensor VNIR, este capta imágenes multiespectrales, que poseen las bandas del
visible y el infrarrojo cercano, con una resolución de 10 metros. Cada imagen tiene una
extensión de 70*70 Km2. Tiene aplicación en el área medioambiental, clasificación de
suelos y seguimiento de desastres naturales.
CARACTERÍSTICAS DE LAS IMÁGENES SATELITES:
Compuestas por bandas y pixeles, en líneas y columnas.
Generada por la energía que genera la tierra y la atmósfera. Recibida por un
sensor que se halla en el satélite: teledetección.
Brindan información No Visible al espectro electromagnético. Permiten calcular
variables físicas: Humedad: suelo y atmósfera Temperatura: mar, tierra y nubes.
Pueden ser: en blanco y negro. nocturnas térmicas
Pueden ser: de baja o alta resolución ópticas o de radar captadas en el espectro
visible o infrarrojo.
Textura, permiten diferenciar montañas de llanuras, el limo en los océanos.
Rotación de la Tierra.
A medida que el sensor escanea el terreno la Tierra se desplaza de oeste a este. De
modo que un punto del terreno registrado al fin del escaneado va a estar más al oeste
que cuando comenzó el barrido. Esto produce una distorsión según la traza de barrido.
Como casos de distorsiones geométricas no sistemáticas citemos los efectos por altitud
y actitud.
Altitud.
Si la plataforma se desvía de su altitud normal o si aumenta la elevación del terreno se
producen distorsiones de escala.
Actitud.
Hace referencia a la orientación del satélite (o bien plataforma aérea) en el espacio
tridimensional en que se desplaza. En tal sentido podemos definir un sistema de
tridimensional de coordenadas ortogonales centrado en el centro de gravedad de la
plataforma considerada.
De acuerdo con esto puede definirse la orientación de la plataforma por la contribución
de los movimientos respecto a estos ejes principales
2. EL REALCE
Realces
Son procedimientos que tienden a mejorar la interoperabilidad visual de una
imagen, aunque no aumentan la cantidad de información contenida en ella. El rango de
opciones de que dispone el analista para realces de imagen es virtualmente ilimitado,
aunque la mayoría de estas técnicas pueden ubicarse en dos grupos: operaciones de
punto, que modifican independientemente el brillo de cada pixel y operaciones locales,
que modifican el valor de cada pixel basadas en el valor de los pixeles vecinos. Dentro
de las primeras citaremos algunas como estiramiento de contraste y manipulaciones
espectrales, y entre las segundas el filtrado espacial.
Estiramiento de contraste.
Este procedimiento involucra un cambio de forma del histograma reasignando los valores
de los pixeles. A continuación Vemos un ejemplo de cómo, a través de una función
de transferencia lineal se puede efectuar dicha transformación.
Filtrado espacial.
Las operaciones de contraste descritas en la sección previa no alteran los datos de la
imagen, simplemente modifican su visualización. En el filtrado espacial, en cambio, los
datos de la imagen son modificados. En efecto, el valor de un pixel en una dada ubicación
es cambiado en función de los valores de los pixeles vecinos.
En percepción remota las imágenes se caracterizan por un parámetro denominado
frecuencia espacial. Esta puede definirse como el número de cambios que ocurren en el
valor del pixel (o brillo) por unidad de distancia para alguna región particular de la
imagen. Si sobre una dada área de la imagen ocurren pocos cambios de brillo se
considera como un área de baja frecuencia (ej. grandes extensiones agrícolas, cuerpos
de agua extensos, etc.)
Si, por otra parte, los cambios de brillo son numerosos y notorios tendremos un área de
alta frecuencia (calles o caminos en zonas urbanas, parcelas agrícolas pequeñas, etc.).
En las imágenes de percepción remota la frecuencia espacial puede realzarse o
deprimirse según la conveniencia del analista utilizando el filtrado espacial.
Este no es sino una aplicación de la operación general de procesamiento de imágenes
denominada convolución y que implica el siguiente procedimiento:
1. Se define una ventana móvil que contiene un arreglo de coeficientes o
factores ponderales. Estos arreglos se definen como operadores o kernels, cuyo tamaño
es normalmente el de un número impar de pixeles (3x3, 5x5, 7x7, etc)
2. Dicho kernel se mueve a través de la imagen original, y el valor del pixel central
del kernel en la imagen de salida se obtiene multiplicando cada coeficiente del
kernel por el correspondiente valor del pixel en la imagen original y sumando el
resultado de todos los productos resultantes . La operación se repite para cada pixel de
la imagen original.
VENTANA MOVIL IMAGEN PROYECCION DE LA VENTANA MOVIL SOBRE LA
IMAGEN A PROCESAR
Existen muchos tipos de filtros de convolución. En las siguientes imágenes se dan
ejemplos de los efectos obtenidos con algunos de dichos filtros (Figs. 51 a,b y c, y
Fig.51 bis a,b y c)
Los filtros de baja frecuencia reducen las desviaciones respecto al promedio local de
la imagen y ésta aparece como más difusa, efecto que aumenta al aumentar el tamaño
de la ventana (5x5, 7x7, etc.).
Este filtro suele ser útil para reducir ciertos patrones de ruido, como por ejemplo los
efectos de ¨salt-and-pepper¨ de algunas imágenes. Los filtros de alta frecuencia
deprimen los componentes de baja frecuencia reteniendo los de alta frecuencia
(variaciones locales). Pueden ser utilizados para realzar bordes entre distintos objetos
de una imagen así como para hacer ésta más nítida. Una importante aplicación es en la
identificación y mapeos de características geológicas, incluyendo fallas,
fracturas, monoclinas, que poseen diferentes rangos de frecuencias espaciales. Un
kernel de alta frecuencia puede ser el siguiente:
Los filtros de mediana sustituyen cada pixel de la imagen por la mediana de los pixeles
vecinos. Ejemplo:
En orden crecientes los valores de los pixeles cubiertos por la ventana móvil son
Este consiste en filtrar la imagen en dos direcciones ortogonales, por ej. horizontal y
vertical. Los filtros de gradiente utilizados son:
Además de los filtros que hemos mencionado como ejemplos típicos se han descrito
muchos otros que escapan del alcance de esta Introducción. Citemos por ejemplo los
filtros gaussianos, laplacianos, de transformada de Fourier, etc.
ANALISIS POR COMPONENTES PRINCIPALES
Un problema frecuente en el análisis de imágenes multiespectrales es el de la
correlación existente entre ellas, es decir que contienen mucha información redundante.
Esta no aporta nada nuevo y aumenta enormemente la carga computacional cuando
dichas imágenes son sometidas a procesos matemáticos. Esto podemos apreciarlo en
la Fig. 56, en la que se observan los dispersogramas típicos de los pares de bandas
TM1/TM2, TM2/TM3 y TM3/TM4 del LANDSAT. Sólo las bandas 3 y 4 presentan baja
correlación.
Los componentes principales del conjunto de dos bandas está constituido por el sistema
de combinaciones lineales de dichas bandas, que con una adecuada selección de
los coeficientes aij resultarán independientes y no correlacionados entre sí. Esto se
ilustra en las Figs. 57 a y b. En (a) los valores de los pixeles graficados en el espacio
bidimensional d1 y d2 están notoriamente correlacionados. En (b) se observa cómo,
luego de una adecuada combinación lineal la correlación es removida.
Vemos que la transformación no es sino una rotación en el espacio bidimensional de los
valores de los pixeles, y el ángulo de rotación quedará determinado por la correlación
entre los valores de d1 y d2.El eje d'1 define la dirección del primer componente principal,
y el eje d'2 la dirección del segundo componente principal. Puede observarse que los
datos a lo largo del primer componente principal
poseen una varianza o rango dinámico mayor que el correspondiente a cualesquiera de
los dos ejes originales. Por su parte los datos a lo largo del segundo componente principal
(eje d'2) poseen una varianza considerablemente menor que la correspondiente a d'1.
Es decir que hemos volcado la mayor parte de la información al primer componente
principal. El tratamiento podemos generalizarlo para un sistema de N bandas,
representándolo en forma matricial:
Donde:
d es un vector columna conteniendo los N valores originales de los pixeles de d1 a dN,
d' es el correspondiente vector luego de la transformación
A es la matriz de los coeficiente aij. .
Obviamente la clave de una transformación exitosa radica en la optimización de los
coeficientes aij, lo cual puede hacerse por una transformación en componentes
principales (PCT) también conocida como transformación de Karhunen-Loeve o de
Hotelling, cuyos detalles escapan del alcance de esta Introducción. En general los
softwares para tratamiento de imágenes ofrecen módulos para realizar este tipo de
transformación.
En el caso de imágenes de más de tres bandas usualmente ocurre que el primer
componente principal incluirá cerca de 90% de la varianza total de la imagen, mientras
que los sucesivos PC2, PC3,,PCN poseerán porcentajes decrecientes. En general PCN
será mayormente ruido.
En la Fig. 59, se observa el resultado de la transformación en componentes principales.
En la Fig.60 se presentan algunos dispersogramas de las bandas resultantes de la
transformación, donde se puede observar la ortogonalidad de los CP.
COMBINACIONES DE COLORES
Combinaciones de color
Vimos que las imágenes satelitales suelen ser multiespectrales, es decir que son
registradas simultáneamente en varias regiones del espectro electromagnético. Estas
imágenes pueden ser estudiadas individualmente en escalas de grises o en imágenes
coloreadas obtenidas a partir de las primeras. Estas últimas se generan según el modelo
de color RGB (del inglés Red, Green, Blue). Este hace referencia a la composición del
color en términos de la intensidad de los colores primarios con los que se forma: el rojo,
el verdey el azul. Es un modelo de color basado en la síntesis aditiva, es decir basado
en la mezcla por adición de dichos primarios.
Para indicar en qué proporción se mezcla cada color se asigna un valor a cada uno de
los colores primarios. Así por ejemplo, para un display de computadora de 8 bits por
pixel el rango de valores posibles (o sea de DN) para cada componente de color es de 0
a 255. En consecuencia existirán 2563 = 16.777.216 combinaciones posibles de rojo,
verde y azul, y a cada pixel de una combinación de color corresponderá un punto dentro
del cubo de color representado en las Figs. 61 y 62 (a esta última se le extrajo un sector
para mejor visualización interior).
Por lo tanto, las coordenadas del rojo serán (255,0,0), del verde (0,255,0) y del
azul (0,0,255). La ausencia de color, es decir el negro corresponde al punto (0,0,0).
La combinación de dos colores a nivel 255 con un tercero a nivel 0 da lugar a tres
colores intermedios: el amarillo (255,255,0), el cyan (0,255,255) y el magenta
(255,0,255). El blanco se forma con los tres colores primarios a su máximo nivel
(255,255,255).
La escala de grises es la diagonal que une el blanco y el negro. Concretando, para
preparar una combinación de color se seleccionan tres bandas de interés de la escena
multiespectral y computadora mediante se le asigna a cada una de ellas uno de los tres
colores primarios.
El display nos entregará una combinación RGB correspondiente a las bandas
seleccionadas y a la asignación de colores. Las bandas a seleccionar
quedarán condicionadas, aparte de las posibilidades ofrecidas por el sensor del satélite,
por aquellos rasgos de la escena que se desea realzar, y la asignación de colores
además de ser condicionada por dicho factor puede corresponder a un criterio
profesional o heurístico del analista.
De todos modos, existen ciertas combinaciones que demostraron ser de
particular interés, sobre todo asociadas a temas ambientales y agronómicos. Dichas
combinaciones son:
RGB3,2,1
Esta combinación suele llamarse “color natural” pues involucra a las tres bandas
.,visibles y se le asigna a cada una de ellas su verdadero color, resultando una
combinación que se aproxima a los colores naturales de la escena. La vegetación
aparece en diversos tonos de verde y los suelos en colores marrones o tostados.
Además, las bandas visibles tienen buena penetración en los cuerpos de agua y
esta combinación permite observar detalles en agua poco profundas (turbidez,
corrientes, batimetría, plumas de sedimentos, etc.).
RGB5,4,3
RGB4,3,2
Esta combinación suele llamarse “falso color infrarrojo” pues los colores
resultantes en la imagen son similares a los de las fotografías obtenidas con film
infrarrojo color. Al asignar el rojo a la bandas 4 (NIR) resultará que todos los tonos
de rojo, desde el rojo muy oscuro al rosado pálido corresponden a vegetación:
los tonos más oscuros se relacionan con la presencia de vegetación arbórea
densa, como bosques, montes, etc., pudiéndose identificar algunas especies
como pinos y eucaliptos. Rojos claros indican cultivos y praderas vigorosas. Los
rosados corresponden a vegetación poco densa como pasturas naturales.
El celeste corresponde a suelo desnudo, seco o áreas rocosas. El azul-celeste
puede corresponder a zonas urbanas. El azul oscuro a negro se relaciona con
agua clara en cursos o cuerpos de agua. Si éstos presentan partículas en
suspensión aparecerán con tonalidades azul-verdosas (cian). Los colores verde
a verde azulado corresponden a parcelas aradas o suelos descubiertos con
mayor o menor contenido de humedad.
RGB4,5,3
Con este clasificador los datos de entrenamiento se utilizan sólo para determinar la media
de las clases seleccionadas como regiones de interés. El programa efectuará la
clasificación ubicando cada pixel no identificado en la clase cuya media se encuentra
más cercana para lo cual puede utilizar la distancia euclidiana. El procedimiento se
ejemplifica gráficamente en el diagrama de dispersión de la Fig. 70. Por razones de
simplicidad la representación la hacemos tomando sólo dos bandas (Banda I y Banda
II), pero debe tenerse en cuenta que cuando el procedimiento se implementa
numéricamente puede generalizarse para cualquier número de bandas
Un pixel a de identidad desconocida, será adjudicado a una dada clase computando las
distancias euclidianas entre el pixel y el centroide de cada clase. Aunque simple desde
el punto de vista computacional este algoritmo tiene ciertas limitaciones, entre ellas
la insensibilidad a los diferentes grados de varianza en las respuestas espectrales de
las diferentes clases.
Así por ejemplo el punto b en la Fig. 70 clasificador lo adjudicaría a clase 3, aunque la
mayor variabilidad de la clase 1 nos hace pensar que tal vez sería más
realista adjudicarlo a ésta.. Por tal motivo este clasificador no es muy apropiado para
aquellos casos en que las clases espectrales están muy próximas entre sí en el espacio
de medida y a la vez tienen elevadas varianzas.
Clasificador por paralelipedos
Este clasificador se implementa definiendo un subespacio en forma de paralelepípedo
(es decir, un hiper-rectángulo) para cada clase. En este procedimiento se introduce
sensibilidad respecto a la varianza de las clases. En efecto, los límites de cada
paralelepípedo son definidos por el rango de valores para cada área de entrenamiento,
o sea por los números digitales máximo y mínimo para dicha área.
Alternativamente, dichos límites pueden definirse tomando cierto número de
desviaciones standard para ambos lados de la media del área de entrenamiento. En este
caso la regla de decisión es que el pixel de identidad desconocida caiga dentro de
alguno de los paralelepípedos para adjudicarlo a la correspondiente clase. Un ejemplo
de la aplicación de este clasificador en el caso sencillo de un diagrama de dispersión de
sólo dos bandas se presenta en la Fig. 71:
Este clasificador es rápido y fácil de implementar. Tiene sin embargo fuentes de
error asociadas al relativamente frecuente solapamiento de los paralelepípedos: un pixel
puede caer dentro de más de un paralelepípedo si éstos se solapan. Puede darse
también el caso de que no caiga en ninguno. Estos factores quitan robustez al
clasificador.
CONCLUSIONES
Conocimos los procesos de tratamientos de imágenes digitales los cuales son:
Pre procesamiento, Realce, Clasificación.
Conocimos las características de las imágenes satelitales
BIBLIOGRAFIA
https://prezi.com/q5k7sgmcczag/topografia-mediante-imagenes-satelitales/
http://www.teledet.com.uy/tutorial-imagenes-satelitales/procesamiento-
imagenes-satelitales.htm
ANEXOS
Imágenes multi-espectrales – hiper-espectrales - Imágenes Aéreas de muy alta
resolución
WorldView – 3
Imágenes Satelitales RapidEye
Sistema UX5
Firmas espectrales - imágenes de satélite
El sensor WV 3 y el SWNIR