Sie sind auf Seite 1von 18

c  


  

  







 V

 c   
  
  



  
   


 !"#$%!
"  !%&'% $!#$
#$(


) %$$*+,%-!%%.
) /%", %##.
) %$*%*% "+,00$1.







)2 ,3454. 

  
  V

$

El procesamiento de imágenes tiene como objetivo mejorar el aspecto de las imágenes y hacer
más evidentes en ellas ciertos detalles que se desean hacer notar. La imagen puede haber sido
generada de muchas maneras, por ejemplo, fotográficamente, o electrónicamente, por medio
de monitores de televisión. El procesamiento de las imágenes se puede en general hacer por
medio de métodos ópticos, o bien por medio de métodos digitales, en una computadora. En la
siguiente sección describiremos muy brevemente estos dos métodos, pero antes se hará una
síntesis brevísima de los principios matemáticos implícitos en ambos métodos, donde el
teorema de Fourier es el eje central.
El matemático Jean-Baptiste-Joseph Fourier (1768-1830) nació en Auxerre, alrededor de 160
km al sureste de París. Perdió a sus padres a la temprana edad de ocho años, quedando al
cuidado del obispo de Auxerre, gracias a la recomendación de una vecina. Desde muy
pequeño mostró una inteligencia y vivacidad poco comunes. Siguió una carrera religiosa en
una abadía, al mismo tiempo que estudiaba matemáticas, para más tarde dedicarse a impartir
clases. Sus clases eran muy amenas, pues constantemente mostraba una gran erudición y
conocimientos sobre los temas más variados.
Fourier estaba muy interesado en la teoría del calor, y además tenía una gran obsesión práctica
por él. Se dice que mantenía su habitación tan caliente que era muy incómoda para quienes lo
visitaban, y que aparte de eso, siempre llevaba puesto un grueso abrigo. Algunos historiadores
atribuyen esta excentricidad a los tres años que pasó en Egipto con el ejército de Napoleón
Bonaparte.
La teoría de Fourier se consideró tan importante desde de sus in icios, que lord Kelvin dijo de
ella: "El teorema de Fourier no solamente es uno de los resultados más hermosos del análisis
moderno, sino que además se puede decir que proporciona una herramienta indispensable en
el tratamiento de casi todos los enigmas de la física moderna."
El teorema de Fourier afirma que una gráfica o función, cualquiera que sea su forma, se
puede representar con alta precisión dentro de un intervalo dado, mediante la suma de una
gran cantidad de funciones senoidales, con diferentes frecuencias. Dicho de otro modo,
cualquier función, sea o no sea periódica, se puede representar por una superposición de
funciones periódicas con diferentes frecuencias. El teorema nos dice de qué manera se puede
hacer esta representación, pero hablar de él va más allá del objeto de esta monografía. La
variación de la irradiancia o brillantez de una imagen, medida a lo largo de una dirección
cualquiera es entonces una función que se puede representar mediante el teorema de Fourier,
con una suma de distribuciones senoidales de varias frecuencias. Sin entrar en detalles técnicos
innecesarios, simplemente afirmaremos aquí que atenuar o reforzar individualmente algunas
de estas componentes senoidales puede tener un efecto dramático en la calidad de una imagen,
mejorándola o empeorándola, según el caso. Este es el fundamento del procesamiento de
imágenes, tanto por medios ópticos como digitales, que ahora describiremos.

V
       V   V 
    V   V        V  V          V  
 V V
V

  
  V

  

±V  
   V
V 
   V
2.1.V FILTROS ................................ ................................ ................................ ................................ .. 10V
2.2.V TRANSFORMADA DE HOUGH ................................ ................................ ................................ .... 12V
2.3.V OPERADOR SOBEL ................................ ................................ ................................ ................... 12V
2.3.1.V Descripcion Simple ................................ ................................ ................................ ............. 12V
2.3.2.V Formulacion................................ ................................ ................................ ....................... 13V
2.3.3.V Formalmente ................................ ................................ ................................ ...................... 13V
2.3.4.V Detalles Técnicos ................................ ................................ ................................ ............... 14V
2.3.5.V Ejemplo ................................ ................................ ................................ .............................. 14V
èV 
   ± V
V   ±V
V  
  ±V
·.1.V REFERENCIAS ELECTRÓNICAS. ................................ ................................ ................................ .. 18V

V
       V   V 
    V   V        V  V          V  
 V V
V

  
  V

 
c 6 
La moderna tecnología digital ha hecho posible la manipulación de múltiples dimensiones con
las señales de los sistemas que van desde simples circuitos digitales hasta avanzados
computadores paralelos. El objetivo de esta manipulación se puede dividir en tres categorías:

XV Procesado de Imagen en imagen de Ⱥ fuera de imagen


XV Imagen de Análisis en Imágenes de Ⱥ las mediciones
XV momprensión de Imagen en imagen de > descripción de alto nivel

Nos centraremos en los conceptos fundamentales de procesamiento de imagen. Nos


limitaremos a dos dimensiones (2D) de procesamiento de imagen, aunque la mayoría de los
conceptos y técnicas que se describen pueden extenderse fácilmente a tres o más dimensiones.

momenzamos con algunas definiciones básicas. Una imagen definida en el "mundo real" se
considera una función de dos variables reales, por ejemplo, a (x ,y), con a como la amplitud
(brillo, por ejemplo) de la imagen de verdadera posición de coordenadas (x ,y). Una imagen
puede ser considerada para contener sub-imágenes a veces se denomina regiones de interés
regions-of-interest, ROIs, o simplemente regiones. Este concepto refleja el hecho de que las
imágenes suelen contener las colecciones de objetos de cada una de ellas puede ser la base
para una región. En un sofisticado sistema de procesamiento de imagen, debería ser posible
aplicar las operaciones de tratamiento de imágenes específicas para determinadas regiones. Así,
una parte de una imagen (la región) pueden ser procesados para suprimir el desenfoque de
movimiento mientras que otra parte podría ser procesado para mejorar la rendición de color.

Las amplitudes de una imagen dada, casi siempre son números reales o números enteros. Este
último suele ser el resultado de un proceso de cuantificación que convierte una gama continua
(por ejemplo, entre 0 y 100%) a un número discreto de los niveles. En la imagen algunos
procesos de formación, sin embargo, la señal puede afectar el recuento de fotones que impl ica
que la amplitud sería inherentemente cuantificados. En otra imagen que forman los
procedimientos, como la resonancia magnética, la medición directa de los rendimientos físicos
de un número complejo en la forma de un magnitud real y una fase real.

V
       V   V 
    V   V        V  V          V  
 V V
V

  
  V

57V  !$#$
%&/!% $"%'$
Desde un punto de vista físico, una imagen puede considerarse como un objeto plano cuya
intensidad luminosa y color puede variar de un punto a otro. Si se trata de imágenes
monocromas (blanco y negro), se pueden representar como una función continua f(x, y)
donde (x, y) son sus coordenadas y el valor de f es proporcional a la intensidad luminosa (nivel
de gris) en ese punto.
Las imágenes son representaciones de objetos los cuales son sensados a través de su energía
radiante, por ejemplo, la luz. Por tanto, por definición la formación de una imagen requiere de
una fuente de radiación, un objeto y un sistema de formación. Las fuentes de formación
pueden ser de varios tipos (fuente de luz blanca, sistemas con láser, tubos de rayos X, fuentes
térmicas y también fuentes de ondas acústicas).
Existen diferentes tipos de sistemas de formación de imagen:
XV Biológicos (sistema de visión en humanos y animales),
XV Fotoquímicas (cámaras fotográficas) y
XV Foto electrónica (cámaras de TV).

#&%
Una imagen analógica es una figura, representación o reproducción de un objeto o una cosa,
puede ser un cuadro o lámina, un mapa, una fotografía, un grabado o dibujo e inclusive un
texto, refiérase a la Figura 1.

a 
    

"%%!#
Para obtener una imagen que pueda ser tratada por el ordenador es preciso someter a la
función f(x, y) a un proceso de discretización tanto en las coordenadas como en la intensidad,
a este proceso se le denomina digitalización, refiérase a la Figura 2.

V
       V   V 
    V   V        V  V          V  
 V V
V

  
  V


a          V

La salida de este proceso pueden ser, o bien un único valor (escala de grises) o bien un vector
con tres valores por polígono (RGB) que se corresponden con la intensidad de color rojo (R),
verde (G) y azul (B). La escala de colores también tiene un rango discreto (por ejemplo, de
8bits = 256 valores). Las imágenes en escala de grises con sólo 2 colores: blanco y negro (0 y
1, respectivamente), se llaman imágenes binarias

Una imagen digital puede considerarse como una matriz cuyos índices de fila y columna
identifican
un punto de la imagen y el valor del correspondiente elemento de la matriz indica el nivel de
gris de ese punto. Los elementos de una distribución digital de este tipo se denominan
elementos de la imagen o más comúnmente píxels o pels, que son abreviaturas de su
denominación inglesa ´pictureelementsµ.
Las imágenes digitales se pueden dividir en cuatro tipos:.

XV monocromáticas, son imagines blanco y negro y también imágenes en escala de


gris.
XV colormapped (paleteada), cada píxel está representado por un número llamado
índice que se toma para el color real del píxel desde una tabla llamada paleta.
XV truecolor.Estas imágenes son las de más alta calidad y las de mayor ocupación de
memoria, cada píxel contiene la información de color completa, usualmente
expresada como la intensidad de la componente de color rojo, verde o azul
(RGB).

V
       V   V 
    V   V        V  V          V  
 V V
V

  
  V

"#$"#
El objetivo de un modelo de color es facilitar la especificación de los colores de una forma
normalizada y aceptada genéricamente. En esencia, un modelo de color es la especificación de
un sistema de coordenadas tridimensional y de un sub espacio de este sistema en el que cada
color quede representado por un único punto. La mayoría de los modelos de color empleados
están orientados a HW o hacia aplicaciones donde se pretende manipular el color (animación).
RGB Ⱥ Monitores a color y cámaras
mMY Ⱥ Impresoras a color
YIQ Ⱥ Televisión en color
HSI y HSV Ⱥ Manipulación de imágenes a color, refiérase a la Figura 3.

V
a    V


%""
La vecindad es un concepto referido a un píxel y los 8 píxeles que lo rodean. Se le llama N4(p)
al conjunto formado por los píxeles verticales y horizontales vecinos del píxel p, y ND(p) al
conjunto de los vecinos diagonales del píxel p. A los conjuntos N4(p) y ND(p) se les conoce
como los 8 vecinos de p, denotado por N8(p) [2].

!"-#%&
Es una ventana utilizada para tomar muestras de la imagen, con el propósito de obtener
información de una cierta área.

37V $%!"'$
%%!#
Una imagen digital a [m, n] se describe en un espacio 2D discretos se deriva de una imagen
analógica a (x, y) en un espacio 2D continua a través de un proceso de muestreo que se
refieren con frecuencia como la digitalización. Por ahora vamos a ver algunas definiciones
básicas relacionadas con la imagen digital. El efecto de la digitalización se muestra en la Figura
4.
La imagen 2D continua a (x, y) se divide en n filas y m columnas. La intersección de una fila y
una columna que se llama un píxel. El valor asignado a las coordenadas enteras [m, n] con (m
V
       V   V 
    V   V        V  V          V  
 V V
V

  
  V

= 0,1,2 ,..., M-1) y (n = 0,1,2 ,..., N-1) es un [m, n]. De hecho, en la mayoría de los casos, un
(x, y) - que podríamos considerar que la señal física que incide en la cara de un sensor de 2D -
es realmente una función de muchas variables incluyendo la profundidad (z), color () , y el
tiempo (t). A menos que se indique lo contrario, vamos a considerar el caso de 2D,
monocromática, imágenes estáticas en este capítulo.

% 8(  "%%!#%+%& "  % !%97# :#  #$
""$;<54,<=>#-#!%"?%##!5547


  
6

Los principios del procesamiento óptico de imágenes están bien establecidos desde el siglo
pasado, cuando se desarrolló la teoría de la difracción de la luz. Sin embargo, su aplicación
práctica data apenas del principio de la década de los sesenta, cuando se comenzó a disponer
del rayo láser.

El procesamiento óptico se basa en el hecho de que la imagen de difracción de Fraunhofer de


una transparencia colocada en el plano focal frontal de una lente es una distribución luminosa
que representa la distribución de las frecuencias de Fourier que componen la imagen, a la que
se le llama técnicamente transformada de Fourier.

monsideremos el arreglo óptico de la figura 42. En el plano focal frontal de la lente L1 se ha


colocado la transparencia T, la cual está siendo iluminada por un haz de rayos paralelos
provenientes de un láser de gas. Sobre el plano focal F1 de la lente L1 se forma una
distribución luminosa que representa la transformada de Fourier de la transparencia. Si ahora
se coloca otra lente L2 como se muestra en la misma figura, se puede formar una imagen de la
transparencia en el plano focal F2 de esta lente. Si ahora se coloca cualquier objeto o
diafragma sobre el plano F1, se pueden eliminar las porciones que se deseen de la
transformada de Fourier de la transparencia, eliminando así de la imagen las frecuencias de
Fourier deseadas.

mada porción de la transformada de Fourier corresponde a una frecuencia espacial diferente


sobre el objeto. Por lo tanto, mediante los diafragmas adecuados se pueden eliminar las
frecuencias espaciales, llamadas también de Fourier, que se deseen quitar.

V
       V   V 
    V   V        V  V          V  
 V V
V

  
  V



  
 

% 837 $%! & !% " %'$7 @A % %%#, 
#$ " ?%", !%  % " !#-%$%&B @?A !$" " %
"#?C!B@A!$""%"%%","$ 1$"%#!/@"A
% $",$%#$#$"?%"7

Al igual que en el caso del procesamiento óptico, los principios fundamentales del
procesamiento digital de imágenes están establecidos hace muchos años, pero no se llevaban a
cabo debido a la falta de computadoras. mon la aparición de las compu tadoras de alta
capacidad y memoria, era natural que se comenzara a desarrollar este campo. Uno de los
primeros lugares donde se empezó a realizar el procesamiento digital fue en el Jet
PropulsionLaboratory, en 1959, con el propósito de mejorar las imágenes enviadas por los
cohetes. Los resultados obtenidos en un tiempo relativamente corto fueron tan
impresionantes que muy pronto se extendieron las aplicaciones del método a otros campos.

%8=7%-%$%&"% %:#$7

El procesamiento digital de imágenes se efectúa dividiendo la imagen en un arreglo rectangular


de elementos, como se muestra en la figura 43. mada elemento de la imagen así dividida se
conoce con el nombre de pixel. El siguiente paso es asignar un valor numérico a la
V
       V   V 
    V   V        V  V          V  
 V V
V

  
  V

luminosidad promedio de cada pixel. Así, los valores de la luminosidad de cada pixel, con sus
coordenadas que indican su posición, definen completamente la imagen.

Todos estos números se almacenan en la memoria de una computadora.

El tercer paso es alterar los valores de la luminosidad de los pixeles mediante las operaciones o
transformaciones matemáticas necesarias, a fin de hacer que resalten los detalles de la imagen
que sean convenientes. El paso final es pasar la representación de estos pixeles a un monitor
de televisión de alta definición, con el fin de mostrar la imagen procesada (Figura 44).

% 887 $%! "%%!# " %'$7 #  #  $
*+"#$ !$"%"#!%7@""
7D7
E/F707$$##,*#
!"!%$!,8G,975,G4,5HIGA7@A
%%#/@?A% $"7

3757V %#!$
V
V

V
V
c         


V
       V   V 
    V   V        V  V          V  
 V   V
V

  
  V

Los filtros se utilizan para la modificación de imágenes ya sea para detectar los bordes de una
escena o para modificar el aspecto, otra función de los filtros es para la eliminación de ruido
de la imagen.
Al hablar de un filtro nos estamos refiriendo a realizar una convolución de una matriz con
respecto a un pixel y la vecindad de este, esto quiere decir, si la imagen es de 200x300 pixeles y
el filtro con el cual se va a realizar la convolución es una matriz de 3x3 entonces se irá
desplazando el filtro pixel a pixel iniciando en la posición (1,1) hasta llegar a la (199,299). La
magnitud del gradiente es entonces calculada con la siguiente

fórmula:

Una magnitud aproximada puede ser calculada de la siguiente forma:

Filtros para la detección de bordes:

Uno de los filtros clásicos para la detección de bordes es el filtro de Sobel el cual utiliza, a su
vez, dos mascaras o filtros. Una para detectar los bordes verticales y otra para los horizontales.
Así, para obtener los bordes completos se realiza la suma de las imágenes que nos resultaron
con los bordes verticales y horizontales.

Sistema de matrices para la transformada de Houghs

V
       V   V 
    V   V        V  V          V  
 V   V
V

  
  V


                     


   


3737 V $""F*
La Transformada de Hough es un algoritmo empleado en reconocimiento de patrones en
imágenes que permite encontrar ciertas formas dentro de una imagen, como líneas, círculos,
etc. La versión más simple consiste en encontrar líneas. Su modo de operación es
principalmente estadístico y consiste en que para cada punto que se desea averiguar si es parte
de una línea se aplica una operación dentro de cierto rango, con lo que se averiguan las
posibles líneas de las que puede ser parte el punto. Esto se continúa para todas los puntos en
la imagen, al final se determina qué líneas fueron las que más puntos posibles tuvieron y esas
son las líneas en la imagen.

La transformada de Hough emplea una representación paramétrica de formas geométricas.


Una recta, por ejemplo se representa por un módulo ƶ (phi) (perpendicular a la recta y que
pasa por el origen (0,0) y un ángulo Ʊ (rho) (formado por el módulo y el eje positivo de las
x's). Se represeta así:

La ventaja de este método es que evita singularidades, como por ejemplo rectas de pendiente
infinita. Si se representa ƶ y Ʊ en un plano cartesiano, una recta queda determinada mediante
un punto con coordenadas (phi(recta),ro(recta)), mientras que un punto , se representa como
una función senoidal. Si por ejemplo tenemos dos puntos, tendremos dos senoides desfasadas
alfa grados dependiendo de las coordenadas de los puntos. Dichas senoides se irán cruzando
cada 180º. La interpretación geométrica de este hecho, es que la función seno de cada punto,
representa las infinitas rectas que pasan por cada punto, cuando dos puntos comparten la
misma recta, sus representaciones senoidales se cruzan, se obtiene un punto. mada vez que se
da media vuelta (Ʊ=180º) se vuelve a repetir la misma recta, por lo que volvemos a obtener
otro punto, que de hecho es la misma recta.

37=7 V
"?#
El operador Sobel es utilizado en procesamiento de imágenes, especialmente en algoritmos de
detección de bordes. Técnicamente es un operador diferencial discreto que calcula una
aproximación al gradiente de la función de intensidad de una imagen. Para cada punto de la
imagen a procesar, el resultado del operador Sobel es tanto el vector gradiente
correspondiente como la norma de éste vector.
37=757V $% %% #
El Operador Sobel aplicado sobre una imagen digital en escala de grises, calcula el gradiente de
la intensidad de brillo de cada punto (píxel) dándo la dirección del mayor incremento posible
(de negro a blanco) además calcula el monto de cambio en esa dirección, es decir, devuelve un
vector. El resultado muestra qué tan abruptamente o suavemente cambia una imagen en cada
punto analizado, y a su vez que tanto un punto determinado representa un borde en la imagen
V
       V   V 
    V   V        V  V          V  
 V   V
V

  
  V

y también la orientación a la que tiende ese borde. En la práctica, el cálculo de la magnitud -
que da nociones de un borde - es más sencilla que la interpretación de la dirección.
Matemáticamente, el gradiente de una función de dos variables (para este caso la función de
intensidad de la imagen) para cada punto es un vector bidimensional cuyos componentes están
dados por las primeras derivadas de las direcciones verticales y horizontales. Para cada punto
de la imagen, el gradiente del vector apunta en dirección del incremento máximo posible de
intensidad, y la magnitud del gradiente del vector corresponde a la cantidad de cambio de
intensidad en esa dirección. Lo anterior implica que el resultado de aplicar el operador sobel
sobre la región de una imagen con intensidad de brillo constante es un vector cero, y el
resultado de aplicarlo en un punto sobre un borde es u n vector que apunta cruzando el borde
(perpendicular) en sentido de los puntos más oscuros hacia los más claros.

37=737V #%
Matemáticamente, el operador utiliza dos kernels de 3×3 elementos para aplicar convolución a
la imagen original para calcular aproximaciones a las derivadas, un kernel para los cambios
horizontales y otro para las verticales.
Si definimos como la imagen original y y son los dos kernels que representan
para cada punto las aproximaciones horizontal y vertical de las derivadas de intensidad, el
resultado es calculado como:

En cada punto de la imagen, los resultados de las aproximaciones de los gradientes horizontal
y vertical pueden ser combinados para obtener la magnitud del gradiente, mediante:

mon esta información, podemos calcular también la dirección del gradiente:

donde, por ejemplo, Ɖ es 0 para bordes verticales con puntos más oscuros al lado izquierdo.

37=7=7V #!
Debido a que la función de intensidad de una imagen digital sólo se conoce mediante puntos
discretos, las derivadas de estas funciones no pueden ser definidas a menos que asumamos que
existe una función continua que ha sido muestreada en los puntos de la imagen. mon algunas
suposiciones adicionales, la derivada de la función continua de intensidad puede ser calculada
como una función de la función de intensidad muestreada, i.e, de la imagen digital. De lo
anterior resulta que las derivadas en cualquier punto particular son funciones de los valores de
intensidad, virtualmente, en todos los puntos de la imagen. Sin embargo, aproximaciones a
estas funciones diferenciales pueden ser definidas con el nivel de precisión requerido teniendo
en cuenta únicamente una pequeña región de puntos alrededor del estudiado.
El operador sobel representa una primera aproximación imprecisa del gradiente de la imagen,
pero es de calidad suficiente para ser de uso práctico en muchas aplicaciones. Más
precisamente, éste operador utiliza sólo valores de intensidad en una región de 3x3 alrededor
de cada punto analizado para calcular el gradiente correspondiente, además de que utiliza sólo
números enteros para los coeficientes que indican la aproximación del gradiente.

V
       V   V 
    V   V        V  V          V  
 V   V
V

O            V
 
37=787V  ## 1 
V
m  a a  f
   a      ta  at
  f tat a a   fta
 t a    t  
aa a      t aaa a aaa  a  t    t  aa
 tat  a á 
   atta     t  aa a  a a
a  a
   vt  a t  á    f t  t  t  aa  
 aa 




 a  va a    a  a a 



!"   #$%" ## 
 "#   % "%   $ $ %! !" 
 !!"%!" !'&#! '"  !"   &  !  
 
 



 ta  ta   t  á    aa  a a vta a a   a
  a atta aaa a t 
V
V
V  
37=7J7V C #
÷a  ta    a   a        a t a a
t  t     a    vt     a a    a áa  a t
 va (va ta  )    á   a ( f    aa
a a)atá ta at  ta á     a   
  a a Ov a fa  a t ( a a) a a a  a a
ata t


VV
VVVV
V
   V  
   V   V
V
, -. */0 ( 1 2
O()*+  * - 3 */ *+V



CGDNEIFG HI JKLH IMI " EGM I G!IKLHGKCDE FGHIJKLH IMI#EGMIG!IKLHGKGNI


 
V
=7V  " 

 1972  a    a  7 8K"9?9:   t   t   a  a  
ma  f  a aa a áa ta   avta a   ! va
vta a   
  a "          7  t    a
f a#a  a a a at   t  a a a  avta  
 a  a
      a    a  tat aa    t   a vta
a aa  
t a    avtav 
á 7  
 a  vt  "   áv    avta

 ; < < @ A <@ <
$   1973   a  =9> ?/  8?*9  7# 9  7(m)   a  ak  
 f     atat  #a ta "t a  t at  ta 
aaaa aa  a a  t    
%#aaf t   aaa
a  a  a#a  a   ata  "     ta
  a at  favta a (!) a a a  aá  a   
a áa ta a a 
 512512     
   t      a
   a a  a  tat tá at t  a a       
B á    
at t    t        a  m  a
t aa  a a a áa  ta  ta a a mk 

&   a  a
   a   t vta  ta  av   aá
ta a a aa   aa  a  t    aa   a a a   f a 
 va t   aa    ta   a a a
  "  a t  a
aa aa tta  












4 5  V   V     6   V  V     4 6    V
V
      V   V  
     
   V   V
V

  
  V

Desde la publicación de la primera foto de Lenna, prácticamente todos los artículos científicos
sobre compresión de imagenes y muchos de los relacionados con algoritmos incluyen en sus
páginas finales una prueba de las ideas sobre esta imagen. David Munson, quien fuera editor
de la IEEE TransactionsonImageProcessing, explica el motivo: "›V
 VV› V  V V
 V VV!V 
 V" !V  V #V$ V%V & V V V 'V " V"  V( V

 VV"  VV
 )V*+V V V
 VV" ,)V 
 !VV
 VV› VV
V V V  V ' V  ()V -V V  "   V %V V  V ."    V  /V V
 (
 V V"  VV
 V&# V
(V&V V
 V%V    V ()"

A principios de los '90 la imagen se distribuyó a través de varios servidores en Internet como
parte de un set de fotos para pruebas en procesamiento de imagenes. Otro ejemplo: esta es la
imagen usando distintos valores de compresión JPEG:

Por supuesto, los autores del paper original no escribieron a la revista Playboy para pedirles su
autorización, pero aunque los editores de la revista sí se preocupaban de la pronunciación del
nombre de sus modelos extranjeras, al parecer no tenían ningún interés en el procesamiento
de imagenes. PERO en Julio de 1991 la revista
!%#%% incluyó en su portada la
foto. En ese momento recibieron una carta de los abogados de Playboy, quienes tras una
explicación sobre la historia de la imagen, accedieron a conceder permiso para su uso para
fines educacionales y científicos. La imágen de Lenna de 512x512 pixeles es prácticamente un
estándar de la industria, aunque algunos critican su uso, no porque sea un rostro femenino
sino porque proviene de una revista (Playboy) que representa una relación entre hombre y
mujer que refleja una sociedad más machista que la actual. En todo caso hay muchas otras
imagenes de prueba disponibles, pero Lenna sigue siendo lejos la foto que se usa con más
frecuencia.
La importancia de la imagen de Lenna ha trascendido incluso las fronteras de la computación.
Woody Allen en su película Sleeper, representa a una persona que es congelada en un tanque
criogénico hasta el año 2173. Al despertar, le piden que identifique una serie de artefactos del
siglo XX. Uno de ellos es la edición de Noviembre de 1972 de la revista Playboy, y en la
película se muestra claramente a Lenna en las páginas centrales.

Para la %# de la SocietyforImagingScience and Technology (IS&T) de 1997, el


presidente de esta sociedad invitó a Lenna a la conferencia, donde firmó autógrafos y
conversó con los presentes, como parte de un encuentro sobre la historia de la computación y
el procesamiento de imágenes.

V
       V   V 
    V   V        V  V          V  
 V   V
V

  
  V

87V #$%$
;V Existen diversas aplicaciones que involucren el procesamiento de imágenes, desde la
detección de rostros, pasando por la biometría, el entretenimiento, la seguridad, etc,
etc
;V La computación grafica, va de la mano en el descubrimiento de nuevas tecnologías q ue
permitan la realización de nuevas investigaciones en este campo.

V
       V   V 
    V   V        V  V          V  
 V   V
V

  
  V

J7V 2%?#%

J757V %$#!&%$7
p  V V V
V   V V   V VV     V
  V
       !"#$ V
V
  V V     V V
 %  %  & &     & V
V
p  V V  V V'  V V  V
%%     (##)*(   + +  + +  +  V
V
,V-  V V, V. /V
  0%    V

http://.ph.tn.tudelft.nl/mourses/FIP/noframes/fi p--2.html

http://bibliotecadigital.ilce.edu.mx/sites/ciencia/volumen2/ciencia3/084/htm/sec_9.htm

http://docs.gimp.org/es/gimp-function-reference.html

V
       V   V 
    V   V        V  V          V  
 V   V
V

Das könnte Ihnen auch gefallen