Sie sind auf Seite 1von 5

COMPRESINDEIMGENESDIGITALESENESCALADEGRISESUTILIZANDOREDES

NEURONALES

FelipeTiradoMarabol
UNIVERSIDADCATOLICADELMAULE
FACULTADDECIENCIADELAINGENIERIA

felipe_tirado@hotmail.com

RESUMEN
Elpresenteartculo abordaeltemadelacompresindeimgenesenescaladegrises,haciendouso
directodelasredesneuronalesdebackpropagation,esteesunprocesolentoquerequieregranrecurso
dehardware,acambiodeestodesventajaofreceungranfactordecompresin.Superandoinclusivea
compresores conocidos como winrar, winzip, etc. Este articulo trata de dar una solucin bsica,
generandounaideadignadeanlisis.
EldesarrollodelproyectoesimplementadoenMatlab.
PALABRASCLAVES:RedesNeuronales,imgenes,almacenamiento.

ABSTRACT
Thepresentworkdiscussesthethemeofcompressionofimageryinscaleofgrays,makingoutofdirect
usenetsneuronalofbackpropagation,aslowprocessisthisthatthegreatresourcecallsforhardware,in
exchange for this a great factor of compression offers disadvantage. Proving inclusive better than
compressorsknownlikewinrar,winzip,etc.ThisIarticulateslavetradetogiveabasicsolution,butin
general you open a door and generate a worthy idea of analysis and I polish to treat the theme of
compressionofimagery,withtechniquesofartificialintelligenceofalltypes.
FinallythedevelopmentoftheprojectisimplementedinMatlab.
KEYWORDS:NetsNeuronal,imagery,storage.

1INTRODUCCION
En el mundo tecnolgico que vivimos
actualmente toda informacin esta
digitalizadaporesoesderealimportancia
estudiar la mejor manera de gestionarla,
administrarlayoptimizarla,paralograruna
mayoreficienciaenelprocesodetomade
decisiones1.
En este artculo veremos una forma de
administrar la informacin digitalizada en
estecasoespecficoimgenesentonosde
grises,paralograrunabuenautilizacinde
unrecursoescasocomoeslamemoria,as
si reducimos el tamao de la informacin,
podremos mejorara el rendimiento de
cualquiera dispositivo de almacenamiento
como son los disco duros, pendrive,
disquete,etc.
Lareduccindetamaodelainformacin
no solo trae beneficios en el
almacenamiento sino tambin logra
solucionarmuchosproblemasenelreade
transmisin de datos ya que el ancho de
bandaesunrecursoescasoycaro,portal
motivosetienequeenviarlosdatoslomas
pequeo posible, ah entra de nuevo la
compresindedatos.
Actualmenteexisten milesdeherramientas
desoftwarequesededicanaestosfines,
estasherramientasms conocidascomo
compresores, son de gran utilidad y por
supuestodegranusoenelcomndelas
personasqueconvivenconlainformticay
es precisamente pensando en ellos que
surge la idea de implementar un sistema
decompresindeimgenesparaunmayor
almacenamiento, usando tcnicas no
convencionales como lo son las RNA,
para as lograr un software con fines
iguales pero con mejores resultados que
los conocidos y renombrados Winzip o
Winrarentreotras2.

2PLANTEAMIENTODELPROBLEMA
Una imagen no es nada mas que una
matriz numrica, que esta almacenada
B.MdelBrio,RedesNeuronalesysistemasdifusos

2daed.AlfaomegaRaMa2002

JuanDiegoGomezV.Cmpresindeimgenesdigitales
utilizandoredesneuronales:multicapa(backpropagation)y
rbrs
2

en algn medio de almacenamiento, la


cual alberga un numero entero con la
informacin de su color, en este caso
como solo son imgenes de tonalidades
degrises,estaalojaraencadacelda un
valor entre 0 y 255 que representa la
escaladegris,asunaimagendigitalde
640x480 estar representada por una
matrizdetamaoiguala307200celdas,
donde cada una de las celdas
representara un pxel de la imagen. Es
decirsinosotrosmodificamosunvalorde
la matriz esta se vera reflejada en un
pxel de la imagen que cambiara de
tonalidad.
El objetivo de este artculo es lograr una
caracterizacindemenortamaodedicha
matrizyasdisminuirsutamaodemanera
considerable.
La idea es encontrar un agente que
recuerde a la matriz de la imagen, este
agentedebeserdetamaomuyreducido
paralograrlacompresin,poresonuestro
problema se traduce en un problema de
bsquedadedichoagenteelcualesdifcil
dehallar.
Matemticamentenuestramatrizdepuede
representarcomof(x,y)ocomof(x,y,z),en
estearticulotrabajaremosconlafuncinen
el plano cartesiano, es decir, f(x,y). Se
puedeobservarqueunamatrizcomouna
serie de posicin continuas entre si por
ejemplo la primera posicin (0,0) se
identificara con la posicin 1, la segunda
(0,1) como 2, as hasta llegar a la ultima
posicindelamatrizqueseria(m,n)lacual
corresponderalaposicinm*ndelvector.
Asselograraunvectordeposicionesque
tendruntamaodem*n,elcualcontendr
lainformacindelgrisdecadapxeldela
imagen,estotraecomoconsecuenciasque
setengaunafuncinposicinvs.Tonalidad
de gris en plano cartesiano la cual se
puedeobservarmejorenlaFigura1.

Tonalidaddegris(normalizada)

Posicindecadapxelenelarreglo

Figura1.Funcinenelplanocartesianade
unaimagende20x15(lneaazul)
Como resumen encontramos una funcin
f(x,y)querepresentaaunaimagen,portal
motivo debe existir una representacin
matemtica que describa a dicha curva,
esta representacin matemtica se podra
almacenar en un dispositivo de
almacenamientoytransportarladeunlugar
a otro la cual ocupara mucho menos
espacio que la inmensa matriz de la
imagen, cuando quisiramos recuperar la
imagen original solo bastara con evaluar
losvaloresdelaposicindecadapxely
nos devolver el valor de su respectiva
tonalidaddegris,estoselograyaquese
tienes una funcin que representa a la
imagenoriginal
Elhallarlafuncinquesimbolizaalacurva
esunatareamuycompleja,portalmotivo
se recurre a herramientas que aproximen
dicha curva, una de ellas y pocamente
usadas para estos fines son las redes
neuronales3.

3. RED NEURONAL, POCESO DE


COMPRESIONYDESCOMPESION.
El entrenamiento de una red neuronal
JuanDiegoGomezV.Cmpresindeimgenesdigitales

utilizandoredesneuronales:multicapa(backpropagation)y
rbrs

requiereunaciertoconjuntodeentradaso
patrones de ingresos, nuestro vector de
posicin corresponder a nuestro set de
entradayelvalorenteroquecontienesus
celdas (tono de grises) ser el valor
esperado.Enconsecuenciaentrenamosla
red para que aprenda nuestra funcin,
cuandoestoseconsiga,almacenamosen
eldiscolamatrizdepeso,lacualesmucho
ms pequea que nuestra matriz original
(imagen).
Evaluandolospesosalmacenosennuestra
redneuronalpodemosrecuperarfcilmente
nuestraimagenoriginal.
Ademsdelespacioocupadoporlospesos
de nuestra red se necesita un espacio
adicional que corresponder a la fila y
columnadenuestraimagenoriginal,conel
findepoderrecuperareltamaoinicialde
laimagen.

4. PROBLEMAS ASOCIADOS A
NUESTRAMETODOLOGIA.
Al estar trabajando con redes neuronales
senospresentanunaseriedeproblemas,
entreellosepuedeverquenuestrovector
de entrenamiento no es esttico ya que
variadesacuerdoalaimagen,porlocual
cada ves que queramos comprimir una
imagen tendremos que entrenar a la red
consusrespectivosvalor,estosetraduce
enungrantiempoasociadoqueproduceel
entrenamiento, este tiempo de puede
balancearconelgradodeerroryaquemas
gradodeerrorrequieremenositeraciny
por ende menos tiempo, menos grado de
error, mas iteraciones, mas tiempo de
espera, por lo tanto hay que buscar un
balanceoentretiempoyerror.
Otro problema que cabe destacar es la
arquitectura de la red ya que no existe
ninguna regla para establecer la cantidad
decapasocultascomotampocolacantidad

LaimagenestaenformatoJPGyposeeun
tamaoeneldiscode4KB.
Laredeneuronalasociadaadichaimagen
esunaredmulticapacondoscapasoculta,
una entrada y una salida, el esquema de
dicharedeselqueseapreciaenlafigura
2.

Tonalidaddegris(normalizada)

La imagen a comprimir es una imagen


pequeade43x56pxeles,esdecir2408
patrones.

Posicindecadapxelenel
arreglo

Figura3.Graficadelaimagencontamao
de43x56
Laredseentrenoylaaproximacindela
funcin es muy satisfactoria, la funcin
aproximacinseapreciaenlaFigura4.

Tonalidaddegris(normalizada)

deneuronaautilizar.Estoselograatravs
de mucha experimentacin y procesos de
ensayos y error, cabe mencionar que no
existeunaredneuronalexclusivaparaun
tipodefoto,esmasparacadaimagenhay
unaredneuronaldistinta.
5.RESULTADOS.

Posicindecadapxelenelarreglo

Figura 4. Aproximacin Funcin de la


Imagen

Figura2.RedNeuronalMulticapa
Estaredsolucionolaproblemticaperola
aproximacin no fue la ms correcta es
decir,huboungranmargendeerror.
Pensado en este problema, se cambio la
arquitectura de la red neuronal a dos
neuronasdeentradas(Fila,Columna),los
resultados fueron muy satisfactorios, la
funcindelaimagenoriginalserepresenta
grficamenteenlafigura3.

Porendenuestraredneuronalfinalizocon
una arquitectura 2861, que contara con
unacantidaddepesosaalmacenariguala
2*8+8*6+6=70 y unacantidaddebiasde
2+8+6+1=17, entonces para almacenar la
matriz de la imagen en un medio de
almacenamiento nos bastara con
almacenar 87 numero reales, adems de
dos enteros mas que son las filas y las
columnas. Como se puede observar la
cantidad de numero a almacenar es
bastantemenorquelamatrizoriginaldela
imagen(43x56=2438contra89).
La red es totalmente ineficiente en el

tiempodecompresinyaqueestaimagen
nos demando un tiempo asociado de 20
minutos,loqueesmesurablementealto.
En cuanto a la compresin esta fue
realizadaenunagranfactoryaquenuestra
imagen original ocupa 4Kb en disco, en
cambio nuestra imagen comprimida solo
ocupa 1,14Kb, cabe destacar que la
imagenoriginalyaestacomprimidaporel
formatoJPG.
En comparacin aotro compresor de uso
popular como es el Winrar, este ltimo
alcanzounacompresinde2,35KB.

6.BIBLIOGRAFIA
1. B.MdelBrio,RedesNeuronalesy
sistemasdifusos2daed.
AlfaomegaRaMa2002
2.

http://www.lfcia.org/~cipenedo/curs
os/scx/

3.

http://www.eici.ucm.cl/Academicos/
mjarur/

4.

JuanDiegoGomesV.
COMPRESINDEIMGENES
DIGITALESUTILIZANDOREDES
NEURONALES:MULTICAPA
(Backpropagation)YRBRs
ScientiaetTechnicaAoXI,No29,
Diciembrede2005

Das könnte Ihnen auch gefallen