Sie sind auf Seite 1von 36

UNIVERSIDAD NACIONAL DE

PIURA

INTELIGENCIA ARTIFICIAL

POR
ALBAN ATO JEANCARLOS
SAAVEDRA YARLEQUE RONALD
ZURITA BERRU CRISANTO
REA NAVARRO VICTOR ANDRES
FARFAN CIENFUEGO REYSON

INDICE

I.- Introduccin

II.-Porque la inteligencia artificial

III.-Antecedentes de la inteligencia artificial

IV.- Caractersticas de la inteligencia artificial

V.- Ramas de la inteligencia artificial


V.I Lgica difusa
V.II Redes neuronales artificiales
V.III Algoritmos genticos

VI.- Aplicaciones de la inteligencia artificial


VI.I Marcadores anatmicos de los ventrculos del corazn.
VI.II Segmentacin de imgenes cerebrales de resonancia
magntica basadas en redes neuronales.
VI.III Optimizacin de sistemas para tratamiento de agua (Austria).
VI.IV Monitoreo de glaucoma a travs de redes neuronales.
VI.V Algoritmos genticos para el diseo de sistemas de MRI
(magnetic

resonance imaging).

INTELIGENCIA ARTIFICIAL

I.

INTRODUCION

Para abordar el concepto de inteligencia artificial, tal vez cabra plantearse


primero la siguiente pregunta:qu es la inteligencia? Sin duda, se trata de una
pregunta difcil cuya respuesta an no ha sido resuelta totalmente, la cual sigue
desconcertando tanto a los bilogos como a los psiclogos y filsofos de nuestra
poca. Por supuesto que el objetivo de este trabajo no es zanjar la discusin. Ms
bien la intenciones presentar algunas ideas en torno a la nocin de inteligencia que
nos ayuden a identificar ciertas caractersticas distintivas de la denominada
inteligencia artificial (IA).

Se podra comenzar por destacar algunas propiedades generales que presenta


la inteligencia humana, como por ejemplo la habilidad de enfrentar nuevas
situaciones, la habilidad de resolver problemas, d responder preguntas, elaborar
planes, etc. Desde sus inicios, el hombre se represent el mundo real mediante
smbolos, los cuales constituyen la base del lenguaje humano. En este sentido, se
podra considerar a la IA como un dialecto simblico constituido por cadenas de
caracteres que representan conceptos del mundo real. De hecho, los procesos
simblicos son una caracterstica esencial de la IA. A partir de lo expuesto es posible
formular una definicin ms aproximada de nuestro objeto de estudio: la IA es una
rama de las ciencias computacionales que se ocupa de los smbolos y mtodos no
algortmicos para la resolucin de problemas.

II.

POR QUE LA INTELIGENCIA ARTIFICIAL

El hombre se ha aplicado a s mismo el nombre cientfico de hombre sabio


(homo sapiens) como una valoracin de la trascendencia de sus (nuestras) habilidades
mentales, tanto para la vida cotidiana como para el propio sentido de identidad. Los
esfuerzos de la Inteligencia Artificial (IA), por su parte, se enfocan en lograr la
comprensin de entidades inteligentes.
Por ello, una de las razones de su estudio y anlisis es aprender acerca de los
propios seres humanos, pero a diferencia de la Filosofa y de la Psicologa (que tambin
se ocupan de la inteligencia), los esfuerzos de la IA estn encaminados tanto a la
construccin de entidades inteligentes, como a su comprensin.
Otra razn ms por la que se estudia la IA es porque las entidades inteligentes as
construidas son interesantes y tiles. No obstante las fases tempranas en las que todava
se encuentra, mediante la IA ha sido posible crear diversos productos de trascendencia y
sorprendentes.
Si bien es imposible pronosticar con precisin lo que se puede esperar de esta
disciplina en el futuro, es evidente que las computadoras que posean una inteligencia a
nivel humano o superior, tendrn repercusiones importantes en la vida diaria, as como
en el devenir de la civilizacin (Russell y Norving, 1996).
Inteligencia artificial es una acepcin acuada a mediados del siglo XX, cuyo
desarrollo se ha caracterizado por una sucesin de periodos alternativos de xito y
abandono de la misma.
Al principio, la idea intuitiva de la IA cre expectativas que no siempre han sido
cubiertas, y desde luego no en el grado que se haba esperado, de manera un tanto

ilusoria. Pero

actualmente se puede considerar que el enfoque computacional

inteligente no depende de inmediatos y probados resultados, sino que est avalado por
sus logros y su desarrollo a lo largo de varias dcadas, por lo cual se ha consolidado en
el mbito de la computacin como una acepcin totalmente asumida, aunque sometida
todava a controversia en algunos sectores cientficos (Pajares Martinsan y Santos
Peas, 2006).
Lo que hoy se conoce como IA empez hacia 1960 cuando en el Instituto
Tecnolgico de Massachusetts (MIT, por sus siglas en ingls), John McCarthy cre el
LISP (el primer lenguaje de investigacin dentro de la IA). Sin embargo, el trmino IA
suele atribursele a Marvin Minsky, tambin del MIT, quien en 1961 escribi un artculo
titulado Hacia la Inteligencia Artificial (The Institute of Radio Engineers
Proceedings). Los aos sesenta del siglo pasado fueron un intenso periodo de optimismo
hacia la posibilidad de hacer que una computadora pensase. Despus de todo, esos aos
contemplaron la primera computadora que jugaba ajedrez, las primeras pruebas
matemticas informatizadas, y el ya famoso e igualmente bien conocido Programa
ELIZA que fue escrito en el MIT por Joseph Weisenbaum en 1964. El programa ELIZA
actuaba como un psico analizador. En este tipo de anlisis, el psiquiatra toma un papel
pasivo generalmente repitiendo las propias declaraciones del paciente, en vez de llevar
el peso de la conversacin.

III.

ANTECEDENTES DE LA INTELIGENCIA ARTIFICIAL

Se podra considerar que unos de los primeros pasos hacia la IA fueron dados
hace mucho tiempo por Aristteles (384-322 a.C.), cuando se dispuso a explicar y codifi
car ciertos estilos de razonamiento deductivo que l llam silogismos. Otro intento sera
el de Ramn Llull (d.C. 1235-1316), mstico y poeta cataln, quien construy un
conjunto de ruedas llamado Ars Magna, el cual se supona iba a ser una mquina capaz
de responder todas las preguntas.

Por su parte, Martin Gardner [Gardner 1982] atribuye a Gottfried Leibniz (16461716) el sueo de un lgebra universal por el cual todos los conocimientos, incluyendo
las verdades morales y metafsicas, pueden algn da ser interpuestos dentro de un
sistema deductivo nico. Sin embargo, no existi un progreso sustancial hasta que
George Boole [Boole 1854] comenz a desarrollar los fundamentos de la lgica
proposicional. El objeto de Boole fue, entre otros: recoger... algunos indicios probables
sobre la naturaleza y la constitucin de la mente humana. Poco despus, Gottlob Frege
propuso un sistema de notacin para el razonamiento mecnico y al hacerlo invent
gran parte de lo que hoy conocemos como clculo proposicional (lgica matemtica
moderna) [Frege 1879].

En 1958, John McCarthy, responsable de introducir el trmino inteligencia


artificial, propuso utilizar el clculo proposicional como un idioma para representar y
utilizar el conocimiento en un sistema que denomin la Advice Taker. A este sistema
se le tena que decir qu hacer en vez de ser programado. Una aplicacin modesta pero
influyente de estas ideas fue realizada por Cordell Green en su sistema llamado QA3.

Lgicos del siglo XX, entre ellos Kart Codel, Stephen Kleene, Emil Post,
Alonzo Church y Alan Turing, formalizaron y aclararon mucho de lo que poda y no
poda hacerse con los sistemas de lgica y de clculo. En fechas ms recientes, cientfi
cos de la computacin como Stephen Cook y Richard Karp, descubrieron clases de
clculos que aunque parecan posibles en principio, podran requerir cantidades
totalmente impracticables de tiempo y memoria (almacenamiento).

Algunos filsofos [Lucas 1961, Penrose 1989, Penrose 1994] interpretaron como
una confirmacin que la inteligencia humana nunca ser mecanizada. Warren
McCulloch y Walter Pitts escribieron teoras acerca de las relaciones entre los elementos
de clculo simple y las neuronas biolgicas [McCuylloch y Pitts 1943]. Otro trabajo
realizado por Frank Rosenblatt [1962] explor el uso de redes llamadas perceptrones.

Otras corrientes de trabajo, entre ellos la ciberntica [Wiener 1948], la psicologa


cognitiva, la lingstica computacional [Chomsky 1965] y la teora de control adaptable,
contribuyeron a la matriz intelectual de la IA y su desarrollo.

Gran parte del trabajo inicial de la IA se desarroll en la dcada de 1960 y


principios de los setenta en programas como General Problem Solver (GPS) de Allan
Newell, Cliff Show y Herbert Simon [Newell, Show y Simon 1959, Newell y Show
1963]. Otros sistemas que influyeron son: la integracin simblica [Slagle 1963],
lgebra word [Bobrow 1968], analogy puzzles [Evans 1968] y control y robots mviles
[Nilsson 1984b]. Muchos de estos sistemas son el tema de un artculo llamado
Computers and Thought [Feigenbaum y Feldman 1963].

Hacia finales de los setenta y principios de los ochenta, algunos programas que
se desarrollaron contenan mayor capacidad y conocimientos necesarios para imitar el
desempeo humano de expertos en varias tareas. El primer programa que se le atribuye
la demostracin de la importancia de grandes cantidades de conocimiento y dominio
especfico es DENDRAL, un sistema de prediccin de la estructura de las molculas
orgnicas que considera su frmula qumica y el anlisis de espectrograma de masa
[Feigenbaum, Buchanan and Lederberg 1971]. Le siguieron otros sistemas expertos
como por ejemplo [Shortliffe 1976, Millar Pople y Myers 1982] sistemas
computacionales confi gurables [McDermott 1982] y otros ms.

En mayo 11 de 1997, un programa de IBM llamado Deep Blue derrot al actual


campen mundial de ajedrez, Garry Kasparov. Por otra parte, Larry Roberts desarroll
uno de los primeros programas de anlisis de escena [Roberts 1963]. Este trabajo fue
seguido por una amplia labor de mquinas de visin (visin artifi cial) [Nalga 1993].
Otros proyectos que se pueden mencionar son CYC [Goha and Lenat 1990, Lenat y
Goha 1990, Lenat 1995], una de cuyas metas era recolectar e interpretar gran cantidad
de informacin para su conocimiento. Aunque el inters en las redes neurales se estanc
un poco despus de los trabajos pioneros de Frank Rosenblatt en los ltimos aos de la
dcada de 1950, se reanud con energa en los aos ochenta. En la actualidad hay
distintas aplicaciones con la IA.

Softbots [Etzioni y Weld 1994] son agentes de software que deambulan por la
Internet, encontrando informacin que piensan ser til a sus usuarios al acceder a
Internet. La presin constante para mejorar las capacidades de los robots y los agentes
de software motivarn y guiarn mayores investigaciones de IA en los aos venideros

IV.
1.

CARACTERISTICAS DE LA INTELIGENCIA ARTIFICAL

Una caracterstica fundamental que distingue a los mtodos de Inteligencia


Artificial de los mtodos numricos es el uso de smbolos no matemticos, aunque
no es suficiente para distinguirlo completamente. Otros tipos de programas como
los compiladores y sistemas de bases de datos, tambin procesan smbolos y no se
considera que usen tcnicas de Inteligencia Artificial.
Las conclusiones de un programa declarativo no son fijas y son
determinadas parcialmente por las conclusiones intermedias alcanzadas durante las
consideraciones al problema especfico. Los lenguajes orientados al objeto
comparten esta propiedad y se han caracterizado por su afinidad con la
Inteligencia Artificial.

2.

El comportamiento de los programas no es descrito explcitamente por el


algoritmo. La secuencia de pasos seguidos por el programa es influenciado por el
problema particular presente. El programa especifica cmo encontrar la secuencia
de pasos necesarios para resolver un problema dado (programa declarativo). En
contraste con los programas que no son de Inteligencia Artificial, que siguen un
algoritmo definido, que especifica, explcitamente, cmo encontrar las variables de
salida para cualquier variable dada de entrada (programa de procedimiento).

3.

El razonamiento basado en el conocimiento, implica que estos programas


incorporan factores y relaciones del mundo real y del mbito del conocimiento en
que ellos operan. Al contrario de los programas para propsito especfico, como
los de contabilidad y clculos cientficos; los programas de Inteligencia Artificial
pueden distinguir entre el programa de razonamiento o motor de inferencia y base
de conocimientos dndole la capacidad de explicar discrepancias entre ellas.

4.

Aplicabilidad a datos y problemas mal estructurados, sin las tcnicas de


Inteligencia Artificial los programas no pueden trabajar con este tipo de
problemas. Un ejemplo es la resolucin de conflictos en tareas orientadas a metas
como en planificacin, o el diagnstico de tareas en un sistema del mundo real:
con poca informacin, con una solucin cercana y no necesariamente exacta.
La Inteligencia Artificial incluye varios campos de desarrollo tales como: la

robtica, usada principalmente en el campo industrial; comprensin de lenguajes y


traduccin; visin en mquinas que distinguen formas y que se usan en lneas de
ensamblaje; reconocimiento de palabras y aprendizaje de mquinas; sistemas
computacionales expertos.
Los sistemas expertos, que reproducen el comportamiento humano en un
estrecho mbito del conocimiento, son programas tan variados como los que
diagnostican infecciones en la sangre e indican un tratamiento, los que interpretan datos
sismolgicos en exploracin geolgica y los que configuran complejos equipos de alta
tecnologa.
Tales tareas reducen costos, reducen riesgos en la manipulacin humana en reas
peligrosas, mejoran el desempeo del personal inexperto, y mejoran el control de
calidad sobre todo en el mbito comercial.

V.

RAMAS DE LA INTELIGENCIA ARTIFICIAL

Como se mencion, existen varios elementos que componen la ciencia de la IA,


dentro de los cuales se pueden encontrar tres grandes ramas:

Lgica difusa
Redes neurales artificiales
Algoritmos genticos

Cada una consta de caractersticas especiales, as como de una funcin


especfica. En las siguientes secciones se exponen ms especficamente dichas
tecnologas.
LOGICA DIFUSA
Las computadoras manejan datos precisos que se reducen a cadenas de unos (1)
y ceros (0) y proposiciones que son ciertas y falsas. El cerebro humano puede razonar
con informacin que involucra incertidumbre o juicios de valor como: el aire es fro o
la velocidad es rpida. Adems, las personas tienen un sentido comn que les permite
razonar en un mundo donde las cosas son parcialmente ciertas.

La lgica difusa es una rama de la IA que le permite a una computadora analizar


informacin del mundo real en una escala entre lo falso y verdadero. Los matemticos
dedicados a la lgica en la dcada de 1920 definieron un concepto clave: todo es
cuestin de grado. La lgica difusa manipula conceptos vagos como caliente o
hmedo y permite a los ingenieros construir televisores, acondicionadores de aire,
lavadores y otros dispositivos que juzgan informacin difcil de definir. Los sistemas
difusos son una alternativa a las nociones de pertenencia y lgica que se iniciaron en la
Grecia antigua.

El lenguaje natural maneja conceptos no precisos como hace fro o el precio


es alto. Cuando se traduce el lenguaje humano al contexto de la lgica clsica se pierde
la riqueza del significado, prdida que puede ser importante si estamos diseando un
sistema experto. Suponiendo que se disea un sistema experto en reproducir la
capacidad de diagnstico de un mdico, el ingeniero sabe que el mdico se basa en
medidas exactas, pero el diagnstico y la receta de las medicinas estn llenos de
razonamiento difuso.

Cuando los matemticos carecen de algoritmos que dictan cmo un sistema debe
responder a ciertas entradas, la lgica difusa puede controlar o describir el sistema
usando reglas de sentido comn que se refieren a cantidades indefinidas. Los sistemas
difusos frecuentemente tienen reglas tomadas de expertos, pero cuando no hay experto
los sistemas difusos adaptivos aprenden las reglas observando cmo la gente manipula
sistemas reales.

REDES NEURALES ARTIFICIALES

Como se dijo antes, la tecnologa neural trata de reproducir el proceso de


solucin de problemas del cerebro. As como los humanos aplican el conocimiento
ganado con la experiencia a nuevos problemas o situaciones, una red neural toma como
ejemplos problemas resueltos para construir un sistema que toma decisiones y realiza
clasificaciones. Los problemas adecuados para la solucin neural son aquellos que no
tienen solucin computacional precisa o que requieren algoritmos muy extensos como
en el caso del reconocimiento de imgenes.

Una red neuronal se compone de unidades llamadas neuronas. Cada neurona


recibe una serie de entradas a travs de interconexiones y emite una salida. Esta salida
viene dada por tres funciones:
1. Una funcin de propagacin (tambin conocida como funcin de excitacin),
que por lo general consiste en el sumatorio de cada entrada multiplicada por el
peso de su interconexin (valor neto). Si el peso es positivo, la conexin se
denomina excitatoria; si es negativo, se denomina inhibitoria.
2. Una funcin de activacin, que modifica a la anterior. Puede no existir, siendo
en este caso la salida la misma funcin de propagacin.
3. Una funcin de transferencia, que se aplica al valor devuelto por la funcin de
activacin. Se utiliza para acotar la salida de la neurona y generalmente viene
dada por la interpretacin que queramos darle a dichas salidas. Algunas de las
ms utilizadas son la funcin sigmoidea (para obtener valores en el intervalo
[0,1]) y la tangente hiperblica (para obtener valores en el intervalo [-1,1]).

Algunas ventajas de las RNA frente a otros sistemas de procesamiento de


informacin son:

Las RNA pueden sintetizar algoritmos a travs de un proceso de aprendizaje.

Para utilizar la tecnologa neural no es necesario conocer los detalles


matemticos. Slo se requiere estar familiarizado con los datos del trabajo.

La solucin de problemas no lineales es uno de los fuertes de las RNA.

Las RNA son robustas, pueden fallar algunos elementos de procesamiento pero
la red contina trabajando; esto es contrario a lo que sucede en programacin
tradicional.

Las desventajas de las redes neurales son:

Las RNA se deben entrenar para cada problema. Adems, es necesario realizar
mltiples pruebas para determinar la arquitectura adecuada. El entrenamiento es largo y
puede consumir varias horas de la computadora (CPU).

Debido a que las redes se entrenan en lugar de programarlas, stas necesitan


muchos datos.

Las RNA representan un aspecto complejo para un observador externo que


desee realizar cambios. Para aadir nuevo conocimiento es necesario cambiar las
iteraciones entre muchas unidades para que su efecto unificado sintetice este
conocimiento. Para un problema de tamao considerable es imposible hacer esto
manualmente, por lo tanto una red con representacin distribuida debe emplear algn
esquema de aprendizaje.

Las redes neurales se basan en generalizar informacin extrada de datos


experimentales, tablas bibliogrficas o bases de datos, los cuales se determinan por
expertos humanos. Dichas redes neurales toman en cuenta las entradas (corriente,
voltaje) y como salidas las seales del sistema (velocidad, temperatura, torque). La red

neural utilizada es una red multicapa de diez neuronas en la capa de entrada, diez
neuronas en la capa oculta y cinco neuronas en la capa de salida.

ALGORITMOS GENTICOS
Un algoritmo gentico (AG) es una tcnica de bsqueda iterativa inspirada en
los principios de seleccin natural. Los AG no buscan modelar la evolucin biolgica
sino derivar estrategias de optimizacin.

El concepto se basa en la generacin de poblaciones de individuos mediante la


reproduccin de los padres.

Durante el curso de la evolucin, los genes con evolucin lenta fueron


remplazados por genes con mejor estrategia evolutiva. Por lo tanto, se esperan
estrategias altamente eficientes en la fauna y la flora modernas.

Muchos problemas tiene funciones objetivo complejas y la optimizacin tiende a


finalizar en mnimos/mximos locales. La idea de los AG es optimizar (hallar el
mximo o mnimo) una funcin objetivo utilizando los principios de la seleccin natural
sobre los parmetros de la funcin.

Los AG tambin fueron desarrollados por John Holland y sus colegas en la


Universidad de Michigan (1975). Estos algoritmos se basan en la mecnica de la
seleccin natural, la cual afirma que slo los organismos que mejor se adapten
sobreviven. Parte de la historia de los algoritmos se describi en los antecedentes de la

IA, de manera que ahora se abordarn otros aspectos importantes para entender mejor
esta parte de la ciencia.
Los componentes de un algoritmo gentico son:
Una funcin que se desea optimizar.
Un grupo de candidatos para la solucin.
Una funcin de evaluacin que mida cmo los candidatos optimizan la
funcin.
Funcin de reproduccin.

El AG funciona porque hay competencia por los recursos y se hereda la mejor


configuracin gentica en cada generacin. Ciertas caractersticas de un organismo de la
misma especie, en las que el xito se manifiesta como xito reproductivo, lo convierten
en el mejor adaptado, por lo que deja ms hijos que los otros. De esta manera, los rasgos
hereditarios que favorecen el xito tienden a estar ms representados en la poblacin.

VI.

APLICACIONES DE INTELIGENCIA ARTIFICIAL


Existen diversas aplicaciones en la industria; a continuacin se mencionan varias

de ellas para que nuestros compaeros tengan un panorama ms amplio de todas las
tcnicas mencionadas y aprecie la potencia que desempean como herramienta en
nuestra realidad. Estos ejemplos se tomaron de diferentes fuentes y la descripcin de
cada proyecto se explica de manera ms extensa y detallada.

Marcadores anatmicos de los ventrculos del corazn.


Segmentacin de imgenes cerebrales de resonancia magntica

basadas en redes neuronales.

Optimizacin de sistemas para tratamiento de agua (Austria).

Monitoreo de glaucoma a travs de redes neuronales.

Algoritmos genticos para el diseo de sistemas de MRI


(magnetic

resonance imaging).

MARCADORES ANATOMICOS DE LOS VENTRICULOS DEL CORAZON


La ventriculografa es una tcnica utilizada para visualizar las cavidades
cardiacas. Su objetivo principal es definir el tamao y la forma del ventrculo izquierdo,
as como tambin visualizar la forma y la movilidad de estructuras asociadas con las
vlvulas del corazn. Extraer la forma ventricular ha sido uno de los principales
problemas que se encuentran al aplicar las tcnicas de procesamiento digital de
imgenes a imgenes de las cavidades cardiacas.

Aunque en la actualidad se desarrollan tcnicas para detectar automticamente


los contornos ventriculares, no se ha encontrado an ningn mtodo capaz de resolver
este problema de manera satisfactoria; adems las tcnicas existentes no han sido
validadas clnicamente.

Muchos de los mtodos o tcnicas empleados para la obtencin de los contornos


ventriculares establecen dos etapas o fases de trabajo. Una primera fase o etapa previa a
la deteccin, mediante la cual se define un conjunto de puntos que pueden utilizarse
para construir un contorno inicial, y una segunda fase que busca optimizar el contorno
obtenido en la etapa anterior. Muchos autores coinciden en que la solucin del problema
de generacin automtica de un contorno aproximado debe estar relacionada con la
aplicacin de tcnicas basadas en inteligencia artificial. En tal sentido, en el presente
trabajo se propone el uso de las redes neurales para identificar los marcadores
anatmicos necesarios para establecer una representacin de un contorno inicial sobre
imgenes angiografas del ventrculo izquierdo.

En este trabajo se establece un conjunto de consideraciones tanto tericas como


prcticas que permiten realizar el diseo y la verificacin del comportamiento de redes
neurales, para la deteccin de tres marcadores anatmicos del corazn. A partir de
imgenes angiogrficas se construy un conjunto de variables discriminantes
compuestas por matrices de tamao 31331 tanto de las zonas de inters del ventrculo
izquierdo como de otras regiones anatmicas. Una vez obtenidas las mencionadas
matrices, se configuraron las bases de datos que constituyen el conjunto de patrones de
entrada para las fases de entrenamiento, validacin y prueba de las redes neurales, las
cuales son sometidas posteriormente a procesos de simulacin hasta obtener resultados
aceptables.
PROCEDIMIENTO
Las variables discriminantes se obtienen a partir de secuencias de imgenes
dinmicas del corazn. Usando esta secuencia de imgenes cardiacas, se aplic un

proceso manual para extraer un conjunto de subimgenes de tamao 31331, con


tentativas de los marcadores anatmicos ms importantes al momento de caracterizar el
ventrculo izquierdo.

Luego se procedi a generar las bases de datos necesarias para cada red neural,
se configur una matriz P, de 180 vectores en relacin 1:4, es decir, por cada vector (ai)
que representa un marcador anatmico,se introducen cuatro vectores (Ii) relativos a no
marcadores; esto es, la estructura parcial de P es la siguiente: P 5 [a1 I1 I2 I3 I4 a2 I5 I6
I7 I8 a3 I9 I10 I11 I12. . .]. Con el objeto de indicarle a la red cules vectores de P
constituyen no marcadores y cules representan pex, se construy una matriz de 180
etiquetas t, respetando la misma relacin establecida para P, asignndole el valor de 1 a los vectores pex y 1 a los vectores no pex; por tanto la estructura parcial de t
es: t 5 [-1 1 1 1 1 -1 1 1 1 1 -1 1 1 1 1. . .]

Es importante sealar que para clasificar a un vector como no marcador, se


consider el grado
de diferencia que existe entre el mencionado vector establecido mediante
histogramas y los que representan marcadores. Las matrices P y t constituyen los
patrones de entrenamiento de nuestra red neuronal.

Ahora bien, las redes neuronales comnmente se pueden configurar para


representar funciones o reconocer patrones. La ventaja de la segunda configuracin es
que el tiempo de entrenamiento se reduce considerablemente en relacin con otros
algoritmos y adems se garantiza una buena velocidad de convergencia, por lo que sta
se eligi para este trabajo.

Posteriormente se efectu la fase de entrenamiento, que consiste en presentar a


la entrada de la red diseada el conjunto de patrones de entrenamiento mencionado
anteriormente. Despus de ello se identific cada uno de los vectores que reconoca
dicha red como pex, detectando que la misma se estaba equivocando en un gran
nmero de imgenes que eran no pex. Luego se aplic el proceso de boostrapping, que
consiste en presentarle a la red los vectores no marcadores que errneamente estaba
identificando como marcadores. Debido a esto se gener una nueva red que reflej un
mejor comportamiento que la anterior. Agotado el proceso de boostrapping, se obtuvo
redes mejor entrenadas pero que identificaban un nmero exagerado de vectores para
cada zona de inters, entonces se procedi a modificar el nmero de neuronas y se
aplic el proceso de adaptacin, donde de manera heurstica se le present a las redes
mejoradas un mismo conjunto de patrones de entrada hasta obtener una respuesta
satisfactoria en la salida de cada red, en la que no se apreciaron problemas de sobre
entrenamiento. En la diagrama 1.1 se muestra el proceso descrito.

RESULTADO

En las primeras pruebas hechas a las redes neuronales implementadas para


distinguir los ventrculos del corazn, de un total de 21 imgenes muestra, las redes
desempearon un trabajo satisfactorio en 15 de ellas dando un rendimiento de 70%. Se
pretende mejorar el diseo de estas redes aumentando el nmero de marcadores
anatmicos o de unidades neuronales para poder utilizar este software confiablemente.
En la figura 1.11 se muestra una imagen en la cual se identific el ventrculo
izquierdo; el software da las coordenadas del centroide de las regiones cuadradas.

CONCLUSIONES
Las redes neuronales generadas identificaron los marcadores anatmicos
primordiales para la deteccin automtica de los contornos ventriculares del corazn: la
regin del pex y las regiones anterior y posterior a la vlvula artica. Se verifica que
tales patrones pueden ser identificados sin la necesidad de utilizar tcnicas de
preprocesamiento de los patrones de entrenamiento de cada red neuronal.

Los resultados obtenidos permiten la construccin de aproximaciones iniciales


de los contornos ventriculares, los cuales pueden ser optimizados usando alguna tcnica
de deteccin de contornos, como por ejemplo un modelo de cuerpos deformables.

Por qu se usaron redes neuronales? Comnmente se utilizan las redes


neuronales en situaciones para las cuales no existe alguna clase de modelo o
aproximacin matemtica, o cierto proceso iterativo. Ms bien, stas se usan cuando el
problema se resuelve por observacin continua y se entrena dicha red para identificar lo
que se busca, y debido a la inexistencia de cierta relacin entre parmetros y/o
funciones que modelen el problema, que sera inapropiado el uso de lgica difusa o
algoritmos genticos en este trabajo.

Segmentacin de imgenes cerebrales de resonancia magntica basada en redes


neuronales

El estudio a travs de imgenes de los cambios estructurales del cerebro puede


proveer informacin til para el diagnstico y el manejo clnico de pacientes con

demencia. Las imgenes de resonancia magntica (R.M.) pueden mostrar anormalidades


que no son visibles en la tomografa computarizada.
Asimismo tienen el potencial de detectar seales de anormalidad, lo que permite
un diagnstico diferencial entre la enfermedad de Alzheimer y la demencia vascular.
Se ha desarrollado numerosas tcnicas con el propsito de obtener una
segmentacin a partir de las imgenes multiespectrales de R.M. El uso de tcnicas de
patrones para segmentar conjuntos de datos en imgenes de R.M. se ha desarrollado
ampliamente. La mayora son computacionalmente costosas, pero sobre todo lo ms
difcil es encontrar simultneamente automatizacin y exactitud en los resultados.
Aquellas tcnicas que segmentan con mayor exactitud son semiautomticas, es decir son
operador dependientes.
En este trabajo se presenta un mtodo de segmentacin de imgenes de R.M.
cerebrales basada en la utilizacin de redes neurales utilizando algoritmos genticos
para el ajuste de los parmetros. Esta propuesta permite detectar y cuantificar los
diferentes tejidos cerebrales de una manera automtica, ms sensible y esencialmente
menos subjetiva y con ello dar un primer paso hacia el diagnstico tempranode la
atrofia cerebral.
PROCEDIMIENTO
El mtodo propuesto presenta los siguientes pasos:

Etapa de entrenamiento

Paso 1: El operador selecciona entre 3 y 5 puntos de cada

sustancia que se va a segmentar: lquido cefalorraqudeo (LCR), sustancia gris y


sustancia blanca, de slo una imagen de muestra, representativa del tipo de
imgenes que se desearn segmentar.

Paso 2: La red neural se construye y al mismo tiempo se entrena a

partir de los valores de gris de los pxeles seleccionados en las diferentes


imgenes (datos de entrenamiento, entrada), indicndosele los valores deseados
en la salida, diferentes para cada sustancia.
El valor ptimo del parmetro spread que se utiliza para entrenar la red (que
corresponde a la dispersin de las gaussianas presentes a la red en su capa de entrada) se
calcula mediante AG.
Se le indic al AG un tamao de poblacin de 50 individuos. Se gener una
poblacin inicial aleatoria que se modific en las sucesivas iteraciones con base en la
funcin de evaluacin. En esta aplicacin dicha funcin se determin a travs del error
calculado comparando la imagen clasificada obtenida como salida de la red y la imagen
resultado previamente clasificada tomada como referencia. Se determin la cantidad de
pxeles clasificados errneamente, siendo ste el valor que se intenta reducir.

En estos dos pasos queda el sistema preparado para segmentar nuevas imgenes.
Etapa de consulta

Paso 3: Se consulta a la red ya entrenada indicando como patrones

de entrada a los niveles de gris de un nuevo conjunto de imgenes. Se obtendr


as la clasificacin para cada pxel de este nuevo caso.

Paso 4: Se crea una nueva imagen con intensidades diferentes


para cada pxel segn la clase de sustancia a la que ha sido asignado.

Paso 5: Se visualizan las estructuras segmentadas con diferentes


colores.

RESULTADOS Y CONCLUSIONES

Este trabajo presenta un mtodo de segmentacin automtica de imgenes de


R.M. cerebrales. El mtodo es preciso y eficiente, siendo los resultados obtenidos
prcticamente independientes del experto.
La red neuronal involucrada en el proceso se construye y entrena a partir de una
nica imagen, lo cual permite clasificar otras imgenes tomadas con el mismo protocolo
con un error menor que el 1% y con un bajsimo tiempo de clculo, caracterstica propia
de la etapa de consulta del tipo de redes neuronales utilizadas (de regresin).
Del xito de la segmentacin dependen la posterior cuantificacin de la materia
gris, blanca y LCR, y por lo tanto la medicin de la evolucin de la atrofia cerebral.
Por qu se us este tipo de inteligencia artificial? En esta aplicacin podemos
observar que se utiliz tanto las redes neurales como algoritmos genticos. Esto es
porque, como se sabe, las redes neurales son ms fciles de implementar para
situaciones que slo se resuelven mediante observacin y comparacin, y que no
pueden ser modeladas matemticamente. No obstante se incluyeron algoritmos
genticos para mejorar el diseo de la red neural (mas no para analizar las imgenes) de

acuerdo con su rendimiento. Ahora bien, en este caso no se aplic lgica difusa porque
como se dijo, no se conoce una relacin especfica o modelo entre los parmetros
analizados, y stos a su vez se utilizan ms dentro del control de procesos.

Optimizacin de sistemas para tratamiento de agua (Austria, lgica difusa)

Este caso trata de una solucin lgica difusa en la produccin de bioqumicos en


la industria ms grande de produccin de penicilina en Austria. Despus de extraer la
penicilina a partir de los microorganismos que la generan, un sistema de tratamiento de
aguas residuales procesa las biomasas sobrantes. Ahora bien, los lodos fermentados que
se obtienen en el curso de este tratamiento contienen microorganismos y restos de sales
nutrientes, los cuales son el material base para fertilizantes de alta calidad que se venden
como coproductos de la produccin de penicilina.
Para hacer el abono, el lodo fermentado se decanta y el agua sobrante se
vaporiza. El objetivo es reducir los costos del proceso de vaporizacin, por lo que el
proceso de decantacin del agua y las sustancias para fertilizante deben ser optimizados.
As, se implement una solucin utilizando lgica difusa para dejar de operar
manualmente este proceso.

Con el objeto de reducir los costos del proceso antes mencionado, se debe
considerar (ver diagrama 1.2):

Reducir el uso de qumicos precipitantes (para separar la mezcla

del agua ms fcil) debido a que el polmero usado es muy costoso.

Extraer el mximo de agua al momento de decantarla ya que la


vaporizacin del agua restante consume grandes cantidades de energa.

El contenido de biomasa en la decantacin debe ser de 0.7g/l, si


excede los 1.5g/l se reduce el rendimiento del sistema y hasta puede detenerlo
debido a la limitada capacidad del equipo para procesar masa biolgica.
Este ltimo punto es crtico y es difcil para los operadores ajustarlo
manualmente durante todo el tiempo del funcionamiento del equipo. A su vez, la
determinacin de un modelo matemtico podra ayudar a mejorar el proceso; sin
embargo, debido a la gran cantidad de variables esto requiere gran tiempo y esfuerzo. Es
por ello que se usa lgica difusa para automatizar el proceso sin grandes esfuerzos;
adems de que al ser un proceso cuyas variables cambian constantemente, se necesita
una regulacin continua y que se ajuste a cualquier cambio (ms o menos polmero de
acuerdo con la biomasa entrante).
Ahora bien, por qu no se usaron redes neuronales o algoritmos genticos?
Tanto las redes neuronales como los AG requieren de entrenamiento o periodos de
prueba para llegar a una solucin ptima y por lo general se aplican a problemas con
muchas ms variables o con un gran flujo de informacin; es decir, se preocupan ms
por cmo se adaptarn las soluciones al problema y no tanto por la medicin de las
variables. En este caso, la medicin de las sustancias como el polmero y la biomasa, as
como la regulacin de la potencia del vaporizador lo son todo, porque el objetivo es
aumentar el rendimiento y reducir los costos; el proceso de entrenamiento resultara
muy costoso.

Monitoreo de glaucoma a travs de redes neuronales

El monitoreo de glaucoma a travs de los cambios oftalmolgicos de un


paciente, requiere de una decisin basada en si los datos mdicos representan una
situacin crtica o sospechosa de glaucoma como diagnstico diferencial. Este trabajo
presenta cmo, por medio de redes neuronales, se ayuda con el diagnstico.
La decisin de los mdicos acerca del ojo del paciente se basa en los siguientes
conjuntos de datos:

Mediciones directas
Estimaciones paramtricas
Descripciones verbales del paciente.

Las mediciones directas se refieren a la presin intraocular (PIO) que fi gura


como un nmero real en una unidad de presin y los conjuntos de datos perimtricos.
Estos ltimos datos describen el estado del campo visual del paciente, medido por
dispositivos especiales que detectan la prdida de sensibilidad a la luz en diferentes
puntos de la retina. Estos lugares son estimulados por un haz de luz de diferentes
intensidades en distintos lugares dentro de un hemisferio con una iluminacin de fondo
mientras el paciente observa al centro. La respuesta de si se percibi un estmulo la da
el paciente oprimiendo un botn. Por lo tanto, en general esta medicin es subjetiva.

Otro aporte para el proceso de decisin son las descripciones de la pupila. stas
se realizan principalmente al ver la pupila durante el examen de los ojos y la estimacin
de varios parmetros, como la razn copa-disco (RCD), la ubicacin de la excavacin o
una comparacin de la RCD de los ojos derecho e izquierdo. La diferencia entre ellos se
clasifica por los mdicos como normal o en aumento.

Y el ltimo aporte son las descripciones del paciente mismo que proporcionan
informacin acerca de cambios entre las visitas al doctor y ofrecen una lnea de tiempo
de dichos cambios.

Con base en los datos anteriores, el oftalmlogo tiene que decidir si la


informacin apunta hacia un posible glaucoma o no, y de ser as y de la severidad de los
sntomas, decidir qu accin tomar (lo que llevar a otro proceso de decisiones ms
adelante). Estas decisiones pueden influir en el tiempo entre las visitas que debe hacer el
paciente, la toma de medicamentos o alguna ciruga.

Ahora bien, al usar redes neuronales se pretende simular la diferente toma de


decisiones que se pueden hacer y ayudar al mdico a tomar una resolucin final. Debido
a la subjetividad de los datos, como la RCD y las respuestas a los estmulos de luz, se
usan las redes neuronales las cuales modelan posibles clasificaciones a los sntomas de
acuerdo con casos de glaucoma ya estudiados.

Por ejemplo, en el diagrama 1.3 se muestra un rbol de clasificaciones slo para


los datos perimtricos; el objetivo es refinar las clasificaciones para no slo tener
opciones

como

normal/patolgico,

sino

tambin

respuestas

como

cuestionable/probable. De esta manera se pretende hacer un rbol de decisiones para


toda medicin y evaluacin hecha al paciente, cuyos resultados formarn parte de otra
red ms grande para el diagnstico y recomendaciones del paciente.

Por qu no se us otro tipo de inteligencia artificial? Como se mencion, las


evaluaciones oftalmolgicas no proporcionan datos numricos sino se expresan de
acuerdo con las observaciones del doctor o la perspectiva del mismo paciente. Por esta
razn, el uso de lgica difusa no sera muy conveniente debido a que no existe algn
tipo evaluacin cuantificable o relacin directa entre las diferentes observaciones. No
obstante, se considera que en vez de tener una gran red neural conformada por subredes
de cada evaluacin y medicin, se podra manejar los resultados de las subredes con
lgica difusa ya que slo cierta combinacin de resultados apunta hacia probable
glaucoma o no. Por otra parte, los algoritmos genticos se utilizan en problemas con un
mayor nmero de eventos y probabilidades; el diagnstico del glaucoma al fi n y al cabo
se puede reducir a un nmero no tan grande de toma de decisiones, adems de que ya se
tiene una idea de qu elementos conforman un diagnstico positivo o no. Los AG se
frecuentan ms cuando no se tiene una idea muy clara de la mejor combinacin para
cierto resultado o cuando el flujo de informacin es muy cambiante. En este caso, la
informacin es subjetiva pero no cambiante.

Algoritmos genticos para el diseo de sistemas de MRI (magnetic resonance


imaging)

Esta aplicacin describe un paquete de software para el diseo de equipo mdico


(MRI) llamado Cam- GASP, el cual usa algoritmos genticos (AG). Como se sabe, estos
algoritmos permiten a una poblacin de varios diseos evolucionar hacia uno que sea el
ms apto. El objetivo principal de estos algoritmos es optimizar la funcin de costo, la
cual busca homogeneizar al mximo la imagen de inters en el MRI; por otra parte, se
considera factores ingenieriles importantes como el ancho, volumen y esfuerzos de las
espirales electromagnticas (coils), as como la intensidad del campo magntico que
producen. Lo anterior, de acuerdo con las especificaciones de cada comprador.

En este caso, cada gen de nuestro cdigo representa una espiral de nuestro
magneto, los cuales se combinarn y mutarn de la manera ms conveniente para
producir la mejor resolucin de imgenes en el MRI. Esto aplica no slo para MRI de
cuerpo completo: se dara la posibilidad de construir equipos ms pequeos utilizados
slo para el procesamiento de imgenes de ciertas partes del cuerpo, u obtener a su vez
PET scans (tomografas a base de emisiones de positrones).

La ventaja de este software entre otras es que fue diseado para correr en
paralelo en varias unidades que comparten la informacin de las mutaciones de los
genes de informacin, lo que acelera el proceso de evolucin del diseo. La grfica
1.3 muestra cmo estos algoritmos se hicieron cada vez ms ptimos y eficientes.

La evolucin de la funcin aptitud con un nmero de generaciones. Se puede


apreciar que la funcin aptitud mejora rpidamente al inicio de la optimizacin.
Despus, las curvas se aplanan hacia fuera mientras que otras mejoras en el diseo
llegan a ser difciles. Una vez que un nicho permanece inmvil por ms de 2000
generaciones, el nicho es reinicializado.
Por qu algoritmos genticos? El diseo de los MRI vara de acuerdo a las
necesidades de los compradores y su especialidad, por lo que las variables de diseo
cambian conforme a cada uno de ellos. Por este motivo utilizar una solucin con lgica
difusa nos sera efi ciente (tomara ms tiempo desarrollar una relacin entre las
espirales magnticas y la funcin costo, y cada una variara con el usuario). Por otra
parte, tambin se podra utilizar redes neuronales; no obstante se tendra que comparar
en cunto tiempo se llega a una solucin ptima con respecto a los algoritmos genticos.

CONCLUSIONES
Una vez que la inteligencia artificial tenga una inteligencia igual o superior a la
del hombre, en ese momento surgir un cambio poltico y social en todo el mundo, en el
que la inteligencia artificial tiene todas las de ganar si se da cuenta que no necesita a los
humanos para dominar el universo.
En el futuro, la inteligencia artificial podra fcilmente hacerse con todas las
colonias humanas fuera de la tierra, y la raza humana nunca podr luchar en el espacio
vaco en igualdad de condiciones.
El futuro de una inteligencia superior puede ser la investigacin de tecnologas
como la tele portacin, los viajes estelares y cualquier otra tecnologa para aumentar
artificialmente la inteligencia.
Otros experimentos como la Habitacin china de Searle han mostrado como una
mquina puede simular pensamiento sin tener que tenerlo y puede pasar muchos test,
sin siquiera entender lo que hace.
El empleo de la IA est orientado a aquellas profesiones que, ya sea por lo
incomodo, peligroso o complicado de su trabajo necesitan apoyo de un experto en
la materia. Las ventajas que trae el disponer de un asistente artificial no son mas que las
de solucionar los errores y defectos propios del ser humano; es decir, el desarrollo de
sistemas expertos que hoy en da se estn utilizando con xito en los campos de
la medicina, geologa y aeronutica aunque todava estn poco avanzados en relacin
con el ideal del producto IA completo.
Como hemos observado con anterioridad, la IA gracias a su gran versatilidad le
permite a los Ingenieros Civiles resolver un sin nmero de problemas prcticos sin tener
que exponer vidas humanas, adems que le provee de datos ms exactos y eficientes.

BIBLIOGRAFIA:
1.- INTELIGENCIA ARTIFICIAL CON APLICACIONES A LA INGENIERIA.PEDRO PONCE CRUZ

Das könnte Ihnen auch gefallen