Sie sind auf Seite 1von 29

Fase 3 – Representación del conocimiento en IA

Presentado por:
Raul Andrés Jiménez
Código: 80220672
Laura Marcela Blanco Huertas
Código: 1018426079
Yuri Casteblanco
Código:
Nicolas Abraham Higuera
Codigo:1014227823

Grupo 90169_8

Presentado a:
Fernando Rojas
Tutor

Universidad Nacional Abierta y a Distancia UNAD


Programa Ingeniería de Sistemas
Inteligencia Artificial
Contenido

Formas de representación del conocimiento .......................................................................... 3

Aprendizaje profundo ............................................................................................................. 8

Aprendizaje automático ........................................................................................................ 16

Entrega del desarrollo del Prototipo - Etapa: Programación y Documentación ................... 21

Conclusiones......................................................................................................................... 28

Bibliografía ........................................................................................................................... 29
Formas de representación del conocimiento

Para representar algo en el concepto de inteligencia artificial necesitamos saber lo

siguiente:

- Su forma o estructura

- Que uso le dan los seres inteligentes.

- Que uso le dará una inteligencia artificial

- Como adquirir el conocimiento

- Como almacenarlo y manipularlo

Por desgracia no hay respuestas completas para todas estas preguntas desde el punto de

vista biológico o neurofisiológico

- Para que esta representación del conocimiento sea efectiva, se debe construir

modelos que simulen la adquisición, estructuración y manipulación del

conocimiento y que nos permitan crear sistemas artificiales inteligentes.

A continuación, se define un esquema de representación de conocimiento:

Un esquema de representación es un instrumento para codificar la realidad en un ordenador

Es importante distinguir entre

- El mundo real (lo que queremos representar) → Dominio

- Su representación → uno o más esquemas de representación


Desde un punto de vista informático un esquema de representación puede ser descrito

como una combinación de

- Estructuras de datos que codifican el problema en curso con el que se enfrenta el

agente → Parte estática

- Estructuras de datos que almacenan conocimiento referente al entorno en el que se

desarrolla el problema y procedimientos que manipulan las estructuras de forma

consistente con una interpretación plausible de las mismas → Parte dinámica

La parte estática está formada por

- Estructura de datos que codifica el problema

- Operaciones que permiten crear, modificar y destruir elementos en la estructura

- Predicados que dan un mecanismo para consultar esta estructura de datos

- Semántica de la estructura: se necesita definir la relación entre la realidad y la

representación escogida

R(Elemento_ estructura, Mundo Real)

La parte dinámica está formada por:


- Estructuras de datos que almacenan conocimiento referente al entorno/dominio en el

que se desarrolla el problema

- Procedimientos que permiten

- Interpretar los datos del problema (de la parte estática) a partir del conocimiento del

dominio (de la parte dinámica).


- Controlar el uso de los datos: estrategias de control

- Adquirir nuevo conocimiento

Un sistema de representación debe poseer las siguientes propiedades

- Ligados a la representación

o Adecuación Representacional: habilidad para representar todas las clases

de conocimiento que son necesarias en aquel dominio.

o Adecuación Inferencial: habilidad de manipular estructuras de

representación de tal manera que devengan o generen nuevas estructuras que

correspondan a nuevos conocimientos inferidos de los anteriores.

- Ligados al uso de la representación

o Eficiencia Inferencial: capacidad del sistema para incorporar información

adicional a la estructura de representación, llamada metaconocimiento, que

puede emplearse para focalizar la atención de los mecanismos de inferencia

con el fin de optimizar los cómputos

o Eficiencia en la Adquisición: capacidad de incorporar fácilmente nueva

información. Idealmente el sistema por sí mismo deberá ser capaz de

controlar la adquisición de nueva información y su posterior representación

Clasificación del conocimiento

La literatura especializada en el análisis de la información y su tratamiento como

conocimiento clasifica a este último en dos grandes grupos (Santos F., 1998):
• Conocimientos teóricos: modelan el saber acerca de un tema a través de una teoría

correspondiente con el problema planteado. Son “tratados” que se desarrollan a partir del

análisis de los conocimientos básicos y representan una generalización de lo empírico;

habitualmente se representan por estructuras simbólicas como normas de producción,

modelos matemáticos,

redes semánticas u objetos estructurados.

• Conocimientos empíricos: son experimentales, esto es, representan el conjunto de casos

prácticos observados sobre un tema (ejemplos). Son conocimientos puros que no se han

tratado, analizado o modificado; representan los resultados de experiencias o los ejemplos

de casos prácticos sin transformaciones. En general, los conocimientos disponibles para

abordar un problema específico son de tipo empírico y teórico, y forman conjuntos que

se complementan. En la mayoría de los casos tales conocimientos no son totalmente

correctos ni completos; por esta razón, la información disponible debe explotarse de la

mejor forma posible.


Representación del conocimiento con métodos simbólicos

Los primeros sistemas de IA resolvían problemas definidos con una representación

simbólica, la cual permite que un algoritmo sea capaz de operar sobre ella y a la vez generar

una representación simbólica como solución. Los métodos simbólicos en IA siguen este

principio; se fundamentan en técnicas de representación simbólica de conocimiento

asociadas a mecanismos con capacidad de inferir soluciones y nuevos conocimientos a partir

del conocimiento representado (Santos et al., 1998). Entre los principales métodos simbólicos

están los que se describen a continuación.

Árboles de decisión

Es un diagrama que representa en forma secuencial un conjunto de condiciones y acciones

para representar la relación existente entre cada condición y el grupo de acciones permisibles.

Sistemas expertos

Intentan razonar como un experto humano, con ventajas asociadas de aumento de

productividad, ahorro de tiempo y dinero y conservación de conocimientos.

Lógica difusa

Estos sistemas obtienen una salida en función de sus entradas, sin necesidad de un modelo

analítico.
Sistema basado en casos

Los sistemas de razonamiento basado en casos CBR (del inglés Case-Based Reasoning)

resuelven problemas a partir de otros similares denominados “casos”.

Agentes inteligentes

Son algoritmos que interactúan con su ambiente, adquiriendo información de él por medio

de sensores, y respondiendo mediante efectores utilizan técnicas de razonamiento para

efectuar una tarea en forma apropiada empleando la información recolectada; además, tienen

la capacidad de adaptación al ambiente, de tal forma que ante un cambio se entregue el

resultado esperado

Métodos basados en los primeros principios o basados en el modelo (MBM)

Los MBM consisten en usar los datos característicos del sistema o modelo y las leyes

físicas y químicas que los gobiernan para generar un prototipo de software que represente el

proceso o partes de él y dar una descripción del funcionamiento del sistema.

Aprendizaje profundo

Aprendizaje profundo (en inglés, deep learning) es un conjunto de algoritmos en

aprendizaje automático (en inglés, machine learning) que intenta modelar abstracciones de

alto nivel en datos usando arquitecturas compuestas de transformaciones no-lineales

múltiples.
Aprendizaje profundo es parte de un conjunto más amplio de métodos de aprendizaje

automático basados en aprender representaciones de datos. Una observación (por ejemplo,

una imagen) puede ser representada en muchas formas (por ejemplo, un vector de píxeles),

pero algunas representaciones hacen más fácil aprender tareas de interés (por ejemplo, ¿es

esta imagen una cara humana?) en base a ejemplos, y la investigación en esta área intenta

definir cuáles representaciones son mejores y cómo crear modelos para aprender estas

representaciones.

Varias arquitecturas de aprendizaje profundo, como redes neuronales profundas, redes

neuronales profundas convolucionales, y redes de creencia profundas, han sido aplicadas a

campos como visión por computador, reconocimiento automático del habla, y

reconocimiento de señales de audio y música, y han mostrado producir resultados de

vanguardia en varias tareas.

- Estrategias de aprendizaje profundo:

• Aprendizaje Profundo

En forma resumida, esta estrategia se caracteriza por incorporar el análisis crítico de

nuevas ideas, las cuales son integradas al conocimiento previo sobre el tema, favoreciendo

con ello su comprensión y su retención en el largo plazo de tal modo que pueden, más tarde,

ser utilizadas en la solución de problemas en contextos diferentes.


Para lograr aprendizaje profundo se requiere utilizar altos niveles de habilidades

cognitivas tales como “análisis” (comparar, contrastar) y “síntesis” (integrar el conocimiento

en una nueva dimensión).

El aprendizaje profundo promueve la comprensión y la aplicación de los aprendizajes de

por vida.

• Aprendizaje Superficial

En esta estrategia el aprendiz memoriza la información como hechos aislados, sin

conexión con experiencias previas o con el contexto general. El objetivo central es retener

datos para aprobar la evaluación.

En el aprendizaje superficial sólo se requiere un nivel bajo de habilidad cognitiva,

principalmente orientado a “conocer”. Ello explica el rápido olvido de la materia estudiada

al poco tiempo de haber rendido las evaluaciones.

• Aprendizaje Estratégico

Se describe una tercera forma de estrategia de aprendizaje en la cual el estudiante busca

todos los medios para destacarse y obtener altas calificaciones. No es otra cosa que una muy

bien organizada forma de estrategia superficial.

El aprendizaje profundo se refiere a la actividad automática de adquisición de

conocimiento, a través del uso de máquinas que usan varios niveles para la extracción.

El término “profundo” se aplica no en sí al conocimiento adquirido, sino a la forma en que

el conocimiento se adquiere.
Siendo una subcategoría del aprendizaje automático, el aprendizaje profundo trata del uso

de redes neuronales para mejorar cosas tales como el reconocimiento de voz, la visión por

ordenador y el procesamiento del lenguaje natural. Rápidamente se está convirtiendo en uno

de los campos más solicitados en informática. En los últimos años, el aprendizaje profundo

ha ayudado a lograr avances en áreas tan diversas como la percepción de objetos, la

traducción automática y el reconocimiento de voz (todas ellas áreas especialmente complejas

para los investigadores en IA).

El aprendizaje profundo ha demostrado que tiene potencial como base para crear software

capaz de determinar emociones o eventos descritos en un texto incluso sin que sean citados

explícitamente, reconocer objetos en fotografías y realizar sofisticadas predicciones acerca

del probable futuro comportamiento de las personas.

El aprendizaje profundo, con la capacidad de aprender múltiples capas de representación,

es uno de los pocos métodos que nos ha ayudado con la extracción automática de

características. Se puede suponer que las capas inferiores realizan la extracción automática

de características, lo que requiere poca o ninguna guía del programador.

La red neuronal artificial, o simplemente la red neuronal para abreviar, no es una idea

nueva. Ha existido por cerca de 80 años. No fue hasta 2011, cuando Deep Neural Networks

se hizo popular con el uso de nuevas técnicas, la enorme disponibilidad de conjuntos de datos

y las potentes computadoras.


Una red neuronal imita una neurona, que tiene dendritas, un núcleo, un axón y un axón

terminal.

Para una red, necesitamos dos neuronas. Estas neuronas transfieren información a través

de la sinapsis entre las dendritas de una y el axón terminal de otra.

Fig. 1. Entradas y salidas de un sistema de redes neuronales

Los círculos son neuronas o nodos, con sus funciones en los datos y las líneas / bordes

que los conectan son los pesos / información que se están transmitiendo. Cada columna es

una capa. La primera capa de sus datos es la capa de entrada. Luego, todas las capas entre la

capa de entrada y la capa de salida son las capas ocultas.

Si tienes una o unas pocas capas ocultas, entonces tienes una red neuronal poco profunda.

Si tienes muchas capas ocultas, entonces tienes una red neuronal profunda. En este modelo,

tienes datos de entrada, los pesas y los pasas a través de la función en la neurona que se llama

función de umbral o función de activación.


Básicamente, es la suma de todos los valores después de compararlo con un cierto valor.

Si dispara una señal, entonces el resultado es (1) fuera, o no se dispara nada, entonces (0).

Luego se ponderan y pasan a la siguiente neurona, y se ejecuta el mismo tipo de función.

Podemos tener una función sigmoide (forma de s) como función de activación. En cuanto

a los pesos, son aleatorios para comenzar, y son únicos por entrada en el nodo / neurona.

En un “feed forward” típico, el tipo más básico de red neuronal, su información pasa

directamente a través de la red que creó y compara la salida con lo que esperaba que la salida

hubiera estado usando sus datos de muestra.

Desde aquí, debe ajustar los pesos para ayudarlo a obtener su salida para que coincida con

la salida deseada. El acto de enviar datos directamente a través de una red neuronal se

denomina red neuronal de avance o “feed forward neural network” en inglés.

Nuestros datos van desde la entrada, a las capas, en orden, luego a la salida. Cuando

retrocedemos y comenzamos a ajustar los pesos para minimizar la pérdida / costo, esto se

denomina propagación por retroceso o “back propagation” en inglés.

Este es un problema de optimización. Con la red neuronal, en la práctica real, tenemos

que lidiar con cientos de miles de variables, o millones, o más. La primera solución fue

utilizar el descenso de gradiente estocástico como método de optimización. Ahora, hay

opciones como AdaGrad, Adam Optimizer, etc. De cualquier manera, esta es una operación

computacional masiva. Es por eso que las redes neuronales se dejaron en su mayoría en el

estante durante más de medio siglo. Fue solo muy recientemente que incluso tuvimos el poder

y la arquitectura en nuestras máquinas para considerar realizar estas operaciones y los

conjuntos de datos del tamaño adecuado para coincidir.


Para tareas de clasificación simples, la red neuronal tiene un rendimiento relativamente

cercano a otros algoritmos simples como K Vecinos más cercanos. La utilidad real de las

redes neuronales se realiza cuando tenemos datos mucho más grandes y preguntas mucho

más complejas, las cuales superan a otros modelos de aprendizaje automático.

Una red neuronal profunda (DNN) es una red neuronal artificial (ANN) con varias capas

ocultas entre las capas de entrada y salida. Al igual que en las ANN poco profundas, los DNN

pueden modelar relaciones no lineales complejas.

El propósito principal de una red neuronal es recibir un conjunto de entradas, realizar

cálculos progresivamente complejos en ellas y dar salida para resolver problemas del mundo

real como la clasificación. Nos limitamos a alimentar las redes neuronales.

Tenemos una entrada, una salida y un flujo de datos secuenciales en una red profunda.

Fig. 2. Esquema de un sistema de redes neuronales


Las redes neuronales se utilizan ampliamente en el aprendizaje supervisado y en los

problemas de aprendizaje por refuerzo. Estas redes se basan en un conjunto de capas

conectadas entre sí.

En el aprendizaje profundo, el número de capas ocultas, en su mayoría no lineales, puede

ser grande; Digamos unas 1000 capas.

Principalmente utilizamos el método de descenso de gradiente para optimizar la red y

minimizar la función de pérdida. Podemos usar Imagenet, un repositorio de millones de

imágenes digitales para clasificar un conjunto de datos en categorías como gatos y perros.

Las redes DL se utilizan cada vez más para imágenes dinámicas, aparte de las estáticas, y

para series de tiempo y análisis de texto.

Dentro de las redes neuronales artificiales encontramos su clasificación diviendose en dos:

por topología y método de aprendizaje. A continuación, mediante una serie de mapas

mentales se explica e ilustra esta clasificación.

Fig. 3: Clasificación de redes neuronales por topología


Fig. 4: Clasificación de redes neuronales por método de aprendizaje
Aprendizaje automático

Mejor conocido en el mundo de la inteligencia artificial como Machine Learning, puede

definirse como un método analítico que permite que un sistema, por sí mismo —sin

intervención humana y en forma automatizada—, aprenda a descubrir patrones, tendencias y

relaciones en los datos, y gracias a dicho conocimiento, en cada interacción con información

nueva se ofrecen mejores perspectivas. Esta competencia inherente para aprender de los

datos, que sitúa a Machine Learning como una expresión de la Inteligencia Artificial, hoy

todavía puede asombrar a algunos individuos; sin embargo, es una función analítica que ya

determina múltiples aspectos de nuestra vida.

Los tres grupos de algoritmos del machine learning

- Aprendizaje supervisado
En el aprendizaje supervisado, la máquina se enseña con el ejemplo. De este modo, el

operador proporciona al algoritmo de aprendizaje automático un conjunto de datos conocidos

que incluye las entradas y salidas deseadas, y el algoritmo debe encontrar un método para

determinar cómo llegar a esas entradas y salidas.

Mientras el operador conoce las respuestas correctas al problema, el algoritmo identifica

patrones en los datos, aprende de las observaciones y hace predicciones. El algoritmo realiza

predicciones y es corregido por el operador, y este proceso sigue hasta que el algoritmo

alcanza un alto nivel de precisión y rendimiento.

- Aprendizaje sin supervisión

Aquí, el algoritmo de aprendizaje automático estudia los datos para identificar patrones.

No hay una clave de respuesta o un operador humano para proporcionar instrucción. En

cambio, la máquina determina las correlaciones y las relaciones mediante el análisis de los

datos disponibles.

En un proceso de aprendizaje no supervisado, se deja que el algoritmo de aprendizaje

automático interprete grandes conjuntos de datos y dirija esos datos en consecuencia. Así, el

algoritmo intenta organizar esos datos de alguna manera para describir su estructura. Esto

podría significar la necesidad de agrupar los datos en grupos u organizarlos de manera que

se vean más organizados.

A medida que evalúa más datos, su capacidad para tomar decisiones sobre los mismos

mejora gradualmente y se vuelve más refinada.


- Aprendizaje por refuerzo

El aprendizaje por refuerzo se centra en los procesos de aprendizajes reglamentados, en

los que se proporcionan algoritmos de aprendizaje automáticos con un conjunto de acciones,

parámetros y valores finales.

Al definir las reglas, el algoritmo de aprendizaje automático intenta explorar diferentes

opciones y posibilidades, monitorizando y evaluando cada resultado para determinar cuál es

el óptimo.

En consecuencia, este sistema enseña la máquina a través del proceso de ensayo y error.

Aprende de experiencias pasadas y comienza a adaptar su enfoque en respuesta a la situación

para lograr el mejor resultado posible.

Dentro del Machine Learning y su automatización encontramos los siguientes tipos de

algoritmos:

- Algoritmos de regresión

En las tareas de regresión, el programa de aprendizaje automático debe estimar y

comprender las relaciones entre las variables. El análisis de regresión se enfoca en una

variable dependiente y una serie de otras variables cambiantes, lo que lo hace particularmente

útil para la predicción y el pronóstico.


- Algoritmos bayesianos

Este tipo de algoritmos por clasificación están basados en el teorema de Bayes y clasifican

cada valor como independiente de cualquier otro. Lo que permite predecir una clase o

categoría en función de un conjunto dado de características, utilizando la probabilidad.

A pesar de su simplicidad, el clasificador funciona sorprendentemente bien y se usa a

menudo porque supera a los métodos de clasificación más sofisticados.

- Algoritmos de agrupación

Se utilizan en el aprendizaje no supervisado, y sirven para categorizar datos no etiquetados,

es decir, datos sin categorías o grupos definidos.

El algoritmo funciona mediante la búsqueda de grupos dentro de los datos, con el número

de grupos representados por la variable K. A continuación, funciona de manera iterativa para

asignar cada punto de datos a uno de los K grupos según las características proporcionadas.

- Algoritmos de árbol de decisión

Un árbol de decisión es una estructura de árbol similar a un diagrama de flujo que utiliza

un método de bifurcación para ilustrar cada resultado posible de una decisión. Cada nodo

dentro del árbol representa una prueba en una variable específica, y cada rama es el resultado

de esa prueba.
- Algoritmos de redes neuronales

Una red neuronal artificial (RNA) comprende unidades dispuestas en una serie de

capas, cada una de las cuales se conecta a las capas anexas. Las RNA se inspiran en los

sistemas biológicos, como el cerebro, y en cómo procesan la información.

Por lo tanto, son esencialmente un gran número de elementos de procesamiento

interconectados, que trabajan al unísono para resolver problemas específicos.

También aprenden con el ejemplo y la experiencia, y son extremadamente útiles para

modelar relaciones no lineales en datos de alta dimensión, o donde la relación entre las

variables de entrada es difícil de entender.

- Algoritmos de reducción de dimensión

La reducción de dimensión reduce el número de variables que se consideran para

encontrar la información exacta requerida.

- Algoritmos de Aprendizaje Profundo

Los algoritmos de aprendizaje profundo ejecutan datos a través de varias capas de

algoritmos de redes neuronales, las cuales pasan a una representación simplificada de los

datos a la siguiente capa.

La mayoría funciona bien en conjuntos de datos que tienen hasta unos cientos de

características o columnas. Sin embargo, un conjunto de datos no estructurado, como el


de una imagen, tiene una cantidad tan grande de características que este proceso se vuelve

engorroso o completamente inviable.

Entrega del desarrollo del Prototipo - Etapa: Programación y Documentación

Según nuestro proyecto consistente en determinar el tipo de cerveza según sus

características, nuestro prototipo final documentado en python es el siguiente:

from sklearn import tree


#Se crea la instancia del árbol de decisión.
clf = tree.DecisionTreeClassifier()

X = [[1, 20, 21, 0], [1, 20, 23, 0], [2, 10, 10, 1], [1, 20, 17, 0], [2, 10, 11, 1],
[1, 20, 20, 0], [2, 10, 11, 1],
[2, 10, 24, 1], [2, 10, 10, 1], [1, 20, 24, 0], [2, 10, 10, 1]]
#La salida donde se dice si es ale o lager
Y = ['ale', 'ale', 'lager', 'ale', 'lager', 'ale', 'lager', 'lager',
'lager', 'ale', 'lager']
#Se le pasa los datos X y Y
clf = clf.fit(X, Y)

#Se definen los datos 1 y 2


dato1 = [1, 20, 21, 0]
dato2 = [2, 10, 10, 1]
prediction = clf.predict([dato2])

#Se muestra el resultado de la predicción de dato1


print(prediction)

prediction = clf.predict([dato2])
#Se importa las librerías necesarias para la visualización
from IPython.display import Image
from sklearn.externals.six import StringIO
from sklearn.tree import export_graphviz
import pydot

#Se define la información de los datos"


features = ["levadura", "CAlcoholico", "TFermentacion", "Almacenado"]

#Se crea lo necesario para generar el grafo del árbol, se le pasa, la


#la instancia de la clase clf, se define el archivo de salida, se le pasa
#los nombres de los datos.
dot_data = StringIO()
export_graphviz(clf,
out_file=dot_data,feature_names=features,filled=True,rounded=True)

#Se genera el grafo y se visualiza


graph = pydot.graph_from_dot_data(dot_data.getvalue())
Image(graph[0].create_png())
Fig. 5: Código de prototipo
Fig. 6: Identificación de objetos (cervezas) a partir de un árbol de decisiones en base a sus
atributos.

Aplicación de la representación de conocimiento en el proyecto


Para poder representar el conocimiento de las clases se hizo uso de uno de sus métodos

siendo en este caso el árbol de decisiones el cual permite obtener una serie de resultados en

base a sus probabilidades, beneficios entre otros. para nuestro caso esos resultados serian

dados en base a las características de los dos tipos de cerveza:


Fig. 7: Hallazgos de diferentes resultados en base a las características de las dos clases de
cerveza.
Aplicación del aprendizaje profundo
El concepto de inteligencia profunda lo aplicamos en el momento en que el algoritmo

empieza hacer una discriminación en cuanto a la impureza de cada clase, es decir, analiza y

mira cuan heterogénea es una clase en su composición. En la aplicación del prototipo la

impureza es conocida como “Gini” y su resultado es 0 haciendo que las clases no estén

mezcladas entre ellas.


Fig. 8: Análisis y discriminación en impurezas entre distintas clases.
Aplicación del aprendizaje automático.
En este caso al algoritmo se le enseña o se le da ciertas instrucciones que él debe seguir

para hacer su trabajo. Por ejemplo, en el proyecto se indica que se debe hacer una

separación y conteo de la cantidad de elementos que existe para cada clase de cerveza.
Fig. 9: Selección y separación de objetos en base a su clase.
Conclusiones

- Las formas de la representación del conocimiento en la IA nos permiten aterrizar el

problema general que queremos solucionar a través de esta corriente tecnológica,

consiguiendo el entendimiento de su parte estática y dinámica de la realidad que

representa.

- El aprendizaje automático y profundo (Deep learning y Machine Learning), nos

ayudan a crear algoritmos computacionales basados en la IA que permiten que las

automatizaciones aprendan por sí solas a partir de los datos generados.

- En mi concepto, en esta unidad hemos tocado la corriente más importante de la IA

como es el machine learning, ya que permite al usuario computacional dedicarse a lo

que verdaderamente debe hacer que es diseñar, entregándole al computador todo el

peso del aprendizaje y supervisión de los datos procesados.


Bibliografía

Loncomilla, P. (2016). Deep learning: Redes convolucionales


Suntaxi-Sarango, M. C., Ordoñez-Ordoñez, P. F., & Pesantez-González, M. A. (2018).
Applications of Deep Learning in Financial Intermediation: A Systematic Literature
Review. KnE Engineering, 47-60.
Rolston, D. W., Gama, A. P., & Ziskiend, I. T. (1990). Principios de inteligencia artificial
y sistemas expertos (No. QA76. 76. E95 R75e). McGraw-Hill.
Gramajo, E., García-Martínez, R., Rossi, B., Claverie, E., Britos, P., & Totongi, A. (1999).
Una visión global del aprendizaje automático. Revista del Instituto Tecnológico de
Buenos Aires, 22, 67-75.

https://bibliotecavirtual.unad.edu.co:2538/lib/unadsp/reader.action?docID=3194970&query
=sistemas+basados+en+el+conocimiento

http://menteerrabunda.blogspot.com/2008/07/razonamiento-con-incertidumbre.html

https://es.wikipedia.org/wiki/Algoritmo_de_b%C3%BAsqueda

Henao, D. (2009). Inteligencia artificial. El Cid editor. Pag.5-22. Recuperado de+++ de


https://bibliotecavirtual.unad.edu.co:2538/lib/unadsp/reader.action?docID=3181914
&query=inteligencia+artificial

Das könnte Ihnen auch gefallen