Beruflich Dokumente
Kultur Dokumente
Presentado por:
Raul Andrés Jiménez
Código: 80220672
Laura Marcela Blanco Huertas
Código: 1018426079
Yuri Casteblanco
Código:
Nicolas Abraham Higuera
Codigo:1014227823
Grupo 90169_8
Presentado a:
Fernando Rojas
Tutor
Conclusiones......................................................................................................................... 28
Bibliografía ........................................................................................................................... 29
Formas de representación del conocimiento
siguiente:
- Su forma o estructura
Por desgracia no hay respuestas completas para todas estas preguntas desde el punto de
- Para que esta representación del conocimiento sea efectiva, se debe construir
representación escogida
- Interpretar los datos del problema (de la parte estática) a partir del conocimiento del
- Ligados a la representación
conocimiento clasifica a este último en dos grandes grupos (Santos F., 1998):
• Conocimientos teóricos: modelan el saber acerca de un tema a través de una teoría
correspondiente con el problema planteado. Son “tratados” que se desarrollan a partir del
modelos matemáticos,
prácticos observados sobre un tema (ejemplos). Son conocimientos puros que no se han
abordar un problema específico son de tipo empírico y teórico, y forman conjuntos que
simbólica, la cual permite que un algoritmo sea capaz de operar sobre ella y a la vez generar
una representación simbólica como solución. Los métodos simbólicos en IA siguen este
del conocimiento representado (Santos et al., 1998). Entre los principales métodos simbólicos
Árboles de decisión
para representar la relación existente entre cada condición y el grupo de acciones permisibles.
Sistemas expertos
Lógica difusa
Estos sistemas obtienen una salida en función de sus entradas, sin necesidad de un modelo
analítico.
Sistema basado en casos
Los sistemas de razonamiento basado en casos CBR (del inglés Case-Based Reasoning)
Agentes inteligentes
Son algoritmos que interactúan con su ambiente, adquiriendo información de él por medio
efectuar una tarea en forma apropiada empleando la información recolectada; además, tienen
resultado esperado
Los MBM consisten en usar los datos característicos del sistema o modelo y las leyes
físicas y químicas que los gobiernan para generar un prototipo de software que represente el
Aprendizaje profundo
aprendizaje automático (en inglés, machine learning) que intenta modelar abstracciones de
múltiples.
Aprendizaje profundo es parte de un conjunto más amplio de métodos de aprendizaje
una imagen) puede ser representada en muchas formas (por ejemplo, un vector de píxeles),
pero algunas representaciones hacen más fácil aprender tareas de interés (por ejemplo, ¿es
esta imagen una cara humana?) en base a ejemplos, y la investigación en esta área intenta
definir cuáles representaciones son mejores y cómo crear modelos para aprender estas
representaciones.
• Aprendizaje Profundo
nuevas ideas, las cuales son integradas al conocimiento previo sobre el tema, favoreciendo
con ello su comprensión y su retención en el largo plazo de tal modo que pueden, más tarde,
por vida.
• Aprendizaje Superficial
conexión con experiencias previas o con el contexto general. El objetivo central es retener
• Aprendizaje Estratégico
todos los medios para destacarse y obtener altas calificaciones. No es otra cosa que una muy
conocimiento, a través del uso de máquinas que usan varios niveles para la extracción.
el conocimiento se adquiere.
Siendo una subcategoría del aprendizaje automático, el aprendizaje profundo trata del uso
de redes neuronales para mejorar cosas tales como el reconocimiento de voz, la visión por
de los campos más solicitados en informática. En los últimos años, el aprendizaje profundo
El aprendizaje profundo ha demostrado que tiene potencial como base para crear software
capaz de determinar emociones o eventos descritos en un texto incluso sin que sean citados
es uno de los pocos métodos que nos ha ayudado con la extracción automática de
características. Se puede suponer que las capas inferiores realizan la extracción automática
La red neuronal artificial, o simplemente la red neuronal para abreviar, no es una idea
nueva. Ha existido por cerca de 80 años. No fue hasta 2011, cuando Deep Neural Networks
se hizo popular con el uso de nuevas técnicas, la enorme disponibilidad de conjuntos de datos
terminal.
Para una red, necesitamos dos neuronas. Estas neuronas transfieren información a través
Los círculos son neuronas o nodos, con sus funciones en los datos y las líneas / bordes
que los conectan son los pesos / información que se están transmitiendo. Cada columna es
una capa. La primera capa de sus datos es la capa de entrada. Luego, todas las capas entre la
Si tienes una o unas pocas capas ocultas, entonces tienes una red neuronal poco profunda.
Si tienes muchas capas ocultas, entonces tienes una red neuronal profunda. En este modelo,
tienes datos de entrada, los pesas y los pasas a través de la función en la neurona que se llama
Si dispara una señal, entonces el resultado es (1) fuera, o no se dispara nada, entonces (0).
Podemos tener una función sigmoide (forma de s) como función de activación. En cuanto
a los pesos, son aleatorios para comenzar, y son únicos por entrada en el nodo / neurona.
En un “feed forward” típico, el tipo más básico de red neuronal, su información pasa
directamente a través de la red que creó y compara la salida con lo que esperaba que la salida
Desde aquí, debe ajustar los pesos para ayudarlo a obtener su salida para que coincida con
la salida deseada. El acto de enviar datos directamente a través de una red neuronal se
Nuestros datos van desde la entrada, a las capas, en orden, luego a la salida. Cuando
retrocedemos y comenzamos a ajustar los pesos para minimizar la pérdida / costo, esto se
que lidiar con cientos de miles de variables, o millones, o más. La primera solución fue
opciones como AdaGrad, Adam Optimizer, etc. De cualquier manera, esta es una operación
computacional masiva. Es por eso que las redes neuronales se dejaron en su mayoría en el
estante durante más de medio siglo. Fue solo muy recientemente que incluso tuvimos el poder
cercano a otros algoritmos simples como K Vecinos más cercanos. La utilidad real de las
redes neuronales se realiza cuando tenemos datos mucho más grandes y preguntas mucho
Una red neuronal profunda (DNN) es una red neuronal artificial (ANN) con varias capas
ocultas entre las capas de entrada y salida. Al igual que en las ANN poco profundas, los DNN
cálculos progresivamente complejos en ellas y dar salida para resolver problemas del mundo
Tenemos una entrada, una salida y un flujo de datos secuenciales en una red profunda.
imágenes digitales para clasificar un conjunto de datos en categorías como gatos y perros.
Las redes DL se utilizan cada vez más para imágenes dinámicas, aparte de las estáticas, y
definirse como un método analítico que permite que un sistema, por sí mismo —sin
relaciones en los datos, y gracias a dicho conocimiento, en cada interacción con información
nueva se ofrecen mejores perspectivas. Esta competencia inherente para aprender de los
datos, que sitúa a Machine Learning como una expresión de la Inteligencia Artificial, hoy
todavía puede asombrar a algunos individuos; sin embargo, es una función analítica que ya
- Aprendizaje supervisado
En el aprendizaje supervisado, la máquina se enseña con el ejemplo. De este modo, el
que incluye las entradas y salidas deseadas, y el algoritmo debe encontrar un método para
patrones en los datos, aprende de las observaciones y hace predicciones. El algoritmo realiza
predicciones y es corregido por el operador, y este proceso sigue hasta que el algoritmo
Aquí, el algoritmo de aprendizaje automático estudia los datos para identificar patrones.
cambio, la máquina determina las correlaciones y las relaciones mediante el análisis de los
datos disponibles.
automático interprete grandes conjuntos de datos y dirija esos datos en consecuencia. Así, el
algoritmo intenta organizar esos datos de alguna manera para describir su estructura. Esto
podría significar la necesidad de agrupar los datos en grupos u organizarlos de manera que
A medida que evalúa más datos, su capacidad para tomar decisiones sobre los mismos
el óptimo.
En consecuencia, este sistema enseña la máquina a través del proceso de ensayo y error.
algoritmos:
- Algoritmos de regresión
comprender las relaciones entre las variables. El análisis de regresión se enfoca en una
variable dependiente y una serie de otras variables cambiantes, lo que lo hace particularmente
Este tipo de algoritmos por clasificación están basados en el teorema de Bayes y clasifican
cada valor como independiente de cualquier otro. Lo que permite predecir una clase o
- Algoritmos de agrupación
El algoritmo funciona mediante la búsqueda de grupos dentro de los datos, con el número
asignar cada punto de datos a uno de los K grupos según las características proporcionadas.
Un árbol de decisión es una estructura de árbol similar a un diagrama de flujo que utiliza
un método de bifurcación para ilustrar cada resultado posible de una decisión. Cada nodo
dentro del árbol representa una prueba en una variable específica, y cada rama es el resultado
de esa prueba.
- Algoritmos de redes neuronales
Una red neuronal artificial (RNA) comprende unidades dispuestas en una serie de
capas, cada una de las cuales se conecta a las capas anexas. Las RNA se inspiran en los
modelar relaciones no lineales en datos de alta dimensión, o donde la relación entre las
algoritmos de redes neuronales, las cuales pasan a una representación simplificada de los
La mayoría funciona bien en conjuntos de datos que tienen hasta unos cientos de
X = [[1, 20, 21, 0], [1, 20, 23, 0], [2, 10, 10, 1], [1, 20, 17, 0], [2, 10, 11, 1],
[1, 20, 20, 0], [2, 10, 11, 1],
[2, 10, 24, 1], [2, 10, 10, 1], [1, 20, 24, 0], [2, 10, 10, 1]]
#La salida donde se dice si es ale o lager
Y = ['ale', 'ale', 'lager', 'ale', 'lager', 'ale', 'lager', 'lager',
'lager', 'ale', 'lager']
#Se le pasa los datos X y Y
clf = clf.fit(X, Y)
prediction = clf.predict([dato2])
#Se importa las librerías necesarias para la visualización
from IPython.display import Image
from sklearn.externals.six import StringIO
from sklearn.tree import export_graphviz
import pydot
siendo en este caso el árbol de decisiones el cual permite obtener una serie de resultados en
base a sus probabilidades, beneficios entre otros. para nuestro caso esos resultados serian
empieza hacer una discriminación en cuanto a la impureza de cada clase, es decir, analiza y
impureza es conocida como “Gini” y su resultado es 0 haciendo que las clases no estén
para hacer su trabajo. Por ejemplo, en el proyecto se indica que se debe hacer una
separación y conteo de la cantidad de elementos que existe para cada clase de cerveza.
Fig. 9: Selección y separación de objetos en base a su clase.
Conclusiones
representa.
https://bibliotecavirtual.unad.edu.co:2538/lib/unadsp/reader.action?docID=3194970&query
=sistemas+basados+en+el+conocimiento
http://menteerrabunda.blogspot.com/2008/07/razonamiento-con-incertidumbre.html
https://es.wikipedia.org/wiki/Algoritmo_de_b%C3%BAsqueda