Sie sind auf Seite 1von 20

UNIVERSIDAD TÉCNICA PARTICULAR DE LOJA

Inteligencia Artificial

Departamento de Ciencias de la Computación y Electrónica


Sección Inteligencia Artificial
Modalidad Abierta y a Distancia
Profesor autora:
Priscila Marisela Valdiviezo Díaz
Período: OCTUBRE 2019 – FEBRERO 2020
OCTAVO - CICLO

TAREA SEGUNDO BIMESTRE


Resolver problemas de satisfacción de restricciones,
búsqueda entre adversarios y de representación del
conocimiento.

Estudiante: Rubén Patricio Regalado


Sangurima
Nro. De Cedula: 0104241872
Correo(s): ruben1986patrs@hotmail.com

Cuenca, 15 de enero del 2020.


UTPL – INTELIGENCIA ARTIFICIAL 2

INDICE DE CONTENIDO

INDICE DE CONTENIDO ......................................................................................... 2

INTRODUCCIÓN. ...................................................................................................... 4

1. Definición de conceptos ......................................................................................... 5

1.1 Problema de satisfacción de restricciones. – .................................................... 5

1.2 Restricción. - ..................................................................................................... 5

1.3 Búsqueda con vuelta atrás. – ........................................................................... 5

1.4 Arco consistente. .............................................................................................. 6

1.5 Salto atrás. –..................................................................................................... 6

1.6 Mínimos conflictos. – ........................................................................................ 6

2. Ejercicio 6.10 de la página 215 .............................................................................. 6

3. Agente basado en conocimiento para un sistema de diagnóstico médico ............. 8

3.1 ¿Cuál es su base de conocimiento? ................................................................. 8

3.2 Su entorno ........................................................................................................ 9

3.3 Nuevas sentencias y procedimientos derivados ............................................. 10

3.4 Como y cuales sería las respuestas que daría el sistema mediante el
razonamiento lógico del entorno. .......................................................................... 10

3.5 Ejemplo de la importancia de la IA en la medicina actual. .............................. 11

4. Ejercicio 7.8 pág. 267. .......................................................................................... 11

Ejercicio A ............................................................................................................. 13

Ejercicio B ............................................................................................................. 14

Ejercicio C ............................................................................................................ 14

Ejercicio D ............................................................................................................ 15

Ejercicio E ............................................................................................................. 16

Ejercicio F ............................................................................................................. 17

Ejercicio G ............................................................................................................ 18

AGENTES INTELIGENTES – ALUMNO: RUBEN REGALADO


UTPL – INTELIGENCIA ARTIFICIAL 3

Ejercicio H ............................................................................................................ 19

REFERENCIAS: ....................................................................................................... 20

Enlaces de apoyo: .................................................................................................... 20

AGENTES INTELIGENTES – ALUMNO: RUBEN REGALADO


UTPL – INTELIGENCIA ARTIFICIAL 4

INTRODUCCIÓN.

Problemas de Satisfacción de Restricciones

En muchas ocasiones la resolución de problemas está sujeta a que las diversas


componentes en las que se pueden descomponer verifiquen ciertos conjuntos de
restricciones. Problemas tan cotidianos como fijar una cita con unos amigos, comprar
un coche o preparar una receta culinaria pueden depender de muchos aspectos
interdependientes, e incluso conflictivos, sujetos a un conjunto de restricciones que
deben ser verificadas para poder encontrar una solución al problema planteado.
Históricamente, la resolución de problemas de satisfacción de restricciones (PSR, por
sus siglas en español) ha generado una gran expectación entre expertos de muchas
áreas debido a su potencial para la resolución de grandes problemas reales que caen,
en muchas ocasiones, dentro de lo que se conocen como problemas NP (aquellos
que presentan una complejidad computacional superior para su resolución). Los
primeros trabajos relacionados con la programación de restricciones datan de los
años 60 y 70 en el campo de la Inteligencia Artificial.(Sancho Caparrini, 2019)

AGENTES INTELIGENTES – ALUMNO: RUBEN REGALADO


UTPL – INTELIGENCIA ARTIFICIAL 5

1. Definición de conceptos
Desarrolle el ejercicio 5.1 del texto base, pagina 178, cuyo texto está relacionado
con los problemas de satisfacción de restricciones.
“Defina con sus propias palabras los términos: problema de satisfacción de
restricciones, restricción, búsqueda con vuelta atrás, consistencia de arco,
salto atrás y mínimos conflictos.”

1.1 Problema de satisfacción de restricciones. – Un PSR lo podemos definir por


los siguientes elementos: Un conjunto finito de variable (x1……Xn), un conjunto de
dominios D1, que se asocia a cada variable X, especificando los posibles valores que
pueda tomar dicha variable. Y finalmente un conjunto de restricciones (C1…Cn), que
son una serie de propiedades que se deben cumplir para asignar los valores a las
variables.
Un estado del PSR está definido por una asignación de valores a una o todas las
variables. Una asignación consistente es aquella que no infringe ninguna
restricción, una asignación completa será aquella que este compuesta por todas las
variables. Llegando a la conclusión que una solución de un PSR seria aquella
asignación completa que cumple con todas las restricciones.
Si consideramos un PSR como un grafo, determinaríamos que los nodos son las
variables y los arcos son las restricciones.
Formulación incremental de un PSR.

1.2 Restricción. - No es más que una regla o determinada condición o conjunto de


condiciones que no se deben infringir para establecer valores a las variables. Un
ejemplo claro que hay en la red es el de “Asignación de colores a un mapa”, donde
cada provincia deberá tener un color diferente al de sus provincias aledañas. La
especificación “deberá tener un color diferente” es en sí una restricción para nuestro
PSR.

1.3 Búsqueda con vuelta atrás. – También llamada como búsqueda primero en
profundidad. Donde básicamente primero se eligen valores para una variable,
volviendo atrás cuando una variable no tiene un valor legal para asignarle. Donde el
algoritmo genera los sucesores incrementalmente, uno a la vez ampliando la
asignación actual para generar un sucesor.

AGENTES INTELIGENTES – ALUMNO: RUBEN REGALADO


UTPL – INTELIGENCIA ARTIFICIAL 6

1.4 Arco consistente. - Un PSR es arco-consistente si para cada par de variables


(Xi, Xj) y para cualquier valor vk de Di (dominios) existe un valor vl de Dj tal que se
satisfacen las restricciones. En otras palabras, eliminamos valores imposibles para
parejas de variables.

La comprobación de consistencia del arco se puede aplicar como un pre - proceso


antes de comenzar la búsqueda, aplicándolo recursivamente hasta que no
aparezcan inconsistencias.

Hay que tomar en consideración que siempre que se suprime un valor del dominio de
alguna variable para quitar la inconsistencia de un arco, es probable que surja una
nueva inconsistencia de arco, en arcos que señalan aquella variable

1.5 Salto atrás. – Si falla una rama retrocede a la variable más reciente en el conjunto
conflicto. Dicho término se refiere al conjunto de variables que causaron el fracaso.
Algunos autores la definen como vuelta atrás cronológica.

1.6 Mínimos conflictos. – Es la elección de un nuevo valor, para una variable donde
dicha elección deberá ser el valor que cause el número mínimo de conflictos con otras
variables.

2. Ejercicio 6.10 de la página 215


Describa los estados, generadores de movimiento, test terminal, función
utilidad y funciones de evaluación para un juego o ejemplo propuesto por usted.
Si desea puede considerar como ejemplo los indicados en el ejercicio 6.10 de
la página 215 del texto base.

En IA, «los juegos» son, por lo general, una clase más especializada (que los teóricos
de juegos llaman juegos de suma cero de dos jugadores, por turnos, determinista, de
información perfecta). En nuestra terminología, significan entornos deterministas,
totalmente observables en los cuales hay dos agentes cuyas acciones deben alternar
y en los que los valores utilidad, al final de juego, son siempre iguales y opuestos
(Russell, 2004). Por ejemplo: Si un jugador gana un juego de ajedrez (+1), el otro
jugador necesariamente pierde (-1).

AGENTES INTELIGENTES – ALUMNO: RUBEN REGALADO


UTPL – INTELIGENCIA ARTIFICIAL 7

Características Generales de los juegos de este tipo.


Juegos bipersonales.
Los jugadores mueven alternativamente.
La ventaja para un jugador es desventaja para el otro.
Los jugadores poseen toda la información sobre el estado del juego.
Hay un número finito de estados y decisiones.
No interviene el azar.

Ejemplos de juegos de ese tipo:


Ajedrez, damas, go, otelo, 3 en raya, nim, etc.

Tomaremos como ejemplo el JUEGO DEL NIM.

Descripción.
Se empieza con una pila de una cantidad determinada de fichas. Por turnos cada
jugador puede tomar una cantidad determinada de fichas (Ente 1 a 3 Fichas). La meta
es obligar al adversario a coger la última ficha.

Por ejemplo:
Si comenzamos con 9 fichas y el Jugador 1 coge 3 fichas (quedan 6), ahora es el
turno del Jugador 2 coge 1 ficha (quedan 5). Jugador 1 coge 2 fichas (quedan 3).
Jugador 2 coge 2 fichas (queda 1). Jugador 1 coge 1 ficha (no quedan fichas, es decir
ha cogido la última ficha, por tanto, jugador 2 gana)

Los siguientes componentes definen a un juego, es importante saber que el estado


inicial y los movimientos legales para cada lado definen el “árbol de juego”.

Estados del NIM: Número fichas que quedan en la mesa, después de un


movimiento.

Estado Inicial. - Se define como el estado que incluye la posición del tablero e
identifica al jugador que mueve.

Estados Inicial del NIM: Estado inicial: número de fichas al comienzo. Pudiendo
ser una X cantidad.

Función Sucesor. - Devuelve una lista de pares (Movimiento, estado) indicando


un movimiento legal y el estado que resulta.

Función sucesor del NIM: Movimientos: tomar 1, 2 ó 3 fichas, quedando como


estado la cantidad de fichas no tomadas en la mesa.

Test terminal. – Determina cuando se termina el juego. Siendo estos los estados
terminales.

Estado Final del NIM: Un único estado final, El estado final es ganador para un
jugador si es su turno

AGENTES INTELIGENTES – ALUMNO: RUBEN REGALADO


UTPL – INTELIGENCIA ARTIFICIAL 8

Función utilidad. – (Función objetivo o función de rentabilidad) Da un valor


numérico a los estados terminales

Función de utilidad del NIM. Para el estado final: 1 si le toca a MAX y -1 si le toca
a MIN

3. Agente basado en conocimiento para un sistema de diagnóstico


médico
Describa como sería el esquema de un agente basado en conocimiento para un
sistema de diagnóstico médico. ¿Cuál sería su base de conocimiento, su
entorno, las nuevas sentencias o percepciones derivadas? ¿Cómo y cuáles
serían las respuestas que daría el sistema mediante razonamiento lógico a su
entorno?
Recordemos que: un agente basado en conocimiento es un sistema que posee
conocimiento de su entorno o medio ambiente y es capaz de razonar sobre las
posibles acciones que puede tomar para cambiar el estado de su entorno. (Priscila,
Valdiviezo, Dunia, & Jara, 2012)

El diagnóstico médico apoyado mediante aplicaciones de la Inteligencia Artificial se


puede ver referenciado desde varias de sus principales técnicas tales como los
sistemas expertos (diagnóstico basado en reglas, probabilidades), lógica difusa
(diagnóstico basado en clasificación), redes neuronales (diagnóstico basado en
entrenamiento y reconocimiento), minería de datos aplicada (diagnóstico mediante el
reconocimiento de patrones).

3.1 ¿Cuál es su base de conocimiento?

El conocimiento se puede representar por listas, descripción de objetos relacionados


a la medicina, cálculos de predicados redes semánticas, las reglas de producción
entre estas.

Diccionario de términos médicos. - Combinado con la interpretación de


lenguaje natural el agente pueda inferir nuevos conocimientos.
Medicamentos y sus componentes específicos. - Vital para evitar Alergias
en un posible tratamiento determinado por el agente.
Conocimiento acumulado sobre los síntomas vinculados a cada enfermedad.
Base de enfermedades, vinculado a posibles tratamientos.
Bases del Agente causante de la infección o enfermedad.
Casos similares enfermedades de otros pacientes.
Parámetros presentes en la historia clínica del paciente a tratar (signos vitales,
edad, glucemia, recuentos de plaquetas, etc.)
Conocimiento y experiencia de expertos especializados.
Reglas que permitan generar más conocimiento, en base a expertos en
medicina y sus diferentes especialidades.

AGENTES INTELIGENTES – ALUMNO: RUBEN REGALADO


UTPL – INTELIGENCIA ARTIFICIAL 9

3.2 Su entorno

Primero definamos que la enfermedad descrita en un texto de biomedicina se


considera como una entidad real pero abstracta en el sentido de constituir un tipo
general de patología cuya aparición en un individuo es un ejemplar particular que se
analiza y cataloga como "caso clínico"
Para ayudarnos a describir el entorno de nuestro agente médicos describimos el
siguiente REAS de dicho agente.

Agente Rendimiento Entorno Actuadores Sensores


Sistema de Diagnóstico El Paciente. Preguntas. Síntomas
diagnóstico efectivo de su
médico enfermedad.

Tratamiento Personal de Pruebas o Evidencias y


para seguir. salud. exámenes respuestas
(Incluye tipo de médicos. del paciente
medicina y
cantidades
determinadas)
Centro de Tratamiento Equipos de
salud. signos vitales,
RX, etc. Que
Obtengan
datos del
estado
paciente.
Diagnostico

Como se ven en la tabla anterior, nuestro entorno esta ligado por: pacientes, médicos
(personal de salud) y centro de salud (Clínica, hospital, etc).
Adicionalmente se puede decir que una vez descrita y reconocida la enfermedad
como un tipo taxonómico de patología y del caso clínico particular como un ejemplar
de ella, es necesario considerar que alguien (Paciente) está afectado por esa
patología; se trata de un paciente, un ser humano individual y un sufrimiento único,
irrepetible y cambiante en el tiempo.
El padecimiento, que se distingue de la enfermedad porque especifica cómo vive su
enfermedad cada individuo afectado. Su caso no sólo es personal y especial en

AGENTES INTELIGENTES – ALUMNO: RUBEN REGALADO


UTPL – INTELIGENCIA ARTIFICIAL 10

términos la individualidad biológica, sino por tratarse de una persona dotada de mente
y conciencia, un sujeto de experiencia y agente con voluntad propia.

3.3 Nuevas sentencias y procedimientos derivados

Generalmente un diagnostico está basado en la subjetividad del especialista, con el


agente medico lo que se busca para el diagnóstico en general y el diagnóstico médico
particularmente es la integración rápida y fácil de conocimiento que pueda reemplazar
al antiguo, siendo este factor fundamental en el sistema basado en conocimiento.
Todo nuevo procedimiento medico se basaría en dos palabras: Primero “SI”, es decir
la condición, y “ENTONCES” es decir lo que tendría que realizar.
Para generar nuevos procedimientos derivados el agente tiene que inferir nuevas
sentencias a partir de las sentencias antiguas.
Para consultar la base de conocimiento lo haremos con “PREGUNTAR” (ASK).
Y para añadir nuevas sentencias a la BC utilizaremos “DECIR” (TELL).
De esta manera habrá un continuo autoaprendizaje de nuestra BD, para ejemplarizar
lo anteriormente dicho se adjunta la siguiente imagen, tomada de la guía didáctica.

3.4 Como y cuales sería las respuestas que daría el sistema mediante el
razonamiento lógico del entorno.

Primero debemos tener claro que el ser humano es un ser biológico sujeto a leyes
naturales, la medicina formula patologías, daños o lesiones corporales, analiza sus
manifestaciones celulares y funcionales, establece sus causas y su curso natural
probable, sus expresiones manifiestas y formas de curación.
Algunos de los resultados que podría dar el sistema sería, por ejemplo:

AGENTES INTELIGENTES – ALUMNO: RUBEN REGALADO


UTPL – INTELIGENCIA ARTIFICIAL 11

Detección de cáncer y patologías cardíacas a través de las señales que se


obtienen a partir de la aparatología médica.
Identificar microorganismos patógenos y detectar brotes epidémicos.
En bioquímica se facilitan los análisis de orina, sangre, control de diabetes,
ionogramas, y la forma de detectar condiciones patológicas a través del
análisis bioquímico
El procesamiento de imágenes de alta complejidad (RX; TAC; RNM;
ecografías; Doppler, etc.) mediante redes neuronales permitiría establecer
patentes referidas a imágenes significativas de patologías antes no
demostradas. Entre otras respuestas que podría determinar un “agente
medico”.
Que tan claro sea el diagnóstico, o la fiabilidad de este, dependerá en gran medida
de una buena base de conocimientos y sobre todo de que tan bien implementadas
estén las reglas de inferencias, para que el agente puede establecer analogías y en
base a deducciones generar nuevos conocimientos veraces y eficientes.
Para finalizar podemos tener presente que: “La práctica médica tiene un objeto
que no es concisamente una lesión patológica que hay que resolver, sino un
ser humano desvalido que sufre está incapacitado y se siente disminuido, a
quien es necesario socorrer”.

3.5 Ejemplo de la importancia de la IA en la medicina actual.

En la actualidad la técnica de IA que está dando los resultados más espectaculares en


el ámbito del diagnóstico basado en la imagen es el llamado aprendizaje profundo,
que consiste en aprender a reconocer patrones de manera muy eficiente. Con esta
técnica, recientemente científicos de la Universidad de Carnegie Mellón (EE UU), en
colaboración con cuatro hospitales de Chicago, han desarrollado un sistema capaz
de predecir infartos con cuatro horas de antelación en enfermos ingresados en UCIs,
lo que mejora en más de tres horas los tiempos de predicción de los
cardiólogos.(Lopez Ramon, 2018)
Una de las aplicaciones más potentes a nivel mundial es el sistema GIDEON, que
ayuda a diagnosticar 337 enfermedades infecciosas específicas en 224 países. Su
base de datos cubre 1.147 taxones microbianos y 306 agentes antibacterianos y
vacunas. La información que maneja es actualizada semanalmente e incluye más de
20.000 imágenes, gráficos, mapas infografías, etc. Todo ello le permite llegar a un
94% de diagnósticos correctos,(Lopez Ramon, 2018)

4. Ejercicio 7.8 pág. 267.


Demuestre para cada una de las sentencias indicadas en el ejercicio 7.8 pág.
267, del texto básico, si es válida, insatisfactible, o ninguna de las dos cosas.
Verifique su decisión utilizando las tablas de verdad o las equivalencias de la
fig. 7.11 página 235.

AGENTES INTELIGENTES – ALUMNO: RUBEN REGALADO


UTPL – INTELIGENCIA ARTIFICIAL 12

Solución
Para mayor entendimiento tomemos en cuenta la siguiente tabla:

Antes de empezar consideremos las siguientes reglas:

AGENTES INTELIGENTES – ALUMNO: RUBEN REGALADO


UTPL – INTELIGENCIA ARTIFICIAL 13

Ejercicio A

Humo → Humo
Hacemos Humo = H entonces tenemos:
H→H

Aplicamos:

Entonces:
H → H ≡ ┐H ˅ H
Por propiedades tenemos que:

AGENTES INTELIGENTES – ALUMNO: RUBEN REGALADO


UTPL – INTELIGENCIA ARTIFICIAL 14

Por lo tanto:
┐H ˅ H ≡ Verdadero

El libro base nos indica que una sentencia es VALIDA si es VERDADERA para todos
los modelos.

Por lo tanto, esta sentencia Humo → Humo Es válida.

Ejercicio B

Humo → Fuego
Hacemos Humo = H, y Fuego = F entonces tenemos:
H→F

Aplicamos:

Entonces:
H → H ≡ ┐H ˅ F
Tenemos la siguiente tabla de verdad:

H F ┐H ˅ F
V V V
V F F
F V V
F F V

El libro base nos indica que una sentencia es SATISFACTORIA si es VERDADERA


para al menos uno de sus modelos.

Por lo tanto, esta sentencia Humo → Fuego Es satisfactoria.

Ejercicio C

(Humo → Fuego) → ( ┐Humo → ┐Fuego)


Hacemos Humo = H, y Fuego = F entonces tenemos:
(H → F) → (┐H → ┐F)

Aplicamos:

Entonces:
(┐ H ˅ F ) → ( ┐(┐H ) ˅ (┐F) )
Aplicamos:

(┐ H ˅ F ) → ( H ˅ ┐F )

AGENTES INTELIGENTES – ALUMNO: RUBEN REGALADO


UTPL – INTELIGENCIA ARTIFICIAL 15

Nuevamente aplicamos supresión de implicación y tenemos:


┐ (┐ H ˅ F ) ˅ ( H ˅ ┐F )

Aplicamos Ley de Morgan:

Y obtenemos:
(┐ (┐ H ) ˄ ┐ F ) ˅ ( H ˅ ┐F )

H ˄ ┐ F ˅ H ˅ ┐F

Tenemos la siguiente tabla de verdad:

H F H ˄ ┐ F ˅ H ˅ ┐F

V V V
V F V
F V V
F F V

El libro base nos indica que una sentencia es VALIDA si es VERDADERA para todos
los modelos.

Por lo tanto, esta sentencia (Humo → Fuego) → ( ┐Humo → ┐Fuego) Es válida.

Ejercicio D

Humo ˅ Fuego ˅ ┐Fuego


Hacemos Humo = H, y Fuego = F entonces tenemos:
H ˅ (F ˅ ┐F)
Aplicamos:

Entonces:
H ˅ VERDADERO

Aplicamos:

H ˅ VERDADERO ≡ VERDADERO

El libro base nos indica que una sentencia es VALIDA si es VERDADERA para todos
los modelos.
Por lo tanto, esta sentencia Humo ˅ Fuego ˅ ┐Fuego Es válida.

AGENTES INTELIGENTES – ALUMNO: RUBEN REGALADO


UTPL – INTELIGENCIA ARTIFICIAL 16

Ejercicio E

((Humo ˄ Calor) → Fuego) ↔ ( (Humo → Fuego) ˅ ( Calor → Fuego))


Hacemos Humo = H, Fuego = F, y Calor = C entonces tenemos:

((H ˄ C) → F ) ↔ ( (H → F) ˅ ( C → F))

Aplicamos:

Entonces:
(┐(H ˄ C) ˅ F ) ↔ ( (┐H ˅ F) ˅ ( ┐C ˅ F))

Aplicamos ley asociativa:

Obtenemos:
(┐(H ˄ C) ˅ F ) ↔ ( ┐H ˅ ┐C ˅ (F ˅ F))

Aplicamos

Obtenemos:
(┐(H ˄ C) ˅ F ) ↔ ( ┐H ˅ ┐C ˅ F))

Aplicamos Ley de Morgan:

Obtenemos:
(┐H ˅ ┐C ˅ F ) ↔ ( ┐H ˅ ┐C ˅ F )

Aplicamos:

Tenemos :
[(┐H ˅ ┐C ˅ F ) → ( ┐H ˅ ┐C ˅ F )] ˄ [(┐H ˅ ┐C ˅ F ) → ( ┐H ˅ ┐C ˅ F )]

Aplicamos:

Obtenemos:
[┐ (┐H ˅ ┐C ˅ F ) ˅ ( ┐H ˅ ┐C ˅ F )] ˄ [ ┐ (┐H ˅ ┐C ˅ F ) ˅ ( ┐H ˅ ┐C ˅ F )]

Tenemos que:

AGENTES INTELIGENTES – ALUMNO: RUBEN REGALADO


UTPL – INTELIGENCIA ARTIFICIAL 17

Entonces reduciendo queda:


[┐ (┐H ˅ ┐C ˅ F ) ˅ ( ┐H ˅ ┐C ˅ F )]

Aplicamos ahora:

Por lo tanto:
┐ (┐H ˅ ┐C ˅ F ) ˅ ( ┐H ˅ ┐C ˅ F ) ≡ VERDADERO

El libro base nos indica que una sentencia es VALIDA si es VERDADERA para todos
los modelos.

Por lo tanto, esta sentencia:


((Humo ˄ Calor) → Fuego) ↔ ( (Humo → Fuego) ˅ ( Calor → Fuego)). Es válida.

Ejercicio F

(Humo → Fuego) → ( (Humo ˄ Calor ) → Fuego))


Hacemos Humo = H, Fuego = F, y Calor = C entonces tenemos:

(H → F) → ( (H ˄ C ) → F))

Aplicamos:

(┐H ˅ F) → ( ┐(H ˄ C ) ˅ F))

Aplicamos Ley de Morgan:

Obtenemos:
(┐H ˅ F) → ( ┐H ˅ ┐C ˅ F)

Nuevamente:

Resultando:
┐ (┐H ˅ F) ˅ ( ┐H ˅ ┐C ˅ F)

(H ˄ ┐F) ˅ ( ┐H ˅ ┐C ˅ F)

A continuación, se describe la tabla de verdad:

AGENTES INTELIGENTES – ALUMNO: RUBEN REGALADO


UTPL – INTELIGENCIA ARTIFICIAL 18

H F (H ˄ ┐F) ˅ ( ┐H ˅ ┐C ˅ F)

V V V
V V V
V F V
V F V
F V V
F V V
F F V
F F V

El libro base nos indica que una sentencia es VALIDA si es VERDADERA para todos
los modelos.

Por lo tanto, esta sentencia:


(Humo → Fuego) → ( (Humo ˄ Calor ) → Fuego)) Es válida.

Ejercicio G

Grande ˅ Mudo ˅ (Grande → Mudo)

Hacemos Grande = G, Mudo = M, entonces tenemos:

G ˅ M ˅ (G → M)

Aplicamos:

G ˅ M ˅ (┐G ˅ M)

Aplicamos ley asociativa:

Obtenemos:
(G ˅ ┐G) ˅ (M ˅ M)

Aplicamos:

Obtenemos:
(G ˅ ┐G) ˅ M

Aplicamos:

AGENTES INTELIGENTES – ALUMNO: RUBEN REGALADO


UTPL – INTELIGENCIA ARTIFICIAL 19

Obtenemos:
VERDADERO ˅ M

Aplicamos ley de absorción:

Obtenemos:
VERDADERO ˅ M≡ VERDADERO

El libro base nos indica que una sentencia es VALIDA si es VERDADERA para todos
los modelos.

Por lo tanto, esta sentencia:


Grande ˅ Mudo ˅ (Grande → Mudo) Es válida.

Ejercicio H

(Grande ˄ Mudo) ˅ ┐Mudo

Hacemos Grande = G, Mudo = M, entonces tenemos:

(G ˄ M) ˅ ┐M

Como no es muy grande la expresión directamente podemos aplicar la tabla de verdad.

G M (G ˄ M) ˅ ┐M

V V V
V F V
F V F
F F V

El libro base nos indica que una sentencia es SATISFACTORIA si es VERDADERA


para al menos uno de sus modelos.

Por lo tanto, esta sentencia (Grande ˄ Mudo) ˅ ┐Mudo Es satisfactoria.

AGENTES INTELIGENTES – ALUMNO: RUBEN REGALADO


UTPL – INTELIGENCIA ARTIFICIAL 20

REFERENCIAS:
Lopez Ramon. (2018). ¿Puede un robot diagnosticar una enfermedad mejor que un médico?
Retrieved January 14, 2020, from https://blogs.20minutos.es/ciencia-para-llevar-
csic/2018/04/05/puede-un-robot-diagnosticar-una-enfermedad-mejor-que-un-medico/
Priscila, M., Valdiviezo, M., Dunia, M., & Jara, I. (2012). Inteligencia Artificial Sección
Inteligencia y Artificial Inteligencia Artificial (Editorial UTPL., Ed.). Loja.
Russell, S. (2004). Inteligencia Artificial. Un enfoque moderno (Segunda Ed; Prentice Hall,
Ed.). Madrid - España.
Sancho Caparrini, F. (2019). Problemas de Satisfacción de Restricciones - Fernando Sancho
Caparrini. Retrieved January 8, 2020, from http://www.cs.us.es/~fsancho/?e=141

Enlaces de apoyo:

https://www.monografias.com/docs114/problemas-satisfaccion-restricciones-
inteligencia-artificial/problemas-satisfaccion-restricciones-inteligencia-
artificial2.shtml
https://www.cs.us.es/cursos/ia1/temas/tema-05.pdf
https://es.slideshare.net/hectorestigarribia9/problemas-de-satisfaccion-de-
restricciones-psr
https://coggle.it/diagram/WoHkRCGMFQAByVey/t/problemas-de-
satisfacci%C3%B3n-de-restricciones
https://es.wikipedia.org/wiki/Vuelta_atr%C3%A1s

AGENTES INTELIGENTES – ALUMNO: RUBEN REGALADO

Das könnte Ihnen auch gefallen