Sie sind auf Seite 1von 28
Inteligencia Artificial I.T. en Informática de Sistemas, 3º Curso académico: 2010/2011 Profesores: Ramón Hermoso y

Inteligencia Artificial

I.T. en Informática de Sistemas, 3º

Curso académico: 2010/2011 Profesores: Ramón Hermoso y Roberto Centeno

3º Curso académico: 2010/2011 Profesores: Ramón Hermoso y Roberto Centeno Inteligencia Artificial 3º ITIS 2010/11

Inteligencia Artificial 3º ITIS 2010/11

Tema 1: Introducción a la IA

1.

Introducción a la Inteligencia Artificial

 

1.1 ¿Qué es la IA?

1.2 Agentes Inteligentes

Artificial   1.1 ¿Qué es la IA? 1.2 Agentes Inteligentes Inteligencia Artificial 3º ITIS 2010/11

Inteligencia Artificial 3º ITIS

2010/11

Inteligencia Artificial : Disciplinas

Objetivo: estudiar artefactos inteligentes

Disciplinas relacionadas :

Filosofía

leyes del pensamiento, lógica

relación entre la mente y la materia (dualismo, materialismo)

relación entre el conocimiento y la experiencia (empiristas,

positivistas,

)

relación entre el conocimiento y la acción

.

.

.

Matemáticas

concepto de algoritmo (al-Jawarizmi)

teorema de incompletitud (Gödel)

intratabilidad y teoría de la completitud NP

teoría de la decisión (von Neumann / Morgenstern)

la completitud NP –   teoría de la decisión (von Neumann / Morgenstern) Inteligencia Artificial 3º

Inteligencia Artificial 3º ITIS

2010/11

Inteligencia Artificial : Disciplinas

Disciplinas relacionadas:

Psicología:

modelos del comportamiento humano

conductistas: modelos estimulo-respuesta

psicología cognitiva: creencias, objetivos, pasos de razonamiento,

Lingüística:

modelos de la interacción verbal humana

reconocimiento y generación del habla

representación del conocimiento

Sociología:

modelos del comportamiento humano en grupo

psicología social: compromisos, normas, obligaciones,

Ingeniería computacional :

facilita los artefactos (hardware y software) para la IA

.

.

.

–   facilita los artefactos (hardware y software) para la IA •   . . .

Inteligencia Artificial 3º ITIS

2010/11

Inteligencia Artificial: Historia

1940/50:

Programas que resuelven tareas básicas de razonamiento (jugar al ajedrez / jugar a las damas / probar teoremas geométricos)

primeros modelos de neuronas artificiales (McCulloch/Pitts)

1960/70:

representaciones especializadas del conocimiento (reglas, marcos, guiones)

primeros sistemas expertos (Dendral, Prospector, Mycin)

declive de la computación neuronal (análisis de los Perceptrones de Minsky)

1980:

aplicaciones comerciales de los sistemas expertos (R1)

proyecto de software de “quinta generación” en Japón

1990 hasta hoy:

regreso de las redes de neuronas

modelos de incertidumbre (cadenas de Markov, redes Bayesianas)

agentes inteligentes (robots autónomos, sistemas multiagente)

.

.

.

  agentes inteligentes (robots autónomos, sistemas multiagente) –   . . . Inteligencia Artificial 3º ITIS

Inteligencia Artificial 3º ITIS

2010/11

Inteligencia Artificial

Objetivo: estudiar los entes inteligentes

científico: entender los entes inteligentes entender los entes inteligentes

ingenieril: construir entes inteligentes construir entes inteligentes

Algunas definiciones:

Sistemas que piensan como humanos

“IA fuerte”

  Sistemas que piensan como humanos “IA fuerte” “La interesante tarea de lograr que las computadoras
  Sistemas que piensan como humanos “IA fuerte” “La interesante tarea de lograr que las computadoras

“La interesante tarea de lograr que las computadoras piensen Máquinas con mente, en su amplio sentido literal” (Haugeland 1985)

Sistemas que actúan como humanos

“El arte de crear máquinas con capacidad de realizar funciones que realizadas por personas requieren inteligencia” (Kurzweil 1990)

Sistemas que actúan de forma racional

“La rama de la Informática que se ocupa de la automatización del comportamiento inteligente” (Luger & Stubblefield, 1993)

“IA débil”

Inteligencia Artificial 3º ITIS

2010/11

Actuar como humanos

Prueba de Turing : [Alan Turing, 1950]

Un evaluador humano y un interlocutor están separados por una mamparaActuar como humanos Prueba de Turing : [Alan Turing, 1950] El interlocutor puede ser bien otro

El interlocutor puede ser bien otro persona o bien un ordenadorhumano y un interlocutor están separados por una mampara El evaluador formula preguntas a través de

El evaluador formula preguntas a través de un teletipo, y el interlocutor da sus respuestas del mismo modointerlocutor puede ser bien otro persona o bien un ordenador El ordenador supera la prueba, si

El ordenador supera la prueba, si el evaluador no es capaz de distinguir entre él y un humanoteletipo, y el interlocutor da sus respuestas del mismo modo Capacidades requeridas : •   procesamiento

Capacidades requeridas :

procesamiento del lenguaje natural • representación del conocimiento y razonamiento • aprendizaje

Prueba total de Turing:

incluye señales de vídeo y objetos físicos • requiere capacidad de visión computacional y robótica

físicos •   requiere capacidad de visión computacional y robótica Inteligencia Artificial 3º ITIS 2010/11

Inteligencia Artificial 3º ITIS

2010/11

Pensar como humanos

Modelado cognitivo:

abrir la “caja negra” de la mente humana analizar los procesos mentales (introspección, experimentos) desarrollar una teoría acerca de los procesos mentales aplicar esta teoría en la simulación de dichos procesos en un ordenador

General Problem Solver (GPS) [Newell & Simon 1961]:

resuelve problemas mediante la descomposición en subproblemas más simples • se centra en la comparación de los pasos de razonamiento del GPS con los pasos seguidos por una persona al resolver el mismo problema

Ciencia Cognitiva:

modelos computacionales (IA) + técnicas experimentales (psicología) • construir teorías rigurosas y verificables acerca de los procesos mentales

  construir teorías rigurosas y verificables acerca de los procesos mentales Inteligencia Artificial 3º ITIS 2010/11

Inteligencia Artificial 3º ITIS

2010/11

Actuar de forma racional

Racionalidad:

prescriptivo: cómo las personas deberían actuar sentido estricto: ¿cómo sacar “conclusiones verdaderas”? sentido amplio: ¿cómo actuar y “sobrevivir” en un entorno?

Pensar de forma racional:

leyes de pensamiento de Aristóteles: razonamiento irrefutable • lógica formal :

lenguaje formal para representar todo tipo de entes en el mundo

modelo riguroso para razonar sobre dichos entes

en su estado “puro”, más estrechamente relacionado con la filosofía y las matemáticas

Actuar de forma racional:

Inteligencia Artificial: modelar/construir sistemas que actúan basándose en la inferencia lógica automática

sistemas que actúan basándose en la inferencia lógica automática Inteligencia Artificial 3º ITIS 2010/11

Inteligencia Artificial 3º ITIS

2010/11

Actuar de forma racional

Agentes Racionales:

enfoque relativo al contexto: actuar de forma correcta en un entorno no se limita a la inferencia racional (lógica)

a veces es imposible determinar formalmente cuál es la mejor acción en algunas situaciones es “racional” emprender una acción “buena” inmediatamente en vez de esperar hasta determinar la alternativa óptima

se pueden determinar acciones racionales por inferencias no lógicas

Ventajas:

pone énfasis en una perspectiva ingenieril • destaca la relación entre comportamientos inteligentes y el entorno en el que se desarrollan • proporciona criterios transparentes para evaluar conducta inteligente • permite una concepción integrada de las distintas técnicas y subáreas de la Inteligencia Artificial

integrada de las distintas técnicas y subáreas de la Inteligencia Artificial Inteligencia Artificial 3º ITIS 2010/11

Inteligencia Artificial 3º ITIS

2010/11

Tema 1: Introducción a la IA

1. Introducción a la Inteligencia Artificial

1.1 ¿Qué es la IA?

1.2 Agentes Inteligentes

a la Inteligencia Artificial 1.1 ¿Qué es la IA? 1.2 Agentes Inteligentes Inteligencia Artificial 3º ITIS

Inteligencia Artificial 3º ITIS

2010/11

Agentes

Agente:

ente activo embebido en un entorno • “cuerpo”:

percibe el entorno por medio de sensores

actúa sobre el entorno por medio de efectores

“mente”:

determina las acciones a partir de las percepciones

medida de rendimiento que guía dicho proceso

percepciones

entorno

acciones

  medida de rendimiento que guía dicho proceso percepciones entorno acciones Inteligencia Artificial 3º ITIS 2010/11

Inteligencia Artificial 3º ITIS

2010/11

Tipos de Agentes

Agentes naturales:

cuerpo biológico y entorno natural

sensores: ojos, oídos, lengua, etc.

efectores: piernas, brazos, manos, etc.

medida de rendimiento: sobrevivir, reproducirse,

Agentes artificiales:

agentes hardware (robots):

interactúan directamente con un entorno físico

disponen de un “cuerpo” físico

sensores: cámaras, telémetros infrarojos, etc.

efectores: ruedas/piernas, manipuladores, etc.

agentes software (softbots):

actúan en entornos virtuales (p.e. Internet)

todo software: no necesitan manipular físicamente el entorno

sensores y efectores: dependientes del entorno

físicamente el entorno –   sensores y efectores: dependientes del entorno Inteligencia Artificial 3º ITIS 2010/11

Inteligencia Artificial 3º ITIS

2010/11

Agente inteligente

Agentes inteligentes:

actúan de forma racional en su entorno • determinantes de un comportamiento racional :

medida de rendimiento: define el grado de éxito del agente

secuencia de percepciones: la experiencia del agente

conocimientos a priori sobre su entorno

capacidades: las acciones que el agente pueda emprender

Comportamiento racional:

a partir de la secuencia de percepciones hasta el momento, y el conocimiento a priori sobre el entorno • elegir entre las capacidades la acción que maximice la medida de rendimiento

Racionalidad Omniscencia la selección racional de acciones sólo se basa en la información disponible

la selección racional de acciones sólo se basa en la información disponible Inteligencia Artificial 3º ITIS

Inteligencia Artificial 3º ITIS

2010/11

Autonomía

Problema:

los conocimientos a priori reflejan la “inteligencia” del diseñador • un agente que no presta atención a sus percepciones

no sería inteligente

sólo podría actuar en entornos extremadamente simples

no puede actuar con éxito en situaciones no anticipadas (Ejemplo: escarabajo)

Autonomía:

“no bajo el control inmediato de una persona” • un agente es más autónomo

cuanto más se rige su comportamiento por su propia experiencia

cuanto menos depende de sus conocimientos a priori

Agente inteligente = comportamiento racional + autonomía

conocimientos a priori Agente inteligente = comportamiento racional + autonomía Inteligencia Artificial 3º ITIS 2010/11

Inteligencia Artificial 3º ITIS

2010/11

Programa y Arquitectura de Agente

Programas de Agente:

software que determina el comportamiento del agente • implementa la función percepción-acción

{simple agent program} memoria percibir (memoria, percepción) acción selección-acción(memoria, medida-rendimiento) memoria actuart (memoria, acción)

Arquitectura de agente:

los módulos que componen el agente • estructura del programa de agente • partes imprescindibles:

componente de percepción

componente de selección de acciones

componente de acción

–   componente de selección de acciones –   componente de acción Inteligencia Artificial 3º ITIS

Inteligencia Artificial 3º ITIS

2010/11

Tipos de Arquitectura de Agente

Agentes estimulo-reacción (reactivos) :

calculan las acciones directamente a partir de las percepciones

frecuentemente siguen un enfoque conexionista

en muchos dominios permite generar rápidamente acciones “buenas”

Agentes deliberativos:

mantienen un modelo de simbólico su entorno

anticipan los efectos potenciales de sus acciones a través del

modelo

permite evitar emprender acciones equivocadas y irrevocables

Agentes híbridos: combinan ambos enfoques

enfoque reactivo para acciones inmediatas

enfoque deliberativo para acciones estratégicas

acciones inmediatas –   enfoque deliberativo para acciones estratégicas Inteligencia Artificial 3º ITIS 2010/11

Inteligencia Artificial 3º ITIS

2010/11

Agentes reactivos Agentes inteligentes de arquitectura reactiva: •   la información sensorial se comprime en
Agentes reactivos
Agentes inteligentes de arquitectura reactiva:
•   la información sensorial se comprime en un vector característico del
estado del entorno
•   la “racionalidad” está compilado en la función de reacción
•   técnicas: autómatas, redes de neuronas, etc.
Vector característico
0
1
Información
Procesamiento
de la percepción
Función de
1
Acción
sensorial
reacción
0
1
Inteligencia
Artificial 3º ITIS

2010/11

Agentes deliberativos

Los agentes inteligentes de arquitectura deliberativa :

mantienen un modelo simbólico de su entorno anticipan los efectos esperados de sus acciones sobre este modelo

eligen la mejor acción con respecto a la medida de rendimiento en base

a este proceso

 

C

A

D

B

 

B

C

A

D

A

B

C

D

proceso   C A D B   B C A D A B C D Inteligencia

Inteligencia Artificial 3º ITIS

2010/11

Agentes híbridos

Agentes inteligentes de arquitectura híbrida :

¿Cuando reaccionar de forma reactiva, y cuando es conveniente deliberar?

Nivel

deliberativo

Nivel reactivo

 

C

A

D

B

 

B

C

A

D

A

B

C

D

Percepción Acción Inteligencia Artificial 3º ITIS
Percepción
Acción
Inteligencia
Artificial 3º ITIS

2010/11

Agentes basados en objetivos

Además de la descripción del estado actual, el agente necesita información sobre la meta a la que quiere llegar.

Ejemplo: un conductor que quiere llegar a su destino

que quiere llegar. •   Ejemplo: un conductor que quiere llegar a su destino Inteligencia Artificial

Inteligencia Artificial 3º ITIS

2010/11

Agentes basados en utilidad

Podrían existir varias secuencias de acciones posibles para alcanzar una misma meta

No todas ellas proporcionan un mismo beneficio

Se compara la utilidad que se obtiene en los distintos estados

Una función de utilidad es una función del tipo:

U : S → ℜ

•   Una función de utilidad es una función del tipo: U : S → ℜ

Inteligencia Artificial 3º ITIS

2010/11

Tipos de entornos

Relevancia del entorno:

el tipo y las características del entorno determinan la arquitectura, el programa y en general la complejidad del agente inteligente.

Tipos de Entornos:

físico frente a software:

físico: robot navegando en una sala real /entornos industriales

software: laberinto simulado / juego de vídeo

real frente a simulado

real: el diseñador no determina las características del entorno ejemplo: Internet, entorno real del robot

simulado: agentes son “condenados al éxito” ejemplo: videojuegos

manipulación directa frente a manipulación indirecta :

manipulación directa frente a manipulación indirecta : Inteligencia Artificial 3º ITIS –   ¿el agente

Inteligencia Artificial 3º ITIS

¿el agente interactúa inmediatamente con su entorno?

Diagnosis médica / gestión de tráfico / automatización de la producción

2010/11

Propiedades del entorno

Propiedades:

accesible frente a inaccesible:

¿El agente puede determinar inequívocamente el estado de su entorno ?

Accesible: Ajedrez , “tres en raya”

Inaccesible: Póker, laberinto, juego de vídeo

determinista frente a no determinista:

¿Los acciones del agente en un estado actual determinan completamente el estado resultante?

Determinista: Ajedrez, agente software en entorno simulado

No determinsta: gestión de tráfico, robot en un entorno real

simulado –   No determinsta: gestión de tráfico, robot en un entorno real Inteligencia Artificial 3º

Inteligencia Artificial 3º ITIS

2010/11

Propiedades del entorno

estático frente a dinámico:

¿El estado del entorno pueda cambiar mientras que el agente delibera? ¿Puede cambiar sin que el agente actúe?

estático: agente software en un laberinto simulado (entorno no cambia)

“semidinámico”: ajedrez (cambios previsibles)

dinámico: gestión de tráfico (cambios imprevisibles)

discreto frente a continuo:

¿Los conjuntos de posibles percepciones y/o acciones son discretos?

discreto: ajedrez, agente software en un laberinto simulado

continuo: robot navegando en un entorno físico real

laberinto simulado –   continuo: robot navegando en un entorno físico real Inteligencia Artificial 3º ITIS

Inteligencia Artificial 3º ITIS

2010/11

Subáreas de la Inteligencia Artificial

Búsqueda:

actuar de forma racional en entornos bien definidos: espacios de estado (entornos accesible, deterministas, estáticos y discretos)

Representación del conocimiento y razonamiento

combatir la complejidad : estructurar la representación del entorno

entornos inaccesibles / no deterministas: razonamiento no-monótono

.

.

.

Planificación:

combatir la complejidad : representación estructurada + inferencia especializada

entornos no-deterministas: planificación condicional

entornos dinámicos: replanificación

Aprendizaje:

combatir la complejidad: aprender a actuar más rápido

mejorar el rendimiento: aprender a actuar mejor

mejorar la autonomía: reducir dependencia de conocimientos a priori

–   mejorar la autonomía: reducir dependencia de conocimientos a priori Inteligencia Artificial 3º ITIS 2010/11

Inteligencia Artificial 3º ITIS

2010/11

Subáreas de la Inteligencia Artificial

Incertidumbre:

entornos inaccesibles/ no deterministas/ continuos: creencias

(lógica difusa, redes Bayesianas

)

medidas de rendimiento basados en la utilidad esperada (Teoría de la Utilidad, inferencia basada en la Teoría de la Decisión)

Comunicación:

entornos en el que el agente interactúa de forma flexible con humanos

(procesamiento del lenguaje natural, actos de habla,

)

entornos multiagente (razonar sobre otros agentes, coordinación,

lenguajes de comunicación entre agentes,

)

Percepción y actuación:

robótica: entornos físicos y agentes hardware

visión computacional

robótica: entornos físicos y agentes hardware –   visión computacional Inteligencia Artificial 3º ITIS 2010/11

Inteligencia Artificial 3º ITIS

2010/11

Ejercicios

Ejercicios Inteligencia Artificial 3º ITIS 2010/11

Inteligencia Artificial 3º ITIS

2010/11