Beruflich Dokumente
Kultur Dokumente
Agentes inteligentes
Un agente es un “dispositivo” que responde a estímulos procedentes de su
entorno. Es natural pensar en un agente como si fuera una máquina individual,
como por ejemplo un robot, aunque un agente puede adoptar otras formas; por
ejemplo, la de un aeroplano autónomo, la de un personaje en un videojuego
interactivo o la de un proceso que se comunica con otros procesos a través de
Internet (quizá como cliente, como servidor o como igual, peer). La mayor
parte de los agentes disponen de sensores que les permiten recibir datos de su
entorno; además, tienen actuadores con los que pueden ejercer una influencia
sobre ese entorno. Como ejemplos de sensores podríamos citar los micrófonos,
las cámaras, los sensores de proximidad y los dispositivos de muestreo del aire
o del suelo. Como ejemplos de actuadores tendríamos las piernas, las alas, las
pinzas y los sintetizadores de voz.
Gran parte de la investigación en inteligencia artificial puede caracterizarse
en el contexto de la construcción de agentes que se comportan de manera inte-
ligente, lo que quiere decir que las acciones de los actuadores del agente deben
constituir respuestas racionales a los datos recibidos a través de sus sensores. A
su vez, podemos clasificar todas esas investigaciones considerando los diferen-
tes niveles de esas respuestas.
La respuesta más simple es una acción refleja, que es sencillamente una
respuesta predeterminada a los datos de entrada. Para obtener un comporta-
miento más “inteligente” hacen falta niveles superiores de respuesta. Por ejem-
plo, podemos dotar a un agente con un conocimiento de su entorno y exigirle
que ajuste sus acciones correspondientemente. El proceso de lanzar una pelota
de béisbol es, en buena medida, una acción refleja pero el determinar cómo y
hacia dónde lanzarla requiere un conocimiento del entorno actual (por ejem-
plo, saber qué jugadores están en las distintas bases del campo). En el campo de
la inteligencia artificial, el problema de determinar cómo almacenar, actuali-
M12_BROO1397_11_SE_C11.qxd 8/12/11 12:42 Página 535
Metodologías de investigación
Para orientarse en el campo de la inteligencia artificial, es útil entender que
este campo está avanzando en dos direcciones distintas. Una de las líneas de
avance es la ingenieril, en la que los investigadores están tratando de desarro-
llar sistemas que exhiban un comportamiento inteligente. La otra línea de
avance es la teórica, en la que los investigadores tratan de desarrollar una com-
prensión computacional de la inteligencia animal, y especialmente de la inteli-
gencia humana. Podemos clarificar esta dicotomía considerando la manera en
la que se persiguen esos dos objetivos. La técnica ingenieril conduce a una
metodología orientada al rendimiento, porque el objetivo último es construir
un producto que satisfaga ciertos objetivos de rendimiento. El enfoque teórico
1 2 3
4 5 6
7 8
M12_BROO1397_11_SE_C11.qxd 8/12/11 12:42 Página 537
El test de Turing
En el pasado, el test de Turing (propuesto por Alan Turing en 1950) ha servido
como manera de medir el progreso en el campo de la inteligencia artificial.
Hoy día, la importancia que se concedía al test de Turing se ha desvanecido,
aunque continúa formando parte del folklore propio del campo de la inteligen-
cia artificial. La propuesta de Turing consistía en permitir que una persona, a la
que llamaremos interrogador, se comunicara con un sujeto de prueba por
medio de un teclado, sin que el interrogador supiera si el sujeto de prueba era
un ser humano o una máquina. En este entorno, diríamos que una máquina se
comporta de manera inteligente si el interrogador no es capaz de distinguirla
de un ser humano. Turing predijo que para el año 2000 las máquinas tendrían
un 30 por ciento de posibilidades de pasar un test de Turing de cinco minutos
de duración, una conjetura que ha resultado ser sorprendentemente precisa.
Una de las razones por la que ya no se considera el test de Turing como una
medida significativa de la inteligencia es que se puede producir con facilidad
una inquietante apariencia de inteligencia. Un ejemplo muy conocido surgió
como resultado del programa DOCTOR (una versión del sistema más general
denominado ELIZA) desarrollado por Joseph Weizenbaum a mediados de la
década de 1960. Este programa interactivo estaba diseñado para proyectar la
imagen de un analista rogeriano realizando una sesión de psicoterapia. La com-
putadora desempeñaba el papel del analista, mientras que el usuario hacía de
paciente. Internamente, lo único que DOCTOR hacía era reestructurar las fra-
ses pronunciadas por el paciente de acuerdo con algunas reglas bien definidas
y volver a plantearlas al paciente. Por ejemplo, en respuesta a la frase “Hoy
estoy cansado”, DOCTOR podría haber contestado “¿Por qué cree que está can-
sado hoy?”. Si DOCTOR era incapaz de reconocer la estructura de la frase, sim-
plemente respondía con algo como “Continúe” o “Eso es muy interesante”.
Cuestiones y ejercicios
11.2 Percepción
Para responder de manera inteligente a las entradas procedentes de sus senso-
res, un agente debe ser capaz de comprender esas entradas. Es decir, el agente
tiene que ser capaz de percibir. En esta sección vamos a explorar dos áreas de
investigación en el campo de la percepción que han demostrado ser especial-
mente complicadas: la comprensión de las imágenes y del lenguaje.