You are on page 1of 507

1

nasgreen46 nas2green49
2
Inteligencia Articial
Jose A. Montero Valverde
c _ Derechos reservados 2012
27 de enero de 2013

Indice general
Contenido I
Prefacio XIII
1. Fundamentos de la Inteligencia Articial (IA) 3
1.1. Historia de la IA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.1.1. IA: Etapa Moderna (desarrollos losocos) . . . . . . . . . . 11
1.1.2. IA: Etapa Moderna (desarrollos practicos) . . . . . . . . . . . 15
1.2. Conceptos y tecnicas (Estado del arte) . . . . . . . . . . . . . . . . . 22
1.3. Desarrollos actuales . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
1.3.1. Procesamiento de Lenguaje Natural (PLN) . . . . . . . . . . . 31
1.3.2. Reconocimiento de patrones . . . . . . . . . . . . . . . . . . . 33
1.3.3. Robotica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
1.3.4. Sistemas Expertos . . . . . . . . . . . . . . . . . . . . . . . . 39
1.3.5. Logica Difusa . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
1.4. Modelos de agente inteligente . . . . . . . . . . . . . . . . . . . . . . 44
1.5. Heurstica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
1.6. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
2. Tecnicas de B usqueda 67
2.1. Solucion de problemas con b usqueda . . . . . . . . . . . . . . . . . . 68
2.1.1. Terminos relacionados con b usqueda . . . . . . . . . . . . . . 71
2.1.2. Formulacion de un problema de b usqueda . . . . . . . . . . . 74
i
ii

INDICE GENERAL
2.2. Espacio de estados . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
2.2.1. Estados determinsticos y no determinsticos . . . . . . . . . . 82
2.3. Metodos de b usqueda . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
2.3.1. Primero en anchura (breadth-rst) . . . . . . . . . . . . . . . . 89
2.3.2. Grafos O . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
2.3.3. Grafos A . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
2.4. Satisfaccion de restricciones . . . . . . . . . . . . . . . . . . . . . . . 100
2.4.1. B usqueda en CSP . . . . . . . . . . . . . . . . . . . . . . . . . 104
2.5. Teora de juegos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
2.5.1. Descripcion de juego . . . . . . . . . . . . . . . . . . . . . . . 109
2.5.2. Teora de juegos no cooperativos . . . . . . . . . . . . . . . . 110
2.5.3. Formas de juego: estrategicas y extensivas . . . . . . . . . . . 114
2.5.4. Juegos cooperativos . . . . . . . . . . . . . . . . . . . . . . . . 122
2.6. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127
3. Representacion del conocimiento y razonamiento 129
3.1. Sistemas basados en conocimiento (KBS) . . . . . . . . . . . . . . . . 130
3.1.1. Concepto de conocimiento . . . . . . . . . . . . . . . . . . . . 135
3.1.2. Lenguajes utilizados en la representacion de conocimiento (RC)137
3.2. Mapas conceptuales . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141
3.3. Redes Semanticas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 146
3.3.1. Descripcion . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149
3.4. Logica de predicados . . . . . . . . . . . . . . . . . . . . . . . . . . . 156
3.4.1. Sintaxis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 158
3.4.2. Semantica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161
3.4.3. Inferencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 164
3.4.4. Validez . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 170
3.5. Razonamiento con incertidumbre . . . . . . . . . . . . . . . . . . . . 179
3.5.1. Razonamiento probabilstico . . . . . . . . . . . . . . . . . . . 181
3.5.2. Aprendizaje . . . . . . . . . . . . . . . . . . . . . . . . . . . . 190

INDICE GENERAL iii


3.5.3. Logicas multivaluadas . . . . . . . . . . . . . . . . . . . . . . 199
3.5.4. Logica difusa . . . . . . . . . . . . . . . . . . . . . . . . . . . 206
3.6. Demostracion y metodos . . . . . . . . . . . . . . . . . . . . . . . . . 213
3.6.1. Demostracion . . . . . . . . . . . . . . . . . . . . . . . . . . . 214
3.6.2. Metodos de demostracion . . . . . . . . . . . . . . . . . . . . 215
3.7. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 222
4. Sistemas de Razonamiento 227
4.1. Reglas de produccion . . . . . . . . . . . . . . . . . . . . . . . . . . . 229
4.1.1. Sintaxis de las reglas de produccion . . . . . . . . . . . . . . . 230
4.2. Semantica de las reglas de produccion . . . . . . . . . . . . . . . . . . 233
4.2.1. Conocimiento causal . . . . . . . . . . . . . . . . . . . . . . . 235
4.2.2. Conocimiento de diagnostico . . . . . . . . . . . . . . . . . . . 242
4.3. Arquitectura de un sistema de produccion . . . . . . . . . . . . . . . 253
4.3.1. Base de hechos . . . . . . . . . . . . . . . . . . . . . . . . . . 253
4.3.2. Base de conocimientos . . . . . . . . . . . . . . . . . . . . . . 258
4.3.3. Mecanismos de control . . . . . . . . . . . . . . . . . . . . . . 264
4.4. Ciclo de vida de un sistema de produccion . . . . . . . . . . . . . . . 278
4.5. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 289
5. Aplicaciones con tecnicas de IA 295
5.1. Robotica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 295
5.1.1. Conceptos basicos . . . . . . . . . . . . . . . . . . . . . . . . . 296
5.1.2. Clasicacion . . . . . . . . . . . . . . . . . . . . . . . . . . . . 307
5.1.3. Desarrollos actuales y aplicaciones . . . . . . . . . . . . . . . . 320
5.2. Redes neuronales (RN) . . . . . . . . . . . . . . . . . . . . . . . . . . 339
5.2.1. Coceptos basicos . . . . . . . . . . . . . . . . . . . . . . . . . 341
5.2.2. Clasicacion . . . . . . . . . . . . . . . . . . . . . . . . . . . . 347
5.2.3. Desarrollos actuales y aplicaciones . . . . . . . . . . . . . . . . 357
5.3. Vision articial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 363
iv

INDICE GENERAL
5.3.1. Conceptos basicos . . . . . . . . . . . . . . . . . . . . . . . . . 364
5.3.2. Desarrollos actuales y aplicaciones . . . . . . . . . . . . . . . . 383
5.4. Logica difusa (Fuzzy Logic) . . . . . . . . . . . . . . . . . . . . . . . 391
5.4.1. Conceptos basicos . . . . . . . . . . . . . . . . . . . . . . . . . 394
5.4.2. Desarrollos actuales y aplicaciones . . . . . . . . . . . . . . . . 410
5.5. Procesamiento de Lenguaje Natural (PLN) . . . . . . . . . . . . . . . 415
5.5.1. Conceptos basicos . . . . . . . . . . . . . . . . . . . . . . . . . 416
5.5.2. Desarrollos actuales y aplicaciones . . . . . . . . . . . . . . . . 433
5.6. Sistemas Expertos (SE) . . . . . . . . . . . . . . . . . . . . . . . . . . 444
5.6.1. Conceptos basicos . . . . . . . . . . . . . . . . . . . . . . . . . 445
5.6.2. Clasicacion . . . . . . . . . . . . . . . . . . . . . . . . . . . . 450
5.6.3. Desarrollos actuales y aplicaciones . . . . . . . . . . . . . . . . 469
5.6.4. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 475
Bibliografa 479

Indice de guras
1.1. Padres de la IA. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.1. Plano de la casa del problema de las llaves perdidas. . . . . . . . . . . 69
2.2. Grafo que describe la trayectoria en el problema de las llaves perdidas. 70
2.3. Ilustracion del juego conocido como 8-puzzle . . . . . . . . . . . . . . 76
2.4. Ilustracion de la clasicacion de los espacios de estados (EE). . . . . . 83
2.5. Ejemplo de un grafo de espacio de estados deterministas. . . . . . . . 83
2.6. Ejemplo de un grafo de espacio de estados no deterministas. . . . . . 84
2.7. Ilustracion de los diferentes algoritmos de b usqueda. . . . . . . . . . . 85
2.8. Operacion del algoritmo de b usqueda primero en amplitud . . . . . . 90
2.9. Algoritmo de b usqueda primero en anchura en arboles. . . . . . . . . 91
2.10. 8 puzzle: Ilustracion de 3 movimientos . . . . . . . . . . . . . . . . 93
2.11. Ilustracion del algoritmo Grafo O. . . . . . . . . . . . . . . . . . . . . 95
2.12. Ilustracion del algoritmo A*. . . . . . . . . . . . . . . . . . . . . . . . 97
2.13. Aplicacion del algoritmo A* . . . . . . . . . . . . . . . . . . . . . . . 98
2.14. Grafo del problema: 3 coloraci on de un grafo. . . . . . . . . . . . . 103
2.15. Grafo de restricciones . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
2.16. Pseudocodigo del algoritmo BT. . . . . . . . . . . . . . . . . . . . . . 105
2.17. Grafo de restricciones para un CSP [13]. . . . . . . . . . . . . . . . . 107
2.18.

Arbol de b usqueda que explora BT . . . . . . . . . . . . . . . . . . . 107
2.19. Matriz del juego para elegir la calidad del servicio . . . . . . . . . . . 116
2.20.

Arbol que representa el juego eleccion de calidad . . . . . . . . . . . . 117
v
vi

INDICE DE FIGURAS
2.21. Juego extensivo con informacion imperfecta . . . . . . . . . . . . . . 120
3.1. Cadena DIKW ((DataInformationKnowledgeWisdom)) . . . . . 132
3.2. Arquitectura de un Sistema Basado en Conocimiento (KBS). . . . . . 133
3.3. Desarrollo de un sistema KBS . . . . . . . . . . . . . . . . . . . . . . 134
3.4. Ordenacion de conceptos . . . . . . . . . . . . . . . . . . . . . . . . . 145
3.5. Mapa conceptual del tema generico: Animales. . . . . . . . . . . . . 146
3.6. Mapa conceptual del tema Mapa conceptual [43]. . . . . . . . . . . 147
3.7. Descripcion de temas, relaciones y ordinalidad. . . . . . . . . . . . . . 151
3.8. Ilustracion de una red semantica . . . . . . . . . . . . . . . . . . . . . 152
3.9. Ilustracion de una red semantica desde una perspectiva de POO. . . . 154
3.10. Estructura de la forma normal prenexa . . . . . . . . . . . . . . . 171
3.11. Proceso de solucion mostrado en forma de arbol . . . . . . . . . . . . 176
3.12. Esquema de solucion mostrado en forma de grafo . . . . . . . . . . . 178
3.13. Ilustracion de una red de creencia . . . . . . . . . . . . . . . . . . . . 188
3.14. Clasicacion usando un arbol de decision . . . . . . . . . . . . . . . . 196
3.15. Esquema de una RNA . . . . . . . . . . . . . . . . . . . . . . . . . . 198
3.16. Ilustracion del algoritmo de boost. . . . . . . . . . . . . . . . . . . . . 199
3.17.

Algebra de Heyting con tablas de verdad . . . . . . . . . . . . . . . . 203
3.18. Logica de Lukasiewics en tablas de verdad . . . . . . . . . . . . . . . 205
3.19. Ilustracion de funcion caracterstica para un Conjunto preciso. . . . . 208
3.20. Ilustracion de funcion caracterstica para un Conjunto Difuso. . . . . 209
3.21. Ilustracion de la variable ling ustica caracterstica A. . . . . . . . . . 213
4.1. componentes basicos de un sistema basado en reglas . . . . . . . . . . 230
4.2. Ciclo de reconocimientoaccion de un SBR . . . . . . . . . . . . . . 235
4.3. Relacion de 13 objetos. . . . . . . . . . . . . . . . . . . . . . . . . . . 237
4.4. Representacion graca de relaciones de 13 objetos. . . . . . . . . . . . 238
4.5. Estrategia de encadenamiento de 13 objetos. . . . . . . . . . . . . . . 239
4.6. Otro ejemplo del algoritmo de encadenamiento de reglas. . . . . . . . 240
4.7. Ilustracion del encadenamiento de reglas orientado a objetivo. . . . . 246

INDICE DE FIGURAS vii


4.8. Arquitectura de un sistema basado en reglas. . . . . . . . . . . . . . . 254
4.9. Ilustracion de una base de datos con tres atributos binarios . . . . . . 262
4.10. Algoritmos del motor de inferencias . . . . . . . . . . . . . . . . . . . 266
4.11. Mecanismo de resolucion. . . . . . . . . . . . . . . . . . . . . . . . . . 269
4.12. Mecanismo de resolucion del CA. . . . . . . . . . . . . . . . . . . . . 271
4.13. Arquitectura del sistema Mycin. . . . . . . . . . . . . . . . . . . . . . 280
4.14. Formato de regla utilizado por MYCIN. . . . . . . . . . . . . . . . . . 281
4.15. Segmento de consulta con Mycin. . . . . . . . . . . . . . . . . . . . . 282
4.16. Sistema de control de traco. . . . . . . . . . . . . . . . . . . . . . . 286
5.1. Ilustracion de DoF . . . . . . . . . . . . . . . . . . . . . . . . . . . . 301
5.2. Diferentes tipos de locomocion en robots . . . . . . . . . . . . . . . . 302
5.3. Robot que utiliza ruedas para desplazarse . . . . . . . . . . . . . . . 303
5.4. Ilustracion de un robot que utiliza una conguracion diferencial . . . 304
5.5. Ilustracion de la conguracion estilo triciclo . . . . . . . . . . . . . . 305
5.6. Ilustracion de la conguracion tipo carro . . . . . . . . . . . . . . . . 305
5.7. Desplazamiento con respecto a un eje de referencia. . . . . . . . . . . 306
5.8. Ilustracion de un robot que se desplaza con patas. . . . . . . . . . . . 307
5.9. Grupo de robots trabajando en el ensamble de piezas. . . . . . . . . . 308
5.10. Imagenes de diferentes robots de servicio. . . . . . . . . . . . . . . . . 311
5.11. Imagenes que muestran robots utilizados con nes de exploracion. . . 313
5.12. Componentes del sistema robotico Da Vinci. . . . . . . . . . . . . . . 315
5.13. Ilustracion de protesis roboticas. . . . . . . . . . . . . . . . . . . . . . 318
5.14. Sistema robotico Pi Zymark. . . . . . . . . . . . . . . . . . . . . . . . 319
5.15. Proyectos de sistemas roboticos en CMU. . . . . . . . . . . . . . . . . 322
5.16. Manipulacion y control de la trayectoria. . . . . . . . . . . . . . . . . 324
5.17. Planicacion autonoma de movimientos. . . . . . . . . . . . . . . . . 325
5.18. Robots utilizados en la industria automotriz. . . . . . . . . . . . . . . 327
5.19. Sistema robotico Sonic-Flashlight. . . . . . . . . . . . . . . . . . . . . 329
5.20. WaterStrider sistema robotico bioinspirado. . . . . . . . . . . . . . . 330
viii

INDICE DE FIGURAS
5.21. Boss Vehculo autonomo no tripulado. . . . . . . . . . . . . . . . . . 331
5.22. Robot de inspeccion visual Explorer . . . . . . . . . . . . . . . . . . . 332
5.23. Neurona biologica y su modelo matematico. . . . . . . . . . . . . . . 342
5.24. Arquitectura de las redes neuronales. . . . . . . . . . . . . . . . . . . 344
5.25. Ilustracion del perceptron clasico. . . . . . . . . . . . . . . . . . . . . 349
5.26. Arquitectura del perceptron. . . . . . . . . . . . . . . . . . . . . . . . 351
5.27. Conservacion de la topologoa de una red Kohonen. . . . . . . . . . . 353
5.28. Arquitectura del modelo ART-1 [140]. . . . . . . . . . . . . . . . . . . 354
5.29. Estructura de RNAs basada en bloques. . . . . . . . . . . . . . . . . 360
5.30. Procesamiento de imagenes y vision articial. . . . . . . . . . . . . . 365
5.31. Tareas que componen un proyecto de vision articial. . . . . . . . . . 366
5.32. Niveles de gris en una imagen monocromatica. . . . . . . . . . . . . . 368
5.33. Efecto del muestreo y cuantizacion en una imagen digital. . . . . . . . 369
5.34. Operaciones comunes en el mejoramiento de la imagen. . . . . . . . . 371
5.35. Ejemplos de texturas en imagenes. . . . . . . . . . . . . . . . . . . . 373
5.36. Formas basicas de segmentacion. . . . . . . . . . . . . . . . . . . . . 374
5.37. Tecnicas basicas de segmentacion. . . . . . . . . . . . . . . . . . . . . 375
5.38. Ilustracion de segmentacion por crecimiento de regi on. . . . . . . . . 376
5.39. Ejemplo de segmentacion basada en histogramas. . . . . . . . . . . . 378
5.40. Ejemplo de segmentacion basada en division y agrupamiento. . . . . . 379
5.41. Ejemplo de aplicacion del codigo de cadena. . . . . . . . . . . . . . . 380
5.42. Aprendiendo una metrica para alinear imagenes [163]. . . . . . . . . . 385
5.43. Ejemplo de analisis de escenas. . . . . . . . . . . . . . . . . . . . . . 385
5.44. Ilustracion de luz estructurada: convencional y difusa. . . . . . . . . . 389
5.45. Reconstruccion de la forma en objetos reales. . . . . . . . . . . . . . . 390
5.46. Ejemplo de vericacion de rostros. . . . . . . . . . . . . . . . . . . . . 392
5.47. Grados de pertenencia a un conjunto. . . . . . . . . . . . . . . . . . . 397
5.48. Ejemplo de conjunto difuso . . . . . . . . . . . . . . . . . . . . . . . . 398
5.49. Conjuntos difusos del universo X = edad. . . . . . . . . . . . . . . . . 399

INDICE DE FIGURAS ix
5.50. Arquitectura de un sistema basado en Logica Difusa. . . . . . . . . . 403
5.51. Arquitectura para un controlador difuso de aire acondicionado. . . . . 404
5.52. Funciones de pertenencia de la variable difusa: temperatura. . . . . . . 405
5.53. Funciones de pertenencia de la variable de salida: velocidad. . . . . . 405
5.54. Imagen que muestra la pertenencia a subconjuntos difusos. . . . . . . 407
5.55. Imagen que muestra la activacion de operadores mnimo y maximo. . 409
5.56. Ilustracion de los diferentes niveles del lenguaje. . . . . . . . . . . . . 417
5.57. Esquema de un PLN simbolico. . . . . . . . . . . . . . . . . . . . . . 421
5.58. Esquema general de utilizacion del corpus. . . . . . . . . . . . . . . . 428
5.59. Etapas de un sistema PLN. . . . . . . . . . . . . . . . . . . . . . . . 432
5.60. Componentes de un Sistema Experto. . . . . . . . . . . . . . . . . . . 446
5.61. Etapas sugeridas para desarrollar un sistema experto. . . . . . . . . . 449
5.62. Ilustracion del modelo de sntomas dependientes. . . . . . . . . . . . 456
5.63. Ejemplo de aplicacion del modelo MSD. . . . . . . . . . . . . . . . . 458
5.64. Red Bayesiana como un grafo acclico dirigido. . . . . . . . . . . . . . 462
5.65. Red Bayesiana para el problema de diagnosticar una falla mecanica. 464
5.66. Algoritmo de propagacion de la evidencia en redes tipo arbol. . . . . 467
5.67. Ejemplo de la propagacion a traves de mensajes. . . . . . . . . . . . . 468
x

INDICE DE FIGURAS

Indice de cuadros
2.1. Calculo de la complejidad de un algoritmo unidimensional (1 D). . 74
2.2. Matriz bimatricial correspondiente al juego del Dilema del prisionero. 111
3.1. Tipos de conocimiento. . . . . . . . . . . . . . . . . . . . . . . . . . . 131
3.2. Tabla de equivalencias. . . . . . . . . . . . . . . . . . . . . . . . . . . 172
3.3. Ejemplo de una base de reglas difusa . . . . . . . . . . . . . . . . . . 212
4.1. Razonamiento progresivo . . . . . . . . . . . . . . . . . . . . . . . . . 241
4.2. Razonamiento dirigido por objetivos . . . . . . . . . . . . . . . . . . . 251
4.3. Variacion de la memoria de trabajo . . . . . . . . . . . . . . . . . . . 257
4.4. Conjunto de valores que pueden tomar los objetos . . . . . . . . . . . 259
4.5. Reglas para el cajero automatico . . . . . . . . . . . . . . . . . . . . 260
4.6. Base de datos mostrando cuatro objetos y sus valores. . . . . . . . . . 263
4.7. Ejemplo de sustitucion de reglas . . . . . . . . . . . . . . . . . . . . . 264
4.8. Equivalencias de reglas . . . . . . . . . . . . . . . . . . . . . . . . . . 269
4.9. Equivalencias de reglas con tablas de verdad . . . . . . . . . . . . . . 270
4.10. Objetos y sus correspondientes valores. . . . . . . . . . . . . . . . . . 286
4.11. Objetos y sus correspondientes valores. . . . . . . . . . . . . . . . . . 288
5.1. Calculo de la frecuencia probabilstica en un corpus. . . . . . . . . . . 423
5.2. Ejemplo de calculo de la probabilidad condicionada. . . . . . . . . . . 423
5.3. Funciones de probabilidad requeridas para especicar el MSD. . . . . 459
5.4. Funcion de probabilidad condicionada. . . . . . . . . . . . . . . . . . 459
xi
xii

INDICE DE CUADROS
Prefacio
La b usqueda de la inteligencia articial empieza con un sue no (tal como inicia toda
b usqueda). La gente ha imaginado por largo tiempo m aquinas con habilidades humanas,
aut omatas con movimiento y dispositivos que razonan. M aquinas parecidas a humanos
son descritas en muchas historias y mostradas en pinturas, esculturas, y dibujos...
Nils J. Nilsson, THE QUEST FOR ARTIFICIAL INTELLIGENCE
Este libro de texto contiene el programa de la materia: Inteligencia Arti-
cial, la cual forma parte de la currcula de la carrera de Ingeniera en Sistemas
Computacionales (ISIC-2010) que se imparte en los Institutos Tecnologicos depen-
dientes de la Subsecretara Nacional de Educacion Superior Tecnologica (SNEST).
El contenido tematico esta integrado por cinco captulos los cuales coinciden con
los indicados en la retcula y son los siguientes. Captulo 1: Fundamentos de la
Inteligencia Articial, en el cual se muestra la evolucion historica de lo que cono-
cemos como Inteligencia Articial

o IA

. En este captulo se realiza un recorrido


a traves del fundamento historico de la IA hasta llegar a la etapa moderna, la cual
da inicio con los trabajos de McCulloch y las neuronas articiales, el estudio con-
tinua mostrando los campos de interes actual que forman parte de este interesante
campo de investigacion de las ciencias computacionales. El Captulo 2 se dedica a
las Tecnicas de b usqueda, en este se muestra uno de los campos de interes de la
IA enfocado a la solucion de problemas a traves de la b usqueda, indicando algunas
de las tecnicas aplicadas tales como Primero en anchura

, Grafos O

, y Grafos
A

. Asimismo, se muestran algunos conceptos relacionados con la solucion de prob-


lemas, tales como la satisfaccion de restricciones y la teora de juegos. En el Captulo
3 se aborda el aspecto relacionado con la Representacion del conocimiento y
razonamiento. En este captulo se muestran algunos lenguajes com unmente uti-
lizados para la representacion del conocimiento tales como los mapas conceptuales
y las redes semanticas, as como otros que abordan ademas de la representacion el
aspecto de razonamiento tal como la Logica de predicados. Asimismo, se muestra
de una manera supercial el aspecto de la incertidumbre en la representacion y ra-
zonamiento y algunos enfoques para manejarla. El Captulo 4 muestra a uno de los
enfoques principalmente utilizados por los sistemas expertos para la representacion
xiii

INDICE DE CUADROS 1
del conocimiento y razonamiento: Reglas de produccion. Finalmente, el Captulo
cinco muestra los principales campos de trabajo (Aplicaciones), estudio e investi-
gacion que contribuyen con la IA, indicando los trabajos que se estan desarrollando
actualmente en el ambito internacional al respecto. Las areas que se indican son
las siguientes: Robotica, Redes Neuronales, Vision Articial, Logica Difusa, Proce-
samiento del Lenguaje Natural y Sistemas Expertos.
Como es de esperar, esta es la primer version de este texto y por lo tanto
es susceptible de mejorar. Por lo tanto, agradezco de antemano las aportaciones y
sugrerencias de la comunidad academica involucrada con este material y que tengan
como n mejorar el contenido del mismo.
Mi intencion es continuar trabajando en este libro en colaboracion de alumnos
y colegas con el n de complementar algunos de los captulos con ejercicios y mate-
rial adicional.
Dr. Jose Antonio Montero Valverde
2

INDICE DE CUADROS
Captulo 1
Fundamentos de la Inteligencia
Articial (IA)
La b usqueda de la inteligencia articial (IA) es tan moderna como las fronteras
de las ciencias computacionales y a la vez tan antigua como la misma historia de
la humanidad. El concepto de maquina pensante inicio por el a no 2500 A. de C.,
cuando los egipcios consultaban estatuas de dioses parlantes
1
para su asesoramien-
to. Asimismo, la existencia de automatas predecesores de los robots actuales se
remontan al dise no de antiguas guras egipcias con miembros articulados como los
encontrados en la tumba de Tutankamon [5]. Sin embargo, fue hasta 1833 con la
invencion de la maquina analtica de Charles Babbage, que la inteligencia articial
se convirtio en una posibilidad real. No obstante, fue necesario transitar mas de
un siglo hasta que la primera computadora digital hizo su debut, para que tanto
la ciencia como el termino fueran acu nados. A partir de entonces y hasta nuestros
das, la IA ha tenido una fuerte inuencia en nuestras vidas, y sin duda alguna
continuara manteniendo un impacto cada vez mayor en los a nos venideros.
Algunas de las deniciones que se han dado para este campo de estudio son
las siguientes:
1. Inteligencia articial es el estudio de como los sistemas de computo pueden
simular procesos inteligentes como el aprendizaje, razonamiento y comprension
simbolica de informacion en contexto. La IA es inherentemente un campo mul-
tidisciplinario. Aunque es mas com un verla como un subcampo de las ciencias
1
Ubicado en el Museo de el Cairo se encuentra el busto de uno de estos dioses Re-Harmakis,
cuyo cuello revela el secreto de su genialidad: una abertura en la nuca lo sucientemente grande
para albergar a un sacerdote.
3
4 CAP

ITULO 1. FUNDAMENTOS DE LA INTELIGENCIA ARTIFICIAL (IA)


computacionales, tomando en cuenta trabajos con algoritmos, bases de datos y
teora relacionada con las ciencias computacionales, as tambien mantiene una
conexion cercana con neurociencias, ciencias cognitivas y psicologa cognitiva,
logica matematica, e ingeniera [IBM Centro de Investigacion de Inteligencia
Articial, 2012].
2. IA, es la ciencia e ingeniera de crear maquinas inteligentes, especialmente
programas inteligentes para computadoras. Esta relacionada con la tarea de
usar computadoras con el n de entender la inteligencia humana, pero no
tiene que limitarse a los metodos que son biologicamente observables [John
McCarthy, 1956].
3. Una de las grandes aspiraciones de las ciencias computacionales ha sido com-
prender y emular las capacidades que reconocemos como especcas de la in-
teligencia en humanos. La investigacion en este campo se ha enfocado a tareas
desde sensores (vision, voz, movimiento) para interactuar con el mundo hasta
aspectos cognitivos (analisis, juegos, resolvedores de problemas). Esta b usque-
da para entender la inteligencia humana en todas sus formas tambien estimula
la investigacion en otros campos de las ciencias computacionales [Computer
Science and Telecommunications Board, 2004].
4. IA, es un campo de las ciencias computacionales e ingeniera concerniente con
la capacidad computacional de lo que se conoce com unmente como compor-
tamiento inteligente, as como con la creacion de dispositivos que exhiben tal
comportamiento [66].
1.1. Historia de la IA
Tal vez el punto de inicio para la historia de la IA empieza con la genialidad
de Aristoteles, quien con su disciplina y cuidadoso analisis fundo en su natal Gre-
cia lo que mas tarde se convirtira en un estandar para la ciencia moderna. Para
Aristoteles el aspecto mas sorprendente de la naturaleza es el cambio. En su obra
titulada Physics, denio su losofa de la naturaleza como el estudio de las cosas que
cambian. Asimismo, manejo la distincion entre la materia y la forma de las cosas:
una escultura de un humano hecha de bronce puede cambiar cuando el bronce es
moldeado a una nueva forma. De esta manera, el binomio materia-forma propor-
ciona la base losoca para algunos aspectos modernos, tales como: computacion
simbolica y abstraccion de los datos. En computacion, manipulamos patrones que
son las formas de material electromagnetico, donde los cambios en la forma de este
material representan aspectos del proceso de solucion. La abstraccion de la forma en
su medio de representacion no solo permite su manipulacion computacional, sino,
1.1. HISTORIA DE LA IA 5
tambien proporciona la base de una teora para la estructura de los datos corazon
de la ciencia computacional. En su obra titulada Metaphysics, Aristoteles aporta
las bases para la creacion de la inteligencia articial al iniciar con la frase: Todos
los hombres por naturaleza desean conocer, Aristoteles desarrollo una ciencia de
las cosas que nunca cambian, incluyendo su cosmologa y teologa. Un aspecto rele-
vante para la IA se encuentra plasmada en su obra titulada Logic, donde menciona
que la logica es la base de todo conocimiento. En este tratado, Aristoteles indica
que ciertas proposiciones son verdaderas si estan relacionadas a otras cosas que
son verdaderas, de esta reexion se desprende lo siguiente: si sabemos que todos
los hombres son mortales y que Socrates es un hombre, entonces podemos con-
cluir que Socrates es mortal. Este argumento es un ejemplo de lo que Aristoteles
llamo silogismo usando la forma deductiva modus ponens de la logica. Aunque la
formalizacion de tal razonamiento tuvo que esperar dos mil a nos, con los trabajos
de Gottlob Frege, Bertrand Russell, Kurt Godel, Alan Turing, Alfred Tarski y otros,
sus races fueron los trabajos de Aristoteles [5].
Con la llegada del Renacimiento, inicio la etapa de una forma diferente de
pensar acerca de la relacion que sostiene la humanidad y el mundo natural. La
ciencia empezo a reemplazar al misticismo como un medio para comprender y ex-
plicar la naturaleza. Las ciencias sociales y fsicas se basaron en la nocion de procesos
naturales o articiales, los cuales podan ser matematicamente analizados y com-
prendidos. Los cientcos y losofos comprendieron que el conocimiento se representa
y manipula en la mente humana, la cual deba ser un sujeto de estudio cientco,
difcil pero esencial. Tal vez, el evento principal en esta etapa desde el punto de
vista del mundo moderno fue la revoluci on Copernica, donde se menciona el rem-
plazo de la antigua concepcion de que la tierra era el centro del universo, con la
idea de que la tierra y otros planetas orbitan alrededor del sol. Despues de siglos
de un orden obvio, en el cual la explicacion cientca de la naturaleza del cosmos
era consistente con las ense nanzas de la religion y el sentido com un, se propuso un
modelo diferente y no tan obvio para explicar el movimiento de los cuerpos celestes.
Por primera vez, las ideas acerca del mundo fueron diferentes de su apariencia. Esta
division entre la mente humana y la realidad circundante, resulto esencial para el
moderno estudio de la mente y su organizacion. Esta brecha fue a un mas marca-
da por Galileo, cuyas observaciones cientcas contradijeron las verdades obvias,
acerca de la naturaleza del mundo. Galileo se baso en las matematicas como una
herramienta para describir el mundo y nuestras ideas acerca de el.
Fue a partir de estas observaciones que la nocion moderna de la mente evolu-
ciono, la introspeccion se convirtio en una forma com un de literatura, los losofos
empezaron a estudiar epistemologa y matematicas, y la aplicacion sistematica del
6 CAP

ITULO 1. FUNDAMENTOS DE LA INTELIGENCIA ARTIFICIAL (IA)


metodo cientco se convirtio en la herramienta para entender el mundo. Algunos
hechos historicos que resultaron relevantes en el desarrolo de la IA se mencionan a
continuacion.
En 1620, Francis Bacon en su famoso escrito Novum Organun expuso un con-
junto de tecnicas para la emergente metodologa cientca. Basado en las ideas de
Platon y Aristoteles acerca de que la forma de una entidad era equivalente a la
suma de sus caractersticas necesarias y sucientes, Bacon cre o un algoritmo para
determinar la esencia de una entidad. Primero, realizo una coleccion organizada de
todas las instancias de la entidad, enumerando las caractersticas de cada entidad en
una tabla. Despues realizo otra lista similar, indicando las instancias negativas de
la entidad, enfocandose en aquellas instancias cercanas a la misma, es decir, aquel-
las que se derivan de su forma por caractersticas simples. Posteriormente, Bacon
realizo de forma sistematica este paso no es muy claro una lista de todas las
caractersticas esenciales a la entidad, es decir, aquellas que son comunes a todas las
instancias positivas de la entidad. Es interesante la similitud entre el enfoque prop-
uesto por Bacon y el concepto de aprendizaje, observado en los actuales algoritmos
de IA relacionados con el espacio de b usqueda. Una extension a los algoritmos de
Bacon, es parte de un programa de aprendizaje en IA conocido como Bacon este
programa es capaz de inducir varias leyes fsicas a partir de colecciones de datos
relacionados con el fenomeno.
Aunque la primera maquina para realizar calculos el abaco fue creada por
los chinos en el siglo XVI A. de C., la mecanizacion de estos procesos algebraicos
aguardaron las habilidades de los europeos del siglo XVII. En 1614 el matematico
escoces John Napier creo los logaritmos, una transformacion matematica que per-
mitio a la multiplicacion y la exponenciacion ser reducidas a operaciones de suma y
multiplicacion. Los trabajos de Napier, permitieron al matematico y clerigo aleman
Wilhelm Schickard inventar un reloj calculadora en 1623, capaz de hacer opera-
ciones de suma y resta. Otra famosa maquina para realizar calculos fue la Pascalina,
inventada por el losofo y matematico frances Blaise Pascal en 1642. Aunque los
dispositivos creados por Schickard y Pascal se limitaron a las operaciones de suma
y resta, su principal aportacion consistio en demostrar que los procesos que inicial-
mente se supona requeran habilidad humana podran ser completamente autom-
atizados. El exito de Pascal y su maquina de calcular, inspiro en 1694 a Gottfried
Wilhelm von Leibnitz, a construir una maquina de calculo m as compleja, capaz de
realizar operaciones de multiplicacion y division. Aplicando los trabajos de Bacon,
Leibnitz dise no una maquina capaz de utilizar el conjunto de caractersticas que
dene a una entidad y generar conclusiones logicas correctas. Los siglos XVI y XVII
se vieron plagados con discusiones relacionadas con aspectos epistemologicos; tal
1.1. HISTORIA DE LA IA 7
vez, el trabajo mas relevante en esas fechas fue el de Rene Descartes, gura central
en el desarrollo de conceptos modernos relacionados con teoras del pensamiento
y la mente. En su obra Meditation realizada en 1680, Descartes intento encontrar
una base para explicar la realidad a traves de la introspecci on, llegando a puntos
de vista como la dualidad entre la mente y el mundo fsico, enfoque en el que se
apoyan todos sus trabajos, incluyendo el desarrollo de la geometra analtica. De
que otra manera poda haber unicado una rama de la matematica aparentemente
tan mundana como la geometra con un esquema matematico tan abstracto como el
algebra?. Los debates en torno a la dualidad mentecuerpo aportaron a la IA entre
otras cosas, el fundamento de su metodologa, la cual se fortalecio con aportaciones
de los siguientes campos: epistemologa, psicologa, gran parte de las matematicas y
de la literatura [5].
Aunque existen numerosos escritos relacionados con el problema mentecuerpo
y varias soluciones han sido propuestas, ninguna ha explicado de manera satisfacto-
ria la interaccion obvia entre los estados mentales y las acciones fsicas. La respuesta
mas ampliamente aceptada para este problema y la que proporciona una base funda-
mental para el estudio de la IA, sostiene que la mente y el cuerpo no son en absoluto
entidades totalmente diferentes. Bajo esta perspectiva los procesos mentales son de-
terminados por sistemas fsicos como el cerebro. Asimismo, los procesos mentales al
igual que los procesos fsicos pueden ser en ultima instancia representados a traves
de las matematicas, o como lo menciono el losofo ingles Thomas Hobbes en su obra
Leviatan escrita en 1651: Por raciocinio, me reero a la computacion, como una
forma de referirse en ese tiempo a la realizacion de operaciones matematicas.
Aspectos racionales y empricos en la IA. Los aspectos actuales de investigacion
en la IA al igual que otras disciplinas cientcas, se han formado y evolucionan a
traves de una combinacion de historia, sociedad y presiones culturales. Dos de los
aspectos que mas han inuenciado en la evolucion de la IA son: el raciocinio y
el empiricismo. En el aspecto racional, el mundo externo se representa a traves de
ideas claras basadas en las matematicas. Muchos programas de IA estan construidos
basados en este enfoque. De acuerdo con Fikes y otros, los primeros planicadores
para robots podan describir su dominio de aplicacion o mundo a traves de un
conjunto de declaraciones de predicados a partir de los cuales se determina un plan
para tomar una accion. Otros trabajos que son representativos del enfoque racional
son los realizados por Newell y Simon. Algunos detractores de este enfoque, tales co-
mo Searle y Brooks, sostienen que parte del fracaso de la IA en la solucion de tareas
complejas (comprension del lenguaje natural) se debe a este sesgo racionalista. Sin
embargo, existen fuertes representantes de la corriente racional, tales como: Pascal,
Descartes y Leibnitz, quienes han demostrado con sus trabajos, que este enfoque es
8 CAP

ITULO 1. FUNDAMENTOS DE LA INTELIGENCIA ARTIFICIAL (IA)


relevante para el creciente desarrollo experimentado por la IA.
Por otro lado, mas que armar como real el mundo representado por las ideas
claras, los investigadores de la corriente emprica sostienen que nada entra por la
mente, sino, a traves de los sentidos. Esta restriccion conduce a otras interrogantes
acerca de como el humano es capaz de percibir conceptos generales. Aristoteles fue
uno de los primeros representantes de este enfoque, el cual, enfatiza en uno de sus
trabajos las limitaciones del sistema de percepcion humano. Empiristas mas ac-
tuales como: Hobbes, Locke y Hume, hacen hincapie en que el conocimiento debe
ser explicado a traves de una psicologa emprica. Para esto, ellos distinguen dos
tipos de procesos mentales: (i) percepciones, y (ii) pensamiento. En esta direccion,
el losofo escoces David Hume, realiza una distincion entre: impresiones e ideas, in-
dicando que las impresiones reejan la presencia y existencia de un objeto externo,
no sujeto al control voluntario, en cambio las ideas estan sujetas al control humano.
Dada esta distincion entre impresiones e ideas, cabe la pregunta Como surge el
conocimiento?, para Hobbes, Locke y Hume, el mecanismo fundamental para la ex-
plicacion es: Asociaci on. Las propiedades particulares percibidas, se asocian a traves
de la experiencia repetida. Las asociaciones repetidas, crean de esta forma, una dis-
posicion en la mente con el n de asociar las ideas correspondientes. Este enfoque
resulto ser un antecedente para el estudio del comportamiento en el siglo XX. Un
aspecto relevante en este enfoque se presenta con el escepticismo de Hume, donde
ofrece un analisis descriptivo acerca del origen de las ideas, y que tales ideas no
pueden apoyar la creencia en la causalidad. Incluso el uso de la logica y la induccion
no pueden ser racionalmente compatibles con esta forma radical del pensamiento.
En otra de sus obras (Una investigacion sobre el entendimiento humano) escrita
en 1748, el escepticismo de Hume se extendio hacia el analisis de los milagros, y
aunque no se rerio directamente a la naturaleza de los mismos, s genero una duda
acerca de los testimonios basados en milagros, esto por supuesto hizo que la iglesia
lo viera como una amenaza. Como una respuesta a las aseveraciones de Hume, el
reverendo Thomas Bayes, matematico y ministro de la iglesia en 1763, en su obra tit-
ulada Ensayo hacia la Solucion de un Problema en la Ense nanza de Posibilidades
, abordo matematicamente algunas de las interrogantes de Hume (causalidad). El
teorema de Bayes, demuestra de manera formal como a traves del aprendizaje y las
correlaciones en los efectos de las acciones, podemos determinar la probabilidad de
sus causas.
Actualmente sabemos que el aspecto en la asociacion del conocimiento, juega
un papel signicativo en el desarrollo de programas y estructuras representacionales
en IA. Por ejemplo, las redes semanticas aplicadas en la organizacion de memorias,
redes de conexion en el aprendizaje de maquinas, herramientas de analisis estocasti-
1.1. HISTORIA DE LA IA 9
co tales como las redes de creencia . Asimismo, las herramientas bayesianas son
aplicadas de manera exitosa en diversos campos de la investigacion, entre otros:
aprendizaje de maquinas, razonamiento, y comprension del lenguaje natural.
El Desarrollo de la Logica Formal. Una vez que el pensamiento fue considera-
do como una forma de calculo, su formalizacion y mecanizacion eran evidentes. En
este sentido, Leibnitz propuso en 1887 el primer sistema de logica formal, as como
una herramienta para la automatizacion de tareas, donde los pasos y etapas em-
pleados en la solucion fueron representados como estados a traves de un arbol o
grafo
2
. Asimismo, en 1775 Leonard Euler presento un estudio relacionado con rep-
resentaciones abstractas, capaz de capturar la estructura de relaciones en el mundo
as como el calculo de tales relaciones. Por otro lado, Charles Babbage matematico
del siglo XIX, es considerado como el creador de la primera maquina de computo
programable (utilizada para calcular los valores de ciertas funciones polinomiales)
precursora de su maquina analtica, la cual aunque no se construyo fue dise nada
como una maquina de calculo de proposito general. La principal aportacion de es-
ta maquina, es que en ella subyacen muchos de los aspectos de las computadoras
digitales modernas, tales como: i) la separacion entre el procesador y la memoria, y
ii) programacion basada en la ejecucion de una secuencia de operaciones codicadas
en ese tiempo en tarjetas perforadas. El dise no de esta maquina, es un ejemp-
lo de implementacion relacionado con la abstraccion y manipulacion de la forma
descrito inicialmente por Aristoteles y Leibitz. El objetivo de crear una descrip-
cion formal para el pensamiento, aparece tambien en los trabajos de George Boole,
matematico del siglo XIX, cuyas aportaciones deben ser consideradas obligatorias
en cualquier debate relacionado con las races de la IA. Aunque hizo varias contribu-
ciones en el area de las matematicas, su trabajo mas conocido se relaciona con la
formalizacion de las leyes de la logica, dando origen a la conocida algebra que lleva
su nombre. En su trabajo Una Investigacion de las Leyes del Pensamiento, sobre
las que se basan las Teoras Matematicas de la Logica y Probabilidades, escrito en
1854, Boole describio sus objetivos como: Investigar las leyes fundamentales de las
operaciones mentales mediante las cuales se crea el pensamiento: darles expresion a
traves del lenguaje simbolico con el n de establecer la ciencia de la logica e instruir
sus metodos; . . . y nalmente obtener de los diversos elementos de verdad trados a
la vista en el curso de estas investigaciones, as como algunas insinuaciones proba-
bles, relacionadas con la naturaleza y estructura de la mente humana.
2
La formalizaci on de la teora de grafos ofrecio la posibilidad de b usqueda en el espacio de estados
la cual se considera un aspecto relevante dentro de la IA. Los grafos son utilizados en una variedad
de tareas: modelar la estructura de un problema en profundidad, medir la estructura y complejidad
de un problema, posibles etapas en la soluci on de un problema, problemas de inferencia, b usqueda
y planicaci on, entre otras.
10 CAP

ITULO 1. FUNDAMENTOS DE LA INTELIGENCIA ARTIFICIAL (IA)


La importancia del algebra Booleana radica en su extraordinario poder y sim-
plicidad, pues solamente consta de tres operaciones basicas: AND (denotada por
o ), OR (denotada por + o ), y NOT (denotada por ), las cuales forman la
base de este calculo logico. Asimismo, Boole indico que estos smbolos logicos se su-
jetan a leyes especiales. Por ejemplo, para cualquier elemento X, una de estas leyes
declara que: X X = X, es decir, una vez que se conoce que algo (X) es verdadero,
la repeticion no incrementa dicho conocimiento. Estas leyes dieron como resultado
los caractersticos valores booleanos a solamente dos n umeros que pueden satisfacer
la ecuacion anterior: 1 y 0. Las operaciones restantes se sujetan a leyes similares.
Tal vez la gran aportacion de Boole, no fue solamente proporcionar las bases para
la aritmetica binaria, sino, que demostro que un sistema formal extremadamente
simple permite capturar la potencia de la logica en su totalidad.
Siguiendo el razonamiento de Boole en la formalizacion de la logica, as co-
mo los trabajos de Turing y Godel, Russell y Whitehead en su trabajo Principios
Matematicos presentado en 1950, muestran modernos sistemas de razonamiento au-
tomatizados, para lo cual desarrollaron una sintaxis para su logica, as como reglas
de formalizacion para inferencias. Estos mecanismos formales, son actualmente la
base para la prueba de teoremas de los sistemas automatizados. En el mismo sen-
tido, Gottlob Frege en su trabajo Fundamentos de Aritmetica, creo un lenguaje
de especicacion matematico para describir las bases de la aritmetica en una forma
clara y precisa. Con este lenguaje, Frege formalizo varios de los aspectos enfoca-
dos inicialmente en la logica de Aristoteles. Actualmente el lenguaje de Frege es
conocido como calculo de predicados de primer orden, herramienta muy util para
describir proposiciones y asignaciones con valores de verdad que forman los elemen-
tos del razonamiento matematico, y a la vez, describe las bases axiomaticas para el
signicado de estas expresiones. Este lenguaje desempe na un papel importante, al
crear una teora con los elementos necesarios para representar la automatizacion del
razonamiento, aspecto relevante dentro de la IA.
Alfred Tarski fue otro de los matematicos cuyo trabajo result o esencial para
la formacion de la IA. Tarski creo una teora de referencia precisa para las formulas
bien formadas. En la actualidad algunos investigadores (Scott, Strachey, Burstall)
de las ciencias computacionales han aplicado esta teora en el dise no de lenguajes
de programacion y otras especicaciones utilizadas en esta area.
Aunque los siglos XVIII, XIX y principios del XX sentaron las bases para el
nacimiento de la IA con trabajos relacionados con la formalizacion de la ciencia y
las matematicas , no fue sino hasta mediados del siglo XX con la introduccion de la
computadora digital que la IA se convirtio en una disciplina cientca viable.
1.1. HISTORIA DE LA IA 11
1.1.1. IA: Etapa Moderna (desarrollos losocos)
Uno de los primeros trabajos realizados para abordar el tema de la maquina
inteligente en relacion con la computadora digital moderna, fue un artculo escrito
en 1950 por el matematico britanico Alan Turing para la revista Mind [67]. Turing,
conocido principalmente por sus contribuciones a la teora de la computacion, ex-
amino en este trabajo la cuestion acerca de si una maquina realmente poda pensar.
Esta prueba se describe como sigue: un entrevistador (fsicamente aislado) se comu-
nica va textual, usando dispositivos de entrada y salida (similar a las actuales salas
de chat) con un sistema de IA (computadora) y con otra persona que participa en la
prueba. El entrevistador no se da cuenta de cual respuesta viene del computador y
cual de la otra persona, si despues de hacer sucientes preguntas el entrevistador no
puede diferenciar entre el hombre y la maquina, entonces el sistema pasa la prueba
y se considera inteligente.
El test de Turing proporciona una base para muchos de los enfoques utilizados
actualmente para evaluar programas de IA. Un programa que muestra inteligencia
en alg un area de experiencia, se eval ua (comparando su desempe no con un humano),
al resolver un determinado conjunto de problemas. Esta tecnica de evaluacion es sim-
plemente una variacion de la prueba de Turing: a un grupo de seres humanos se les
asla y se compara el rendimiento de la computadora con el de una persona al re-
solver un grupo particular de problemas. Esta metodologa se ha convertido en una
herramienta esencial para el dise no y vericacion de modernos sistemas expertos.
A pesar de ser intuitiva, la prueba de Turing, es vulnerable a una serie de crticas.
Una de las mas importantes se reere a su sesgo en resolver problemas puramente
simbolicos, es decir, no maneja aspectos que requieren habilidad perceptual o de-
streza manual, los cuales son aspectos importantes de la inteligencia humana. A
veces se sugiere que el test de Turing restringe innecesariamente la inteligencia de
la maquina para adaptarse a un molde humano.
El trabajo de Turing fue continuado en los Estados Unidos por John Von Neu-
mann durante la decada de los cincuentas. Su contribucion central fue la idea de
que las computadoras deberan dise narse tomando como modelo al cerebro humano.
Von Neumann fue el primero en antropomorzar el lenguaje y la concepcion de la
computacion al hablar de: memoria, sensores, etc., de las computadoras. Con-
struyo una serie de maquinas basandose en lo que se conoca en ese tiempo acerca
del cerebro humano, y dise no los primeros programas almacenados en la memoria
de una computadora. Sin embargo, el enfoque manejado por Newman pronto encon-
tro serias limitaciones, ya que en la tarea de imitar la constitucion fsicoqumica del
cerebro, no le permitio ver, que la analoga sera mucho m as eciente si se analizaran
12 CAP

ITULO 1. FUNDAMENTOS DE LA INTELIGENCIA ARTIFICIAL (IA)


las funciones del cerebro, es decir, su capacidad como procesador de informacion.
Corresponde a McCulloch a mediados de los cincuentas formular una posi-
cion radicalmente distinta, al sostener que las leyes que gobiernan al pensamiento
deben buscarse entre las reglas que gobiernan a la informacion y no entre las que
gobiernan a la materia. Esta idea abrio grandes posibilidades a la IA, y en 1959
Marvin Minsky, uno de los fundadores de la IA modico su posici on y sostuvo que
la imitacion del cerebro a nivel celular debera ser abandonada.
Hasta este momento, el enfoque al problema de crear maquinas inteligentes
ha sido desde el punto de vista de las matematicas, con la implcita creencia del
razonamiento logico como paradigma de la inteligencia en s. Esta manera de ver
el conocimiento, el lenguaje y el pensamiento, reeja la tradicion racionalista de
la losofa occidental y su evolucion desde Galileo, Descartes, Leibniz y muchos
otros. Tambien reeja la base ideologica de Turing, especialmente su enfasis en el
razonamiento simbolico como una prueba de inteligencia y su creencia de que una
comparacion directa con el comportamiento humano era suciente para conrmar
la inteligencia de la maquina. La dependencia de la logica como una forma de rep-
resentacion de conocimiento y de inferencia logica como el principal mecanismo
de razonamiento inteligente son tan dominantes en la losofa occidental que su
verdad a menudo parece obvia e inexpugnable. No es de sorprender entonces, que
los enfoques basados en estos supuestos han dominado la ciencia de la inteligencia
articial desde sus inicios hasta la actualidad.
Sin embargo, la segunda mitad del siglo XX ha presenciado numerosos desafos
a la losofa racionalista. Diversas formas de pensar cuestionan la base objetiva del
lenguaje, ciencia, sociedad y al propio pensamiento. Los trabajos de Godel y Turing
han puesto en duda los mismos fundamentos de las matematicas. El pensamiento
post moderno ha cambiado nuestra comprension del signicado y valor en las artes
y la sociedad. La IA no ha sido inmune a estas crticas, de hecho, las dicultades
que la IA enfrenta en el logro de sus objetivos a menudo se toman como evidencia
del fracaso del punto de vista racionalista [55, 4].
Dos tradiciones losocas:,(i) la de Wittgenstein (1953), y (ii) la de Husserl
(1970, 1972) y Heidegger (1962), son de fundamental importancia para el replanteamien-
to de la tradicion losoca occidental. En su obra, Wittgenstein cuestiona muchas
de las hipotesis de la tradicion racionalista, incluidas las bases del lenguaje, la cien-
cia y el conocimiento. El lenguaje Humano fue una de las principales actividades
de analisis de Wittgenstein, al mostrar su desacuerdo a la nocion de que lenguaje
1.1. HISTORIA DE LA IA 13
deriva su signicado de alguna clase de fundamento objetivo. Para Wittgenstein, el
signicado de cualquier enunciado depende de su situacion en un contexto humano y
cultural. Por ejemplo, para comprender el signicado de la palabra silla, depende
de tener un cuerpo fsico que se ajusta a una postura de sentarse y a las convenciones
culturales para el uso de sillas. Basado en sus crticas, sostuvo que deberamos ver
el uso del lenguaje en terminos de decisiones y acciones tomadas bajo un contexto
cultural cambiante. Por otro lado, tanto para Husserl como para su alumno Heideg-
ger, la inteligencia no consiste en saber lo que es verdadero, sino mas bien, en saber
como hacer frente a un mundo en constante cambio. Gadamer tambien estuvo de
acuerdo con este punto de vista, para el, la inteligencia es vista como un aspecto
de supervivencia en el mundo, mas que como un conjunto de proposiciones logicas
(combinado con alg un esquema de inferencia) acerca del mundo. Muchos autores,
entre ellos Dreyfus, Winograd y Flores, han usado los trabajos de Wittgenstein y de
Husserl/Heidegger, como base de sus crticas hacia la IA [6].
El laureado Premio Nobel: Herbert Simon, argumenta que la mayor parte de
la originalidad y variabilidad en el comportamiento mostrado por criaturas vivas es
debido a la riqueza de su ambiente, mas que en la complejidad de sus propios pro-
gramas internos. En su trabajo: Las Ciencias de lo Articial, escrito en 1981, Simon
describe a una hormiga que se mueve con gran dicultad a lo largo de una exten-
sion dispareja y desordenada de terreno. Aunque el camino de la hormiga parezca
completamente complejo, Simon sostiene que el objetivo de la hormiga es muy sim-
ple: volver a su colonia tan pronto como sea posible. Las torceduras y vueltas
observadas en sus movimientos, son causadas por los obstaculos que encuentra en
su camino. Simon concluye lo siguiente: Una hormiga, vista como un sistema de
comportamiento, es completamente simple. La aparente complejidad de su compor-
tamiento, con el tiempo se convierte en un reejo de la complejidad del ambiente
en el que se encuentra. Es interesante observar que si se aplica este enfoque a los
seres humanos, se convierte en un fuerte argumento a favor de la importancia de la
cultura en la formacion de la inteligencia. En lugar de crecer en la oscuridad como
los hongos, la inteligencia parece depender de una interaccion con un entorno ade-
cuadamente rico. La cultura es tan importante en la creacion de los seres humanos
como los seres humanos en la creacion de la cultura. De hecho, la idea de que la
inteligencia surge a partir de las interacciones con los elementos individuales de una
sociedad, es una de las revelaciones que apoyan el desarrollo de la tecnologa de IA.
Aunque muchos investigadores de IA contin uan trabajando basados en el es-
quema racional y logico, un n umero creciente de nuevos investigadores estan inte-
grando novedosos modelos de inteligencia inspirados en la naturaleza.
14 CAP

ITULO 1. FUNDAMENTOS DE LA INTELIGENCIA ARTIFICIAL (IA)


IA inspirada en modelos biologicos. La investigacion en el aprendizaje conex-
ionista, enfatiza la logica y el funcionamiento de la mente racional en un esfuerzo
por lograr la inteligencia al modelar la arquitectura del cerebro fsico. En este senti-
do, Warren McCulloch y Walter Pitts desarrollaron un trabajo combinando ideas de
logica, computacion y el sistema nervioso humano, dando como resultado un modelo
conocido actualmente como: Redes Neuronales Articiales. Los modelos neuronales,
enfatizan la capacidad del cerebro para adaptarse a su entorno mediante la modi-
cacion de conexiones entre neuronas individuales. La representacion del conocimien-
to en este modelo se realiza a traves de conexiones entre varias capas de neuronas
individuales. Actualmente, investigadores de diferentes disciplinas aplican redes neu-
ronales para resolver una variedad de problemas en campos como: reconocimiento
de patrones, prediccion, optimizacion, memoria asociativa y control [68].
Otro caso de modelo basado en organismos biologicos, se centra en el anali-
sis de los procesos mediante los cuales las especies se adaptan a su ambiente, un
ejemplo de estos modelos son los conocidos como: Algoritmos Geneticos, propuestos
por Holland en 1975. Los algoritmos geneticos, aplican los principios de la evolucion
natural con el n de encontrar soluciones a problemas complicados. Este enfoque
no obtiene una solucion a traves del razonamiento logico; en su lugar obtiene una
poblacion de soluciones candidatas las cuales compiten con el n de obtener la mejor
solucion siguiendo los principios de la evolucion biologica: las soluciones mas fuertes
sobreviven y contin uan su reproduccion, mientras que las soluciones debiles tienden
a desaparecer. Este modelo se aplica generalmente en la solucion de problemas
relacionados con b usqueda y optimizacion [69].
Los sistemas sociales proporcionan otro ejemplo para inspirar el desarrollo
de modelos inteligentes, ya que su comportamiento grupal les permiten solucionar
problemas que no podran ser resueltos por cualquiera de sus miembros de forma
individual. Por ejemplo, es poco probable que una sola lnea del metro, un solo sitio
de taxis, o una sola lnea de autobuses, pueda satisfacer la demanda de transporte
p ublico en la Ciudad de Mexico en un da determinado. Sin embargo, con el con-
junto de estos transportes trabajando de manera colectiva s es posible satisfacer
esta demanda. Los individuos que trabajan en universidades, en la industria o en
el gobierno, generalmente se limitan a resolver problemas especcos, sin embar-
go, su trabajo en conjunto contribuye a resolver problemas comunes. Los ejemplos
mencionados comparten dos aspectos comunes relacionados con la inteligencia: (a) la
inteligencia tiene sus races en la cultura y la sociedad, y (b) la inteligencia se obser-
va en el comportamiento colectivo a traves de la interacci on entre individuos. Ya sea
que estos individuos sean las celulas neuronales, los miembros individuales de una
especie, o una persona en la sociedad, la interaccion entre ellos genera inteligencia.
1.1. HISTORIA DE LA IA 15
1.1.2. IA: Etapa Moderna (desarrollos practicos)
Muchos investigadores coinciden en el hecho de que la inteligencia articial
como tal tuvo su nacimiento en la Conferencia de Darmouth, llevada a cabo en el
Colegio de Dartmouth (en Hanover, New Hampshire), durante el verano de 1956
3
.
Tal conferencia estuvo organizada por John McCarthy a quien se le atribuye haber
acu nado el termino: Inteligencia Articial, el cual fue el tema principal de los
trabajos a desarrollar en esa reunion. Entre los asistentes al evento estuvieron: (i)
Claude Shannon, ingeniero y matematico, quien en ese tiempo se encontraba re-
alizando investigacion en la empresa telefonica Bell, y a quien se le recuerda como
el Padre de la teora de la informacion, (ii) Marvin Minsky, considerado uno de
los padres de las ciencias computacionales y quien ha realizado importantes aporta-
ciones en ling ustica computacional, psicologa cognitiva, matematica, robotica y
optica, (iii) Nathaniel Rochester, Investigador de la Corporacion IBM y creador
de la primera computadora de la serie IMB (IMB 701) de proposito personal, quien
en ese tiempo estaba dirigiendo el grupo de investigacion de: Reconocimiento de pa-
trones y Teora de la informacion, en tal empresa, y (iv) John McCarthy, profesor
investigador (en ese tiempo del Colegio de Dartmouth) quien realizo importantes
aportaciones al desarrollo de la IA y se hizo merecedor en 1971 al premio Turing.
A estos cuatro personajes (ver Figura 1.1) se les consideran los padres de la IA.
Asimismo, asistieron a este evento otros investigadores de notable inuencia en este
campo, tales como: Herbert Simon y Allen Newell, quienes ya haban implemen-
tado el programa Logic Theorist para muchos es considerado el primer programa
de IA. Posteriormente, mientras Minsky y McCarthy fundaban el Laboratorio de
Inteligencia Articial en el M.I.T; Simon y Newell hacan lo mismo en la Universidad
de Carnegie Mellon. Mas tarde John McCarthy se fue a trabajar a la Universidad
de Stanford, donde fundo el Laboratorio de IA. Estas tres universidades, junto con
la Universidad de Edimburgo, en la cual Donald Michie fundo el Departamento
de Maquinas Inteligentes (machine intel ligence), fueron las primeras instituciones
academicas en realizar investigacion en el campo de la IA. Otros datos interesantes
relacionados con la etapa moderna de la IA son los siguientes:
En 1963 McGraw-Hill publico el primer libro de texto relacionado con el campo
de la IA, titulado: Computers and Thought, escrito por Edward Feigenbaum y
Julian Feldman. Este texto estuvo integrado por una coleccion de 21 artculos,
as como versiones cortas de tesis doctorales de los primeros investigadores en
3
Otros sostienen que el nacimiento de la IA inici o en 1950 con el trabajo de Alan Turing
Computing Machinery and Intel ligence, Boden a su vez, indica que la IA tuvo su orgen en 1943
con el trabajo de McCulloch y Pitts A Logical Calculus of the Ideas Immanent in Nervous Activity
.
16 CAP

ITULO 1. FUNDAMENTOS DE LA INTELIGENCIA ARTIFICIAL (IA)


Figura 1.1: En esta imagen se muestran a los que se consideran precursores o
padres de la IA moderna. (a)John McCarthy (4/09/1927 - 24/10/2011) prominente
informatico que recibio el Premio Turing en 1971 por sus importantes contribu-
ciones en el campo de la Inteligencia Articial, (b) Claude E. Shannon (30/04/1916-
24/02/2001), ingeniero electronico y matematico estadounidense, recordado como el
padre de la teora de la informacion. (c): Marvin Lee Minsky (9/08/1927- ) cient-
co estadounidense considerado uno de los padres de las ciencias de la computacion y
cofundador del laboratorio de inteligencia articial del Instituto Tecnologico de Mas-
sachusetts o MIT, y (d): Nathaniel Rochester (14/01/1919-8/06/2001), dise nador de
la primera computadora de proposito personal (IBM 701) y fundador del campo de
IA.
1.1. HISTORIA DE LA IA 17
esta area.
A mediados de la decada de 1960, dieron inicio las primeras conferencias en
este campo.
En 1965, comenzaron en Edimburgo una serie de talleres relacionados con
maquinas inteligentes.
En la primavera de 1968, en una conferencia realizada en Case Western Uni-
versity, se reunio la mayora de los investigadores en el campo de la IA de ese
entonces, un a no despues, en Mayo de 1969 se llevo a cabo en Washington
D.C., el International Joint Conference on Articial Intel ligence (IJCAI), el
cual sigue siendo hasta ahora uno de los foros mas importantes en el ambito
de la IA.
La revista Articial Intel ligence, la cual a un sigue siendo la principal revista
con temas de investigacion relacionadas con el campo de la IA, inicio su pub-
licacion en 1970.
Desde su nacimiento, la IA se ha extendido y multiplicado en distintas direc-
ciones. La capacidad simbolica de las computadoras ha sido estudiada, entre otros,
por Shanon (1950) y por Newell, Shaw y Simon (1958), quienes dise naron el primer
programa inteligente basado en un modelo de procesamiento de informacion. Este
programa pronto se convertira en un modelo muy utilizado para la teora de psi-
cologa cognoscitiva. Asimismo, desde sus inicios la IA se relaciono con juegos como
el ajedrez y las damas, probablemente debido a que los juegos de mesa constituyen
modelos de situaciones reales en las que hay que calcular, solucionar problemas,
tomar decisiones, corregir errores, recordar, etc. A pesar de que esta lnea de investi-
gacion ha sido casi totalmente abandonada en la actualidad, muchos de los avances
teoricos y metodologicos de la IA se deben a ella. Por ejemplo, Arthur Samuel (IBM)
dise no en 1961 un programa que jugaba damas y que era capaz de aprender de sus
errores, es decir, era capaz de adaptar su comportamiento en relacion a eventos
pasados, tal era su capacidad de aprendizaje que en poco tiempo este programa
consiguio vencer a su creador. El mismo resultado fue obtenido por Bernstein a
traves de un programa que jugaba ajedrez. Los grandes retos entre computado-
ras y seres humanos se multiplicaron, siendo uno de los mas importantes el que
ocurrio entre Dreyfus (fuerte crtico de la IA) y el programa Machack, en el que
Dreyfus fue derrotado en un juego de ajedrez de varias horas. Sin duda alguna, el
reto mas famoso que se dio en la historia moderna fue el que ocurrio en 1997, entre
el campeon ruso de ajedrez Garry Gasparov y el programa de computadora: Deep
Blue, en el cual Gasparov resulto derrotado. En este mismo sentido, Gerry Tesauro
crea en 1996, D-Gammon, un programa para Backgammon en el que demuestra
18 CAP

ITULO 1. FUNDAMENTOS DE LA INTELIGENCIA ARTIFICIAL (IA)


que el aprendizaje por refuerzo es una tecnica lo sucientemente poderosa para for-
mar jugadores de clase mundial.
Procesamiento del Lenguaje Natural. Hacia mediados de los sesentas, la
IA se convierte en un area en la que interact uan especialistas de diversas disciplinas,
tales como: Logicos, Psicologos, Matematicos, Ling uistas y Filosofos, entre otros.
Uno de los grandes temas de IA en esta decada fue el estudio del lenguaje natural.
Y uno de los principales retos al que se enfrentaron los investigadores con respecto
a este tema consistio en dise nar una maquina que fuera capaz de traducir un idioma
a otro. Los investigadores pronto descubrieron que traduccion no es lo mismo que
comprensi on, as pues, de alguna manera la maquina tendra que entender un texto
antes de poder traducirlo. Los esfuerzos entonces se orientaron hacia una denicion
de la comprension que pudiera simularse en una computadora. Con este objetivo
en mente, en 1965, Joseph Weizenbaum (MIT) construyo ELIZA, un programa in-
teractivo que permite manejar dialogos en ingles relacionados con cualquier topico.
En esta decada se desarrollaron una multitud de programas, tal como SHRDLU,
el cual formo parte del proyecto de micromundos, en este proyecto liderado por
Marvin Minsky (MIT) se demostro que si la investigacion se centraba al estudio
de objetos en dominios restringidos (micromundos) se podan resolver problemas
espaciales y logicos. Otros programas que aparecieron en este tiempo fueron: STU-
DENT enfocado a resolver problemas de algebra, y SIR el cual poda entender
sencillas oraciones en ingles. El resultado de estos programas fue un renamiento en
la comprension del lenguaje y de la logica. El programa Articial Linguistic Internet
Computer Entity (A.L.I.C.E.) gano el premio Loebner al Chatbot mas humano en
2000, 2001 y 2004, y en 2007 el programa: Ultra Hal Assistant, gano este premio.
En 2010 el programa: Suzette, resulto ganador al premio Loebner. Siguiendo con los
desarrollos relacionados con PLN, en el a no 2011, la supercomputadora conocida co-
mo Watson, especializada en el procesamiento del lenguaje natural, fue dise nada y
congurada (basada en un sistema de inteligencia articial creado por IBM) para re-
sponder a preguntas abiertas acerca de cualquier dominio del conocimiento humano,
participo en un conocido concurso (Jeopardy) contra los humanos mejor capacitados
en esta area y resulto vencedora.
Robotica. Otra de las areas en las que la IA ha tenido una gran inuencia,
es sin duda alguna la robotica. A principios de los sesentas, la IA comienza una
fase distinta de desarrollo. En 1962, McCarthy y Raphael inician sus trabajos sobre
el dise no y la construccion de un robot movil que llamaron Shakey. Un aspecto
relevante que tuvo que enfrentar este robot en ese entonces fue el reto de interactuar
con el mundo real en terminos de espacio, tiempo, y movimiento, para esto el robot
deba tener alguna forma de conocimiento del mundo que lo rodeaba. Este reto ini-
1.1. HISTORIA DE LA IA 19
cio una fuerte preocupacion en la IA por el estudio de la epistemologa y los procesos
cognoscitivos. La discusion se centro alrededor de los problemas de la representacion
mental o interna del conocimiento, la percepcion y los problemas del signicado. La
idea basica de Raphael, era reunir en una sola, distintas maquinas con las siguientes
capacidades: i) aprender en base a la experiencia, ii) reconocer patrones visuales, y
iii) modelar y manipular smbolos, y esperar que el modelo resultante fuera mejor
que las partes. El resultado del experimento no fue el exito que Raphael esperaba,
pero fue un logro sin precedente que hizo posible avances muy importantes. El apren-
dizaje mas importante de esta experiencia fue la comprension de que el problema
mas difcil por resolver en IA era el de construir una maquina capaz de funcionar
con altos niveles de incertidumbre, de forma similar a como lo hace un humano.
Resulto comprensible entonces, que construir una maquina incapaz de manejar de
forma efectiva la incertidumbre, sera o bien trivial por la simpleza de la tarea, o
imposible por la complejidad de la misma. En 1973 el grupo de rob otica de la Uni-
versidad de Edimburgo construyo a Freddy, el famoso robot Escoces, capaz de usar
vision para localizar y ensamblar modelos. Con el inicio de los trabajos enfocados
a dise nar y construir robots moviles para diferentes aplicaciones tambien surgieron
empresas para comercializarlos, de esta forma, en 1962 se fundo Unimation, primera
compa na enfocada a la comercializacion de robots industriales. En 1996 el grupo de
trabajo de Rod Brook lder del proyecto COG (MIT), muestra signicativos pro-
gresos en la construccion de un robot humanoide. En agosto de 1997 se llevo a cabo
en Nagoya, Japon, el primer torneo mundial de f utbol soccer entre robots (RoboCup)
donde participaron 40 equipos (real y simulado). Este evento crecio con gran rapidez,
ya que el a no siguiente en Pars se registraron cerca de 100 equipos. Este evento es
una iniciativa para impulsar la investigacion hacia la creacion de robots inteligentes
donde una variedad de tecnologas puedan ser integradas y analizadas. Asimismo
RoboCup ofrece una plataforma para realizar investigacion relacionada con el dise no
de software. Con el n de que un equipo de robots moviles pueda planicar sus
movimientos en un ambiente dinamico, debe incorporar diferentes tecnologas tales
como: principios de dise no de agentes autonomos, esquemas de colaboracion entre
multiples agentes, manejo y planeacion de estrategias, razonamiento en tiempo real,
robotica, y fusion de sensores. En 2011, el centro de investigaciones del Pentagono
desarrollo un robot de cuatro extremidades, llamado Cheetah, el cual es capaz
de correr 29 kilometros por hora, el objetivo de este robot es ofrecer asistencia a
militares en el campo de batalla. La Agencia de Investigacion de Proyectos Avan-
zados de Defensa de Estados Unidos (DARPA), informo que este felino robotico
ha batido el record marcado en 1989 por otro automata creado por cientcos del
Instituto Tecnologico de Massachusetts (MIT) de 21 kilometros por hora. Otro de
los proyectos conjuntos entre DARPA y Boston Dynamics incluyen el LS3, un
robot cuadr upedo que puede moverse libremente por el terreno, y el BigDog un
sabueso articial capaz de explorar terrenos de difcil acceso. Por otro lado, investi-
20 CAP

ITULO 1. FUNDAMENTOS DE LA INTELIGENCIA ARTIFICIAL (IA)


gadores de la Universidad de Harvard crearon un robot exible, capaz de arrastrarse,
cambiar su modo de avanzar y sortear obstaculos con mas facilidad que los robots
moviles creados hasta ahora. Basado en la estructura de animales invertebrados co-
mo los gusanos, los calamares y las estrellas de mar, que no tienen un esqueleto
duro, los autores utilizaron una tecnica llamada litografa blanda para fabricar un
robot cuadr upedo con forma de X que puede gatear y hacer movimientos ondulados.
Los avances en la robotica han involucrado la participaci on de grupos de in-
vestigadores de diferentes pases, por ejemplo, recientemente marzo de 2012 un
grupo de investigadores de la Universidad Central de la Provincia de Buenos Aires,
liderados por Gerardo Acosta crearon un prototipo de robot llamado Carpincho,
el cual es capaz de tomar decisiones y trabajar en equipo en actividades como la
agricultura o la vigilancia de edicios. Asimismo en Mexico, cientcos del Cen-
tro de Investigacion y de Estudios Avanzados (Cinvestav) liderados por Eduardo
Bayro dise naron e implementaron el robot humanoide mas avanzado en su tipo en
Iberoamerica, este androide almacenara experiencias y aprendizajes, mejorando su
capacidad cognitiva gracias a la aplicacion de la computacion evolutiva, redes neu-
ronales, logica difusa y otros metodos de aprendizaje de maquina. De igual manera,
en Mexico existen grupos de investigacion relacionados con robotica, tal como el
liderado por E. Sucar y E. Morales, profesores-investigadores del Departamento de
Ciencias Computacionales en el Instituto Nacional de Astrofsica,

Optica y Elec-
tronica (INAOE), Puebla. As como el grupo de investigacion enfocado a la plani-
cacion de movimientos y percepcion para robotica movil encabezados por J. Mar-
roqun y E. Murrieta del Centro de Investigacion en matematicas A. C. (CIMAT),
Guanajuato, entre otros.
Sistemas Expertos. El campo de estudio relacionado con sistemas expertos,
es otro en los que la IA ha tenido grandes aportaciones. En 1974 Ted Shortlie desar-
rollo como tesis doctoral (Universidad de Stanford) el programa MYCIN
4
, donde
demostro el poder de los sistemas basados en reglas, como un metodo para la repre-
sentacion del conocimiento e inferencia, aplicado al dominio de diagnostico medico
y terapia. Los sistemas expertos aparecieron en el mercado para apoyar diversas
actividades: diagnosticar enfermedades, y tutores inteligentes en educacion, entre
otros. En la decada de 1980 se observo un incremento en los trabajos relacionados
con la IA, as como una mayor presencia en el sector corporativo. compa nas como
Digital Electronics utilizaron XCON, un sistema experto dise nado para programar
las computadoras VAX. Otras compa nas que hicieron uso de estos sistemas fueron:
DuPont, General Motors, y Boeing.
4
MYCIN es conocido como el primer sistema experto.
1.1. HISTORIA DE LA IA 21
Vision Computacional. Otro campo que mostro un fuerte impulso en es-
ta decada fue el de vision computacional. El trabajo iniciado por Minsky y Marr
en 1976, y conocido como Frames, es un esquema basico de representacion del
conocimiento y el de primal sketch o la descomposicion de una imagen en sus com-
ponentes basicas, resultaron ser elementos fundamentales para el uso de las camaras
y computadoras en las lneas de ensamblaje con el n de realizar tareas de control
de calidad. En la actualidad este campo es de gran interes por la amplia gama de
aplicaciones en las que esta involucrado, as como su integracion con diferentes areas
de la IA, tal como la Robotica. Por ejemplo, en 1996, en el Laboratorio de IA del
M.I.T, y liderado por Rodney A. Brooks, se realizo la demostracion de un cuarto
inteligente. La idea de este trabajo es introducir a la computadora en el mundo
real de las personas, para esto se combinaron varias areas de IA tales como: vision,
robotica, procesamiento del lenguaje natural y arquitecturas multi-agentes.
Aplicacion Militar. Sin duda alguna, el area de aplicacion donde mas se
ha reejado el uso de la IA es la belica, a principios de la decada de 1990 durante
la guerra Storm-Dessert, la tecnologa IA utilizada para dirigir misles a objetivos
denidos y para mostrar informacion en tiempo real en pantallas integradas en los
cascos de los soldados.
Asimismo, en la decada de 1990, se alcanzaron importantes avances en todas
las areas de la IA, tales como: aprendizaje de maquinas, tutores inteligentes, ra-
zonamiento basado en casos, planeacion multi-agente, calendarizacion, razonar bajo
incertidumbre, minera de datos, comprension del lenguaje natural, vision, realidad
virtual, juegos, y otros. Los programas que extraen y analizan informacon basados
en IA se convierten en esenciales para la operacion de la Web.
En la actualidad se esta tan lejos de cumplir la famosa prueba de Turing,
formulada como: Existira Inteligencia Articial cuando no seamos capaces de dis-
tinguir entre un ser humano y un programa de computadora en una conversacion a
ciegas.
A decir del futurista Ray Kurzweil, la IA ha realizado mas de lo que las per-
sonas pueden hacer, pues ha permeado la infraestructura econ omica. Cada vez que
se realiza una llamada telefonica a traves de un telefono movil o se enva un correo
electronico, existen programas de IA subyacentes dirigiendo la informacion. La tec-
nologa de IA es aplicada por los bancos para detectar transacciones fraudulentas,
por las compa nas de telefonos celulares para el reconocimiento de voz, y por los
motores de b usqueda para organizar datos en la Web. Mas alla de los negocios, hay
22 CAP

ITULO 1. FUNDAMENTOS DE LA INTELIGENCIA ARTIFICIAL (IA)


programas de IA que ayudan a los medicos a realizar el diagn ostico y tratamiento de
pacientes, programas de IA basados en tecnicas de vision son instalados en playas y
albercas con el n de alertar a los salvavidas cuando detectan signos de que alguien
requiere ayuda. Sin embargo, y a pesar de estos avances, la IA a un se encuentra
en una etapa de pleno desarrollo, y sin duda seguira ofreciendo una variedad de
aportaciones en el futuro. De acuerdo con McCarthy (Universidad de Stanford),
Tomo mas de 100 a nos entre Mendel y descifrar el codigo genetico, y sin embargo
a un no es el nal de la genetica.
1.2. Conceptos y tecnicas (Estado del arte)
De acuerdo con Alonso, la prioridad de investigacion en IA debe ser enfoca-
da al dise no de sistemas autonomos e interactivos, es decir, hacia: Agentes, ya que
las tecnologas emergentes as lo demandan. Se ha notado en desarrollos recientes
relacionados con agentes, que la investigacion en este ambito, se ha acercado mas
al objetivo original de la IA, es decir, a la construccion de sistemas inteligentes de
competencia general. Sin embargo, los agentes no son la panacea a este objetivo, ya
que antes de que sean universalmente aceptados como el futuro de la IA, deben de-
sarrollarse algunas areas relacionadas con la descripcion del dise no, implementacion,
reusabilidad y seguridad [71].
Sistemas Multi-Agentes. A principios de la decada de 1980 la comunidad de
IA dedico sus esfuerzos a una nueva area: Inteligencia Articial Distribuida, la cual
surgio como una combinacion de IA y Computacion Distribuida. A partir de esta
nueva area surgieron a la vez nuevos paradigmas: Agentes Inteligentes y Sistemas
Multi-Agentes. El objetivo de los mismos, es la creacion del concepto de Agentes, los
cuales deben soportar entre otras las siguientes caractersticas: capacidad de sensar,
autonoma, razonamiento reactivo y proactivo, habilidad social, y aprendizaje. Los
sistemas Multi-Agentes enfatizan algunas habilidades sociales, tales como: comuni-
cacion, resolucion de conictos, cooperacion, negociacion, argumentacion, y manejo
de emociones. Considerando las caractersticas anteriores, los sistemas Multi-Agentes
se convirtieron en el paradigma principal de la IA, y despues del boom de la WWW
en la decada de 1990, estos sistemas recibieron mayor atencion. Los sistemas Multi-
Agentes son apropiados para modelar procesos del mundo real, donde los problemas
son resueltos de una forma concurrente y cooperativa sin la necesidad de obtener
soluciones optimas (problemas de traco, manufactura). En el dise no de Sistemas
Inteligentes, los Agentes se mantienen como una buena opcion en la modelacion de
entidades, tales como: personas, habitaciones, y vehculos. La mayora de las insti-
tuciones academicas y centros de investigacion relacionados con IA, tienen grupos
1.2. CONCEPTOS Y T

ECNICAS (ESTADO DEL ARTE) 23


de trabajo enfocados a la investigacion tanto de las tecnologas de agentes como de
sus aplicaciones.
Ambientes Inteligentes. Otro concepto que ha recibido en fechas recientes
la atencion de la comunidad cientca de IA as como de otras relacionadas, es el
de ambientes Inteligentes. Este novedoso campo de investigacion ha despertado el
interes de varios grupos de investigacion. Los ambientes inteligentes son un nuevo
enfoque en el cual los dispositivos de computo se encuentran dispersos en un entorno,
esto permite que una persona interact ue en escenarios fsicos de una manera natural
y no intrusiva. Estos ambientes deben ser capaces de entender las necesidades de las
personas, satisfacer sus requerimientos y predecir sus comportamientos. Los escenar-
ios en que estos ambientes se presentan pueden ser muy diversos, tales como: casas,
ocinas, escuelas, hospitales, tiendas, instalaciones deportivas y salas de juntas. Con
el n de integrar estos entornos en la vida cotidiana, los investigadores recomiendan
agregarles cada vez mayores dosis de inteligencia, para que puedan interactuar de
una forma natural con las personas y les apoyen a tomar mejores decisiones cuando
la situacion lo requiera. El concepto de ambientes inteligentes fue introducido en el
2001 por el Grupo Consultivo de la Comision Europea IST (ISTAG) [73, 74].
El ISTAG considera que es necesario un enfoque holstico a los ambientes inteligentes
tomando en cuenta no solo la tecnologa, sino tambien al conjunto formado por la
innovacion como una cadena de suministro de la ciencia al usuario nal, y las dis-
tintas caractersticas del medio academico, industrial y administrativo que facilitan
o dicultan la realizacion de este enfoque [75]. Otros conceptos que se relacionan
con los ambientes inteligentes son: Computaci on Ubicua y Sistemas Embebidos. A
continuacion se indican algunos hechos relacionados con el campo de los ambientes
inteligentes.
En la Universidad de Bielefeld, Alemania, se encuentra el Centro de Excelencia
en Tecnologa Cognitiva y de Interaccion (CITEC), en el cual, se creo recientemente
Mayo del 2008 el grupo de ambientes inteligentes dirigido por el Dr. T. Her-
mann, donde se realiza investigacion en las siguientes areas: i) computacion usable,
ii) computacion pervasivaubicua, iii) realidad aumentada, iv) interaccion humano
computadora multimodal, y v) minera de datos.
En el Laboratorio de Medios del M.I.T., se creo en 1985 un grupo de trabajo
conocido como: Interfaces Fluidas, dirigido por el Dr. Pattie Maes, cuyo principal
interes consiste en realizar investigacion enfocada a integrar el mundo de la informa-
cion y servicios digitales de una forma natural en nuestra vida cotidiana. Es decir, la
creacion de ambientes aumentados donde se ofrezcan oportunidades de aprender e
interactuar enriqueciendo con esto la manera de vivir. En este mismo laboratorio se
24 CAP

ITULO 1. FUNDAMENTOS DE LA INTELIGENCIA ARTIFICIAL (IA)


encuentra el grupo de trabajo dirigido por la Dra. Rosalinda Picard, cuyo trabajo se
enfoca hacia la computaci on afectiva, es decir, de que manera las nuevas tecnologas
pueden ayudar a las personas a comunicarse mejor, y a entender y responder a la
informacion afectiva.
En la Universidad de Alicante, Espa na, existe el Grupo de Investigacion Domotica
y Ambientes Inteligentesperteneciente a la Unidad Singular de Investigacion In-
formatica Industrial y Redes de Computadores del Departamento de Tecnologa In-
formatica y Computacion. El esfuerzo de este grupo se enfoca a generar investigacion
en el ambito de la aplicacion de las Tecnologas de la informacion, las Comunica-
ciones y el Control (TICC).
Ademas de grupos de investigacion localizados en diferentes instituciones academi-
cas y centros de investigacion, existen tambien foros academicos con el n de pro-
mover la investigacion en este topico, tal como los siguientes: a) Cuarta Edicion del
Taller en Redes de Sensores y Ambientes Inteligentes (SeNAmI) que sera organiza-
do este a no (2012) por la Universidad de Madrid, b) Ambient Intel ligent Workshops
organizado por la Conferencia Europea de Inteligencia Articial en 2006 y por el
IJCAI (International Joint Conference on Articial Intel ligence) en 2007, c) Special
Issue on Ambiente Intel ligence organizado por la IEEE Intel ligent Systems Maga-
zine en 2008 [72].
Computacion ubicua. Es un concepto introducido por Mark Weiser [76], y se
relaciona con el acceso a dispositivos computacionales en cualquier sitio de una for-
ma integrada y coherente. La diferencia entre ambiente inteligente y computacion
ubicua, consiste en que los ambientes inteligentes generalmente se restringen a un
espacio fsico, mientras que los dispositivos ubicuos son aparatos moviles (PDAs y
notebooks) que pueden usarse en cualquier lugar. Un concepto que a veces es visto
como sinonimo de computacion ubicua es el de computacion omnipresente (pervasive
computing). De acuerdo con Teresa Dillon, la computacion ubicua es considerada
como el marco subyacente sistemas embebidos, redes y displays el cual esta en
todas partes y nos permite el uso de herramientas y dispositivos plug-and-play.
Por otro lado, la computaci on omnipresente esta relacionada con dispositivos fsicos
que utilizamos, tales como: computadora portatil, telefono movil y, ropa inteligente
[77]. En estos conceptos es necesario que el sistema tenga conocimiento del contex-
to, esto signica que el sistema este consciente de la situacion actual en la cual se
encuentra. Un ejemplo de esto es la deteccion automatica del entorno actual en un
centro de control inteligente, esto permitira reconocer entre una situacion normal y
una crtica [78]. Un ejemplo de este concepto se presenta actualmente en la indus-
tria automotriz, donde se trabaja en el dise no de sistemas sensibles al contexto, los
1.2. CONCEPTOS Y T

ECNICAS (ESTADO DEL ARTE) 25


cuales tienen entre sus aplicaciones, la deteccion de posibles causas que conducen a
un accidente. El conocimiento del contexto, es un tema de interes en la comunidad
de IA, ya que es fundamental para el buen desempe no de un sistema inteligente. La
computacion ubicua, es un campo que esta generando interes por parte de algunas
comunidades cientcas, tal como lo indican los trabajos presentados en el Tercer
Tal ler Internacional de Computaci on Ubicua, evento academico realizado en la In-
dia, los das 25 al 27 de Mayo del 2012.
Sistemas Embebidos. En los sistemas embebidos los dispositivos electronicos y de
computacion se encuentran integrados en objetos y bienes de uso cotidiano, tales co-
mo: automoviles, lavadoras, refrigeradores, juguetes, etc. Los trabajos relacionados
con este campo han recibido un fuerte impulso debido a los avances alcanzados en la
electronica y la automatizacion. Asimismo, se observa una clara tendencia de incor-
porar a estos elementos en los Ambientes Inteligentes. Los trabajos relacionados con
este topico se han incrementado en diferentes partes del mundo, prueba de ello es la
existencia de mas de 100 eventos academicos de relevancia internacional relaciona-
dos, tales como: (a) Reunion Internacional de Sistemas Embebidos y Comunicacion
en Tiempo Real (IJERTCS), y (b) Conferencia Internacional de Compiladores, Ar-
quitecturas y Sntesis de Sistemas Embebidos (CASES), el cual es un foro en donde
investigadores, desarrolladores, y principiantes intercambian puntos de vista acerca
de tecnologas emergentes y ultimos avances en compiladores y arquitecturas aplica-
dos en el dise no y sntesis de sistemas embebidos de alto rendimiento. En este mismo
sentido, se presenta este a no (2012) la Segunda Edicion del Taller de Sistemas Em-
bebidos con Linux (EwiLi 2012). El proposito de este taller es presentar proyectos
de investigacion, experimentos, y desarrollos originales basados en el sistema opera-
tivo Linux tanto en aplicaciones industriales como academicas. Cabe mencionar que
el sistema operativo Linux durante estos ultimos a nos se ha posicionado como una
alternativa estable a soluciones propietarias yo comerciales en el campo de sistemas
embebidos, el cual se ha aplicado en varios dominios tales como multimedia, tele-
fona, y transportes entre otras.
Representacion del conocimiento. La representacion del conocimiento es otra
de las areas importantes en el campo de la IA. Despues de los tropiezos por los que
la IA paso en la decada de 1960, la comunidad cientca empezo a darse cuenta
que el conocimiento era una pieza fundamental para el exito de los sistemas in-
teligentes. Por lo tanto, en la decada de 1970 y debido al exito alcanzado por algunos
sistemas basados en conocimiento tales como: MYCIN [79] y ASSISTANT [80],
inicio lo que se ha manejado como: el renacimiento de la IA. Durante la decada
de 1990, y con un fuerte desarrollo de la Internet y el nacimiento de la WWW,
el humano se enfrento con un problema crtico: el manejo de la informacion, ya
26 CAP

ITULO 1. FUNDAMENTOS DE LA INTELIGENCIA ARTIFICIAL (IA)


que esta alcanzo grandes dimensiones, por lo que el mapeo entre la informacion y
el conocimiento se convirtio en un aspecto que requera atencion urgente. Para en-
frentar este reto, la comunidad de IA volteo la mirada hacia la Semantica y Ontologa
relacionadas con la Web, el manejo de tecnicas para tratar los aspectos menciona-
dos dio origen al nacimiento de dos nuevas areas, conocidas como: Recuperaci on de
Informacion y Minera de Textos. Por lo tanto, y con el n de atender estas areas,
han surgido centros de trabajo enfocados al dise no de tecnologa para este n, tal
como ha ocurrido en Londres donde se creo en el 2004 el Laboratorio de Investi-
gacion de Representacion del Conocimiento y Semantica Web, liderado por el Dr.
Richard Noss, y cuyo proposito es el dise no de tecnicas sosticadas para la repre-
sentacion del conocimiento y mecanismos de razonamiento, con el n de permitir
nuevas formas de manipular y analizar la informacion. Asimismo, en la Universidad
de Stanford y dependiente del Laboratorio de IA, se crea el Laboratorio de Sistemas
y Representacion del Conocimiento, liderado por Edward Feigenbaum, y donde se
trabaja en habilitar tecnologas para la Semantica en la Web, razonamiento hbrido,
representacion y razonamiento en m ultiples contextos, agregacion del conocimiento,
y la ingeniera de la ontologa entre otras. Ademas, existen mas de una veintena
de revistas especializadas para atender este topico, tal como: Knowledge-Based Sys-
tems, donde se publican los avances relacionados con esta area.
Aprendizaje en Maquinas. El campo de trabajo conocido como: Aprendizaje
en Maquinas, recibio la atencion de la comunidad de IA desde sus inicios. La con-
struccion del primer modelo y el hardware para una neurona articial, derivado de
los trabajos de Pitts y McCullock [68], as como el sistema SNARC desarrollado
por Minsky y Edmonds, marcan los inicios de la IA. A partir de ese momento, los
trabajos relacionados con Redes Neuronales han tenido grandes exitos, sobretodo
despues de la decada de 1970, donde se han aplicado a una variedad de problemas
reales, en su mayora relacionados con clasicacion. Otras tecnicas que han sido apli-
cadas con exito en este campo, y las cuales utilizan descripciones de alto nivel, son
las siguientes: Aprendizaje Inductivo, Razonamiento Basado en Casos, y

Arboles
de Decision. El termino Minera de Datos comenzo a escucharse en la decada de
1980, donde mucha gente relacionada con las bases de datos empezo a preferir el
uso de este termino para hacer referencia a las tecnicas de aprendizaje en maquinas
(junto con metodos estadsticos como K-medias) en un esfuerzo para especicar el
Descubrimiento del Conocimiento. La Minera de Datos es una fase en el des-
cubrimiento del conocimiento (seleccion, limpieza y preprocesamiento son etapas
previas, mientras que la interpretacion y la evaluacion son etapas posteriores). A
nes de 1990, aparecio el termino: Negocios Inteligentes (Business Intel ligence),
relacionado con los sistemas de informacion, el cual no solo considera aspectos de
minera de datos y descubrimiento del conocimiento, sino que tambien considera los
1.2. CONCEPTOS Y T

ECNICAS (ESTADO DEL ARTE) 27


siguientes: almacen de datos, planicacion de recursos empresariales, y gestion de
clientes. Al igual que otros campos de la IA, en el aprendizaje de maquinas existen
foros y eventos academicos que se realizan de forma perodica, as como publica-
ciones tal como la revista Machine Learning, la cual se empezo a publicar desde
1986 y en el 2001 cambio su nombre a Journal of Machine Learning Research.
Incompletez e Incertidumbre. Una caracterstica que distingue a la gran may-
ora de los problemas del mundo real, es que se encuentran sujetos a condiciones de
incertidumbre e incompletez. Generalmente tratamos con informacion, donde parte
de la misma es correcta, otra parte puede ser incorrecta o incompleta. La IA tiene
varias tecnicas para manejar este problema, algunas son las siguientes: (i) Redes
Bayesianas, y (ii) Logica Difusa. En la mayora de las universidades y centros de
investigacion se tienen areas destinadas a enfocar este tema, por ejemplo, la edito-
rial del M.I.T., mantiene un espacio dedicado a publicar trabajos relacionados con
razonamiento bajo incertidumbre a cargo de Joseph Halpern. Asimismo, la Universi-
dad del Estado de Mississippi, cuenta con el Laboratorio de Razonamiento Incierto,
dirigido por C. Yuan, cuya investigacion se enfoca al desarrollo de metodos y her-
ramientas para razonar y tomar decisiones bajo incertidumbre. De igual manera,
existen eventos academicos dedicados a promocionar los trabajos relacionados con
incertidumbre, tal como la Conferencia Anual sobre Incertidumbre en Inteligencia
Articial, evento organizado desde 1985 por la Asociacion para la Incertidumbre en
Inteligencia Articial, donde se promueven trabajos relacionados con representacion
del conocimiento, aprendizaje y razonamiento bajo incertidumbre. Este a no el even-
to se va a realizar en la isla Catalina, cerca de los Angeles, Ca, los das 15 al 17 de
Agosto del 2012.
Reconocimiento de Voz y Lenguaje Natural. Las formas mas comunes de
interaccion entre los humanos son a traves del lenguaje, la voz y la escritura. Los
problemas relacionados con el procesamiento del lenguaje natural y el reconocimien-
to de la voz, son diferentes, por lo que deben enfocarse con tecnicas diferentes. En
reconocimiento de voz, el problema basico consiste en identicar los fonemas (patron
de se nales electricas) provenientes de un microfono, por lo que este es un trabajo
que cae en los campos de procesamiento de se nales y reconocimiento de patrones.
En este proceso, la siguiente actividad consiste en la union de fonemas y la iden-
ticacion de palabras. Existen varios sistemas dise nados para el reconocimiento de
voz tales como: (1) Dragon Dictate para maquinas Mac, desarrollado por Nuance
Communications en 2010, (2) Voice Finger, software creado por Microsoft para las
plataformas basadas en Windows Vista y Windows 7, y (3) DriveSafe.ly, recono-
cedor de voz para dispositivos moviles, creado por iSpeech en 2009. Por otro lado,
la entrada para el proceso de reconocimiento del lenguaje natural es una secuencia
28 CAP

ITULO 1. FUNDAMENTOS DE LA INTELIGENCIA ARTIFICIAL (IA)


escrita, obtenida a partir de un sistema de reconocimiento de voz, de un teclado, o
incluso de un documento escrito. El objetivo en este proceso consiste en entender
dicha entrada. Para esto, es necesario realizar de manera inicial un analisis sintacti-
co, posteriormente sigue el analisis de la semantica. Entender el lenguaje escrito es
una tarea complicada, debido a la inherente ambig uedad del lenguaje. Si la am-
big uedad se detecta en una oracion, el problema es mas complicado, ya que para
entender a la oracion en proceso, se requiere comprender las oraciones anteriores o
bien las posteriores. En esta tarea, la representacion del conocimiento desempe na
un rol importante. El dise no de sistemas automaticos aplicados a la comprension
del lenguaje natural, es una de las areas mas estudiadas por diferentes comunidades
relacionadas con IA. De manera reciente se han desarrollado sistemas de traduccion
basados en metodos estadsticos. Aunque estos sistemas son rapidos y faciles de im-
plementar, los resultados obtenidos no son del todo satisfactorios. Debido a esto,
los enfoques basados en metodos estadsticos combinados con tecnicas orientadas al
conocimiento empiezan a ser exploradas. En la Laboratorio de Investigacion para
el Procesamiento del Lenguaje Natural de la Universidad Simon Fraser en Canada,
se realizan estudios de frontera para el analisis automatico de lenguajes humanos
de diferentes idiomas (

Arabe, Chino, Checo, Ingles, Espa nol, Frances, Ind u y Core-


ano) a traves de algoritmos computacionales. En 1999 los investigadores de este
laboratorio fundaron la compa na Axonwave Software Inc. Otro grupo que realiza
investigaciones en este tema es el Grupo para el Procesamiento del Lenguaje Nat-
ural de la Universidad de Stanford liderados por C. Manning y D. Jurafsky. Este
grupo incluye entre sus investigadores a miembros del Departamento de Ling ustica
y del Departamento de ciencias computacionales. Ademas del estudio de algoritmos
computacionales para el procesamiento y comprension del lenguaje natural, sus in-
vestigaciones tambien incluyen: extraccion de informacion biomedica, comprension
de oraciones, induccion gramatical, analisis de ambiguedades y automatizacion de
preguntas y respuestas. De manera reciente se han creado grupos de investigacion
relacionados con este campo en la Universidad de Teheran (2006), en la Universi-
dad de Corea (1999) y, Centro de Investigacion en Computaci on (CIC) del Instituto
Politecnico Nacional (1996), entre otros.
Vision por Computadora. La vision es el sensor de entrada mas usado por los
humanos, asimismo, es el de mayor riqueza debido a la cantidad de informacion
que proporciona.El objetivo que persigue la vision por computadora es el manejo
de tecnicas, metodos y algoritmos con la intencion de imitar automaticamente esta
habilidad humana con la nalidad de detectar objetos e interpretar imagenes. Por
lo tanto, los trabajos relacionados con la automatizacion de la vision son muy im-
portantes dentro de la IA. Basicamente, la Vision por Computadora es un problema
de razonamiento geometrico, la cual comprende varias areas, tales como: Adquisi-
1.2. CONCEPTOS Y T

ECNICAS (ESTADO DEL ARTE) 29


cion y Procesamiento de Imagenes, Reconocimiento de Objetos (2D y 3D), Analisis
de Escenas, y Analisis de Flujo de Imagenes. Por la importancia que reviste, la
Vision Computacional se utiliza en una amplia variedad de aplicaciones (Vigilan-
cia y Monitoreo, Seguridad, Aplicaciones Medicas, Lenguaje de Se nas, Sistemas de
Entrenamiento, Realidad Virtual, Ambientes Inteligentes) relacionadas con el de-
sarrollo de sistemas inteligentes. De acuerdo con Richard Selinsky, para formular y
resolver problemas relacionados con vision computacional es importante considerar
los siguientes enfoques de alto nivel: 1) Cientco, se reere a la construccion en
detalle de modelos de los fenomenos que crearon las imagenes y desarrollar tecnicas
matematicas que inviertan el proceso con la nalidad de recuperar los elementos de
interes (siempre que sea posible, realizar las simplicaciones necesarias para hac-
er la matematica mas tratable), 2) Estadstico, utilizar tecnicas estadsticas para
cuanticar la probabilidad a priori de las variables desconocidas as como de los
procesos ruidosos que se generan por las imagenes de entrada, despues inferir lo
mejor posible las estimaciones de las variables deseadas y analizar la incertidumbre
resultante. Los mecanismos de inferencia utilizados son muy parecidos a los emplea-
dos en trabajos de optimizacion y se aplican para invertir el proceso (cientco) de
formacion de la imagen y, 3) Ingeniera, desarrollar tecnicas que sean sencillas de
describir e implementar, pero que tambien sean conocidas por trabajar bien en la
practica. Evaluar estas tecnicas para entender sus limitaciones, fallas y sus costos
computacionales promedio (rendimiento durante su ejecuci on). Los trabajos realiza-
dos en este campo son importantes, prueba de ello es la existencia de centros de
investigacion y laboratorios de instituciones academicas especializados en realizar
investigacion en el mismo, tales como: (a) Laboratorio de Visi on por Computadora,
adscrito al Departamento de Tecnologa de la Informacion e Ingeniera Electrica en
Zurich, (b) Laboratorio de Vision por Computadora y Centro de Automatizacion
en la Universidad de Maryland, (c) Laboratorio de Vision por Computadora de
la Universidad de Suecia, (d) Laboratorio de Vision por Computadora de la Uni-
versidad de Columbia, entre otros. Asimismo, existen academicos que impulsan y
muestran los trabajos realizados al respecto, por ejemplo: (i) Conferencia Europea
sobre Vision por Computadora (ECCV), (ii) Conferencia Internacional de Vision por
Computadora (ICCV), (iii) Vision por Computadora y Reconocimiento de Patrones
(CVPR), (iv) Conferencia Internacional de Sistemas de Vision por Computadora
(ICVS), y (v) Talleres sobre Vision por Computadora (WACV), algunas revistas es-
pecializadas que promueven estos trabajos son las siguientes: Revista Internacional
de Vision por Computadora (IJCV por Springer), Vision por Computadora y Com-
prension de Imagenes (CVIU- por Elsevier), Analisis de Patrones e Inteligencia en
Maquinas (por IEEE Transactions).
Planeacion. La Planeacion es la actividad a traves de la cual se puede resolver un
30 CAP

ITULO 1. FUNDAMENTOS DE LA INTELIGENCIA ARTIFICIAL (IA)


problema y se caracteriza en que la solucion tiene la estructura de un plan (secuencia
de acciones). Se considera que el programa: General Problem Solver (Solucionador
General de Problemas), realizado por Allen Newell, denio algunos aspectos im-
portantes relacionados con este campo de estudio. Sin embargo, el primer sistema
dise nado exclusivamente para este campo fue STRIPS, el cual se enfoco a resolver
problemas especcos, conocidos bajo el nombre generico de Blocks World (Mundo
de Bloques). Posteriormente, despues de la decada de 1980, la IA dirigio sus esfuer-
zos a la solucion de problemas del mundo real, aunque de forma restringida ya que
las soluciones ofrecidas estuvieron sujetas a restricciones tanto de tiempo como de
recursos. Los planes pueden denirse para ser considerados despues de la ejecucion
(fueradelnea) o durante la ejecucion (enlnea) del programa. Desde otro en-
foque, los planes pueden caer en uno de los siguientes tipos: a) Deliberativos, se hace
el plan y se ejecuta sin considerar eventos imprevistos, b) Reactivos, se considera
una accion en base a los estmulos de una forma basica, o c) Hbridos, seleccionando
lo mejor de las polticas anteriores. La Planeacion es un aspecto fundamental en
varias areas de la IA. Por ejemplo, en Robotica, la planeacion es esencial para re-
alizar una serie de tareas, por ejemplo, para determinar la trayectoria a seguir, para
seleccionar los movimientos de los brazos del robot, para evitar colisiones el cual se
trata como un problema de razonamiento geometrico. La planeacion es una de las
actividades mas relacionadas con la IA. Es realmente difcil convencer a alguien de
que un sistema es inteligente sin que posea la habilidad de generar un plan para
resolver un problema. Bajo este enfoque, los Sistemas Inteligentes deberan tener la
capacidad de generar planes con el n de operar en diferentes escenarios. Por ejem-
plo, en aviacion, la existencia de sistemas inteligentes apoyan a los pilotos a tomar
decisiones durante un vuelo, en vehculos terrestres inteligentes que planean la ruta
para llegar a un destino considerando varios aspectos (traco, tiempo, costo). La
planeacion es una habilidad clave en el dise no de sistemas inteligentes, ya que les
permiten incrementar su autonoma y exibilidad mediante la construccion de se-
cuencias de acciones para alcanzar sus objetivos. Las tecnicas de planeacion se han
aplicado en una variedad de tareas entre las que destacan: robotica, planeacion de
procesos, manejo de informacion basada en la web, agentes aut onomos y control de
misiones espaciales. Asimismo, la planeacion incluye la representacion de acciones y
modelos del mundo, razonar acerca de los efectos de las acciones, y tecnicas para una
b usqueda eciente en el espacio de posibles planes. Algunos aspectos relacionados
con la planeacion son los siguientes: sistemas reactivos, planeacion basada en casos,
planeacion en el aprendizaje de maquinas, planeacion en sistemas multiagentes,
planeacion bajo incertidumbre y la planeacion en los servicios web. Algunos even-
tos que resaltan la importancia de este campo de la IA son los siguientes: a) en la
Universidad de Valencia, se creo en 2006 el Grupo de Inteligencia Articial y Opti-
mizacion, el cual entre sus tareas se encuentra el estudio tecnologico en planicacion,
calendarizacion y asignacion optimizada de recursos, b) el grupo de investigacion en
1.3. DESARROLLOS ACTUALES 31
Inteligencia Articial del Laboratorio de Propulsion (NASA) liderado por S. Chien,
realizan investigacion basica en las areas de planeacion inteligente y calendarizacion,
aplicadas al analisis de las ciencias, comando en vuelos espaciales, operaciones en
redes espaciales, y sistemas de transportacion aeroespacial.
Empieza a quedar claro que la Inteligencia debe ser proporcionada a nuestro
entorno cotidiano. Cada da la sociedad esta mas consciente de la existencia de casas
inteligentes, vehculos inteligentes, sistemas de transporte inteligentes, ya se habla
incluso de ciudades inteligentes [72]. Para ello ha sido necesario que la comunidad
cientca de IA haya integrado sus tecnicas con las de otras comunidades cientcas
(Automatizacion, Reconocimiento de Voz y del Lenguaje Natural, Vision, y Comu-
nicaciones entre otras).
1.3. Desarrollos actuales
En esta seccion se van a presentar algunos campos de estudio relacionados
con la IA, en los cuales el enfoque hacia la solucion de los problemas vara desde
tratamientos muy especcos hasta la consideracion de amplias areas de investi-
gacion. Los investigadores que trabajan en cada una de estas areas, se pueden ver
como investigadores que intentar resolver el problema de la IA desde distintas di-
recciones.
1.3.1. Procesamiento de Lenguaje Natural (PLN)
Uno de los objetivos en el campo de la inteligencia articial consiste en crear
programas capaces de entender y reproducir el lenguaje humano. Se ha realizado
un gran esfuerzo por parte de la comunidad cientca de IA para dise nar progra-
mas destinados al procesamiento del lenguaje natural, aunque estos programas han
tenido un exito moderado, los sistemas capaces de usar el lenguaje natural con la
exibilidad y generalidad que caracteriza al humano a un estan fuera del alcance de
las metodologas actuales. La comprension del lenguaje natural implica mucho mas
que el analisis sintactico de oraciones en sus componentes individuales y la b usque-
da de tales componentes en un diccionario. La verdadera comprension depende de
un profundo conocimiento sobre el dominio de discurso y los modismos asociados
al mismo, as como de la capacidad de aplicar los conocimientos contextuales con
el n de resolver omisiones y ambig uedades que son aspectos comunes del lenguaje
humano. Considere por ejemplo, la dicultad de mantener una conversacion acerca
32 CAP

ITULO 1. FUNDAMENTOS DE LA INTELIGENCIA ARTIFICIAL (IA)


de un deporte, con una persona que entiende el lenguaje pero desconoce las reglas,
jugadores o historia del mismo. Aunque la persona comprenda de forma individual
cada palabra del entrenador a sus jugadores, la expresion en su conjunto resultara
incomprensible para tal persona, ya que desconoce el contexto (deporte). La tarea
de recopilar y organizar este conocimiento de tal manera que pueda aplicarse a la
comprension del lenguaje constituye el principal problema para la automatizacion
del mismo. Con la nalidad de resolver esta dicultad, los investigadores han de-
sarrollado tecnicas utilizadas para estructurar el signicado semantico utilizado en
inteligencia articial. Sin embargo, debido a la enorme cantidad de conocimien-
to requerido para la comprension del lenguaje natural, la mayora de los trabajos
relacionados con este tema, se desarrollan en areas especializadas y bien denidas
conocidas como micro mundos. Uno de los primeros programas en aprovechar la
metodologa de micro mundos fue SHRDLU realizado por Winograd en 1973, el
cual, es un sistema dise nado para conversar acerca de una conguracion sencilla
con bloques de diferentes formas y colores. SHRDLU poda responder a preguntas
como: de que color es el bloque que esta sobre el cubo azul? , tambien poda
planicar acciones simples como mover la piramide roja hacia el tabique verde.
Los problemas de este tipo, que implican la descripcion y manipulacion de simples
arreglos de bloques, se presentaron de forma frecuente en los inicios de la investi-
gacion en IA y fueron conocidos como los problemas del mundo de los bloques.
A pesar del exito logrado por SHRDLU para mantener una conversacion relaciona-
da con arreglos de bloques, esta metodologa no generaliza a partir del dominio en
cuestion. Las tecnicas de representacion utilizadas en este programa, fueron muy
simples para capturar de una manera util la semantica de dominios mas complejos.
Gran parte de los trabajos actuales relacionados con el procesamiento del
lenguaje natural se enfocan al dise no de metodologas, tecnicas, algoritmos, paradig-
mas y heursticas de representacion que sean lo sucientemente generales para ser
utilizados en una amplia variedad de aplicaciones, y tambien, que tengan la capaci-
dad de adaptarse a dominios especcos. Un n umero considerable de tecnicas (la
mayora son extensiones o modicaciones de las redes semanticas) son exploradas
para este n y usadas en el desarrollo de programas capaces de entender el lengua-
je natural en dominios de interes. Investigaciones recientes han recurrido al uso de
modelos estocasticos tanto para para describir como las estructuras del lenguaje y
las palabras ocurren, como para caracterizar los aspectos sintactico y semantico
del lenguaje. Sin embargo, como mencionamos antes, la comprension computacional
del lenguaje natural permanece hasta el momento mas alla del actual estado del arte.
1.3. DESARROLLOS ACTUALES 33
1.3.2. Reconocimiento de patrones
En un sentido amplio, el reconocimiento de patrones ha sido parte de nuestra
existencia, desde el momento en que nuestros primeros antepasados aprendieron a
distinguir a que animales podan acercarse para cazar y de cuales deberan de huir.
Aunque ellos probablemente nunca se detuvieron a realizar un analisis meticuloso,
sino que, basaban su clasicacion en rasgos como el tama no, longitud de los di-
entes, rugido, etc. A estos aspectos que permitan a los primeros cazadores humanos
clasicar a los animales en dos categoras: peligrosos y no peligrosos, se les cono-
cen como: rasgos o caractersticas. Otro ejemplo se puede ofrecer en la actualidad
durante los primeros a nos de nuestra vida, a la edad de cinco a nos, la mayor parte
de los ni nos pueden reconocer n umeros, letras, caracteres impresos o manuscritos,
as como imagenes de objetos conocidos aunque estas presenten oclusion parcial
los humanos poseemos esta habilidad de manera inherente, sin embargo, nos gustara
ense narle a las maquinas hacer lo mismo. Reconocimiento de patrones es el estudio
enfocado a hacer que las maquinas observen el ambiente, aprendan a distinguir pa-
trones de interes y a tomar decisiones razonables relacionadas con las categoras de
los patrones observados. A pesar de que se han realizado trabajos de investigacion
en este campo por mas de 60 a nos, el dise no de un sistema de reconocimiento de
patrones que sea de uso general, se mantiene a un como un problema por resolver.
Hasta el momento, el mejor reconocedor de patrones en la mayora de las
instancias es el humano, aunque por el momento a un no se tenga una completa
comprension en como se lleva a cabo este proceso. Ross enfatiza el trabajo de Her-
bert Simon, cuya aportacion principal fue armar que el reconocimiento de patrones
es un factor clave en la tarea humana de tomar decisiones [81]. En este sentido, se
puede denir el reconocimiento de patrones como la mejor forma de utilizar los
sensores disponibles (se nales, audio, vdeo), procesadores, y el conocimiento del do-
minio para tomar decisiones automaticas. De acuerdo con Watanabe, un patron es
lo opuesto alcaos [82]. Asimismo, Watanabe cita como ejemplos de patrones los
siguientes: una imagen de huella dactilar, un rostro humano, una palabra escrita, y
una se nal de voz. Dado un patron, el proceso de reconocerlo/clasicarlo consiste de
dos tareas: (1) clasicacion supervisada, donde el patron de entrada es identicado
como miembro de una clase denida previamente, y (2) clasicacion no supervisada,
donde el patron se asigna o agrupa en una clase desconocida. En el segundo caso,
el problema de reconocimiento se maneja como una tarea de clasicacion, donde las
clases son, ya sea denidas por el dise nador del sistema (clasicacion supervisada)
o aprendidas basadas en la similitud de patrones (clasicacion no supervisada). El
interes de la comunidad cientca hacia este campo se vio renovado a nes de la
decada de 1990 debido al surgimiento de aplicaciones emergentes las cuales ademas
de ser desaantes eran computacionalmente demandantes, algunos ejemplos de tales
34 CAP

ITULO 1. FUNDAMENTOS DE LA INTELIGENCIA ARTIFICIAL (IA)


aplicaciones son: el analisis de secuencia en protenas o ADN, b usqueda de infor-
macion signicativa en espacios multidimensionales, identicacion personal en base
al analisis de rostros y b usqueda de textos en Internet. Un aspecto com un en estas
aplicaciones es que las caractersticas disponibles (en el orden de los miles) no son
generalmente determinadas por expertos en el dominio del problema, sino que son
extraidas y optimizadas a traves de procedimientos y tecnicas. El rapido desarrol-
lo y poder de computacion disponible en la actualidad, ha facilitado el manejo y
procesamiento de grandes vol umenes de datos, as como la clasicacion y analisis de
los mismos aplicando diversos metodos. Al mismo tiempo, la demanda de sistemas
automatizados relacionados con este campo ha crecido enormemente debido a la
disponibilidad de grandes bases de datos y estrictos requerimientos de operacion
(velocidad, exactitud y costo).
Resulta evidente que en muchas de las aplicaciones emergentes es necesario
aplicar m ultiples metodos de clasicacion con el n de obtener resultados optimos.
En trabajos recientes, es com un observar la integracion de varios sensores y tecnicas
de clasicacion [137]. El dise no de un sistema reconocedor de patrones generalmente
incluye las siguientes etapas: 1) adquisicion y preprocesamiento de datos, 2) repre-
sentacion de datos, y 3) toma de decisiones. Generalmente, estas etapas as como las
tecnicas a utilizar en cada una de ellas son determinadas por el dominio del proble-
ma que se pretende resolver. Sin embargo, es de todos sabido, que un problema bien
denido y con las restricciones sucientes (peque nas variaciones intraclase y grandes
variaciones entre clases) conducen a un sistema de reconocimiento de patrones com-
pacto y a una estrategia de toma de decisiones sencilla. Los enfoques mas frecuentes
en el dise no de sistemas reconocedores de patrones son: 1) correspondencia de plan-
tillas, 2) clasicacion estadstica, 3) corespondencia estructural o sintactica, y 4)
redes neuronales. Una breve descripcion de cada uno de estos metodos se propor-
ciona a continuacion.
Correspondencia de plantillas. Fue uno de los primeros enfoques utilizados para
el reconocimiento de patrones. La correspondencia es una operacion generica y con-
siste basicamente en comparar dos entidades (puntos, curvas, formas) del mismo tipo
en busca de similitudes. En esta operacion, una plantilla (generalmente, una forma
en 2D) se compara con un conjunto de plantillas almacenadas, al mismo tiempo se
consideran aspectos que pueden variar, tales como: rotaci on, traslacion y escala. La
medida de similitud utilizada mas seguido bajo este enfoque, es la correlacion, la
cual puede ser optimizada basada en un conjunto de entrenamiento. Resulta una
practica com un en muchos trabajos que la plantilla sea aprendida de un conjunto de
entrenamiento. La tarea de comparar plantillas es un proceso computacionalmente
demandante, sin embargo, la disponibilidad de procesadores r apidos hacen factible
1.3. DESARROLLOS ACTUALES 35
este trabajo. Aunque esta tarea resulta conveniente en muchos casos, presenta al-
gunas desventajas, la principal consiste en la generacion de resultados eroneos, lo
cual puede ocurrir en los siguientes casos: (i) si los patrones sufren alguna distorsion
durante el proceso de captura, (ii) si hay cambios en los puntos de vista, o (iii) si
existen grandes variaciones entre las clases.
Enfoque estadstico. En este enfoque, cada patron es representado por d carac-
tersticas de mediciones y visto como un punto en un espacio ddimensional. En
este caso, el objetivo consiste en seleccionar aquellas caractersticas que permitan
a vectores de patrones pertenecientes a diferentes clases ocupar de forma compacta
regiones disjuntas en este espacio de caractersticas. La efectividad del espacio de
representacion (conjunto de caractersticas) se determina considerando que tan bi-
en los patrones de diferentes clases pueden ser separados. A partir de un conjunto
de entrenamiento formado por patrones de distintas clases, el objetivo consiste en
establecer lmites de decision en el espacio de caractersticas con el n de separar a
los mismos. Las decisiones establecidas en este enfoque, son determinadas a partir
de las distribuciones de probabilidad de los patrones pertenecientes a cada clase, los
cuales pueden ser aprendidos o especicados [84, 85].
Enfoque sintactico o estructural. En muchos problemas de reconocimiento que
involucran patrones complejos, es mas apropiado aplicar un enfoque jerarquico, es
decir, un patron se considera formado por sub-patrones y estos a su vez formados
por otros sub-patrones [86, 87]. En este caso, el patron mas simple o elemental se le
conoce como primitivo, y el patron complejo se representa como una relacion entre
patrones primitivos. El reconocimiento de patrones bajo este enfoque, se basa en
una analoga formal entre la estructura de los patrones con la sintaxis de un lengua-
je donde, los patrones son comparables a las oraciones que forman un lenguaje, las
primitivas son el alfabeto del lenguaje, y las oraciones son generadas de acuerdo a una
gramatica. De esta manera, una gran coleccion de complejos patrones puede ser de-
scrito por un n umero limitado de primitivas y reglas gramaticales. La gramatica para
cada patron debe ser inferida a traves de conjuntos de entrenamiento. El enfoque
estructural resulta muchas veces atractivo, ya que ademas de realizar la clasicacion,
proporciona una descripcion acerca de como los patrones se construyen a partir de las
primitivas. Este paradigma se ha utilizado en situaciones donde los patrones exhiben
una estructura denida la cual puede ser facilmente capturada como un conjunto de
reglas, tales como las observadas en imagenes con textura, y en el analisis de formas
y contornos. A pesar de sus ventajas, la implementacion de este enfoque tiene algu-
nas complicaciones, originadas en principio durante la segmentacion de ruido en los
patrones (deteccion de primitivas), y posteriormente en inferir la gramatica a partir
de datos de entrenamiento. Asimismo, el enfoque sintactico produce una explosion
36 CAP

ITULO 1. FUNDAMENTOS DE LA INTELIGENCIA ARTIFICIAL (IA)


combinatoria de posibilidades que deben ser analizadas, lo cual demanda grandes
conjuntos de entrenamiento y esfuerzo computacional.
Redes Neuronales. Las redes neuronales son modelos computacionales que in-
tentan imitar el comportamiento de las neuronas biologicas, y pueden verse como
un sistema computacional formado por un conjunto masivo de procesadores individ-
uales interconectados y trabajando en paralelo. Este enfoque intenta modelar algunos
principios organizacionales (aprendizaje, generalizaci on, adaptabilidad, procesamien-
to, tolerancia a fal los y representacion distribuida) en una red a traves de grafos pon-
derados con pesos, donde los nodos representan neuronas articiales y los enlaces
entre los nodos indican conexiones (entradas o salidas) entre neuronas. La carac-
terstica principal de este enfoque es que tienen la habilidad de aprender relaciones
no lineales complejas de entrada y salida, emplean procedimientos secuenciales de
entrenamiento y se adaptan a los datos. La creciente popularidad de estos modelos
para resolver problemas de reconocimiento de patrones se debe a su aparentemente
baja dependencia de conocimiento especco del dominio (a diferencia de los en-
foques basados en reglas y basados en modelos), asi como a la disponibilidad de
ecientes algoritmos de aprendizaje. Sin embargo, en la opinion de Ripley y An-
derson, a pesar de sus principios fundamentales, la mayora de los modelos de redes
neuronales articiales son de manera implcita similares o equivalentes a los metodos
de reconocimiento de patrones aplicados por la estadstica clasica [88, 89]. A pesar
de las ventajas que este enfoque ofrece en el dise no de sistemas aplicados en una var-
iedad usos, tambien es susceptible a algunas desventajas, tales como: 1) naturaleza
de caja negra, 2) mayor carga computacional, 3) propension al sobreajuste, y 4) la
naturaleza emprica en el desarrollo del modelo.
Las aplicaciones relacionadas con este campo son variadas seg un lo demuestra
un estudio realizado por Larry OGorman en el a no 2003, en el cual examino los
temas de 105 artculos enviados a revistas especializadas (Pattern Recognition Let-
ters, Pattern Recognition, Machine Vision and Applications, and IEEE transac-
tions on Pattern Analysis and Machine Intel ligence) en este campo en el a no 2001.
Los resultados obtenidos muestran las aplicaciones principales en el campo de re-
conocimiento de patrones y son las siguientes: 35 % reconocimiento de personas, 28 %
reconocimiento de caracteres, 11 % robotica y navegacion, 6 % inspeccion industrial,
6 % satelital y aerea, 5 % biomedica, y 9 % otras. Con este sencillo analisis se puede
indicar la gran variedad de aplicaciones relacionadas con este campo, participando
en areas tan diversas como la economa, medicina, qumica y psicologa. Un estudio
similar fue realizado para determinar las tecnicas mas utilizadas en este campo. En
este caso, se dio una revision al ndice de todos los temas de la revistaIEEE Trans-
actions on Pattern Analysis and Machine Intel ligence, desde su primera publicacion
1.3. DESARROLLOS ACTUALES 37
en Enero de 1979, hasta el a no 2000. Los resultados obtenidos arrojaron datos de
350 artculos revisados, donde apoximadamente 300 de los artculos se relacionaron
con el enfoque estadstico categorizados en los siguientes temas: a) reduccion de
dimensionalidad, b), dise no de clasicadores, c) combinacion de clasicadores, d)
estimacion del error, y e) clasicacion supervisada.
Con los datos anteriores se proporciona una idea de lo relevante que es este
campo en el estudio de la IA. Asimismo, mientras el estudio de tecnicas aplicadas
en el mismo siguen siendo un tema de de investigacion, los investigadores logran
innovar a traves de explorar problemas novedosos e interesantes.
1.3.3. Robotica
La robotica es una disciplina que combina todas aquellas actividades rela-
cionadas con el estudio, dise no, construccion, operacion y mantenimiento de robots.
Es un campo de trabajo que combina diferentes disciplinas como: Ingeniera Electri-
ca, Electronica, Mecanica, Ciencias de la Computacion, Matematicas, Fsica, Bi-
ologa y Neurociencias entre otras. El termino robot fue introducido por el checo
Karel Capek en 1921, y se origina de la combinacion de las palabras checas robota
que signica trabajo obligatorio y robotnik que signica siervo. Por lo tan-
to, podemos dar la siguiente denicion para este termino: Los robots son agentes
fsicos que realizan tareas mediante la manipulacion del mundo fsico y estan equipa-
dos con sensores para percibir su entorno y efectores para actuar sobre el mismo.
La palabra robotica fue utilizada por primera vez por el cientco y escritor de
ciencia ccion Isaac Asimov en 1942, quien ademas propuso las conocidas leyes de
la robotica:
Ley 0: Un robot no puede realizar ninguna accion, ni por inaccion permitir que nadie
la realice, que resulte perjudicial para la humanidad, a un cuando ello signique en-
trar en conicto con las otras leyes.
Ley 1: Un robot no puede da nar a un ser humano ni, por inaccion, permitir que este
sea da nado.
Ley 2: Un robot debe obedecer las ordenes dadas por los seres humanos excepto
cuando estas ordenes entren en conicto con las leyes anteriores.
38 CAP

ITULO 1. FUNDAMENTOS DE LA INTELIGENCIA ARTIFICIAL (IA)


Ley 3: Un robot debe proteger su propia existencia hasta donde esta proteccion no
entre en conicto con las leyes anteriores.
De acuerdo con la actividad para la cual fueron dise nados, los robots se clasi-
can en: (i) Robots Industriales, (ii) Robots de Servicio, (iii) Robots de Exploracion,
y (iv) Otras aplicaciones. En seguida se proporciona una breve descripcion de cada
tipo.
Robots Industriales. Los robots industriales se utilizan para realizar trabajos repeti-
tivos, pesados o peligrosos. En el mundo existen actualmente mas de 740.000 robots
de este tipo, utilizados principalmente en la industria automotriz.
Robots de Servicio. Los robots de servicio ayudan a los hombres a realizar distintos
tipos de labores. Se estima que en el mundo existen mas de 6000 de estas unidades,
de los cuales el 50 % son robots domesticos, el 14 % son robots submarinos, el 12 %
son robots medicos, el 6 % son robots de limpieza y el 23 % restante corresponde
a alguno de los siguientes tipos: (a) Robots Medicos, (b) Robots Domesticos, (c)
Robots de Ayuda a Discapacitados, (d) Robots de Limpieza y, (e) Robots de Vigi-
lancia.
Robots de Exploracion. Permiten explorar lugares inaccesibles para el hombre como
por ejemplo otros planetas (ej. Marte), el fondo del mar (ej. Titanic) o la antartica.
Otras Aplicaciones. Ademas de las anteriores, los robots se utilizan en diversas tar-
eas tales como: fumigar, abastecer combustible, jugar, limpiar tuberas y levantar
muros en la construccion.
Los primeros robots industriales modernos fueron conocidos como Unimates,
y fueron desarrollados por George Devol y Joe Engelberger a nales de la decada
de 1950 y principios de la decada de 1960. En base a desarrollos posteriores a En-
gelberger se le considera el padre de la robotica. A nales de la decada de 1970 y
principios de la decada de 1980 el desarrollo de los robots industriales tuvo un gran
desarrollo, debido principalmente a fuertes inversiones realizadas por la industria
automotriz.
La robotica se basa principalmente en dos areas: Manipulaci on remota y capaci-
dad de control numerico en maquinas. La manipulacion remota o telemanipuladores,
se reere a las maquinas que son controladas de manera remota, las cuales general-
1.3. DESARROLLOS ACTUALES 39
mente se forman por un brazo y unas pinzas cuyos movimientos siguen las instruc-
ciones que un humano les da a traves de un dispositivo de control. Los primeros ma-
nipuladores se utilizaron para el manejo de material radioactivo. El control numerico
permite controlar maquinas de forma precisa en relacion con un sistema de coorde-
nadas dado, este tipo de control fue utilizado por primera vez en 1952 en el MIT y se
considero como el primer lenguaje de programacion para maquinas (llamado APT:
Herramientas automaticas programadas (por sus siglas en ingles)). La combinacion
de las tecnicas mencionadas hizo posible el dise no del primer telemanipulador pro-
gramable. El primer robot industrial que utilizo estos principios fue instalado en
1961. Los robots basados en los esquemas anteriores son principalmente emplead-
os en las plantas de ensamble automotriz. Asimismo, la necesidad de automatizar
transporte en los sistemas de produccion impulso el desarrollo de unidades roboticas
moviles. Actualmente, la mayora de los robots moviles se han construido basados
en la arquitectura de los insectos, es decir, con muchas patas, con el n de ser uti-
lizados en una gama de aplicaciones. A otros mas se les suministraron ruedas para
usarse en diferentes tipos de servicios, tales como: Localizar y traer. Los robots
humanoides hicieron su aparicion en 1975, cuando Wabot-I se presento en Japon. El
actual Wabot-III ya tiene algunas capacidades cognitivas simples. Cog. Otro robot
con caractersticas de humanoide fue desarrollado en 1994 en el Laboratorio de In-
teligencia Articial del MIT. El popular robot humanoide de Honda fue presentado
al p ublico por primera vez en 1999. A pesar de ser operado a control remoto, este
humanoide puede caminar (en el piso y escaleras) de forma autonoma. Actualmente
este robot realiza una mayor variedad de tareas (reconocer rostros, comunicarse con
humanos).
Finalmente, no se puede hablar de robotica sin mencionar el aspecto de plan-
icacion, ya que la investigacion relacionada con la planicacion inicio como un
esfuerzo para dise nar robots que pudieran realizar sus tareas con alg un grado de
exibilidad y respuesta. En la planicacion se asume que un robot es capaz de re-
alizar ciertas acciones basicas las cuales ejecutadas en secuencia les permitira com-
pletar una tarea de alto nivel, tal como, moverse a traves de un cuarto evitando los
obstaculos (navegacion) [4].
1.3.4. Sistemas Expertos
Desde hace alg un tiempo, los problemas mas recurrentes con los que se en-
frenta la industria tienen que ver con la falta de personas capacitadas en campos
muy especcos y al elevado costo de sus servicios. Con esto podemos establecer que
uno de los bienes mejor valuados es el conocimiento humano, y con el viene apare-
40 CAP

ITULO 1. FUNDAMENTOS DE LA INTELIGENCIA ARTIFICIAL (IA)


jada la capacidad para tomar decisiones. Un sistema automatizado que almacene
el conocimiento de personas especializadas en un area especca y que permita la
interaccion con humanos con el n de ofrecer puntos de vista a cierta situacion
de estudio, se le conoce como sistema experto. Los sistemas expertos forman parte
de la ciencia de la computacion y dentro de esta se ubican como un subcampo de
la inteligencia articial.

Este termino fue usado por primera vez por Edward A.
Feigenbaum, profesor de la Universidad de Stanford. Feigenbaum determino que el
poder de resolucion de un problema por un programa de computadora viene del
conocimiento de un dominio especco, no solo de las tecnicas de programacion y el
formalismo que contiene. Antes de eso casi todos los investigadores en inteligencia
articial haban tratado de desarrollar metodos generales de programacion que re-
solveran grandes problemas conceptuales, pero estos programas solamente resolvan
y de manera muy limitada algunos problemas individuales.
La idea para dise nar sistemas expertos surgio de los trabajos relacionados
con resolucion de problemas, donde se observo la importancia del conocimiento en
un dominio especco. Un medico por ejemplo no es ecaz en el diagnostico de la
enfermedad solo porque posee una habilidad general e innata para la solucion de
problemas, sino que, es ecaz porque tiene un gran conocimiento relacionado con la
medicina. Del mismo modo, un geologo es ecaz en el descubrimiento de depositos
minerales debido a que es capaz de aplicar una buena dosis de conocimientos teori-
cos y empricos sobre la geologa del problema en cuestion. El conocimiento experto
es una combinacion de una comprension teorica del problema y una coleccion de
reglas heursticas hacia la solucion de problemas que la experiencia ha demostrado
son ecaces en este dominio. Los sistemas expertos son construidos por la obtencion
del conocimiento de un experto humano y la codicacion del mismo en una forma
que una computadora pueda entender y aplicar a problemas similares.
La conanza en el conocimiento de un dominio por un experto humano como
estrategia de un sistema en la resolucion de problemas es una caracterstica im-
portante de los sistemas expertos. Aunque algunos programas son escritos por un
dise nador que a la vez es la fuente del conocimiento en el dominio de interes, es mas
com un ver este tipo de programas con la colaboracion entre un experto en el dominio
como un medico, qumico, geologo o ingeniero, y un especialista de la inteligencia
articial. El experto de dominio proporciona los conocimientos necesarios sobre el
dominio de interes, as como los metodos utilizados para la resolucion de proble-
mas, demostrando estas habilidades en un conjunto cuidadosamente seleccionado de
problemas de ejemplo. Una vez que un programa se ha escrito como resultado de
esta colaboracion, es necesario perfeccionarlo a traves de un proceso de aprendiza-
je basado en ejemplos, donde el experto del dominio eval ua su comportamiento y
1.3. DESARROLLOS ACTUALES 41
realiza las observaciones necesarias para ajustar los parametros del programa. Este
proceso se repite hasta que el programa alcanza el nivel de rendimiento deseado.
Uno de los primeros sistemas que explotaron el conocimiento especco del do-
minio en la solucion de problemas fue DENDRAL, desarrollado en Stanford en la
decada de 1960 [Lindsay et al. 1980]. Este sistema fue dise nado con el n de inferir
la estructura de moleculas organicas a partir de sus formulas qumicas e informacion
de la masa espectrograca presente en las moleculas. Mientras DENDRAL fue uno
de los primeros programas en utilizar de manera efectiva conocimiento especco del
dominio para alcanzar un rendimiento similar a un experto humano, MYCIN es-
tablecio la metodologa para sistemas expertos contempor aneos [79]. Mycin utiliza
conocimiento medico experto para diagnosticar y prescribir el tratamiento para la
meningitis espinal e infeccion en la sangre causada por bacterias. Este programa,
desarrollado en Stanford a mediados de 1970, fue uno de los primeros en enfocar los
problemas de razonar con incertidumbre o con informacion incompleta. Asimismo,
proporciono una explicacion logica precisa acerca de su razonamiento, utilizando una
estructura de control apropiada al dominio del problema e identico de manera con-
able los criterios para la evaluacion del rendimiento. Algunos sistemas expertos ac-
tuales utilizan tecnicas que fueron aplicadas por vez primera en el proyecto MYCIN.
Otro de los primeros sistemas expertos incluyen el programa PROSPECTOR, el
cual determina la probable ubicacion y el tipo de depositos minerales basados en la
informacion geologica de un sitio. INTERNIST es un sistema experto utilizado en
medicina interna para realizar diagnosticos, DIPMETER ADVISOR otro pro-
grama perteneciente a los primeros sistemas expertos, fue utilizado para interpretar
los resultados de los registros de perforacion en pozos de petroleo [Smith y Baker,
1983]. Actualmente existe un buen n umero de sistemas expertos que resuelven prob-
lemas en diversas areas, tales como: medicina, educacion, negocios, dise no y ciencias
[Durkin 1994]. A pesar del exito logrado por varios programas en esta area, sera un
error sobreestimar la habilidad de esta tecnologa, algunas de sus deciencias son
las siguientes:
1. Dicultad para representar un profundo conocimiento en el dominio del prob-
lema. Como ejemplo de este aspecto, podemos citar al programa Mycin, el cual
carece de conocimiento real de un siologo humano. Por lo tanto, no sabe la
funcion de la sangre o de la espina dorsal, en otro caso, cuando selecciona algu-
na medicina para tratar la meningitis, le pide al paciente si esta embarazada,
a un cuando en principio se le dijo el sexo del mismo.
2. Falta de robustez y exibilidad. Si a las personas se les presenta una instancia
de un problema que no pueden resolver de manera inmediata, generalmente
regresan a examinar los principios para estos y as regresar con una estrategia.
42 CAP

ITULO 1. FUNDAMENTOS DE LA INTELIGENCIA ARTIFICIAL (IA)


Los sistemas expertos generalmente carecen de esta habilidad.
3. No proporcionan una explicacion detallada. Debido a que los sistemas expertos
carecen de un conocimiento detallado del dominio, sus explicaciones general-
mente se restringen a una descripcion de pasos para llegar a una solucion. Por
ejemplo, no pueden explicar porque se tomo un cierto camino para llegar a
una conclusion.
4. Dicultades en la vericacion. A pesar de la dicultad encontrada en probar
la correccion de cualquier sistema informatico de gran tama no, los sistemas
expertos son particularmente difciles de vericar. Este es un problema serio,
sobretodo cuando el sistema experto se usa en aplicaciones crticas tal como
en control del traco aereo, operaciones con reactores nucleares, y sistemas de
defensa militar.
5. Poco aprendizaje de la experiencia. Los sistemas expertos actuales estan hechos
a la medida del problema que tratan; una vez que el sistema esta terminado,
su rendimiento no va a mejorar sin atencion de parte de sus programadores,
esto origina algunas dudas respecto a la inteligencia de tales sistemas.
A pesar de estas limitaciones, los sistemas expertos han demostrado su utilidad
en un n umero importante de aplicaciones.
1.3.5. Logica Difusa
En a nos recientes se ha observado un crecimiento en el n umero y variedad de
aplicaciones basadas en l ogica difusa. Esta logica, la cual pertenece a un conjunto de
metodologas conocidas bajo el nombre de computacion suave (soft computing) tiene
la habilidad de imitar la manera de pensar del humano y aplica de forma efectiva,
modos de razonamiento que producen resultados aproximados mas que exactos.
Se debe al profesor Lofti A Zadeh, profesor de la Universidad de Berkeley,
la introduccion del termino: logica difusa, en su trabajo Fuzzy Sets, en el cual de-
scribio en 1965 las matematicas utilizadas en la teora de conjuntos difusos [90]. A
diferencia de la logica clasica o tradicional, la logica difusa permite el manejo de
m ultiples valores. La idea de tener una logica con m ultiples valores no es nueva,
Platon sento las bases de lo que se convertira mas tarde en l ogica difusa, cuando
indico que haba una tercera region mas alla de Verdadero y Falso. Algunos losofos
de la epoca moderna, retomaron las ideas de Platon, particularmente Hegel, Marx y
Engels. Sin embargo, fue Lukasiewics quien propuso por primera vez una alternativa
a la logica bivaluada de Aristoteles, al proponer la posibilidad de manejar un tercer
valor (numerico) situado entre Verdadero y Falso [91]. Posteriormente, Lukasiewics
1.3. DESARROLLOS ACTUALES 43
exploro la propuesta de manejar una logica con cuatro y cinco valores, declarando
despues que no haba nada que evitara manejar una logica con valores innitos. La
logica difusa modela condiciones denidas de forma imprecisa y provee un marco
para la toma de decisiones en forma de razonamiento aproximado. La permisividad
de tolerancia en el proceso de pensamiento humano sugiere que gran parte de la
logica que gua a este proceso no es la logica tradicional de dos valores o incluso
la de m ultiples valores, sino, debe ser una logica que permita manejar verdades
parciales, conectividad difusa, conjuntos difusos y reglas de inferencia difusas. Un
conjunto difuso es una extension de un conjunto preciso. Los conjuntos precisos per-
miten manejar solo dos valores en relacion a los elementos del mismo: pertenece y
no pertenece, mientras que los conjuntos difusos permiten el manejo de pertenencia
parcial hacia un conjunto de valores. Mientras que en la computacion tradicional
tipo dura, las decisiones o acciones se basan en resultados exactos y precisos
lo cual tiene un costo en la computacion suave las decisiones se basan en la
tolerancia y la imprecision [90].
La explotacion de la tolerancia por imprecision e incertidumbre es la base de
la notable capacidad humana para entender voces distorsionadas, descifrar palabras
mal escritas, comprender matices del lenguaje natural, resumir textos, y clasicar
imagenes. Con logica difusa es posible el mapeo de reglas en terminos de palabras
en lugar de n umeros, ello es posible, ya que el computo con palabras explota la im-
precision y la tolerancia. Otro concepto basico que maneja es el uso de la regla del
tipo si entonces. Aunque los sistemas basados en reglas tienen una larga historia
de uso en inteligencia articial, lo nuevo aqu es que se tiene el mecanismo para
trabajar con antecedentes y/o consecuentes difusos. En la mayora de las aplica-
ciones, una solucion con logica difusa es una traduccion de una solucion humana.
Otro aspecto de interes en esta logica, es que puede modelar funciones no lineales
de complejidad arbitraria a un grado de precision deseado. Asimismo, es una her-
ramienta que permite modelar un sistema de m ultiples entradas a m ultiples salidas.
La computacion suave incluye ademas de la logica difusa a las siguientes tecnicas:
redes neuronales articiales, algoritmos geneticos y razonamiento probabilstico. Es-
tas tecnicas abordan aspectos distintos y en general son complementarias mas que
competitivas. Actualmente estas tecnicas son aplicadas de manera individual o com-
binadas con el n de dise nar sistemas inteligentes. La logica difusa generalmente
aborda aspectos relacionados con el razonamiento a nivel sem antico y ling ustico y
existe una variedad de trabajos donde se combina con las redes neuronales las cuales
ofrecen algoritmos que abordan aspectos de aprendizaje, clasicacion y optimizacion.
A decir de Zadeh, La computacion suave no es una simple metodologa, en vez
de ello, es un conjunto de metodologas, cuya directiva principal consiste en explotar
44 CAP

ITULO 1. FUNDAMENTOS DE LA INTELIGENCIA ARTIFICIAL (IA)


la tolerancia para imprecision, la incertidumbre y la verdad parcial para alcanzar
la tratabilidad, robustez y soluciones de bajo costo. La principal aportacion de la
logica difusa en este conjunto es proveer una metodologa para representar el razon-
amiento aproximado, y en particular, para al computo con palabras. Por otro lado,
mientras las redes neuronales ofrecen tecnicas para el aprendizaje y la identicacion
de sistemas los algoritmos geneticos ofrecen metodos para tareas de b usqueda y op-
timizacion.
Hasta la fecha, Zadeh y otros investigadores han continuado con el desarrollo
de la logica difusa. Sin embargo, a pesar de ser una tecnica exitosa en varias apli-
caciones, sobretodo en sistemas de control de electrodomesticos y equipos elec-
tronicos, esta logica no cuenta con la total aceptacion de muchos academicos,
quienes sostienen que la principal debilidad de este enfoque es que se basa en aspec-
tos matematicos poco explorados.
Debido a esta situacion, las primeras aplicaciones de la logica difusa tuvieron
un lento desarrollo en muchos pases, sin embargo, en otros su desarrollo fue difer-
ente, por ejemplo en Japon, esta logica fue totalmente aceptada y puesta en practica
en diversos productos simplemente porque funcionaba, sin tomar en cuenta que los
matematicos estuvieron de acuerdo o no. El exito de muchos productos basados en
la logica difusa dio inicio en Japon a principios de la decada de 1980 y fue aceptada
en los EE.UU a nales de esa decada. Desde entonces varios pases de America han
estado compitiendo con los de otros continentes en desarrollos relacionados con esta
area.
1.4. Modelos de agente inteligente
Bajo el nombre de agentes se le conoce a un nuevo paradigma en el desarrol-
lo de programas para computadoras. Lo que hace atractiva la tecnologa software
basada en agentes es que ofrece algunos de los siguientes aspectos: a) habilidad para
resolver problemas que caen fuera del alcance de la automatizacion (porque no existe
la tecnologa que pueda ser utilizada, o porque resulta demasiado costosa difcil,
riesgosa, consume mucho tiempo para el desarrollo de soluciones usando la tec-
nologa existente), y b) habilidad para resolver problemas tal vez ya resueltos
de una forma signicativamente mejor (mas economicos, mas sencillos, mas faciles,
mas natural, o mas rapidos). El computo basado en agentes ha sido aclamado como:
el siguiente salto signicativo en el desarrollo del software [Sargent, 1992], y la
nueva revolucion en el software [Ovum, 1994]. Actualmente, el estudio de agentes
1.4. MODELOS DE AGENTE INTELIGENTE 45
base principal del paradigma es uno de los principales temas de investigacion en
algunas areas de las ciencias computacionales y de la IA, debido a la amplia amplia
variedad de aplicaciones en las que se pueden utilizar, las cuales van desde peque nos
sistemas, tales como los ltros utilizados en los correos electronicos hasta los elabora-
dos y complejos sistemas utilizados para el control del traco aereo. De acuerdo con
Russell y Norvig un agente es cualquier ente que pueda percibir su entorno a traves
de sensores y actuar sobre el mismo mediante actuadores [94]. Un agente humano
posee ojos, odos, y otros organos que funcionan como sensores, as como brazos,
piernas y boca, que act uan como actuadores. Un agente robot posee camaras, GPS,
y odometros entre otros elementos como sensores y varios servomecanismos como
actuadores. Un agente software almacena cadenas de bits codicados como elemen-
tos de percepcion y accion.
Aunque no existe una denicion universalmente aceptada para el termino
agente, la mayora de los investigadores estan de acuerdo con las siguientes propiedades
de los mismos [105]:
Primera. Un agente es un sistema de computo ubicado en un ambiente en el cual es
capaz de realizar acciones autonomas sin intervencion humana o de otros agentes,
con el n de alcanzar sus objetivos, manteniendo en todo momento el control sobre
sus acciones y hacia su estado interno. Sin embargo, el que un programa computa-
cional sea autonomo no signica que sea inteligente. Por ejemplo, cualquier sistema
de control que monitorea su ambiente y realiza acciones para modicarlo al cam-
biar ciertas condiciones (simple termostato hasta sistemas de control en reactores
nucleares) posee autonoma, asimismo tienen esta propiedad los demonios software,
los cuales son peque nos programas que monitorean un ambiente software y reaizan
acciones que lo modican bajo ciertas condiciones (programa xbi de UNIX). A
los sistemas anteriores se les puede denominar agentes, pero no agentes inteligentes.
Para que un programa de computadora reciba esta connotacion debe exhibir una
autonoma exible al tomar acciones con el n de alcanzar los objetivos de dise no.
Por exibilidad, el agente debe tener al menos las siguientes tres caractersticas:
1. Reactivos (capacidad de respuesta). Los agentes deben percibir su ambiente
(que puede ser el mundo fsico, un usuario, una coleccion de agentes, la Inter-
net, etc.) y responder de manera oportuna a cambios que ocurren en el.
2. Proactivos. Los agentes no solo deben responder a los cambios ambientales,
sino, que ademas deben hacerlo de forma oportuna, mostrar un comportamien-
to basado en objetivos y tomar la iniciativa cuando sea necesario.
3. Sociales. Los agentes deben ser capaces de interactuar con otros agentes:
46 CAP

ITULO 1. FUNDAMENTOS DE LA INTELIGENCIA ARTIFICIAL (IA)


articiales y humanos, con el n de resolver sus problemas y ayudarles a los
demas con sus actividades.
Segunda. Un sistema basado en agentes debe ser dise nado e implementado en termi-
nos de agentes, es decir, las herramientas utilizadas para su creacion deben haber
sido explcitamente desarrolladas para este n. Por ejemplo, en el dise no de agentes
cognitivos es muy com un utilizar el enfoque de la Teora del Espacio de Trabajo
Global (GWT), el cual es un esquema propuesto por Baars y ofrece una base para
comprender el alto nivel de abstraccion de la conciencia y conocimiento humano
[95, 96]. GWT permite manejar varias arquitecturas de memoria para el dise no de
este tipo de agentes, una de ellas es LIDA(Learning Intel ligente Distribution Agent)
desarrollada recientemente por Baars y Ramamurthy, este modelo incluye modulos
para percepcion, varios tipos de memoria (corto plazo y largo plazo), seleccion de
acciones, as como varios tipos de metodos de aprendizaje [97, 98]. Al igual que la
anterior, existe un n umero importante de herramientas software que permiten a un
usuario implementar sistemas software basados en agentes, y como sociedades de
agentes cooperativos. Los sistemas multi-agentes caso mas general y signicativa-
mente mas complejo que el de un solo agente se reere a arquitecturas dise nadas
para que varios agentes interact uen con la nalidad de alcanzar sus objetivos.
Generalmente, cuando en la literatura de las ciencias computacionales se hace
referencia al termino agente, de manera implcita se reeren al concepto de agente
inteligente, el cual se considera posee las capacidades mencionadas. Algunos inves-
tigadores enfatizan algunos aspectos de los agentes tales como: movilidad y adapt-
abilidad. Es com un observar caractersticas adicionales en los agentes dependiendo
del tipo de aplicacion, en algunos casos unos atributos son m as importantes que
otros. Sin embargo, muchos autores consideran que las propiedades mencionadas
(integradas en un software) son sucientes para distinguir a un sistema basado en
el paradigma de agentes de otros paradigmas software, por ejemplo: sistemas orien-
tados a objetos, sistemas distribuidos, y sistemas expertos.
La tecnologa de agentes nos proporciona las herramientas para construir apli-
caciones que previamente haban sido incapaz de desarrollarse. Asimismo, los agentes
proporcionan un medio para conceptualizar y/o implementar una aplicacion de-
terminada. De acuerdo a los trabajos de Bond y Gaser [99], existen tres razones
importantes para adoptar la tecnologa de agentes: (1) los recursos, los datos y el
control son inherentemente distribuidos, (2) el sistema es naturalmente visto como
una sociedad de componentes autonomos y cooperantes, y (3) el sistema maneja la
herencia de componentes, lo cual hace posible la interaccion con otros componentes.
1.4. MODELOS DE AGENTE INTELIGENTE 47
Por otro lado, de acuerdo al comportamiento que muestra un agente al inter-
actuar con su entorno se les clasica en 4 tipos basicos:
1. Agente reactivo. Tal vez la manera mas simple de que un agente muestre
un comportamiento reactivo es mediante el uso de reglas del tipo: condi-
cionaccion. En cualquier momento, el agente puede buscar una correspon-
dencia entre la condicion de sus reglas y los datos de entrada obtenidos a
traves de observar el ambiente y en base al resultado ejecutar una accion. Si
mas de una regla satisfacen la condicion, se tiene que seleccionar una de las ac-
ciones resultantes aplicando un mecanismo para la solucion de conictos. Estos
agentes no cuentan con un modelo simbolico de su entorno, tampoco poseen
la capacidad para realizar procesos de razonamiento complejos. La razon de
estas restricciones es con el objetivo de crear agentes compactos, tolerantes a
fallos y exibles. Asimismo, no cuentan con un modelo interno para obtener su
conocimiento, este lo obtienen a traves de interactuar con su entorno. Por lo
tanto, en el dise no de agentes reactivos el interes se centra en incrementar sus
propiedades de interaccion, de tal manera que las acciones sean seleccionadas
como una propiedad emergente. Un agente puramente reactivo no tiene reglas
explcitas. Cualquiera que sea el objetivo alcanzado debe estar implcito en su
comportamiento. Este agente puede carecer de una base de conocimientos en
la que almacene sus observaciones. El ambiente en el cual se situa puede ser su
propio modelo del mundo. En un caso extremo, pudiera no experimentar cam-
bios en su estado interno entre un ciclo y otro. Por ejemplo, el comportamiento
de un agente reactivo podra estar gobernado por una sencilla regla como: si
hay un intruso entonces activa la alarma, sin que tenga alguna meta explcita,
creencia o estado interno. Un buen ejemplo de agentes reactivos son los robots
clasicos, los cuales tienen sensores que les permiten observar su entorno y en
base a lo observado tomar acciones. Algunas caractersticas de estos agentes
son las siguientes: 1) uso limitado de los recursos que utilizan a diferencia
del agente racional que usa recursos practicamente ilimitados, 2) no utiliza
un esquema de representacion formal del conocimiento, en su lugar emplea
reglas, de manera opcional en algunos casos aplica una base de conocimiento
para vericar las condiciones de las reglas, 3) no cuenta con mecanismos de
comunicacion, por lo tanto no es capaz de interactuar con otros agentes, lo cual
indica que no son apropiados para usarse en arquitecturas multiagentes, y
4) no poseen la capacidad de desarrollar planes, esto signica que sus tareas
no pueden ser completamente determinadas [102, 103].
2. Agentes logicos (cognitivos o racionales). Cuando a un agente articial lo
equipan con versiones computacionales de caractersticas cognitivas humanas
48 CAP

ITULO 1. FUNDAMENTOS DE LA INTELIGENCIA ARTIFICIAL (IA)


tales como: m ultiples sentidos, percepcion, varios tipos de memoria, apren-
dizaje, movimiento y emociones, se le llama Agente Cognitivo [100]. Este tipo
de agentes son mas parecidos al humano a diferencia de los clasicos sistemas
de software debido a su habilidad para aprender y manejar nuevas situa-
ciones. Asimismo, muy seguido se les dota de mecanismos para el manejo de
intenciones [4]. Estos agentes se basan en la logica y por consiguiente la toma
de decisiones la manejan como un proceso de deduccion logica. Tienen como
ventajas poseer la claridad semantica y demas aspectos relacionados con la
logica. Sin embargo, tienen la desventaja de no ser apropiados en escenarios
con restricciones temporales (respuestas en tiempo real). Pueden ser utilizados
en ambientes donde una falla o un comportamiento incorrecto resulta negativo
para el mismo. En este modelo, se asume que el estado observado por el agente
esta estructurado por una base de datos representada con formulas de pred-
icados de primer orden. La base de datos contiene la informacion del agente
acerca del entorno, a su vez, el proceso para la toma de decisiones se modela
a traves de un conjunto de reglas de deduccion (reglas de inferencia). De esta
forma, el comportamiento del agente se determina por reglas de deduccion y
una base de datos.
Las representaciones obtenidas a traves de la logica son elegantes y cuentan
con una semantica clara (la semantica del formalismo logico), sin embargo,
presentan las siguientes desventajas:
No son instantaneas. La complejidad computacional inherente a la de-
mostracion de teoremas hace cuestionable si estos agentes puedan operar
ecazmente en entornos con restricciones temporales. La toma de deci-
siones en este tipo de agentes se basa en la suposicion de un entorno sin
variaciones signicativas.
Representacion del entorno. Este tipo de agentes utiliza una repre-
sentacion simbolica del entorno en forma de un conjunto de f ormulas en
un lenguaje de representacion del agente, la cual, para entornos complejos
y dinamicos, este tipo de correlacion no es obvia.
Razonamiento sobre el entorno. La representacion del conocimiento
procedimental simple puede no ser intuitiva y hasta resultar laboriosa en
la logica tradicional. El razonamiento acerca de la informacion temporal
(como cambia una situacion con el tiempo) resulta ser en extremo difcil.
Los siguientes tipos de logicas se utilizan en el dise no de agentes logicos:
i)Proposicional y de predicados, es la mas simple y utilizada de las logicas,
1.4. MODELOS DE AGENTE INTELIGENTE 49
en ella, las formulas se construyen a partir de proposiciones atomicas que ex-
presan hechos atomicos, y conectivas logicas, ii) Modal, se utiliza para darle
signicado a conceptos relacionados con creencia y conocimiento, permite ex-
tender la logica proposicional con los operadores de: posibilidad y necesidad,
iii) Deontica, esta logica permite indicarle a un agente lo que esta obligado a
hacer, para esto, cuenta con un operador de obligatoriedad el cual se indica
a traves del axioma principal, por ejemplo, el agente es obligado a hacer p
solo si no esta obligado a hacer p, iv) Dinamica, en esta logica las acciones
son manejadas como expresiones regulares, donde las acciones atomicas son las
que el agente puede realizar de forma directa, y v) Temporal, permite la in-
corporacion del tiempo en los modelos de agentes, el tiempo puede ser tratado
de diferentes formas: se puede observar como un curso de la historia o varios
posibles cursos de la historia.
3. Agentes BDI (Believe-Desiree-Intention). En la IA un tema de estu-
dio relacionado con la capacidad de razonamiento de los agentes son las de-
nominadas actitudes mentales. Estas actitudes estan relacionadas con la ob-
servacion y deteccion de capacidades ligadas con estados mentales humanos
(conocimiento, creencias, deseos y metas). Estos estados pueden representarse
por medio de actitudes que pueden ser: informativas, de motivacion o sociales.
Las actitudes informativas consideran lo que se debe hacer con la informa-
cion a la cual tienen acceso los agentes, incluyendo la relativa con su entorno.
Entre estas actitudes destacan el conocimiento y las creencias. Las actitudes
de motivacion estan directamente relacionadas con las posibles acciones que
un agente pueda llegar a tomar. Finalmente, las actitudes sociales son exter-
nas y estan relacionadas con los permisos y obligaciones, ya sean de caracter
poltico, moral o racional. El modelo BDI [101] limita estas actitudes mentales
de los agentes a tres [104]: 1) Creencias (believes), conjunto de proposiciones
que el agente acepta como verdaderas, 2) Deseos (desires), tambien llamados
frecuentemente metas u objetivos, representa alg un estado nal deseado, y 3)
Intenciones (intentions), conjunto de acciones planicadas por el agente que
le permiten llegar a un estado deseado.
4. Agentes Deliberativos. Estos agentes se basan en la hipotesis enunciada
por Newell y Simons, seg un la cual un sistema capaz de manipular estructuras
simbolicas puede exhibir una conducta inteligente. El problema a resolver en
principio es como realizar la traduccion del nivel de conocimiento al nivel
simbolico. En esta arquitectura las decisiones se toman aplicando metodos de-
ductivos, tales como: correspondencia de patrones y formalismos logicos. Las
arquitecturas para este tipo de agentes suelen basarse en la teora clasica de
50 CAP

ITULO 1. FUNDAMENTOS DE LA INTELIGENCIA ARTIFICIAL (IA)


planicacion en IA; es decir, dado un estado inicial, un conjunto de planes y un
estado objetivo, la deliberacion del agente consiste en determinar la secuencia
de pasos que debe realizar para permitirle alcanzar sus objetivos. Se pueden
distinguir dos clases de modelos pertenecientes a agentes deliberativos: (a) In-
tencionales, se distinguen por tener la capacidad de razonar sobre sus creencias
e intenciones, y (b) Sociales, se denominan de esta manera a los agentes que
se les agrega un modelo explcito de otros agentes y son capaces de razonar
sobre estos modelos.
Modelos mixtos. Estas arquitecturas pretenden combinar aspectos cogni-
tivos y reactivos, mediante la combinacion de modulos reactivos con modulos
deliberativos. Los modulos reactivos se encargan de procesar las observaciones
que no requieren deliberacion, mientras que los modulos deliberativos determi-
nan que acciones deben realizarse para satisfacer los objetivos locales y coop-
erativos de los agentes. Entre los modelos mixtos mas conocidos se encuentra
el de arquitectura por capas, en el cual la toma de decisiones esta segmentada
en capas, cada una de las cuales trata con el entorno del agente a diferente
nivel de abstraccion. Ya que estos modelos combinan caractersticas de com-
portamientos diferentes, es comprensible que existan subsistemas que maneje
a cada uno de ellos. Por lo tanto, resulta natural una division en capas en la
que cada subsistema pueda interactuar entre s. No existe un lmite en cuanto
al n umero de capas que puedan manejarse, sin embargo, cuantas mas capas
haya, mas util es la topologa de tales modelos por el ujo de informacion y
control que hay entre ellas. Generalmente se distinguen dos tipos de capas: 1)
Horizontales, en donde cada capa de software esta directamente conectada a
las entradas sensoriales y a las salidas actuadoras, por lo que cada capa act ua
como un agente sugiriendo la accion a realizar, y 2) Verticales, donde una capa
se encarga de manipular las entradas sensoriales y salidas actuadoras. Algunos
ejemplos de arquitecturas por capas son: Maquinas de Touring e InterRap. En
este caso, las capas bajas representan comportamientos mas simples los cuales
compiten para su ejecucion. Asimismo, estas capas tienen prioridad sobre las
capas altas. Esta arquitectura se han probado ampliamente (Steels en Mars
Robots) [102].
La mayora de las areas y conceptos mostrados con anterioridad se van a
mostrar con mayor detalle en los siguientes captulos, sin embargo, el concepto
de heurstica no se va a tratar en alguno de los siguientes captulos. Por lo
tanto, este tema se va a explicar con mayor amplitud en la siguiente seccion.
1.5. HEUR

ISTICA 51
1.5. Heurstica
Es bien sabido que el concepto de heurstica ha sido y sigue siendo relevante
para el desarrollo de la IA. Lo que es menos conocido, es el hecho de que
este concepto ha tenido asociado una serie de distintas interpretaciones a lo
largo de la historia. En esta seccion, se van a presentar los diferentes signi-
cados de heurstica considerando los siguientes enfoques: (i) incertidumbre en
las respuestas, (ii) conocimiento incompleto, (iii) mejora del desempe no, y (iv)
orientaci on en la toma de decisiones. De acuerdo con Marc y Pelletier, es
necesario que se tenga una idea clara de este concepto por lo siguiente: (a)
para que los investigadores tengan una base com un para la comparacion de
sus trabajos contra otros aparentemente diferentes, y (b) para que los recien
llegados a este campo tengan un mejor juicio para comparar proyectos que
utilizan heursticas y de esta forma, estar capacitados para poder juzgar que
el exito de tales trabajos se debe realmente al uso de heursticas y no de al-
guna otra tecnica [107]. La palabra heurstica se compone de los terminos:
heuriskein (griego antiguo) y heurisricus (latn), y se puede interpretar como:
averiguar o descubrir [107].
Seg un lo mencionado por Feigenbaum y Feldman en su trabajo escrito en 1963
[108]: una heurstica (regla heurstica, metodo heurstico) es una regla, estrate-
gia, truco, simplicacion o cualquier otro tipo de elemento que limita drasti-
camente la b usqueda de soluciones en problemas con grandes espacios. Las
heursticas no garantizan soluciones optimas; de hecho, no garantizan ninguna
solucion todo lo que puede decirse de una heurstica util, es que ofrece solu-
ciones que la mayora de las veces son sucientes para sus usos.
Esta denicion combina muchas de las caractersticas presentes en la mayora
de las deniciones encontradas al respecto. Contiene los elementos de la fal-
ta de garanta, mecanismo arbitrario, reduccion del esfuerzo, eliminacion de
opciones y de una solucion satisfactoria. Asimismo, Feigenbaum y Feldman
tambien plantean un nuevo elemento: dependencia de dominio. Indican que al-
gunas heursticas son de proposito especial y especcas del dominio, tal como
las aplicadas en el ajedrez, mientras que otras, como las heursticas aplicadas
en la planicacion, se aplican a una clase mucho mas amplia de dominios del
problema. El concepto de heurstica se ha ido transformando desde su intro-
duccion por vez primera en la comunidad de IA a traves de Polya [?]. Polya
fue quien uso por primera vez el termino heurstica en el contexto de logica o
psicologa del descubrimiento. Sus metodos heursticos deban aplicar procesos
de razonamiento utiles, tales como: manera de hacer ciertas preguntas, dibu-
52 CAP

ITULO 1. FUNDAMENTOS DE LA INTELIGENCIA ARTIFICIAL (IA)


jar diagramas, manejar suposiciones, mirar el problema desde una perspectiva
diferente, etc. De alguna manera, estos metodos encuentran una solucion. La
palabra descubrimiento, bajo este concepto se utiliza como un sinonimo de
invencion, y supone una especie de exploracion o tanteo previos a una solu-
cion. Posteriormente, el concepto de heurstica introducido por Polya se ha
reformado. En lugar de una vaga explicacion psicologica de una solucion, se
presenta la idea de una exploracion guiada (basada en una estructura formal)
dentro del espacio de solucion del problema.
En IA, el esfuerzo realizado para introducir nuevas heursticas, se hace con la
nalidad de mejorar el rendimiento de un programa en un dominio espec-
co del problema. En contraste, para Polya la razon para manejar heursticas
era para que los estudiantes de matematicas aprendieran a pensar, es decir, a
adquirir la psicologa necesaria para hacer buenas matematicas. Desde luego,
existe una razon para esta diferencia. En IA, las heursticas casi siempre se
generan de la frustracion al manejar algoritmos exhaustivos, mientras que para
Polya, las tecnicas heursticas deben ser aplicadas cuando se esta trabajando
con un problema completamente desconocido, cuya solucion puede resultar
en una tecnica con solucion algortmica. Es por esta razon, que, algoritmo
y heurstica no son terminos opuestos para Polya, quien considera que sim-
plemente no hay algoritmos para estudiar problemas nuevos por lo que este
analisis debe ser dominio de la heurstica. Los algoritmos, si existen, vienen
despues de que se haya resuelto el problema y analizado la solucion. Por lo
tanto, de acuerdo con Polya, el analisis e invencion de un algoritmo es resul-
tado de los metodos heursticos.
En la decada de 1960, despues que se introdujeron las primeras deniciones
de heurstica en la IA, aparecio otro uso para este concepto derivado de la
frase: b usqueda heurstica. Se hizo tan popular esta acepcion del concepto
que algunos autores (entre ellos, Barr y Feigenbaum, 1981) prerieron usar
el termino heurstica solamente de esta forma. De acuerdo con Newell y
Simon (1972), en 1965 Ernst y Newell introdujeron el concepto: b usqueda
heurstica, simplemente como un intento de formular lo que pareca com un
en muchos de los primeros programas de IA. Posteriormente, en 1969, Ernst y
Newell escribieron lo siguiente acerca de la b usqueda heurstica:
Esta investigacion se enfoca a la construccion de un resolvedor general de
problemas (GPS) por medio de un paradigma general de solucion de proble-
mas: b usqueda heurstica (Newell y Ernst, 1965). De manera simplicada el
paradigma de b usqueda heurstica postula objetos y operadores, donde un op-
1.5. HEUR

ISTICA 53
erador puede aplicarse a un objeto para producir un nuevo objeto o una se nal
que indica su inaplicabilidad. Los operadores son reglas para generar objetos
y denen as un arbol de objetos. ... un metodo para resolver un problema
de b usqueda heurstica es buscar a traves del arbol, denido por la situacion
inicial y los operadores, por una ruta de acceso a la situacion deseada.
Actualmente, es mas com un llamar a la b usqueda heurstica de Ernst y Newell
como: b usqueda en el espacio de estados, y reservar el termino de b usqueda
heurstica, para la b usqueda en el espacio de estados basada en procesos de de-
cision heursticos. En otras palabras, el termino: b usqueda heurstica, como
es usado actualmente, no involucra un uso novedoso del concepto heurstica.
Despues de los inicios de la IA, se han introducido muy pocas deniciones
relacionadas con heurstica, excepto cuando los autores dan una platica a una
audiencia, en ese caso, el termino se dene de una manera supercial, tal como
lo demuestran los siguientes parrafos:
. . . metodos heursticos, es decir, las caractersticas que mejoran la eciencia
para resolver problemas o un rango de capacidad de los sistemas. Estas van
desde trucos ad hoc para un determinado tipo de problemas, a principios muy
generales de asignacion y administracion eciente de recursos [112].
Una heurstica es una regla, estrategia, metodo o truco usado para mejorar
la eciencia de un sistema que intenta descubrir las soluciones de problemas
complejos [6].
Una heurstica, es cualquier estrategia usada para mejorar el rendimiento de
un programa de inteligencia articial. El enfoque de programacion heurstica en
la inteligencia articial es quizas el mas popular por el momento. En contraste
con otros enfoques importantes... la simulacion del pensamiento humano. En
este enfoque, el objetivo es mas para comprender y utilizar la inteligencia hu-
mana que para aplicar cualquier tecnica que funciona [4].
A principios de la decada de 1980 aparecieron mas deniciones relacionadas
con la heurstica, lo cual parecio ser la segunda generaci on de ideas. Desafor-
tunadamente, estos conceptos no fueron denidos y explicados con precision,
una de estas ideas fue propuesta por Albus en 1981, quien dene a las heursti-
cas como: Procedimientos para decidir que estrategias de b usqueda y funciones
de evaluacion hay que aplicar en determinadas situaciones. Otra denicion
fue proporcionada por Pearl en 1984, y dene a las heursticas de la siguiente
forma: Heursticas son criterios, metodos o principios para decidir cual de var-
ios cursos alternativos de accion promete ser el mas ecaz para alcanzar alg un
54 CAP

ITULO 1. FUNDAMENTOS DE LA INTELIGENCIA ARTIFICIAL (IA)


objetivo. Representan compromisos entre dos requisitos: la necesidad de hacer
tales criterios simples y al mismo tiempo, el deseo de verlos discriminar cor-
rectamente entre buenas y malas decisiones. En este sentido, en 1982, Lenat
tiene la siguiente idea de heurstica: Heurstica en retrospectiva: son trozos de
sabidura que, si s olo los hubieramos tenido antes, nos habra l levado a nuestro
estado actual mucho mas rapido. Esto signica que algunos de los cal lejones
sin salida que hemos perseguido se habran evitado, y algunos de los grandes
descubrimientos se habran hecho antes.
Despues de mostrar las diferentes connotaciones para el concepto de heursti-
ca en los ultimos 40 a nos, los autores identican los siguientes puntos de co-
incidencia de los diferentes investigadores al se nalar que un proceso es una
heurstica: (1) incertidumbre en el resultado, (2) base de conocimien-
tos incompleta, (3) mejora del rendimiento, y (4) guiar la toma de
decisiones. A continuacion se va a mostrar el concepto de heurstica con-
siderando cada uno de los puntos de coincidencia.
El papel de la incertidumbre: heurstica versus algoritmos
En varias de las deniciones de heurstica, se ha observado a este concepto
opuesto a terminos como: algortmica, garantizar, y completo. Marc y
Pelletier sostienen que las heursticas existen en un contexto de incertidumbre
subjetiva comparable al exito de sus aplicaciones [107]. Asimismo, coinciden
con Minsky quien menciono que las heursticas son perfectamente compati-
bles con los algoritmos, a un cuando exista un genuino conicto entre estos dos
conceptos. Como se mostro con anterioridad, aunado al concepto de heurstica
esta presente la nocion de algoritmo. El termino algoritmo, tiene muchos
signicados, aunque algunos dudosos por la ambig uedad que han causado var-
ios desacuerdos en su denicion. Si se dene el termino algoritmo como: un
conjunto de reglas (formalmente denidas y con unica interpretacion) que nos
indican en todo momento, de forma precisa como comportarnos, [112, 5],
entonces cualquier procedimiento utilizado para la toma de decisiones es un
algoritmo, as mismo, todas las heursticas implementadas en una computa-
dora y estrictamente formuladas, seran algoritmos. Sin embargo, cuando el
termino heurstica se considera opuesto a algoritmo, a este ultimo, siempre se
le otorga una connotacion mas fuerte la cual incluye la garanta de encontrar
una solucion. Korfhage caracteriza a un algoritmo de la siguiente manera:
a) La aplicacion de un algoritmo a un conjunto de entrada particular o
1.5. HEUR

ISTICA 55
descripcion del problema resulta en una secuencia nita de acciones.
b) La secuencia de acciones tiene una accion inicial unica.
c) Cada accion en la secuencia tiene una unica sucesora.
d) La secuencia naliza ya sea cuando se encuentre la solucion al problema
o cuando una sentencia del mismo sea irresoluble.
Para algunos problemas siempre existe un algoritmo que los resuelva, por ejem-
plo: sumar dos enteros, a estos algoritmos se les conoce como algoritmos
simples. La heurstica ha generado controversia entre algunos investigadores,
ya que unos ven a la heurstica como un concepto opuesto al de algoritmo, otros
como opuesto a solo una clase de algoritmos sobretodo a la de algoritmos
simples, y algunos mas no ven diferencia alguna. Dada esta mezcla de opin-
iones, se podra hacer simplemente como indican Barr y Feigenbaum [110],
es decir, declarar que heurstica es un termino ambiguo y para mantener las
cosas claras, se podran utilizar cada una de sus deniciones. Sin embargo, esta
respuesta no es apropiada, ya que ignora varias razones para creer que existe
una denicion correcta. El hecho de que varios autores de IA han asignado
tanto peso teorico a este concepto, y al hecho de que otros mas, no han dado
sus deniciones al azar, por la conveniencia de utilizar el termino..., se con-
sidera que un analisis adecuado de heurstica debe resultar en una denicion,
la cual debe mostrar una apreciacion adecuada para todas las ideas vincu-
ladas a ella, asimismo, debe ser capaz de explicar cualquier incompatibilidad
entre las mismas. Para aclarar estas ideas con puntos de vista encontrados
hay que precisar algunos aspectos relacionados con algoritmos, por ejemplo,
la siguiente denicion: Un algoritmo asume un problema y un procedimiento
preciso que indica paso a paso como resolverlo o mostrar que no tiene solucion.
En este sentido, si tenemos un problema y un algoritmo para resolverlo, en-
tonces, no deberamos tener ning un problema. As que, por que Newell y otros
no estuvieron satisfechos con el algoritmo de fuerza bruta?, la respuesta es sim-
ple: porque obviamente no resuelve el problema real, es decir, proporciona una
solucion con recursos limitados [111]. Tales recursos incluyen: tiempo, espa-
cio y tipo de procesador, y por parte del usuario, el esfuerzo por utilizar y
recordar como se emplea este algoritmo. Por lo tanto, el verdadero problema
resulta mas complicado que proporcionar pruebas con recursos limitados. Una
vez comprendido que los verdaderos problemas son los problemas practicos,
podemos intentar resolver el conicto entre algoritmo y heurstica: la heurstica
y los algoritmos normalmente no se oponen porque generalmente son aplica-
bles a diferentes clases de problemas. Las heursticas se aplican a problemas
reales o pr acticos mientras los algoritmos se aplican a problemas abstractos o
56 CAP

ITULO 1. FUNDAMENTOS DE LA INTELIGENCIA ARTIFICIAL (IA)


te oricos.
La heurstica nunca estuvo destinada a ser distinguida de los algoritmos ex-
cepto en aquellos casos donde: (a) el algoritmo proporciona una pobre solucion
para un problema practico y (b) el algoritmo pretende garantizar la solucion
a un problema practico. Por lo tanto, Minsky y otros estaban en lo cierto al
indicar que los algoritmos practicos pueden ser heursticas [112].
Slagle a su vez, en su denicion de heurstica, hizo hincapie en la propiedad de
no saber si la siguiente accion era la mejor opcion en el momento actual [113].
Si se conociera esta informacion el programa escogera la mejor accion en cada
paso, entonces claramente un programa con esta caracterstica no sera una
heurstica. Las heursticas son, entre otras cosas, reglas que ofrecen compro-
misos: un peque no costo (con frecuencia es la omision de la garanta) con la
esperanza de una mayor ganancia. Pero si en cada paso sabemos que nuestro
programa se esta desempe nando de forma optima, entonces los compromisos y
expresiones de esperanza quedaran fuera de la cuestion, por lo tanto, no podra
ser un programa heurstico. Por supuesto esto no signica que una estrategia
optima no pueda ser una heurstica, solo que si sabemos que es optima entonces
no puede ser una heurstica. Si mas tarde se descubriera que tal heurstica es
optima, entonces nuestra unica excusa para seguirla llamando heurstica sera
la costumbre, ya que para ese momento todo su caracter habra cambiado.
Esta informacion ha establecido un lmite claro entre estrategias optimas y no
optimas en cuanto a la utilizacion del termino heurstica.
Marc y Pelletier consideran que los comentarios anteriores son sucientes para
establecer una denicion apropiada del termino heurstica. Basado en esto,
sostienen que la heurstica es incompatible con el conocimiento de la toma
de decisiones optimas y que esta es una propiedad esencial de la heurstica.
Las heursticas solo se oponen a aquellos algoritmos que garantizan proveer
una solucion practica a un problema, de ning un modo se oponen a los algorit-
mos que simplemente garantizan una solucion sin garantizar que la misma sea
realizable [107]. Con estos datos se puede entender la tendencia de oponer la
heurstica con los algoritmos. Los algoritmos son frecuentemente asociados con
conanza y ciertas toma de decisiones. Si todo lo que se pretende es una solu-
cion para un problema abstracto, entonces no existe ninguna incertidumbre
acerca de como obtenerla: aplicar un algoritmo. Sin embargo, para un proble-
ma real y practico, la certeza para arrivar a una solucion podra estar ausente,
entonces, incluso un algoritmo puede ser una heurstica.
1.5. HEUR

ISTICA 57
Heurstica basada en conocimiento incompleto
En el extremo opuesto de la toma de decisiones conable se encuentra la toma
de decisiones aleatoria, ciega, e ignorante. En este caso, la heurstica ofrece ori-
entacion, soluciones plausibles, y conjeturas inteligentes que indiquen al menos
una vision parcial de la situacion del problema. Una vision o idea parcial, es
lo que hace a la heurstica de gran interes para la ciencia cognitiva en la IA.
Si se tiene cierta informacion acerca de la estructura del dominio del proble-
ma pero no la suciente como para proporcionar un algoritmo eciente para
resolverlo, entonces, esta informacion se puede utilizar en forma de heurstica
para mejorar el rendimiento de la solucion. Dado que muchos problemas del
mundo real son de esta forma, no es de extra nar que la heurstica haya llegado
a ser tan popular. Lenat menciona lo siguiente en relacion a la aplicabilidad
de la heurstica: En una fase previa (de conocer un dominio), haba muy poco
conocido como para expresarlo con muchas heursticas; mucho mas tarde, el
medio ambiente pudo entenderse lo sucientemente bien como para ser al-
goritmizado; mientras tanto, la b usqueda heurstica es un paradigma util. La
prediccion de eclipses ha pasado a la fase nal de algoritmizacion; el diagnosti-
co medico se encuentra en la etapa intermedia donde la heurstica es util; la
creacion de programas para buscar nuevas representaciones del conocimiento
es a un preheurstico [114].
En base a lo descrito por Lenat se observa una amplia gama de niveles de con-
anza en la toma de decisiones. En un extremo se encuentran los algoritmos
ecientes y procesos de decision que consideramos optimos (garanticen o no
una solucion), y en el otro extremo estan los algoritmos inecientes y proce-
sos poco conables. La heurstica cae en un punto intermedio: son plausibles
sin llegar a ser ciertas. Sin embargo, la ubicacion de un determinado proce-
so en este espectro es relativo a la percepcion que se tenga de los extremos.
Como un elemento basico en la heurstica se puede mencionar el conocimien-
to o percepcion parcial, el cual le ofrece conanza y es su razon de ser. Una
heurstica especca esta representada por un enfoque muy particular; sin una
comprension de alg un aspecto del problema, una estrategia no puede con-
tribuir en lo mas mnimo a su solucion. Es bajo este aspecto de signicado
de heurstica, que Polya, Gelemter, Slagle, y Jackson, basaron sus deniciones
[109, 113]. Asimismo, bajo esta perspectiva, la heurstica puede representar el
conocimiento parcial del dominio de un problema.
Por ejemplo, en logica simbolica sabemos que negar una proposicion negada
equivale a su armacion. Se trata pues, de una parte de conocimiento que nos
indica como se relacionan entre s las formulas logicas. Tambien sabemos que
58 CAP

ITULO 1. FUNDAMENTOS DE LA INTELIGENCIA ARTIFICIAL (IA)


los demostradores de teoremas se pueden estancar cuando tratan con un gran
n umero de formulas complejas, y que una buena parte de las demostraciones
se basan en buscar correspondencias con patrones similares en otras formulas.
Se pueden emplear estos conocimientos para construir una heurstica que sim-
plique la correspondencia de patrones, podra ser algo parecido a: bajo tal
o cual circunstancia eliminar el exceso de negaciones. De esta manera, otra
heurstica se podra apoyar en equivalencias similares (por ejemplo, las expre-
sadas por las reglas de De Morgan) con el n de recomendar la conversion de
formulas a alg un tipo de forma normal.
Como se puede observar, las posibilidades para generar heursticas son practi-
camente ilimitadas. El procedimiento puede ser el siguiente: alguien descubre
algo sobre un problema y dise na una estrategia para aplicar tal informacion.
El metodo as obtenido es plausible y si no tenemos suciente informacion
aceca del problema para asegurar que el metodo es optimo, entonces se puede
considerar una heurstica.
Cuando se analiza el conocimiento se observa que viene en una variedad de for-
mas. Existe por ejemplo, un conocimiento simple que puede ser representado
en terminos simples, un ejemplo de este tipo de conocimiento es la expresion
logica para representar la equivalencia de la negacion de una proposicion ne-
gada. Asimismo, hay conocimientos que no se expresan facilmente y que sin
embargo estan presentes. Por ejemplo, en el programa para jugar damas crea-
do por Samuel [108], el autor empleo en el programa una funcion polinomial
para la evaluacion, la cual inclua caractersticas como: el centro de control,
movimientos permitidos, n umero de cambios forzados, etc., dando origen a una
funcion polinomial con 16 elementos la cual representa un conocimiento de los
elementos del juego, pero hay alguna forma de expresar de manera simple
este conocimiento?. Por un lado sabemos que el conocimiento es muy depen-
diente del programa concreto creado por Samuel as como de las muestras
utilizadas en la prueba. Por lo tanto, se puede argumentar que este programa
en particular expresa solamente el conocimiento acerca de como jugar bien
a las damas. Sin embargo, el conocimiento debe ser universal, es decir, debe
indicarnos, entre otras cosas, que la posicion de cierta cha en el centro es mas
relevante de lo que podramos esperar. Estas observaciones nos sugieren que
algunos conocimientos se conocen previos a sus heursticas mientras otros se
descubren al examinar las heursticas. Por consiguiente, estas dos formas de
conocimiento: conocer los aspectos de un problema (conocimiento factual ), y
saber como usar estos aspectos (conocimiento procedimental ), pueden existir
de forma independiente.
1.5. HEUR

ISTICA 59
Algunos investigadores han reexionado sobre la naturaleza abstracta del conocimien-
to heurstico, por ejemplo, el caso de, moverse desde un estado inicial hasta
un estado nal (objetivo) evitando trayectorias in utiles a traves de vericar
un indicador para saber si se esta acercando o alejando de la meta [115, 108].
Otras reexiones provenientes de Boden [115], Minsky [112], Pearl [172] y Polya
[109], se reeren a la relevancia entre: analogas y modelos. Al respecto mencio-
nan lo siguiente: (i) las analogas pueden ser tan complicadas o a un mas que el
problema original, si existe suciente paralelismo entre ambos casos entonces
es posible transferir tanto el conocimiento como la heurstica basadas en ellos,
ii) los modelos son una forma de analoga, iii) los modelos son representaciones
simplicadas que permiten enfocarnos a un problema o hacer visible algunos
de sus aspectos mas relevantes, iv) los modelos son representaciones compactas
de los aspectos esenciales de un problema y por lo tanto una forma de repre-
sentacion parcial de conocimiento, v) su simplicidad puede facilitar descubrir
nuevos conocimientos los cuales son probablemente los aspectos mas esenciales
del problema.
La heurstica como mejoradora del conocimiento
Las heursticas pueden mejorar el rendimiento de un sistema enfocado a la solu-
cion de problemas. En este sentido, se pueden ver como herramientas usadas
para arreglar o mejorar un sistema, con el n de incrementar su eciencia, es
decir: mayor benecio con menor esfuerzo. Este aspecto puede explicar muchas
de las formas en las que la heurstica se presenta. Sin embargo, no es lo mismo
decir que un dispositivo es util y que a la vez mejora el rendimiento, por ejem-
plo, el volante de un automovil es un accesorio estandar util pero no mejora
el rendimiento del vehculo; el encendido electronico, por otra parte, siendo
una opcion superior a la norma de ignicion electromecanica, puede decirse
que mejora el rendimiento. Al parecer hay dos opiniones distintas en IA: si la
heurstica va a ser un metodo para mejorar el rendimiento, o si simplemente
debe ser util. Minsky y Sampson de manera explcita incluyeron la mejora
del rendimiento en sus deniciones [112, 117]. Es por ellos, que la mejora del
rendimiento se considera una propiedad importante en las heursticas. Asimis-
mo, se incluyen otros investigadores que consideran la reduccion en el esfuerzo
o de la b usqueda como mejora del rendimiento [110, 108, 118].
60 CAP

ITULO 1. FUNDAMENTOS DE LA INTELIGENCIA ARTIFICIAL (IA)


Un segundo grupo de investigadores mencionan que la heurstica no es intro-
ducida para mejorar un sistema, sino, que existe por derecho propio desde
un principio. Para ellos, las heursticas son mecanismos estandares, no car-
actersticas superiores introducidas de manera reciente [115, 119, 172, 109].
Es interesante notar que en este grupo se encuentran los investigadores cuyo
principal interes es el aspecto cognitivo de la IA, es decir, el uso de una com-
putadora para simular la psicologa humana, mientras que en el primer grupo
se encuentran los investigadores que se enfocan en el dise no y creacion de pro-
gramas que realicen tareas tradicionalmente realizadas por humanos (enfoque
tradicional de la IA). Se debe a la forma de manejar el concepto de heurstica
por estos grupos de investigadores, las diferentes interpretaciones que se tienen
del mismo. Ya que, mientras unos la dirigen a la solucion de problemas practi-
cos y orientados a tareas, otros la enfocan hacia la solucion de problemas mas
teoricos y generales.
Sin embargo, se observa que la mayora de los investigadores de la comunidad
de IA emplea el termino heurstica para referirse a un mecanismo aplicado
con el n de mejorar el rendimiento de un sistema. Por lo tanto, la mejora del
rendimiento es una propiedad incluida en la mayora de los usos de la heursti-
ca.
De acuerdo con Marc y Pelletier, existen algunos trabajos de investigacion ex-
perimental en el marco de la IA que no manejan de manera apropiada el uso
de terminos que caracterizan las propiedades asociadas al uso de las supuestas
heursticas que emplean. Por ejemplo, estas propiedades suponen agregar al
sistema algo que no estaba antes, y se lo atribuyen a las heursticas. Asimismo,
dichas propiedades usan los siguientes adjetivos para describir a las heursticas:
practico (como opuesto a teorico), especco del dominio, ad hoc, y emprico,
ademas utilizan como sinonimos de heurstica: truco, parche, y herramienta.
Generalmente, en IA existen trabajos que muestran una forma elegante de
resolver un problema. Sin embargo, cuando dicho trabajo se implementa en
forma de un programa de computadora, usualmente presenta fallas, ocasion-
adas a veces por no poder manejar algunas formulaciones del problema. Con
el n de resolver estas dicultades, el investigador empieza a revisar y mod-
icar su teora para que su rendimiento mejore. De hecho, esto ocurre tan
com unmente en IA que se ha adoptado un termino especial para indicar es-
tas mejoras ad hoc y empricamente introducidas: heurstica. Esta situacion
es justicable, ya que la heurstica carece de la certeza formal y conabilidad
que se le da a un mecanismo de decision derivado formalmente. Asimismo,
1.5. HEUR

ISTICA 61
las heursticas utilizan informacion parcial y partes de ideas para llegar a una
solucion. Su principal justicacion consiste en la manera pr actica para resolver
problemas, y no en la elegancia o adecuacion a la teora subyacente.
Otra situacion muy com un y en la cual un tipo de mejora del rendimien-
to ocurre, es la siguiente: al escribir un esqueleto de programa que incluye
heursticas para un tipo particular de dominio de problema. En este caso, las
heursticas son llamadas ad hoc y empricas, lo cual no es visto de manera
negativa, mas bien de forma positiva, como parte de su propiedad de mejorar
el rendimiento de un sistema. Un gran n umero de sistemas de IA adoptan el
esquema de esqueleto con la nalidad de obtener heursticas. Generalmente,
todos los llamados sistemas experto, son dise nados para facilitar y anexar un
mecanismo con el n de mejorar el rendimiento. Estos sistemas son construidos
de tal forma que la experiencia humana pueda transferirse facilmente a ellos.
Muy seguido tal experiencia esta en forma de heursticas, un ejemplo de esto,
lo ofrece el programa AM creado por Duglas Lenat para descubrir conceptos
matematicos, el cual, en un momento conto con 250 heursticas codicadas
como reglas de produccion [114].
Se ha notado que la mejora del rendimiento es una actividad popular en IA y
como las heursticas son asociadas con esta idea. Cualquier area donde se pue-
da manejar el uso de recursos por una ligera perdida del n umero de problemas
que se puedan resolver o la calidad de las soluciones, es un area potencial para
mejorar su rendimiento aplicando metodos heursticos. Asimismo, si de alguna
manera podemos incrementar los costos de utilizacion de los recursos, a cos-
ta de tener un incremento sustancial en el n umero de problemas que pueden
ser resueltos, o un incremento signicativo en la calidad de las soluciones, en-
tonces este mecanismo calica como heurstica que mejora el rendimiento. En
este sentido la frase mas exacta que abarca todos los casos de una mejora rel-
ativa en costos y benecios es: mejora del rendimiento.
La heurstica como guiadora de decisiones
Las heursticas se han presentado en una variedad de formas: metodos, sugeren-
cias, consejos, principios, reglas de produccion, criterios, programas, estrate-
gias, procedimientos, y simplicaciones. Sin embargo, que tienen en com un
estas formas?, en este apartado se muestra otra propiedad de las heursticas,
la cual tiene que ver con la solucion de un problema a traves de servir como
gua para ir de un estado inicial hasta un estado nal u objetivo.
62 CAP

ITULO 1. FUNDAMENTOS DE LA INTELIGENCIA ARTIFICIAL (IA)


En el perodo inicial de la IA, la heurstica se utilizo para guiar la b usqueda a
traves del espacio del problema. Esto aplica a todos los autores mencionados,
ya que al igual que Polya, Newell y otros, dejaron abierta la posibilidad de que
las heursticas podan ser procesos utiles durante la solucion de un problema.
De hecho, ellos todava las usan para inuir en el orden de desarrollo en la
trayectoria de solucion a lo largo del arbol del subproblema. La importancia
de la heurstica se explica por su efecto en decidir la trayectoria a seguir a
traves del arbol del subproblema.
Gelernter empleo un paradigma similar al de b usqueda en arbol y utiliza una
heurstica para ltrar las opciones de decision menos prometedoras [120]. Tonge
aplico heursticas para simplicar en medida de lo posible el modelo de activi-
dad utilizado para equilibrar las lneas de ensamblaje [121]. Minsky introduce
las heursticas en un contexto de b usqueda donde guan al resolvedor gradual-
mente a una solucion [112]. Feigenbaum y Feldman mencionan la reduccion de
la b usqueda en el espacio de estados y muestran a manera de ejemplo diversas
reglas empricas [108]. Para esto, el solucionador es descrito como un proceso
que intenta una cosa en vez de la otra y de esta manera se conduce por un
camino de solucion diferente.
Durante el auge en el desarrollo de los sistemas expertos, el paradigma de
b usqueda se menciona con menos frecuencia, pero no por eso es menos rele-
vante. Estos sistemas generalmente trabajan en colaboracion con un experto
humano, donde el sistema le puede solicitar informacion tal como: porque se
realizan ciertas pruebas, o porque se descartan ciertas hipotesis. Consideran-
do lo anterior, las heursticas de un sistema experto pueden ser vistas como
una gua para que el solucionador de problemas tome decisiones y conducir
a un diagnostico satisfactorio, ya sea en el area medica (MYCIN), estructura
molecular (DENDRAL), o analisis geologico (PROSPECTOR).
Ademas de estos usos, existe una gama de terminos que evidencian la denicion
de la heurstica como una eleccion que inuencia la solucion de un problema,
tales como: sugerencias, criterio, reglas basicas, principios, maxima, y reglas,
todas ellas son propiedades que controlan la conducta y en el caso de un re-
solvedor de problemas, esta conducta es seleccionada de manera consciente.
Tales conductas pueden surgir en perodos de tiempo y ser manejadas por re-
glas, es decision del solucionador de problemas seguir la conducta seleccionada
o no. Otros nombres que han recibido las heursticas son: ltros, simplicado-
ras, y transformadoras, y como estos nombres indican tienen como proposito,
1.5. HEUR

ISTICA 63
la reestructuracion de un problema o servir como un conjunto de opciones
(para guiar una decision). Servir de apoyo para la toma de decisiones ha sido
un objetivo basico de las heursticas, sin embargo, existen algunas confusiones
con esta tarea. Con respecto a la toma de decisiones, existen maneras difer-
entes en que este concepto es manejado en la literatura. Esto se debe a la
forma erronea en que algunos autores han usado la denicion de heurstica.
Con relacion a la funcion principal de la heurstica, la cual determina la direc-
cion de cualquier actividad, una heurstica puede ser aplicada de forma activa
para decidir cual de varias reglas, sugerencias, movimientos en un juego, o
soluciones, seleccionar. Asimismo, puede ser referida para que de forma pasiva
muestre alguna de las reglas, sugerencia, movimiento en un juego, o solucion,
para ser seleccionada. Estas dos formas en que se presenta la heurstica no
son mutuamente exclusivas, tampoco es necesario que una heurstica deba
pertenecer por lo menos a una de estas categoras. No se puede asegurar que
una de las categoras se aplica mas, por ejemplo, en los sistemas expertos o
en los sistemas de produccion que cuentan con extensas tablas de b usqueda,
donde un elemento supervisor (heurstica gua) es el que decide cual de las
heursticas se va a utilizar. Por lo tanto, debemos concluir que ambos usos son
validos y que ninguno predomina.
La heurstica como elemento que decide la siguiente heurstica en un esquema
jerarquico de toma de decisiones, no indica claramente si es pasivo o activo.
Por ejemplo, la denicion de Slagle requiere que todas las heursticas sean
activas. Sin embargo, esto no siempre se cumple, ya que en algunos casos la
heurstica principal no decide que hacer a continuacion. En un tono similar,
Albus indica que Una heurstica es una estrategia para seleccionar reglas, es
decir, una regla de alto nivel que selecciona reglas de bajo nivel [Albus, 1981].
Aqu nuevamente se ve a las heursticas como parte de un esquema principal
que decide que hacer enseguida. Asimismo, al hablar de b usqueda exhausti-
va, Albus menciona que las heursticas son un conjunto de reglas que deciden
que hipotesis se deben evaluar y en que orden. En este sentido, todas las ex-
presiones declarativas (en oposicion a las procedimentales) de heursticas con
conocimiento de un dominio, tal como en MYCIN: Si se tiene la evidencia
E entonces elegir A con un factor de conanza CF, son heursticas que no
eligen que hacer enseguida. En el caso de MYCIN, un algoritmo modicado
del tipo primero profundidad, es quien hace la eleccion [110].
A este respecto Marc y Pelletier, indican que las heursticas pueden ser mane-
jadas de forma activa en la toma de decisiones, o de forma pasiva mostrando
las diferentes opciones que se pueden usar, y en este sentido algunos autores
64 CAP

ITULO 1. FUNDAMENTOS DE LA INTELIGENCIA ARTIFICIAL (IA)


se equivocan al creer que las heursticas deben escoger el curso a seguir en la
solucion de problemas.
Despues de mostrar las diferentes deniciones para el concepto de heurstica
que se han manejado a traves de los a nos, Marc y Pelletier concluyen con lo
siguiente: Una heurstica en IA es cualquier elemento, ya sea un programa,
regla, parte de conocimiento, etc. El cual, aunque no estemos completamente
seguros de su utilidad para proporcionar una solucion pr actica, tenemos mo-
tivos para pensar que sea util, y que al ser agregado a un sistema de solucion de
problemas se tiene la esperanza que el rendimiento en promedio va a mejorar.
1.6. Ejercicios
a) Crea y justica una denicion para IA. Discuta las deniciones existentes.
b) Mucho del pensamiento occidental tiene que ver con la relacion mente-
cuerpo. son la mente y el cuerpo:
a) Entidades distintas que interact uan, o
b) Es la mente una expresion de procesos fsicos, o
c) Es el cuerpo tan solo una ilusion de la mente racional?
c) Discutir en equipo algunos razonamientos referentes al problema mente-
cuerpo as como su importancia para la IA.
d) Hacer una crtica del trabajo de A. Turing relacionado con programas
inteligentes.
e) Reunirse en equipos y discutan aplicando sus propias ideasel siguiente
tema:criterios para que un programa de computadora sea considerado
inteligente.
f ) Aunque la computacion es una disciplina relativamente nueva, losofos
y matematicos han pensado desde hace miles de a nos los aspectos rela-
cionados con la automatizacion en la solucion de problemas. Describa su
opinion acerca de la importancia de estos aspectos losocos en el dise no
actual de un metodo inteligente para resolver problemas a diferencia
de una solucion automatizada, justique su respuesta.
g) Basandose en las diferencias arquitecturales entre las modernas computa-
doras y el cerebro humano, que tan relevante es la investigacion acerca
de la estructura siologica y funcion de los sistemas biologicos en el dise no
de programas de IA?, justique su respuesta.
1.6. EJERCICIOS 65
h) Seleccione un problema para el cual considere que vale la pena esforzarse
en dise nar la solucion con un sistema experto. Muestre con un poco de de-
talle el problema en cuestion. Basandose en su propia intuici on, Que as-
pectos del problema considera que seran los mas difciles de automatizar?
i) Mencione tres ventajas en el uso de sistemas expertos y disc utalas en
terminos de resultados intelectuales, sociales y nancieros.
j) Discutir lo siguiente: por que es difcil el problema de aprendizaje en las
maquinas?
k) Discuta las dicultades que enfrenta una computadora para comprender
y usar el lenguaje humano.
l ) Considera que existen efectos potencialmente negativos en la sociedad
ocasionados por el desarrollo de tecnologas inteligentes?, justique su
respuesta.
m) Discutir en clase el paradigma de agentes.
n) Discutir en clase tres tecnicas IA para manejar aspectos relacionados con
incertidumbre.
n) Discutir en clase el concepto de heurstica, intente dar un ejemplo de este
termino.
o) Buscar grupos de investigacion en las areas de: robotica, vision articial,
aprendizaje de maquina, y comprension del lenguaje natural. Presentar
en clase lo siguiente en relacion a la b usqueda anterior: (a) donde se
encuentran (b) quienes integran al equipo, (c) que estan haciendo, (d)
cuales son sus proyectos actuales, y (e) presentar uno de sus trabajos
en equipo.
p) Busque datos actuales de los fundadores de la IA moderna.
66 CAP

ITULO 1. FUNDAMENTOS DE LA INTELIGENCIA ARTIFICIAL (IA)


Captulo 2
Tecnicas de B usqueda
La resolucion de problemas se describe a menudo como una b usqueda en un
gran espacio de posibles alternativas. Para resolver exitosamente un problema
se requiere explorar este espacio de forma ecaz y reducirlo a proporciones
manejables. Actualmente las computadoras a un no tienen la capacidad para
reducir automaticamente los problemas a proporciones manejables, es por ello
que los humanos deben de caracterizar y describir a estos problemas y pro-
poner estrategias para encontrar su solucion. En algunos tipos de problemas,
lo importante es encontrar una solucion aunque no sea la mejor debe ser una
solucion aceptable. En otros casos es necesario encontrar el camino que nos
lleva a esa solucion. De manera general, cualquiera que sea la estrategia de
b usqueda que se utilice el objetivo consiste en tratar de resolver problemas.
La resolucion de problemas es fundamental para la mayora de las aplicaciones
de IA. De hecho, la capacidad de resolver problemas suele usarse como una
medida de la inteligencia tanto para el ser humano como para la computadora.
Durante el proceso de solucion de problemas se requiere una forma de represen-
tarlo, as como de algoritmos que muestren soluciones mediante la aplicacion
de estrategias. De manera general se pueden distinguir dos tipos de problemas:
a) Los que se resuelven aplicando algoritmos simples. Existen problemas
tales como: (a) calcular el seno de un angulo, (b) obtener la raz
cuadrada de un n umero real, y (c) calcular el volumen de un cuer-
po geometrico, los cuales se caracterizan porque se resuelven aplicando
alg un tipo de procedimiento determinista y su solucion esta garantizada.
Resulta usualmente sencillo representar estos metodos matematicos a un
algoritmo computacional que pueda ser ejecutado por una computadora.
b) Problemas que se resuelven aplicando mecanismos de b usqueda. La may-
ora de los problemas del mundo real caen dentro de esta categora y
67
68 CAP

ITULO 2. T

ECNICAS DE B

USQUEDA
encontrarles una solucion satisfactoria no resulta trivial. El estudio y de-
sarrollo de metodos para resolver este tipo de problemas es de lo que se
ocupa la IA.
En este captulo se van a mostrar algunos de los principales enfoques que se
utilizan para la solucion de problemas a traves de la b usqueda.
2.1. Solucion de problemas con b usqueda
La experiencia com un nos indica que un problema de b usqueda esta asociado
con dos aspectos importantes: (1) Que buscar?, y (2) Donde buscar?.
Al primer aspecto se le identica generalmente como la clave de la b usqueda,
mientras que al segundo se le conoce como el espacio de b usqueda. En IA,
al espacio de b usqueda se le reere como una coleccion de estados conocido
como el espacio de estados. A diferencia de un espacio de b usqueda com un, el
espacio de estados en la mayora de los problemas de IA no es completamente
conocido antes de resolver el problema. De tal manera que, resolver un prob-
lema en IA se estructura en dos etapas: (1) generar el espacio de estados, y
(2) buscar el estado deseado dentro de este espacio. Sin embargo, ya que el
espacio de estados completo para un problema puede resultar muy extenso, la
generacion previa de este espacio antes de iniciar la b usqueda puede causar un
problema de almacenamiento signicativo dejando muy poco espacio para la
parte relacionada con la b usqueda. Para resolver este problema, el espacio de
estados se genera (expande) por etapas y el estado deseado (estado objetivo o
estado meta) se busca en el espacio de estados generado en cada etapa. De-
pendiendo de la metodologa utilizada en la generacion (expansion) del espacio
de estados y de la forma en que estos estados son visitados, los problemas de
b usqueda son conocidos con nombres diferentes. Por ejemplo, si el espacio de
estados toma la forma de un arbol y la b usqueda se realiza a lo largo de cada
rama hasta llegar a las hojas (nal de la rama), este metodo recibe el nombre
de: b usqueda primero en profundidad. Asimismo, la b usqueda puede tambien
realizarse a traves de recorrer varias ramas del mismo nivel, en este caso al
proceso de b usqueda se le conoce como: b usqueda en amplitud.
Por otro lado, y dependiendo de la forma de recorrer el arbol el proceso de
b usqueda puede ser de dos tipos: 1) determinista, y 2) no determinista. Se dice
que una b usqueda es determinista, cuando se conoce el orden en que se deben
visitar los nodos de un arbol que representa el espacio de b usqueda. Cuando no
se sabe con precision que nodo del arbol es el que se debe visitar a continuacion
en un momento determinado sin examinar en detalle los datos arrojados por
2.1. SOLUCI

ON DE PROBLEMAS CON B

USQUEDA 69
Figura 2.1: Plano de la casa del problema de las llaves perdidas.
el algoritmo tenemos una b usqueda del tipo no determinista. La mayora de
los problemas de b usqueda en IA son del tipo no determinista. Por ejemplo
1
,
imagine que ha perdido las llaves de su coche. Sabe que estan en alg un lugar
de la casa (ver Figura 2.1), la X indica que usted esta en la puerta principal
punto de partida. Al empezar la b usqueda primero se dirige a la sala, luego va
por el salon hacia el primer dormitorio, despues vuelve al salon y va al segundo
dormitorio, regresa nuevamente al salon para ir al dormitorio principal. Como
a un no ha encontrado las llaves, vuelve hacia atras pasando por la sala hacia la
cocina, donde encontrara sus llaves. En este ejemplo, el estado deseado (estado
objetivo) del problema consiste en: encontrar las llaves del coche. Asimismo,
y tomando en consideracion los posibles sitios de la casa donde buscar las llaves
se traza una trayectoria supuesta (Ver Figura 2.2). Resulta comprensible que
la trayectoria mencionada con anterioridad pudo haber sido distinta, es decir,
los estados visitados pudieron haber seguido un orden diferente.
La Figura 2.2 es un grafo que representa el espacio de b usqueda del problema
mencionado. El hecho de que se pueda representar la solucion a esta clase de
problemas en forma de grafos es importante ya que ofrece una forma graca
para observar como funcionan las diferentes tecnicas de b usqueda.
1
Ejemplo tomado de las Notas del Curso: Inteligencia Articial Unidad III: Solucion de prob-
lemas por b usqueda, realizado por el M. en IA Daniel Alejandro Garca Lopez, 19 de enero de
2009.
70 CAP

ITULO 2. T

ECNICAS DE B

USQUEDA
Figura 2.2: Grafo que describe la trayectoria en el problema de las llaves perdidas.
Tal como se mostro en el ejemplo anterior, se observa que la b usqueda de
soluciones en IA diere de la b usqueda convencional sobre estructuras de datos
(por ejemplo, buscar un nombre y direccion en un registro), esencialmente en
que se busca en un espacio de posibles soluciones todos los sitios posibles
de la casa donde puedan estar las llaves, no en una pieza de dato particular.
En este sentido, lo que se intenta es buscar una trayectoria que conecte la
descripcion inicial (estado inicial ) del problema estamos en la puerta de la
casa y sin las llaves del coche con una descripcion del estado deseado para
el problema encontrar las llaves del coche, es decir: solucion del problema.
La especicacion de la trayectoria que nos conduce de un estado inicial hacia
un estado objetivo, representa los pasos en la solucion del problema.
Existen diferentes estrategias que se pueden aplicar para realizar una b usque-
da, usualmente caen dentro de algunas de las siguientes opciones: (a) aleatoria,
(b) a ciegas, y (c) dirigida o informada, cada una posee sus propias carac-
tersticas. A continuacion se mostrara un ejemplo con el n de ilustrar estas
alternativas. Suponga que se encuentra en la entrada sur de la Ciudad de
Mexico, sin un mapa y no habla espa nol, Como le hara para llegar a la Torre
Latinoamericana?. En este caso, el estado inicial es: entrada sur de la Ciudad
de Mexico, mientras que el estado deseado u objetivo es: l legar a la Torre Lati-
noamericana. La b usqueda de la solucion aplicando las opciones mencionadas
seran de la siguiente manera:
B usqueda aleatoria. En este caso se puede iniciar con elegir una calle de
manera aleatoria, esperando que en alg un momento lo conduzca a su destino.
Esta forma de iniciar la b usqueda puede llevarlo a encontrar la torre, pero
tambien puede requerir de una cantidad innita de tiempo por la forma arbi-
traria en la cual se esta seleccionando la ruta (el mismo camino puede tomarse
m ultiple veces).
2.1. SOLUCI

ON DE PROBLEMAS CON B

USQUEDA 71
B usqueda a ciegas. Esta estrategia, al igual que la anterior no utiliza alg un
tipo de conocimiento para determinar cuan cerca o lejos se esta del objetivo
y de esta forma corregir la trayectoria. Esta estrategia consiste en seleccionar
cada una de las calles de inicio a n. Cuando se alcanza el nal de una calle,
se busca una calle paralela y se sigue en direccion opuesta sin importar si nos
acercamos o alejamos del objetivo. Eventualmente, esta variante considerara
todas las posiciones de nuestro espacio del problema.
B usqueda dirigida o informada. A diferencia de las alternativas de b usque-
da anteriores, en este caso se puede usar el conocimiento disponible acerca del
problema con el n de ayudar en la solucion y mejorar la eciencia de la
b usqueda. Suponiendo que el extremo superior de la torre puede ser visto des-
de cualquier lugar de la Ciudad de Mexico, se puede utilizar esa informacion
para seleccionar la ruta que le indique conducirlo en esa direccion. Es hacia esta
estrategia de b usqueda en la cual se enfocan la mayora de las investigaciones
relacionadas con este topico.
2.1.1. Terminos relacionados con b usqueda
Uno de los aspectos mas importantes de la b usqueda tiene que ver con la no-
cion de estado. Un estado es la representacion de un problema en un instante
dado. Para denir el espacio de estados o espacio de b usqueda no es necesario
hacer una enumeracion exhaustiva de todos los estado validos, sino que es posi-
ble denirlo de manera mas general. El estado inicial consiste en uno o varios
estados en los que puede comenzar el problema. El estado objetivo o estado
meta consiste en uno o varios estados nales que se consideran una solucion
aceptable. Las reglas describen las acciones u operadores que permiten ir de
un estado a otro. Se puede ver a una regla como una expresion compuesta por
dos partes: izquierda y derecha. La parte izquierda determina la aplicabilidad
de la regla, es decir, indica el estado o los estados posibles de un sistema a
los que puede aplicarse la regla, en tanto, la parte derecha describe la op-
eracion que se lleva a cabo cuando se aplica la regla (accion). En un problema
de b usqueda resulta relevante determinar los siguientes elementos: espacio de
estados, estado inicial, estado objetivo o estado nal, y reglas. Con el n de
ilustrar y claricar los elementos anteriores me voy a referir al juego del ajedrez:
Espacio de estados. Este elemento contiene todas las conguraciones posi-
bles de los objetos relevantes a un problema, en algunos casos se incluyen
tambien los estados imposibles. En el caso del ajedrez, el espacio de estados se
72 CAP

ITULO 2. T

ECNICAS DE B

USQUEDA
forma por la totalidad de combinaciones en que se puede encontrar el tablero
en un momento dado.
Estado Inicial. El estado inicial, indica la situacion inicial de uno o mas esta-
dos a partir de la cual la solucion del problema puede comenzar. En el ejemplo
del problema de jugar ajedrez, este estado se determina por la disposicion de
las piezas en el tablero al empezar el juego.
Estado objetivo o estado nal. La especicacion de uno o mas estados que
representan una solucion aceptable al problema en cuestion se les conoce como
estado objetivo o nal. En el caso del ajedrez, es cualquier conguracion del
tablero en la que el adversario no puede realizar ning un movimiento permitido
y su rey este amenazado.
Reglas. Las reglas describen el conjunto de acciones u operadores disponibles,
las cuales, al ser aplicadas permiten pasar de un estado a otro. En el ejemplo del
ajedrez, las reglas son los movimientos legales que pueden describirse mediante
una parte patron para ser contrastado con la posicion actual del tablero, y
otra parte que describe el cambio que debe producirse en el tablero. Dado que
escribir todas las posiciones del tablero como una regla especca en la cual se
asocien los movimientos permitidos es una tarea complicada, las reglas deben
escribirse de la manera mas general posible.
Solucion. Es una trayectoria que parte de un estado inicial hasta un estado
nal. Esta trayectoria se determina al ir aplicando de manera sucesiva las
reglas hacia el conjunto de estados en un momento dado. Para el ejemplo
que estamos presentando, esta trayectoria se describe como el conjunto de
movimientos legales que nos conduce hasta un estado nal.
Ademas de los elementos descritos que forman parte de todo proceso de b usque-
da, existen otros relacionados con las estrategias utilizadas en el proceso. Como
ya se menciono con anterioridad, la palabra b usqueda en IA se reere a en-
contrar la solucion de un problema dentro de su espacio, para ello es necesario
que la b usqueda sea guiada por una estrategia, la cual a su vez se encarga de
denir el orden en el que los nodos de un grafo, que representa el problema, van
a ser visitados. Usualmente las estrategias de b usqueda se eval uan de acuerdo
con criterios de rendimiento y complejidad.
Rendimiento y complejidad del algoritmo. De manera ideal, se busca
una medida com un con la nalidad de comparar y seleccionar el algoritmo
mas apropiado para una situacion determinada. El rendimiento es uno de ls
factores que mas se considera al momento de seleccionarlo. El rendimiento de
un algoritmo, es un aspecto que depende tanto de factores internos (tiempo de
ejecucion, espacio de memoria requerido durante su ejecuci on) como externos
2.1. SOLUCI

ON DE PROBLEMAS CON B

USQUEDA 73
(tama no de los datos de entrada, caractersticas de la computadora, calidad
del compilador). El comportamiento de los factores externos e internos con-
ducen generalmente a un compromiso que determinan en ultima instancia la
eleccion de un algoritmo. Asimismo, la complejidad, la cual es una medida
del rendimiento de un algoritmo (usualmente relacionada con el tiempo de
ejecucion), es otro elemento relevante en la eleccion.
Complejidad computacional. La complejidad computacional es una me-
dida de los recursos utilizados por un algoritmo, principalmente: espacio y
tiempo. Si A es un algoritmo que resuelve el problema de decision f, entonces
el tiempo de ejecucion de A viene determinado por el n umero de pasos realiza-
dos para una entrada de longitud n. A su vez, la complejidad temporal T(n)
de un problema de decision f, esta determinada por el tiempo de ejecucion del
mejor algoritmo A que resuelve a f. La complejidad espacial S(n) relaciona-
da con un problema de decision f, se determina por la cantidad de memoria
utilizada por el mejor algoritmo A que resuelve a f.
Otro aspecto importante relacionado con los algoritmos consiste en la notacion
utilizada para describirlos, tal como la notacion Big-O.
Notacion BigO. Esta notacion proporciona una medida aproximada
de la eciencia obtenida durante la ejecucion de un algoritmo. Generalmente
indica el tiempo o la memoria requerida durante la solucion de un problema
de longitud n. La letra O indica el orden de magnitud de las operaciones real-
izadas o el espacio utilizado durante la ejecucion. Si un algoritmo A requiere
un tiempo proporcional a f(n) a esta funcion se le conoce como la tasa de
crecimiento del algoritmo para resolver un problema de decision f, entonces
se dice que este algoritmo es de orden f(n) y se denota como O(f(n)). En
este sentido, si el mencionado algoritmo requiere tiempos de ejecucion propor-
cionales a n
1
y n
2
para resolver un problema, entonces el orden del algoritmo
se indica respectivamente como O(n
1
) y O(n
2
). De esta manera, si se determi-
na que la complejidad de un algoritmo es O(n), esto signica que su tiempo
de ejecucion t es directamente proporcional a n, usualmente este aspecto se
representa como t = kn, donde k es una constante de proporcionalidad. En-
seguida se muestra un ejemplo para claricar el aspecto de notacion.
Ejemplo. Determine la notacion Big O para el siguiente algoritmo unidi-
mensional: Calcular la suma de los n elementos almacenados en un arreglo
de n umeros enteros a[0, 1, . . . , n 1].
El algoritmo se describe en la Tabla 2.1, se observa que el n umero total de
74 CAP

ITULO 2. T

ECNICAS DE B

USQUEDA
Cuadro 2.1: Calculo de la complejidad de un algoritmo unidimensional (1 D).
Lnea Instrucciones Pasos de ejecuci on
1 sum = 0 1
2 for (i=0; in; i++) n+1
3 sum+=a[i] n
4 print sum 1
pasos de ejecucion es de 2n + 3, la notacion Big O es dominada por el
primer termino el de orden mayor, en este caso n, por lo que ignorando las
constantes que aparecen en el termino, se puede determinar que la notacion
Big O del algoritmo es O(n).
Una vez que se conocen los elementos que describen a un problema de b usque-
da, el paso siguiente consiste en caracterizar a dichos elementos para formular
a un problema de esta manera.
2.1.2. Formulacion de un problema de b usqueda
El primer paso para dise nar un programa que resuelva un problema relaciona-
do con b usqueda, consiste en crear una descripcion formal y manejable del
propio problema. Sera adecuado contar con programas que produzcan de-
scripciones formales a partir de descripciones informales, proceso denominado
operacionalizacion. Dado que actualmente no se cuenta con estos programas
este proceso debe hacerse manualmente. Existen algunos problemas, los cuales
debido a su estructura y descripcion son faciles de especicar (por ejemplo:
el ajedrez, las torres de Hanoi). Sin embargo, existen otros problemas (prin-
cipalmente relacionados con el mundo real) que no resultan tan simples de
especicar, por ejemplo: la comprension del lenguaje humano.
Ya sea que se trate de un problema de uno u otro tipo, para la descripcion
formal del mismo se deben denir los siguientes elementos:
Espacio de estados validos.
Estado inicial del problema.
2.1. SOLUCI

ON DE PROBLEMAS CON B

USQUEDA 75
Estado objetivo o nal. Descrito por un conjunto de metas (objetivos)
que cumplen los requisitos sucientes para ser consideradas soluciones
aceptables.
Reglas que describan las acciones (operadores). Son un conjunto de oper-
adores que denen las operaciones permitidas entre estados. En el espacio
de estados, no todas las operaciones denidas van a ser aplicables siem-
pre. As, en un momento dado, el conjunto de estados que representa
la situacion actual del problema es quien determina el subconjunto de
operadores aplicables (o relevantes), del conjunto de operadores pre-
viamente denido.
Una vez que se tienen denidos estos elementos, el problema se resuelve apli-
cando las reglas descritas en combinacion con una estrategia de control ade-
cuada. La idea consiste en encontrar una trayectoria que permita enlazar el
estado inicial con el estado nal. A este proceso se le describe formalmente
como b usqueda. La representacion de un problema empleando los elementos
anteriores forma parte de la mayora de los metodos de Inteligencia Articial.
La estructura formada con estos elementos corresponde con la descrita para la
resolucion de problemas debido a los siguientes aspectos: (a) Permite denir
formalmente el problema mediante la necesidad de convertir una situacion
dada en una situacion deseada a traves de un conjunto de operaciones permi-
tidas, y (b) Permite denir el proceso de resolucion de un problema como una
combinacion de tecnicas conocidas y b usqueda.
El ejemplo del ajedrez mostro estos elementos. A continuacion se va a mostrar
otro ejemplo, en este caso me voy a basar en el juego conocido como: 8-puzzle
(ver Figura 2.3). El 8-puzzle es un tablero de 3 3 que esta constituido por
ocho chas numeradas (del 1 al 8) y un hueco vaco que permite llevar a cabo
los movimientos de las chas para alcanzar el objetivo (Ver Figura 2.3). Se pre-
tende que, partiendo de un estado inicial, es decir, una situacion determinada
del tablero (Figura 2.3(a)) se llegue con un mnimo de movimientos al estado
nal (Figura 2.3(b)). En este caso la regla del juego para realizar movimientos
se nala que, en cada movimiento, se permite desplazar una unica cha y solo
se autorizan aquellos movimientos realizados entre casillas que cumplan las
siguientes restricciones:
a) Las casillas deben ser adyacentes.
b) Las casillas deben estar en la misma la o en la misma columna, es decir,
ser ortogonales.
c) La casilla destino debe estar vaca.
76 CAP

ITULO 2. T

ECNICAS DE B

USQUEDA
Figura 2.3: Ilustracion del juego conocido como 8-puzzle: (a) estado inicial, (b) estado
meta.
Los elementos que permiten caracterizar a este juego quedan denidos de la
siguiente manera:
Espacio de estados. El espacio de estados se representa por el n umero de
conguraciones posibles de las 8 teclas en el tablero. Por ejemplo, en la Figura
2.3(a) se muestra una de estas conguraciones. El n umero total de las posi-
bles combinaciones formadas por las teclas en el tablero forman el espacio de
estados, que en este caso sera igual a 9! (nueve factorial).
Estado inicial. Cualquier conguracion presente en el tablero al momento de
iniciar los movimientos, por ejemplo, la que se muestra en la Figura 2.3(a).
Estado nal. Las teclas en un orden especco (Figura 2.3(b)).
Accion. Es el conjunto de movimientos validos que se pueden realizar con las
teclas respetando ciertas reglas, en este caso los movimientos permitidos son
los siguientes: Mover la tecla en blanco, mover la tecla hacia la izquierda, hacia
la derecha, hacia arriba y hacia abajo.
Solucion. Se representa en este caso por la secuencia de movimientos partien-
do de un estado inicial hasta llegar al estado nal, en este proceso se busca en
todo momento optimizar la secuencia de movimientos.
2.2. Espacio de estados
Como se indico en la seccion anterior, el espacio de estados es una descripcion
formal del problema de b usqueda constituido por un conjunto de estados ini-
2.2. ESPACIO DE ESTADOS 77
ciales, un conjunto de operadores validos, un conjunto de metas y un conjunto
de reglas.
La identicacion del espacio de estados es importante, ya que permite de-
scribir formalmente un problema como un conjunto de transformaciones, con
el n de transitar de una conguracion inicial hasta una conguracion deseada
mediante la aplicacion de un conjunto de operaciones permitidas. De manera
mas especca, el espacio de estados permite analizar el proceso de resolver un
problema en base a la aplicacion de:
(a) Un conjunto de reglas conocidas, cada una de ellas denida como un paso
simple en el espacio de estados, y
(b) Un proceso de b usqueda o estrategia general de exploracion del espacio de
estados.
Descripcion formal del espacio de estados. Si I dene al conjunto de
estados iniciales, tal que I = i
1
, i
2
, ..., i
n
, O dene al conjunto de operadores
potencialmente utiles, tal que O = o
1
, o
2
, ..., o
m
, y M indica al conjunto de
metas o estados nales, tal que M = m
1
, m
2
, ..., m
t
. La b usqueda se dene co-
mo el proceso de exploracion del espacio de estados, de tal forma que produce
O : (I M), expresion que podemos interpretar como una evolucion desde
los estados iniciales hasta los estados nales obtenida tras la aplicacion de un
conjunto de operadores. En este mismo contexto, una transicion simple en el
espacio de estados puede representarse como:
o
x
: (i
z
i
w
), con i
z
, i
w
I, o
x
O
Ademas, si i
w
M, entonces i
w
representa una solucion aceptable para el
problema en cuestion. Con el n de determinar si un estado generado se trata
o no de un estado deseado, se aplica La llamada prueba de meta o test de real-
izacion. Es conveniente mencionar que cualquier estado alcanzado durante la
b usqueda y que no pertenezca al conjunto de metas se puede considerar como
un nuevo estado inicial del problema. Este formalismo de resolucion normal-
mente se traduce en la creacion de programas menos ecientes que los conven-
cionales, pero, mucho mas exibles y generales. En cualquier caso, la resolucion
de problemas en inteligencia articial requiere siempre una descripcion formal
y manejable del problema. En otras palabras, para abordar un problema des-
de la perspectiva de la IA se tiene que elaborar un modelo computacional del
78 CAP

ITULO 2. T

ECNICAS DE B

USQUEDA
universo de discurso o dominio del problema
2
nilson1. El espacio de estados,
aunque imprescindible para la representacion formal de un problema de IA,
solo nos proporciona lo que podramos llamar el soporte fsico del dominio.
El aspecto dinamico, necesario para la obtencion de soluciones, se materializa
a traves de los llamados procesos de b usqueda, los cuales basicamente son
los mecanismos generales para la exploracion del espacio de estados.
El concepto de b usqueda estantimamente ligado a la aplicacion de operadores
relevantes. Mas generalmente, la b usqueda resulta similar a los procesos de
control que guan la ejecucion de un programa de IA, seg un los cuales, el sis-
tema debe de ser capaz en todo momento de decidir cual sera su proximo
movimiento dentro del espacio de estados. Conviene que la b usqueda sea sis-
tematica (para evitar dar rodeos innecesarios), y que la aplicacion de cada
operador provoque un movimiento que genere la transicion a un estado nuevo
nilson2. Para ilustrar estas ideas, se mostrara un ejemplo conocido como el
problema de las dos jarras de vino, el cual se describe como sigue nilson2:
Se tienen dos jarras de vino vacas, una de cuatro litros de capacidad y otra
de tres. Ninguna de el las tiene marcas de medici on. Asimismo, se tiene una
bomba conectada a un dep osito con vino suciente que permite l lenar las jarras.
Con las jarras se pueden realizar las siguientes acciones: llenarlas, vaciarlas
y traspasar el contenido de una jarra a otra. En este problema se busca lo
siguiente: Como se puede tener exactamente dos litros de vino en la jarra de
cuatro litros de capacidad?
Se va a describir la solucion al problema mencionado como uno de b usqueda,
por lo tanto, su representacion consiste de los siguientes elementos:
Espacio de Estados. En este caso, el espacio de estados va estar formado por
el conjunto de pares ordenados (x, y), de forma que x = (0, ..., 4), y = (0, ..., 3),
donde X representa el n umero de litros de vino que hay en la jarra de 4 litros
de capacidad y Y el n umero de litros de vino que hay en la jarra de 3 litros de
capacidad. En base a lo anterior, el espacio de estados del problema esta for-
mado por: (0,0), (0,1), (0,2), (0,3), (1,0), (1,1), (1,2), (1,3), (2,0), (2,1), (2,2),
(2,3), (3,0), (3,1), (3,2), (3,3), (4,0), (4,1), (4,2), (4,3).
Estado inicial (I): (0, 0)
2
Los conceptos de universo de discurso y dominio del problema son practicamente equiva-
lentes y se reeren a un determinado ambito de aplicaci on (por ejemplo: el dominio de la Medicina)
2.2. ESPACIO DE ESTADOS 79
Estado nal (M): (2, Y ), Y [0,..,3]
Conjunto de acciones (O):
Op1 = Llenar X,
Op2 = Llenar Y ,
Op3 = Vaciar X,
Op4 = Vaciar Y ,
Op5 = Vaciar X en Y
Op6 = Vaciar Y en X,
Op7 = Llenar X con Y
Op8 = Llenar Y con X
Reglas (condiciones para realizar cada accion):
Op1 X ,= 4
Op2 Y ,= 3
Op3 X ,= 0
Op4 Y ,= 0
Op5 X ,= 0 Y ,= 3 X +Y 3
Op6 X ,= 4 Y ,= 0 X +Y 4
Op7 X ,= 4 Y ,= 0 X +Y 4
Op8 X ,= 0 Y ,= 3 X +Y 3
Con estos elementos se tiene la representacion del problema para ser manejado
como una b usqueda. El paso siguiente, es aplicar alguna de las tecnicas de b usqueda
existentes de tal forma que nos permita resolverlo. Por el momento, solamente se va
a comentar la forma de operar de algunas estrategias donde se observa la generacion
de nuevos estados.
Estrategia 1. Se puede considerar como una estrategia inicial la eleccion de oper-
adores (acciones) de acuerdo a un orden secuencial, vericando en todo momento
que se cumplan las condiciones para aplicarlos. De acuerdo con esta estrategia, el
primer estado que se considera es el estado inicial (0,0) y el primer operador aplica-
ble es Op1. La aplicacion de Op1 al estado inicial nos conduce a un nuevo estado,
en este caso: (4,0), sobre el que se puede aplicar Op2 (Op1 ya no puede ser aplicado
puesto que la jarra X esta llena). La aplicacion de Op2 conduce el proceso a un
nuevo estado: (4,3), sobre el que se puede aplicar la accion Op3 la cual conduce al
estado (0,3). En este estado, s es posible aplicar nuevamente Op1, el cual vuelve a
generar el estado (4,3). En este caso nos damos cuenta que el proceso se encuentra
80 CAP

ITULO 2. T

ECNICAS DE B

USQUEDA
en un ciclo. Ante esta situacion, el proceso puede continuar de manera indenida en
el ciclo al aplicar los operadores Op1 y Op3, con lo cual generara respectivamnete
los estados (4,3) y (0,3). La secuencia de estados generados se observara como sigue:
(0,0)
Op1
(4, 0)
Op2
(4, 3)
Op3
(0, 3)
Op1
(4, 3)
Op3
...
Esta estrategia de b usqueda es sistematica, pero no observa la condicion de generar
nuevos estados. Ademas, hay operadores cuya aplicacion se repite, lo cual no es de-
seable. Por lo tanto, se tiene que buscar una nueva estrategia que trate de solucionar
los inconvenientes encontrados.
Estrategia 2. Esta estrategia intenta corregir los errores encontrados en la Estrate-
gia 1. Por lo tanto, se trata de evitar la aplicacion repetitiva de operadores. La nueva
estrategia podra seguir el siguiente esquema:
Seleccionar los operadores que veriquen las precondiciones del estado
actual.
Descartar aquellos operadores que ya han sido aplicados.
Aplicar el primero de los operadores supervivientes.
Se debe notar que esta estrategia obliga a denir estructuras adicionales que per-
miten vericar si un operador ya ha sido aplicado. La aplicaci on de esta estrategia
genera la siguiente secuencia de estados:
(0, 0)
Op1
(4, 0)
Op2
(4, 3)
Op3
(0, 3)
Op1
(0, 0)
Se observa al aplicar esta estrategia, que la b usqueda se detiene sin haber encontra-
do una solucion. No es posible aplicar mas operadores puesto que Op1, Op2, Op3
y Op4 ya han sido aplicados, y Op5, Op6, Op7 y Op8 no cumplen con las restric-
ciones impuestas por el estado actual. Ademas, todava no se ha conseguido evitar
la generacion de estados ya generados. Por lo tanto, se requiere una nueva estrategia.
Estrategia 3. Al utilizar esta estrategia, se trata de evitar de forma explcita los
inconvenientes observados al aplicar la primera estrategia. Para este n, se denira el
siguiente esquema:
Seleccionar los operadores que veriquen las condiciones del estado actual.
2.2. ESPACIO DE ESTADOS 81
Descartar aquellos operadores que ya hayan sido aplicados.
Descartar aquellos operadores cuya aplicacion no genere un estado nuevo.
Aplicar el primero de los operadores supervivientes.
En este caso, independientemente de saber que operadores se han aplicado se debe
comprobar si un estado es nuevo o no. La secuencia de estados que resulta de aplicar
esta estrategia es la siguiente:
(0, 0)
Op1
(4, 0)
Op2
(4, 3)
Op3
(0, 3)
Op6
(3, 0)
Se observa que el proceso inicia con la aplicacion de los operadores Op1, Op2 y Op3
lo cual conduce al estado (3,0). Al llegar al estado (3, 0), el proceso nuevamente se
detiene ya que los operadores Op1, Op2, Op3 y Op6 ya han sido aplicados, y los
operadores Op4, Op7 y Op8 no pueden aplicarse porque no verican las condiciones
del estado actual. El operador Op5, que todava no ha sido aplicado, y que verica
las precondiciones del estado actual no puede ser ejecutado porque el esquema de
control prohbe la utilizacion de operadores que generen estados ya existentes en la
secuencia (por ejemplo: (3, 0)
Op5
(0, 3)).
Ante los resultados obtenidos resulta evidente que es necesario sacricar algo si se
pretende encontrar una solucion razonable. Analizar la siguiente estrategia.
Estrategia 4. Cada vez que se propone una nueva estrategia, se deben tomar en
cuenta los problemas encontrados por las anteriores. Por lo tanto, en esta ocasion
se va a considerar el siguiente esquema:
Seleccionar los operadores que veriquen las condiciones del estado actual.
Descartar aquellos operadores que no generen estados nuevos.
Aplicar el primero de los operadores supervivientes, independiente-
mente de que ya haya sido aplicado en alg un paso anterior.
La aplicacion de esta estrategia genera la siguiente trayectoria:
(0,0)
Op1
(4, 0)
Op2
(4, 3)
Op3
(0, 3)
Op6
(3, 0)
Op2
(3, 3)
Op7
(4, 2)
Op3
(0, 2)
Op6
(2, 0)
Al aplicar esta estrategia si se consigue llegar al estado meta (2, 0), y con esto se en-
cuentra una trayectoria de estados y operadores que conduce a una solucion correcta
al problema planteado. Durante este proceso, es comprensible que el sistema ha
realizado operaciones internas, por ejemplo, si el estado de inicio es (0,0), el sistema
82 CAP

ITULO 2. T

ECNICAS DE B

USQUEDA
permite la aplicacion de Op1 debido a que cumple con las restricciones, esto conduce
al estado (4, 0) el cual a un no es un estado objetivo. En este momento, el estado
inicial es (4, 0) y el sistema aplica el operador Op2 ya que verica restricciones, esto
conduce al estado (4,3), el cual a un no es un estado objetivo. En este momento, el
estado actual es (4, 3) y despues de vericar restricciones se aplica Op3 conduciendo
al sistema al estado (0, 3). Siguiendo con este proceso, es decir, observar los estados
y vericar las restricciones con el n de permitir o no la aplicabilidad de operadores,
se va a llegar al estado meta (2, 0).
Con el ejemplo anterior se intenta ofrecer un panorama de los elementos involucra-
dos en un problema de b usqueda. Especcamente se trata de comprender como se
determina el espacio de estados. Asimismo, se indica que las estrategias son mecan-
ismos de control que dirigen la b usqueda de soluciones utilizando los elementos que
conforman un problema de b usqueda. Enseguida se mostraran algunas de estas es-
trategias, las cuales haran que el proceso de b usqueda se realice de forma automatica
y se obtengan en lo posible soluciones aceptables y/o optimas.
2.2.1. Estados determinsticos y no determinsticos
Como ya se menciono, el espacio de estados involucra todas las posibles situaciones
que se pueden presentar en la solucion del problema. Los espacios de estados se
pueden clasicar en dos tipos (ver Figura 2.4): (a) implcitos, y (b) explcitos .
Los espacios de estados implcitos, normalmente utilizan un sistema de produccion
con el n de generar durante la ejecucion los posibles estados siguientes a partir de
un estado inicial. Los juegos suelen crear un espacio de estados implcito ya que un
juego puede variar dependiendo de las reglas que lo describen. A la vez, los espacios
de estados explcitos, son aquellos en los cuales se denen previo al inicio de la
b usqueda todos los estados posibles y las relaciones entre ellos.
La representacion de los espacios de estados explcitos se puede dar de forma de-
terminsta o no determinsta. El espacio de estados determinsta (ver Figura 2.5)
contiene un unico estado inicial, y sigue una secuencia de estados hasta llegar a
la solucion, es decir, el siguiente estado esta totalmente determinado por el estado
actual y la posible accion a tomar. En estos espacios de estados no existe incer-
tidumbre en relacion al siguiente estado alcanzado al encontrarse el sistema en un
estado actual y se aplica un operador o accion. Por otro lado, el espacio de estados
no determinsta (ver Figura 2.6) contiene un amplio n umero de estados iniciales y
le sigue una secuencia de estados relacionados con el estado inicial. En estos estados
esta presente la incertidumbre, es decir, a partir de un estado actual y al tomar
una accion, el estado siguiente no se conoce de forma anticipada. Usualmente, los
2.3. M

ETODOS DE B

USQUEDA 83
Figura 2.4: Ilustracion de la clasicacion de los espacios de estados (EE).
espacios de estados determinsticos son usados en el dise no de sistemas expertos,
mientras que los no determinsticos son empleados por sistemas basados en logica
difusa y sistemas de razonamiento probabilstico.
2.3. Metodos de b usqueda
Muchos de los algoritmos tradicionales de b usqueda son aplicados en IA. Sin em-
bargo, cuando se aplican a problemas complejos estos algoritmos son incapaces de
Figura 2.5: Ejemplo de un grafo de espacio de estados deterministas.
84 CAP

ITULO 2. T

ECNICAS DE B

USQUEDA
Figura 2.6: Ejemplo de un grafo de espacio de estados no deterministas.
encontrar una solucion adecuada, sobretodo cuando se manejan restricciones tanto
en espacio como en tiempo. Por consecuencia, muchas tecnicas han sido desarrol-
ladas, la mayora de ellas apoyadas por funciones heursticas. La Figura 2.7 muestra
un diagrama de la mayora de los algoritmos de b usqueda, y como se puede observar,
existen dos tipos de b usqueda: informada y no informada. Esta clasicacion se basa
a si el algoritmo aplica funciones heursticas o no. Los algoritmos de b usqueda infor-
mada utilizan funciones heursticas especcas al problema, y las aplican para guiar
la trayectoria de la b usqueda a traves del espacio de estados con el n de reducir
el tiempo invertido en la misma. Aunque el uso de funciones heursticas no garanti-
zan encontrar la mejor solucion, si permiten encontrar una respuesta en un tiempo
razonable. Los algoritmos que utilizan funciones heursticas son llamados algorit-
mos heursticos. Algunas caractersticas de estos algoritmos son las siguientes: a) los
algoritmos heursticos no son realmente inteligentes, ellos parecen ser inteligentes
debido a que obtienen un mejor rendimiento, y b) los algoritmos heursticos son
mas ecientes porque toman ventaja de retroalimentacion de los datos para dirigir
la b usqueda.
A diferencia de los anteriores, los algoritmos de b usqueda no informada tambien
conocidos como algoritmos de b usqueda exhaustiva o de fuerza bruta, no utilizan
informacion relacionada con el problema a n de guiar la b usqueda, por consiguiente
no son muy ecientes.
Un aspecto importante que se debe considerar al elegir un algoritmo de b usqueda,
es la estrategia
3
de control que utiliza. En base a la estrategia empleada algunos son
mas apropiados para resolver un tipo de problemas que otros. Sin embargo, este as-
pecto puede establecerse analizando un conjunto de cuatro caractersticas esenciales
que condicionan el proceso de b usqueda:
3
Metodos que se pueden utilizar para guiar una b usqueda a traves del espacio de estados.
2.3. M

ETODOS DE B

USQUEDA 85
Figura 2.7: Ilustracion de los diferentes algoritmos de b usqueda.
a) Direccion del proceso de b usqueda,
b) Topologa del proceso de b usqueda,
c) Representacion de los estados,
d) Criterios y procedimientos para la seleccion sistematica de los operadores
relevantes en funcion de los estados alcanzados.
Enseguida se proporciona una descripcion de tales caractersticas.
1. Direccion del proceso de b usqueda. Existen dos direcciones fundamentales
que podemos denir a la hora de congurar un proceso de b usqueda determinado:
B usqueda hacia adelante. La direccion de la b usqueda en este caso parte
de los estados iniciales hacia los estados meta, durante este proceso se
generan estados intermedios obtenidos mediante la aplicacion sucesiva de
operadores relevantes, a este tipo de b usqueda tambien se le conoce como
razonamiento hacia adelante o dirigido por los datos.
B usqueda hacia atras. En este caso, la direccion de la b usqueda inicia en
los estados meta y se desplaza hacia los estados iniciales, investigando
que estados previos al estado (o estados) meta, y que operadores aplica-
bles, nos producen una transicion deseada. Este tipo de b usqueda se basa
en un razonamiento hacia atras o dirigido por los objetivos.
86 CAP

ITULO 2. T

ECNICAS DE B

USQUEDA
B usqueda sistematica o exhaustiva. En situaciones donde el espacio de
b usqueda es peque no, un metodo de b usqueda sistematico o exhausti-
vo puede ser utilizado para explorar el espacio total del problema. Dos
metodos que aplican esta estrategia de control son el de b usqueda en
profundidad y el de b usqueda en anchura o amplitud. Una b usqueda es
exhaustiva si esta garantiza la generacion de todos los estados alcanz-
ables, as como las trayectorias para alcanzarlos antes que termine con
una falla. Una representacion graca de esta situacion son los arboles de
decisi on.
B usqueda heurstica. En estos metodos, se utiliza el conocimiento del do-
minio del problema como informacion para guiar el proceso de b usqueda.
Asimismo, estos metodos no garantizan encontrar la mejor solucion, pero
si una buena solucion en un tiempo razonable. Estos metodos o heursti-
cas siguen el siguiente proceso: Primero, generan una posible solucion la
cual puede ser un punto en el espacio del problema o una trayectoria
desde el estado inicial. Despues, verican si esta posible solucion es una
solucion real, comparando el estado alcanzado con el conjunto de esta-
dos objetivos. Finalmente, si una solucion real es obtenida, regresan, sino
repiten el proceso.
En algunos casos, sobretodo cuando se trata de elegir entre los primeros dos tipos
de direccion en la b usqueda, se utilizan otros elementos, tales como:
Tama no relativo de los conjuntos I (estados iniciales) y M (metas). El
tama no relativo de los conjuntos I y M es fundamental, pues es preferible
explorar el espacio de estados de forma que progresemos desde un con-
junto inicialmente peque no de informacion de partida, hacia un conjunto
mayor de estados. Aqu la interrogante que surge es: que conjunto es
mayor?, el conjunto I de estados iniciales, o el conjunto M de metas?.
Factor de ramicacion
4
. Este parametro inuye en la ecacia del proceso
de b usqueda, de forma que siempre trataremos de explorar el espacio de
estados en la direccion del menor factor de ramicacion
5
2. Topologa del proceso de b usqueda. Este aspecto tiene que ver con la ecien-
cia en el proceso de b usqueda a traves de la generacion y exploracion del espacio de
4
Factor de ramicacion es el promedio de estados que se pueden alcanzar directamente desde
un estado previo.
5
Cuanto menor sea el factor de ramicacion, menor sera el n umero de alternativas posibles que
deberemos explorar.
2.3. M

ETODOS DE B

USQUEDA 87
estados. Una forma sencilla de explorar el espacio de estados es generar dinamica-
mente un arbol
6
partiendo de un determinado estado (inicial o nal), y expandirlo
tras la aplicacion de operadores relevantes. Sin embargo, un aspecto frecuente que
ocurre durante la generacion automatica de este tipo de representacion es la duplici-
dad de estados en diferentes trayectorias. Este hecho, ademas de requerir un esfuerzo
adicional de computacion reduce la eciencia del proceso de b usqueda. Una forma de
resolver este inconveniente consiste en cambiar la topologa del proceso y convertir
el arbol en un grafo, lo cual puede hacerse por diferentes tecnicas rich. Resulta claro
que en los procesos de resolucion de problemas, la utilizacion de grafos de b usqueda
reduce los esfuerzos de exploracion en el espacio de estados. Sin embargo, este en-
foque presenta el inconveniente de que obliga a comprobar si cada nuevo estado
pertenece ya al conjunto de estados generados en pasos anteriores. Las topologas
en arbol suelen causar problemas de memoria, pero la b usqueda puede ser mas rapi-
da. Por el contrario, las topologas en grafo, aparte de ser conceptualmente mas
correctas minimizan los problemas de memoria. Sin embargo, al tener que efectuar
comprobaciones frecuentes, la eciencia del sistema puede disminuir. Ambos esque-
mas tienen ventajas e inconvenientes. En ultimo termino, la eleccion de una u otra
alternativa depende del dominio del problema planteado.
3. Representacion de los estados. De acuerdo con las estructuras denidas en
el espacio de estados, el problema de la representacion puede estudiarse desde tres
perspectivas diferentes:
Representacion de los objetos, entidades relevantes o hechos del dominio.
Este aspecto tiene que ver con la forma de representacion de los nodos.
Representacion de las relaciones entre objetos, entidades relevantes o he-
chos del dominio. Se reere al modo de representacion de las estructuras
que nos permiten transitar por el espacio de estados.
Representacion de las secuencias de estados surgidas durante la b usqueda.
Trata de la representacion de la estrategia y de los mecanismos de control
necesarios para organizar convenientemente la b usqueda.
Aunque de las perspectivas mencionadas, la que guarda mayor relacion con la
b usqueda es la representacion de las secuencias de estados, todas estan estrechamente
vinculadas, y normalmente, la eleccion de determinados esquemas de representacion
para entidades y relaciones suele condicionar el esquema de representacion apropiado
para las secuencias de estados.
4. Seleccion sistematica de operadores relevantes. Ya se ha comentado como
la aplicacion de un determinado operador sobre un estado genera un nuevo estado,
6
Es importante la caracterstica de generacion din amica del arbol. En IA, los arboles de decision
son siempre implcitos, s olo se materializan cuando se ejecuta un determinado proceso inferencial.
88 CAP

ITULO 2. T

ECNICAS DE B

USQUEDA
pero... como podemos reconocer, de entre el conjunto global de operadores po-
tencialmente utiles, aquellos que realmente son aplicables a nuestro estado actual?
Dicho de otra forma: dado un estado como podemos extraer del conjunto global de
operadores un subconjunto de operadores relevantes?. El problema planteado dene
lo que en inteligencia articial se conoce como: emparejamiento
7
, que constituye
una de las tareas mas costosas y lentas de los programas de IA. Existen varios tipos
de emparejamiento, cada uno con sus ventajas e inconvenientes, y su eleccion suele
depender del esquema utilizado para representar el conocimiento. Algunos de estos
tipos son: el emparejamiento literal y el emparejamiento con variables.
El emparejamiento literal consiste en realizar una b usqueda simple a traves de todos
los operadores del conjunto, analizando las precondiciones de cada operador en el
contexto del estado actual considerado, y extraer aquellos operadores que veriquen
dichas precondiciones.
Este emparejamiento presenta varios problemas: i) su eciencia es sensible al n umero
de operadores denidos en el conjunto, los problemas reales en IA utilizan general-
mente una gran cantidad de operadores, ii) para un estado particular, no siempre es
evidente que un operador sea aplicable, es decir, a veces es difcil saber si un estado
actual satisface o no las precondiciones del operador. El emparejamiento literal es
util en dominios peque nos, en los que la exploracion de patrones, costosa y lenta, se
ve compensada por un conocimiento compacto.
Por otro lado, el emparejamiento con variables, es util cuando el problema que
tratamos de resolver requiere una b usqueda extensa en la que haya variables in-
volucradas. En el caso de que exista mas de un operador aplicable a nuestro estado
actual, debemos ser capaces de poder elegir al operador que a priori nos ofrezca mas
garantas de exito en la b usqueda de un camino adecuado hacia la meta. Un enfoque
correcto de este problema, denominado resolucion de conictos, es fundamental en
la construccion de sistemas inteligentes. Durante la estrategia de resolucion de con-
ictos debemos considerar los siguientes criterios generales: (a) evitar en lo posible
la aplicacion de operadores ya utilizados, (b) tratar de aplicar en primera instan-
cia operadores con precondiciones mas restrictivas (operadores mas especcos), que
operadores de naturaleza mas general, (c) si no se dan las condiciones anteriores,
proceder a una seleccion aleatoria.
De acuerdo a lo mencionado, cuando se trate de elegir un algoritmo de b usqueda,
se tienen que tomar en cuenta las caractersticas de cada uno, ya que son estas
caractersticas las que marcan las ventajas y desventajas entre ellos, casi siempre
en terminos de: (i) La rapidez con que se encuentra la solucion, y (ii) La calidad
de la solucion. Tampoco hay que olvidar el papel que juega el problema que se
7
B asicamente, el emparejamiento es el proceso de seleccion de operadores relevantes.
2.3. M

ETODOS DE B

USQUEDA 89
intenta resolver, pues en la mayora de las veces, es el problema quien sugiere el
algoritmo apropiado para resolverlo. A continuacion se van a describir algunos de
los algoritmos de b usqueda mas utilizados.
2.3.1. Primero en anchura (breadth-rst)
En esta seccion se va a mostrar la operacion del algoritmo de b usqueda conocido
como: primero en anchura o primero en amplitud, el cual pertenece al tipo de algo-
ritmos que no utiliza informacion para guiar el proceso de la b usqueda (ver Figura
2.7), es decir, son metodos que realizan un recorrido del espacio de b usqueda de
una forma sistematica, pero sin tomar en cuenta ning un tipo de informacion sobre
el dominio del problema que se esta resolviendo. La estrategia de b usqueda se va
a describir con respecto a un tipo especco de grafo, es decir, a un arbol
8
. Por
lo tanto, en este algoritmo todos los nodos de la capa mas alta de un arbol son
visitados antes de proceder con los de la siguiente capa (ver Figura2.8). Asimismo,
ninguna solucion viable es omitida y por lo tanto, garantiza que la solucion optima
si es que existe es encontrada. No se recomienda esta estrategia para problemas
con espacios de b usqueda grandes. Esta es una tecnica de b usqueda exhaustiva con
las siguientes caractersticas:
El proceso de b usqueda genera todos los nodos de un nivel especco
antes de proceder con el siguiente nivel del arbol.
La b usqueda de forma sistematica procede a analizar cada nodo alcan-
zable a partir de un nodo padre antes de expandirse a cualquier nodo
hijo.
El esquema de control garantiza que el espacio de posibles movimientos
sea sistematicamente examinado; esta b usqueda requiere considerables
recursos de memoria.
El espacio examinado es muy extenso y la solucion puede estar a miles
de pasos desde el nodo inicial. Sin embargo, este procedimiento garantiza
que si se encuentra una solucion esta sera la mas corta posible.
La b usqueda naliza cuando una solucion es encontrada y la prueba re-
torna verdadera.
Antes de proceder a una descripcion mas detallada del algoritmo, se va
a ofrecer una descripcion intuitiva apoyandonos en la Figura 2.8. Como
ya mencionamos, este algoritmo realiza una b usqueda exhaustiva en am-
plitud iniciando por la capa superior del arbol y descendiendo (ver lnea
8
Para ver la operaci on de la estrategia de b usqueda en su caso general (grafos), vease las
siguientes referencias: nilson3, pearl
90 CAP

ITULO 2. T

ECNICAS DE B

USQUEDA
Figura 2.8: Operacion del algoritmo de b usqueda primero en amplitud, la direccion
de la b usqueda se indica por la lnea curvada en color rojo.
roja curvada en la Figura 2.8) hasta encontrar un nodo objetivo o no
encontrarlo. De acuerdo a lo mencionado, y tal como se observa en la
Figura 2.8, los nodos son explorados en el siguiente orden: A B C D E F
G H I J K L M N O P Q. Una vez que se encuentra el nodo A se procede
con el nodo B y as de forma sucesiva hasta alcanzar alguno de los nodos
objetivos (J, N) o el ultimo nodo.
Enseguida se va a proporcionar una descripcion de este algoritmo, in-
tentando ofrecer una notacion clara que facilite la comprension e imple-
mentacion del mismo. El algoritmo de b usqueda primero en amplitud se
ilustra en la Figura 2.9, en el mismo se utiliza una lista ordenada denom-
inada ABIERTA que contiene al principio de cada iteracion los estados
candidatos a ser desarrollados o expandidos. El desarrollo o expansion de
un estado, consiste en calcular todos sus sucesores mediante la aplicacion
de todos los operadores posibles, para ello se aplica la funcion Sucesores
que para un determinado estado retorna una lista con todos sus estados
sucesores. Asimismo, se observa el empleo de otra estructura denomina-
da TABLAA, que es en realidad un conjunto ordenado implementada
generalmente mediante una tabla hash. Esta estructura es utilizada para
registrar toda la informacion necesaria acerca de cada uno de los nodos
encontrados en el proceso de b usqueda, por ejemplo el padre de cada uno
2.3. M

ETODOS DE B

USQUEDA 91
Figura 2.9: Algoritmo de b usqueda primero en anchura en arboles.
de los nodos, o el costo desde el estado inicial hasta cada nodo. El resto
de las operaciones y estructuras muestran un signicado comprensible.
El algoritmo opera de la siguiente manera. En primer lugar se coloca en
la lista ABIERTA el estado inicial. Este estado se genera a partir de los
datos del problema, por ejemplo en el problema de las dos jarras de vino,
el estado inicial esta formado por la pareja (x, y) = (0, 0); en el problema
8 puzzle el estado inicial esta determinado por la conguracion inicial
mostrada en la Figura 2.3(a), o en el conocido problema del agente viajero
el estado inicial sera una secuencia que solamente incluye a la ciudad de
partida. Una vez que se indica el estado inicial, el algoritmo comienza a
expandir nodos, de forma que en cada iteracion el nodo que se expande se
inserta al nal de la lista ABIERTA. De este modo, la estrategia de con-
trol viene denida por el criterio que utilicemos para ordenar ABIERTA,
es decir, por la forma de insertar los nodos en esta lista [4, 172].
En este algoritmo, los nodos sucesores siempre se insertan al nal de la
lista ABIERTA. Por lo tanto, esta lista se trata realmente como una cola.
Un dato importante en este algoritmo, es que, tanto el tiempo de ejecucion
como el espacio de memoria necesario, crecen de forma exponencial al
tama no del problema. Una explicacion a esto es la siguiente. Suponga ue
se tiene un factor de ramicacion o n umero medio de sucesores, b y que
existe una unica solucion a una profundidad d, siendo la profundidad de
92 CAP

ITULO 2. T

ECNICAS DE B

USQUEDA
un nodo el numero de arcos que hay en el camino desde el inicial hasta el
nodo, el n umero de nodos visitados se puede aproximar por la expresion
siguiente. Hasta el nivel b 1 tendremos
1 +b +b
2
+... +b
d1
=
_
b
d
1
_
/ (b 1) ,
Si se tienen visitados la mitad de los nodos del nivel d, se tendran tambien
b
d
/2.
El n umero total de nodos visitados, considerando un arbol con una d
grande, se aproxima por
_
b
d+1
+b
d
_
/ (2 (b 1)) .
De igual forma, el espacio requerido por las estructuras ABIERTA y
TABLAA se puede aproximar como sigue. En el caso de ABIERTA se
tiene la mitad de los nodos del nivel d y la mitad de los del nivel d 1,
es decir
_
b
d
+b
d1
_
/2.
Mientras que en la TABLAA se tendran todos los nodos hasta el nivel
d 2 y la mitad de los del nivel d 1, es decir
_
b
d
1
_
/ (b 1) +
_
b
d1
_
/2

=
_
b
d
+b
d1
_
/ (2 (b 1))
Resulta claro que este algoritmo necesita una cantidad de tiempo y de
espacio para su ejecucion, el cual resulta ser, exponencial a la profundidad
d del espacio de b usqueda.
2.3.2. Grafos O
En la mayora de los problemas reales, los algoritmos tradicionales (b usque-
da exhaustiva o b usqueda ciega) son incapaces de encontrar una solu-
cion en lmites razonables de tiempo y espacio. En consecuencia, muchas
tecnicas se han desarrollado aplicando funciones heursticas. Las heursti-
cas son reglas que no garantizan la mejor solucion, pero s una solucion
adecuada si se aplican de forma apropiada. Estas funciones, como ya
se ha mencionado usan informacion especca del dominio (problema en
cuestion), lo cual se traduce en mejorar la eciencia del proceso de b usque-
da. Asimismo, la funcion heurstica, cuando se aplica a un estado regresa
un valor indicando que tan cerca nos encontramos del estado objetivo.
2.3. M

ETODOS DE B

USQUEDA 93
Figura 2.10: 8 puzzle: Ilustracion de 3 movimientos: izquierda, derecha, y arriba
realizados en el tablero y las nuevas conguraciones obtenidas.
Para entender de una forma muy general el uso de las funciones
heursticas en el proceso de b usqueda de soluciones, se va a presentar
nuevamente el ejemplo de 8 puzzle. En este problema, se intenta lle-
gar a una conguracion nal (estado meta) a partir de una conguracion
inicial (estado inicial) del tablero de 3 3 (ver Figura 2.10), realizando
el menor n umero de movimientos
9
de las casillas con n umeros a la casil-
la vaca. En la Figura 2.10, se pueden observar las tres conguraciones
obtenidas cuando al estado inicial se le aplican respectivamente los oper-
adores de: mover a la izquierda, mover a la derecha y mover hacia arriba.
El problema consiste en decidir, cual de los 3 posibles movimientos resulta
ser el mejor y que heurstica lo puede indicar. En este caso se van a
mostrar dos enfoques:
a) Contar el n umero de posiciones correctas. Este n umero se obtiene al
comparar la conguracion obtenida despues de aplicar el operador
contra la conguracion objetivo. En la Figura 2.10 se muestran es-
tos n umeros en la parte inferior (h=6, h=4, h=5) de las respectivas
9
Los movimientos se reeren al desplazamiento de la casilla vaca, ocasionado por el desplaza-
miento de las casillas con n umeros.
94 CAP

ITULO 2. T

ECNICAS DE B

USQUEDA
conguraciones. Bajo este enfoque, se elige el operador (movimiento)
que proporcione el n umero mayor, en este caso: Mover a la izquierda
(h=6).
b) Contar el n umero de posiciones incorrectas. Este es un enfoque op-
uesto al anterior, es decir, en este caso se cuentan las posiciones incor-
rectas al comparar las conguraciones obtenidas despues de aplicar
los operadores contra la conguracion deseada. Bajo este enfoque se
busca el n umero que minimice las diferencias. Este n umero se obtiene
al restar el n umero total de posiciones correctas (8) contra el n umero
de posiciones correctas alcanzadas al aplicar el operador. Por ejemp-
lo, cuando h = 6, el n umero de posiciones incorrectas es 8 6. Con
lo cual se elige nuevamente el operador de: Mover a la izquierda.
De acuerdo con lo descrito, la tarea de las funciones heursticas es propor-
cionar estos n umeros de acuerdo al enfoque utilizado y a la informacion
que indican. Por lo tanto, una vez que se tiene la nocion de como operan
las funciones heursticas se va a mostrar uno de los algoritmos que hacen
uso de estas funciones: Grafo O. Este algoritmo pertenece a un grupo
de algoritmos conocidos como: Primero el mejor
10
(ver Figura 2.7). El
nombre del algoritmo se debe a que es representado por un grafo tipo
O, el cual utiliza un esquema de razonamiento hacia adelante (dirigido
por datos), donde un nodo en este grafo indica un estado del problema
y un enlace denota la transicion a otro estado mediante la aplicacion de
una regla. Cuando varias reglas pueden ser aplicadas a un estado actu-
al, se puede seleccionar el mejor estado entre los posibles estados hijos
como el siguiente. En este metodo, la b usqueda da inicio al seleccionar
un estado prometedor (conguracion con h = 6 en el ejemplo anterior),
y se generan los nodos hijos del mismo. El rendimiento de cada nodo se
examina a traves de una funcion de evaluacion (n umero de posiciones cor-
rectas/incorrectas en el ejemplo anterior) y el mas prometedor basado
en su rendimiento de estos nodos se selecciona para su expansion. El
nodo seleccionado se expande y el rendimiento de todos sus nodos descen-
dientes se mide nuevamente repitiendo el proceso. Sin embargo, en este
caso, en lugar de analizar solo los nodos hijos generados, se examinan to-
dos los nodos aunque no tengan hijos y el mas prometedor de estos nodos
es seleccionado para expandirse. El algoritmo en que se basa el Grafo O
se muestra en la Figura 2.11. Si consideramos que la funcion para evaluar
el rendimiento de cada nodo es la distancia al nodo meta, entonces se va a
seleccionar para su expansion el nodo con el valor mas bajo. La funcion de
evaluacion puede implementarse con una estructura de datos de tipo cola
10
Bajo este nombre se agrupan los siguientes algoritmos: Grafo O, Agendas, y A Estrel la
2.3. M

ETODOS DE B

USQUEDA 95
Figura 2.11: Ilustracion del algoritmo Grafo O.
con prioridad, ordenados por su valor de evaluacion en orden ascendente.
Aunque el nombre de esta tecnica parece indicar algo determinista, no es
as, ya que si realmente pudieramos expandir primero el mejor nodo, esto
ya no sera una b usqueda, sino mas bien, sera una trayectoria directa
al objetivo. Por lo tanto, todo lo que podemos hacer es escoger el nodo
que parece ser el mejor seg un la funcion de evaluacion. Si la funcion de
evaluacion es exacta, entonces ciertamente se escogera el mejor nodo. Sin
embargo, esto no siempre se cumple en la realidad y tal funcion puede
dirigir la b usqueda por mal camino.
El algoritmo de b usqueda Grafo O, es generico y requiere de muchas car-
actersticas adicionales para que sea eciente. Por ejemplo, como indicarle
el valor de f si no esta explcitamente denido en el algoritmo. Ademas,
que sucede si un hijo del nodo actual no es un nodo nal?.
Una extension al algoritmo anterior y que considera estos aspectos es el
algoritmo A* (lease A-estrel la), el cual se describira a continuacion.
2.3.3. Grafos A
El algoritmo A - estrel la
11
es un algoritmo de b usqueda para grafos que
encuentra el camino de menor costo entre un nodo inicial y un nodo meta.
Antes de pasar a describir este algoritmo se deben tener presente las sigu-
11
Algoritmo presentado por Peter E. Hart, Nils J. Nilsson y Bertram Rapale, en 1968.
96 CAP

ITULO 2. T

ECNICAS DE B

USQUEDA
ientes deniciones: (a) nodo abierto, un nodo se denomina abierto si ha
sido generado y se le ha aplicado una regla pero a un no se ha expandido
(no se han generado sucesores), y (b) nodo cerrado, un nodo se denom-
ina cerrado si ha sido expandido, los nodos generados son almacenados
en una lista con el n de evitar la creacion de ciclos en el proceso de
b usqueda. Este algoritmo emplea una funcion heurstica (denotada f(x),
es una aproximacion a f(x), funcion que proporciona la verdadera evalu-
acion de un nodo) para determinar el orden en que los nodos de un grafo
van a ser visitados. Dicha funcion, esta formada por la suma de otras dos:
h(x) = Costo de la heurstica.
g(x) = Costo de generacion.
El costo de la heurstica mide la distancia del nodo x actual con respecto
al nodo objetivo y es denotado por h(x). Por otro lado, el costo de gener-
ar un nodo x, denotado por g(x), mide la distancia del nodo inicial en el
grafo, hasta el nodo actual x. Por lo tanto, la funcion de costo total del
nodo x, indicada por f(x) es la suma de h(x) y g(x). El costo de generacion
g(x) puede ser medido con relativa facilidad conforme se genera el nodo
x a traves de unas pocas transiciones de estado. Por ejemplo, si el nodo
x fue generado con m transiciones a partir del nodo inicial, el costo g(x)
sera proporcional a m (o simplemente igual a m). Por su parte, para la
evaluacion de h(x) se tiene que predecir un costo, generalmente indica-
do por h(x), cualquier costo asignado para h(x) debe ser a traves de su
prediccion. El costo total se indica como f(x) = g(x) + h(x).
El procedimiento utilizado por el algoritmo A* se muestra en la Figura
2.12.
Empezando en un nodo inicial dado, el algoritmo expande el nodo con el
menor valor de f(x). Este algoritmo mantiene un conjunto de soluciones
parciales almacenadas en una cola de prioridad (Lista ABIERTOS), igual
que el Grafo O. La prioridad asignada a un camino x viene determinada
por la funcion f(x). El proceso contin ua hasta que un nodo objetivo tiene
un valor f(x) menor que cualquier otro nodo en la cola (o hasta que el
grafo ha sido completamente recorrido).
Por ejemplo, la Figura 2.13 muestra el procedimiento de b usqueda del al-
goritmo A*, para encontrar la solucion (trayectoria mas corta para ir de
un estado inicial a un estado objetivo) al problema 8-puzzle. En este algo-
ritmo, se puede dar marcha atras para explorar rutas mas prometedoras y
2.3. M

ETODOS DE B

USQUEDA 97
Figura 2.12: Ilustracion del algoritmo A*.
98 CAP

ITULO 2. T

ECNICAS DE B

USQUEDA
Figura 2.13: Aplicacion del algoritmo A* al problema 8-puzzle, la lnea roja indica
la trayectoria de los nodos visitados.
evitar las menos prometedoras (nodo encerrado, en la Figura 2.13). Este
caso ocurre cuando el valor del nodo es mayor al esperado o cuando se
repite. En esta Figura, se muestra a un lado de cada nodo (conguracion
del tablero) el valor de su funcion heurstica (f(n)). En este ejemplo, la
heurstica que se va a utilizar es la siguiente, h(n) = n umero de casil las
mal colocadas. Por lo tanto, se busca en todo momento el valor de f(n)
mnimo. En este caso, el grafo es un arbol, donde el nodo raz es el es-
tado inicial, en el nodo raz, as como en todos los demas se muestran
dos valores (0+4 en el nodo raz), el primer valor corresponde al costo de
generacion (g(n)) de los nodos, el cual se va asumir, que tiene el mismo
valor para todos los nodos, en este ejemplo igual a 1. Ya que el nodo
inicial se proporciona como parte del algoritmo su costo de generacion es
g(n) = 0. El segundo n umero corresponde al valor de la heurstica (ver
Figura 2.13).
La trayectoria que sigue el algoritmo se va a guiar por el valor de la
heurstica estimada (h(n)) y se indica por la lnea roja que se muestra en
la Figura 2.13. Ya que el valor para g(n) es unitario, se observa que su
2.3. M

ETODOS DE B

USQUEDA 99
incremento en cada profundidad del arbol es en incremento y secuencial.
En todo momento, se busca elegir para expander el nodo con el costo
mnimo. Si se detecta que los valores son repetitivos, se asume que esto
conduce a un ciclo repetitivo y se abandona ese nodo (este caso se observa
en la conguracion que se muestra encerrada). En este caso, se regresa al
nodo anterior y se elige otro camino.
Si la b usqueda se realizo a traves del camino mas corto, entonces se dice
que resulto optima, indicandose esta situacion con la siguiente expresion:
f

(n) = g

(n) +h

(n)
Complejidad. La complejidad computacional del algoritmo A* esta rela-
cionada con la calidad de la heurstica que se utilice en el problema. En el
peor caso, con una heurstica de pesima calidad, la complejidad sera ex-
ponencial, mientras que en el mejor caso, con una buena heurstica, el
algoritmo se ejecutara en tiempo lineal. Para que esto ultimo suceda, se
debe cumplir que h(n) h(n). Donde h* es una heurstica optima para
el problema, por ejemplo, el costo real de alcanzar el objetivo.
Caractersticas del algoritmo. Realiza la b usqueda informada tenien-
do en cuenta dos factores fundamentales: (i) el valor heurstico de los
nodos, y (ii) el coste real del recorrido.
Se utiliza en la b usqueda de un camino mas corto.
El Algoritmo no desarrolla un camino por interaccion, sino que desarrolla
varios caminos y elige los mas prometedores.
Si para todo nodo n del grafo, se cumple que g(n) = 0, nos encontramos
ante una b usqueda voraz. Si para todo nodo n del grafo se cumple h(n)
= 0, el algoritmo A* pasa a ser una b usqueda de costo uniforme no in-
formada.
Para garantizar la optimalidad del algoritmo, la funcion h(n) debe ser
admisible, esto quiere decir que no sobrestime el costo real de alcanzar el
nodo objetivo, si fuese as, el algoritmo pasa a denominarse simplemente
A, debido a que no se asegura que el resultado obtenido sea el camino de
costo mnimo.
100 CAP

ITULO 2. T

ECNICAS DE B

USQUEDA
Debido a que se tienen que almacenar todos los posibles siguientes nodos
de cada estado, la cantidad de memoria requerida sera exponencial con
respecto al tama no del problema.
El algoritmo A* gua el proceso de b usqueda a traves de una ruta optima
si la funcion heurstica h(n) es admisible. Se dice que h(n) es admisible
(garantiza la obtencion de un camino de coste minimo hasta un objetivo)
cuando nunca sobreestima el costo actual, en este caso se cumple:
h(n) h

(n)n
Donde: h

(n) es la funcion heurstica optima.


Asimismo se dice que es completo cuando naliza con una solucion, y
si esta solucion es la optima entonces es admisible. La principal carac-
terstica de este algoritmo es que utiliza de forma eciente el uso de una
funcion heurstica dada, en el sentido de que expande el menor n umero de
nodos en relacion con otros algoritmos similares. Sin embargo, su princi-
pal desventaja, y en general de cualquier algoritmo de b usqueda primero
el mejor, es su requerimiento de memoria. Ya que al menos la lista de
ABIERTOS debe ser almacenada. En la practica este algoritmo se ve muy
limitado en espacio, algunas veces no resulta mejor que el algoritmo de
b usqueda primero en amplitud, cuando ambos se ejecutan en equipos sim-
ilares. Por otro lado, debido que la complejidad temporal y espacial son
del mismo orden, en muchas ocasiones no se encuentra la ruta optima por
las limitaciones en tiempo y memoria de sus recursos computacionales,
por lo que se tedra que optar por una solucion satisfactoria.
Este algoritmo es aplicado en varias areas, tales como: Minera de datos,
procesamiento de imagenes, medicina, aeronavegacion y transporte, y
video juegos de estrategia.
2.4. Satisfaccion de restricciones
La satisfaccion de restricciones es un esquema para manejar situaciones
donde resulta relativamente facil indicarle a una computadora el resulta-
do esperado y un tanto complicado el proceso para obtenerlo. Estos casos
2.4. SATISFACCI

ON DE RESTRICCIONES 101
pueden ocurrir en problemas del mundo real surgidos en areas de vision
computacional, planeacion, calendarizacion y diagnosis. Los problemas
mencionados pueden ser manejados como problemas de satisfaccion de
restricciones (CSP). Bajo este enfoque, la representacion de los proble-
mas resulta natural y declarativa, formalizando lo que se tiene que resolver
sin necesidad de indicar como se tiene que satisfacer. En este esquema es
necesario comprender el aspecto relacionado con las restricciones.
Las restricciones surgen en la mayora de las areas del esfuerzo humano
y son una forma natural en que las personas expresan diversos proble-
mas. Ejemplos de problemas que emplean restricciones son la suma de
los angulos de un triangulo suman 180 grados, y la suma de los ujos
actuales en un nodo deben sumar cero. Una restriccion se puede enten-
der como una relacion logica entre variables, es decir, las restricciones
relacionan objetos sin hacer una especicacion precisa de sus posiciones
y al moverse alguno de ellos, la relacion a un se mantiene, por ejemplo:el
crculo dentro del cuadrado. Por satisfaccion de restricciones se denom-
ina al proceso de encontrar una solucion a un conjunto de restricciones,
es decir, encontrar un conjunto de variables que satisfacen todas las re-
stricciones.
Formalizacion. Un problema de satisfaccion de restricciones se dene
por la terna X, D, R, donde:
X = X
1
, X
2
, . . . , X
n

D = D1, D2, . . . , Dn
R = R1, R2, . . . , Rn
X indica un conjunto nito de variables, D es un conjunto nito de do-
minios, y R un conjunto nito de restricciones. Cada variable X
i
toma
valores en su correspondiente dominio D. Una restriccion entre un sub-
conjunto de variables X
i1
, X
i2
, . . . , X
ik
de X es un subconjunto del
producto cartesiano D
i1
. . . D
ik
que esta formado por las tuplas
de valores que satisfacen la restriccion; dicho de otra forma, contiene las
combinaciones de asignaciones de valores a variables que no violan la
restriccion. Una restriccion en la que interviene una unica variable se le
denomina restriccion unaria. Una restriccion binaria en la que intervienen
las variables X
i
y X
j
se representa como R
ij
. Un problema de satisfac-
cion de restricciones (CSP
12
) binario es aquel donde solo se presentan
12
Por sus siglas en inges: Constraint Satisfaction Problem.
102 CAP

ITULO 2. T

ECNICAS DE B

USQUEDA
restricciones unarias o binarias. En esta seccion solo se expondr an CSPs
binarios, esto sin embargo no es ninguna restriccion ya que cualquier CSP
puede convertirse a uno binario en tiempo polinomial [9].
Una asignacion de un valor del dominio a cada variable de un CSP repre-
senta una solucion del mismo si tal asignacion satisface todas las restric-
ciones. Por lo tanto, resolver un CSP equivale a encontrar una solucion,
encontrar todas las soluciones o encontrar una solucion optima con respec-
to a una funcion objetivo. Por ejemplo, el problema de la k coloraci on
de un grafo consiste en decidir si los nodos del grafo pueden colorearse
empleando k colores de manera que dos nodos adyacentes no tengan el
mismo color. En este caso, se van a manejar los colores: azul, rojo, y verde.
Por lo tanto, la representacion del problema anterior en CSP quedara de
la siguiente manera:
X es el conjunto de variables (en este ejemplo: nodos) formado por
X
1
, X
2
, X
3
.
D asigna el dominio azul, rojo, verde a cada variable.
R contiene la restriccion X
i
,= X
j
para cada par X
i
, X
j
de nodos
adyacentes. Por lo tanto, y de acuerdo con los datos anteriores, las
restricciones resultan ser en este ejemplo, las siguientes:
R
12
= (azul, rojo), (azul, verde), (rojo, verde)
R
13
= (azul, rojo), (azul, verde), (rojo, verde)
R
23
= (azul, rojo), (azul, verde), (rojo, verde)
La Figura 2.14 muestra el grafo que representa las variables del problema
de la 3 coloraci on de un grafo, mientras que la Figura 2.15 ilustra la
representacion del problema a traves del grafo de restricciones.
Generalmente, un CSP binario, se representa a traves de un grafo de re-
stricciones donde cada nodo del grafo describe una variable del problema
(ver Figura 2.14). Cada restriccion se representa por un enlace con el
nombre de la restriccion, la cual conecta los nodos de las variables que
intervienen en la misma (ver Figura 2.15). En el ejemplo mostrado, el en-
lace que conecta los nodos X
1
y X
2
implcitamente representa dos arcos:
el arco que va de X
1
a X
2
y el que va de X
2
a X
1
.
Una vez que se tiene la representacion de un problema a traves de un CSP,
se procede a la aplicacion de un algoritmo para resolverlo. La solucion se
puede obtener utilizando algoritmos de inferencia, algoritmos de b usque-
da, y combinando ambas alternativas. En esta seccion se va a mostrar la
solucion de un CSP aplicando tecnicas de b usqueda.
2.4. SATISFACCI

ON DE RESTRICCIONES 103
Figura 2.14: Grafo del problema: 3 coloraci on de un grafo.
Figura 2.15: Grafo de restricciones correspondiente al problema: 3 coloraci on de
un grafo.
104 CAP

ITULO 2. T

ECNICAS DE B

USQUEDA
2.4.1. B usqueda en CSP
El conjunto formado por todas las posibles asignaciones de un CSP tam-
bien conocido como espacio de estados, se representa mediante un arbol
de b usqueda. En cada nivel instanciamos una variable, y los sucesores de
un nodo son los valores de la variable asociada a este nivel. Cada camino
del nodo raz a un nodo terminal, denominado rama, representa una asig-
nacion completa. La raz (nivel 0) representa la asignacion vaca, y cada
camino del nodo raz a un nodo no terminal representa una asignacion
parcial. El n umero total de ramas es la cardinalidad del producto carte-
siano de los dominios de todas las variables. Cuando se crea el arbol de
b usqueda, se denomina variable actual a la que se le esta asignando un
valor, variables pasadas a las que ya tienen un valor asignado y variables
futuras a las que a un no tienen un valor asignado. La instanciacion de
variables sera en orden lexicograco, es decir, primero X
1
, luego X
2
y
as sucesivamente. Sin embargo, el rendimiento del algoritmo mejora con
el uso de heursticas, por ejemplo, una de las heursticas de seleccion de
variables mas exitosa consiste en instanciar primero a las variables con
menor dominio, si hay empates, elegir la variable que aparece en mas
restricciones [13].
Una vez seleccionada la variable, se le asigna uno de los valores del do-
minio. El orden de asignacion de los valores puede mejorar el rendimiento
cuando el objetivo es encontrar la primera solucion. Si este es el caso, una
heurstica popular consiste en asignar primero el valor que es consistente
con el mayor n umero de valores factibles del resto de las variables. Se han
desarrollado muchos algoritmos de b usqueda para resolver CSPs. En esta
subseccion, se van a mostrar dos algoritmos de b usqueda hacia atras
13
(basada en objetivos) para resolverlos y son: (a) Genera y Prueba (GT:
Generate-and-test) y Retroceso (BT: Backtracking).
Algoritmo genera y prueba (GT). La forma mas simple, aunque poco
eciente de encontrar todas las soluciones de un CSP es la que implemen-
ta el algoritmo GT, el cual genera de forma sistematica todas las posibles
asignaciones completas. Cuando naliza una asignacion, comprueba si es
una solucion (comprueba si satisface todas las restricciones). Este algo-
ritmo recorre el arbol aplicado la estrategia de b usqueda primero en pro-
fundidad. La ineciencia de este algoritmo se debe a que genera muchas
asignaciones completas que violan la misma restriccion.
13
A este tipo de algoritmos se les conocen como completos ya que realizan un recorrido exhaustivo
del espacio de estados, y cuando aplican alguna poda, lo hacen sobre regiones del espacio de estados
que no contienen ninguna soluci on
2.4. SATISFACCI

ON DE RESTRICCIONES 105
Figura 2.16: Pseudocodigo del algoritmo BT.
Algoritmo BT. El algoritmo BT [10] es un metodo basado en el analisis
sistematico de las posibles soluciones, se puede ver como un GT mejo-
rado, el cual funciona de la siguiente manera: cada vez que reasigna un
nuevo valor a la variable actual (X
i
), se comprueba si es consistente con
los valores asignados a las variables pasadas. Si no lo es, se abandona
esta asignacion parcial y se asigna un nuevo valor a X
i
. Si ya se agotaron
todos los valores de D
i
, se retrocede para probar otro valor, ahora para la
variable X
i1
. Si se ha agotado D
i1
, se retrocede al nivel i2, y as suce-
sivamente hasta encontrar una asignacion de un valor a una variable que
sea consistente con las variables pasadas o hasta que se demuestra que
no hay mas soluciones. Es decir, BT recorre el arbol utilizando b usqueda
primero en profundidad, y en cada nodo comprueba si la variable ac-
tual es consistente con las variables pasadas. Si detecta inconsistencia,
descarta la asignacion parcial actual, puesto que no es parte de ninguna
asignacion completa que sea solucion. De esta manera, se ahorra recorrer
el subarbol que depende de esta asignacion parcial. BT es similar al GT
pero utiliza menos espacio, conservando solamente un estado de solucion
actual el cual actualiza. El pseudocodigo del algoritmo BT se muestra en
la Figura 2.16 [11].
En este algoritmo (pseudocodigo mostrado en la Figura 2.16), el parametro
106 CAP

ITULO 2. T

ECNICAS DE B

USQUEDA
de entrada i es la posicion de la variable actual en el orden estatico en
el que se instancian las variables, mientras que n representa el n umero
de variables del problema, el arreglo asignaciones[i] de tama no n guarda
el valor asignado a cada variable, la variable test(i, j) devuelve cierto si
la asignacion actual no viola ninguna restriccion entre las variables X
i
y
X
j
.
Por simplicidad, el pseudocodigo no distingue entre, no encontrar una
solucion, y no encontrar mas soluciones, en ambos casos devuelve falso.
Este algoritmo tiene el inconveniente de detectar inconsistencias en difer-
entes partes del espacio de b usqueda que se producen por la misma razon.
Por ejemplo, suponga que se tiene una restriccion entre la variable X
g
y
la variable X
i
, donde i > g + 1, la cual establece que, si se asigna a X
g
un valor a entonces ning un valor de X
i
es compatible con la asignacion
X
g
= a. Entonces, BT detecta al nivel i una inconsistencia en todas las
asignaciones parciales que contienen la asignacion X
g
= a. Cuando BT
detecta una de estas inconsistencias, retrocede al nivel i 1, cuando en
realidad podra retroceder al nivel g y asignar un nuevo valor a X
g
. Ob-
serve que si BT retrocede al nivel i 1, volvera a detectar inconsistencias
para cualquier valor de D
i1
al instanciar la variable X
i
, ya que todas
las asignaciones parciales que considera mantienen la asignacion X
g
= a.
Esto ocurrira para todos los niveles intermedios entre g e i. Por lo tan-
to, se podra podar el subarbol que depende de la asignacion parcial que
contiene X
g
= a.
Para solucionar este problema se han dise nado algoritmos que aplican
tecnicas de retroceso no cronologicas [12], las cuales al detectar alguna
inconsistencia, en lugar de retroceder a la variable instanciada reciente-
mente que a un tiene alternativas disponibles, contin ua la b usqueda en la
variable que ocasiono el fallo, evitando as que se repita la inconsistencia.
Con el n de ilustrar un ejemplo del uso de este algoritmo, la Figura
2.17 muestra una representacion en CSP de un problema con 4 variables,
en tanto, la Figura 2.18 muestra el arbol de b usqueda correspondiente
que explora el algoritmo BT para encontrar la primera soluci on del CSP
descrito. En este ejemplo, cada rama del arbol de b usqueda representa
una asignacion parcial (la cual es completa si se llega a instanciar la
variable X
4
). Cada nodo tiene como etiqueta el valor del dominio que se
asigna a la variable, los nodos huecos indican asignaciones en las que la
asignacion de la variable actual es inconsistente con las asignaciones de
las variables pasadas que aparecen en la misma rama. El comportamiento
de trashing corresponde a las regiones encerradas por el recuadro.
2.4. SATISFACCI

ON DE RESTRICCIONES 107
Figura 2.17: Grafo de restricciones para un CSP [13].
Figura 2.18:

Arbol de b usqueda que explora BT para el CSP de la Figura 2.17 [13].
108 CAP

ITULO 2. T

ECNICAS DE B

USQUEDA
2.5. Teora de juegos
La teora de juegos puede denirse como la rama de las matematicas en-
cargada del estudio y analisis de modelos formales de comportamiento es-
trategico, es decir, aspectos relacionados con el conicto y la cooperacion
entre agentes racionales e inteligentes. Sus conceptos teoricos se aplican
siempre que las acciones de varios agentes sean interdependientes. Estos
agentes pueden ser individuos, grupos, rmas, o alguna combinacion de
ellos. Asimismo, se puede ver a la teora de juegos como una herramienta
para el tomador de decisiones que aporta la metodologa para estruc-
turar y analizar problemas relacionados con estrategias
14
de seleccion. El
proceso de modelar formalmente una situacion como un juego requiere
la intervencion del tomador de decisiones para enumerar explcitamente
los jugadores y sus estrategias, considerando sus preferencias y reacciones.
Los orgenes de esta teora se remontan al siglo XV III, donde su objeti-
vo era analizar el comportamiento de los participantes en juegos de salon
que comenzaban a desarrollarse en las cortes europeas. Los estudios mod-
ernos de la misma, comienzan con los trabajos de Zermelo [14] y Borel
[15], pero no es sino hasta los trabajos de Neumman y Morgensen [16]
que esta disciplina comienza su desarrollo a un ritmo acelerado.
En el campo de las matematicas, esta disciplina esta asociada con areas
como la teora estadstica de la decision y algunos problemas de progra-
macion lineal. En las ciencias sociales, la incursion de la teora de juegos
como una metodologa de analisis es mas reciente. La economa es el area
que ha obtenido un mayor provecho de la misma, ya que desde inicios de
la decada de 1960 ha habido una gran aportacion en el desarrollo de la
teora economica
15
.
No obstante que algunas de las ideas basicas en teora de juegos fueron
integradas en 1950, estas ya haban sido presentadas en las ultimas
decadas del siglo XIX por economistas franceses que estudiaban el com-
portamiento de empresas en mercados no competitivos [18, 19]. De hecho,
14
Se entiende por estrategia de un jugador una regla o conjunto de reglas que establecen la
jugada a realizar por el jugador en cada momento.
15
De hecho, la idea de que la manera de formalizar el comportamiento racional fuese enfocado
a traves de la teora de juegos provoco un cambio dramatico en la manera de estudiar la microe-
conoma y mas recientemente, la macroeconoma ya que algunas de las teoras desarrolladas en
los a nos 50s no pudieron ser sostenidas al adoptarse este marco analtico. Recordar que el Premio
Nobel de Economa en 1994 fue otorgado a los autores que desarrollaron esta teora [17].
2.5. TEOR

IA DE JUEGOS 109
si bien hasta la decada de 1950 el desarrollo de la teora de juegos era
un asunto de los matematicos y no haba desarrollo originado por dis-
ciplinas empricas, a partir de la decada de 1960 la situaci on cambia.
Recientemente, los manuales mas conocidos de teora de juegos han sido
escritos por economistas o economistas matematicos, y se han enfocado
en aplicaciones de las ciencias sociales.
La teora de juegos recibio especial atencion en 1994 con la concesion del
Premio Nobel de economa a Nash, Harsanyi y Reinhard Selten
16
.
Al nal de la decada de 1990, una aplicacion de alto perl de la teora de
juegos ha sido el dise no de subastas. Destacados teoricos de juegos han
participado en el dise no de subastas al asignar derechos para el uso de
bandas del espectro electromagnetico a la industria de telecomunicaciones
moviles. La mayora de estas subastas fueron dise nadas con el objetivo
de asignar estos recursos de forma mas eciente que las practicas guber-
namentales tradicionales.
Ademas de las areas mencionadas, la teora de juegos ha sido aplicada
tambien a: modelos de evolucion biologica, conictos militares, campa nas
polticas, de publicidad y comercializacion, as como a una innumerable
lista de situaciones de competencia entre empresas.
2.5.1. Descripcion de juego
Denicion de juegos. El objeto de estudio de la teora de juegos es el
juego, el cual se puede describir como un modelo formal de una situacion
interactiva. Un juego tpicamente involucra a varios jugadores, a un juego
de un solo jugador se le denomina un problema de decision. La denicion
formal considera a los jugadores, sus preferencias, su informacion, las
acciones estrategicas disponibles, y como estos aspectos inuyen en el re-
sultado [20].
Representacion formal de juego. Un juego, descrito de manera nor-
mal o estrategica G = (S
1
, S
2
, . . . , S
n
; u
1
, u
2
, . . . , u
n
) o G(S, U), consta de
tres elementos esenciales:
16
El parrafo nal de los peri odicos anunciando el premio Nobel en Economa de 1994 mencionaba:
a traves de sus contribuciones al analisis de equilibrios en teora de juegos no cooperativos, los tres
laureados constituyen una combinacion natural: Nash dio los fundamentos para el analisis, Selten
los desarroll o con respecto a la din amica, y Harsanyi con respecto a la informacion incompleta.
110 CAP

ITULO 2. T

ECNICAS DE B

USQUEDA
a) Los n jugadores que participan en el juego.
b) Las estrategias disponibles para cada jugador, identicadas como
S = (S
1
, ....., S
n
), S
i
= (s
i1
, s
i2
, ....., s
iq
) indica el conjunto de es-
trategias con que cuenta el jugador i. La notacion suele simplicarse
designando por s
i
a un elemento arbitrario de S
i
, donde s
i
S
i
. De este modo (s
1
, ....., s
n
) representa una combinacion de estrate-
gias, una para cada jugador, que tambien se conoce como un perl
estrategico.
c) El conjunto de funciones de pago U = (u
1
, ....., u
n
), donde la funci on
de pago de cada jugador u
i
= u
i
(s
1
, ....., s
n
), s
i
S
i
representa la
utilidad o pagos obtenidos por el iesimo jugador, resultado de las
estrategias elegidas por el y sus rivales en el juego.
En un juego, generalmente los jugadores eligen sus estrategias de forma si-
multanea, es decir, cada jugador elige su jugada sin conocer las decisiones
de los demas. Asimismo, cada jugador recibe un pago u
i
= u
i
(s
1
, ....., s
n
),
dependiendo de las estrategias elegidas por los demas. Como ejemplo pro-
totipo de juegos en forma normal o estrategica, destacan los juegos con
dos jugadores, donde cada uno de ellos tiene un n umero nito de estrate-
gias, por lo que las funciones de pago pueden representarse en una doble
matriz. Un ejemplo de estos juegos es el conocido como El Dilema del
prisionero el cual se mostrara mas adelante.
Existen basicamente dos enfoques distintos para aproximarnos al analisis
de una situacion de interacciones entre individuos: (a) teora de juegos no
cooperativos, y (b) teora de juegos cooperativos [21].
2.5.2. Teora de juegos no cooperativos
La teora de juegos no cooperativos, es quizas, la teora dominante dentro
del ambiente de los economistas. En este enfoque, basicamente, tenemos
un conjunto de n jugadores, cada uno con S estrategias a su disposicion, y
unas asignaciones U de pagos que reciben por llevar a cabo tales estrate-
gias. La caracterstica no cooperativa estriba en la manera de como
eligen y lo que saben de los otros jugadores cuando eligen. En general, se
supone que los individuos toman sus decisiones independientemente unos
de otros, aunque conociendo a sus oponentes y las posibles estrategias que
estos tienen a su disposicion. Es decir, son individuos egostas que tratan
de predecir lo que los otros agentes haran, para trabajar entonces en con-
veniencia propia. En esta estructura de analisis los agentes no alcanzan
ning un nivel de cooperacion.
2.5. TEOR

IA DE JUEGOS 111
Cuadro 2.2: Matriz bimatricial correspondiente al juego del Dilema del prisionero.
prisionero 2 / prisionero 1 Cooperar No Cooperar
Cooperar -2 -2 -10 0
No Cooperar 0 -10 -6 -6
El Dilema del prisionero, es un ejemplo tpico que ilustra la manera de
operar de este tipo de modelos, en este caso se describe la conducta de
dos prisioneros (jugadores) que tienen la oportunidad de No Confesar
(estrategia 1) o Confesar (estrategia 2) un determinado delito. La de-
scripcion de este juego es la siguiente: dos individuos son detenidos debido
a que cometieron cierto delito. Ambos son separados en celdas diferentes
y son interrogados individualmente. Ambos tienen dos alternativas: coop-
erar uno con otro (noconfesar) o no cooperar (confesar el delito). Ellos
saben que si ninguno conesa, cada uno ira a prision por dos a nos. Pero
si uno de los dos conesa y el otro no, entonces al que conesa lo dejaran
libre y al que no conesa lo condenaran a 10 a nos. Si ambos conesan,
los dos iran a prision por 6 a nos. La situacion se resume en la siguiente
bimatriz (es decir, una matriz cuyos elementos son parejas de n umeros)
(ver Tabla 2.2):
En la matriz mostrada en la Tabla 2.2, las columnas indican las estrategias
para el jugador 1 (prisionero 1) y las las las estrategias que puede elegir
el jugador 2 (prisionero 2). Cada combinacion de estrategias determina
una utilidad, indicada por las parejas de n umeros en las celdas, donde
el primer dgito corresponde a la utilidad obtenida por el prisionero 2 y
el dgito 2 a la utilidad obtenida por el prisionero 1. Por ejemplo, si el
prisionero 1 elige la estrategia de cooperar y el prisionero 2 la estrategia
de no cooperar la celda seleccionada es la que tiene los valores de utilidad
(0 10), es decir, la mayor utilidad (0) corresponde al prisionero 2. En
este caso, la utilidad negativa de 10, obtenida por el prisionero 1 puede
interpretarse mas bien como un castigo.
Ante esta situacion, la pregunta natural es: que haran los detenidos?
cooperaran entre s (no confesaran)? o se traicionaran el uno al otro
(confesaran)?. Alguien desprevenido que este observando este juego po-
dra pensar que los dos jugadores cooperaran (no confesaran) puesto
que en ese caso ambos obtendran el menor castigo posible. Sin embargo,
la estructura no cooperativa del problema hace que este arreglo no sea
creble: si se pactara la noconfesion por parte de los dos, ambos tendran
incentivos particulares para romperlo, pues dejando al otro en cumplim-
112 CAP

ITULO 2. T

ECNICAS DE B

USQUEDA
iento del pacto de no confesar, el que rompe el pacto obtiene la libertad
mientras al otro lo condenaran a 10 a nos. De manera similar, estudiando
las otras tres posibilidades del juego (es decir, (C, NC), (NC, NC), (NC,
C)) observamos que el unico acuerdo creble (que signica que ninguno
de los dos querra romper el pacto unilateralmente porque perdera) es
(NC, NC). En denitiva, la prediccion de lo que ocurrira en el juego es
que ambos confesaran y permaneceran en la carcel 6 a nos.
La conclusion en situaciones similares a esta (que son comunes en la vida
diaria), es que la competencia egosta puede conducir a estados que son
inferiores (en terminos de benecio personal y social) a los estados coop-
erativos, pero que estos ultimos no podran implementarse a menos que
existan reforzamientos externos (contratos rmados por ley, vericacion,
etc.) que obliguen a las partes a cumplir con el acuerdo de cooperacion.
Esta es la idea esencial de Nash, al denir el concepto de equilibrio de
Nash en su tesis doctoral [23] en Matematicas: un equilibrio de Nash es un
acuerdo que ninguna de las partes puede romper a discrecion sin perder.
Es decir, si alguien quiere romper el pacto y lo hace unilateralmente, se
arriesga a ganar por debajo de lo que hubiese ganado dentro del pacto.
Sin embargo, como queda claro en el juego del dilema del prisionero, esto
puede no ser lo mejor socialmente para los jugadores. Uno de los resulta-
dos que hacen del equilibrio de Nash un punto de referencia para casi todo
analisis en el que las interacciones entre individuos esten involucradas es
que:
todo juego nito (es decir, nitos jugadores y nitas estrategias de cada
jugador) tiene al menos un equilibrio de Nash, aunque involucre ciertas
probabilidades objetivas de juego de las estrategias por parte de los ju-
gadores.
Este resultado se publico en un artculo [22] donde prueba, utilizando el
conocido teorema de punto jo de Brouwer, que un equilibrio de Nash es
un punto jo: las expectativas de las personas con respecto a lo que los
demas haran, coinciden todas en el equilibrio de Nash.
Equilibrio de Nash: descripcion formal. El equilibrio de Nash, es un
concepto muy amplio de solucion aplicable en numerosos juegos. Dado un
juego G = (S
1
, ....., S
n
; u
1
, ....., u
n
), las estrategias (s
1
, ....., s
n
) forman
un equilibrio de Nash en estrategias puras si, para cualquier i, s
i
S
i
2.5. TEOR

IA DE JUEGOS 113
es la mejor respuesta (o al menos una de las mejores) a las estrategias
(s
1
, ..., s
i1
, s
i+1
, ...s
n
) de los otros n 1 jugadores, es decir:
u(s
1
, ...., s
i1
, s
i
, s
i+1
, ...., s
n
) u(s
1
, ...., s
i1
, s
i
, s
i+1
, ...., s
n
)
Para cualquier jugador i y para cualquier s
i
S
i
. Esto implica que todos
y cada uno de los jugadores resuelven individualmente el problema
Max u(s
1
, ...., s
i1
, s
i
, s
i+1
, ...., s
n
), s
i
S
i
alcanzandose el equilib-
rio de Nash cuando todos, simultaneamente, obtienen el maximo resul-
tado. Es decir, que la estrategia predicha de cada jugador debe ser la
mejor respuesta de cada jugador a las estrategias predichas por los otros
jugadores. Tal prediccion se denomina estrategicamente estable o self-
enforcing. Todos elegiran las estrategias de equilibrio y a ninguno le
conviene desviarse de ella. De existir una desviacion rentable para (al
menos) un jugador, la situacion anterior dejara de ser un equilibrio de
Nash.
En otras palabras, si las estrategias (s

1
, ....., s

n
) no constituyen un equi-
librio de Nash, al menos un jugador tendra un incentivo para desviarse y
cambiar su estrategia. El equilibrio de Nash (s
1
, ..., s
n
) goza entonces de
la importante propiedad de que si el jugador i elige la estrategia s
i
S
i
del equilibrio, los otros jugadores no pueden hacer otra cosa mejor que
elegir tambien las estrategias del equilibrio (s
1
, ..., s
i1
, s
i+1
, ..., s
n
).
Para el juego G = (S
1
, S
2
; u
1
, u
2
), la pareja de estrategias (s
1
, s
2
) for-
man un equilibrio de Nash si:
s
1
es la mejor respuesta a la estrategia s
2
de II.
s
2
es la mejor respuesta a la estrategia s
1
de I.
Es decir, que: a) u
1
(s
1
, s
2
) u
1
(s
1
, s
2
)s
1
S
1
, b) u
2
(s
1
, s
2
)
u
2
(s
1
, s
2
)s
2
S
2
.
Por tanto, cada estrategia s
i
, i = 1, 2 debe ser solucion al problema de
optimizacion, dado por:
a) Max u
1
(s
1
, s
2
) , buscando la mejor respuesta de I ante la estrategia
s
2
de II. s
1
S
1
b) Max u(s, s), buscando la mejor respuesta de II ante la estrategia s
1

de I. s
2
S
2
114 CAP

ITULO 2. T

ECNICAS DE B

USQUEDA
Otra forma de interpretar el equilibrio de Nash es por medio de las curvas
de reaccion:
a) Para cada estrategia s
2
de II, el jugador I resuelve el problema Max
u(s
1
, s
2
), s1 S
1
, obteniendo una respuesta optima s
1
= R
1
(s
2
) llamada
curva de reaccion del jugador I.
b) Para cada estrategia s
1
de I, el jugador II resuelve el problema Max
u2(s
1
, s
2
), s
2
S
2
, obteniendo una respuesta optima s
2
= R
2
(s
1
) llama-
da curva de reaccion del jugador II.
El equilibrio de Nash es aquel o aquellos puntos de interseccion de las dos
curvas de reaccion de ambos jugadores, el decir, un par de estrategias s
1

y s
2
que verican las igualdades:
s
1
= R
1
(s
2
)
y
s
2
= R
2
(s
1
)
Dentro de la teora de juegos no cooperativos encontramos las siguientes
variantes: i) formas de juego estrategicas, ii) formas de juego extensivas,
y iii) juegos de suma cero. En el segundo caso se manejan situaciones con
informacion perfecta e imperfecta.
2.5.3. Formas de juego: estrategicas y extensivas
La forma de juego estrategica (tambien conocida como forma normal ),
es el tipo de juego basico estudiado en la teora de juegos no cooperativos.
En este juego, las estrategias de cada jugador son enlistadas, as como
los resultados obtenidos por cada combinacion posible de elecciones. Un
resultado se representa por una utilidad para cada jugador. La utilidad
es usualmente representada por un n umero que indica la preferencia del
jugador por el resultado.
A su vez, la forma extensiva tambien conocida como arbol de juego, es
una representacion del juego mas detallada que la anterior. Es una de-
scripcion detallada que muestra como el juego evoluciona con el tiempo.
Esto incluye el orden en el que los jugadores pueden tomar acciones, la
informacion que los participantes tienen en ese momento as como los
momentos en que se resuelve cualquier incertidumbre de la situacion. Un
2.5. TEOR

IA DE JUEGOS 115
juego en forma extensiva puede analizarse directamente, o se puede con-
vertir en una forma estrategica equivalente.
Juegos extensivos con informacion perfecta. Los juegos estrategicos
o normales, no manejan informacion temporal. En estos juegos, los ju-
gadores eligen sus estrategias de manera simultanea sin conocer la eleccion
de los adversarios. Un modelo mas detallado de este tipo de juegos es una
representacion en forma de arbol conocida como: juegos extensivos, en el
cual, los jugadores son informados en bases temporales de las estrategias
utilizadas por sus adversarios. A estos juegos se les identica por manejar
informacion perfecta. En un juego extensivo con informacion perfecta, ca-
da jugador es en todo momento consciente de las opciones seleccionadas
por los demas jugadores. Ademas, solo un jugador hace un movimiento a
la vez, de tal forma que no existen movimientos simultaneos. Para ilustrar
el mecanismo que sigue este juego se va a mostrar el siguiente ejemplo.
Eleccion de calidad con compromiso. Se va a plantear el juego para la
eleccion de calidad, el cual se forma por dos jugadores. Suponga que el
jugador 1 es un proveedor de servicios de Internet, y que el jugador 2 es
un cliente potencial, quienes consideran concertar un contrato de servi-
cio por un perodo de tiempo. El proveedor puede decidir por s mismo,
optar entre dos niveles de calidad en el servicio: alto o bajo. Es mas cos-
toso proporcionar servicio de alta calidad, y algunos de los costos son
independientes de si el contrato esta rmado o no. El nivel de servicio
no se puede vericar en el contrato. El servicio de alta calidad es mas
valioso para el cliente que el servicio de baja calidad, tanto es as, que
el cliente preferira no comprar el servicio si supiera que es de baja cali-
dad. Sus opciones son: comprar o no comprar el servicio (ver Figura 2.19).
La Figura 2.19 muestra las posibles utilidades que describen esta situacion.
El cliente preere comprar si el proveedor le suministra un servicio de al-
ta calidad, y no comprar en otra situacion. Independientemente de si el
cliente compre o no, el proveedor siempre preferira suministrar un servicio
de baja calidad. Por otro lado, el comprador asume que el proveedor es
un ente racional y por ende siempre va a preferir la estrategia de propor-
cionar un servicio de baja calidad, de tal manera que se puede anticipar a
esta estrategia y optar por No Comprar. De tal manera, que la racional-
idad de ambos jugadores concluyen que el proveedor siempre optara por
un servicio de baja calidad y como resultado no habra ning un contrato.
116 CAP

ITULO 2. T

ECNICAS DE B

USQUEDA
Figura 2.19: Matriz del juego para elegir la calidad del servicio (alta, baja) entre un
proveedor del servicio y un cliente.
La Figura 2.20 muestra otra variante del juego de eleccion de calidad.
Este es un arbol de juego con informacion perfecta. Cada terminacion
de la rama del arbol o nodo es asociado con un jugador quien hace un
movimiento y pasa al siguiente nodo. Las lneas que conectan los nodos se
etiquetan con la eleccion de los jugadores. El juego comienza en el nodo
inicial o raz del arbol, y naliza en el nodo terminal, el cual establece
el resultado y determina la utilidad de los jugadores. En esta gura, el
crecimiento del arbol es de izquierda a derecha, asimismo, el crecimiento
del arbol puede indicarse de abajo hacia arriba o viceversa.
El proveedor de servicio realiza el primer movimiento, escogiendo la cal-
idad del servicio: Alta o Baja. Enseguida, el cliente es informado acerca
de la eleccion del proveedor, por lo que puede decidir de manera separada
entre comprar o no comprar el servicio en cada caso. Las utilidades re-
sultantes son las mismas que se indicaron en la Figura 2.19. Sin embargo,
ahora el juego es un poco diferente, ya que el movimiento de los jugadores
es en secuencia mas que simultaneo.
Los juegos extensivos con informacion perfecta pueden ser analizados
aplicando la tecnica conocida como induccion hacia atras. Esta tecnica
resuelve el juego considerando en primer termino la ultima eleccion posi-
ble. En este caso, el cliente decide al nal, cuando lo hace ya sabe que
decision tomo el proveedor, por lo tanto, tomara la opcion que le resulte
mejor. De esta forma, si el proveedor opta por proporcionar un servicio de
alta calidad, entonces el cliente decide comprar, dando en este caso una
2.5. TEOR

IA DE JUEGOS 117
Figura 2.20:

Arbol que representa el juego eleccion de calidad, el jugador I se com-
promete a decidir entre calidad Alta o Baja, el jugador II debe actuar en consecuen-
cia. Las echas indican el la trayectoria del movimiento optimo determinado por la
tecnica de induccion hacia atras.
utilidad de 2, que es mayor al resultado obtenido si decidiera no com-
prar. La Figura 2.20 muestra las utilidades obtenidas por las decisiones
tomadas por el cliente.
La solucion propuesta por esta tecnica, especica la forma en que el juego
sera manejado. Iniciando en la raz del arbol, el juego contin ua a lo largo
de una ruta hasta llegar a un resultado. Cabe notar que este analisis
genera varias opciones a lo largo de la ruta. Debido a que este metodo
mira a cada nodo en el arbol, puede especicar para cada jugador un
plan completo que le permita determinar que hacer en cada momento en
el juego, donde el jugador pueda hacer un movimiento aunque ese pun-
to nunca pueda surgir en el curso del juego. A dicho plan se le conoce
como una estrategia del jugador. Por ejemplo, una estrategia del jugador
II en la Figura 2.20 es comprar si ofrecen servicio de alta calidad, no
comprar si ofrecen servicio de baja calidad. Esta es la estrategia del ju-
gador II obtenido por induccion hacia atras. Solo la primera opcion en
esta estrategia entra en efecto cuando se juega de acuerdo a la solucion
de induccion hacia atras.
Juegos extensivos con informacion imperfecta. En muchas situaciones los
118 CAP

ITULO 2. T

ECNICAS DE B

USQUEDA
jugadores no siempre tienen acceso a informacion completa antes de elegir
sus opciones. Los juegos extensivos con informacion imperfecta modelan
exactamente de que informacion disponen los jugadores antes de hacer sus
movimientos. Modelar y evaluar informacion relevante, es precisamente
una de las fortalezas de la teora de juegos. John Harsanyi fue pionero
en esta area, por tal razon sus trabajos fueron reconocidos por el premio
Nobel otorgado en 1994.
Para entender de manera general este enfoque de trabajo en la teora de
juegos, se va a considerar el siguiente escenario. Considere la situacion en-
frentada por una gran empresa de software despues de que una peque na
empresa ha anunciado el despliegue de una nueva tecnologa. La gran
empresa posee un amplio soporte en investigacion y desarrollo, y como
es de conocimiento general, tienen investigadores trabajando en una am-
plia variedad de innovaciones. Sin embargo, solo las grandes compa nas
saben con certeza si han hecho o no alg un progreso en un producto simi-
lar al que estan anunciando. La peque na empresa, considera que hay una
posibilidad de 50 por ciento que la gran empresa haya desarrollado un
producto capaz de competir con el suyo. En aras de la brevedad, cuando
la gran empresa tiene la capacidad para producir un producto capaz de
enfrentar la competencia, hara referencia a tener una posicion fuerte,
a diferencia de una debil.
Despues del anuncio, la gran empresa tiene dos opciones: (i) Puede con-
trarrestar el anuncio indicando que tambien dara a conocer un producto
similar, (ii) Puede optar por ceder el mercado al producto. La gran em-
presa seguramente condiciona su eleccion en relacion a sus conocimientos
del sector privado, y puede actuar de manera diferente cuando tiene una
posicion fuerte que cuando se tiene una debil. Si la gran empresa ha anun-
ciado un producto, la peque na empresa se enfrenta a una eleccion: puede
negociar la compra y se vende a la gran empresa, o puede seguir siendo
independiente y lanzar su producto. El peque no empresario no tiene ac-
ceso a la informacion de las empresas privadas respecto al estado de su
investigacion. Sin embargo, observa si la empresa grande anuncia su pro-
pio producto, y puede intentar deducir a partir de aqu la probabilidad
que la empresa grande ha avanzado en el desarrollo de su producto.
Cuando la empresa grande no tiene un producto fuerte, el peque no em-
presario preferira quedarse en el mercado a vender su producto. Cuando
la gran empresa realmente tiene un producto fuerte, lo opuesto es verdad,
y el peque no empresario decide que es mejor vender en vez de quedarse
2.5. TEOR

IA DE JUEGOS 119
en el mercado.
La Figura 2.21 muestra un juego extensivo que modela esta situacion.
Desde la perspectiva del peque no empresario, que la gran empresa haya
o no realizado investigacion en este campo es aleatorio. Con el n de cap-
turar los eventos aleatorios como el anterior mediante arboles de juegos,
se introducen los movimientos de oportunidad. En un nodo etiquetado
como movimiento de oportunidad, la siguiente rama del arbol es tomado
al azar y no estrategicamente por casualidad, o naturaleza, de acuerdo
a probabilidades incluidas en la especicacion del juego.
El juego en la gura 2.21 se inicia con un movimiento de oportunidad
en la raz. Con una probabilidad de 0.5, el movimiento de oportunidad
decide si la gran empresa de software (jugador I), esta en una posicion
fuerte (mover hacia arriba) o en una posicion debil (mover hacia aba-
jo). Cuando la empresa se encuentra en una posicion debil, puede elegir
Ceder el mercado para el peque no empresario, con recompensas (0, 16)
para los dos jugadores (recompensas en millones de dolares de ganancia).
Tambien puede Anunciar un producto para competir, con la esperanza
de que la empresa peque na (jugador II), vendera, con recompensas 12 y
4 a los jugadores I y II. Sin embargo, si el jugador II decide Quedarse, se
vera beneciado por la publicidad y obtendra una recompensa de 20, con
una perdida de 4 para la empresa grande.
En contraste, cuando la empresa grande se encuentra en una posici on
fuerte, ni siquiera considerara la opcion de ceder el mercado al principi-
ante, sino que simplemente anunciara su propio producto. En la Figura
2.21, esto se modela por una sola eleccion del jugador I en el nodo supe-
rior, lo cual se da por sentado (uno podra agregar la opcion adicional de
tener que ceder y posteriormente eliminarlo como una elecci on dominante
de la gran empresa). Entonces, la recompensa de los dos jugadores son
(20 4) si el principiante permanece y (12, 4) si vende.
Ademas de un arbol de juego con informacion perfecta, como el mostrado
en la Figura 2.21, los nodos de los jugadores estan encerrados por ovalos
llamados conjuntos de informacion. La interpretacion es que un jugador
no puede distinguir entre los nodos de un conjunto de informacion, da-
do su conocimiento en el momento que realiza el movimiento. Dado que
su conocimiento de todos los nodos en un conjunto de informacion es el
mismo, realiza la misma eleccion en cada nodo en el conjunto. Aqu, la
empresa peque na (jugador II), debe elegir entre quedarse o vender. Estas
120 CAP

ITULO 2. T

ECNICAS DE B

USQUEDA
Figura 2.21: Juego extensivo con informacion imperfecta entre jugador I (una gran
empresa de software), y jugador II (una empresa peque na). El movimiento de oportu-
nidad decide si el jugador I es fuerte (nodo superior) y tiene un producto competente,
o debil (nodo inferior) y no lo tiene. Los ovalos indican conjuntos de informacion.
El jugador II solo ve que el jugador I eligio Anunciar un producto competente, pero
no sabe si el jugador I es fuerte o debil.
2.5. TEOR

IA DE JUEGOS 121
son las dos opciones del conjunto de informacion del jugador II, que tiene
dos nodos de acuerdo con las diferentes historias del juego, las cuales el
jugador II no puede distinguir.
Debido que el jugador II no esta informado acerca de su posicion en el
juego, la induccion hacia atras no puede ser aplicada. Sera mejor vender
en el nodo superior y quedarse en el nodo inferior. En consecuencia, la
eleccion del jugador I cuando esta en la posicion debil no es clara, si el
jugador II permanece, entonces es mejor Ceder (ya que 0 es mejor que
-4), pero si el jugador II vende, entonces es mejor Anunciar.
Este tipo de juego no tiene un punto de equilibrio para estrategias puras:
el principiante respondera a Ceder vendiendo al ver un anuncio, desde
luego esto solo se observa cuando el jugador I es fuerte. Pero entonces
el jugador I respondera anunciando un producto incluso en la posicion
debil. A su vez, la igualdad de oportunidades de enfrentar a un oponente
fuerte o debil inducira al principiante a permanecer en el mercado, luego
entonces, la recompensa esperada de 0,5 4 0,5 20 = 8 supera en
4 cuando la opcion es vender.
Juegos de suma cero. El caso extremo de jugadores con intereses to-
talmente opuestos se materializa en la clase de dos jugadores con suma
cero (o suma constante). Ejemplos de este tipo de juegos son algunos
juegos de salon como ajedrez y damas. Estos juegos se pueden usar para
modelar estrategicamente el concepto de no determinismo en las ciencias
computacionales. Este concepto se basa en la suposicion de que, cuando
un ordenamiento de eventos no se ha especicado, se debe asumir que la
peor secuencia posible se llevara a cabo. Esto puede ser colocado en el
marco de la teora de juegos con suma cero tratando a la naturaleza (o
el medio ambiente) como un oponente antagonico. Mediante la aleator-
izacion, un oponente puede describir el peor escenario el cual puede servir
como referencia.
Un uso similar de la aleatorizacion se conoce en la teora de algoritmos
como el Teorema de Rao, y describe el poder de los algoritmos aleatorios.
Un ejemplo es el conocido algoritmo de ordenamiento rapido (quick-sort
algorithm), el cual tiene uno de los mejores tiempos de ejecucion ob-
servado en la practica para esta clase de algoritmos, pero puede estar
mal en el peor de los casos. Con un proceso aleatorio, estos pueden hac-
erse extremadamente improbables. Tanto los algoritmos aleatorios como
122 CAP

ITULO 2. T

ECNICAS DE B

USQUEDA
los juegos de suma cero se utilizan para analizar los problemas de com-
putacion en lnea. Esto, a pesar de su nombre, no esta relacionado con la
Internet, mas bien describe la situacion donde un algoritmo recibe como
entrada un dato en un momento y tiene que tomar decisiones, por ejemplo
en la programacion de actividades, sin ser capaz de esperar hasta que la
entrada se conozca en su totalidad. El analisis de algoritmos en lnea ha
revelado informacion sobre problemas de optimizacion y tambien parece
pertinente para el procesamiento masivo de datos que es de esperarse en
el futuro. En la actualidad, constituye un area de investigacion activa,
aunque mayormente connado a la ciencia computacional teorica.
2.5.4. Juegos cooperativos
En este enfoque todava existen los mismos agentes egostas, pero ahora
se asume que, si pueden obtener alg un benecio de la cooperaci on, no
dudaran en formar alianzas. Por supuesto, bajo una estructura como la
de juegos no cooperativos, un acuerdo de cooperacion puede no ser la
solucion, de manera que los agentes deben tener una estructura de in-
formacion diferente si queremos un comportamiento apropiado. En una
estructura cooperativa tenemos el mismo conjunto de jugadores egostas,
solo que ahora tienen informacion sobre cierta valoracion a priori de las
coaliciones. Es decir, se reconoce cuales alianzas son mas valiosas y
cuales menos valiosas. Para concretar ideas, se va a presentar un mod-
elo que muestra bien el poder predictivo que puede tener este tipo de
estructura y las soluciones asociadas. El modelo del Peque no Mercado
muestra una estructura de mercado en la que hay un vendedor (jugador
1) de cierto bien que no podemos dividir en partes (por ejemplo, un au-
tomovil), y dos compradores (jugador 2 y jugador 3) que desean comprar
ese bien. Las valoraciones que a priori se le asignan a las coaliciones
seran, en este caso un reejo del exito o fracaso de la negociacion entre el
vendedor y el comprador, dependiendo de como se entiendan, y no una
prediccion sobre quien de los dos obtendra el bien (este problema tiene
otra valoracion). En este caso, asignamos la valoracion a todas las posi-
bles coaliciones de la siguiente forma:
V(1,2,3) = V(1,2) = V(1,3) = 1 (si hay vendedor y comprador, el
negocio se lleva a cabo).
V(1) = V(2) = V(2,3) = 0 (si solo hay compradores o vendedores,
no se realiza el negocio).
2.5. TEOR

IA DE JUEGOS 123
Existen varias soluciones al tipo de juegos en forma cooperativa. Por
supuesto, una solucion debe signicar una reparticion de la riqueza o
valoracion total de todo el grupo de jugadores como gran coalicion, de tal
manera que a cada jugador le corresponda su aporte a ella. La forma
de determinar el nivel de este aporte es un aspecto que se analiza con las
dos mas importantes soluciones a juegos cooperativos: el n ucleo y el valor
de Shapley.
N ucleo del juego cooperativo [25]. La idea de reparticion detras de
la solucion de n ucleo es que si esta le asigna x
1
al vendedor (jugador 1),
x
2
al comprador 1 (jugador 2), y x
3
al comprador 2 (jugador 3), entonces
debemos por lo menos tener que:
x
1
+x
2
+x
3
= 1 (eciencia)
(los tres agentes se reparten el poder del mercado que esta a priori en
la union de los tres).
V (1, 2) x
1
+x
2
,
V (1, 3) x
1
+x
3
,
V (2, 3) x
2
+x
3
,
V (1) x
1
,
V (2) x
2
,
V (3) x
3
(lo que los agentes reciben a traves de la asignacion de n ucleo es mejor
que lo que recibiran antes de la asignacion a priori V, y esto sucede en
cualquier coalicion que formen). Observese que la asignacion de n ucleo
es un acuerdo muy basico. Es una invitacion a formar coaliciones: si
usted forma alguna coalicion ganara mas de lo que gana en cualquier
coalicion del status quo determinado por la asignacion a priori V. Un
poco de aritmetica nos muestra que la unica asignacion de n ucleo en nue-
stro Peque no Mercado es x
1
= 1, x
2
= x
3
= 0. En otras palabras, el
n ucleo esta pronosticando que la importancia total del mercado la tiene
el vendedor y que los compradores no tienen ninguna.
Valor de Shapley [26]. Otra forma de distribucion con consideraciones
mas sutiles que las de n ucleo, es el valor de Shapley. Podra decirse que el
valor de Shapley es a los juegos cooperativos lo que el equilibrio de Nash
es a los juegos no cooperativos.
124 CAP

ITULO 2. T

ECNICAS DE B

USQUEDA
Como se describio en el ejemplo anterior, un juego cooperativo consiste
en un conjunto de jugadores N(N = n) y una asignacion monetaria V (S)
para cada subcoalicion S N. El problema que se intenta resolver es:
Como distribuir la riqueza total V (N) entre todos los participantes?. El
valor de Shapley busca solucionarlo imponiendo ciertas condiciones a la
distribucion: Si x
i
, i N, es la asignacion que recibira en la distribucion
de Shapley el jugador i, entonces
(Eciencia) x
1
+x
2
+...x
n
= V (N)
(Jugador dummy o fantasma) Si para alg un i N, V (SI) = V (S)
para toda coalicion S, entonces x
i
= 0
(Simetra) Si las valoraciones de las coaliciones no cambian cuando
se reemplaza un jugador por cualquier otro, entonces, todos reciben
lo mismo. Es decir, x
1
= ... = x
n
.
(Aditividad) Si V y W son dos valoraciones distintas sobre el mismo
conjunto N de jugadores, entonces la asignacion de cualquier jugador
para la valoracion V y para la valoracion W es aditiva. Es decir, para
todo i N, x
i
(V +W) = x
i
(V ) +x
i
(W).
Solo el valor de Shapley satisface estas cuatro condiciones. Y m as a un, ex-
iste una formula explcita sobre como calcularlo, basada en las contribuciones
marginales (es decir, una medida de cuanto un jugador le aporta a las
coaliciones en donde esta):
x
i
=

r
(
i
(S
i
(r)))
n!
(2.1)
donde es el conjunto de los n! ordenes de N, S
i
(r) = conjunto de ju-
gadores que preceden a i en el orden r,
i
(S) = V (S i)/V (S) =
contribucion marginal del agente i a la coalicion S.
Como un ejemplo de la mejor distribucion total de la riqueza del juego
entre los participantes que el valor de Shapley realiza, es facil calcular
que en el juego del Peque no Mercado que analizabamos antes, el valor de
Shapley es:
x
1
= 2/3, x
2
= 1/6, x
3
= 1/6.
A diferencia del n ucleo, cuya asignacion es (1, 0, 0), el valor de Shapley
s le asigna importancia a los compradores, aunque reconoce un poder
2.5. TEOR

IA DE JUEGOS 125
mayor al vendedor.
Una importante categora en el estudio de la teora de juegos clasica con-
siste en una subdivision de la teora de juegos cooperativos: los Modelos
de Negociaci on. En estos juegos, dos o mas jugadores buscan ganar a
traves de la cooperacion, pero deben negociar el procedimiento y la for-
ma en que se dividiran las ganancias de esta cooperacion. Un modelo de
negociacion especica como y cuando se alcanzan los acuerdos y como se
dividiran las ganancias, dependiendo de las reglas de negociacion y de las
caractersticas de los negociadores.
John Nash realizo contribuciones fundacionales a la teora de juegos de ne-
gociacion. En su artculo de 1950 [24], se aparta radicalmente de la teora
economica ortodoxa que consideraba indeterminados los problemas de
negociacion. En contraste, Nash asume que la negociacion entre agentes
racionales conduce a un unico resultado, y lo determina imponiendole
al modelo ciertas propiedades deseables. La formulacion de Nash del
problema de negociacion y su solucion (la solucion de negociacion de
Nash) constituyen el fundamento de la teora moderna de la negociaci on.
Para aclarar un poco el problema de negociacion de Nash, suponga que
se tienen dos jugadores egostas que buscan dividirse una cantidad de
dinero M y que no estan de acuerdo en que los dos no obtengan nada
de la negociacion, pero que si no llegan a un acuerdo, entonces s les
correspondera irse con las manos vacas. John Nash mostro que, bajo
ciertas condiciones plausibles, los dos jugadores acordaran la reparticion
(x1, x2) que maximiza el producto de los dos. Es decir, resuelven
Max x
1
x
2
, sujeto a la condicion x
1
+x
2
= M.
La solucion a esto es, como se ve facilmente, (x
1
) = (x
2
) = 1M. Esta es
la solucion de negociacion de Nash para este simple problema: distribucion
equitativa de la cantidad de dinero disponible.
Las propiedades deseables mencionadas anteriormente, que satisfacen
la solucion de negociacion de Nash son las siguientes:
a) Eciencia: las soluciones de negociacion de Nash agotan todas las
oportunidades de mejorar las ganancias de ambos jugadores.
b) Simetra: si el cambio de un jugador por otro no cambia el problema
de negociacion, en la solucion ellos deben obtener lo mismo.
c) Invarianza: la solucion no puede depender de las unidades arbitrarias
en las que se midan los benecios de la negociacion.
126 CAP

ITULO 2. T

ECNICAS DE B

USQUEDA
d) Independencia de alternativas irrelevantes: es la hipotesis mas
sutil. Establece que el resultado de una negociacion no puede depen-
der de alternativas de negociacion que los negociadores no escogen
aunque pudieran hacerlo.
Estas cuatro hipotesis conducen al conocido teorema de negociaci on de
Nash. La solucion de negociacion de Nash es la unica que satisface las
propiedades a), b), c), d) en un modelo de negociacion.
Cooperar o competir. Nash aseguraba que la teora de juegos cooper-
ativa y no cooperativa eran complementarias, que cada una ayudaba a
justicar y claricar la otra. Si una solucion cooperativa poda ser obteni-
da a partir de un conjunto convincente de hipotesis, esto indicaba que
tambien poda ser apropiada en una variedad de situaciones mas amplia
que las encontradas en un modelo no cooperativo simple. Adem as, si re-
formulamos los juegos cooperativos como no cooperativos y buscamos los
equilibrios de Nash de estos ultimos, la discusion abstracta sobre lo ra-
zonables que puedan ser los principios o los resultados se reemplazan por
una discusion mas mundana acerca de lo apropiadas que resulten las re-
glas del juego. El programa Nash buscaba la posibilidad de la unicacion
teorica, y algunos logros ya se tienen en este sentido. Uno de ellos es el
famoso teorema de Aumann [27] que arma, en terminos elementales y a
la vez un tanto vagos lo siguiente:
En un grupo conformado por muchos agentes que tratan de disputarse
cierta cantidad de dinero, las distribuciones de equilibrio de Nash, de
n ucleo, de valor de Shapley y de negociaci on de Nash coinciden.
Aqu, la palabra muchos intenta capturar la idea de que cada jugador,
por s mismo, tiene un poder estrategico practicamente nulo. Solo tienen
poder, para la asignacion, grupos verdaderamente grandes, no individ-
uos aislados. Una implicacion directa de este teorema es que cuando las
interacciones individuales tienden a anularse, la competencia y la coop-
eracion conducen a los mismos resultados!!
Otro modelo basico muy importante en la direccion del programa Nash
es el de Rubinstein [28], que muestra que cualquier resultado de nego-
ciacion Nash entre pocos agentes, puede aproximarse mediante equilib-
rios de Nash de juegos no cooperativos secuenciales. Pero, por encima de
esto, el gran impulso del programa Nash se recibio en 1994 en el semi-
nario Nobel sobre el trabajo de John Nash en la Universidad de Princeton
(publicado en Les Prix Nobel 1994). Despues de estos, se han obtenido
resultados que involucran otros valores diferentes al de Shapley en es-
2.6. EJERCICIOS 127
tructuras de juegos mas sosticadas que muestran que la armacion de
Shapley en el sentido de que ambas teoras (cooperativa y no cooperati-
va) son, no solo complementarias, sino que realmente son una sola teora
vista con dos lentes diferentes [21, 29].
El razonamiento de la teora de juegos, es ahora el fundamento de im-
portantes areas de la teora economica, y esta rapidamente entrando en
disciplinas aparentemente dismiles como: nanzas, ciencias polticas, so-
ciologa, derecho y biologa. Las contribuciones de John Nash (junto con
Harsanyi, Selten, Aumann y Shapley) constituyen importantes aporta-
ciones en el desarrollo de la teora de juegos y en el establecimiento de
una metodologa com un para analizar la interaccion estrategica dentro
de todas las ciencias sociales, e incluso (este es el reto) en otras ciencias.
2.6. Ejercicios
a) Resuelva el problema de las dos jarras de vino aplicando el algoritmo
A*, dena sus heursticas.
b) Muestre la representacion mediante un CSP del problema de las n
reynas, para un valor de n = 4.
c) Comprobar que existe un equilibrio de Nash en el ejemplo del dilema
del prisionero.
d) Dos personas entran a un autob us. Hay dos asientos adyacentes libres.
Cada persona debe decidir entre sentarse o seguir de pie. Sentarse solo
es mas confortable que tener al lado una persona, sin embargo, esto
ultimo es mas confortable que seguir de pie.
a) Suponga que cada persona busca su propio confort. Modele esta
situacion como un juego estrategico. es este juego equivalente al
dilema del prisionero?, busque el equilibrio de Nash si es que
este existe.
b) Suponga que cada persona es altruista, clasique los resultados
seg un la comodidad y cortesa de la otra persona, la cual preere
estar de pie a sentarse si la otra persona esta de pie. Modele esta
situacion como un juego estrategico. es este juego equivalente al
dilema del prisionero?, busque el equilibrio de Nash si es que
este existe.
e) Dos personas eligen una poltica que afecta a ambos mediante el veto
alternado de polticas hasta que solo una permanezca. La persona I
veta una poltica. Si a un queda mas de una poltica, entonces la per-
sona 2 veta una poltica. Si mas de una poltica todava permanece,
128 CAP

ITULO 2. T

ECNICAS DE B

USQUEDA
entonce la persona 1 entonces veta otra poltica. El proceso sigue
hasta que solo quede una poltica. Suponga que hay tres polticas
posibles: X, Y, y Z, la persona 1 preere X a Y a Z, y la persona 2
preere Z a Y a X. Modele esta situacion como un juego extensivo
y encuentre el equilibrio de Nash.
f ) . Un prisionero analiza las posibilidades para escaparse ya sea esca-
lando la barda de la prision o cavando un t unel desde su celda. El
supervisor de la carcel a su vez, evita que el prisionero trepe por la
barda asignado guardias a lo largo de la pared y tambien evita que
cave un t unel realizando inspecciones constantes a su celda. Sin em-
bargo, el supervisor solamente tiene guardas sucientes para una de
las dos tareas pero no para ambas.
a) Elegir (justique) una utilidad numerica para este juego, luego
representelo en forma normal. Aseg urese de etiquetar las estrate-
gias y jugadores en la matriz de juego. es este un juego de suma
cero?, justique su respuesta.
b) Exprese este juego en forma extensiva, asumiendo que tanto el
prisionero como el supervisor eligen su decision al mismo tiempo.
c) Modele este juego en forma extensiva considerando que el super-
visor toma su decision primero, y que el prisionero la toma una
vez que conoce la estrategia del supervisor.
g) . Suponga que un inversionista esta pensando abrir un restaurante. El
tiene $100,000 para invertir. Si el abre el restaurante, la probabilidad
de que el restaurante tenga exito es de 0,35 y obtenga una ganancia
de $300,000 (incluyendo la inversion inicial). La probabilidad de que
el restaurante fracase y que pierda la inversion es de 0,65. Si no abre
el restaurante mantiene su capital inicial.
a) Modele lo descrito como un juego de forma extensiva consideran-
do que la decision del inversionista entre abrir y no abrir el restau-
rante se hace primero, y el azar interviene despues. Asegurarse
de etiquetar a los 2 jugadores, sus acciones elegidas, asimismo
incluya las recompensas esperadas en los nodos terminales.
b) Repita el proceso anterior suponiendo que el orden de las deci-
siones se invierte, es decir, el azar act ua primero, pero el inver-
sionista no sabe lo que el azar tiene para el al tomar su decision
de abrir/no abrir el restaurante.
h) En cada uno de los arboles de juego mostrados, cuantas estrate-
gias puras (planes de accion completos) estan disponibles para cada
jugador?. Liste todas las estrategias puras para cada jugador.
Captulo 3
Representacion del
conocimiento y razonamiento
En este captulo se va a describir uno de los temas relevantes en IA, me
reero al concepto de conocimiento, caracterstica humana en torno a la
cual ha girado gran parte de la investigacion cientca y losoca desde los
tiempos de Aristoteles. La inteligencia, resulta ser con toda seguridad uno
de los fenomenos mas complejos y misteriosos que conocemos. Un aspecto
llamativo del comportamiento inteligente es que claramente se encuentra
condicionado por el conocimiento: para una amplia gama de actividades
tomamos decisiones basandonos en lo que sabemos acerca del mundo, de
manera inconsciente y sin esfuerzo. Otro aspecto tan importante como el
mismo conocimiento consiste en su representacion, ya que es a traves de
este mecanismo computacional que se tiene la posibilidad de manipular
(de forma automatizada) al conocimiento. El manejo automatizado del
conocimiento se realiza generalmente a traves de programas de razon-
amiento. Comprender el conocimiento y poder manipularlo, es una forma
de abordar la inteligencia, ya que en lugar de tratar de comprender y
construir cerebros bajo un enfoque de abajo hacia arriba (bottom-up),
se trata de entender o dise nar el comportamiento inteligente de arri-
ba hacia abajo (top-down). Existen diferentes maneras de representar el
conocimiento. Una de ellas consiste pensar en terminos de un lenguaje
de representacion tal como logica simbolica y enfocarnos a describir la
forma en que esta logica puede ser utilizada en los problemas de IA. Otro
enfoque se basa en la especicacion y desarrollo de grandes sistemas basa-
dos en conocimiento, bajo este esquema surgen aspectos relacionados con
la ingeniera del conocimiento y ontologas. Un tercer enfoque se basa en
las ciencias cognitivas, el cual se centra en la representacion de estados
mentales humanos. Asimismo, existe ademas de los enfoques anteriores,
129
130CAP

ITULO 3. REPRESENTACI

ONDEL CONOCIMIENTO YRAZONAMIENTO


un cuarto esquema, el cual se basa en la interaccion entre el conocimiento
y el razonamiento. De hecho, se considera que es esta interaccion lo que
hace al area de representacion del conocimiento realmente atractiva y rel-
evante en la practica, ya que es tal sinergia, la que hace al conocimiento
estar disponible de una forma automatizada para el sistema que as lo
requiera [57].
En este captulo se van a presentar distintos enfoques relacionados con
el conocimiento, su representacion mediante smbolos formales dise nados
para este n y la manipulacion de los mismos a traves de tecnicas de
razonamiento.
3.1. Sistemas basados en conocimiento (KBS)
Datos, informacion, conocimiento y sabidura, son los principales ele-
mentos del pensamiento humano y del proceso de razonamiento. Exis-
ten diferencias distintivas entre estos elementos, los datos tienen que ver
con observaciones y hechos sin tratamiento, los cuales son in utiles sin
un procesamiento previo (ltrado, inferencia, comparacion,. . . ). Cuando
los datos son procesados se convierten en informacion, la cual a su vez,
cuando se le aplican procesos como sntesis, comparacion y an alisis con
el n de generar resultados signicativos se transforma en conocimiento
[31]. En esta misma secuencia, con el paso del tiempo y la experiencia
el conocimiento generado adicionado con el uso de juicios y valores se
convierte en sabidura (ver Figura 3.1).
El conocimiento puede clasicarse de varias maneras: conocimiento t acito,
explcito, heurstico, procedural, del sentido com un, conocimiento del do-
minio y meta conocimiento. En la Tabla 3.1 se proporciona una breve
descripcion de estos tipos de conocimientos.
El conocimiento puede ser representado a traves de estructuras como:
hechos, reglas y heursticas. La heurstica, como una regla general se con-
sidera una metodologa tactica en la solucion del problema. Por regla
general se puede mencionar que para cada uno de los problemas que
enfrentamos en la vida real, es posible que no se tengan reglas exactas y
procedimientos para una solucion deseada, pero si, de una regla emprica
que pueda aplicarse.
Estructura de un sistema basado en conocimiento (KBS
1
). Los
1
Por sus siglas en ingles: KnowledgeBased Systems.
3.1. SISTEMAS BASADOS EN CONOCIMIENTO (KBS) 131
Cuadro 3.1: Tipos de conocimiento.
Tipo de conocimiento Breve descripcion
Conocimiento del dominio Es un conocimiento valido para un dominio especicado.
Los especialistas y expertos desarrollan su propio conocimi-
ento del dominio y lo aplican en la solucion de problemas.
Metaconocimiento Puede denirse como el conocimiento acerca del coocimiento.
Conocimiento del sentido com un Es un conocimiento de prop osito general que se espera
este presente en cualquier humano. Las ideas del sentido
com un se relacionan con eventos de la experiencia
humana.
Conocimiento heurstico Es un conocimiento expresado por reglas o argumentos
obtenidos de la experiencia.
Conocimiento explcito Es un conocimiento que puede ser expresado
en n umerospalabras y compartidos en forma de dato,
formula cientca, especicaci on, manuales,
y principios universales. Es m as formal y sistematico.
Conocimiento tacito Es el conocimiento almacenado en el subconsciente de
expertos y que no resulta facil documentar. Es altamente
personal, difcil de formalizar y de representar formalmente
en un sistema. Ejemplos de este conocimiento son: emociones,
modelos mentales, intuiciones, valores y acciones,
entre otros.
132CAP

ITULO 3. REPRESENTACI

ONDEL CONOCIMIENTO YRAZONAMIENTO


Figura 3.1: Cadena DIKW ((DataInformationKnowledgeWisdom))
KBS son uno de los miembros principales que integran la familia de la
IA. Con la disponibilidad de facilidades de computacion avanzada as co-
mo de otros recursos, la atencion se centra ahora en tareas cada vez
mas demandantes, las cuales pueden requerir de inteligencia. La sociedad
y las empresas se estan orientando al conocimiento y cada vez confan
mas en la habilidad de los expertos para tomar sus decisiones. Los KBS
pueden actuar como expertos y ser utilizados en cualquier momento y
lugar. De hecho un KBS es un sistema basado en computadora, el cual
usa y genera conocimiento a partir de datos, informacion y conocimiento.
Estos sistemas son capaces de comprender la informacion bajo proceso y
pueden tomar decisiones en base a la informacion y el conocimiento que
reside en el mismo, mientras que los sistemas de computo tradicionales
no conocen o no entienden los datos y la informacion que procesan.
Un KBS consiste de una Base de Conocimientos y un programa de
b usqueda conocido como motor de inferencias, el cual se encarga de in-
ferir el conocimiento almacenado en la Base de Conocimientos (ver Figu-
ra3.2). La base de conocimientos puede utilizarse como un repositorio
de conocimiento de varias maneras, puede ser un espacio utilizado para
almacenar resultados temporales yo trozos de informacionconocimiento.
Al igual que el poder de un experto humano radica en su capacidad
de explicacion y razonamiento, la credibilidad del sistema experto tam-
bien depende de la explicacion y razonamiento sugeridos por el sistema.
3.1. SISTEMAS BASADOS EN CONOCIMIENTO (KBS) 133
Figura 3.2: Arquitectura de un Sistema Basado en Conocimiento (KBS).
Asimismo, simula la habilidad de aprendizaje de un humano, lo que re-
sulta esencial para aprender nuevo conocimiento y desechar los obsoletos.
La vida de un KBS vara dependiendo del grado de simulacion, estos sis-
temas pueden ser actualizados de forma manual o de manera automatica
a traves de tecnicas de aprendizaje. De manera ideal, la estructura basica
de un KBS, rara vez debe modicarse. Asimismo, es conveniente dispon-
er de una interfaz de usuario para poder comunicarse con el sistema de
forma natural (ver Figura 3.2).
De acuerdo al esquema de clasicacion propuesto por Tuthill y Levy ex-
isten 5 tipos de KBS [32]:
a) Sistemas Expertos,
b) Sistemas Manipuladores de Hipertexto,
c) Sistemas Basados en Casos,
d) Bases de Datos Integrada con una Interface de Usuario Inteligente, y
e) Sistemas Tutores Inteligentes.
Ventajas y limitaciones de un KBS. Los KBS son mas utiles en
muchas situaciones que los tradicionales sistemas de informacion basados
en computadora. Algunas de estas situaciones son las siguientes:
Cuando no se tiene disponible a un experto humano.
Cuando la experiencia va a ser almacenada para uso futuro o va a
ser multiplicada.
Cuando se necesita un asistente inteligente y/o un entrenamiento
para tomar decisiones.
Cuando se necesita reunir el conocimiento de varios expertos en una
plataforma.
134CAP

ITULO 3. REPRESENTACI

ONDEL CONOCIMIENTO YRAZONAMIENTO


Figura 3.3: Esquema que muestra el proceso de desarrollo de un Sistema Basado en
Conocimiento (KBS).
Con una apropiada utilizacion del conocimiento estos sistemas incremen-
tan la productividad, y mejoran la capacidad de resolucion de problemas
de una forma mas exible. Sin embargo, por la escasez y la naturaleza
del conocimiento hacen que el proceso de desarrollo de un KBS sea difcil
y complejo. Esto se debe principalmente a la naturaleza transparente y
abstracta del conocimiento. Ademas, este campo necesita mas directrices
para acelerar su proceso de desarrollo. Algunas de las principales limi-
tantes que presentan actualmente estos sistemas son las siguientes:
La adquisicion, representacion y manipulacion de grandes vol umenes
de datos/informacion/conocimiento.
La naturaleza abstracta del conocimiento.
Limitaciones de las ciencias cognitivas y de otros metodos cientcos.
Desarrollo de un KBS. La Figura 3.3, muestra el esquema del proceso
de desarrollo que sigue un sistema basado en conocimiento. El conocimien-
to de los expertos se almacena en sus mentes de una forma abstracta.
Ademas, cualquier experto humano puede no estar familiarizado con la
terminologa utilizada en los KBS as como en el proceso de desarrollo
de un sistema inteligente. Por lo que, el ingeniero del conocimiento es la
persona encargada de adquirir, transferir y representar el conocimiento
del experto en la forma de un sistema para computadora.
El proceso de adquisicion del conocimiento integra tpicos metodos tales
como: entrevistas, cuestionarios, registros, y observaciones con el n de
3.1. SISTEMAS BASADOS EN CONOCIMIENTO (KBS) 135
adquirir conocimiento explcito. Sin embargo, estos metodos no son efec-
tivos para obtener conocimiento tacito, el cual reside en el subconsciente
de los expertos y se reeja en los modelos mentales, ideas, valores, y ac-
ciones de los mismos. Para obtener esta informacion se requieren otras
tecnicas, tales como: ordenamiento de conceptos, mapeo de conceptos,
y analisis de protocolos. El conocimiento adquirido debe representarse
aplicando tecnicas apropiadas para tal n, tales como: reglas, frames, y
redes semanticas. Es responsabilidad del ingeniero del conocimiento elegir
el metodo (o una combinacion) apropiado que resulte natural, eciente,
transparente, y amigable con el desarrollador.
3.1.1. Concepto de conocimiento
El conocimiento es un aspecto humano que ha sido discutido por los an-
tiguos losofos griegos y que hasta la fecha no ha sido desmiticado. Lo
cierto es que tampoco se intentara aqu, pero para tener una idea general
acerca de lo que se entiende por conocimiento, nos sera de utilidad obser-
var como nos referimos a el de manera informal. En primer lugar, debemos
observar que cuando decimos algo como Juan sabe que..., generalmente
llenamos el espacio faltante con una simple sentencia declarativa. Por lo
que podramos decir que Juan sabe que Mara viene al partido o que
Juan sabe que los tigres son carnvoros. Esto sugiere que, entre otras
cosas, el conocimiento es una relacion entre un conocedor como Juan
y una proposicion, es decir, la idea expresada por una simple sentencia
declarativa como Mara llegara al partido.
Parte del misterio que rodea al conocimiento se debe a su naturaleza
proposicional. A este respecto, lo que importa sobre las proposiciones es
que son entidades abstractas que pueden tomar dos valores: verdadera o
falsa, correcta o incorrecta
2
. Por lo tanto, al decir que Juan sabe que p,
podemos indicar que Juan sabe que es verdad que p, decir que Juan
sabe algo es establecer que Juan se ha formado un juicio de alg un tipo
y ha llegado a comprender que el mundo es de una manera y no de otra
(conclusion que se desprende del valor que tome la proposicion). Al hablar
acerca de este juicio se estan empleando proposiciones para clasicar los
casos.
Una historia similar se puede decir acerca de una sentencia como Juan
confa en que Mara llegara a la esta. En este caso, tambien se uti-
liza una proposicion, pero la relacion que Juan muestra en la misma es
2
Estrictamente hablando, podemos decir que las oraciones que expresan la proposici on son
verdaderas o falsas y que por s misma, las proposiciones son hechos o no lo son.
136CAP

ITULO 3. REPRESENTACI

ONDEL CONOCIMIENTO YRAZONAMIENTO


diferente. Verbos como Conocer, Conar, Lamentar, Temer, y
Dudar denotan proposiciones de actitud. En todos los casos, lo que
importa sobre la proposicion es la verdad: si Juan confa en que Mara
llegara a la esta entonces Juan espera que el mundo sea de una manera
y no de otra, como se establece (clasica) en la proposicion.
Asimismo, tambien existen sentencias que involucran conocimiento y no
necesariamente implican a una proposicion. Por ejemplo, Juan sabe a
quien Mara esta llevando a la esta o Juan sabe como llegar all,
en estos casos las proposiciones implcitas son: Juan sabe que Mara
va acompa nada a la esta, y Juan sabe que para llegar a la esta,
debe caminar dos cuadras, pasar la avenida principal, doblar a la izquier-
da,. . . ,, y as sucesivamente. Por otro lado, cuando decimos que Juan
tiene una habilidad, tal como Juan sabe tocar el piano, o bien, que
posee un profundo conocimiento de alguien o algo, por ejemplo: Juan
conoce bien a Ricardo, en estos casos no resulta claro que alguna proposi-
cion este involucrada, y aunque es evidente que se esta implicando una
forma de conocimiento, la manera de manejarlo es hasta el momento un
tema que resulta desaante.
Un aspecto que guarda relacion con lo que se esta tratando y que interesa
a la comunidad cientca de IA es el concepto de creencia. La proposicion
Juan cree que p se encuentra muy relacionada con la proposicion Juan
sabe que p. Se utiliza la primera expresion cuando no se desea armar
que el juicio de Juan sobre el mundo es necesariamente exacto o apoyado
por razones apropiadas o bien cuando Juan no esta totalmente conven-
cido. De hecho, se cuenta con una amplia variedad de proposiciones de
actitud, tales como: Juan esta realmente convencido de que p, Juan
es de la opinion que p, Juan sospecha que p, y otras mas, las cuales
solo dieren en el grado de conviccion que emplean.
Un aspecto com un en las proposiciones mostradas y es lo que interesa en
todo caso, es que todas comparten una idea basica: Juan considera que
el mundo es de una manera y no de otra, es decir, es el conocimiento que
Juan tiene acerca del mundo.
En este momento solo se presenta una percepcion de conocimiento desde
un enfoque proposicional, sin embargo, se van a presentar en las secciones
siguientes distintos aspectos relacionados con este concepto.
3.1. SISTEMAS BASADOS EN CONOCIMIENTO (KBS) 137
3.1.2. Lenguajes utilizados en la representacion de
conocimiento (RC)
En este espacio, mas que hablar de las diferentes tecnologas utilizadas
para representar al conocimiento, se van a describir algunos aspectos im-
portantes relacionados con este concepto, con la nalidad de que sean
considerados al momento de dise nar su representacion. De acuerdo con
Davis y otros [33], la representacion del conocimiento es m as compren-
sible si se presenta en terminos de los distintos roles que desempe na. La
comprension de los roles y reconocer su diversidad tiene varias consecuen-
cias utiles. Primero, cada rol requiere de algo ligeramente diferente para
una representacion, lo cual conduce a un interesante y diferente conjunto
de propiedades que se desea representar. Segundo, los roles proveen un
esquema util para caracterizar una amplia variedad de representaciones
revelando sus similaridades y diferencias esenciales. Tercero, los autores
consideran que presentar la representacion bajo estos roles tiene conse-
cuencias positivas tanto para la investigacion como para la practica. Para
la investigacion proporciona una forma directa de responder a la pregun-
ta fundamental en este campo. Asimismo, sugiere una amplia perspectiva
acerca de lo que es importante para la representacion, haciendo la obser-
vacion de que una parte signicativa del esfuerzo en la representacion
capturar y representar la riqueza del mundo natural no ha recibido la
debida atencion. La comprension de representacion del conocimiento en
termino de los 5 roles se describe a continuacion.
Rol I: La representacion del conocimiento como un Sustituto.
Cualquier entidad inteligente que desea razonar acerca de su mundo se
enfrenta ante un hecho ineludible: el razonamiento es un proceso que
sucede internamente, mientras que la mayora de las cosas sobre las que
razona existen externamente. Por ejemplo, una persona que planea el en-
samble de una bicicleta, tiene que razonar acerca de las diferentes piezas,
tales como: manubrio, cadena, llantas, bocina, etc., las cuales existen en
el mundo exterior. Esta dicotoma resulta un aspecto fundamental para
la representacion, funciona como un reemplazo dentro del pensador, un
suplente para las cosas que existen en el mundo, una sustitucion por in-
teraccion directa con el mundo. Bajo este punto de vista, el razonamiento
es en s un sustituto para la accion en el mundo, cuando no se quiere o
no se puede tomar cierta accion. Al considerar la representaci on como
un reemplazo, se deben tener en cuenta dos aspectos: (i) debe existir
una correspondencia determinada por la semantica entre el sustituto y
su referente en el mundo, y (ii) debe existir una delidad aceptable entre
138CAP

ITULO 3. REPRESENTACI

ONDEL CONOCIMIENTO YRAZONAMIENTO


el sustituto y el referente real que sustituye. Asimismo, la representacion
como sustituto debe funcionar tanto para objetos tangibles como para los
objetos intangibles (acciones, creencias, causas) permitiendo describirlas
como una entidad y poder razonar con ellas. Cuando se utilizan sustitu-
ciones imperfectas lo cual resulta inevitable se deben considerar sus
consecuencias. Por ejemplo, es com un considerar aspectos que no estan
presentes en el mundo real u omitir algunos que s lo estan. Otra con-
secuencia, consiste en el proceso de razonamiento utilizado acerca del
mundo real, el cual sin importar el metodo utilizado e independiente de
la representacion puede llegar eventualmente a conclusiones incorrectas.
Esto se debe a que toda representacion es incompleta y por ende es una
fuente de error. En todo caso, lo que se sugiere es seleccionar una buena
representacion para disminuir las consecuencias mencionadas.
Rol II: La representacion del conocimiento como un Conjunto
de Compromisos Ontol ogicos. Al seleccionar una representacion se
debe decidir que ver en el mundo y como verlo, es decir, que aspectos
del mundo debemos considerar y cuales ignorar. Por lo tanto, elegir una
representacion, signica hacer un conjunto de compromisos ontologicos,
los cuales pueden verse como la esencia de una representacion. Esto es
inevitable debido a las ineludibles imperfecciones presentes en una repre-
sentacion, y al mismo tiempo resulta provechoso ya que permite enfocar
la atencion hacia aspectos del mundo que consideramos relevantes. El
estudio de ontologas aplicadas a una variedad de tareas no es un tema
nuevo [34, 35].
Las ontologas pueden ser escritas en una gran variedad de lenguajes
y notaciones (Logica, LISP,. . . ); la informacion esencial no es la forma
del lenguaje sino el contenido, es decir, el conjunto de conceptos que
ofrece como una manera de pensar acerca del mundo. Por ejemplo, un
diagnostico medico visto en terminos de reglas (MYCIN) se observa sus-
tancialmente distinto en terminos de frames (INTERNIST). En este caso,
mientras MYCIN ve el mundo medico formado de asociaciones empri-
cas que conectan sntomas a enfermedades, INTERNIST ve a un con-
junto de prototipos, en particular: prototipos de enfermedades, que son
comparados con el caso de interes en ese momento. Existe un signica-
tivo e inevitable compromiso ontologico a un a nivel de las tecnologas
de representacion mas conocidas (logica, reglas, frames,. . . ), donde cada
una mantiene un punto de vista de las cosas que considera importantes
en el mundo. La logica por ejemplo, mantiene un compromiso para ver
al mundo en terminos de entidades individuales y relaciones entre el-
las. Los sistemas basados en reglas ven al mundo en terminos de tripletas
3.1. SISTEMAS BASADOS EN CONOCIMIENTO (KBS) 139
atributoobjetovalor y reglas de inferencia que los conectan, mientras
que frames nos mantienen pensando en terminos de objetos prototipos.
Cada una de estas tecnologas tiene su propio punto de vista de lo que
cree importante atender y lo que debe ser ignorado. Por lo que al selec-
cionar alguna de ellas conlleva a un grado de compromiso ontologico: la
eleccion tendra un impacto signicativo en nuestra percepcion de como
se enfoca una tarea y del mundo que esta siendo modelado.
Los compromisos ontologicos se implementan en capas en los diferentes
lenguajes de representacion, cada uno de ellos guiado por la premisa de
como ver al mundo pero no indican como instanciarlo. Por ejemplo, los
frames sugieren prototipos y taxonomas, pero no nos indican que cosas
debemos seleccionar como prototipos, las reglas sugieren pensar en termi-
nos de inferencia plausible, pero tampoco nos indican que inferencias hay
que atender. A su vez, la logica sugiere ver al mundo en terminos de
individuos y relaciones, pero no especica cuales individuos y relaciones
usar.
Rol III: La representacion del conocimiento (RC) como una
teora parcial del razonamiento inteligente. Bajo este enfoque, se
considera que la concepcion inicial de una representacion es motivada por
alguna idea acerca de como la gente razona de forma inteligente, o por
alguna creencia acerca de que signica razonar de manera inteligente. La
teora es parcial en dos sentidos: (i) la representacion solo integra parte
de la idea o creencia que la motiva, y (ii) esta idea o creencia son solo una
parte del complejo y multifacetico fenomeno del razonamiento inteligente.
Este aspecto, se relaciona con las inferencias las cuales pueden ser autor-
izadas o recomendadas por el metodo utilizado en la RC. Mientras que
las ontologas indican como ver al mundo, las inferencias sugieren como
razonar. El razonamiento inteligente en IA se deriva de cinco areas, las
cuales son:
a) Logica matematica, sostiene que el razonamiento inteligente es una
variedad de calculo formal, basicamente: deduccion, de aqu derivan
las RC basadas en Logica, PROLOG es una de ellas,
b) Psicologa, en este campo se mantiene que el razonamiento es una
caracterstica del comportamiento humano, capaz de resolver prob-
lemas, de aqu derivan las RC: SOAR, FRAMES y KBS,
c) Biologa, el razonamiento es una caracterstica de comportamiento
estmulorespuesta que surge de una interconexion en paralelo de
una gran coleccion de procesadores muy basicos, la RC derivada es
140CAP

ITULO 3. REPRESENTACI

ONDEL CONOCIMIENTO YRAZONAMIENTO


la conexionista,
d) Teora de la probabilidad, agrega a la logica la nocion de incer-
tidumbre en la cual el razonamiento inteligente obedece los axiomas
de la teora de la probabilidad, la RC derivada son las redes causales,
y
e) Economa, incluye los aspectos de valores y preferencias, generando
un enfoque de razonamiento inteligente guiado por la teora de la
utilidad, la RC derivada de este enfoque son los agentes racionales.
El punto aqu consiste en reconocer la legitimidad de una variedad de en-
foques usados para sancionar inferencias
3
, la teora de modelos aunque re-
sulta familiar no es el unico lenguaje, a un para sistemas formales. Asimis-
mo, las deniciones formales no son la unica forma para especicar las
respuestas. La eleccion de un vocabulario apropiado y su grado de formal-
idad, dependen de la concepcion basica del comportamiento inteligente.
Ademas de las inferencias sancionadas, las diferentes tecnologas de RC
tambien utilizan las inferencias recomendadas, las cuales son una indi-
cacion de inferencias apropiadas para realizar algo inteligente. Por ejem-
plo, las redes semanticas recomiendan una propagacion bidireccional a
traves de la red, inspirada en la habilidad humana de encontrar conex-
iones entre conceptos. Las reglas utilizadas en los sistemas basados en
conocimiento recomiendan inferencias inspiradas en la observacion del
razonamiento en expertos humanos. A su vez, la logica solo ofrece una
teora de inferencias sancionadas, sin indicar nada respecto a las inferen-
cias recomendadas, esto es motivado por un deseo de generalidad en la
maquinaria de inferencia y una forma declarativa de RC en el lenguaje.
Esta informacion debe ser declarada de forma explcita por el usuario en
el lenguaje.
Rol IV: la RC como un medio para realizar calculos ecientes.
Desde un enfoque puramente mecanico, el razonamiento en maquinas es
un proceso computacional, por lo que, el tema de eciencia computa-
cional es obligado en la RC. Este aspecto ha sido reconocido al menos
implcitamente por los dise nadores de lenguajes para la RC, y sugieren
ideas para organizar la informacion de forma que facilite el tratamiento
de las inferencias. Por ejemplo, las redes semanticas facilitan la propa-
gacion bidireccional proporcionando un conjunto de enlaces apropiados,
a su vez, los sistemas basados en reglas facilitan la inferencia suminis-
trando ndices de los objetivos a las reglas que activan (encadenamiento
3
Las inferencias sancionadas nos indican a que conclusiones nos est a permitido llegar, el cual es
un conjunto invariablemente grande.
3.2. MAPAS CONCEPTUALES 141
hacia atras) y desde los hechos a las reglas cuyas premisas corresponden
(encadenamiento hacia delante).
Rol V: La RC como un medio de expresion humano. La RC es
tambien una forma de expresar cosas acerca del mundo. Es el medio de
expresion y comunicacion a traves del cual le decimos a la maquina algo
acerca del mundo. Este aspecto genera algunas interrogantes: que tan bi-
en la representacion funciona como un medio de comunicacion?, que tan
general es?, que tan preciso?. La primera interrogante se reere a que
tan bien la representacion funciona como un medio de comunicacion, es
decir, que tan facil resulta para nosotros platicar o pensar en este lengua-
je?. Una representacion es el lenguaje a traves del cual nos comunicamos,
as que debemos ser capaces de utilizarlo sin aplicar un gran esfuerzo.
Aqu se mostraron algunos aspectos importantes relacionados con los
lenguajes utilizados para la RC, los cuales deben tomarse en cuenta en
la investigacion de este campo. Una representacion, es entre otras cosas:
una teora del razonamiento inteligente y una coleccion de mecanismos
para implementar tal teora. Randall y otros, consideran que una aten-
cion apropiada a estos dos aspectos, y en el orden apropiado, hace una
diferencia signicativa en el resultado de cualquier esfuerzo en combi-
nar representaciones. Por ejemplo, combinar reglas y frames [36], cuan-
do sabemos que son dos esquemas que representan diferentes tipos de
conocimientos. Mientras que las reglas son apropiadas para representar
implicaciones logicas, o para asociar acciones a condiciones bajo las cuales
las acciones deben tomarse, los Frames (o redes semanticas) son apropi-
ados para denir terminos y para describir objetos y sus relaciones tax-
onomicas. Debido a que las fortalezas y debilidades entre Frames y reglas
son complementarias, la combinacion de estos metodos en una repre-
sentacion se beneciara de las ventajas de ambos.
Aunque en esta seccion se mencionaron algunos lenguajes de uso com un
utilizados para representar el conocimiento, algunos de ellos se veran en
detalle mas adelante en este captulo.
3.2. Mapas conceptuales
A diferencia de la visualizaci on de la informacion, la cual es un area con
cierta madurez [37], la visualizaci on del conocimiento es un campo de
interes que ha recibido atencion reciente por parte de las comunidades
142CAP

ITULO 3. REPRESENTACI

ONDEL CONOCIMIENTO YRAZONAMIENTO


de investigacion y negocios. Burkhard y Meier [39] denieron la visual-
izacion del conocimiento como el uso de representaciones visuales con el
n de transferir conocimiento entre al menos dos personas. El reciente
interes en la administracion del conocimiento por parte de la comunidad
de negocios [38] , quien ha centrado su atencion a aspectos relacionados
con la representacion e intercambio efectivos de conocimiento, as como
una mayor conciencia al tema de la visualizacion del conocimiento. En
esta seccion, la interpretacion del conocimiento se va a fundamentar en
las teoras del conocimiento y aprendizaje de Ausubel y Novak [40, 41].
Novak propuso en su trabajo, que los elementos basicos del conocimiento
son los conceptos y las relaciones entre conceptos o proposiciones. Los
conceptos son tambien llamados nodos, y hacen referencia a cualquier
cosa que puede provocarse o que existe. Seg un Novak [42], los concep-
tos son las imagenes mentales que provocan en nosotros las palabras o
signos con que expresamos las regularidades. Las palabras de enlace un-
en los conceptos y se nalan los tipos de relacion existente entre ambos.
La proposicion es la unidad semantica que une los conceptos. Usando
estas proposiciones es posible generar nuevo conocimiento a partir de en-
lazar nuevos conceptos a conocimiento ya existente. Por lo tanto, y de
acuerdo con Ausubel [40], El conocimiento se construye a traves de un
aprendizaje signicativo (en contraste con el aprendizaje de memoria o
memorizacion), que tiene lugar cuando el alumno busca deliberadamente
relacionar e incorporar nueva informacion al conocimiento relevante que
ya posee .
Mapa conceptual: Un mecanismo para visualizar el conocimien-
to. Al realizar trabajo de investigacion relacionado con el aprendizaje
y la construccion del conocimiento, Novak y Gowin [43], desarrollaron
los Mapas Conceptuales, una herramienta graca que habilita a cualquier
persona a expresar su conocimiento de tal forma que sea facilmente com-
prensible por otros. El conocimiento es mostrado como a traves de concep-
tos, usualmente representados como rectangulos o crculos y conectados
por arcos indicando relaciones (frases) entre pares de conceptos. Estas
relaciones generalmente consisten de verbos, formando proposiciones o
frases para cada par de conceptos. Los mapas conceptuales pueden ser
tan simples como el formado por dos nodos conectados por un arco indi-
cando una sentencia como el pasto es verde, o bien pueden ser un poco
mas complicados tal como el que se muestra en la Figura 3.6, el cual ilus-
tra el mapa conceptual acerca del tema mapas conceptuales realizado
por Novak [44]. Los Mapas Conceptuales representan Conocimiento es
una de las proposiciones en este mapa, Conocimiento es necesario para
3.2. MAPAS CONCEPTUALES 143
Ense nanza Efectiva es otra proposicion. Por convencion, los enlaces se
dirigen de arriba hacia abajo, a menos que se indique de otra forma por
la cabeza de echa. El eje vertical indica un esquema jerarquico para los
conceptos. Generalmente, los conceptos inclusivos se localizan en los nive-
les mas altos. La estructura de un mapa conceptual depende del contexto,
por lo que, mapas con conceptos similares pueden mostrar variaciones de
un contexto a otro. La fortaleza de un mapa conceptual se basa en su
habilidad para medir el conocimiento particular de una persona acerca
de un tema especco en un contexto dado. De esta manera, los mapas
conceptuales elaborados por diferentes personas acerca del mismo tema
son necesariamente diferentes, ya que cada uno representa el conocimien-
to individual de su creador. De igual manera, no podemos indicar que
una representacion acerca de un tema es mejor que otra, ya que pueden
existir diferentes representaciones del mismo tema que son correctas.
La tecnica de mapas conceptuales han ayudado a personas de todas las
edades a examinar diferentes campos del conocimiento. Cuando los con-
ceptos y las palabras que los enlazan son cuidadosamente seleccionados,
estas representaciones se convierten en herramientas poderosas para ob-
servar varias interpretaciones. Su poder expresivo, se deriva de la ha-
bilidad de cada creador en usar un n umero virtualmente ilimitado de
palabras que enlazan los conceptos y mostrar como las interpretaciones
han sido desarrolladas. No existen restricciones acerca de que palabras
pueden ser usadas para formar conceptos o encadenar frases, sn embargo,
generalmente los conceptos son nombres y las palabras que enlazan con-
ceptos son usualmente verbos, lo recomendable es que ambos apliquen el
menor n umero de palabras. En un mapa bien construido hay que observar
lo siguiente:
a) Cada par de conceptos, as como la palabra que los enlaza, deben
poder leerse como una sentencia individual o proposicion que tiene
sentido, seg un Homan [45], esta tripleta concepto, palabra en-
lazadora, concepto debe formar una proposicion coherente.
b) Los conceptos y las palabras que los enlazan deben ser tan cortos
como sea posible, posiblemente palabras solas.
c) La estructura en el mapa es jerarquica y el nodo raz debe representar
el tema a tratar.
Los pasos que se recomiendan para elaborar un mapa conceptual son los
siguientes:
144CAP

ITULO 3. REPRESENTACI

ONDEL CONOCIMIENTO YRAZONAMIENTO


a) Seleccionar un tema del que se tenga conocimiento. Generalmente, el
tema se muestra desarrollado de manera textual.
b) Realizar un listado de los conceptos mas relevantes del tema selec-
cionado, o bien, se pueden subrayar en el texto.
c) Ordenar los conceptos (listados o subrayados) empezando por el mas
general y siguiendo por orden de especicidad de los mismos.
d) Situar el concepto mas general (representativo del tema) al inicio del
mapa (parte superior), enseguida ir colocando los conceptos restantes
hasta llegar a los mas concretos o especcos, los cuales se deben
situar en la parte inferior del mapa.
e) Unir los conceptos a traves de lneas usando palabras de enlace que
establezcan las relaciones entre los conceptos.
f ) Finalmente, indicar en la graca a traves de enlaces cruzados la
relacion entre conceptos pertenecientes a distintas ramas jerarquicas
del mapa conceptual.
A manera de ejemplo y siguiendo los pasos anteriores, se va a elaborar un
sencillo mapa conceptual relacionado con el tema: Animales. El mapa
conceptual, se va a realizar basado en el siguiente texto:
Los animales se van a clasicar en dos tipos principales: vertebrados o
invertebrados. Dentro de los invertebrados se encuentran los insectos y
aracnidos como la hormiga o el escarabajo y la ara na roja respectiva-
mente, los cuales son todos clasicados como artropodos.
Pasos 2 y 3. Realizar un listado de los conceptos mas importantes. Los
conceptos (nombres) se van a considerar de acuerdo al orden en que apare-
cen en el texto, y son los siguientes:
Animales,
Vertebrados,
Invertebrados,
Insectos,
Aracnidos,
Hormiga,
Escarabajo,
Ara na roja,
Artr opodos.
Paso 4. situar el concepto mas general al inicio del mapa hasta llegar a los
mas especcos (parte inferior del mapa). En este caso, el tema a tratar
3.2. MAPAS CONCEPTUALES 145
Figura 3.4: Ordenacion de conceptos relacionados con el tema generico: Animales.
es relacionado con animales, por lo tanto, este concepto es el que debe
iniciar el mapa, y los demas se deben ir colocando en orden descendente
o jerarquico (ver Figura 3.4).
Paso 5. Unir los conceptos a traves de lneas usando palabras de enlace
que establezcan las relaciones entre los conceptos. Se realiza este paso
basandonos en la redaccion del tema, quedando el mapa conceptual co-
mo se muestra en la Figura 3.5. En este caso, no existen enlaces entre
conceptos o enlaces cruzados, por lo tanto, en este caso no se hace ningu-
na accion en el Paso 6.
Los mapas conceptuales han demostrado ser un medio efectivo para rep-
resentar, visualizar, y comunicar el conocimiento. Desde la perspectiva
de la educacion, existe una investigacion creciente indicando que el uso
de esta herramienta facilita el aprendizaje signicativo [ nas]. Durante la
elaboracion de un mapa, la comprension del signicado ocurre conforme
el dise nador realiza un esfuerzo para enlazar conceptos y formar proposi-
ciones, cuya estructura reeja su comprension acerca del tema en cuestion.
Esta tecnica es utilizada para ayudar a los estudiantes a aprender como
aprender mediante la creacion de estructuras cognitivas y conocimiento
auto construido [43]. Asimismo, esta tecnica se ha utilizado como una
herramienta para la adquisicion del conocimiento tanto en sistemas ex-
pertos [47], y como un medio para adquirir y compartir conocimiento
experto [48]. En el contexto de este libro, los mapas conceptuales se van
a enfocar como una herramienta para visualizar el conocimiento, y el uso
de otros medios (sonido, imagenes, video, texto, etc.) como visualizacion
de informacion. Aunque en algunos casos los mapas conceptuales pueden
146CAP

ITULO 3. REPRESENTACI

ONDEL CONOCIMIENTO YRAZONAMIENTO


Figura 3.5: Mapa conceptual del tema generico: Animales.
usarse para integrar de forma visual informacion y conocimiento [ nas].
Aunque la elaboracion de mapas conceptuales, puede realizarse con el-
ementos tan simples como lapiz y papel, podemos hacer uso de la tec-
nologa para facilitarnos este proceso, tal como la herramienta de software
conocida como Cmap Tools
4
[ nas2]. En la Figura 3.6 se muestra el ma-
pa conceptual que representa el tema mapas conceptuales dise nado por
Novak [43] utilizando la herramienta Cmaps.
3.3. Redes Semanticas
El concepto de red semantica como tal, fue introducido a la comunidad
de IA en 1968
5
por Ross Quilliam, como un modelo graco de la estruc-
tura de la memoria humana asociativa. Inicialmente, la idea de una red
4
La herramienta de software Cmap Tools se encuentra disponible de manera gratuita para uso
educativo en http://www.cmex.arc.nasa.
5
Sin embargo, de acuerdo con Anderson y Bower, la realizaci on de la primera red semantica
(conocida como el

Arbol de Porphiry) se remonta al siglo tercero de nuestra era y fue creada por el
losofo griego Porphiry con el n de ilustrar el metodo usado por Aristoteles para denir categoras
en tipos generales y subtipos.
3.3. REDES SEM

ANTICAS 147
Figura 3.6: Mapa conceptual del tema Mapa conceptual [43].
148CAP

ITULO 3. REPRESENTACI

ONDEL CONOCIMIENTO YRAZONAMIENTO


semantica red de conceptos enlazados asociativamente era que el sig-
nicado de una palabra podra ser representado por un conjunto de sus
asociaciones verbales con el n de indicar las propiedades de las cosas,
es decir, un conjunto de conceptos asociados por relaciones. Por lo tan-
to, este formalismo se puede concebir como una forma de representacion
de conocimiento ling ustico en la que los conceptos y sus relaciones se
representan mediante un grafo. Las redes semanticas son usadas, entre
otras cosas, para representar mapas conceptuales y mentales. Asimismo,
la implementacion computacional para estas redes se hicieron inicialmente
para el area de la IA. Actualmente,se han realizado versiones para ser us-
adas en losofa, psicologa y ling ustica [50].
El termino red semantica representa a una familia de esquemas repre-
sentacionales mas que a un simple formalismo. Lo que es com un a este
concepto es una representacion graca declarativa que puede usarse tanto
para representar el conocimiento, como para apoyar sistemas automati-
zados de razonamiento. Se identican seis tipos de redes semanticas, una
breve descripcion de cada una de ellas se ofrece a continuaci on [50]:
Redes de denicion. Estas redes enfatizan el subtipo o relacion es
u
n
entre un concepto y un subtipo denido recientemente. La red resultante,
tambien conocida como una generalizacion, soporta la regla de herencia
para copiar las propiedades denidas para un supertipo a todos los subti-
pos. Ya que las deniciones son verdaderas por denicion, la informacion
en estas redes se asumen necesariamente verdaderas.
Redes Asertivas. Son dise nadas para armar proposiciones. A difer-
encia de las redes de denicion, la informacion en una red asertiva se
supone verdadera de manera contingencial, a menos que explcitamente
se marque con un operador modal. Algunas redes de este tipo han sido
propuestas como modelos de estructuras conceptuales para la semantica
del lenguaje natural.
Redes de Implicacion. Utilizan la implicacion como la relacion pri-
maria para conectar nodos, son utilizadas para representar patrones de
creencias, causalidad, o inferencias.
Redes Ejecutables. Incluyen mecanismos para realizar inferencias, pa-
so de mensajes, o b usqueda de patrones y asociaciones.
3.3. REDES SEM

ANTICAS 149
Redes de Aprendizaje. Estas redes construyen su representacion a
traves de adquirir el conocimiento mediante ejemplos. Permiten reem-
plazar conocimiento viejo por nuevo a traves de agregar y borrar nodos
y enlaces, o mediante la modicacion de valores numericos (pesos) asoci-
ados a los nodos y arcos.
Redes hbridas. Formada por la combinacion de dos o mas de las ante-
riores en una sola red, o en forma de redes separadas pero interactuando
de manera cercana.
Algunas de estas redes han sido dise nadas para implementar hip otesis
relacionadas con mecanismos cognitivos de razonamiento humano, mien-
tras otras con nes de eciencia computacional. Algunas veces, las ra-
zones computacionales conducen a las mismas conclusiones que la evi-
dencia psicologica. Por ejemplo, la distincion entre redes de denicion y
redes asertivas tienen un parecido muy cercano con memoria semantica
y memoria episodica.
En esta seccion, se van a tratar aspectos generales de las redes semanticas
sin particularizar en alguno de los tipos mencionados.
3.3.1. Descripcion
De forma general, podemos indicar que las redes semanticas consisten de
estructuras gracas compuestas por nodos y enlaces mostrando relaciones
entre objetos utilizadas para la representacion del conocimiento. Los ob-
jetos pueden ser cualquier elemento fsico: un libro, un automovil, una
silla, o una persona. Tambien pueden ser conceptos, eventos o acciones.
Los conceptos se representan en el modelo como unidades independientes
que expresan relaciones de inclusion (es) y de propiedad (tiene). De man-
era general, se puede observar a una red semantica como un conjunto de
tripletas objeto atributo valor donde los atributos representan usual-
mente aspectos como: tama no, color, clase, origen, etc., en muchos casos
estos aspectos son determinados de forma subjetiva al dise nar una red
semantica.
Sin embargo, es recomendable, que en una red semantica, la especicacion
de nodos y enlaces deba realizarse de manera rigurosa y sistematica. Al
representar un area del conocimiento mediante este formalismo, debemos
150CAP

ITULO 3. REPRESENTACI

ONDEL CONOCIMIENTO YRAZONAMIENTO


ser claros respecto a que clase de cosas deben estar en los nodos y que
clases de relaciones deben indicarse en los enlaces. Es decir, debemos es-
pecicar la semantica de este formalismo.
De acuerdo con Grith [51], los nodos son sujetos atomicos, es decir,
no pueden dividirse. El concepto de subdivision se expresa en forma de
conjuntos o colecciones. Cada sujeto puede tener o puede no tener un
nombre, o puede tener varios nombres. Por lo tanto, los nodos en las re-
des semanticas son sujetos los cuales son delimitados por relaciones entre
los mismos. A su vez, cada relacion puede tener un sentido semantico de
direccion llamado ordinalidad. Entonces, los sujetos, sus relaciones, y la
ordinalidad, constituyen los elementos basicos para dise nar redes semanti-
cas. La Figura 3.7 ilustra de forma graca la representacion de algunos
sujetos, as como sus relaciones y su ordinalidad.
Las relaciones a su vez pueden ser binarias o de aridad n. En una
relacion binaria, existen semanticamente tres aspectos a considerar:
a) Debe existir entre dos objetos especcos, por ejemplo Juan y Sal
(ver Figura 3.7),
b) Debe tener una clase o tipo, expresado como una categoraa de la
relacion, por ejemplo: pertenece, contiene, utiliza, y
c) Debe tener una ordinalidad, o sentido semantico de direcci on. Por
ejemplo, Juan (utiliza) Sal.
Las propiedades com unmente conocidas de uno a uno, uno a muchos o
muchos a muchos se aplican a grupos de relaciones, no a las relaciones in-
dividuales. Aunque la clase de relacion es un concepto util y conveniente
para redes semanticas, este no es un concepto primitivo como el de sujeto
(aplicado a nodos). El trayecto entre nodos es simetrico, pero su semanti-
ca no lo es. Por ejemplo, en la Figura 3.7 tiene sentido que Juan (utiliza)
Sal (trayecto del sujeto Juan al sujeto Sal ) y no a la inversa, en senti-
do contrario (ir del sujeto Sal al sujeto Juan) la relacion cambia a: Sal
(es utilizada por) Juan. En algunos casos, la relacion puede ser simetrica,
tal como, X (igual ) Y, donde tambien se cumple que Y (igual ) X. Otro
tipo de ordinalidad que aparece en las redes semanticas se da en el orden
de los miembros en una coleccion.
En las redes semanticas, la ordinalidad se indica de manera explcita por
la cabeza de echa.
3.3. REDES SEM

ANTICAS 151
Figura 3.7: Descripcion de temas, relaciones y ordinalidad.
Los nodos pueden interpretarse de manera generica (referente a una clase
general o concepto) como un conjunto. Bajo este enfoque, se puede man-
tener un nivel de jerarqua entre nodos en la forma de subconjunto (si
pertenece a una clase) y superconjunto (tiene como miembros a subcon-
juntos). Por ejemplo, en la Figura 3.8 se indica que un Canario es un
Ave, lo que se esta en realidad declarando es que el conjunto de todos
los canarios es un subconjunto del conjunto formado por todas las aves,
el cual a su vez es un subconjunto del conjunto formado por todos los
animales.
Una segunda interpretacion de los nodos genericos es como prototipos.
En este caso, mas que describir a un individuo o clase de individuos, un
prototipo describe a que se parece el tpico ejemplar de una clase. Esta
descripcion se da en terminos de: caractersticas fsicas, comportamiento,
tipo de alimentacion, y habitat, entre otros. Los nodos que representan
individuos seran en alg un sentido mas o menos similares al prototipo. Por
ejemplo, los mamferos son prototpicamente pensados como animales ter-
restres que dan nacimiento a cras vivas; en este esquema una vaca o una
coneja son tpicos mamferos. Los canarios prototpicamente cantan y son
amarillos, as que Pioln que es amarillo y canta, es una tpica instancia
de un canario.
152CAP

ITULO 3. REPRESENTACI

ONDEL CONOCIMIENTO YRAZONAMIENTO


Figura 3.8: Ilustracion de una red semantica mostrando aspectos de: clases de obje-
tos, relaciones entre objetos, instancias de objetos y propiedades de objetos.
Otra forma de ver a una red semantica es como un arbol taxonomico
(jerarqua es
u
n) donde cada nodo es conectado hacia arriba a un super-
conjunto y hacia abajo a un subconjunto. Bajo este esquema, un canario
es un ave y, mas generalmente, un animal. Asimismo, los enlaces que estan
a un lado del nodo indican propiedades que son verdaderas al nodo, las
aves tienen alas, los tigres tienen garras y los animales tienen piel (ver
Figura 3.8).
Las redes semanticas poseen la propiedad de herencia, es decir, la propiedades
de los nodos que estan a un nivel superior heredan las propiedades a los
nodos conectados que aparecen a un nivel inferior. Esta propiedad es util
para realizar inferencia en las redes semanticas, de esta forma al observar
la Figura 3.8 podemos inferir que Pioln tiene piel y alas.
La red semantica mas simple esta formada por dos nodos enlazados, in-
dicando que los nodos estan relacionados de alguna forma. Los nodos
pueden representar conceptos, conjuntos de individuos, o clases de algu-
na entidad. Cuando esta representando una red de conceptos se aplica la
terna objeto atributo valor, por ejemplo, en la Figura 3.8, la rama
de la red canario color amarillo, donde el objeto canario tiene una
caracterstica en este caso el color y el valor de la misma amarillo.
El enlace es
u
n nos indica un tipo diferente de informacion: instancias de
objetos, es decir, el objeto es instancia de una clase mas general o concep-
3.3. REDES SEM

ANTICAS 153
to. Este aspecto nos permite realizar sencillas inferencias basadas en la
propiedad de herencia. Por ejemplo, aplicando un tipo de razonamiento
deductivo hacia la red mostrada en la Figura 3.8 se puede hacer valida
la siguiente inferencia:
Todos los animales tienen las propiedades a,b,c,. . . ,n.
Las aves son animales.
Por lo tanto, las aves tienen las propiedades a,b,c,. . . ,n.
Tomando en consideracion la inferencia anterior podemos inferir que
el concepto Ave hereda la propiedad de tener piel del concepto Ani-
mal. Asimismo, la relacion es
u
n es transitiva, es decir si una relacion
se mantiene entre los conceptos A y B y entre B y C, entonces tamben se
mantiene entre A y C (pero, no necesariamente entre C y A). Por ejem-
plo, si un Canario es una clase de Ave y un Ave es una clase de Animal,
entonces un Canario es una clase de Animal. Si sabemos que Pioln es
un Canario, aunque no hayamos dicho algo especco respecto a Pioln,
podemos saber mucho acerca de el, por ejemplo, que al igual que otros
canarios es amarillo, que canta, que tiene alas y que tambien tiene piel.
Algunos enlaces pueden tener la propiedad de conmutatividad lo cual nos
permite hacer inferencias en ambos sentidos, por ejemplo si X es igual a
Y (ver Figura 3.7), entonces Y tambien es igual a X, si Juan es hermano
de Pedro, entonces Pedro es hermano de Juan. En una red semantica,
cuando existe la relacion de conmutatividad entre dos nodos, esta se in-
dica con un enlace bidireccional.
Las redes semanticas, tambien permiten ser enfocadas desde una perspec-
tiva de programacion orientada a objetos (POO). Bajo este enfoque, los
nodos representan :
Clases con sus propiedades,
Instancias, esto es, objetos de alguna clase, y los enlaces, que se
muestran etiquetados, indican relaciones entre clases, propiedades
e instancias.
Por ejemplo, en la Figura 3.9 se muestra el nodo clase Arteria el cual
tiene la propiedad de tener sangre Rica en oxgeno. Siendo las arterias:
Aorta, branquial, y pulmonar instancias de Arteria heredan la propiedad
de transportar sangre Rica en oxgeno. Por lo tanto, algunos ejemplos de
herencia y razonamiento (inferencia) obtenidos de la Figura 3.9, son los
154CAP

ITULO 3. REPRESENTACI

ONDEL CONOCIMIENTO YRAZONAMIENTO


Figura 3.9: Ilustracion de una red semantica desde una perspectiva de POO.
siguientes:
Las arterias transportan sangre rica en oxgeno,
La aorta contiene sangre rica en oxgeno,
Los vasos sanguneos son parte del sistema cardiovascular,
El corazon es parte del sistema cardiovascular.
En esta seccion se mostro la red semantica como una alternativa de rep-
resentacion del conocimiento, en la cual se especica explcitamente el
conocimiento acerca de un dominio a traves de objetos representativos
y de sus relaciones mediante un grafo. Asimismo, es posible realizar
inferencias y razonamiento en esta representacion haciendo uso de sus
propiedades. La ventaja que presentan los esquemas gracos en relacion a
los que no lo son logica proposicional, logica de predicados, entre otros
como un medio de representacion, es su poder expresivo e intuitivo. Estas
caractersticas los hacen atractivos para muchas aplicaciones. Sin embar-
3.3. REDES SEM

ANTICAS 155
go, como cualquier otro esquema de representacion del conocimiento, la
red semantica presenta ventajas y desventajas:
Ventajas de las redes semanticas.
Permiten la declaracion de importantes asociaciones en forma explci-
ta.
Debido a que los nodos relacionados estan directamente conectados,
y no se expresan las relaciones en una gran base de datos, el tiempo
que toma el proceso de b usqueda por hechos particulares puede ser
signicativamente reducido.
La representacion es clara, simple y de facil lectura.
Desventajas.
No existe una interpretacion normalizada para el conocimiento ex-
presado por la red.
La interpretacion de la red depende exclusivamente de los programas
que manipulan la misma.
La dicultad de interpretacion a menudo puede derivar en inferencias
invalidas del conocimiento contenido en la red.
La exploracion de una red asociativa puede derivar en una explosion
combinatoria del n umero de relaciones que deben ser examinadas
para comprobar una relacion, sobre todo si la respuesta a una con-
sulta es negativa.
No hay manera de insertar alguna regla heurstica para explorar la
red de manera eciente.
Es necesario dotar de una base teorica al modelo de razonamiento.
Algunas de las limitaciones de las redes semanticas se pueden resolver con
el uso de Frames
6
, los cuales son un formalismo que extiende el concepto
de red semantica. Asimismo, se cuenta con una herramienta computa-
cional que permite la programacion de las redes semanticas, esta es el
lenguaje Prolog.
6
Los Frames son redes sem anticas estructuradas. Un Frame es una colecci on de atributos y la
descripcion de sus caractersticas, en el cual existe una divisi on explcita entre relaci on y atributo,
este aspecto facilita describir su sem antica.
156CAP

ITULO 3. REPRESENTACI

ONDEL CONOCIMIENTO YRAZONAMIENTO


3.4. Logica de predicados
En esta seccion se va a presentar un esquema de representacion y ma-
nipulacion del conocimiento basado en la logica. Como se mostro en el
Captulo I, se considera que Aristoteles fue el que fundo la L ogica como un
metodo preciso para razonar acerca del conocimiento, en este sentido, la
logica es la disciplina encargada de estudiar los metodos para formalizar
el conocimiento humano. Para lograr este n la logica emplea un enfoque
simbolico para representar el conocimiento a diferencia del enfoque conex-
ionista que emula el sistema neuronal humano. Asimismo, la logica aplica
el conocimiento estructurado como un modelo de representaci on, el cual
es un modelo funcional, util para el razonamiento humano y con un alto
grado de formalizacion.
La logica de primer orden supone que existen entidades individuales (ob-
jetos: personas, casas, n umeros, colores), con caractersticas distintivas
(propiedades: alto, grandes, impares, rojo), entre los que puede haber
relaciones de distintos tipos (hermano de, mayor que), algunas de ellas
funciones (padre de, coseno). La popularidad de la logica de predicados
o logica de primer orden (LPO) se debe a la manera de estructurar el
mundo en objetos y relaciones, con ello facilita el razonamiento y ofrece
libertad para describir el mundo de la manera que el dise nador considere
apropiada, permitiendo expresar sentencias sobre todos los objetos del
universo. En este sentido, existen sentencias que representan hechos y
terminos que representan objetos [?].
El lenguaje (hablado y escrito) es el instrumento basico para la comuni-
cacion humana. Esta formado generalmente por frases de tipo interrog-
ativo, imperativo y declarativo, siendo estas ultimas las que se encargan
de describir el conocimiento. Por lo tanto, la logica estudia los metodos
de formalizacion de las frases declarativas, existiendo en este aspecto dos
grados de detalle: la logica proposicional y la logica de predicados.
Una breve descripcion para cada tipo de logica se ofrece a continuacion:
a) Logica proposicional. Basa su esquema de razonamiento en proposi-
ciones sentencias declarativas y sus combinaciones, las cuales con-
stituyen una unidad de conocimiento que puede tener uno de dos
valores: verdadero o falso, pero no ambos. Se representan mediante
variables formalizadas como letras. La aplicacion de operadores a las
3.4. L

OGICA DE PREDICADOS 157


sentencias permite la formacion de nuevas sentencias. Esta logica nos
permite aplicar modos basicos de inferencia, pero es poco expresiva
y exible.
b) Logica de predicados. Es una generalizacion de la logica proposi-
cional con terminos que representan objetos, y predicados que indi-
can proposiciones, propiedades, y relaciones entre los objetos. Por lo
tanto, esta logica estudia las frases declarativas con mayor grado de
detalle que la logica proposicional, esto es posible mediante la in-
clusion de un mayor n umero de operadores, lo cual permite analizar
la estructura interna de las proposiciones. Sus elementos basicos son
los objetos y sus relaciones, esto, permite distinguir los siguientes dos
aspectos: i) que se dice (predicado o relacion), y ii) de quien se
dice (objeto).
La logica de primer orden, como un lenguaje de representaci on formal
7
,
estudia aspectos relacionados con la representacion del conocimiento en
terminos de objetos, y predicados sobre objetos, es decir, propiedades de
los objetos o relaciones entre los objetos, as como del uso de conectivos
y cuanticadores, mediante los cuales se pueden escribir oraciones sobre
el dominio que se pretende representar. Por lo tanto, la logica de primer
orden permite representar una parte signicativa de lo que sabemos sobre
el mundo.
En la logica proposicional se supone que en el mundo hay hechos que se
cumplen o no, es decir, son: verdaderos o falsos. En la logica de primer or-
den se va mas alla: que el mundo esta compuesto por objetos que guardan
entre s ciertas relaciones que se cumplen y otras que no se cumplen. En
la logica de predicados, las proposiciones se componen basicamente de
dos miembros: el sujeto y el predicado. Por ejemplo, en la proposicion
Hidalgo fue el iniciador de la independencia de Mexico, Hidalgo es el
sujeto y fue el iniciador de la independencia de Mexico, es el predicado.
Esto es, en la logica de predicados una proposicion se compone de dos
partes: sujeto y predicado.
En esta seccion se van a mostrar los aspectos formales relacionados con
la logica de predicados, tales como: sintaxis (que smbolos se pueden usar
en el lenguaje, como construir sentencias validas), semantica (como se
interpretan las sentencias logicas, que signican), as como mecanismos
7
Un lenguaje de representaci on formal como la l ogica se dene en base a un alfabeto y reglas
sint acticas.
158CAP

ITULO 3. REPRESENTACI

ONDEL CONOCIMIENTO YRAZONAMIENTO


de inferencia y validacion que utiliza.
3.4.1. Sintaxis
En el lenguaje
8
de la logica de predicados, un predicado es una aplicacion
denida en un dominio que toma valores en el conjunto de proposiciones.
Formalmente se expresa como:
P(x) : D proposiciones
Donde por convencion, el predicado se representa con una letra may uscula, y los
parametros (variables) por letras min usculas, generalmente a partir de x, deben ir
entre parentesis y separadas por comas. De esta forma, P(x) puede formalmente
representar x es un estudiante. El predicado P(x) se convierte en una proposicion
cuando el parametro x es reemplazado por un valor de su dominio. Si el dominio de
x es el conjunto de estudiantes del Instituto Tecnologico de Acapulco, y Pedro es un
estudiante de tal institucion, entonces P(Pedro) es una proposicion, de hecho es la
proposicion: Pedro es un estudiante.
Al hablar del dominio de una variable, se entiende como tal, el conjunto de valores
que la variable puede tomar, por ejemplo, si el dominio de una variable es el conjunto
de colores del arco iris, entonces la variable puede tomar un valor de un total de
siete posibles. Un predicado no puede ser elemento de ning un dominio, por lo tanto,
ninguna variable puede sustituirse por un predicado. Los predicados representan he-
chos del dominio, los cuales pueden ser falsos o verdaderos, por ejemplo, Jefe(Juan,
Pedro) representa el hecho Juan es jefe de Pedro lo cual puede ser falso o verdadero.
Los predicados pueden tener cualquier n umero n de variables. De acuerdo con el
valor de n, los predicados se clasican en:
a) Proposiciones. Son predicados con un valor de n = 0 variables,
b) Predicados unarios o propiedades. Son predicados con un valor
de n = 1 variables, por ejemplo, P(x): x es una mascota, P(y): y
es un vehculo.
c) Predicados binarios o relaciones. Son los predicados con un valor
de n = 2 variables, por ejemplo, P(x, y): x es de color y, Q(x, y):
El cubo de x es y.
8
Lenguaje en este caso, es un conjunto de predicados de aridad n, con n 0.
3.4. L

OGICA DE PREDICADOS 159


d) A partir de n = 3 variables, los predicados no tienen un nombre
especco, y se identican como relaciones, relacion ternaria si n = 3
variables, por ejemplo, R(x, y, z): x le compra a y un vehculo z.
A continuacion se va a describir el lenguaje formal que se utiliza en la logica de
predicados, es decir, el conjunto de smbolos que describen el alfabeto.
Constantes. Una constante representa a un elemento de un dominio. Por con-
vencion, se representa a las constantes por letras min usculas en el alfabeto latino,
preferentemente a partir de la a, con el n de evitar confusiones con las variables
que inician a partir de la x. Cuando las variables de un predicado son sustituidas
por constantes, el predicado pasa a ser una proposicion. Por ejemplo, P(x, y) es un
predicado; P(a, b) es una proposicion; P(x, a) se le conoce como una propiedad, y
P(a, x) es una relacion. Se le da el nombre de termino a las variables y constantes,
cuando la distincion entre las mismas no es relevante.
Conectivas. Las conectivas son smbolos que dicen algo acerca de una o m as
proposiciones, y son las siguientes:
Negacion (), por ejemplo, A es verdadero cuando A es falso, y falso cuando A
es verdadero.
Conectiva Y (), AB es verdadera cuando ambas son verdaderas, y falsa de otra
manera.
Conectiva O (), A B resulta falsa cuando A y B son falsas, es verdadera en
cualquier otra combinacion.
Implicacion (), conecta dos formulas bien formadas (fbf), antecedente y conse-
cuente, A B es falsa cuando A es verdadera y B es falsa, resulta verdadera de
cualquier otra manera. En forma de regla, esta conectiva equivale a: Si(antecedente)
Entonces (consecuente).
Doble implicacion () o equivalencia, A B resulta verdadera cuando A y B
son verdaderas, o cuando A y B son falsas, el resultado es falso con cualquier otra
combinacion. Vista como regla equivale a: S y Solo S.
Con el n de evitar ambig uedad en el uso de los conectores, al estar enlazando
oraciones, se debe seguir el siguiente orden de precedencia (de mayor a menor); ,
, , y . Sin embargo, se permite el uso de parentesis, as como de corchetes
para cambiar el orden de precedencia y claricar las expresiones. Asimismo, hay
160CAP

ITULO 3. REPRESENTACI

ONDEL CONOCIMIENTO YRAZONAMIENTO


que tener presente lo siguiente: a) pueden eliminarse los parentesis externos, por
ejemplo, A B es una abreviatura de (A B), b) cuando una conectiva se usa de
manera repetida, se asocia por la derecha, por ejemplo, ABC es una abreviatura
de (A (B C)), c) los smbolos binarios pueden escribirse utilizando la notacion
inja, por ejemplo, x +y es una abreviatura de +(x, y) y x < y es una abreviatura
de < (x, y).
Cuanticadores. Ademas de los smbolos utilizados en la logica proposicional (sig-
nos de puntuacion (:), parentesis () y coma (,)), se agregan dos mas: 1) el smbolo
conocido como cuanticador universal, y que se interpreta como: (para) todo, todos
los, todas las, cada, y 2) el smbolo conocido como cuanticador existencial, y que
se interpreta como: existe (alguno), hay un, existe un, alg un o algunos. Por ejem-
plo, si P(x) se interpreta como: x es un estudiante, entonces, xP(x) se interpreta
como: todos son estudiantes, todo el mundo es estudiante, a su vez xP(x) se
interpreta como: hay estudiantes, existen estudiantes,. . . , etc. En una expresion
como x[p(x)...] o x : [p(x)...], la porcion de la expresion a la que se aplica x o
x, se le llama alcance del cuanticador y se indicara entre corchetes a menos que
sea evidente. A este respecto cabe mencionar que se le denomina variable libre a una
variable que no esta atada a un cuanticador. En la expresion: y Gustar(x, y), x
es una variable libre mientras que y esta atada al cuanticador . Una formula bien
formada es una sentencia donde todas las variables estan cuanticadas.
Formulas. Una vez denidos los elementos (predicados, terminos: constantes y vari-
ables, constantes logicas (Verdadero y Falso), parentesis, corchetes, comas, conecti-
vas, y cuanticadores) que integran el alfabeto utilizado por la logica de predicados,
el siguiente paso consiste en la estructuracion de los elementos anteriores a traves
de formulas. Las siguientes reglas indican como se obtienen fbf.
a) Si P es un smbolo de predicado y t
1
, t
2
, . . . , t
n
con n 0 representan
terminos, entonces P(t
1
, t
2
, . . . , t
n
) es una formula. En este caso, a
esta construccion se le denomina atomo o formula atomica, tambien
se les conoce como formulas bien formadas (fbf). Solo los predicados
pueden tener un valor de verdad, por lo tanto la formula mas simple
(atomica) es un predicado. Asimismo, t
1
= t
2
tambien es una formula
atomica.
b) Una formula atomica es una fbf.
c) Si A y B son fbf, entonces (A), (B), A B, A B, A B, A B,
y A B tambien lo son.
d) Si A es una formula y x es una variable, entonces (xA) y (xA)
tambien son formulas.
3.4. L

OGICA DE PREDICADOS 161


Las formulas atomicas representan hechos en el dominio del conocimiento y repre-
sentan lo que se sabe del mundo, o de una base de conocimientos.
3.4.2. Semantica
La semantica en el calculo de predicados le da signicado a las formulas. Este sig-
nicado se obtiene al interpretar los terminos y predicados, as como las unidades
sintacticas usadas en la construccion de las formulas. Los terminos son interpreta-
dos como objetos y los predicados como relaciones. El objetivo de la semantica es
atribuir un signicado a los elementos de un lenguaje. En el caso de la logica de
primer orden se determina el valor para dos elementos del lenguaje: 1) terminos,
los cuales representan los objetos del universo de discurso, y 2) formulas, las cuales
representan proposiciones verdaderas o falsas. La interpretacion de formulas se va a
realizar mediante el uso de estructuras e interpretaciones [56, 54].
En la semantica los smbolos de constante especican a que objeto se reeren: i) una
constante se reere a un solo objeto, puede haber dos constantes haciendo referen-
cia al mismo objeto, no es necesario nombrar todos los objetos del universo, ii) la
semantica de los smbolos de predicado especica a que relacion hacen referencia,
formalmente toda relacion se dene por el conjunto de tuplas que la satisfacen, por
ejemplo, la relacion de hermandad: ( Carlos Salinas, Ra ul Salinas), (Ra ul Salinas,
Carlos Salinas).
La semantica de los smbolos de funcion
9
especica la relacion funcional a que
hacen referencia, tal relacion puede denirse mediante un conjunto de tuplas, por
ejemplo la funcion coseno hace corresponder a un angulo un solo n umero mediante
tuplas con dos elementos: (90 grados, 0),(0 grados, 1).
La semantica de los terminos corresponde, en la relacion especicada al n + 1 ele-
mento de la tupla cuyos primeros n objetos son los argumentos. La semantica de las
sentencias atomicas indica que, una sentencia atomica es cierta si la relacion especi-
cada se da entre los argumentos (variables o constantes). A su vez, la semantica de
las sentencias compuestas es similar a la de las sentencias con conectivas de la logica
proposicional: Con los cuanticadores (, ) podemos expresar propiedades sobre
conjuntos de objetos sin enumerarlos, por ejemplo, todos los gatos son mamferos,
se expresa como: xGato(x) Mamfero(x). La expresion anterior se puede ver
como la conjuncion de varias sentencias obtenidas al sustituir la variable x por los
9
Las funciones describen elementos (constantes) y los identican como el resultado unico de la
aplicaci on de una transformacion entre otros elementos del dominio (por ejemplo, padre(JUAN),
madre(padre(JUAN)), asesino(x)).
162CAP

ITULO 3. REPRESENTACI

ONDEL CONOCIMIENTO YRAZONAMIENTO


elementos del dominio (nombres de gatos): Gato(Mancha) Mamifero(Mancha)
Gato(Felix) Mamifero(Felix) Gato(Juan) Mamifero(Juan), etc. Por su parte,
el uso del cuanticador existencial para la expresion Mancha tiene una hermana
que es gato, se indica como xHermana(x, Mancha) Gato(x), sepuedevercomo :
(Hermana(Mancha, Mancha) Gato(Mancha)) (Hermana(Felix,Mancha) Gato(Felix))
, etc.
La semantica de sentencias con cuanticadores se deriva de la de las sentencias con
conectivas. Para expresar sentencias mas complejas se requiere el uso de varios cuan-
ticadores: (i) del mismo tipo, si x es progenitor de y entonces y es descendiente
de x: x Progenitor(x, y) Descendiente(y, x), o (ii) de distinto tipo, todo el
mundo quiere a alguien: x, y Quiere(x, y), existe alguien a quien todo el mundo
quiere: y, x Quiere(x, y).
El orden de los cuanticadores es muy importante, por ejemplo la expresion: x,
y P(x, y) x (y(P(x, y)) arma que todo objeto tiene la propiedad de estar
relacionado con alg un objeto mediante P. A su vez, la expresion x, y P(x, y)
x (y P(x, y)), la cual arma que alg un objeto tiene la propiedad de estar rela-
cionado con todos los objetos mediante P. Asimismo, estos cuanticadores estan
relacionados mediante la negacion, por ejemplo la expresi on todo el mundo detesta
el Brocoli equivale a no existe nadie a quien le guste el Brocoli, su correspon-
diente representacion en logica de predicados es: x Gusta(x, Br ocoli) equivale
a x Gusta(x, Br ocoli). Otro ejemplo, a todo el mundo le gusta el helado, es-
ta expresion es equivalente a no existe nadie a quien no le guste el helado, su
representacion en logica de predicados es: x Gusta(x,Helado) equivalente a x
Gusta(x,Helado). Como se observa en los ejemplos anteriores, los cuanticadores
pueden verse como una conjuncion y una disyuncion sobre el universo de objetos.
En este caso, se cumplen las leyes de De Morgan:
x P xP,
x P xP,
x P xP, y
x P xP
La semantica de sentencias con igualdad (=). Una igualdad es cierta si los dos
terminos que relacionan se reeren al mismo objeto, por ejemplo: Padre(Juan) =
Enrique.
Al aplicar la logica de predicados como un metodo para representar el conocimiento
debemos tener presente los siguientes aspectos:
3.4. L

OGICA DE PREDICADOS 163


1. Identicar el dominio a tratar. Al igual que las matematicas, la cual utiliza
axiomas para capturar los hechos basicos de un dominio y servir de base para la
denicion de otros conceptos (demostracion de teoremas), en IA tambien se utilizan
axiomas para representar el conocimiento del dominio de interes. Para representar tal
conocimiento se tiene que hacer lo siguiente: (i) identicar objetos, propiedades, rela-
ciones y funciones, (ii) describir el conocimiento de los elementos anteriores a traves
de axiomas. Por ejemplo, si el dominio a tratar es el de las relaciones familiares,
se tienen que identicar los siguientes elementos:
Objetos: personas.
Propiedades: genero, indicado por los predicados unarios Hombre, y Mujer.
Relaciones: padres, esposo, esposa, hijo, hija; aplicacion de los predicados binarios
siguientes: Progenitor, Esposo, Esposa, Hijo, Hija, etc.
Funciones: padre y madre.
El paso siguiente es describir lo que sabemos acerca de los elementos del dominio y
representarlos formalmente, por ejemplo:
La madre de alguien es su progenitor femenino,
representacion formal: m,c Madre(c) = m Mujer(m) Progenitor(m,c)
El esposo de alguien es su conyuge masculino,
representacion formal: w, h Esposo(h, w) Hombre(h) C onyuge(h, w)
Un aspecto importante es saber si hemos denido una cantidad suciente de ax-
iomas para especicar completamente el dominio: se puede postular un conjunto de
predicados basicos , por ejemplo, en el dominio de las relaciones familiares: Descen-
diente, C onyuge, Hombre y Mujer. Tambien es importante saber si hemos denido
demasiados axiomas, es decir, si no son independientes: un axioma independiente es
aquel que no se puede obtener a partir de otros. En IA se suele trabajar con axiomas
dependientes con el n de hacer mas eciente el proceso de demostracion.
2. Crear la base de conocimientos. La creacion de la base de conocimientos
consiste en pasar el conocimiento generado a traves de la logica de predicados a un
lenguaje de programacion tal como Prolog o Lisp con el n de que se puedan realizar
inferencias a partir del conocimiento almacenado.
164CAP

ITULO 3. REPRESENTACI

ONDEL CONOCIMIENTO YRAZONAMIENTO


3.4.3. Inferencia
La logica de predicados, se ocupa unicamente de metodos de argumentacion solidos.
Tales argumentaciones se denominan Reglas de Inferencia o inferencia. Si se da
un conjunto de axiomas que son aceptados como verdaderos, las reglas de inferencia
garantizan que solo seran derivadas consecuencias verdaderas.
Reglas de inferencia deductiva. Inferir es concluir o decidir a partir de algo
conocido o asumido; llegar a una conclusion. A su vez, razonar es pensar coherente
y logicamente; establecer inferencias o conclusiones a partir de hechos conocidos o
asumidos. El proceso de razonamiento, por lo tanto, involucra la realizacion de in-
ferencias, a partir de hechos conocidos. Realizar inferencias signica derivar nuevos
hechos a partir de un conjunto de hechos conocidos como verdaderos. La logica de
predicados proporciona un grupo de reglas solidas, con las cuales se pueden realizar
inferencias. Las principales Reglas de Inferencia son [53, 55, 54]:
Modus ponens.- Esta regla se considera la mas importante, en los sistemas basa-
dos en conocimiento, la cual establece que:
P(x) Q(x), P(a) Q(a)
Si la expresion P(x) Q(x) es verdadera y se conrma la validez de P(a) entonces
se puede inferir que Q(a) tambien es verdadera. Por ejemplo, x: mexicano(x)
atento(x) es verdadero, y tambien es verdadero que: mexicano(Sim on), podemos en-
tonces inferir que: atento(Simon). Este tipo de razonamiento exige mucha exactitud
en la construccion de las reglas, ademas de una fuerte relacion entre antecedentes y
consecuentes.
Modus tolens.- Esta rgla establece que:
P(x) Q(x), Q(a) P(a)
Si la expresion P(x) Q(x) es verdadera y se conrma la validez de Q(a) en-
tonces se puede concluir que P(a) tambien es verdadera. Por ejemplo, resulta que:
x: servivo(x) mortal(x), es verdadero, y se establece que mortal(piedra) es
verdadero, entonces servivo(piedra) es verdadero.
Silogismo disyuntivo: A(x) B(x), A(x) B(x)
Silogismo hipotetico: A(x) B(x), B(x) C(x) A(x)
3.4. L

OGICA DE PREDICADOS 165


C(x)
Ley de simplicacion: A(x) B(x) A(x)
Ley de adicion: A(x) A(x) B(x)
Contrapositiva: A(x) B(x) B(x) A(x)
Ley de implicacion: A(x) B(x) (A(x) B(x))
Ley de doble implicacion: A(x) B(x) (A(x) B(x)) (B(x) A(x))
Negacion de negacion: (A(x)) A(x)
Ademas de las reglas mencionadas, que tambien corresponden a la logica proposi-
cional, existen cuatro reglas mas que son exclusivas del calculo de predicados. Dos
de estas reglas se aplican a cada cuanticador, una de ellas es para eliminarlo y la
otra es para introducirlo.
Regla 1: Eliminacion del cuanticador universal (E). Esta regla puede ser
entendida de la manera siguiente:
xA(x) A(t)
Lo cual indica que, si algo (A) puede decirse de todo el dominio (xA(x)), entonces
puede decirse lo mismo para cualquiera de sus elementos (A(t), donde t es un termino
cualquiera). Si se quiere decir algo de un elemento conocido, sustituiremos la vari-
able cuanticada universalmente por la constante que designa este elemento (por
ejemplo, A(b)). Por otro lado, si se quiere decir algo de un elemento cualquiera sin
precisar mas, la sustituiremos por una variable cualquiera (por ejemplo, A(u)). Para
ofrecer un ejemplo del uso de esta regla, se va a validar el siguiente razonamiento:
Los mexicanos son atentos. Simon es mexicano. Por lo tanto, Simon es atento.
Primero se hace la asignacion de signicados a predicados atomicos:
M(x): x es mexicano;
166CAP

ITULO 3. REPRESENTACI

ONDEL CONOCIMIENTO YRAZONAMIENTO


A(x): x es atento;
Determinacion de constantes (a): Simon.
Formalizacion del razonamiento: x(M(x) A(x)), M(a) A(a)
Enumerando el razonamiento formalizado:
a) x(M(x) A(x))
b) M(a)
c) M(a) A(a)
d) A(a)
El punto 1 indica que: Todos los mexicanos son atentos, en 2 se establece que
Simon es mexicano, es decir, en este paso se asigna un valor (constante) para el
cuanticador, por lo que, en 3 se pasa a Si Simon es mexicano, entonces es atento.
En este caso, la constante a que sustituye a x permite la eliminacion de la im-
plicacion y a su vez, la validacion del razonamiento.
Regla 2: Introduccion del cuanticador universal (I). Esta regla establece
lo siguiente: Cuando se dispone de una formula que contiene una variable libre (u),
esta variable puede cuanticarse universalmente:
A(u) xA(x)
Para que esta regla pueda ser aplicada, son necesarias las condiciones siguientes:
La variable u debe ser arbitraria.
La introduccion del cuanticador universal no debe provocar capturas
involuntarias de variables libres. Esto quiere decir que la variable x
no debe aparecer libre en la formula A.
Todas las ocurrencias de la variable libre u en la formula A deben
ser sustituidas por x.
La regla I puede ser mejor comprendida de la forma siguiente: si algo (A) puede
decirse de u(A(u)) y se puede garantizar que este u podra ser cualquier objeto del
dominio, entonces A puede decirse de todos los elementos del dominio (xA(x)).
Enseguida se va a mostrar un ejemplo de la aplicacion de esta regla. Validar el sigu-
iente razonamiento aplicando la regla I:
3.4. L

OGICA DE PREDICADOS 167


Todo el mundo es amigo de todo el mundo. Por lo tanto, todo el mundo es amigo
de s mismo.
En este ejemplo, el dominio sera un conjunto cualquiera, no vaco, de personas, y se
utilizara un solo predicado: A(x, y): x es amigo de y.
La formalizacion de la expresion es: xyA(x, y) por lo tanto zA(z, z)
a) xyA(x, y)
b) yA(u, y) Aplicacion de la regla E a (1) (x es sustituida por u)
c) A(u, u) Aplicacion de la regla E a (2) (y es sustituida por u)
d) zA(z, z) Aplicacion de la regla I a (3) (u aparece libre mientras y
arbitraria)
Regla 3: Eliminacion del cuanticador existencial (EE). Cuando una formula
esta cuanticada existencialmente, la variable cuanticada puede ser sustituida por
una constante nueva y el cuanticador se puede eliminar:
xA(x) A(a)
Para que la aplicacion de la regla sea correcta, es necesario garantizar que la con-
stante utilizada es nueva, es decir, que no haya aparecido antes.
Otra manera de entender mejor el uso de esta regla, es expresarla de la forma
siguiente: si se sabe que hay un elemento del dominio que cumple una determina-
da propiedad (A), nos podemos referir al mismo con una constante (a), siempre y
cuando la misma constante no sea utilizada para referirse a cualquier otro elemento
del dominio. A continuacion se muestra un ejemplo de la aplicacion de esta regla.
Validar el siguiente razonamiento:
Si todos los programas han sido vericados, todos los resultados son correctos. Sin
embargo, hay un resultado que no es correcto. Esto quiere decir que no todos los
programas han sido vericados.
Descripcion de predicados atomicos:
P(x): x es un programa;
V (x): x ha sido vericado;
R(x): x es un resultado;
168CAP

ITULO 3. REPRESENTACI

ONDEL CONOCIMIENTO YRAZONAMIENTO


C(x): x es correcto.
Formalizacion del razonamiento:
x(P(x) V (x)) y(R(y) C(y)), x(R(x)C(x)) por lo tanto x(P(x)
V (x))
Enumeracion de componentes y aplicacion de reglas:
a) x(P(x) V (x)) y(R(y) C(y)) . . . Predicado (P)
b) x(R(x) C(x)) . . . Predicado (P)
c) x(P(x) V (x)) . . . Hipotesis
d) y(R(y)C(y)
e) R(a) C(a)
f ) R(a) C(a)
g) R(a)
h) C(a)
i) C(a)
j) x(P(x) V (x))
La lnea 4 se obtiene al aplicar la regla de eliminacion del cuanticador universal
a las lneas 1 y 3, a su vez la lnea 5 se obtiene mediante la aplicacion de la regla
de eliminacion existencial a la lnea 2. La lnea 6 de esta demostracion es correcta.
Para aplicar la regla EE es necesario utilizar una constante nueva, sin embargo, esta
restriccion no se aplica a la regla E en la que puede utilizarse cualquier termino.
La lnea 7 se obtiene aplicando la regla de simplicacion a la lnea 5, la lnea 8 es
obtenida al aplicar modus ponens a las expresiones mostradas en 6 y 7, la proposicion
mostrada en la lnea 9 se obtiene al aplicar la regla de simplicacion a la expresion
mostrada en la lnea 5. Finalmente, la conclusion mostrada en la lnea 10 se obtiene
al realizar implicacion con la hipotesis mostrada en la lnea 3 en la que aparece un
predicado con cuanticacion universal y las proposiciones mostradas en las lneas
8 y 9.
Regla 4: Introduccion del cuanticador existencial (IE). En esta regla, las
variables libres de una formula se pueden cuanticar existencialmente. Las con-
stantes de una formula pueden sustituirse por una variable cuanticada existencial-
mente, tal como se muestra en la siguiente expresion:
A(t) xA(x)
3.4. L

OGICA DE PREDICADOS 169


Donde t es un termino cualquiera (si se trata de una variable, debe ser libre).
Esta regla se puede comprender mejor si se expresa de la forma siguiente: si algo (A)
puede decirse de t(A(t)), entonces existe un elemento del dominio del cual puede
decirse A(xA(x))
Un ejemplo para observar la correcta aplicacion de la regla IE se muestra a contin-
uacion. Validar el razonamiento siguiente aplicando la regla IE:
Todos los bancos tienen computadoras. Hay bancos. En consecuencia, hay computadoras.
Descripcion de predicados:
B(x): x es un banco;
C(x): es una computadora;
T(x, y): x tiene y.
Formalizacion del razonamiento:
x[B(x) y(C(y) T(x, y))], xB(x) por lo tanto xC(x)
Aplicacion de reglas y enumeracion de componentes obtenidos:
a) x[B(x) y(C(y) T(x, y))] Predicado
b) xB(x) Predicado
c) B(a)
d) B(a) y(C(y) T(a, y))
e) y(C(y) T(a, y))
f ) C(b) T(a, b)
g) C(b)
h) xC(x)
En las lneas 1 y 2 se muestran los dos predicados que forman la expresion for-
malizada. En las lneas siguientes 3 8 se muestran las reglas que se aplican a los
componentes de los predicados anteriores para llegar a la conclusion referida. La
proposicion que se muestra en la lnea 3, se obtiene al aplicar la regla EE al cuan-
ticador existencial que se muestra en la lnea 3. La expresion mostrada en la lnea
4 se obtiene cuando se aplica la regla de eliminacion del cuanticador universal a la
expresion mostrada en la lnea 1. Al tomar las expresiones mostradas en las lneas
170CAP

ITULO 3. REPRESENTACI

ONDEL CONOCIMIENTO YRAZONAMIENTO


3 y 4, y se les aplica modus ponens, se obtiene como conclusion el consecuente, es
decir, la expresion que se muestra en la lnea 5. A su vez, si se aplica la regla para
la eliminacion del cuanticador existencial a la expresion mostrada en la lnea 5, se
obtiene la expresion indicada en 6. Aplicando la simplicaci on asociativa a la expre-
sion mostrada en 6 se obtiene como resultado 7. Finalmente, si se le aplica la regla
para introducir el cuanticador existencial a la expresion mostrada en 7 se obtiene
el resultado buscado: xC(x).
Reglas derivadas y equivalencias deductivas. En la logica de predicados, la
deduccion natural es mas compleja que en la logica de proposiciones, por lo que
la posibilidad de cometer errores tambien es mayor. Para reducir en lo posible el
riesgo de cometer errores, es recomendable utilizar, siempre que sea factible, reglas
derivadas y equivalencias deductivas de correccion probada.
3.4.4. Validez
Se dice que una formula bien formada es valida si es verdadera para todas las posi-
bles interpretaciones (si solo usa constantes, se llama tautologa). Se dice que un
argumento es valido, si su conclusion es consecuencia de sus premisas, en otro ca-
so es incorrecto. En las formulas que tienen variables cuanticadas, no siempre se
puede computar si una fbf es valida. Se ha demostrado que es imposible encontrar
un metodo general para decidir la validez de expresiones cuanticadas. Por esa razon
se dice que el calculo de predicados es indecidible, aunque hay subclases en las que
si es posible. Pero si una fbf es en realidad valida, se puede encontrar siempre un
procedimiento que verique la validez (aunque este procedimiento puede no termi-
nar nunca semidecibilidad).
En esta seccion se va a describir el metodo de resolucion como el mecanismo que se
aplica en la logica de predicados con el n de validar los razonamientos expresados
en este lenguaje. Este metodo se basa en los siguientes puntos:
a) Maneja una unica regla: resolucion.
b) Utiliza una unica estrategia: la reduccion al absurdo.
c) La utilizacion de la forma normal de Skolem(con matriz en FNC).
d) La utilizacion de la tecnica del replanteamiento de la ultima decision,
para garantizar la sistematicidad.
e) El calculo de sustituciones y el algoritmo de unicacion.
Antes de aplicar el metodo de resolucion a una expresion, esta debe estar presentada
en la forma normal de Skolem y su matriz en forma normal conjuntiva. Por lo que,
3.4. L

OGICA DE PREDICADOS 171


Figura 3.10: Estructura de la forma normal prenexa, donde los Q
i
son cuanti-
cadores.
se va a ofrecer una breve descripcion de estas transformaciones.
Forma normal de Skolem. Las formulas, igual que las proposiciones, se manipulan
algebraicamente para obtener formulas equivalentes. La transformacion algebraica
de una formula tiene por objetivo la consecucion de una forma normal. La forma
normal de una formula recibe el nombre de forma normal prenexa. Una formula
estara expresada en forma normal prenexa si presenta la estructura mostrada en la
Figura 3.10. Por lo tanto, una formula estara expresada en forma normal prenexa
cuando todos los cuanticadores estan agrupados a su izquierda (la parte denom-
inada prejo) y, consecuentemente, no aparece ning un cuanticador a su derecha
(la parte denominada matriz). El prejo debe contener solamente cuanticadores
universales los cuanticadores existenciales son eliminados siguiendo un proceso
conocido como eskolemizacion y la matriz debe estar en forma normal conjuntiva
(FNC) [55, 54].
El proceso para obtener la forma normal de Skolemdebe seguir el orden siguiente:
1) Vericar que no existan variables libres. Si existen variables libres, esto es un
sntoma de error en la formalizacion y es necesario vericarla nuevamente. Si la
formula se ha dado con variables libres, estas se deben cuanticar existencialmente.
Los cuanticadores existenciales que se a nadan deberan colocarse a la izquierda de
la formula.
2) Opcionalmente, si se utiliza el mismo nombre para variables dentro del ambito
de cuanticadores distintos, puede ser util cambiar estos nombres.
3) Eliminar las implicaciones.
4) Aplicar las leyes de De Morgan para conseguir que las negaciones precedan a los
172CAP

ITULO 3. REPRESENTACI

ONDEL CONOCIMIENTO YRAZONAMIENTO


Cuadro 3.2: Tabla de equivalencias.
Expresion Equivalencia
P1 P2 P1 P2
P1 (P2 P3) (P1 P2) (P2 P3)
P1 (P2 P3) (P1 P2) (P2 P3)
P1 P2 P2 P1
(P1) P1
(P1 P2) P1 P2
(P1 P2) P1 P2
xP(x) xP(x)
xP(x) xP(x)
P1 Falso P1
P1 V erdadero V erdadero
P1 Falso Falso
P1 V erdadero P1
P1 P1 V erdadero
P1 P1 Falso
smbolos de predicado. Sera necesario aplicar tanto las leyes de De Morgan estudi-
adas para los enunciados como las que se aplican a las formulas cuanticadas.
5) Eliminar los cuanticadores existenciales (eskolemizaci on).
6) Mover todos los cuanticadores hacia la izquierda.
7) Normalizar la matriz. Para poder aplicar el metodo de resolucion, es necesario
que este expresada en FNC.
Durante este proceso de transformaciones necesarias para obtener la forma normal-
izada es util considerar las equivalencias mostradas en la Tabla 3.2.
Eliminacion de cuanticadores existenciales. El punto principal para encontrar
la forma normal de Skolem de una formula es la eliminacion de los cuanticadores
existenciales. Para llevarla a cabo, se precede de la siguiente manera [54]:
1) Si un cuanticador existencial no se encuentra dentro del ambito de ning un cuan-
ticador universal, entonces hay que sustituir la variable cuanticada existencial-
mente por una constante que todava no ha sido utilizada, y eliminar el cuanticador
existencial. La constante no se podra utilizar posteriormente.
3.4. L

OGICA DE PREDICADOS 173


2) Si un cuanticador existencial se encuentra dentro del ambito de un cuanticador
universal, entonces hay que sustituir la variable cuanticada existencialmente por
una funcion de la variable cuanticada universalmente, y eliminar el cuanticador
existencial. La funcion no se puede haber utilizado previamente ni se podra utilizar
posteriormente.
3) Si un cuanticador existencial se encuentra dentro del ambito de mas de un
cuanticador universal, entonces hay que sustituir la variable cuanticada existen-
cialmente por una funcion de todas las variables afectadas por estos cuanticadores
universales y eliminar el cuanticador existencial. La funcion no se puede haber uti-
lizado previamente ni se podra utilizar posteriormente.
Los cuanticadores universales afectan a las variables cuanticadas existencialmente
que estan dentro de su ambito, pero no afectan a las otras variables cuanticadas
universalmente. Los cuanticadores existenciales no afectan ni a las variables cuan-
ticadas universalmente ni a ninguna otra variable cuanticada existencialmente.
Ejemplo de determinacion de una forma normal de Skolem.
Transformar la expresion: x[P(x)(tQ(x, t)yR(x, y)) (zA(z)uB(u, x))]
a forma normal de Skolem:
1) Se examina la formula para detectar variables libres. No las hay.
2) Se examina la formula para detectar repeticiones en el nombre de las variables.
No se detecta ninguna repeticion.
3) Eliminacion de las implicaciones:
x[P(x) (tQ(x, t) yR(x, y)) (zA(z) uB(u, x))].
4) Se aplican las Leyes de De Morgan Morgan para acercar las negaciones a los
smbolos de predicados:
x[(P(x) (tQ(x, t) yR(x, y)) (zA(z) uB(u, x))]
5) Se eliminan los cuanticadores existenciales: la variable y es sustituida por una
funcion de x. La variable z es sustituida por otra funcion de x:
174CAP

ITULO 3. REPRESENTACI

ONDEL CONOCIMIENTO YRAZONAMIENTO


x[(P(x) (tQ(x, t) R(x, f(x)))) (A(g(x)) uB(u, x))].
6) Se mueven todos los cuanticadores universales a la izquierda:
xtu[(P(x) (Q(x, t) R(x, f(x)))) (A(g(x)) B(u, x))].
7) Se calcula la forma normal conjuntiva de la matriz:
xtu[(P(x)A(g(x))(P(x)B(u, x))(Q(x, t)R(x, f(x))A(g(x)))
(Q(x, t) R(x, f(x)) B(u, x))].
La aplicacion de las leyes de De Morgan provoca que algunos cuanticadores uni-
versales se conviertan en existenciales, y a la inversa.

Esta es la razon por la cual
la eskolemizacion (paso 5) no se puede aplicar antes: se correra el riesgo de elim-
inar cuanticadores existenciales que posteriormente se tendran que convertir en
universales y, ademas, podran aparecer nuevos cuanticadores existenciales, por
transformacion de los universales.
Resolucion. En el mecanismo de resolucion el concepto de sustitucion es muy im-
portante, pues permite obtener de una forma directa la validacion de una expresion.
Se va a mostrar a traves de un ejemplo, el aspecto de sustitucion. Suponga que se
desea validar el siguiente razonamiento:
Todos los hombres son impacientes. Juan es un hombre. Consecuentemente, Juan
es impaciente.
Formalizando la expresion:
H(x): x es un hombre,
Constante a : Juan,
I(x): x es impaciente
Expresion resultante:
x[H(x) I(x)], H(a) por lo tanto I(a).
El primer paso consiste en representar la expresion anterior en su forma normal de
Skolen. Por lo tanto, despues de aplicar los pasos indicados para esto, se obtienen
las formas normales siguientes:
3.4. L

OGICA DE PREDICADOS 175


(x[H(x) I(x)]) = x[H(x) I(x)].
(H(a)) = H(a).
(I(a)) = I(a).
Al momento de considerar las clausulas, los cuanticadores no se tienen en cuen-
ta, pero no hay que olvidar que todos son universales. As pues, si en una clausula
aparece una variable, esto quiere decir que estaba cuanticada y que el cuanticador
era universal.
El conjunto de clausulas resultante es:
S = H(x)I(x), H(a), I(a).
Donde la ultima clausula (I(a) se toma como conjunto de apoyo.
El arbol de resolucion correspondiente a este ejemplo se muestra en la Figura 3.11(a).
Parece que no se puede continuar porque en la clausula troncal se tiene I(a), mientras
que en la lateral se tiene I(x) y, dado que son diferentes, la regla de resolucion no
se puede aplicar. En este punto la regla de resolucion no se puede aplicar, ya que
un literal no es la negacion del otro. Se observa que el literal I(x) contiene a la
variable x. Si de alguna manera se pudiera reemplazar a esta variable por la constante
a, el proceso de resolucion puede continuar. Este reemplazo es posible, ya que la
clausula troncal es realmente x(H(x)I(x)) y recordando la regla de eliminacion
del cuanticador universal la cual arma: una variable cuanticada universalmente
puede ser sustituida por cualquier termino, en este caso, la constante a es un termino.
Por lo tanto, la variable x se puede sustituir por la constante a y el arbol de resolucion
queda como se ilustra en la Figura 3.11(b).
Cuando el metodo de resolucion se aplica a la logica de predicados, la sustitucion de
variables es imprescindible. As pues, hay que tener claros los siguientes aspectos [53]:
1) En cada momento se debe elegir aquella sustitucion que, una vez aplicada, permi-
ta eliminar el literal de mas a la derecha de la clausula troncal. Aunque una variable
pueda ser sustituida por cualquier termino, solo son utiles las sustituciones que con-
ducen a la eliminacion de este literal.
2) Si hay mas de una sustitucion que permite eliminar el literal de mas a la derecha
de la clausula troncal, se utiliza cualquiera, y el resto se reserva como alternativa
por si hay que aplicar el replanteamiento de la ultima decisi on.
3) Solo se pueden sustituir las variables. Una variable puede ser sustituida por una
176CAP

ITULO 3. REPRESENTACI

ONDEL CONOCIMIENTO YRAZONAMIENTO


Figura 3.11: Proceso de resolucion mostrado en forma de arbol, (a) el proceso no
puede continuar debido a una mala sustitucion, (b) el proceso se realiza de forma
satisfactoria.
constante, por una funcion o por otra variable. Sin embargo, ni las constantes ni las
funciones pueden ser sustituidas.
Hay una excepcion a la posibilidad de sustituir una variable por cualquier termino:
una variable no puede ser sustituida por una funcion de s misma.
4) Cuando una variable es sustituida, hay que sustituir todas las apariciones de es-
ta variable en la clausula donde aparece. No obstante, la clausula original se debe
dejar intacta. La sustitucion se debe hacer sobre la copia que se utiliza en el arbol
de resolucion.
Aplicando la tecnica de resolucion y los puntos recien comentados, se va a propor-
cionar otro ejemplo para dejar claro la aplicacion de esta regla. En este ejemplo se
va a validar el razonamiento mostrado en forma de lenguaje de predicados siguiente:
x[yA(y, x) zB(z, x)] por lo tanto xy[A(y, x) B(y, x)]
En primer lugar buscamos las formas normales de Skolem:
a) Para la premisa:
3.4. L

OGICA DE PREDICADOS 177


(x[yA(y, x) zB(z, x)]) = x[A(f(x), x) B(g(x), x)].
b) Para la negacion de la conclusion:
(xy[A(y, x) B(y, x)]) = y[A(y, a) B(y, a)].
El conjunto de clausulas resultante es:
S = A(f(x), x) B(g(x), x), A(y, a), B(y, a)
con el conjunto de apoyo A(y, a), B(y, a).
El arbol que muestra la aplicacion del mecanismo de resolucion se ilustra en la Figu-
ra 3.12.
El hecho de poder determinar en cada momento cuales son las sustituciones que hay
que llevar a cabo es una cuestion muy importante para la aplicacion del metodo
de resolucion. A menudo es posible determinarlas a partir de la simple inspeccion
de los literales involucrados. Para aquellas situaciones donde la simple inspeccion
no es suciente, o cuando se quiere mecanizar el metodo, existe un mecanismo que
realiza de forma automatica este proceso: el algoritmo de unicacion. Sin embargo,
este metodo no se va a tratar en esta seccion.
Ventajas de la logica de predicados. Facilidad para actualizar la base de conocimien-
to por la independencia de las declaraciones en la descripci on del conocimiento.
Desventajas. Tal vez la principal desventaja de la logica de predicados es que
solo dispone de dos niveles de veracidad: verdadero y falso. Esto se debe a que
la deduccion siempre garantiza que la inferencia es absolutamente verdadera. Sin
embargo, en la vida real no todo es blanco y negro. Es decir, existen aspectos de in-
certidumbre, los cuales no pueden ser manejados por este esquema de representacion
del conocimiento. Asimismo, tambien se observan las siguientes desventajas: (a) No
maneja tiempos verbales, este es requisito importante en problemas en los cuales es
necesario su control, (b)Para una misma expresion en lenguaje natural hay muchas
representaciones en logica y viceversa, (c) En ocasiones se presta para interpreta-
ciones ambiguas, (d) La logica de predicados al ser un formalismo de razonamiento
monotonico, no resulta muy adecuada para ciertos dominios del mundo real, en los
cuales las verdades pueden cambiar con el paso del tiempo.
178CAP

ITULO 3. REPRESENTACI

ONDEL CONOCIMIENTO YRAZONAMIENTO


Figura 3.12: Proceso de resolucion mostrado en forma de arbol, para validar la
expresion:x[yA(y, x) zB(z, x)] por lo tanto xy[A(y, x) B(y, x)].
3.5. RAZONAMIENTO CON INCERTIDUMBRE 179
3.5. Razonamiento con incertidumbre
En muchas ocasiones la representacion del conocimiento del mundo no puede re-
alizarse de manera categorica (determinista) a traves de reglas logicas. Por ejemplo,
existen situaciones en las cuales se tiene un conocimiento limitado acerca de un do-
minio, la informacion de la que disponemos esta incompleta, la informacion no es
del todo conable, presenta ambiguedades, o bien se obtiene de forma indirecta etc.,
en estos casos, debemos se buscar otras maneras de trabajar con este tipo de infor-
macion. Es decir, debemos de buscar metodos para trabajar ante la incertidumbre.
La incertidumbre se puede originar por diversas causas, entre las que destacan las
siguientes:
Incertidumbre en la informacion. La incertidumbre presente en la informacion
puede generarse por las siguientes causas: (i) analisis incompletos (por ejemplo en
medicina el conocimiento previo de una enfermedad puede estar incompleto porque
no se hicieron todos los analisis), consideracion de pocas variables (sistemas de con-
trol), en este caso, la incertidumbre se presenta por tener informacion incompleta,
(ii) en otros casos, cuando la informacion es obtenida a traves de instrumentos
(sensores), tal como sucede con la mayora de los sistemas de control (industria,
manufactura), navegacion (robotica), o en sistemas de visi on, la informacion obteni-
da puede ser poco precisa debido a los componentes fsicos de los dispositivos, por lo
que es poco conable, o bien la informacion puede estar distorsionada por el ruido
el cual puede ocasionarse tanto por los propios componentes del sensor como por
elementos externos, en este caso, estas son causas de incertidumbre. Incertidumbre
en el conocimiento. Como se hizo notar en la primera seccion de este captulo, el
conocimiento es la siguiente fase de la informacion, por lo que es de suponer que si
existe incertidumbre en la informacion tambien la habra en el conocimiento. Sin em-
bargo, en esta etapa la incertidumbre adquiere otras presentaciones: el conocimiento
puede estar denido de forma imprecisa, por ejemplo si tiene dolor de cabeza posi-
blemente tiene gripe (aunque el dolor de cabeza puede tener otras causas).
Incertidumbre en la representacion. Tambien se puede presentar la incertidum-
bre en los diferentes esquemas de representacion del conocimiento, por ejemplo, en el
caso del conocimiento medico, si no se hicieron los analisis completos para especicar
el conocimiento previo de alguna enfermedad, esto traera como consecuencia que tal
enfermedad este mal representada en la base de conocimientos. Por otro lado, si no
se elige de manera apropiada el modelo de representacion para una aplicacion, o bien
si al modelo le falta poder descriptivo (no representa el conocimiento de acuerdo a
lo descrito por el experto humano). En estos casos, tambien existe incertidumbre.
La incertidumbre esta presente en gran parte de las procesos que se presentan en la
vida real, algunos de los dominios en los cuales se presenta son los siguientes: (a)
180CAP

ITULO 3. REPRESENTACI

ONDEL CONOCIMIENTO YRAZONAMIENTO


Diagnostico medico, (b) Prediccion nanciera, (c) Exploracion minera o petrolera,
(d) Interpretacion de imagenes, (e) Reconocimiento de voz, y (f) Monitoreo y control
de procesos industriales.
Ante estos hechos, se tienen que buscar enfoques alternativos para representar
el conocimiento con el n de integrar el aspecto de incertidumbre, la cual como
mostramos es un aspecto inherente en la mayora de las situaciones que enfrentamos
de la vida real. Existen dos enfoques para manejar la incertidumbre: numericos y
no numericos.
Enfoque nonumerico. Este esquema para tratar la incertidumbre engloba a
varias tecnicas entre las que destacan las siguientes: (a) Logicas Nomonotonicas,
a diferenca de la logica de primer orden cuyo esquema de razonamiento es monotonico,
en este metodo la conlusion de una regla puede variar al integrar mas informacion
a las premisas, esto permite el manejo de reglas no estaticas, (b) Sistemas de
mantenimiento de la verdad. Estos sistemas pueden proteger la integridad de
las conclusiones en un sistema de inferencia logico, tambien conocidos como redes
de justicacion son grafos estructurados por hechos y predicados , y (c) Teora de
endosos.
Enfoque numerico. Al igual que el anterior, el enfoque numerico integra un con-
junto de tecnicas entre las que destacan las siguientes: (a) Logica difusa. Esta
logica fue introducida por Lot A. Zadeh en 1965 como una extension de la logi-
ca clasica con el n de manejar la incertidumbre inherente en el lenguaje humano.
A diferencia de la logica clasica, en la logiga difusa los elementos que pertenecen
a un conjunto se denen de acuerdo a una funcion de valuada en un intervalo re-
al entre 0 y 1. De acuerdo con esta teora, la logica clasica es un subconjunto de
los conjuntos difusos, donde los unicos valores que maneja son 0 (no pertenece al
conjunto) y 1 (pertenencia total al conjunto). Esta teora se utiliza en aquellos ca-
sos de razonamiento con informacion vaga e imprecisa, tal como la generada por el
lenguaje humano como se menciono con anterioridad, (b) Metodos aproximados,
(c) Teora de DempsterShafer, (d) Redes Bayesianas. Las redes bayesianas
son una forma de representacion graca basada en la teora de probabilidad y el
teorema de Bayes. En este esquema la incertidumbre es representada por valores de
probabilidad en el intervalo de n umeros reales entre 0 y 1. En este caso, el razon-
amiento acerca de eventos de un dominio es de dos tipos: frecuentista (Objetivo)
y subjetivista. En ambos casos se dispone de informacion a priori relacionada con
tales eventos. Esta representacion es util en dominios de prediccion y diagnostico, y
(e) Metodos empricos (MYCIN, Prospector).
En esta seccion se van a presentar algunos de los esquemas de representacion del
3.5. RAZONAMIENTO CON INCERTIDUMBRE 181
conocimiento que tienen la capacidad de manejar incertidumbre en algunas de sus
modalidades.
3.5.1. Razonamiento probabilstico
El razonamiento probabilstico aplica un enfoque estocastico para razonar ante la
incertidumbre. La mayora de las tecnicas agrupadas bajo este esquema de razon-
amiento se basan en la teora de la probabilidad y el Teorema de Bayes para realizar
representar y manipular el conocimiento. con el n de entender este tipo de razon-
amiento es necesario comprender algunos aspectos basicos de probabilidad.
Bases de probabilidad. Una probabilidad se representa generalmente por un n umero
real indicando ya sea, la posibilidad de que una proposicion sea verdadera o de que
un evento ocurrira. La introduccion de n umeros, es la clave para evitar la naturaleza
categorica que caracteriza a la logica clasica. La proposicion: Todos en esta sala
estan casados, la cual en logica de predicados se representara como: (x)P(x) no
da alternativas de exibilidad. Por lo tanto, la intencion es hacer a esta estructura
mas exible, algunas opciones seran las siguientes:
a) La mayora de x o El 95 % de los que estan en esta sala estan
casados. La segunda proposicion produce una nocion de frecuencia,
es decir, una interpretacion estadstica. En este caso, el uso de la
probabilidad en esta proposicion es objetiva, ya que lo que se dice
acerca del dominio es puro y simple, y no esta sujeto a otra inter-
pretacion o grado de conanza.
b) Se podra introducir un grado de creencia a la proposicion inicial y
mostrarla como: Yo creo que todos en esta sala son casados pero
no estoy seguro. En este caso, estamos tratando con incertidumbre
en el conocimiento y cuando se puede cuanticar esta carencia de
certeza estamos hablando de probabilidad subjetiva ya que reeja
solamente el grado de creencia personal, y no la frecuencia objetiva
de un evento.
Los enfoques mostrados para tratar proposiciones nos describen los dos tipos de
probabilidad que se aplican en el razonamiento probabilsta a saber, la probabilidad
que surge de eventos que pueden ser cuanticados, por ejemplo, el lanzamiento de
monedas, n umero de prefesionistas en una ciudad, etc, y la probabilidad que surge
de eventos que no pueden ser cuanticados y que se determinan a traves de la ex-
periencia y apreciacion personal, tales como: La existencia de una crisis economica
en Mexico a mediados de este a no, o que Japon sea arrasado por un tsunami a
182CAP

ITULO 3. REPRESENTACI

ONDEL CONOCIMIENTO YRAZONAMIENTO


nes del 2012.
En todo caso, debemos de tener a la mano algunos conocimientos basicos de prob-
abilidad para que podamos razonar con este tipo de proposiciones.
Postulados de probabilidad. Una probabilidad es tecnicamente un n umero entre
0 y 1 que representa la frecuencia de un evento en un espacio muestral, donde un
evento con probabilidad 1 indica que siempre sucede mientras que un evento con
probabilidad 0 indica que nunca sucede. Formalmente, si el conjunto universal

representa todas las posibles ocurrencias de un evento, entonces se entiende que un
evento a es cualquier subconjunto de

. Una medida de probabilidad P es una fun-
cion de eventos a n umeros en el intervalo [0, 1] satisfaciendo los siguientes postulados
basicos:
a) P(

) = 1.
b) Si a
1
, ..., a
n
son eventos disjuntos, entonces la P(a
1
...a
n
) = P(a
1
)+
... +P(a
n
).
De los postulados anteriores se desprende que:
P( a) = 1 P(a) y P() = 0
De lo anterior se cumple que para dos eventos cualesquiera a y b:
P(a b) = P(a) +P(b) P(a)
Si los eventos b
1
, b
2
, ..., b
n
son disjuntos y exhaustivos, es decir si (b
i
b
j
) = para
i ,= j, y ademas (b
1
... b
n
) =

, entonces se cumple que:
P(a) = P(a b
1
) +... +P(a b
n
)
Con estas igualdades, podemos dar paso a las siguientes deniciones:
Independencia y probabilidad condicional. Un concepto clave en la probabili-
dad es el condicionamiento. Es decir, la probabilidad de un evento puede depender
de su interaccion con otros eventos. Se indica este aspecto por una barra vertical
separando los eventos, por ejemplo P(a[b) indica que la probabilidad del evento a
esta condicionada a la ocurrencia del evento b. Formalmente se dene como:
3.5. RAZONAMIENTO CON INCERTIDUMBRE 183
P(a[b) =
P(a b
P(b)
De la expresion anterior, y debido a que no se puede deducir el tama no de (a b)
teniendo los tama nos de a y b se desprende que:
P(a b = P(a[b) P(b)
Generalizando la expresion anterior se obtiene la regla de la cadena:
P(a
1
... a
n
) = P(a
1
[a
2
... a
n
) P(a
2
[a
3
... a
n
) ... P(a
n1
[a
n
) P(a
n
)
De las expresiones anteriores se deriva la conocida regla de Bayes la cual se describe
como:
P(a[b) =
P(a) P(b[a)
P(b)
La gran utilidad de esta regla consiste en la relacion que hace entre probabilidades
a priori con el n de obtener probabilidades a posteriori, aspecto muy util para
realizar diagnosticos y predicciones. Suponga por ejemplo que a es una enfermedad
y que b es un sntoma y que se desea conocer la probabilidad de que alguien tenga la
enfermedad dado que presenta cierto sntoma. Mientras que en este caso, un analisis
frecuentista puede no ser tan directo, es decir, indicar la frecuencia con la que el
sntoma determina la enfermedad, puede ser mas simple proporcionar la informacion
indicada en la regla de Bayes, esto es a es la probabilidad incondicional (a priori) de
que la enfermedad se presente en la poblacion, y la probabilidad de que el sntoma
aparezca dado que la enfermedad esta presente (P(b[a). Es notable la utilidad de
eta regla para el manejo de las probabilidades subjetivas. Finalmente, se dice que
un evento a es condicionalmente independiente de un evento b, si la ocurrencia de b
no afecta la ocurrencia de a, esta situacion se dene formalmente como sigue:
P(a[b) = P(a)
Otra expresion que dene el aspecto de incondicionalidad en terminos de conjuntos
es la siguiente:
P(a b) = P(a) P(b)
la cual se interpreta de la siguiente manera: a es condicionalmente independiente de
b, si la proporcion de elementos de a en el conjunto de b es igual a la proporcion de
184CAP

ITULO 3. REPRESENTACI

ONDEL CONOCIMIENTO YRAZONAMIENTO


elemntos de a en

. La relacion de independencia condicional es simetrica. Ademas a
y b son incondicionalmente independientes dado c si se cumple la siguiente igualdad:
P(a[b c) = P(a[c)
Probabilidad subjetiva. La probabilidad subjetiva se relaciona con el grado de
conanza o creencia que se tiene hacia una proposicion.
Los grados de creencia muy seguido son derivados de observaciones acerca de grupos
de cosas en el mundo. Por ejemplo, podemos estar seguros de que hoy va a llover
basados en observaciones estadsticas de das similares en el pasado. La transicion
que se observa es de datos estadsticos a grados de creencia relacionados con aspec-
tos individuales,esto es similar a transitar de hechos generales acerca del mundo a
valores por default. De aqu podemos desprender que Pioln es un ave y que Pioln
vuela basandonos en la creencia de que las aves generalmente vuelan. Sin embargo,
las conclusiones por default tienden a ser conclusiones de todo o nada: podemos
concluir que las aves vuelan o no. Las creencias subjetivas, expresan niveles de con-
anza mas que conclusiones del tipo todo o nada. Debido a que estos grados de
creencia muy seguido se derivan de consideraciones estadsticas, son usualmente
referidas como probabilidades subjetivas. El calculo de las probabilidades subjetivas
es mecanicamente equivalente al de las objetivas, pero son usadas de forma diferente.
Generalmente las usamos para ver como la evidencia al combinarse cambia nuestra
conanza en una creencia acerca del mundo, mas que derivar en nuevas conclusiones.
En el mundo de la probabilidad subjetiva, se denen dos tipos de probabilidades rel-
ativas a traves de las cuales llegamos a conclusiones. La probabilidad a priori de
una sentencia a involucra el estado previo de la informacion o conocimiento base el
cual indicamos por P(a[b). Por ejemplo, supongamos que sabemos que el 0,2 % de
la poblacion de un pas tiene hepattis. A partir de esta informacion, nuestro grado
de creencia de que una persona escogida al azar en dicho pas tenga hepattis es de
0,002. Esta informacion es la probabilidad subjetiva a priori acerca de una eviden-
cia especca hacia cualquier habitante de dicho pas. Una probabilidad posterior se
obtiene al aportar nueva evidencia P(a[b c), donde c es la nueva evidencia. Por
ejemplo, si un habitante tiene la piel amarillenta, podemos concluir que la proba-
bilidad posterior de que tenga hepattis dado el nuevo sntoma y la probabilidad a
priori, es de 0.65. Un aspecto importante, es como debemos combinar la evidencia
procedente de varias fuentes para reevaluar nuestra creencia.
El enfoque tradicional para derivar creencias a partir de informacion estadstica es
el uso de una clase de referencia para la cual tenemos estadsticas. De esta forma,
utilizamos la informacion estadstica de la clase para calcular el grado de creencia
de un individuo de la clase. Una clase de referencia podra ser una clase general en
3.5. RAZONAMIENTO CON INCERTIDUMBRE 185
la cual el individuo en cuestion puede jarse. Por ejemplo, suponga que intentamos
asignar un grado de creencia a la proposicion Luis es alto, donde Luis es un indi-
viduo de sexo masculino que vive en Mexico. Si sabemos que
A) El 20 % de los mexicanos son altos,
entonces podemos inclinarnos a asignar un valor de 0.2 a nuestra creencia acerca de
la altura de Luis. A esta transicion de datos estadsticos a creencias generalmente se
le conoce como inferencia directa. Sin embargo, existe un problema con esta tecnica,
los individuos generalmente pertenecen a varias clases. Por ejemplo, podemos saber
que Luis es de Sinaloa y que
B) El 32 % de los sinaloenses son altos.
En general, las clases de referencia mas especcas son mas informativas, de tal for-
ma que podramos asignar un mayor valor de creencia a la sentencia Luis es alto
a partir de que B) nos ofrece informacion mas especca. Ademas, supongamos que
tambien sabemos que
C) El 1 % de los jinetes de caballos de carrera son altos.
Si no conocemos la ocupacion de Luis, deberamos mantener nuestro grado de
creencia sin cambio?, o deberamos considerar la posibilidad de que sea jinete de
caballo de carrera antes de decidir. Supongamos que tambien sabemos el siguiente
dato:
D) El 8 % de los mexicanos cabalgan en caballos, y que:
E) Luis colecciona sombreros raros.
Estos aspectos, cambian en algo nuestra creencia acerca de la altura de Luis?, o son
irrelevantes. El calculo de la inferencia directa esta plagado de problemas debido a
la existencia de m ultiples clases de referencia.
Un enfoque Bayesiano basico. Debido a los problemas mencionados con anteri-
oridad, debera ser apropiado tener una forma mas conable de calcular las probabil-
idades subjetivas y como se afectan cuando nuevas evidencias son aportadas. Como
punto de inicio podemos asumir que tenemos un comjunto de variables proposi-
cionales de interes p
1
, p
2
, ..., p
n
, y que p
1
indica que Luis es licenciado, p
2
indica que
Susana esta casada, p
3
nos establece que Susana es adinerada, y as sucesivamente.
En diferentes estados del mundo, diferentes combinaciones de estas sentencias seran
186CAP

ITULO 3. REPRESENTACI

ONDEL CONOCIMIENTO YRAZONAMIENTO


verdaderas. Podemos pensar que cada estado del mundo esta caracterizado por una
interpretacion I que especica que sentencias atomicas son verdaderas y cuales son
falsas. A traves de una distribucion de probabilidad conjunta J podemos especicar
el grado de creencia para cada una de las 2
n
posibilidades de todas las variables
proposicionales. En otras palabras, para cada interpretacion I, J(I) es un n umero
entre 0 y 1, de tal forma que

J(I) = 1, donde la suma es sobre todas las 2
n
posibilidades. El uso de una distribucion de probabilidad conjunta permite calcular
el grado de creencia de cualquier sentencia incluyendo subconjuntos de variables. La
idea es que el grado de creencia en a es la suma de J sobre todas las interpretaciones
donde a es verdadera. Mas formalmente:
P(a) =

I=V
J(I)
y donde como antes, P(a[b) = P(ab) P(b). Tomando esto en cuenta, el grado de
creencia de que Luis es alto, dado que es mexicano, oriundo del estado de Sinaloa,
es la suma sobre todos los posible estados del mundo en los cuales Luis es alto,
mexicano, de Sinaloa dividido por la suma de J sobre todos los posibles estados del
mundo en los que Luis es mexicano y de Sinaloa. No resulta difcil observar que esta
denicion de probabilidad subjetiva satisface los dos postulados basicos vistos con
anterioridad. Mientras este enfoque es correcto, y nos indica como calcular cualquier
probabilidad subjetiva dada cualquier evidencia, existe un problema con el mismo,
este asume que tenemos una distribucion de probabilidad conjunta de todas las
variables en cuestion. Para n sentencias atomicas, tendramos que especicar los
valores de 2
n
1 n umeros. Sin embargo, esto resulta inmanejable para cualquier
aplicacion practica.
Redes de creencia. Con el n de hacer manejables las variables necesarias para
razonar con probabilidades subjetivas, se debe buscar la forma de realizar algunas
simplicaciones. Primero se va a manejar una notacion. Asumiendo que iniciamos
con sentencias atomicas p
1
, ..., p
n
, podemos especicar una interpretacion usando
P
1
, ..., P
n
), donde P
i
puede ser p
i
(cuando la sentencia es verdadera) o p
i
(cuando
la sentencia es falsa). A partir de la denicion anterior, se puede ver que
J(P
1
, ..., P
n
)) = P(P
1
P
2
... P
n
)
donde existe solamente una interpretacion que satisface la conjuncion de las literales.
Una simplicacion extrema que podramos hacer es asumir que todas las sentencias
atomicas son condicionalmente independientes entre s. Esta sumcion nos conduce a
J(P
1
, ..., P
n
)) = P(P
1
).P(P
2
)...P(P
n
)
3.5. RAZONAMIENTO CON INCERTIDUMBRE 187
con esta asumcion, solo necesitaramos conocer n n umeros para especicar com-
pletamente la distribucion de probabilidad conjunta, y por consiguiiente, todas las
probabilidades. Sin embargo, esta asumcion de independencia es extrema, por lo que
vamos a mantener otro enfoque, he aqu una mejor idea: antes que nada, se van a
representar todas las variables p
i
en un grafo acclico dirigido el cual llamaremos
red de creencias (red Bayesiana). Intuitivamente debe existir un arco de p
i
a p
j
si
consideramos que la verdad de p
i
afecta la verdad de p
j
, en este caso, se dira que p
i
es un padre de p
j
. Asimismo, se va a suponer que las variables se han numerado de
tal forma que los padres de cualquier variable p
j
aparecen despues en el orden (siem-
pre es posible hacer esto en un grafo acclico). Ademas por la regla de la cadena,
tenemos que:
J(P
1
, ..., P
n
)) = P(P
1
[P
2
... P
n
)...P(Pn 1[P
n
).P(P
n
)
Podemos observar que formulado de esta forma, todava se necesitaran especicar
2
n
1 n umeros, ya que para cada termino P(P
j
[P
j+1
... P
n
) existen 2
nj
prob-
abilidades condicionales que especicar (correspondientes a la veracidad o falsedad
de P
j
, ..., P
n
). Sin embargo, en la red de creencia se cumple lo siguiente:
En una red de creencia, cada variable proposicional es condicionalmente independi-
ente de las demas dados sus padres
Mas precisamente:
P(P
j
[P
j+1
... P
n
)...P(Pn 1[P
n
).P(P
n
) = P(P
j
[padres(P
j
))
Con esta asumcion de independencia, se obtiene lo siguiente
J(P
1
, ..., P
n
)) = P(P
1
[padres(P
1
)).P(P
2
[padres(P
2
))...P(P
n
[padres(P
n
))
La idea en las redes de creencia, es utilizar la expresion anterior para denir la
distribucion de probbailidad conjunta J, a partir de la cual cualquier probabilidad
puede ser calculada. Las variables en una red de creencia especican el conocimiento
que se tiene acerca de un dominio, por lo tanto es informacion que se obtiene a priori
antes de construir la red.
Ejemplo de red de creencia. Se va a mostrar un ejemplo acerca de como se
realizan los calculos en una red de creencia aplicando las expresiones matematicas
vistas con anterioridad. Primero se va a construir el grafo en el cual asignamos un
nodo a cada variable del dominio, las variables van a estar enlazadas con echas
en las que indicamos de acuerdo al conocimiento del dominio las variables que son
causas directas de otras. Pare esto, se va a usar como muestra un problema descrito
188CAP

ITULO 3. REPRESENTACI

ONDEL CONOCIMIENTO YRAZONAMIENTO


Figura 3.13: Ilustracion de la red de creencia que representa el conocimiento rela-
cionado con: Alguien de la familia esta en casa?.
por Eugene Charniak:
Se pide hacer un razonamiento para saber si mi familia se encuentra o no en la
casa. Suponga que la familia tiene un perro. Casi siempre se deja al perro fuera
(do) cuando la familia no esta en casa (fo). Asimismo, se deja al perro fuera por un
tiempo si tiene problemas intestinales (dp). En muchas ocasiones cuando el perro
se encuentra fuera, se pueden escuchar sus ladridos (hb) al acercarse a la casa. Un
ultimo hecho: usualmente (pero no siempre) el foco que esta fuera de la casa se deja
encendido (lo) cuando la familia no se encuentra en la misma.
Usando este conjunto de hechos se construye la red de creencia mostrada en la Figura
g:Cap3013 donde los arcos son interpretados como conexiones causales.
Este grafo representa la siguiente asumcion acerca de la distribucion de probabilidad
conjunta
J(FO, LO, BP, DO, HB)) = P(FO).P(LO[FO).P(BP).P(DO[FOBP).P(HB[DO).
Obviamente, esta distribucion conjunta resulta mas simple que la completa inte-
grando las cinco variables, dadas las asumciones de independencia capturadas en la
red de creencia. Como resultado, se requieren solamente (1+2+1+4+2)=10 n umeros
para especicar la distribucion de probabilidad total, tal como se muestra en la Figu-
ra 3.13. Suponga que en base a esta red se desea calcular la probabilidad de que la
familia este fuera de casa, dado que la luz esta encendida, pero no se escuchan los
ladridos del perro: P(fo[lo hb). Aplicando la denicion de probabilidad condi-
3.5. RAZONAMIENTO CON INCERTIDUMBRE 189
cional, se tiene que
P(fo[lo hb) =
P(fo lo hb)
P(lo hb)
=

J(fo, lo, BP, DO, hb))

J(FO, lo, BP, DO, hb))


La suma del numerador tiene 4 terminos mientras que el denominador tiene 8 (los
4 del numerador y otros 4). Estos elementos se pueden obtener de los valores de
distribucion conjunta mostrados en la red de la Figura 3.13, de la siguiente manera:
1. J(fo, lo, bp, do, hb)) = 0,15 0,6 0,01 0,99 0,3 = 0,0002673
2. J(fo, lo, bp, do, hb)) = 0,15 0,6 0,01 0,01 0,99 = 0,0000089
3. J(fo, lo, bp, do, hb)) = 0,15 0,6 0,99 0,9 0,3 = 0,024057
4. J(fo, lo, bp, do, hb)) = 0,15 0,6 0,99 0,1 0,99 = 0,0088209
5. J(fo, lo, bp, do, hb)) = 0,85 0,05 0,01 0,97 0,3 = 0,0001236
6. J(fo, lo, bp, do, hb)) = 0,85 0,05 0,01 0,03 0,99 = 0,00001262
7. J(fo, lo, bp, do, hb)) = 0,85 0,05 0,99 0,3 0,3 = 0,0037867
8. J(fo, lo, bp, do, hb)) = 0,85 0,05 0,99 0,7 0,99 = 0,02915797
Entonces, P(fo[lo hb) es igual a la suma de los primeros 4 valores (0.003315411)
divididos por la suma de los 8 valores (0.00662369075), esto nos da un aoroximado
de 0,5. Algunas veces es posible calcular un valor de probabilidad sin usar la dis-
tribucion conjunta completa. Por ejemplo, si queremos saber la probabilidad de que
la familia haya salido dado que la luz del patio esta encendida, es decir: P(fo[lo),
podramos usar en primera instancia la regla de Bayes para convertir la expresion
P(fo[lo) a P(lo[fo)P(fo)P(lo). A partir de las probabilidades dadas, se conoce
el valor de los primeros dos terminos, pero no el de P(lo). Sin embargo, podemos
calcular de manera sencilla: P(lo) = P(lo[fo) P(fo) +P(lo[fo) P(fo). Por lo
tanto, tenemos estos cuatro valores disponibles (el ultimo se obtiene usando la regla
de la negacion), as que disponemos de toda la informacion para calcular P(fo[lo)
sin utilizar la distribucion conjunta [57].
Se mostro un metodo de razonamiento probabilstico basado en la red de creencia
o red Bayesiana. Las redes Bayesianas son un formalismo eciente para representar
conocimiento con incertidumbre. Su atractivo es que son una representacion graca
que modelan de forma tanto cualitativa como cuantitativa las relaciones entre las
variables que describen un dominio. Mientras que la parte cualitativa muestra la
relacion (causal) entre las variables, la parte cuantitativa representa la medida de
creencia que se tiene sobre las relaciones (de dependencia/independencia) entre las
variables, esto se hace a traves de distribuciones de probabilidad. Siendo las redes
Bayesianas modelos que describen relaciones entre variables, pueden ser aplicadas
190CAP

ITULO 3. REPRESENTACI

ONDEL CONOCIMIENTO YRAZONAMIENTO


a casi cualquier tipo de problemas. Se trata de utilizar este formalismo para re-
alizar procesos ecientes de razonamiento una vez especicado el modelo. Es decir,
podemos realizar procesos de inferencia a partir del modelo, conociendo alguna ev-
idencia de las variables se intenta predecir como se comportaran las demas. No se
va a describir en este momento el procedimiento para dise nar una red, solo se va
a mencionar que se puede realizar de dos formas: (1) a traves de la informacion
proporcionada por un experto humano, y (2) de forma automatizada a traves de
datos (aprendizaje).
3.5.2. Aprendizaje
El concepto de aprendizaje en organismos vivos tiene varias acepciones, sin em-
bargo, tienen que ver con lo siguiente: Es el proceso por el cual se adquiere una
nueva conducta, o se modica una existente como resultado de la experiencia. El
aprendizaje es la caracterstica que le permite a los seres vivos adaptarse a un medio
ambiente y sobrevivir a diferentes condiciones. Asimismo, esta caracterstica resulta
esencial para realizar tareas cada vez con mayor eciencia. Debido a la importancia
que reviste este aspecto en los seres humanos, se intenta llevarlo a las maquinas,
surgiendo de esta forma la rama de la IA conocida como Aprendizaje Autom atico o
Aprendizaje de Maquinas, el cual se dene como:
El Aprendizaje de Maquinas es una rama de la Inteligencia Articial cuyo obje-
tivo es desarrollar tecnicas que permitan a las computadoras mejorar de manera
automatica con la experiencia, a traves de seguir las leyes que gobiernan el proceso
de aprendizaje humano.
Esta denicion incluye un amplio rango de tareas de aprendizaje, tales como: i) el
dise no de vehculos autonomos que aprenden a navegar a partir de su experiencia,
ii) sistemas medicos que utilizan registros de casos con el n de pronosticar la re-
spuesta de futuros pacientes a ciertos tratamientos, y iii) construccion de motores
de b usqueda que se ajusten a las necesidades de cada usuario.
Para ser mas preciso, se dice que una maquina aprende en relacion a una tarea
particular T, una metrica del rendimiento P, y a alg un tipo de experiencia E, si
el sistema de forma conable mejora su rendimiento P al realizar la tarea T en la
siguiente experiencia E. Dependiendo de como se especiquen T, P, y E, la tarea de
aprendizaje puede ser llamada de diferentes maneras, tales como: minera de datos,
descubrimiento automatico, actualizacion de bases de datos, programacion basada
en ejemplos, etc.,
3.5. RAZONAMIENTO CON INCERTIDUMBRE 191
El Aprendizaje Automatico resulta de una interseccion natural entre las Ciencias
Computacionales y la Estadstica. La interrogante que intenta contestar las Ciencias
Computacionales es: Como podemos construir maquinas que resuelvan problemas,
los cuales son inherentemente tratables/intratables?, por otro lado, la interrogante
que dene a la Estadstica por largo tiempo es: Que puede ser inferido a partir de
datos y un conjunto de asumciones, y con que conabilidad?. A partir de estas inter-
rogantes, se puede deducir la interrogante que identica al aprendizaje automatico,
pero desde un enfoque distinto, ya que mientras las Ciencias Computacionales se
han enfocado principalmente a la programacion manual de las computadoras, el
aprendizaje de maquinas intenta conseguir que las computadoras se programen a
s mismas (a partir de la experiencia y alguna estructura inicial). De igual forma,
mientras que la Estadstica se ha enfocado principalmente a inferir conclusiones a
partir de datos, el Aprendizaje en Maquinas integra arquitecturas y algoritmos que
puedan ser usados efectivamente para obtener, almacenar, indexar, recuperar y unir
estos datos. Un tercer area que esta muy relacionada con el Aprendizaje de Maquina
es la Psicologa en relacion al tema del aprendizaje humano.
Desde hace un par de decadas, el Aprendizaje de Maquina se ha convertido en uno
de los pilares de la tecnologa de la informacion, y en estos tiempos en los que ex-
isten grandes cantidades de informacion disponible en la Internet, un tratamiento
inteligente de la misma sigue siendo un tema de gran interes. La navegacion au-
tomatica de vehculos, investigacion medica, procesamiento del lenguaje natural, y
deteccion de fraude en tarjetas de credito, son solo una muestra de las m ultiples
areas en las que el Aprendizaje Automatico desempe na un rol principal en la apli-
cacion de computadoras para sustituir la manera en que los humanos se comportan
y toman decisiones. Existen dos aspectos en un problema que requieren el uso de
programas que aprendan y mejoren basandose en la experiencia; son los aspectos de
complejidad y adaptabilidad.
Tareas complejas para un programa. Existen dos tipos de tareas que resultan
complicadas para un programa:
1. Tareas realizadas por animales/humanos. Existen numerosas tareas que re-
alizamos de forma cotidiana, las cuales no son sucientemente elaboradas como para
ser representadas por un programa. Ejemplos de estas tareas son: conducir un vehcu-
lo, reconocer voces y rostros, y entender el lenguaje, entre otras. En estas tareas, el
desempe no de programas de aprendizaje automatico, han reportado resultados sat-
isfactorios una vez que se han suministrado con una cantidad apropiada de ejemplos.
2. Tareas que rebasan la capacidad humana. Un grupo de tareas que son sus-
192CAP

ITULO 3. REPRESENTACI

ONDEL CONOCIMIENTO YRAZONAMIENTO


ceptibles de beneciarse por el aprendizaje automatico son las relacionadas con el
analisis de enormes y complejos conjuntos de datos, tales como los datos relaciona-
dos con astronoma, la conversion de archivos medicos en conocimiento medico,
prediccion del clima, analisis de datos genomicos, motores de b usqueda en la web, y
comercio electronico. Con vol umenes de datos cada vez mayores que se encuentran
almacenados electronicamente, resulta obvio que encontrar informacion util en estos
archivos, es una labor extenuante y compleja para los humanos. Aprender a detectar
patrones signicativos en grandes conjuntos de datos es un dominio prometedor en el
cual la combinacion de programas capaces de aprender y la casi ilimitada capacidad
de memoria y la velocidad de procesamiento de las computadoras ofrecen nuevos
horizontes.
Tratar con la diversidad (adaptabilidad). Una caracterstica que limita a las
herramientas de programacion clasica es su rigidez, es decir, una vez que el programa
se ha dise nado e instalado en un equipo de computo, este permanece inalterable. Sin
embargo, muchas tareas cambian con el tiempo o bien entre usuarios los requerim-
ientos pueden ser distintos, por lo que los programas deben poder adaptarse a estos
cambios. Los programas y algoritmos relacionados con aprendizaje automatico tienen
entre sus caractersticas el poder adaptarse a los cambios ambientales al interactuar
con el mismo. Aplicaciones tpicas al respecto incluyen las siguientes: decodicacion
de texto manuscrito (en este caso el programa se adapta a las diferentes formas de
escribir de las personas), deteccion de programas spam (adaptabilidad a lo que se
considera correo basura por usuarios diferentes), y programas de reconocimiento de
voz, entre otros.
Tipos de aprendizaje. El aprendizaje abarca un dominio muy amplio. Por lo tan-
to, este campo se ha dividido en varios subcampos que tratan diferentes tipos de
tareas de aprendizaje en maquinas. Siendo el aprendizaje en maquinas un area bas-
tante amplia, en este breve espacio solo se proporcionaran ideas generales respecto
a su taxonoma y tecnicas mas aplicadas. Se van a mostrar los cuatro parametros
alrededor de los cuales los paradigmas de aprendizaje son clasicados.
Aprendizaje Supervisado versus Aprendizaje No Supervisado. Ya que el
aprendizaje involucra una interaccion entre el medio ambiente y el sistema que
aprende, es posible dividir las tareas de aprendizaje de acuerdo a tal interaccion. La
primera distincion consiste en notar la diferencia entre aprendizaje supervisado y
aprendizaje no supervisado. Para ilustrar la diferencia, suponga que se va a dise nar
un programa para que aprenda a distinguir 2 tipos de gestos realizados por una per-
sona. Supongamos que los gestos en cuestion son: levantarse (de una silla) y sentarse
(en una silla). Asimismo, los gestos van a ser proporcionados al sistema como una
3.5. RAZONAMIENTO CON INCERTIDUMBRE 193
secuencia de imagenes obtenidas a traves de vdeo. En un esquema con aprendizaje
supervisado, se le proporciona al sistema un conjunto de ejemplos (conjunto de
entrenamiento) de cada tipo de gesto, indicandole en cada caso de que gesto se
trata. Para vericar el aprendizaje se le suministra al sistema con otro conjunto de
gestos conocidos como conjunto de prueba y el sistema por s solo debe intentar
reconocer a cada tipo de gesto. El aprendizaje supervisado se caracteriza porque
existe un supervisor que le indica al sistema a traves de etiquetas lo que necesita
aprender. En el aprendizaje del tipo no supervisado no se le indica al sistema el tipo
de cada gesto mediante una etiqueta, esta informacion la debe deducir el mismo sis-
tema a traves de un proceso de agrupamiento. En dicho proceso, el sistema intenta
agrupar en clases la informacion de entrada buscando caractersticas distintivas para
los elementos de cada clase, en este caso caractersticas distintivas para cada tipo
de gesto. Al igual que en el aprendizaje supervisado, el aprendizaje no supervisado
se eval ua a traves de un conjunto de prueba.
Aprendizaje Pasivo versus Aprendizaje Activo. Los paradigmas de aprendiza-
je varan dependiendo del rol que desempe nan los aprendices (sistemas que apren-
den). En este sentido se distinguen dos tipos: sistemas de aprendizaje activos y
sistemas de aprendizaje pasivos. Un sistema de aprendizaje activo interact ua con
el ambiente durante el entrenamiento, ya sea a traves de preguntas o realizando
experimentos, mientras que un sistema de aprendizaje pasivo solo observa la infor-
macion proporcionada por el ambiente (maestro o supervisor) sin inuenciar en el
mismo. En el ejemplo para aprender a reconocer gestos gestos, el sistema es pasivo ya
que solamente observa la informacion de entrada sin ejercer ninguna inuencia para
modicarla. Un ejemplo de aprendizaje de gestos activo podra ser el caso donde
el sistema intente aprender los gestos en lnea y le enve comandos a la camara de
vdeo cuando la informacion captada no sea del todo clara, con el n de que enve
informacion desde otro angulo o enfoque.
Utilidad del maestro. Generalmente, cuando pensamos en el aprendizaje humano
(un ni no en su casa, un estudiante en la escuela), enseguida lo relacionamos con
una persona que funja como gua: maestro o supervisor. La funcion del maestro es
proporcionar al aprendiz con informacion util para su aprendizaje. En contraste,
cuando un investigador aprende acerca de la naturaleza, el ambiente es quien jue-
ga el papel del maestro, el cual se puede pensar como un proceso de aprendizaje
pasivo, ya que las estrellas brillan, el agua uye en un arroyo, el arco iris aparece
despues de la lluvia, etc., y todo esto transcurre sin pensar en las necesidades del
investigador. Se puede modelar el aprendizaje en tal escenario estableciendo que los
datos de entrenamiento son generados por alg un proceso aleatorio. Este es el com-
ponente basico en el aprendizaje estadstico. Finalmente, el aprendizaje tambien
194CAP

ITULO 3. REPRESENTACI

ONDEL CONOCIMIENTO YRAZONAMIENTO


se produce cuando la informacion proporcionada al aprendiz es generada por una
confrontacion (analisis, discusion) con el maestro o supervisor. Este caso, ocurre
a veces con frecuencia en situaciones de personas autodidactas.
Aprendizaje en lnea versus Aprendizaje tipo Batch. El ultimo caso de
parametros utilizados en los paradigmas de aprendizaje, es distinguir situaciones
de aprendizaje donde el aprendiz tiene que responder en lnea, en escenarios en los
que tiene que ajustar (anar) los conocimientos adquiridos s olo despues de procesar
grandes cantidades de datos. Por ejemplo, un corredor de bolsa debe tomar da a
da decisiones en base a su experiencia. El puede convertirse con el tiempo en un
experto, pero en el proceso debe pasar por costosos errores. Por otro lado, en muchos
escenarios de minera de datos, el aprendiz dispone de grandes cantidades de datos
de entrenamiento antes de producir conclusiones.
Como se menciono anteriormente, en el tipo de aprendizaje supervisado existen eti-
quetas asociadas a los ejemplos utilizados. Si la etiqueta toma valores discretos,
entonces la tarea de aprendizaje se asocia al problema de clasicacion. Si no es
as, entonces se hace referencia a un problema de regresion. Se va a mostrar uno
de los principales usos del aprendizaje en maquinas relacionado con el primero de
los problemas mencionados.
Clasicacion supervisada. A la tarea de clasicar de manera automatica tam-
bien se le conoce como reconocimiento de patrones, donde se busca el dise no de
algoritmos capaces de diferenciar diferentes ejemplares, basandose en sus patrones
distintivos. Watanabe describio en 1985 a un patron como lo opuesto al caos; es
una entidad, vagamente denida, a la que podra asignarsele un nombre. Algunos
ejemplos de patrones son los rostros humanos, documentos de texto, se nales de un
electrocardiograma, y las secuencias de ADN que pueden causar cierta enfermedad.
Formalmente, el objetivo de una tarea de clasicacion es encontrar un mapeo fun-
cional entre un conjunto de datos de entrada X, describiendo patrones de entrada
de una clase etiquetada como Y , tal que Y = f(X). La construccion de la funcion
de mapeo se basa en los datos de entrenamiento proporcionados al algoritmo de
clasicacion. Un patron (ejemplo) es descrito por sus caractersticas las cuales son
especcas de cada problema. Por ejemplo, en una tarea de reconocimiento de gestos
realizados por la mano derecha, se podra usar como caracterstica la trayectoria de-
scrita por el centroide de la mano, y en una tarea de reconocimiento de rostros, se
podran utilizar como caractersticas el color de los ojos y la distancia entre ellos.
De esta manera, la entrada en una tarea de reconocimiento de patrones consiste en
un vector constituido por caractersticas.
3.5. RAZONAMIENTO CON INCERTIDUMBRE 195
La clasicacion de patrones se realiza en los siguientes pasos:
1. Coleccion y representacion de datos.
2. Seleccion y/o reduccion de caractersticas.
3. Clasicacion.
El primer paso generalmente es especco del problema, por lo que resulta compli-
cado intentar generalizarlo. Lo mejor que se podra hacer en este caso es tratar de
encontrar caractersticas invariantes que describan lo mejor posible las diferencias
entre clases. En el paso 2, lo que se intenta es reducir la dimensionalidad (n umero
de caractersticas) del problema, con nes de hacer manejable al problema, y en el
tercer paso, se busca el mapeo entre patrones y etiquetas.
Algoritmos de clasicacion. Se van a describir de forma general seis algoritmos
utilizados en tareas de clasicacion. Los primeros cuatro son tecnicas tradicionales
utilizadas ampliamente hace alg un tiempo y que trabajan razonablemente bien con
conjuntos de datos de baja dimensionalidad y pocos ejemplos de entrenamiento.
Posteriormente se mostraran dos metodos que han recibido atencion recientemente
por la comunidad de aprendizaje en maquinas (Machine Learning). Estos metodos
son capaces de resolver problemas con alta dimensionalidad y solo requieren de muy
pocos ejemplos (unos cincuenta) y cuando los ejemplos son muchos (varios miles)
realizan un trabajo muy eciente.
k-vecinos mas cercanos. Esta tecnica se considera el metodo de clasicacion mas
simple [157]. En este metodo, se encuentran los k puntos de los datos de entre-
namiento mas cercanos al punto de prueba, y se le asigna una etiqueta por votacion
entre los k puntos. Este metodo, debido a su sencillez, resulta altamente intuitivo y
proporciona un porcentaje bajo de errores en la clasicacion, pero es computacional-
mente costoso y requiere un gran espacio de memoria para almacenar los datos de
entrenamiento.
Analisis de Discriminantes. Es una tecnica estadstica capaz de indicarnos que vari-
ables permiten diferenciar a las clases y cuantas de estas variables son necesarias
para alcanzar la mejor clasicacion posible. La pertenencia a las clases, conocida de
antemano, se utiliza como variable dependiente (una variable categorica con tan-
tos valores discretos como clases existan). Las variables en las que suponemos que
se diferencian las clases se utilizan como variables independientes o variables de
clasicacion (discriminantes). En otras palabras, esta tecnica calcula u obtiene un
hiperplano en el espacio de entrada que minimiza la varianza entre clases y maxi-
miza la distancia entre ellas [?]. Este metodo puede trabajar de forma eciente en
196CAP

ITULO 3. REPRESENTACI

ONDEL CONOCIMIENTO YRAZONAMIENTO


Figura 3.14: Ilustracion de un

Arbol de Decision que muestra la clasicacionde ani-
males en base a su sangre (tiene sangre caliente?).
casos lineales aunque tengan grandes conjuntos de datos. Sin embargo, en muchos
casos una separacion lineal no es suciente. En casos no lineales el uso de kernels
puede funcionar, sin embargo, se complica en problemas con grandes conjuntos de
entrenamiento [59].

Arboles de decision. Los arboles de decision son un tipo de tecnica de clasicacion


que resulta muy intuitiva. Estos algoritmos resuelven el problema de clasicacion
mediante una particion repetida del espacio de entrada con el n de construir un
arbol cuyos nodos resulten tan puros como sea posible (contengan puntos de una
clase solamente). Para clasicar un nuevo punto de prueba es necesario moverse de
arriba hacia abajo del arbol, se inicia en el nodo raz pasando a traves de las ramas,
hasta que un nodo terminal es alcanzado. Los arboles de decision son un esquema
de clasicacion simple pero efectivo para peque nos conjuntos de datos. Sin embargo,
su complejidad computacional se incrementa de forma desfavorable al incrementar
la dimension de los datos. Grandes conjuntos de datos resultan en representaciones
complicadas, la cual en consecuencia requiere una gran cantidad de almacenamiento.
La Figura 3.14 muestra una implementacion de un arbol de decision realizada por
Quinlan aplicando el algoritmo de aprendizaje C4,5. En este arbol se intenta clasi-
car algunos tipos de animales iniciando por su sangre (Tiene sangre caliente?) [60].
Redes neuronales (RNs). Son probablemente uno de los enfoques mas utilizados
en tareas de clasicacion. Las redes neuronales (modelo sugerido inicialmente por
Turing) son una tecnica computacional inspirada en la analoga que existe en el
3.5. RAZONAMIENTO CON INCERTIDUMBRE 197
comportamiento y funcion del cerebro humano, en particular del sistema nervioso,
el cual esta compuesto por redes de neuronas biologicas que poseen bajas capaci-
dades de procesamiento, sin embargo toda su capacidad cognitiva se sustenta en
la conectividad de estas. La unidad de una red neuronal articial es un procesador
elemental llamado neurona que posee la capacidad limitada de calcular, en general,
una suma ponderada de sus entradas y luego le aplica una funcion de activacion
para obtener una se nal que sera transmitida a la proxima neurona. Estas neuronas
articiales se agrupan en capas o niveles y poseen un alto grado de conectividad
entre ellas, conectividad que es ponderada por los pesos. A traves de un algorit-
mo de aprendizaje supervisado o no supervisado, las RNs ajustan su arquitectura
y parametros de manera de poder minimizar alguna funcion de error que indique
el grado de ajuste a los datos y la capacidad de generalizacion alcanzada por las
mismas. Un esquema simple para una red neuronal se muestra en la Figura 3.15,
donde cada crculo denota una unidad computacional o neurona, la cual computa
una suma pesada de sus entradas, y posiblemente realice una funci on no lineal sobre
la suma. Si se aplican ciertas clases de funciones no lineales, la funcion calculada por
la red es capaz de aproximar cualquier funcion (especcamente un mapeo de los
patrones de entrenamiento a los patrones objetivo) si existen sucientes neuronas
en la red y se proporcionan sucientes ejemplos de entrenamiento [68].
El Aprendizaje de Maquinas como ya se menciono se apoya en los fundamentos
teoricos de la Teora de Aprendizaje Estadstica [61] la cual proporciona las condi-
ciones y garantas para el dise no de algoritmos de aprendizaje con una apropiada
generalizacion. En los ultimos a nos, han emergido algunas tecnicas de clasicacion
de amplio margen como un resultado practico de la teora de generalizacion. De
manera general, el margen es la distancia entre el ejemplo y el lmite de separacion,
un clasicador de amplio margen genera lmites de decision con amplios margenes
en casi todos los ejemplos de entrenamiento. Las dos clases de clasicadores de am-
plio margen mas estudiados son las Maquinas de Vector Soporte y Boosting [?].
Maquinas de Vectores Soporte. Las maquinas de vectores soporte (MVSs) son
sistemas de aprendizaje que utilizan como espacio de hipotesis, funciones lineales en
espacios caractersticos de dimension muy alta, ensayando algoritmos de aprendizaje
de la teora de la optimizacion que implementan un aprendizaje sesgado derivado a
partir de la teora del aprendizaje estadstico. La teora de las MVSs fue desarrol-
lada inicialmente por V. Vapnik a principios de los a nos 80 y se centra en lo que
se conoce como Teora del Aprendizaje Estadstico
10
. El objeto de las MVSs es dar
solucion al problema fundamental que surge en distintos campos, donde se estudia, la
10
De forma simplicada esta teora busca formas de estimar dependencias funcionales a partir
de una colecci on de datos.
198CAP

ITULO 3. REPRESENTACI

ONDEL CONOCIMIENTO YRAZONAMIENTO


Figura 3.15: Ilustracion de una red neuronal artoicial en la que se muestra a traves
de crculos la unidad de procesamiento basica o neurona.
relacion entre sesgo y varianza, el control de la capacidad, sobreajuste en los datos,
etc. Este problema consiste en buscar, para una tarea de aprendizaje dada con
una cantidad nita de datos una adecuada funcion que permita llevar a cabo una
buena generalizacion (explicar el comportamiento de los datos en un dominio mas
amplio) que sea resultado de una adecuada relacion entre la precision alcanzada con
un particular conjunto de entrenamiento y la capacidad del modelo (capacidad de
aprender con cualquier conjunto de entrenamiento). Esta tecnica trabaja mapeando
los datos de entrenamiento en un espacio de caractersticas apoyado por una fun-
cion kernel y posteriormente separando los datos usando un hiperplano de amplio
margen. Intuitivamente, el kernel obtiene una similitud entre dos ejemplos dados.
Las funciones kernel usadas con mas frecuencia son la exponencial y la polinomial
(k(x, x

) = (x.x

)
d
). La maquina de vector soporte encuentra amplios margenes de
separacion entre los ejemplos de entrenamiento y ejemplos no vistos con anterior-
idad los cuales muy seguido resultaran cercanos a los ejemplos de entrenamiento.
De esta manera, este amplio margen asegura que estos ejemplos sean clasicados
correctamente, es decir, generaliza la regla de decision. Para los as llamados kernels
denidos positivos, el problema de optimizacion puede resolverse de manera eciente
y las MVSs tienen una interpretacion como un hiperplano de separacion en un espa-
cio de caractersticas de alta dimension. Esta tecnica ha sido aplicada en conjuntos
3.5. RAZONAMIENTO CON INCERTIDUMBRE 199
Figura 3.16: Ilustracion del algoritmo de boost.
de datos con millones de dimensiones y en algunos casos con ejemplos mayores al
millon.
Boosting. La idea basica de este metodo as como de algunos algoritmos de apren-
dizaje de ensemble
11
consiste en combinar de forma iterativa hipotesis base muy sen-
cillas (algunas veces conocidas como: reglas de ingenuos) para hacer una prediccion
nal. Se puede usar el aprendiz base para generar las hipotesis base. Las hipotesis
generadas se combinan linealmente. En el caso de una clasicaci on bi clase, la
prediccion nal se obtiene como una votacion ponderada. La combinacion de reglas
sencillas puede incrementar el rendimiento de manera signicativa. Se ha demostra-
do que este metodo mantiene una gran cercana con las maquinas de vector soporte.
Las tecnicas basadas en Boosting han sido utilizadas en conjuntos de datos de gran
dimension y pueden de forma relativamente facil manejar cientos de miles de ejem-
plos. En la Figura 3.16 se muestra el algoritmo basico que siguen estas tecnicas.
3.5.3. Logicas multivaluadas
En la logica clasica las proposiciones pueden tomar solo dos valores de verdad:
verdadero y falso. De acuerdo con Peirce esta es la hipotesis mas simple; mu-
11
Conjunto de clasicadores redundantes (todos realizando la misma tarea), quizas por diferentes
metodos, cuyos resultados luego son integrados. La redundancia de los ensembles es para evitar
los fallos individuales en la clasicaci on.
200CAP

ITULO 3. REPRESENTACI

ONDEL CONOCIMIENTO YRAZONAMIENTO


cho antes Aristoteles ya haba formulado los principios fundamentales de la logica
clasica, el de no contradiccion nada puede ser y no ser al mismo tiempo, es decir,
un enunciado no puede ser a la vez verdadero y falso y el principio del tercero
excluido algo es o no es, todo enunciado es verdadero o es falso. A pesar del
exito logrado por los sistemas de razonamiento basados en la l ogica clasica, se ha
observado que existen muchas situaciones de la vida real los gustos, la riqueza, el
signicado de los adjetivosdonde este razonamiento es insuciente, y se requiere
la consideracion de mas valores de verdad. Durante el siglo XX fueron propuestas
diversas logicas que involucran mas valores de verdad: entre otras se destacan las
siguientes: (a) la logica intuicionista de Brouwer, aplicada parcialmente por el lla-
mado calculo proposicional intuicionista cuyos modelos algebraicos son las algebras
de Heyting, (b) las logicas multivaluadas o polivalentes introducidas por la escuela
polaca de logica y en especial por Jan Lukasiewicz, y (c) la logica borrosa o logica
difusa introducida en 1965 por L. Zadeh.
En esta seccion se van a describir las dos primeras logicas, mientras que la logica
difusa se va a mostrar en la siguiente seccion.
El concepto de neutralidad en logica. Cualquier punto de vista A tiende a ser
neutralizado, disminuido, o balanceado por otro denominado No A. Asimismo,
entre A y No A existe una cantidad innita de puntos de vista Neut A. Si A
indica una idea, proposicion, teora, evento, concepto, o entidad, entonces No A
indica lo que no es A, y AntiA lo opuesto de A. NeutA signica lo que no es A ni
Anti A, es decir, un punto neutral cualquiera entre los extremos. La logica clasica,
tambien conocida como logica Booleana en honor del matem atico ingles G. Boole,
tiene dos valores de verdad: verdadero y falso. Las neutralidades son ignoradas en
esta logica. Peirce, desarrollo antes de 1910 una semantica para una logica de
tres valores, la cual fue retomado posteriormente por Lukasiewics. En esta logica, el
n umero 1 indica un valor de: verdad,
1
2
un valor de: indeterminado, y el n umero 0
indica: falsedad. En relacion al concepto de neutralidad, estos tres valores de verdad
pueden interpretarse como: A, Neut A, y No A respectivamente. Sin embargo,
Lukasiewics no se limito a la logica de tres valores, sino que siguio trabajando en una
logica de m ultiples valores, es decir, en una logica multivaluada. Las aplicaciones
practicas para una logica con innitos valores, donde el valor de verdad puede ser
cualquier n umero en el intervalo [0, 1] es considerada por L. Zadeh y le da el nombre
de logica difusa [174].
Por otro lado, en la antigua logica ind u se consideraron cuatro valores posibles para
una sentencia: verdadero, falso, verdadero y falso, ni verdadero ni falso. La logica
Budista agrego un quinto valor a los cuatro anteriores: ninguno de estos.
3.5. RAZONAMIENTO CON INCERTIDUMBRE 201
La logica intuicionista de Brouwer. El intuicionismo encuentra su origen en los
trabajos del matematico holandes L. E. J. Brouwer (18811966) quien desde su tesis
doctoral, presentada en 1907, intervino en la discusion sobre los fundamentos de la
matematica. Entre los precursores de las ideas intuicionistas pueden mencionarse
a Kronecker, Poincare, Borel y Weyl; las grandes corrientes losocas antagonistas
fueron el formalismo propugnado por Hilbert y el logicismo impulsado por Frege,
Whitehead y Russell. El principio basico del intuicionismo es la constructibilidad:
para el intuicionista los objetos de estudio de la matematica son ciertas intuiciones
mentales y las construcciones que pueden hacerse con ellas. La consecuencia in-
mediata es que la matematica intuicionista solo maneja objetos construidos y solo
reconoce las propiedades puestas en ellos por la construccion. En particular, la ne-
gacion de la imposibilidad de un hecho no es una construccion del mismo luego
el principio de doble negacion y las demostraciones por reduccion al absurdo son
inaceptables para el intuicionista. De igual manera, es perfectamente factible que
un hecho y su negacion sean ambos imposibles de construir luego, en general, en el
intuicionismo no vale el principio del tercero excludo. A nales de la decada de los
20 se propuso el problema de formalizar el intuicionismo. Aunque a primera vista
eso parezca una tarea contradictoria, lo que se pretenda era construir, dentro de la
matematica formalista que ya se estaba imponiendo, una logica
12
checar logica de
predicados o de primer orden en la seccion anterior que de alguna manera reejara
los principios intuicionistas.
El calculo proposicional intuicionista. En 1930 Arend Heyting, uno de los
discpulos de Brouwer, dio un paso decisivo en la formalizaci on del intuicionismo
al presentar un calculo proposicional expresado mediante axiomas y reglas al estilo
de Hilbert y que se conoce como calculo proposicional intuicionista. La siguiente es
una presentacion actual de este calculo [63].
Axiomas:
1. ( ( ))
2. ( ( )) (( ) ( ))
12
Mientras las reglas de inferencia representan la version sint actica de la l ogica, Las tablas de
verdad son la version sem antica de la misma. En esencia este aspecto de la logica consiste en evaluar
la veracidad de una formula veracidad relativa a las proposiciones at omicas que intervienen en
ella interpret andola en un contexto matematico.
202CAP

ITULO 3. REPRESENTACI

ONDEL CONOCIMIENTO YRAZONAMIENTO


3. ( ) ( )
4.
5. ( )
Regla. La unica regla utilizada es Modus Ponens.
Algunos teoremas y deducciones de la logica clasica tambien pueden probarse en
la logica intuicionista, al igual que algunos teoremas y metateoremas. Incluso es
valida una forma debil de reduccion al absurdo. Pero, es de suponer, no es posible
demostrar el tercio excluso ni la doble negacion . De aqu se deduce
que no es valida la forma fuerte de reduccion al absurdo. C omo garantizar que es
imposible probar cierta formula en un calculo proposicional? Como se observo en
el calculo proposicional clasico, una alternativa consiste en construir una semantica
adecuada. El calculo proposicional intuicionista tiene como contraparte algebraica
una estructura que en la actualidad de manera muy adecuada se denomina algebra
de Heyting. Una algebra de Heyting puede denirse como un retculo con 1 como
maximo y 0 como mnimo, dotado de una implicacion que satisface la siguiente
adjuncion.
x a b s y solo s x a b
En una algebra de Heyting se dene la negacion como a = a 0, de manera que
esta se caracteriza mediante la equivalencia
x a si y solo si x a = 0
en otras palabras, a es el mayor elemento disjunto con a. Toda algebra booleana es
una algebra de Heyting haciendo a b = a b, pero no al reves: por ejemplo, la
unica algebra booleana lineal es 0, 1 pero todo conjunto ordenado lineal con maximo
y mnimo es una algebra de Heyting haciendo
a b = 1 cuando a b, y b cuando a > b
Puesto que se construyen con el mismo vocabulario, las formulas del calculo proposi-
cional intuicionista pueden leerse en cualquier algebra de Heyting. Considerese, por
ejemplo, la formula x x. En una algebra de Heyting arbitraria se tiene 1 a a,
3.5. RAZONAMIENTO CON INCERTIDUMBRE 203
Figura 3.17: Ilustracion de las tablas de verdad del algebra de Heyting correspondi-
ente a tres valores de verdad: 0 12 1.
luego por la adjuncion que dene la operacion se sigue 1 a a, es decir,
a a = 1. Una formula es una tautologa en algebra de Heyting si, al igual que
x x, todas sus lecturas en cualquier algebra de Heyting siempre resultan 1. En
este caso, el teorema de correspondencia entre sintaxis y semantica consiste en que
las tautologas en algebras de Heyting coinciden exactamente con los teoremas del
calculo proposicional intuicionista [122]. Este importante resultado garantiza, entre
otras consecuencias notables, que x x y x x no son teoremas del calculo
proposicional intuicionista, es decir, en esta logica no vale el tercio excluso ni la ley
de la doble negacion.
En la Figura 3.17 se muestran las tablas de las operaciones negacion e implicacion del
algebra de Heyting lineal con tres elementos 0 12 1. Estas tablas pueden verse
como las tablas de verdad de una logica intuicionista con tres valores de verdad.
Desde hace varias decadas el estudio y fomento del intuicionismo como tal practi-
camente han cesado. La logica intuicionista, en cambio, se ha seguido estudiando y
ha reaparecido recientemente con fuerza en estudios como la logica de los haces de
Caicedo [123] y la logica de las categoras y topos [124, 125], logicas potentes cuyo
segmento proposicional es precisamente el calculo proposicional intuicionista.
Las logicas multivaluadas de Lukasiewicz. Respecto a la negacion en el algebra
de Heyting con tres elementos, las asignaciones 0 1 y 1 0 resultan perfecta-
mente aceptables pero la asignacion
1
2
0 es muy discutible. En algunas situaciones
concretas como las mencionadas con anterioridad, parece m as adecuada una asig-
nacion simetrica
1
2
12. Esa fue la propuesta de Lukasiewicz. Jan Lukasiewicz
(18781956) fue uno de los matematicos polacos mas inuyentes de su generacion.
Junto con Lesniewski fundo durante los a nos 20 del siglo XX una escuela de logica
204CAP

ITULO 3. REPRESENTACI

ONDEL CONOCIMIENTO YRAZONAMIENTO


en Varsovia que en su momento llego a ser el principal grupo de matematicas del
mundo y entre cuyos miembros se destaca Alfred Tarski.
La idea de Lukasiewicz sobre logicas multivaluadas consiste en distribuir los valores
de verdad de manera uniforme sobre el segmento real [0, 1], si se trata de n valores,
ellos son 0,
1
n1
,
2
n2
, ...,
n2
n1
, 1; si se trata de valores innitos, se toma Q

[0, 1]. La
negacion se dene como x = 1x, y para los demas conectivos logicos se introduce
la operacion como x y = min(1, x +y).
La constante 1 y las operaciones , (implicacion), (disyuncion) y (conjun-
cion) se denen en terminos de las anteriores como sigue.
1 = 0
x y = (x y) max(0, x +y 1)
x y = x y min(1, 1 x +y)
x y = (x y) y max(x, y)
x y = (x y) y min(x, y)
Como un caso particular interesante, en la Figura 3.18 se muestran las tablas de
negacion e implicacion de la logica con tres valores. Al compararlas con las tablas del
algebra de Heyting (ver Figura 3.17) con tres elementos se observa que la diferencia
es mnima pero esencial.
En Chang 1958 introdujo la nocion de MV algebra, la importancia de esta algebra
es que permite explicar la semantica de la logica de Lukasiewics. Una MV algebra
es una estructura A = A; , , 0) donde A es un conjunto no vaco, es una op-
eracion binaria en A, el smbolo de negacion indica una operacion unaria y 0 una
constante, que ademas satisfacen las siguientes ecuaciones.
1.x (y z) (x y) z
2.x y y x
3.5. RAZONAMIENTO CON INCERTIDUMBRE 205
Figura 3.18: Ilustracion de las tablas de verdad de la logica de Lukasiewics corre-
spondiente a tres valores de verdad: 0 12 1.
3.x 0 x
4.x x
5.x 0 0
6.(x y) y (y x) x)
Todo subconjunto del segmento real [0, 1] cerrado para las funciones x1 x y
x, y min1, x +y) y que contiene a 0 es una MV algebra con las operaciones
x y = min1, x +y, x = 1 x y la constante 0. Toda algebra booleana es una
MV algebra deniendo xy = xy, x = x

. Si G es un l grupo abeliano, para


cada elemento u 0 el segmento [0, u] es una MV algebra con las operaciones
x y = u (x +y), x = u x.
Como caracterstica curiosa puede citarse que en las MV algebras s vale el prin-
cipio de la doble negacion x x pero no el del tercio excluso. Por ejemplo en la
MV algebra con tres elementos se tiene
1
2

1
2
= frac12
1
2
=
1
2
,= 1. Como se
menciono anteriormente, las MV algebras constituyen la semantica de la logica
multivaluada de Lukasiewicz. Respecto a la sintaxis, el mismo Lukasiewicz propuso
calculos proposicionales sencillos y conjeturo que de ellos podran deducirse todas las
tautologas de sus algebras. Esta conjetura se demostro por diversos caminos en el
transcurso del siglo XX. La siguiente es una presentacion de la logica de Lukasiewicz
con innitos valores.
206CAP

ITULO 3. REPRESENTACI

ONDEL CONOCIMIENTO YRAZONAMIENTO


Axiomas
1. ( )
2.( ) (( ) ( ))
3.(( ) () (( ) )
4.( ) ( )
Regla. La unica es Modus Ponens.
En el trabajo desarrollado por Cignoli [126] se prueba qu los teoremas de este calculo
proposicional son precisamente las tautologas de las MV algebras, esto es, las
formulas que ledas en cualquier MV algebra siempre son 1. Para cualquier entero
n > 1 la logica de Lukasiewicz con n valores se obtiene de la logica con innitos
valores a nadiendo los siguientes axiomas:
5.n. (n 1).
6.(n 1)(j. ( (j 1).))
Para un entero n jo, los teoremas de este calculo proposicional son las tautologas
de la MV algebra [llamada algebra de Lukasiewicz[ descrita de la siguiente forma:
L
n
=
__
0,
1
n1
, ...,
n2
n1
, 1
2
n1
_
; , [neg, 0
_
donde las operacionse estan denidas como x y = min1, x +y, x = 1 x, de
esta manera las tablas con valores mostradas en la Figura 3.18 corresponden a las
tablas de verdad de la logica de Lukasiewicz con tres valores.
3.5.4. Logica difusa
El desarrollo de la logica difusa (FL) fue motivado en gran medida por la necesidad
de un enfoque conceptual para manejar el aspecto de incertidumbre e impresicion
lexica. Esta logica fue introducida por Lot Zadeh en 1965 con el n de representar
datos e informacion que posean incertidumbre no estadstica. Basicamente, la FL
3.5. RAZONAMIENTO CON INCERTIDUMBRE 207
es una logica multivaluada, que permite la denicion de valores intermedios entre
los convencionales verdadero/falso, si/no, encendido/apagado, etc. De esta forma,
nociones como alto o muy rapido pueden ser formuladas matematicamente y
procesadas por computadoras. Los sistemas difusos aparecen como una alternativa
a los tradicionales aspectos de pertenencia de conjuntos y l ogica aristotelica.
Las logicas difusas procuran crear aproximaciones matematicas en la resolucion de
ciertos tipos de problemas. Pretenden producir resultados exactos a partir de datos
imprecisos. El adjetivo difuso indica que los valores de verdad nodeterministas
utilizados en estas logicas tienen, por lo general, una connotacion de incertidum-
bre. Un vaso medio lleno, independientemente de que tambien este medio vaco, no
esta completamente lleno ni esta completamente vaco. Que tan lleno puede estar
es un elemento de incertidumbre, es decir, de difusidad, entendida esta ultima co-
mo una propiedad de indeterminismo. Ahora bien, los valores de verdad asumidos
por enunciados aunque no son deterministas, no necesariamente son desconocidos.
Por otra parte, desde un punto de vista optimista, lo difuso puede entenderse como
la posibilidad de asignar mas valores de verdad a los enunciados que los clasicos
falso o verdadero. As pues, las logicas difusas son tipos especiales de logicas
multivaluadas.
Conjuntos difusos y conjuntos precisos. La nocion elemental de los sistemas
difusos es la de un conjunto (o subconjunto) difuso. En matematicas clasica estamos
familiarizados con los conjuntos precisos conjuntos bien denidos. Por ejemplo,
los valores posibles para la coherencia interferometrica g, es el conjunto X de todos
los n umeros reales entre 0 y 1. De este conjunto X puede denirse un subconjunto
A (por ejemplo, el formado por todos los valores comprendidos en el intervalo 0
g 0,2). La Figura 3.19, muestra para el caso anterior la funcion caracterstica de
A (funcion que asigna un n umero 1 o 0 a cada elemento de X, dependiendo si el
elemento se encuentra o no en el subconjunto A). Los elementos que tienen asignado
el n umero 1 indica que pertenencen al conjunto, mientras que los que tienen asignado
un 0 indica que no pertenecen al conjunto.
Este concepto es suciente para muchas areas de aplicacion, pero carece de exibili-
dad para otras mas, tal como la clasicacion de datos obtenidos de manera remota.
Por ejemplo, es bien sabido que el agua muestra una baja coherencia interferometri-
ca g en imagenes satelitales. Ya que el valor de g inicia en 0, el rango menor para
este parametro resulta claro. Sin embargo, el rango mas alto, es un poco mas difcil
de denir. Como un primer intento, podemos poner este valor a 0,2. De esta forma,
podemos pensar en B como el intervalo bien denido B = [0, 0,2]. Esto signica que
un valor para g de 0.20 es bajo, pero si es de 0.21 ya no lo es. Obviamente, lo que
se tiene aqu es un problema estructural, ya que si movemos el rango superior de
0.20 a otro valor arbitario sucede lo mismo. Una forma mas natural de construir el
208CAP

ITULO 3. REPRESENTACI

ONDEL CONOCIMIENTO YRAZONAMIENTO


Figura 3.19: Ilustracion de funcion caracterstica para un Conjunto preciso.
conjunto B debe consistir en relajar la estricta separacion entre bajo y no bajo. Esto
se puede hacer, al permitir el uso de reglas mas exibles tales como ligeramente
bajo. El conjunto difuso nos permite denir estas reglas al incluir no solo los valores
de 0 y 1, sino, un conjunto de valores entre estos dos. En el caso del conjunto B,
los valores entre 0 y 0.2 nos indican una pertenencia gradual a este conjunto (ver
Figura 3.20).
La funcion de pertenencia es una representacion graca de la magnitud de partic-
ipacion de cada entrada. Asimismo, al asociarle un peso a cada entrada procesada
se dene un traslape funcional entre las mismas, y en ultima instancia determina
su respuesta de salida. Las reglas utilizan los valores de pertenencia de las entradas
como factores de ponderacion para determinar su inuencia en los conjuntos difusos
de salida. En el caso de la coherencia interferometrica g, la funcion de pertenen-
cia retorna un valor entre 0.0 y 1.0, por ejemplo un valor para g de 0.3 tiene una
pertenencia de 0.5 al conjunto de baja coherencia (ver Figura 3.20). Es importante
notar la distincion entre logica difusa y probabilidad, ya que ambas operan sobre el
mismo rango numerico, y tienen valores similares: o.o representa Falso (o no perte-
nencia), y 1.0 indicando Verdadero (o completa pertenencia). Sin embargo, existe
una diferencia entre las dos sentencias: el enfoque probabilsta genera la sentencia
del lenguaje natural, Hay un 50 % de probabilidad de que g sea bajo, mientras
que la terminologa difusa produce la sentencia: El grado de pertenencia de g al
conjunto de baja coherencia interferometrica es de 0.5. La diferencia semantica es
signicativa: el primer enfoque supone que g es o no es bajo; en contraste, el enfoque
difuso supone que g es mas o menos bajo.
Operaciones con conjuntos difusos. Las operaciones con conjuntos difusos estan
sugeridas por los gracos de sus funciones. Por ejemplo, como la interseccion de dos
funciones (conjuntos) difusos puede tomarse la funcion mnima (f g = min(f, g)),
como la union la funcion maxima (f g = max(f, g)) y como el complemento
3.5. RAZONAMIENTO CON INCERTIDUMBRE 209
Figura 3.20: Ilustracion de funcion caracterstica para un Conjunto Difuso.
(f = 1 f) la diferencia con la constante 1. En estas expresiones se cumple el
principio de la doble negacion ya que f = f, sin embargo no aplica el principio
del tercero excludo ya que f f no es la funcion constante 1, as como tampoco
f f es la funcion constante 0. En contraste, si se aplican las leyes de De Morgan:
(f g) = f g, (f g) = f g.
Desde hace algunos a nos se ha intentado ofrecer una formalizacion para la logica
difusa, los trabajos de Hajek, Cignoli y otros [126] ofrecen una de estas aportaciones
basandose en la t norma, la cual se dene como una operacion binaria continua
en el segmento real [0, 1] que satisface las condiciones siguientes:
1.x (y z) (x y) z
2.x y y x
3.x 1 x
4.x 0 0
5.x y implica x z y z
La operacion tiene adjunta la implicacion la cual se caracteriza por la equivalencia
x y z si y solo si x y z
210CAP

ITULO 3. REPRESENTACI

ONDEL CONOCIMIENTO YRAZONAMIENTO


Esta equivalencia es similiar a la adjuncion denida en el algebra de Heyting. La
operacion se dene como x = x 0. Algunos ejemplos de t normas continuas
son los siguientes:
1. x y = min(x, y) ; x y = 1 si x y, y si x > y ; x = 1 si x = 0, 0 si x > 0
2. x y = max 0, x +y 1 ; x y = min1, 1 x +y ; x = 1 x
3. x y = xy ; x y = 1 si x y, yx si x > y ; x = 1 si x = 0, 0 si x > 0
Las expresiones mostradas en 1, corresponden a considerar el segmento [0, 1] como un
algebra de Heyting; las mostradas con el 2, a considerarlo como una MV algebra,
en particular como una MV algebra de Lukasiewicz; la tercera corresponde a
una de las operaciones indicadas anteriormente para los conjuntos difusos. Puede
probarse que cualquier t norma continua es una combinacion de estas tres. Una
t norma permite la lectura de formulas proposicionales, interpretando las letras
proposicionales como n umeros reales entre 0 y 1 logica difusa y los conectivos
conjuncion, implicacion y negacion como , , y respectivamente. Por ejemplo, de
1 p p se sigue 1 p p, esto es, p p = 1 para cualquier interpretacion de p
en cualquier t norma. El siguiente paso en la formalizacion consiste en introducir
una estructura algebraica que incluya las t normas, es decir, una BL algebra.
Una BL algebra es una estructura A = A, , , 0) donde A es un conjunto no
vaco y , son operaciones binarias en A y 0 es una constante. A partir de estas
se denen las siguientes cuatro operaciones:
1. x y = x (y y)
2. x y = ((x y) y) ((y x) x)
3. x = x 0
4. 1 = 0
Asimismo, las expresiones anteriores deben satisfacer un conjunto de condiciones
tales como: (a) (x y) (y x) 1. Toda algera de Heyting que valida la condi-
cion (a) es una BL algebra si se toma la operacion igual al extremo inferior ;
en sentido contrario, una BL algebra en la cual es igual a es un algebra de
Heyting en la que se cumple (a). Asimismo, las algebras de Heyting cuyo conjunto
3.5. RAZONAMIENTO CON INCERTIDUMBRE 211
ordenado subyacente es lineal, as como todas las algebras booleanas, son ejemplos
de algebras de Heyting que satisfacen la ecuacion (a). Si en una MV algebra
A, , , 0) se dene el par de operaciones y como
x y = (x y), y x y = x y
entonces A, , , 0) es una BL algebra. Por el contrario, si A, , , 0) es una
BL algebra que satisface x x y si ademas en ella se dene la operacion como
x y = (x y)
entonces A, , , 0) es una MV algebra. En otras palabras, una MV algebra
es una BL algebra mas a un, las MV algebras se caracterizan como aquel-
las BL algebras en las cuales vale el principio de la doble negacion. Si es una
tnorma y su adjunta es rightarrow entonces [0, 1], , , 0); es una BL algebra.
En cierto modo, las BL algebras abarcan las semanticas de las tres logicas multi-
valuadas mencionadas: (i) ciertas algebras de Heyting, correspondientes a la logica
intuicionista; (ii) las MV algebras, correspondientes a las logicas multivaluadas de
Lukasiewicz; y (iii) las t normas, correspondientes a los conjuntos difusos. Sin em-
bargo, cabe la siguiente pregunta existe una sintaxis para esta semantica? En otras
palabras, existe una autentica logica difusa, entendida como sistema deductivo?
En 1998 P. Hajek propuso para esta situacion un calculo proposicional denominado
l ogica difusa basica, el cual esta representado por los siguientes axiomas:
1. ( ) (( ) ( ))
2. ( )
3. ( ) ( ))
4. ( )) ( ( ))
5. (( ) ) ( ( )), (( ) ) (( ) )
6. (( ) ) ((( ) ) )
7. ( )
212CAP

ITULO 3. REPRESENTACI

ONDEL CONOCIMIENTO YRAZONAMIENTO


Cuadro 3.3: Ejemplo de una base de reglas difusa; las reglas se leen como: Regla 1:
Si R es bajo Y G es medio Y B es medio Y I es medio Entonces pxel es clase 1.
R# Caracterstica A Caracterstica B Caracterstica C Caracterstica D Clase
1 bajo medio medio medio clase 1
2 medio alto medio bajo clase 2
3 bajo alto medio alto clase 3
4 bajo alto medio alto clase 1
5 medio medio medio medio clase 4
... ... ... ... ... ...
N bajo alto medio bajo desconocida
Al igual que las logicas multivaluadas anteriores, en este caso la unica regla que
aplica es Modus Ponens. Los teoremas del calculo proposicional son precisamente
las formulas que ledas en cualquier t norma siempre son 1. De esta forma, con
una estructura sintactica y semantica formalizada se dene a la logica difusa en el
sentido matematico de la palabra [63].
Posiblemente, la logica difusa es la que mas aplicaciones practicas ha mostrado de
las otras logicas multivaluadas. A contonuacion se va a mostrar una de estas aplica-
ciones.
Clasicacion difusa. Los clasicadores difusos son una aplicacion de la teora di-
fusa. En este caso, el conocimiento del experto puede ser utilizado y expresado de
una forma natural a traves del uso de variables ling usticas descritas por conjuntos
difusos. Las reglas que expresan el conocimiento experto para estas variables pueden
ser formuladas de manera parecida a:
Si caracterstica A es baja Y caracaterstica B es media Y caracterstica C es media
Y caracterstica D es media Entonces Clase = clase 4
Estas reglas pueden ser combinadas en una tabla como la mostrada en la Tabla 3.3.
Las variables ling usticas son previamente representadas de forma graca como se
ilustra en la Figura 3.21 donde se muestra la representacion de los valores (bajo,
medio, alto) para la variable de entrada: caracterstica A. Las reglas que describen
un sistema difuso consisten de dos partes; un bloque antecedente (entre S y En-
tonces) y un bloque consecuente (despues de Entonces). Dependiendo del sistema,
3.6. DEMOSTRACI

ON Y M

ETODOS 213
Figura 3.21: Ilustracion de la variable ling ustica caracterstica A.
puede no ser necesario evaluar cualquier combinacion de entrada posible, ya que
talvez alguna ocurra muy rara vez. Este tipo de evaluacion, usualmente es realizada
por un operador expermentado, donde pocas reglas pueden ser evaluadas, simpli-
cando con esto la logica de procesamiento y mejorando el rendimiento del sistema.
Las entradas son logicamente combinadas usando el operador Y, para producir
las respuestas de salida de todos los valores esperados de las entradas. Las salidas
activadas son combinadas en una suma logica por cada funcion de pertenencia du-
rante un proceso conocido como defussicacion el cual genera una salida con valor
bien deinido.
3.6. Demostracion y metodos
Las demostraciones son una forma de comunicacion asociada de manera natural
con la logica cuyo objetivo es convencer de la veracidad de las armaciones que
surgen como resultado del razonamiento humano. Asimismo, la demostracion es
un concepto que se ha utilizado como una herramienta muy utilizada en el area
de las matematicas para manejar la validez de teoremas. En esta seccion se va a
mostrar el aspecto de la demostracion bajo un enfoque logico. La demostracion de
una proposicion signica ilustrar bajo un argumento convincente de que la proposi-
cion es verdadera. Las demostraciones de esta clase suelen encontrarse fuera de los
cursos de matematicas. Los investigadores que realizan predicciones basados en prin-
cipios cientcos dan demostraciones, en efecto, de que sus predicciones se deducen
de sus principios. Los programadores de ordenadores hacen aseveraciones de que sus
programas operaran de acuerdo con sus especicaciones y verican estas asevera-
ciones con una combinacion de razonamiento y experimentacion. Los historiadores
cuyo argumento es que cierta serie de decisiones conducen inevitablemente a cierta
214CAP

ITULO 3. REPRESENTACI

ONDEL CONOCIMIENTO YRAZONAMIENTO


consecuencia, usan el razonamiento logico para demostrar lo anterior. De esta man-
era, aunque los detalles de escribir una demostracion matem aticamente aceptable
pueden pertenecer al terreno de los matematicos, el objetivo de comprender lo que
constituye un argumento convincente debe ser compartido por cualquiera que espere
utilizar los principios matematicos y cientcos. Se van a mostrar en esta seccion,
algunos de los los principios logicos que fundamentan los argumentos convincentes.
Con la nalidad de sustentar la demostracion en el ambito logico, se requiere tener
presente la informacion vista en la seccion de logica de predicados. La idea es de-
mostrar de veracidad de proposiciones aplicando las reglas de inferencia. Asimismo,
hay que tener presente la nocion de razonamiento valido, el cual se maniesta co-
mo un conjunto de clausulas expresadas en forma normal conjuntiva y se utilizan
para demostrar la veracidad de las proposiciones. Recordar que un razonamiento es
valido si la conclusion Q es verdadera cada vez que las premisas P
1
, ..., P
n
lo sean.
3.6.1. Demostracion
Se dene formalmente la demostracion como un razonamiento que establece la ve-
racidad de un teorema. A su vez un teorema consiste en una proposicion P, conocida
como hipotesis y otra proposicion Q identicada como la conclusion. De acuerdo
con las denicioes anteriores, un teorema es verdadero solamente si la proposicion
P Q es una tautologa, dicho de otra forma, solo si el razonamiento expresado
como P Q es valido.
Para ejemplicar la demostracion veamos el siguiente caso.
p q
p q

r q
Demostracion de la validez del razonamiento anterior
(p q) (p r) (q p) (p r) Conmutatividad de
............................(q [p (p r)] Asociatividad de
3.6. DEMOSTRACI

ON Y M

ETODOS 215
............................q r Modus Ponens
............................r q Conmutatividad de
Por lo tanto, en este caso se comprueba que el razonamiento descrito es valido.
3.6.2. Metodos de demostracion
Se van a describir algunas de las tecnicas de demostracion m as comunes, apoyandonos
en algunos ejemplos con el n de claricar la comprension, asmismo se van a in-
dicar la relacion que guardan con las reglas de inferencia ya descritas en una seccion
previa. Como se menciono con anterioridad, una demostracion una demostracion es
un razonamiento que establece la veracidad de un teorema. Por lo tanto, demostrar
un teorema equivale a probar que la proposicion P Q es una tautologa. A con-
tinuacion se van a describir tales tecnicas [65].
Demostracion vaca. Una demostraci on de este tipo se construye estableciendo
que el valor verdadero de la hip otesis P es falso. En efecto, si podemos establecer
la falsedad de P, entonces el condicional P Q siempre es verdad independien-
temente del valor de verdad de la conclusion Q, luego P Q es una tautologa.
Aunque parece que tiene poco valor, este metodo de demostracion es importante
para establecer limitaciones o estudiar casos especiales.
Demostracion Trivial. Se construye una demostraci on de este tipo, probando que
el valor verdadero de la conclusi on es verdad. Si es posible establecer la veracidad de
la conclusion Q, entonces el condicional P Q pasa a ser una tautologa independi-
entemente del valor de verdad que tenga la hipotesis. Por lo tanto, la demostracion
es correcta y el teorema cierto. Al igual que la demostracion vaca, la demostracion
trivial tiene una aplicacion limitada. Se utiliza frecuentemente para establecer casos
especiales de armaciones.
Demostracion Directa. Una demostracion de este tipo muestra que la verdad de
la conclusion Q, se sigue logicamente de la verdad de la hipotesis P. La demostracion
empieza asumiendo que P es verdad para despues, utilizando cualquier informacion
disponible, as como teoremas probados con anterioridad, probar que Q es verdad.
Ejemplo. Demostrar que el cuadrado de un n umero entero par tambien es par.
216CAP

ITULO 3. REPRESENTACI

ONDEL CONOCIMIENTO YRAZONAMIENTO


Demostracion. El teorema a demostrar escrito en forma de condicional, sera: Para
cualquier entero n, si n es par, entonces n
2
tambien es par
que se corresponde con el esquema
n
_
p(n) p(n
2
)
_
donde p(n) : n es par
y el universo del discurso son todos los n umeros enteros.
Pues bien, sea n un n umero entero cualquiera. Si n es par, entonces por denicion
existira un n umero entero k tal que n = 2k
de aqu y elevando al cuadrado, se obtiene n
2
= 4k
2
= 2(2k
2
)
y como el cuadrado de un n umero entero tambien es entero, 2k
2
sera entero (lo
llamaremos m). De esta forma, hemos encontrado un entero m tal que
n
2
= 2m.
Por lo tanto, concluimos que n
2
es par.
Aunque este ejemplo es bastante sencillo, el desarrollo logico de la demostracion es
identico al de otros teoremas de contenidos mas complicados. Observemos, una vez
mas, el camino seguido a traves de implicaciones.
Sea n cualquier n umero entero. Entonces
n es par k : n = 2k
n
2
= 4k
2
m : n
2
= 2m
3.6. DEMOSTRACI

ON Y M

ETODOS 217
n
2
es par
Demostracion por la Contrarrecproca. La demostraci on de un teorema se
dice que es por la contrarrecproca cuando suponiendo que la conclusi on Q es falsa,
y utilizando la hip otesis P y otros teoremas y equivalencias l ogicas establecidas pre-
viamente, se concluye que P es falso.
Esta demostracion se basa en la equivalencia logica entre una proposicion condi-
cional y su contrarrecproca,
P Q Q P
Por lo tanto, si probamos que Q P es una tautologa, entonces P Q tam-
bien lo es, es decir P Q.
Ejemplo. Demostrar, para cada entero n, que si 5n + 3 es par, entonces n es impar.
Demostracion. Se va a utilizar el metodo de demostracion de contrarrecproca.
Si
p(n) : n es par
q(n) : n es impar
el esquema del teorema propuesto sera
n[p(5n + 3) q(n)]
en el universo de los n umeros enteros. El esquema de la contrarrecproca sera
n[q(n) p(5n + 3)]
es decir: Para cada entero n, si n no es impar, entonces 5n + 3 no es par. Ahora
bien, sea n cualquier n umero entero.
Si n no es impar, entonces n ,= 2k + 1 para cualquier entero k y, por lo tanto
218CAP

ITULO 3. REPRESENTACI

ONDEL CONOCIMIENTO YRAZONAMIENTO


5n + 3 5(2k + 1) + 3, k Z
de aqu se desprende que
5n + 3 2(5k + 4), k Z
y como si k es entero, 5k + 4 tambien lo es (lo llamaremos m), tendremos que
5n + 3 2m, m Z
Consecuentemente, 5n + 3 no es par y con esto la demostracion concluye.
Veamos la demostracion a traves de implicaciones. Sea n un n umero entero cualquiera.
Entonces
n no es impar n 2k + 1, k Z
n 2(5k + 4)
5n + 3 2m, m Z
5n + 3 no es par
Demostracion por Contradiccion. Se dice que la demostracion de un teorema
es por contradiccion cuando suponiendo que la conclusion, Q, es falsa y utilizando
la hipotesis P, y otros teoremas y equivalencias logicas establecidas previamente, se
llega a una contradiccion.
Esta demostracion se basa en la equivalencia logica conocida como reduccion al
absurdo, es por ello que este metodo de demostracion es conocido, tambien, como
demostracion por reduccion al absurdo la cual se expresa como sigue
P Q (P Q) C
3.6. DEMOSTRACI

ON Y M

ETODOS 219
donde C es una contradiccion. Por lo tanto, si se prueba que (P Q) C es una
tautologa se tiene tambien que P Q tambien lo es.
Ejemplo. Demostrar que si el cuadrado de un n umero entero es impar, entonces el
n umero es impar.
Demostracion. El teorema a demostrar es:
Para cada entero n, si n
2
es impar, entonces n es impar
Si p(n) : n es impar
entonces el esquema del teorema en notacion simbolica sera
n[p(n
2
) p(n)]
en el universo de los n umeros enteros. Se realizara la demostracion por contradiccion
o reduccion al absurdo. El esquema sera
n[(p(n(
2
)) p(n)) C]
donde C es una contradiccion. Ahora bien, sea n cualquier n umero entero. Suponien-
do que n
2
es impar, y que n no es impar. Entonces, se tiene que
n
2
es impar y n es par. Considerando las deniciones para n umero par e impar,
suponga que existen dos n umeros enteros k y l tales que
n
2
= 2k + 1, y n = 2l
luego n
2
= 2k + 1, y n
2
= 4l
2
por lo tanto, 2k + 1 = 4l
2
de donde se sigue que 1 = 4l
2
2k = 2(2l
2
k)
220CAP

ITULO 3. REPRESENTACI

ONDEL CONOCIMIENTO YRAZONAMIENTO


y como l y k son enteros, 2l
2
k tambien lo es (lo llamaremos m ), se tiene que se
ha encontrado un n umero entero m tal que
1 = 2m
es decir, se indica que el n umero 1 es par, lo cual es una contradiccion.
Lo que nos ha conducido a la contradiccion es la suposicion de que n no era impar,
por lo tanto, esta aseveracion resulta falsa y en consecuencia es cierta la aseveracion
contraria, esto es, n es impar.
La demostracion anterior a traves de implicaciones resulta de la siguiente manera:
n
2
es impar y n no es impar n
2
es impar y n es par
k : n
2
= 2k +1 y l : n = 2l Denicion de impar e par
k : n
2
= 2k + 1 y l : n
2
= 4l
2
Elevando al cuadrado
k y l : 2k + 1 = 4l
2
Igualando
k y l : 1 = 2(2l
2
k) Haciendo operaciones
m : 1 = 2m Haciendo m = 2l
2
k
1 es par Denicion de n umero par
Contradiccion
B usqueda de Contraejemplos. Este tipo de demostracion, se encuentra muy
relacionada con el cuanticador universal, aparece cuando se quiere probar que una
proposicion del tipo x, p(x) es falsa. Normalmente diremos que se refuta la proposi-
cion x, p(x).
En efecto, x, p(x) sera falsa cuando exista, al menos, un elemento a en el universo
del discurso para el cual p(a) sea una proposicion falsa. Hemos encontrado, pues,
un ejemplo que contradice el que x, p(x) sea verdad por lo cual le llamaremos con-
traejemplo. En el caso de un teorema el planteamiento sera descrito de la siguiente
3.6. DEMOSTRACI

ON Y M

ETODOS 221
manera: x[p(x) q(x)] es falso si existe un elemento a en el universo para el cual
la proposicion condicional p(a) q(a) sea falsa, es decir tal que p(a) sea verdad y,
sin embargo, q(a) sea falsa.
Ejemplo. En el universo de los n umeros enteros positivos, demostrar o refutar la
siguiente proposicion: la suma de dos cuadrados perfectos es tambien un cuadrado
perfecto.
Solucion. Recordemos que un entero positivo x es un cuadrado perfecto si puede en-
contrarse otro entero positivo y tal que x = y
2
. La proposicion a demostrar escrita
en forma de condicional sera:
Si m y n son enteros positivos y cuadrados perfectos, entonces m+n es un cuadrado
perfecto.
Pues bien, si p(m, n) : m+n es un cuadrado perfecto, entonces la proposicion escrita
en su forma simbolica sera:
m, n[p(m, 0) p(n, 0) p(m, n)]
y un contraejemplo,
a, b : [p(a, 0) p(b, 0) p(a, b)]
es decir,
pueden encontrarse dos enteros positivos a y b tales que sean cuadrados perfectos
y que, sin embargo, su suma no lo sea.
Pues bien, elijamos dos cuadrados perfectos arbitrariamente, por ejemplo el 25 y el
36 . Entonces,
25 + 36 = 61 y
2
, y
por lo tanto, y de acuerdo con la denicion de cuadrado perfecto dada, 61 no es un
cuadrado perfecto. De esta manera, ya tenemos el contraejemplo.
222CAP

ITULO 3. REPRESENTACI

ONDEL CONOCIMIENTO YRAZONAMIENTO


25 y 36 son, ambos, cuadrados perfectos y, sin embargo, su suma, 25 + 36, no lo es.
En consecuencia, la proposicion propuesta es falsa.
De acuerdo con lo mostrado, es posible demostrar un teorema de forma directa o
indirecta (contrarrecproca y contradiccion). Si se puede realizar la demostracion de
forma directa, resultara, en general, menos complicado que utilizar metodos indi-
rectos. Se puede empezar intentando un metodo directo y si no resulta, buscar un
contraejemplo que refute el teorema. Si la b usqueda del contraejemplo tambien falla,
entonces intentar la demostracion a traves de metodos indirectos.
3.7. Ejercicios
a) Repetir los ejercicios de mapas conceptuales con redes sem anticas.
b) Representar en Prolog la red semantica de la Figura 3.8. Se sugiere emplear
un predicado binario por cada relacion. Para las propiedades se sugiere
que se emplee el predicado atributo(Objeto, Atributo, Valor). Por ejemplo,
atributo(Pioln, color, amarillo). Incluir las reglas necesarias para que todo
objeto herede los atributos y las propiedades de todas las clases a las que
pertenece.
c) Emplear Prolog para hacer consultas sobre la informacion almacenada
en la red semantica. Por ejemplo, tiene garras Pioln?, quienes pueden
cantar ?, etc...
d) Represente las siguientes frases en lenguaje de logica de predicados:
a) Los caballos, las vacas y los cerdos son mamferos.
b) El descendiente de un caballo es un caballo.
c) Cada mamfero tiene un padre.
d) Mi casa azul Victoriana.
e) Dada la siguiente frase en lenguaje natural: solo los amigos de Juan son
divertidos, hacer lo siguiente:
a). Formalizarla en el calculo de predicados utilizando como dominio gen-
eral a las personas.
b). Evaluarla en el dominio D = Pedro, Juan, Luis, sabiendo que: Pedro
es divertido y Juan y Luis no lo son. Pedro es amigo de s mismo y de
Luis. Juan es amigo de todos. Luis es amigo de s mismo y de Juan.
3.7. EJERCICIOS 223
f ) Dada la siguiente frase en lenguaje natural: Si los obreros no son traba-
jadores, entonces algunos empresarios no son demasiado listos y se arru-
inaran, hacer lo siguiente:
a). Formalizarla en el calculo de predicados, empleando dos dominios: D1
= los obreros, y D2 = los empresarios.
b). Evaluarla en los dominios D1 = obrero Pedro, obrero Luis,
obrero Carlos,y D2 =empresario Juan, empresario Miguel,
empresario Roberto, sabiendo que:
Pedro es el unico obrero trabajador.
Juan es listo y no se arruinara.
Miguel no es listo y se arruinara.
Roberto se arruinara a pesar de ser listo.
Dada la siguiente formula:
xy(Mayor-que(x, y) Igual-a(y, menor(a, y)))
En el dominio de tres elementos D = 0, 1, 2, se pide obtener la evaluacion total
de la formula para dicho dominio. Suponer que la asignacion (a) = 1.
g) Represente el siguiente fragmento de conocimiento usando logica de predicados y
transformelo a forma normal conjuntiva (FNC):
Todos los caballeros de la mesa redonda son leales a Arturo. Arturo esta casado
con Ginebra. Lanzarote es un caballero de la mesa redonda y es aliado de Ginebra
. Toda mujer que estando casada se la con otro hombre no es leal a su marido. Los
caballeros de la mesa redonda que vencen a todos sus enemigos se convierten en
campeones de Arturo.
Usando refutacion mediante resolucion compruebe si con ese conocimiento es posible
demostrar que hay alguien desleal a Arturo (xleal(x, Arturo))
NOTA: se pueden utilizar los siguientes predicados u otros distintos:
caballero(X), vence(X, Y), ...
casado(X, Y), aliado(X, Y), ...
X esta casado/aliado con Y
enemigo(X, Y), campeon(X, Y),... X es enemigo/campeon de Y
h) Represente el siguiente fragmento de conocimiento usando logica de predicados y
224CAP

ITULO 3. REPRESENTACI

ONDEL CONOCIMIENTO YRAZONAMIENTO


transformarlo a forma normal conjuntiva (FNC):
Asterix es un galo. Los romanos que son amigos de alg un galo odian a Cesar. As-
terix ayudo a Marco. Marco es amigo de quien le ayuda. Quien odia a alg un romano
lucha contra el. Marco es un romano.
Usando refutacion mediante resolucion compruebe si con ese conocimiento es posible
demostrar que Marco odia a Cesar.
NOTA: Se sugiere utilizar los siguientes predicados:
amigo(X,Y), ayuda(X,Y), galo(X), odia(X,Y), lucha(X,Y), romano(X),..
i) Dado el siguiente fragmento de conocimiento, representelo en logica de primer orden
y transformarlo a forma normal conjuntiva (FNC):
Todos los coyotes persiguen a alg un correcaminos. Algunos correcaminos son in-
teligentes. Los coyotes que persiguen a correcaminos inteligentes no los atrapan.
Cualquier coyote que persigue a alg un correcaminos pero no lo atrapa estara ham-
briento. Pepe es un coyote y Ana una correcaminos y ambos son inteligentes. Pepe
persigue a la correcaminos Ana.
Usando refutacion mediante resolucion comprueba si con ese conocimiento es posible
saber si Pepe esta hambriento.
j) Dado el siguiente fragmento de conocimiento en logica de predicados, transformalo
a forma normal conjuntiva (FNC).
a): x[P(x) S(M, x)]
b): xy[P(y) S(x, y)] z[A(z) G(x, z)]
c): x[P(x) A(x)]
d): xy[A(y) G(x, y)] (x, y)
e): xy[S(x, y) R(y)] z[T(x, z) Q(z)]
Usando refutacion mediante resolucion comprueba si con ese conocimiento es posible
demostrar xA(x) G(M, x).
NOTA: Para este ejercicio, May usculas constantes; Min usculas variables.
k) En un congreso hay 50 profesores provenientes de 3 universidades (A:23, B:18,C:9).
El porcentaje de profesores que pertenecen a las universidades (por licenciatura) es
el siguiente: Universidad A: 30 % Ciencias, 40 % de Ing, 25 % Humanidades y 5 %
Economa; Universidad B::25 % Ciencias, 35 % de Ing, 30 % Humanidades y 10 %
Economa; Universidad C: 20 % Ciencias, 50 % de Ing, 10 % Humanidades y 20 %
Economa. A la salida, nos encontramos un profesor, contestar a lo siguiente: a)
3.7. EJERCICIOS 225
Cual es la probabilidad de que pertenezca a la Universidad C?, b) Si nos enteramos
de que es de Economa Cual sera la probabilidad de que pertenezca a la Universidad
A?.
l ) Explique un procedimiento de inferencia aplicado en las redes bayesianas y muestrelo
en clase apoyandose con un ejemplo.
m) Aplique el Teorema de Bayes para resolver el siguiente problema: Si un paciente
tiene la enfermedad E, entonces la aplicacion del test T resulta positivo con proba-
bilidad 0,95. Si la enfermedad no esta presente el test es positivo con probabilidad
0,03. Si la probabilidad de sufrir la enfermedad es 0,01, Cual es la probabilidad de
que un paciente con un test positivo sufra la enfermedad?.
n) De acuerdo con la siguiente descripcion: Un determinado defecto genetico (G) puede
producir dos enfermedades (E1, E2). En presencia de dicho defecto, las enfermedades
se maniestan con una determinada probabilidad, pero no existe ninguna relacion
entre los mecanismos que dan lugar a las enfermedades: el hecho de que una se
manieste no hace a la otra mas o menos probable. Existen tres posibles sntomas
asociados a las enfermedades (S1;S2;S3). Los sntomas S1 y S2 se asocian a la enfer-
medad E1 y los sntomas S2;S3 a la enfermedad E2. En la enfermedad E1 la presencia
del sntoma S1 hace al sntoma S2 mas probable. En la enfermedad E2 la presencia
de uno de los sntomas no cambia la probabilidad de aparici on del otro sntoma.
Existe una prueba de laboratorio (P), cuyo resultado depende de forma conjunta de
la presencia o ausencia de ambas enfermedades, pero tiene comportamiento distinto
en hombres y mujeres (T). Se supone que T no tiene relacion directa con ninguna
otra variable del problema.
Realice lo siguiente:
(a) Determinar un grafo dirigido con las variables anteriores que represente unas
relaciones de independencia entre las variables que sean compatibles con las especi-
caciones anteriores.
(b) Indicar las independencias basicas representadas en el grafo.
(c) Indicar las distribuciones de probabilidad condicionadas que habra que especi-
car para determinar la distribucion de probabilidad conjunta asociada al grafo
construido.
n) Determinar la estructura de una red bayesiana para el siguiente problema: Un
granjero quiere determinar si una vaca esta pre nada (P) despues de una inseminacion
articial. Para ello dispone de tres tests. El primero de ellos es una ecografa (E)
y los otros dos son un test de sangre (S) y uno de orina (O). Se supone que los
dos ultimos tests se basan en el nivel hormonal de la vaca (H) que puede ser alto o
226CAP

ITULO 3. REPRESENTACI

ONDEL CONOCIMIENTO YRAZONAMIENTO


bajo y que, a su vez, depende de si la vaca esta realmente pre nada. Existe un tipo
raro de sangre (T) que hace que el resultado del test de sangre sea siempre positivo
con independencia de si la vaca esta pre nada o no. Para descartar esta situacion, el
granjero tambien realiza un test para comprobar el tipo de sangre (TT).
o) En una granja hay dos yeguas y un caballo sin ning un parentesco entre ellos y
van a nacer dos potros, uno de cada una de las yeguas. El caballo es el padre de
ambos potros. Existe una grave enfermedad que esta ligada a la presencia de un gen
recesivo a. El gen normal se nota por A. Esto quiere decir que la cargagenetica de
cada individuo puede ser aa, aA, AA y la enfermedad solo se maniesta cuando un
individuo tiene carga genetica aa. Si un individuo tiene aA no maniesta la enfer-
medad, pero es portador de ella.
(a) Determinar una red Bayesiana que exprese las dependencias entre la carga
genetica de cada uno de los caballos de la granja, incluyendo los dos potros que
van a nacer.
(b) Si en la poblacion general la probabilidad de ser portador es de 0.01 para los
caballos, de 0.02 para las yeguas, y los potros heredan un gen de cada uno de los
padres (se elige aletoriamente entre los dos posibles de cada padre), detallar las dis-
tribuciones de probabilidad condicionadas asociadas a la red.
p) Aplicando el metodo de demostracion de reduccion al absurdo, demostrar el siguiente
teorema: Existen dos n umeros irracionales x e y tales que x
y
es un n umero racional.
Captulo 4
Sistemas de Razonamiento
El genero humano tiene, para saber conducirse, el arte y el razonamiento
-Arist oteles-
Los sistemas de produccion
1
son una forma de representacion del conocimiento muy
utilizados en la practica y utilizan generalmente un encadenamiento hacia adelante
sobre reglas como su forma de razonamiento. Las aplicaciones basadas en este formal-
ismo muy seguido son conocidas como sistemas basados en reglas para enfatizar el
papel que desempe nan las reglas en este esquema de representacion del conocimien-
to. La idea basica en estos sistemas, es que el conocimiento sea representado como
reglas en pares de: condici on acci on.
La forma que adquieren dichas reglas son:
Si (condicion/premisa) Hechos
Entonces (accion a ejecutar) Conclusion/Accion/Hipotesis
Un ejemplo de estas reglas se muestra a continuacion y es una de tantas que con-
forman la base de conocimientos del conocido sistema experto Mycin:
Si
1. el reactivo toma el color azul
2. la morfologa del organismo es alargada
1
Estos sistemas fueron desarrollados por Newell y Simon con la intenci on de modelar el
conocimiento humano.
227
228 CAP

ITULO 4. SISTEMAS DE RAZONAMIENTO


3. el paciente es un posible receptor
Entonces
existe una evidencia (0.7) de que la infeccion proviene de organismos pseudomonas.
Se observa que cada regla puede estar formada por una o mas premisas unidas por
un conector de forma similar a la representacion basada en logica. En este caso,
se considera que las reglas estan unidas por un conector del tipo conjuntivo (y).
Cuando las premisas son verdaderas, es decir, las tres reglas se cumplen, se realiza
la accion indicada en el consecuente. La operacion basica de las reglas en un sistema
de produccion consiste en un ciclo de tres pasos que se repite hasta que todas las
reglas han sido analizadas, momento en el cual el sistema se detiene. Los pasos que
se realizan durante este ciclo son: (1) localizar las reglas que pueden ser aplicables,
es decir, reglas cuyo antecedente son condiciones satisfechas en la actual memoria
de trabajo, (2) de entre las reglas encontradas y cuyas condiciones de premisas se
cumplen, seleccionar una para su ejecucion, y (3) modicar la memoria de trabajo
realizando las acciones indicadas por las reglas seleccionadas.
Existen varias ventajas cuando se aplican los sistemas de produccion en la solucion
de sistemas complejos practicos. Entre las principales ventajas, guran las siguientes:
Modularidad. En un esquema basado en reglas de produccion, cada regla trabaja
de manera independiente. Esto permite tanto la inclusion de nuevas reglas como la
remocion de reglas antiguas. Este aspecto es especialmente util durante la adquisi-
cion del conocimiento o la depuracion.
Control eciente. Los sistemas de produccion tienen una estructura de control
muy simple. Ya que no mantienen complejos objetivos o estructuras de control ocul-
tas durante la implementacion.
Transparencia. Debido a que estas reglas son usualmente derivadas de conocimien-
to experto o de observaciones del comportamiento experto, tienden a usar termi-
nologa con la que el humano puede razonar. En contraste con otros formalismos
tales como redes neuronales, por lo que, en este caso, el razonamiento puede ser
seguido (rastreado) y explicado en lenguaje natural.
Sin embargo, cuando los sistemas son considerablemente grandes (cientos o miles de
reglas) y usados para resolver problemas complejos, las ventajas mencionadas tien-
den a disminuir, y es posible encontrar complejas estructuras de control as como
4.1. REGLAS DE PRODUCCI

ON 229
complicados antecedentes en las reglas. A un con estos inconvenientes, las reglas de
produccion han sido utilizadas de manera exitosa en resolver una amplia variedad
de problemas practicos y se han covertido en una valiosa herramienta para todo
investigador de IA.
Los sistemas de produccion estan formados principalmente por reglas de produc-
cion y hechos. En este Captulo se va a explicar lo concerniente con esta forma de
representar el conocimiento, dando inicio con su componente basico: las reglas de
produccion.
4.1. Reglas de produccion
Desde hace varias decadas los esfuerzos encaminados a la solucion de problemas en
IA dejaron claro que el alto rendimiento de un sistema se encuentra fuertemente cor-
relacionado con la profundidad y amplitud de su base de conocimientos. Los sistemas
basados en reglas son uno de los modelos de representacion del conocimiento mas
ampliamente utilizados ya que resultan ser muy apropiados en situaciones en las que
el conocimiento que se desea representar surge de manera natural y estructurado en
forma de reglas. Uno de los paradigmas de programacion tradicionalmente asociado
a los sistemas basados en reglas es el de los sistemas de produccion. Desde el pun-
to de vista semantico, hay dos aproximaciones principales a los lenguajes basados
en reglas: (i) el paradigma de la programacion l ogica, usado en las bases de datos
deductivas, y (ii) el paradigma de los sistemas de produccion, que proporciona una
semantica procedural basada en el encadenamiento hacia adelante (o hacia atras)
de reglas. Este ultimo se emplea en las bases de datos activas
2
y en los sistemas de
produccion tpicos de sistemas expertos. Estos sistemas se usan cuando el dominio
del problema es especco, es decir, es un dominio en el que se comprende bien la
teora. Ademas, el conocimiento debe poder representarse mediante hechos y reglas.
En nuestra vida diaria encontramos muchas situaciones complejas gobernadas por
reglas deterministas: sistemas de control de traco, sistemas de seguridad, transac-
ciones bancarias, etc. as como para otros escenarios no determinstas, tales como
el diagnostico medico, mantenimiento de sistemas, y demostraciones automatizadas
entre otros, ante estas situaciones, los sistemas basados en reglas surgen como una
alternativa eciente para manejarlas [127, 171].
2
De acuerdo con Hanson y Widom, integrar reglas de produccion en bases de datos las provee de
caractersticas avanzadas que las convierte en plataformas basadas en conocimientos muy ecientes
[130].
230 CAP

ITULO 4. SISTEMAS DE RAZONAMIENTO


Figura 4.1: Ilustracion de los componentes basicos de un sistema basado en reglas.
Los componentes basicos de un sistema basado en reglas se muestran en la Figura
4.1. Una breve descripcion de cada componente se ofrece a continuacion:
Base de Conocimientos. La cual a su vez esta constituida por una: (i) Base de
Hechos (tambien conocida como memoria de trabajo), formada por datos relevantes
relativos al dominio especco del problema, y (ii) Base de Reglas de produccion, a
la cual en algunas ocasiones tambien se le identica como base de conocimientos,
contiene el conocimiento en forma de reglas del tipo Si Condici on entonces Accion.
Motor de inferencias. Es la maquina deductiva encargada de manejar la informa-
cion almacenada en la base de conocimientos con el n de generar nuevo conocimien-
to o informacion.
Asimismo, se puede contemplar como parte de un sistema de producci on la inter-
faz con el usuario a traves de la cual se mantiene comunicacion con el sistema, es
decir, es posible introducir datos directamente por el usuario u obtenerlo mediante
sensores, as como mostrar explicaciones o cualquier tipo de resultados en diferentes
dispositivos de visualizacion.
4.1.1. Sintaxis de las reglas de produccion
Una regla es una armacion logica que relaciona dos o mas objetos e incluye dos
partes, la premisa o antecedente y la conclusion o consecuente. Cada una de estas
partes consiste en una expresion logica con una o mas armaciones objeto : valor
4.1. REGLAS DE PRODUCCI

ON 231
(atributo:especicacion) conectadas mediante los operadores logicos y, o, o no. Las
reglas son una manera natural de representar el conocimiento. Para que una regla
se active (dispare) es condicion necesaria aunque no suciente que se cumpla el an-
tecedente.
El antecedente o premisa de una regla de produccion es un conjunto de condiciones.
Si existe mas de una condicion, debe tomarse el conjunto de ellas de forma conjun-
tiva, esto es, el antecedente siempre debe ser verdadero para que la regla pueda ser
aplicable. A su vez, cada condicion esta formada por una tupla que tiene la siguiente
forma:
(tipo atributo
1
: especificaci on
1
,...,atributo
k
: especificaci on
k
)
Donde las especicaciones pueden ser una de las siguientes:
Un atomo.
Una variable.
Una expresion evaluable entre [ ].
Una prueba entre .
Los smbolos de especicacion: (conjuncion), (disjuncion), o (negacion).
Por ejemplo, la condicion de una regla puede estar especicada como: (persona edad
[24] ocupacion [profesor]), esta se satisface si existe en la memoria de trabajo una
variable cuyo tipo es persona con un atributo de edad exactamente igual a 24 y un
atributo profesion con especicacion de profesor.
Otro ejemplo de condicion es (persona temperatura > 38), la cual se cumple si al
igual que la anterior, existe en la memoria de trabajo una variable cuyo tipo es
persona y cuyo atributo temperatura tiene un valor mayor que 38.
Otra forma de expresar la tupla de la condicion es la siguiente:
(objeto
1
: valor
1
,...,objeto
i
: valor
i
)
Si se aplica este formato, los objetos que se almacenan en la base de conocimientos
as como sus valores se relacionan mediante el signo de igualdad, tal como se muestra
en los ejemplos siguientes:
232 CAP

ITULO 4. SISTEMAS DE RAZONAMIENTO


(a) Si (temperatura = alta sudoraci on = presente dolor muscular = presente)
(b) Si (costo < 5000) (consumo = alto)
Como se observa en los ejemplos anteriores ((a) y (b)) la premisa puede contener
una o mas armaciones del tipo objeto : valor conectadas con operadores logicos
y, o, o no. Por ejemplo, la premisa de la Regla (a) consta de tres armaciones
objeto : valor enlazadas por dos conectores logicos, mientras que las premisas de la
Regla (b) constan de dos armaciones objeto : valor conectadas por un operador
logico.
Con la nalidad de ser mas precisos acerca de la aplicabilidad de las reglas, estas se
consideran aplicables si hay valores para todas las variables en la regla de tal man-
era que todas las condiciones antecedentes son satisfechas en la memoria de trabajo
actual. Se dice que existe una condicion satisfactible positiva si hay una correspon-
dencia con los elementos de la memoria de trabajo, en caso contrario se indica una
condicion negativa. Es decir, una condicion negativa es satisfecha si no existe una
correspondencia entre las condiciones de la regla y los elementos de la memoria de
trabajo.
Por otro lado, el consecuente de una regla de produccion tiene una interpretacion
estrictamente procedural, y cada accion del conjunto de acciones va a ser ejecutada
en secuencia. En algunos casos, en este componente aparecen algunos operadores
que indican acciones especcas que se deben realizar en la memoria de trabajo tales
como:
Agregar patron: esto indica que un nuevo patron es agregado a la memoria de trabajo.
Remover i: siendo i un entero, esta accion indica eliminar el componente i de la
memoria de trabajo. Esta operacion no se aplica si la condicion resulta negativa.
Modicar i (atributo:especicaci on): esta accion indica la modicacion de la memo-
ria de trabajo del i esimo elemento cuya condicion corresponde con el antecedente
de la regla, reemplazando su valor actual por el de la especicacion del atributo.
En las acciones generadas de Agregar y Modicar, cualquier referencia que se hace a
las variables es con respecto a los valores obtenidos cuando se hace la corresponden-
cia con el antecedente de la regla. De igual manera, as como se muestran algunas
4.2. SEM

ANTICA DE LAS REGLAS DE PRODUCCI

ON 233
acciones especcas que se pueden realizar, tambien se permite la referencia hacia
acciones generadas de otro tipo de condiciones, por ejemplo las provenientes de
situaciones de diagnostico o prediccion. En la conclusion se encuentran los atribu-
tos que seran conocidos por el sistema. Ejemplos de reglas donde aparecen los dos
componentes son las siguientes.
(a) Si (persona apel lido = Perez) Entonces Agregar (listapacientes apel lido =
Perez)
(b) Si (temperatura = alta sudoraci on = presente dolormuscular = presente)
Entonces diagn ostico = gripe
La regla mostrada en el ejemplo (a) indica que si hay un elemento de tipo persona en
la memoria de trabajo cuyo apellido sea Perez entonces agregarlo en la memoria
de trabajo en la lista de pacientes con el mismo apellido. El ejemplo (b) indica a su
vez que si existe en la memoria de trabajo actual un elemento que cumpla con las
condiciones indicadas, entonces realizar la accion que se indica, es decir, modicar
la variable diagn ostico en la memoria de trabajo y asignarle el valor de gripe.
4.2. Semantica de las reglas de produccion
La semantica de un lenguaje basado en reglas de produccion determina como se
procesaran las reglas durante la ejecucion una vez que el conjunto de reglas ha sido
denido. Asimismo, la semantica tambien determina como estas reglas interactuaran
durante las operaciones que los usuarios y programas de aplicacion mantienen con el
sistema. A un para conjuntos relativamente peque nos de reglas, el comportamiento
de las mismas puede ser complejo e impredecible, as que una ejecucion precisa de la
semantica resulta esencial. Existen varias alternativas para la ejecicion de las reglas,
una de las semanticas mas utilizadas por la mayora de los sistemas de produccion de
reglas en IA, es la identicada como: ciclo de reconocimientoacci on. El algoritmo
que sigue este ciclo es el siguiente:
inicia emparejamiento (prueba las condiciones de la regla)
repite hasta que no haya reglas que emparejar o el halt es ejecutado
234 CAP

ITULO 4. SISTEMAS DE RAZONAMIENTO


ejecuta resolucion de conicto (escoge una regla activada)
ejecuta la accion de la regla
emparejamiento (prueba las condiciones de la regla)
termina
Durante la fase de emparejamiento, los patrones de reglas son comparados contra los
datos almacenados en la memoria de trabajo para determinar que reglas van a ser
activadas (disparadas). El conjunto de reglas activadas se le conoce como el conjunto
conicto, y una de las reglas es seleccionada de este conjunto usando alguna de las
estrategias de resolucion de conictos. Una vez que una regla ha sido seleccionada
se ejecuta la parte indicada en el consecuente (accion) de la misma, despues el ciclo
se repite.
Para comprender mejor el ciclo de reconocimiento acci on se muestra en la Figura
4.2 la ilustracion del mismo, mostrando las etapas que lo integran. Una breve expli-
cacion de estas etapas se ofrece a continuacion:
Evaluacion. En esta fase se eval uan los patrones del antecedente de las reglas para
determinar cuales se satisfacen en funcion del contenido actual de la memoria de
trabajo. Esta labor se lleva a cabo mediante un algoritmo de emparejamiento de
patrones (pattern matching). Una regla se activa cuando se satisface todo su an-
tecedente. El resultado de la activacion de una regla seria una o mas instancias
de regla en la que todas las variables que aparecen en el antecedente de la regla
estaran ligadas a constantes. Todas las instancias de reglas activas, que forman el
denominado conjunto conicto, permanecen almacenadas, hasta ser seleccionadas
para ejecutarse, en una estructura denominada agenda.
Seleccion(o resolucion del conictos): Se selecciona y extrae una regla de la agenda
en funcion de alg un criterio especicado en la estrategia de control.
Ejecucion (o accion): Se ejecutan las acciones que aparecen en el consecuente de
la regla seleccionada.
La ejecucion de las acciones del consecuente de una regla frecuentemente modica
alg un elemento de la memoria de trabajo, lo que provoca que se vuelva a la fase
4.2. SEM

ANTICA DE LAS REGLAS DE PRODUCCI

ON 235
Figura 4.2: Ilustracion del ciclo de reconocimientoaccion de un sistema basado en
reglas de produccion.
de evaluacion, comenzando de nuevo el ciclo de reconocimiento acci on . Si no se
modica ning un elemento de la memoria de trabajo, se selecciona otra instancia de
regla del conjunto conicto. La ejecucion del SBR naliza cuando no queda ninguna
instancia de regla en la agenda.
Dependiendo de la forma en que se relacionan los datos existentes entre la memoria
de trabajo y las reglas durante el proceso de interpretacion de las mismas, se orig-
inan dos esquemas de conocimiento: causal y diagn ostico. El conocimiento causal
surge cuando el encadenamiento de las reglas se hace bajo un enfoque progresivo
(dirigido por datos), es decir, se parte de los datos y se busca llegar a un objeti-
vo. En este tipo de conocimiento, al iniciar la ejecucion del sistema, la memoria de
trabajo contiene los hechos o datos iniciales del dominio a tratar. Por otro lado, el
conocimiento de diagnostico surge cuando el encadenamiento de las reglas se hace
bajo un enfoque regresivo (dirigido por objetivos), es decir, en este caso se parte de
una meta u objetivo y se busca sustentarla por hechos. En este tipo de conocimiento,
al iniciar la ejecucion del sistema, la memoria de trabajo contiene el objetivo y se
busca sustentarla con hechos.
En esta seccion se va a tratar lo relacionado con estas formas de encadenamiento de
reglas.
4.2.1. Conocimiento causal
Las reglas de produccion han sido utilizadas como un esquema de representacion
del conocimiento en problemas que de forma ordinaria se resuelven mediante la ex-
periencia humana. Debido a que el razonamiento humano es realizado generalmente
de una forma heurstica que va de los sntomas a las causas, las reglas de produc-
236 CAP

ITULO 4. SISTEMAS DE RAZONAMIENTO


cion se observan como una alternativa capaz de manejar problemas signicativos de
ndole muy diversa, tales como: diagnosticos medicos, vericacion de lneas de credi-
to en tarjetas bancarias, y conguracion de sistemas complejos [57]. Para manejar
los problemas anteriores, las reglas de produccion generalmente aplican un esquema
de razonamiento basado en el encadenamiento de reglas hacia adelante. Una descrip-
cion del mismo se realizara a continuacion.
Encadenamiento de reglas hacia adelante. Una de las estrategias de inferencia
mas utilizadas para obtener conclusiones es el llamado encadenamiento de reglas ha-
cia adelante. Esta estrategia puede utilizarse cuando las premisas de ciertas reglas
coinciden con las conclusiones de otras. Cuando se encadenan las reglas, los hechos
se utilizan para dar lugar a nuevos hechos. Esto se repite sucesivamente hasta que
no pueden obtenerse mas conclusiones. El tiempo que consume este proceso hasta
su terminacion depende, por una parte, de los hechos conocidos, y, por otra, de las
reglas que se activan. La estrategia que sigue este proceso de encadenamiento se
describe con el algoritmo siguiente:
Algoritmo de encadenamiento progresivo o dirigido por datos.
Datos: Una base de conocimiento (objetos y reglas) y algunos hechos iniciales.
Resultado: El conjunto de hechos derivados l ogicamente de el los.
1. Asignar a los objetos sus valores conocidos, tales como los hechos conocidos o la
evidencia.
2. Ejecutar cada regla de la base de conocimiento y concluir nuevos hechos si es
posible.
3. Repetir la Etapa 2 hasta que no puedan ser obtenidos nuevos hechos.
Este algoritmo puede ser implementado de muchas formas. Una de ellas comienza
con las reglas cuyas premisas tienen valores conocidos. Estas reglas deben concluir
y sus conclusiones dan lugar a nuevos hechos los cuales son a nadidos al conjunto
de hechos conocidos. Este proceso contin ua hasta que no pueden obtenerse nuevos
hechos. A continuacion se muestran unos ejemplos para comprender la operacion de
este enfoque.
Ejemplo 1. La Figura 4.3 muestra un ejemplo de seis reglas que relacionan 13
objetos, identicados con letras de la A a la M. Las relaciones entre estos objetos
implicadas por seis reglas pueden representarse gracamente, tal como se muestra en
4.2. SEM

ANTICA DE LAS REGLAS DE PRODUCCI

ON 237
Figura 4.3: Figura que ilustra un conjunto de seis reglas relacionando a 13 objetos
(letras A a M).
la Figura 4.4, donde cada objeto se representa por un nodo. Las aristas representan
la conexion entre los objetos de la premisa de la regla y el objeto su conclusion.
Notese que las premisas de algunas reglas coinciden con las conclusiones de otras
reglas. Por ejemplo, las conclusiones de las Reglas 1 y 2 (objetos C y G) son las
premisas de la Regla 4. Suponga que se sabe que los objetos A, B, D, E, F, H e I
son ciertos y los restantes objetos son de valor desconocido. La Figura 4.5 distingue
entre objetos con valor conocido (los hechos) y objetos con valores desconocidos. En
este caso, el algoritmo de encadenamiento de reglas procede como sigue:
- La Regla 1 concluye que C = cierto.
- La Regla 2 concluye que G = cierto.
- La Regla 3 concluye que J = cierto.
- La Regla 4 concluye que K = cierto.
- La Regla 5 concluye que L = cierto.
- La Regla 6 concluye que M = cierto.
Puesto que no pueden obtenerse mas conclusiones, el proceso se detiene. Este proce-
so se ilustra en la Figura 4.5, donde los n umeros en el interior de los nodos indican
el orden en el que se concluyen los hechos.
Ejemplo 2. Considerense de nuevo las seis reglas de la Figura 4.3 y supongase ahora
que se dan los hechos H = cierto, I = cierto, K = cierto y M = falso. Esto se ilustra
en la Figura 4.6, donde los objetos con valores conocidos (los hechos) aparecen Som-
breados y la variable objetivo se muestra rodeada por una circunferencia. Supongase,
238 CAP

ITULO 4. SISTEMAS DE RAZONAMIENTO


Figura 4.4: Figura que muestra una representacion graca de las relaciones entre las
seis reglas de la Figura 4.3.
en primer lugar, que el motor de inferencia usa las dos reglas de inferencia Modus
Ponens y Modus Tol lens. Entonces, aplicando el algoritmo para el encadenamiento
de reglas descrito, se obtiene
1. La Regla 3 concluye que J = cierto (Modus Ponens).
2. La Regla 6 concluye (Modus Tol lens) que K = falso o L = falso, pero, puesto que
K = cierto, debera ser L = falso.
3. La Regla 5 concluye (Modus Tol lens) que G = falso o J = falso, pero, puesto que
J = cierto, debera ser G = falso.
En consecuencia, se obtiene la conclusion G = falso. Sin embargo, si el motor de in-
ferencia solo utiliza la regla de inferencia Modus Ponens, el algoritmo se detendra en
la Etapa 1, y no se concluira nada para el objeto G. Este es otro ejemplo que ilus-
tra la utilidad de la regla de inferencia Modus Tol lens. Note que la estrategia de
4.2. SEM

ANTICA DE LAS REGLAS DE PRODUCCI

ON 239
Figura 4.5: Un ejemplo que ilustra la estrategia de encadenamiento de reglas. Los no-
dos con valores conocidos aparecen sombreados y los n umeros en su interior indican
el orden en el que se concluyen los hechos.
encadenamiento de reglas, diferencia claramente entre la memoria de trabajo y la
base de conocimiento. La memoria de trabajo contiene datos que surgen durante el
periodo de consulta. Las premisas de las reglas se comparan con los contenidos de la
memoria de trabajo y cuando se obtienen nuevas conclusiones son pasadas tambien
a la memoria de trabajo.
Ejemplo 3. En este ejemplo, el dominio va estar representado por ocho objetos (p,
q, r, s, t, u, v, w) y el conjunto de reglas que representan el conocimiento de este
dominio son las siguientes:
R
1
: p q meta
R
2
: r s p
R
3
: w r q
240 CAP

ITULO 4. SISTEMAS DE RAZONAMIENTO


Figura 4.6: Figura que ilustra otro ejemplo del algoritmo de encadenamiento de
reglas. Los nodos con valores conocidos aparecen sombreados, la variable objetivo
se muestra rodeada por una circunferencia, y los n umeros del interior de los nodos
indican el orden en el que se concluyen los hechos.
R
4
: t u q
R
5
: v s
R
6
: inicio v r q
En este ejemplo, meta indica el objetivo de este sistema de produccion, lo cual indica
que, cuando este elemento se encuentre en la memoria de trabajo el programa se
detiene. El elemento inicia, indica el comienzo de ejecucion del programa (iteracion
0). En la Tabla 4.1 se muestra la secuencia de pasos que sigue este sistema desde
que inicia hasta que alcanza su objetivo. A continuacion se ofrece una descripcion
detallada de estos pasos.
Iteracion 0. El sistema inicia su operacion con la regla R
6
almacenada en la memo-
4.2. SEM

ANTICA DE LAS REGLAS DE PRODUCCI

ON 241
Cuadro 4.1: Ilustracion de la informacion inicial almacenada en la memoria de tra-
bajo y su variacion en cada iteracion cuando se aplica un enfoque de razonamiento
basado en el encadenamiento de reglas hacia adelante o dirigido por datos.
Iter. Memoria de trabajo reglas activadas Regla seleccionada
0 inicio 6 6
1 inicio, v, r, q 6, 5 5
2 inicio, v, r, q, s 6, 5, 2 2
3 inicio, v, r, q, s, p 6, 5, 2, 1 1
4 inicio, v, r, q, s, t, meta 6, 5, 2, 1 alto
ria de trabajo. Al encontrarse solamente este elemento en la memoria de trabajo la
unica regla que se activa es R
6
.
Iteracion 1. Al ejecutarse R
6
se almacena su consecuente (v, r, q) como resultado
de realizar la accion indicada por la misma, por lo que, la memoria de trabajo se
modica y cambia su contenido actual (inicio) a inicio, v, r, q. Al estar estos elemen-
tos almacenados en la memoria de trabajo, se activan las reglas R
6
y R
5
ya que los
antecedentes de las mismas (inicio, v) se encuentran almacenados en este momento
en tal memoria. La seleccion de reglas es por orden ascendente y de activacion. POr
lo tanto, se selecciona R
5
para su ejecucion.
Iteracion 2. En esta iteracion y como resultado de la ejecucion de R
5
la memoria
de trabajo sufrio una variacion. El consecuente de R
5
paso a formar parte de la
memoria de trabajo actual, por lo que, esta paso de tener los elementos inicio, v, r,
q a inicio, v, r, q, s. Con estos elementos almacenados en la memoria de trabajo, se
activa una nueva regla R
2
a nadiendose a las dos anteriores, ya que el antecedente
de R
2
(p) se encuentra almacenado en la actual memoria. Siguiendo la seleccion de
reglas por orden ascendente (2, 5, 6) y secuencia de activacion (2, 5, 6) la regla R
2
se selecciona para su ejecucion.
Iteracion 3. Al realizarse la ejecucion de R
2
su consecuente (p) pasa a formar parte
de la memoria de trabajo. Por lo tanto, durante este ciclo (iteracion 3) la memoria
de trabajo contiene los siguientes elementos: inicio, v, r, q, s, p. Los elementos que
se encuentran en este momento en la memoria activa causa que se active una nueva
regla (R
1
) a nadiendose a las que ya estaban activadas. Por lo tanto, la regla R
1
es
seleccionada para su ejecucion.
242 CAP

ITULO 4. SISTEMAS DE RAZONAMIENTO


Iteracion 4. En esta iteracion se ejecuta la regla R
1
y como resultado se almacena
en la memoria de trabajo el consecuente (meta) de la misma. Por lo tanto, en este
momento, ya se tiene en la memoria de trabajo el elemento objeto del sistema de
produccion: meta. Asimismo, ninguna nueva regla ha sido activada. Por lo que el
sistema se detiene.
Resumiendo lo que se realiza en este esquema de razonamiento:
Se inicia con una descripcion del problema (elementos que describen el dominio).
Se inicia la aplicacion de reglas de inferencia con el n de inferir nuevo conocimiento.
Este proceso continua hasta que un estado objetivo es alcanzado.
Este enfoque se ajusta perfectamente al modelo de producion, debido a:
1. El estado actual del mundo se coloca en la memoria de trabajo.
2. El ciclo reconocimiento acci on empareja el estado actual con la parte de condi-
cion de las reglas de produccion.
3. Realiza la accion indicada en la regla seleccionada, la cual agrega nueva informa-
cion al estado actualen la memoria de trabajo o modica la ya existente.
4.2.2. Conocimiento de diagnostico
En la mayora de los sistemas actuales un diagnostico se realiza a peticion del usuario
y analizando los datos disponibles hasta el momento. Sin embargo, en numerosos
sistemas dinamicos, como son las plantas industriales continuas, se requieren tecni-
cas que monitoricen continuamente el funcionamiento del sistema, iniciando au-
tomaticamente un proceso de diagnosis tan pronto se detecte alguna anomala, y
posiblemente, analizando la evolucion del sistema a partir de la deteccion. En es-
tos sistemas se utilizan las reglas para examinar un conjunto de datos y solicitar
nueva informacion hasta llegar a un diagnostico. Estos problemas generalmente se
enfocan en sistemas de produccion con un esquema de razonamiento basado en el
encadenamiento de reglas hacia atras o dirigido por objetivos. Una descripcion de
este metodo de mostrara a continuacion.
Encadenamiento de reglas hacia atras o dirigido por objetivos. El algo-
ritmo de encadenamiento de reglas orientado a un objetivo requiere que el usuario
determine una variable o nodo objetivo; entonces el algoritmo navega a traves de las
reglas en b usqueda de una conclusion que soporte el objetivo. Si no se obtiene ningun
soporte con la informacion existente, entonces el algoritmo solicita nuevamente la
intervencion del usuario en busca de nueva informacion sobre los elementos que son
4.2. SEM

ANTICA DE LAS REGLAS DE PRODUCCI

ON 243
relevantes para obtener informacion relacionada con el objetivo.
Algoritmo de encadenamiento de reglas hacia atras
Deducir el conocimiento necesario para demostrar un hecho.
Comienza jando un hecho o meta a demostrar.
Se busca la regla que contiene dicho hecho como consecuente y se demues-
tran los hechos del antecedente de la regla.
El objetivo es demostrar una meta.
Descripcion del algoritmo.
Datos: Una base de conocimiento (objetos y reglas que los relacionan), algunos he-
chos iniciales, y un nodo o variable objetivo.
Resultado: El valor del nodo o variable objetivo.
1. Asigna a los objetos sus valores conocidos tales como estan dados en los hechos
iniciales, si es que existen. Marcar todos los objetos cuyo valor ha sido asignado.
Si el nodo objetivo esta marcado ir a 7; en otro caso:
(a) Designar como objetivo inicial el objetivo en curso.
(b) Marcar el objetivo en curso.
(c) Sea ObjetivosPrevios = , donde es el conjunto vacio.
(d) Designar todas las reglas como activas (ejecutables).
(e) Ir a 2.
2. Encontrar una regla activa que incluya el objetivo en curso y ninguno de los ob-
jetos en ObjetivosPrevios.
Si se encuentra una regla, ir a 3; en otro caso, ir a 5.
3. Ejecutar la regla referente al objetivo en curso. Si concluye, asignar el valor con-
cluido al objetivo en curso, e ir a 6; en otro caso, ir a 4.
4. Si todos los objetos de la regla estan marcados, declarar la regla como inactiva e
ir a 2; en otro caso:
244 CAP

ITULO 4. SISTEMAS DE RAZONAMIENTO


(a) Anadir el objetivo en curso a ObjetivosPrevios.
(b) Designar uno de los objetos no marcados en la regla
(c) Marcar el objetivo en curso.
(d) Ir a 2.
5. Si el objetivo en curso es el mismo que el objetivo inicial, ir a 7; en otro caso,
preguntar al usuario por el valor del objetivo en curso. Si no se da un valor, ir a 6;
en otro caso asignar al objeto el valor dado e ir a 6.
6. Si el objetivo en curso es el mismo que el objetivo inicial, ir a 7; en otro caso,
designar el objetivo previo como objetivo en curso, eliminarlo de ObjetivosPrevios,
e ir a 2.
7. Devolver el valor del objetivo si es conocido.
A continuacion se muestran unos ejemplos para comprender la operacion del enca-
denamiento de reglas dirigido por objetivos.
Ejemplo 1. Considere las seis reglas de las Figuras 4.3 y 4.4 y suponga que se
selecciona el nodo M como nodo objetivo ademas se sabe que los objetos D, E, F,
y L son ciertos. Estos nodos se muestran sombreados en la Figura 4.7. Las etapas
del algoritmo de encadenamiento de reglas orientado a un objetivo se ilustran en la
Figura 4.7, donde el n umero en el interior de un nodo indica el orden en el que se
visita cada nodo. Las etapas que describen la operacion del sistema de produccion
en este ejemplo son las siguientes:
Etapa 1: Se asigna el valor cierto a los objetos D, E, F y L y se marcan. Puesto que
el nodo objetivo M no esta marcado, entonces
Se designa el objeto M como objeto en curso.
Se marca el objeto M. Por tanto, se tiene ObjetosMarcados = D,E, F,L,
M.
ObjetivosPrevios = .
Las seis reglas estan activas. Por tanto, se tiene ReglasActivas = 1,2,
3,4,5,6.
Se va a la Etapa 2.
Etapa 2. Se busca una regla que incluya el objetivo en curso M. Se encuentra la
4.2. SEM

ANTICA DE LAS REGLAS DE PRODUCCI

ON 245
Regla 6, por lo que se va a la Etapa 3..
Etapa 3. La Regla 6 no puede concluir puesto que el valor del objeto K es decono-
cido. Por lo tanto, se va a la etapa 4.
Etapa 4. El objeto K no esta marcado. Entonces
ObjetivosPrevios = M.
Se elige el objeto K como objetivo en curso.
El objeto K esta marcado. Por tanto se tiene, ObjetosMarcados = D, E,
F, L, M, K.
Se va a la Etapa 2.
Etapa 2. Se busca una regla que incluya el objetivo en curso K pero no el anterior
M. Se encuentra la Regla 4, y se continua con la Etapa 3.
Etapa 3. La Regla 4 no puede concluir puesto que se desconocen los valores de los
objetos C y G. Por ello, se continua con la Etapa 4.
Etapa 4. Los objetos C y G no estan marcados. Entoncess
ObjetivosPrevios = M, K.
Se elige uno de los objetos no marcados C o G como el nuevo objetivo en
curso. Supongase que se elige C.
Se marca el objeto C.
Por tanto, se tiene ObjetosMarcados = D, E, F, L, M, K, C.
Se contin ua con la Etapa 2.
Etapa 2. Se busca una regla activa que incluya el objetivo en curso C pero no objetos
que se va a la Etapa 3.
Etapa 3. La Regla 1 no puede concluir puesto que se desconocen los C pero no los
objetos previos M, K. Se encuentra la Regla 1, as concluir valores de los objetos A
y B. Por tanto se continua con la Etapa 4.
Etapa 4. Los objetos A y B no estan marcados. Entoncess
246 CAP

ITULO 4. SISTEMAS DE RAZONAMIENTO


Figura 4.7: Figura que ilustra un ejemplo del algoritmo de encadenamiento de reglas
orientado a un objetivo. Los nodos cuyo valor es conocido se han sombreado, el nodo
objetivo se ha rodeado por una circunferencia, y el n umero en el interior de un nodo
indica el orden en el que se visita cada nodo.
4.2. SEM

ANTICA DE LAS REGLAS DE PRODUCCI

ON 247
ObjetivosPrevios = M, K, C.
Se elige uno de los objetos no marcados A y B como nuevo objetivo en
curso. Supongase que se elige A.
Se marca el objeto A. Por lo tanto, ObjetosMarcados = D, E, F, L, M, K,
C, A.
Se continua con la Etapa 2.
Etapa 2. Se busca una regla activa que incluya el objetivo en curso A pero no los
objetivos previos M, K, C. No se encuentra ninguna regla que satisfaga estas condi-
ciones, as que se pasa a la Etapa 5.
Etapa 5. Puesto que el objetivo en curso A es diferente del inicial M, se pregunta al
usuario por el valor del objeto A. Supongase que A toma el valor cierto, entonces se
hace A = cierto y se sigue con la Etapa 6.
Etapa 6. El objetivo en curso A no coincide con el previo M. Por tanto, el objeto C
se designa como objetivo en curso y se elimina de la lista ObjetivosPrevios. Por ello,
ObjetivosPrevios = M,K y se continua con la Etapa 2.
Etapa 2. Se busca una regla activa que incluya el objetivo C pero no los anteriores
M, K. Se encuentra la Regla 1, por lo que se va a la Etapa 3.
Etapa 3. La Regla 1 no puede concluir porque el valor del objeto B es desconocido.
As que se va a la Etapa 4.
Etapa 4. El objeto B no esta marcado. Entonces
ObjetivosPrevios = M, K, C.
Se elige como objetivo en curso el unico objeto no marcado, B.
Se marca el objeto B. Por lo tanto, ObjetosMarcados = D, E, F, L, M, K,
C, A, B.
Se va a la Etapa 2.
Etapa 2. Se busca una regla activa que incluya el objetivo B pero no los objetivos
previos M,K,C. Como no se encuentra ninguna regla, se va a la Etapa 5.
Etapa 5. Puesto que el objetivo en curso B no coincide con el inicial M, se pregunta
al usuario el valor del objetivo en curso B. Supongase que se da un valor cierto a B,
entonces se hace B = cierto y se va a la Etapa 6.
248 CAP

ITULO 4. SISTEMAS DE RAZONAMIENTO


Etapa 6. Como el objetivo en curso B no coincide con el inicial M, se designa el
objetivo previo C como objetivo en curso y se elimina de ObjetivosPrevios. Por ello,
ObjetivosPrevios = M, K y se va a la Etapa 2.
Etapa 2. Se busca una regla activa que incluya el objetivo en curso C pero no los
anteriores M, K. Se encuentra la Regla 1, por lo que se va a la Etapa 3.
Etapa 3. Puesto que A = cierto y B = cierto, entonces C = cierto por la Regla 1.
Ahora se va a la Etapa 6.
Etapa 6. El objetivo en curso C no coincide con el inicial M. Entonces, se designa el
objetivo previo K como objetivo en curso y se elimina de ObjetivosPrevios. Por ello,
ObjetivosPrevios = M y se va a la Etapa 2.
Etapa 2. Se busca una regla activa que incluya el objetivo en curso K pero no los
anteriores M. Se encuentra la Regla 4, por lo que se va a la Etapa 3.
Etapa 3. La Regla 4 no puede concluir puesto que el valor del objeto G es descono-
cido. Por tanto, se va a la Etapa 4.
Etapa 4. El objeto G no esta marcado. Entonces
ObjetivosPrevios = M, K.
El unico objeto no marcado G se elige como objetivo en curso.
Se marca el objeto G. Por lo tanto, ObjetosMarcados = D, E, F, L, M,
K, C, A, B, G.
Se va a la Etapa 2.
Etapa 2. Se busca una regla activa que incluya el objetivo en curso G pero no los
anteriores M, K. Se encuentra la Regla 2, por lo que se va a la Etapa 3.
Etapa 3. Puesto que D = cierto, E = cierto y F = cierto, entonces G = cierto por
la Regla 2. Ahora se va a la Etapa 6.
Etapa 6. El objetivo en curso G no coincide con el inicial M. Entonces, se designa
el objetivo previo K como objetivo en curso y se elimina de ObjetivosPrevios. Por lo
que, ObjetivosPrevios = M y se va a la Etapa 2.
4.2. SEM

ANTICA DE LAS REGLAS DE PRODUCCI

ON 249
Etapa 2. Se busca una regla activa que incluya el objetivo en curso K pero no los
anteriores M. Se encuentra la Regla 4, por lo que se va a la Etapa 3.
Etapa 3. Puesto que C = cierto y G = cierto, entonces K = cierto por la Regla 4.
Seguidamente se va a la Etapa 6.
Etapa 6. El objetivo en curso K no coincide con el inicial M. Entonces, se designa
el objetivo previo M como objetivo en curso y se elimina de ObjetivosPrevios. Por
ello, ObjetivosPrevios = y se va a la Etapa 2.
Etapa 2. Se busca una regla activa que incluya el objetivo en curso M. Se encuentra
la Regla 6, por lo que se va a la Etapa 3.
Etapa 3. Puesto que KK = cierto y L = cierto, entonces M = cierto por la Regla
6. Ahora se va a la Etapa 6.
Etapa 6. El objetivo en curso M coincide con el inicial. En consecuencia, se va a la
Etapa 7.
Etapa 7. El algoritmo devuelve el valor M = cierto.
Cabe considerar que, a pesar de que los objetos H, I y J tienen valores desconocidos,
el algoritmo orientado a un objetivo ha sido capaz de concluir el valor del objetivo
M. La razon de este resultado esta en que el conocimiento del objeto L convierte al
conocimiento de los objetos H, I y J es irrelevante para el conocimiento del objeto
M. Las estrategias de encadenamiento de reglas se utilizan en problemas en los que
algunos hechos (por ejemplo, sntomas) se dan por conocidos y se buscan algunas
conclusiones (por ejemplo, enfermedades). Por el contrario, las estrategias de enca-
denamiento de reglas orientadas a un objetivo se utilizan en problemas en los que
se dan algunos objetivos (enfermedades) y se buscan los hechos (sntomas) para que
estas sean posibles.
Compilacion de reglas. Otra forma de tratar con reglas encadenadas consiste en
comenzar con un conjunto de datos (informacion) y tratar de alcanzar algunos obje-
tivos. Esto se conoce con el nombre de compilacion de reglas. Cuando ambos, datos
y objetivos, se han determinado previamente, las reglas pueden ser compiladas, es
decir, pueden escribirse los objetivos en funcion de los datos para obtener las lla-
madas ecuaciones objetivo. La compilacion de reglas se comprenden mejor a traves
250 CAP

ITULO 4. SISTEMAS DE RAZONAMIENTO


del siguiente ejemplo.
Ejemplo 2: Compilacion de reglas. Considerese el conjunto de seis reglas de la Figu-
ra 4.4 y suponga que son conocidos los valores de los objetos A, B, D, E,F,H, e I y
que los restantes objetos, C, G,J,K,L y M, son objetivos. Denotemos por el op-
erador logico y; entonces, utilizando las seis reglas, pueden obtenerse las siguientes
ecuaciones objetivo:
La Regla 1 implica C = A B
La Regla 2 implica G = D E F
La Regla 3 implica J = H I
La Regla 4 implica K = C G = (A B) (D E F)
La Regla 5 implica L = G J = (D E F) (H I)
La Regla 6 implica M = K L = A B D E F H I
Las tres primeras ecuaciones son equivalentes a las tres primeras reglas. Las tres
ecuaciones objetivo son, respectivamente, equivalentes a las reglas siguientes:
Regla 4a: Si A y B y D y E y F, entonces K.
Regla 5a: Si D y E y F y H e I, entonces L.
Regla 6a: Si A y B y D y E y F y H e I, entonces M.
Por lo que, si, por ejemplo, cada uno de los objetos A, B, D, E, F, H, I toma el valor
cierto, entonces se obtiene de forma inmediata, a partir de las Reglas 4a, 5a y 6a,
que los objetos K, L, M deben ser ciertos.
Ejemplo 3. Se va a proporcionar un tercer enfoque al uso de los sistemas de pro-
duccion para resolver problemas aplicando el encadenamiento hacia atras, regresivo
o dirigido por objetivos como razonamiento. En este caso, el dominio del problema
se describe por los siguientes ocho elementos: p, q, r, s, t, u, v, w. Las reglas que rep-
resentan el conocimiento en relacion a los elementos del dominio son las siguientes:
R
1
: p q meta
R
2
: r s p
R
3
: w r p
R
4
: t u q
R
5
: v s
R
6
: inicio v r q
4.2. SEM

ANTICA DE LAS REGLAS DE PRODUCCI

ON 251
Cuadro 4.2: Ilustracion de la informacion inicial almacenada en la memoria de tra-
bajo y su variacion en cada iteracion cuando se aplica un enfoque de razonamiento
basado en el encadenamiento de reglas hacia atras o dirigido por objetivos.
Iter. Memoria de trabajo reglas activadas Regla seleccionada
0 meta 1 1
1 meta, p, q 1, 2, 3, 4 2
2 meta, p, q, r, s 1, 2, 3, 4, 5 3
3 meta, p, q, r, s, w 1, 2, 3, 4, 5 4
4 meta, p, q, r, s, w, t, u 1, 2, 3, 4, 5 5
5 meta, p, q, r, s, w, t, u, v 1, 2, 3, 4, 5, 6 6
6 meta, p, q, r, s, w, t, u, v, inicio 1, 2, 3, 4, 5, 6 alto
En la Tabla 4.2 se muestra la secuencia de pasos que se realizan con el n de apoyar
el objetivo inicial. Asimsimo, se muestran los elementos del sistema de produccion y
sus valores en cada ciclo de operacion del mismo bajo este enfoque de razonamiento.
A continuacion se ofrece una descripcion detallada de lo que se muestra en esta Tabla.
Iteracion 0. En este tipo de razonamiento, el elemento objeto del sistema se coloca
de forma inicial en la memoria de trabajo. Por lo tanto, y de acuerdo a los elementos
manejados en este ejemplo, el elemento meta es almacenado en tal memoria, esto
causa que se active R
1
. Las reglas se van a elegir de acuerdo a un orden ascendente
(1, 2, ...) y por su activacion mas reciente. Asimismo, no se permite la ejecucion de
reglas repetidas. Bajo estas indicaciones se va a proceder a describir la secuencia
de ejecucion de este sistema. Sin embargo, como R
1
contiene como consecuente al
elemento objetivo que se va a almacenar en la memoria de trabajo, este sistema
inicia su ejecucion activando a esta regla, es decir a R
1
.
Iteracion 1. La ejecucion de R
1
causa que su antecedente (p, q) se almacene en
la memoria de trabajo, como un primer paso para buscar el soporte que apoye al
estado objetivo (meta). Por lo tanto, en esta iteracion, la memoria de trabajo con-
tiene a los elementos: meta, p, q. Como resultado de los elementos existentes en la
memoria de trabajo, se activan las reglas R
2
, R
3
, y R
4
ya que sus consecuentes (p,
p, q) emparejan con los elementos de la memoria de trabajo. Seleccionando como
prioridad el orden, se elige a R
2
para su ejecucion.
Iteracion 2. Al ejecutarse en esta iteracion la regla R
2
su antecedente (r, s) se
almacena en la memoria de trabajo. Por lo tanto, la memoria mantiene en este mo-
252 CAP

ITULO 4. SISTEMAS DE RAZONAMIENTO


mento los siguientes elementos: meta, p, q, r, s. Los nuevos elementos a nadidos a la
memoria causa que se active ademas de las reglas ya activadas una nueva regla R
5
.
Ya que la prioridad de seleccion es de acuerdo con el orden ascendente, se elige a
R 3 para su ejecucion (disparo).
Iteracion 3. En este ciclo y como consecuencia de haberse ejecutado R
3
sus an-
tecedentes (w, r) son a nadidos a los elementos que ya existan en la memoria de
trabajo. Por lo que, los elementos almacenados en este momento son los siguientes:
meta, p, q, r, s, w. Se observa que se a nade un nuevo elemento (w) los ya existentes,
sin embargo, no se activa ninguna regla nueva, por lo que, la regla seleccionada para
su ejecucion es en orden secuencial R
4
.
Iteracion 4. En esta iteracion del ciclo del programa se realiza la ejecucion de R
4
,
esto ocasiona que su antecedente (t, u) sea agregado en la memoria de trabajo. Por
lo tanto, los elementos en este momento almacenados en tal memoria son: meta, p,
q, r, s, w, t, u. Sin embargo, con estos elementos no se activa ninguna regla en este
ciclo, por lo que se elige para su ejecucion de las reglas previamente activadas la que
sigue en el orden secuencial: R
5
.
Iteracion 5. Como resultado de ejecutar R
5
su antecedente (v) se almacena en la
memoria de trabajo, quedando esta descrita con los siguientes elementos: meta, p, q,
r, s, w, t, u, v. Se observa que existen en la memoria activa los elementos necesarios
para activar la regla R
6
cuyo antecedente es el elemento inicio, el cual soporta al
elemento objetivo (meta) de este ejemplo. Al observar a estos dos elementos en la
memoria de trabajo el sistema de produccion detiene su ejecucion.
Resumiendo la secuencia de pasos que requiere este esquema de razonamiento:
i) El objetivo se coloca de forma inicial en la memoria de trabajo.
ii) Se busca la correspondencia (emparejamiento) del objetivo (ya almacenado en la
memoria de trabajo) con la parte que corresponde al consecuente de las reglas de
produccion.
iii) Cuando un elemento de esta parte (consecuente) es emparejado, el antecedente de
esta regla se agrega en la memoria de trabajo y se convierte en una nueva submeta.
iv) Este proceso de emparejamiento contin ua hasta que todos los hechos son encon-
trados.
4.3. ARQUITECTURA DE UN SISTEMA DE PRODUCCI

ON 253
4.3. Arquitectura de un sistema de produccion
En la Figura 4.8 se muestra la arquitectura de un sistema basado en reglas de pro-
duccion. A continuacion se ofrece una breve descripcion de cada componente, ya que
en secciones posteriores se tratara cada una de ellas.
1. Base de Conocimientos (BC). Es el componente de un sistema de produccion
que mantiene todo el conocimiento del mismo estructurado como un conjunto de
reglas.
2. Memoria Activa (MA). Formada por una coleccion de hechos, representando
el estado actual del problema. Act ua como disparador del motor de inferencias,
reeja los cambios en el conocimiento del sistema, interact ua con el mundo exterior
(usuario, bases de datos, etc...). Este componente contiene los datos iniciales del
problema mas los datos integrados posteriormente, as como los hechos establecidos
durante el proceso de inferencia, hipotesis de trabajo, metas y submetas a un no con-
rmadas. Almacena el mecanismo que determina la activacion de reglas, es decir,
el conjunto de las instancias de reglas que estan en condiciones de ser ejecutadas
aplicando un enfoque de encadenamiento hacia adelante (de los antecedentes a los
consecuentes) o encadenamiento hacia atras (de los consecuentes a los antecedentes).
3. Motor de Inferencias (MI). Es el componente del sistema de produccion que
controla el funcionamiento del mismo. Esto comprende la seleccion y ejecucion de re-
glas, procesos de emparejamiento (seleccion de reglas activas), y manejo de rutinas
externas. El MI es un componente separado e independiente de la BC. Su fun-
cionamiento es similar a los procesos de b usquedas en espacio de estados, es decir,
tiene un estado el cual esta representado por conjuntos de hechos almacenados
en la MA, Operadores representados por las reglas que integran la base de reglas.
Asimismo, el MI a su vez esta formado por un interprete y por estructuras de control.
4.3.1. Base de hechos
La Base de hechos (Memoria Activa o Memoria de Trabajo) es el componente
del sistema de produccion que describe el estado actual del mundo en un proceso
de razonamiento. Generalmente, en esta estructura computacional se almacenan los
elementos utilizados para emparejar la parte de condici on/premisa de una regla de
produccion y al encontrar una coincidencia la accion correspondiente al consecuente
de la regla es realizada. En este momento, la accion de una regla de produccion se
usa para alterar el contenido de la MA.
254 CAP

ITULO 4. SISTEMAS DE RAZONAMIENTO


Figura 4.8: Arquitectura de un sistema basado en reglas.
Generalmente, la MA esta formada por un conjunto de elementos cuya forma esta de-
terminada por la sintaxis de las reglas utilizadas, algunos ejemplos de estos elementos
son:
(persona edad:35, hogar:Acapulco)
(alumno nombre:Juan carrera:ISC escuela:ITA)
Bajo el formato anterior, se puede ver que la forma de representar a cada elemento
en la memoria de trabajo en los sistemas de produccion es muy similar a una senten-
cia declarativa de tipo existencial en la representacion mediante logica de predicados.
Para tener una idea mas precisa acerca de la funcion de la memoria de trabajo du-
rante la ejecucion de un sistema basado en reglas, veamos el siguiente ejemplo.
Suponga que se tiene un sistema de produccion con 8 reglas (R
1
, R
2
, ..., R
8
) alma-
cenadas en la base de conocimientos, donde cada regla esta denida de la siguiente
manera:
R
1
: Si B y C Entonces Z
R
2
: Si C(x) y D(y) Entonces H(x)
R
3
: Si F o A Entonces I
R
4
: Si I y J Entonces K
R
5
: Si A y H(x) Entonces Y
R
6
: Si H(x) y E Entonces J
R
7
: Si K y E Entonces X
R
8
: Si H(x) y J Entonces X
4.3. ARQUITECTURA DE UN SISTEMA DE PRODUCCI

ON 255
El contenido inicial de la memoria activa es: MA
0
: A, C(7), D(8), E, F, (X). Donde
(X) representa una hipotesis y A, C, D, E y F son los hechos iniciales. Para este
ejemplo se va a suponer que el motor de inferencias funciona bajo un enfoque de
razonamiento hacia adelante. La activacion de cada regla se realiza cuando el an-
tecedente de la misma se hace corresponder con los hechos descritos en la memoria
de trabajo. La resolucion de conictos se basa en lo siguiente: (i) la seleccion de las
reglas para su ejecucion es de acuerdo a su ordenamiento (activacion mas reciente),
(ii) se debe dar preferencia a reglas nunca ejecutadas, (iii) evitar en lo posible repetir
la ejecucion de reglas.
Una vez denidos los hechos iniciales almacenados en la MA, el mecanismo de op-
eracion del motor de inferencias y de resolucion de conictos, se van a mostrar los
pasos seguidos por el motor de inferencias y demas mecanismos involucrados en un
sistema de producion desde que inicia su operacion hasta que se detiene. En este
ejemplo, el sistema se va a detener cuando la hipotesis X se encuentre en la memoria
de trabajo.
Paso 1. Se activan las reglas R
2
y R
3
ya que sus antecedentes (C(7) y D(8)) y (F
o A) coinciden con elementos que se encuentran en este momento en la memoria
de trabajo. Se ejecuta R
2
(primera regla en orden de las dos activadas), al ejecu-
tarse esta regla MA
0
cambia a MA
1
: A, C(7), D(8), E, F, H(7). Se observa que
se agrega el elemento H(7) en la memoria de trabajo, el cual es el consecuente de la
regla 2, habiendo reemplazado el valor de X por 7 indicado en H(x). Debido que X
a un no se encuentra en la memoria de trabajo, el proceso contin ua.
Paso 2. Al estar presente el elemento H(7) en la memoria de trabajo, hace que
se activen las reglas R
5
(antecedente: A y H(X)) y R
6
(antecedente: H(X) y E),
de esta manera, en este paso se selecciona a R
5
para su ejecucion (es la regla de
ordenamiento mas reciente). Por lo tanto, la memoria de trabajo cambia a MA
2
:
A, C(7), D(8), E, F, H(7), Y . En este paso, se observa que se agrega el elemento Y
a la memoria de trabajo, el cual es el consecuente de la regla 5. Ya que la hipotesis X
a un no se encuentra en la memoria de trabajo el proceso contin ua. Hay que recordar
que en este momento existen dos reglas (R
6
y R
3
) que se encuentran activadas pero
que no se han ejecutado. Siendo R
6
la de activacion mas reciente.
Paso 3. Con los elementos que se encuentran en este momento en la memoria de
trabajo no se activa ninguna regla nueva, por lo que se procede a ejecutar la regla
activada de manera mas reciente (R
6
). La ejecucion de esta regla ocasiona que se
256 CAP

ITULO 4. SISTEMAS DE RAZONAMIENTO


agregue a la memoria de trabajo el elemento J, quedando la memoria de trabajo
actual como MA
3
: A, C(7), D(8), E, F, H(7), Y, J. Se observa que la hipotesis X
a un no se encuentra en la memoria de trabajo activa por lo que el proceso continua.
En este momento hay una regla activada (R
3
) que a un no se ha ejecutado.
Paso 4. El nuevo elemento (J) que se encuentra en la memoria de trabajo hace que
se dispare la regla 8, ya que su antecedente (H(X) y J) corresponde con elementos
que existen en la memoria de trabajo. La ejecucion de R
8
hace que el consecuente
X de la misma pase a la memoria de trabajo. Al analizar la memoria de trabajo y
observar que el elemento X ya se encuentra en la misma, el proceso se detiene.
A continuacion se muestra otro ejemplo para observar la variacion en la memoria de
trabajo durante la operacion de un sistema de produccion. En este caso, el sistema
de produccion tiene por objetivo ordenar una cadena formada por las letras a, b, y
c. La descripcion del sistema es la siguiente:
Reglas almacenadas en la Base de Conocimientos:
R
1
: Si ba Entonces ab
R
2
: Si ca Entonces ac
R
3
: Si cb Entonces bc
En la Tabla 4.3 muestra los cambios en la memoria de trabajo dependiendo de la
regla seleccionada a partir de los datos iniciales formados por la cadena: cbaca. La
explicacion de los datos mostrados en esta tabla se da a continuacion:
Iteracion 0. El programa inicia su ejecucion en este momento, los datos iniciales
en la memoria de trabajo son la cadena: cbaca, las reglas activadas son en este caso
las 3 que se encuentran almacenadas en la base de conocimientos, es decir: R
1
, R
2
,
y R
3
debido a que sus antecedentes ba, ca, y cb se encuentran almacenados en la
memoria de trabajo. Las reglas se van a seleccionar por orden de activacion o bien
que generen cambios en la memoria de trabajo. Por lo tanto, en este caso se va a
seleccionar para su ejecucion R
1
.
Iteracion 1. En esta iteracion, se ejecuta R
1
, al hacerlo la cadena ba (antecedente
de R
1
) es cambiada a ab (accion de R
1
). Este cambio se observa en la memoria
de trabajo, modicando la cadena cbaca a cabca. Esta variacion solo provoca la
reactivacion de R
2
, ya que es el unico antecedente que se encuentra en la memoria
de trabajo. Por lo tanto, R
2
es la regla activada de manera mas reciente y es la
4.3. ARQUITECTURA DE UN SISTEMA DE PRODUCCI

ON 257
Cuadro 4.3: Ilustracion de la informacion inicial almacenada en la memoria de tra-
bajo y su variacion en cada iteracion de acuerdo con la regla seleccionada.
Iter. Memoria de trabajo reglas activadas Regla seleccionada
0 cbaca 1, 2, 3 1
1 cabca 2 2
2 acbca 2, 3 2
3 acbac 1, 3 1
4 acabc 2 2
5 aacbc 3 3
6 aabcc vaco paro
seleccionada para su ejecucion.
Iteraci on 2. En esta iteracion, la memoria de trabajo mantiene la cadena acbca por
lo que se activan las reglas R
2
y R
3
ya que sus antecedentes (ca, cb) se encuentran
en la memoria de trabajo. La regla seleccionada es R
2
, la primera en orden de las
activadas recientemente. La ejecucin de R
2
causa cambios en la memoria activa y
lleva al programa a la siguiente iteracion.
Iteracion 3. Durante la iteracion 3, la ejecucion de R
2
causo que su antecedente
ca cambiara a ac reejandose este cambio en la memoria activa observandose como
acbac. La modicacion causada en la memoria ocasiona que se activen las reglas
R
1
y R
3
cuyos antecedentes (ba, cb) aparecen en la memoria. Por lo tanto, la regla
seleccionada para ser ejecutada (disparada) es R
1
, ya que se seleccionan por orden
y reciente activacion.
Iteracion 4. En este ciclo, la ejecucion de R
1
causo que su consecuente (ab) se
realizara y modicara a la memoria de trabajo pasando esta de acbac a acabc. Esta
modicacion en la memoria activa hace que se active solamente la regla R
2
. Por lo
tanto, en este ciclo se ejecuta la regla seleccionada.
Iteracion 5. En la iteracion 5, la memoria de trabajo actual tiene almacenada la
cadena acabc. La ejecucion de R
2
hace que se realice el consecuente ac de esta regla,
haciendo que la memoria de trabajo cambie de acabc a aacbc. Esta modicacion en
la memoria actual, hace que la unica regla que pueda activarse sea R
3
ya que su
antecedente cb se encuentra en la memoria de trabajo. Por lo tanto, en este ciclo, la
regla R
3
se selecciona para su ejecucion.
258 CAP

ITULO 4. SISTEMAS DE RAZONAMIENTO


Iteracion 6. En esta iteracion, la regla seleccionada R
3
es ejecutada, haciendo que
se cumpla su consecuente bc. Por lo que, la memoria de trabajo actual que tiene
almacenada la cadena aacbc cambie su valor a aabcc. En este momento, la memo-
ria de trabajo mantiene una cadena ordenada, por lo que se estan cumpliendo los
antecedentes de su base de reglas. Por lo tanto, al no existir reglas activadas el pro-
grama se detiene.
Como se puede observar con estos sencillos ejemplos, los elementos que se encuentran
en la memoria de trabajo cambian constantemente, es decir, son dinamicos. A difer-
encia de los elementos que se encuentran almacenados en la base de conocimientos
los cuales son generalmente de naturaleza estatica.
4.3.2. Base de conocimientos
Como se ha mencionado, en los sistemas basados en reglas existen dos componentes
importantes: la base de conocimiento y los datos. Los datos estan formados por
la evidencia o los hechos conocidos de una situacion particular. Este elemento es
dinamico, es decir, puede cambiar de una aplicacion a otra. Por esta razon, no es de
naturaleza permanente y se almacena en la memoria de trabajo. Por otro lado, el
conocimiento se almacena en la base de conocimiento y consiste en un conjunto de
objetos y un conjunto de reglas que gobiernan las relaciones entre esos objetos. La
informacion almacenada en la base de conocimiento es de naturaleza permanente y
estatica, es decir, no cambia de una aplicacion a otra, a menos que se incorporen al
sistema mecanismos de aprendizaje.
Para tener una idea intuitiva de estas reglas, supongase que se tiene el conjunto de
objetos mostrados en la Tabla4.4, donde cada objeto puede tomar solamente uno de
los valores de su conjunto de valores posibles.
Algunos ejemplos de reglas que pueden estar almacenadas en la base de conocimien-
tos son las siguientes:
Regla 1: Si Nota > 9, entonces Calicaci on = Sobresaliente.
Regla 2: Si Posicion < 20 o Nota > 7, entonces Admitir = Si y Noticar = Si.
4.3. ARQUITECTURA DE UN SISTEMA DE PRODUCCI

ON 259
Cuadro 4.4: Conjunto de valores que pueden tomar los objetos indicados, los cuales
describen un dominio del estado academico que guarda un alumno en cierta insti-
tucion educativa.
Objeto Posibles valores
Nota 0, 1,..., 10
Calicacion Sobresaliente, Notable, Aprobado, Suspendido
Posicion 0, 1,...,100
Admitir Si, Pendiente, No
Noticar S, No
En general, tanto la premisa o antecedente como la conclusion de una regla pueden
contener m ultiples armaciones objeto : valor. Una expresion logica que contiene
solo una armacion objeto : valor se denomina expresion logica simple; en caso con-
trario se habla de una expresion logica compuesta. En las reglas anteriores, la Regla
1 es un ejemplo de expresion logica simple mientras que la Regla 2 es un caso de
expresion logica compuesta.
Enseguida se va a mostrar un ejemplo para determinar el conjunto de reglas que se
tienen que almacenar en la base de conocimientos de un sistema de produccion con
el n de resolver un problema practico relacionado con el retiro de efectivo de un
cajero automatico (CA).
Considere la situacion en la que un usuario (cliente) desea sacar dinero de su cuenta
corriente mediante un cajero automatico (CA). La descripci on de la secuencia de
pasos en este escenario es la siguienet:
En cuanto el usuario introduce la tarjeta en el CA, la maquina la lee y la verica.
Si la tarjeta no es vericada con exito (por ejemplo, porque no es legible), el CA
devuelve la tarjeta al usuario con el mensaje de error correspondiente. En otro ca-
so, el CA pide al usuario su n umero de identicacion personal (NIP). Si el n umero
fuese incorrecto, se dan tres oportunidades de corregirlo. Si el NIP es correcto, el
CA pregunta al usuario cuanto dinero desea sacar. Para que el pago se autorice, la
cantidad solicitada no debe exceder de una cierta cantidad lmite diaria, ademas de
haber suciente dinero en su cuenta.
El dominio del problema relacionado con el CA es decrito por los siguientes objetos:
Tarjeta, Fecha, NIP, Intentos, Fondo, Lmite, Pago. Los valores que cada uno de
260 CAP

ITULO 4. SISTEMAS DE RAZONAMIENTO


Cuadro 4.5: Conjunto de posibles valores que pueden tomar los objetos en el ejemplo
del Cajero Automatico.
Objeto Posibles valores
Tarjeta valida, no valida
Fecha expirada, no expirada
NIP correcto, incorrecto
Intentos excedidos, no excedidos
Fondo suciente, insuciente
Lmite excedido, no excedido
Pago autorizado, no autorizado
estos objetos puede tomar vienen denidos en la Tabla 4.5.
Algunas de las reglas que describen el dominio del CA son las siguientes:
Regla 1:
S
Tarjeta = vericada y
Fecha = no expirada y
NIP = correctos y
Intentos = no excedidos y
Fondo = suciente y
Lmite = no excedido
Entonces
Pago = autorizado
Regla 2:
Si
Tarjeta = no vericada
Entonces
Pago = no autorizado
Regla 3:
Si
Fecha = expirada
Entonces
Pago = no autorizado
4.3. ARQUITECTURA DE UN SISTEMA DE PRODUCCI

ON 261
En este ejemplo, se necesitan un total de siete reglas para contemplar todas las
posibles acciones de un usuario al intentar obtener dinero de su cuenta a traves de
un CA. En la Regla 1, el antecedente consiste en seis armaciones objeto : valor
enlazadas mediante el operador logico y, lo que indica que la premisa es cierta si
las seis armaciones lo son. Por ello, la Regla 1 relaciona el objeto Pago (en la con-
clusion) con los demas objetos. De acuerdo con esta regla, la accion que debe iniciar
el CA es dar el dinero al usuario si la tarjeta se ha vericado correctamente, la fecha
no ha expirado, el NIP es correcto, el n umero de intentos para dar el NIP correcto
no se ha excedido y la cantidad solicitada no excede ni la cantidad disponible ni
el lmite maximo diario. Las expresiones logicas en cada una de las reglas restantes
constan de una sola armacion. Notese que la Regla 1 indica cuando debe permitirse
el pago, y las restantes cuando debe rechazarse.
Las expresiones logicas de las Reglas 2 y 3 son simples, mientras que las expresiones
logicas de las premisas de la Regla 1 es compuesta. Asimismo, una regla formada
solamente por expresiones logicas simples se denomina una regla simple; en otro
caso, se llama regla compuesta. Por ejemplo, la Regla 1 es compuesta, mientras que
la Reglas 2 es simple.
Se va a proporcionar otro ejemplo con el n de entender mejor la estructura de la
base de conocimientos.
Suponga que se dispone de una base de datos con N individuos. Para cada individuo,
la base de datos almacena su descripcion a traves de cuatro objetos: nombre, sexo,
nacionalidad y profesion. Ademas, Suponga que la base de datos solo muestra si una
persona es americana, poltica y/o si es mujer. Cada uno de estos atributos es binario
(toma solo dos valores posibles). En este caso, la base de datos puede contener, a
lo mas 2
3
= 8 conjuntos disjuntos (ver Figura 4.9). La gura 4.9 muestra tambien
el nombre de una persona en cada subconjunto. La Tabla 4.6 da un ejemplo de una
base de datos que contiene N = 8 personas famosas. En este caso, se tienen cuatro
objetos: Nombre, Americano, Poltico, y Mujer. El primer objeto puede tomar uno
de N posibles valores (los nombres de cada persona) y cada uno de los tres ultimos
objetos pueden tomar el valor s o el valor no.
A partir de la Tabla 4.6 se pueden construir reglas para identicar a cada persona,
resultando un total de ocho reglas. Por ejemplo, las reglas siguientes corresponden
al expresidente Vicente Fox y a la exprimera ministra Margaret Tatcher:
Regla 1: Si Nombre = Vicente Fox, entonces Americano = no y Poltico = s y
262 CAP

ITULO 4. SISTEMAS DE RAZONAMIENTO


Figura 4.9: Ilustracion de una base de datos con tres atributos binarios que dividen
la poblacion en ocho conjuntos disjuntos.
4.3. ARQUITECTURA DE UN SISTEMA DE PRODUCCI

ON 263
Cuadro 4.6: Base de datos mostrando cuatro objetos y sus valores correspondientes
para el ejemplo de las personas famosas.
Nombre Americano Poltico mujer
Barbara Jordan si si si
Bill Clinton si si no
Barbara Walters si no si
Mohammed Ali si no no
Margaret Thatcher no si si
Vicente Fox no si no
Marie Curie no no si
Diego Rivera si no no
Mujer = no.
Regla 2: Si Nombre = Margaret Tatcher, entonces Americano = no y Poltico =
s y Mujer = si.
Las seis reglas restantes pueden construirse de forma similar.
Existen casos de algunos sistemas de produccion que imponen ciertas restricciones a
las reglas. Por ejemplo, No permiten en la premisa el operador l ogico o, y limitan las
conclusiones a expresiones logicas simples. Hay buenas razones para imponer estas
restricciones. En primer lugar, las reglas que satisfacen estas restricciones son faciles
de tratar a la hora de escribir un programa para computadora. En segundo lugar,
las dos restricciones anteriores no dan lugar a una perdida de generalidad, puesto
que reglas mucho mas generales pueden ser reemplazadas por conjuntos de reglas
de esta forma. A esto se le llama sustitucion de reglas. Por tanto, el conjunto de re-
glas especicado inicialmente por el experto humano puede requerir una sustitucion
posterior por un conjunto de reglas equivalente para satisfacer estas restricciones.
La Tabla 4.7 da ejemplos de sustitucion de reglas. Notese que cada regla de la
primera columna puede ser sustituda por el correspondiente conjunto de reglas de
la segunda columna y que todas las reglas de esta satisfacen las condiciones anteri-
ores. Por ejemplo, la primera regla compuesta de la Tabla 4.7:
Regla 1: Si A o B, entonces C
264 CAP

ITULO 4. SISTEMAS DE RAZONAMIENTO


Cuadro 4.7: Ejemplos de sustitucion de reglas: Las reglas en la primera columna
son equivalentes a las reglas de la segunda columna. Notese que en los seis primeros
ejemplos las sustituciones se aplican a la premisa y en los cuatro ultimos, a la
conclusion.
Regla Reglas equivalentes
Si A o B, entonces C Si A entonces C
Si B entonces C
Si (A o B) entonces C Si A y B entonces C
Si (A y B) entonces C Si A entonces C
Si B entonces C
Si (A o B) y C entonces D Si A y C entonces D
Si B y C entonces D
Si (A o B) y C entonces D Si A y B y C entonces D
Si (A y B) y C entonces D Si A y C entonces D
Si B y C entonces D
Si A entonces B y C Si A entonces B
Si A entonces C
Si A entonces B o C Si A y B entonces C
Si A y C entonces B
Si A entonces (B y C) Si A y B entonces C
Si A y C entonces B
Si A entonces (B o C) Si A entonces B
Si A entonces C
Puede ser reemplazada por las dos reglas simples:
Si A entonces C
Si B entonces C
4.3.3. Mecanismos de control
El motor de inferencia
3
usa tanto la base de conocimientos como la memoria de tra-
bajo para obtener nuevas conclusiones o hechos. Por ejemplo, si la premisa de una
3
Uno de los motores de inferencia mas utilizados es CLIP, CLIP signica, C Language Integrated
Production System, desarrollado en NASAs Johnson Space Center a mediados de los 80s, C se
utiliz o como lenguaje de implementaci on.
4.3. ARQUITECTURA DE UN SISTEMA DE PRODUCCI

ON 265
regla es cierta, entonces la conclusion de la regla tambien debe ser cierta. Los datos
iniciales se incrementan incorporando las nuevas conclusiones. Por ello, tanto los
hechos iniciales o datos de partida como las conclusiones derivadas de ellos forman
parte de los hechos o datos disponibles en un instante dado. Las conclusiones pueden
clasicarse en dos tipos: simples y compuestas. Las conclusiones simples son las que
resultan de una regla simple. Las conclusiones compuestas son las que resultan de
mas de una regla. Para obtener conclusiones, los expertos utilizan diferentes tipos
de reglas y estrategias de inferencia y control [127, 171].
Existen tres estrategias generales a traves de las cuales se puede realizar la inferencia:
Deduccion. Bajo este esquema, el nuevo conocimiento es cierto si se parte de
conocimiento cierto. Esta es la fuerza de la inferencia logica (Resolucion) y por
tanto, de la logica.
Induccion. Es el mecanismo aplicado por el Aprendizaje Automatico. Realiza una
correspondencia entre correlacion y causalidad.
Abduccion. Bajo este enfoque se parte de un conjunto de reglas y hechos observa-
dos (conocimiento) para generar un conjunto de explicaciones posibles que, usando
la deduccion, haran coherente el conocimiento inicial.
Generalmente, la inferencia en los sistemas basados en reglas de produccion se realiza
aplicando Modus Ponens o Modus Tol lens, los cuales son dos conocidos mecanismos
de inferencia muy utilizados por el esquema de representacion del conocimiento basa-
do en logica (ver Captulo 3).
En la Figura 4.10(a) se muestra el algoritmo que regula la operacion de un motor
de inferencias, mientras que en la Figura 4.10(b) se ilustra el algoritmo del motor de
inferencias bajo un enfoque de encadenamiento hacia adelante, el unico cambio que
se hace a este algoritmo para que sea de encadenamiento hacia atras, es reemplazar
la parte que corresponde al antecedente por el de consecuente.
Modus Ponens. Modus Ponens es quizas la regla de inferencia mas com unmente
utilizada para obtener conclusiones simples. En este esquema, se examina la premisa
(antecedente) de la regla, y si es cierta, la conclusion pasa a formar parte del
conocimiento. Como ilustracion, supongase que se tiene la regla, Si A es cierto
entonces B es cierto (A B), si sabemos que A es cierto (A), entonces, la regla
Modus Ponens concluye que B es cierto (B). Esta regla de inferencia, que parece
266 CAP

ITULO 4. SISTEMAS DE RAZONAMIENTO


Figura 4.10: Algoritmos utilizados por el motor de inferencias de un sistema basado
en reglas de produccion: (a) Algoritmo general del motor de inferencias, (b) mecan-
ismo de encadenamiento hacia adelante.
4.3. ARQUITECTURA DE UN SISTEMA DE PRODUCCI

ON 267
trivial, debido a su familiaridad, es la base de un gran n umero de sistemas basados
en reglas.
Por su parte, la regla de inferencia Modus Tol lens se utiliza tambien para obtener
conclusiones simples. En este caso se examina la conclusion de la regla y si es falsa,
se concluye que la premisa tambien es falsa. Por ejemplo, supongase de nuevo que
se tiene la regla, Si A es cierto, entonces B es cierto (A B), pero se sabe que
B es falso (B), entonces, utilizando la regla Modus Tol lens se concluye que A
es falso (A). Aunque muy simple y con muchas aplicaciones utiles, la regla Modus
Tol lens es menos utilizada que la Modus Ponens. Por ello, la regla Modus Ponens se
mueve hacia adelante, es decir, de la premisa a la conclusion de una regla, mientras
que la regla Modus Tol lens se mueve hacia atras, es decir, de la conclusion a la
premisa.
Las dos reglas de inferencia no deben ser vistas como alternativas sino como com-
plementarias. La regla Modus Ponens necesita informacion relacionada con los an-
tecedentes de los objetos para llegar a una conclusion, mientras que la regla Modus
Tol lens necesita informacion relacionada con el consecuente de los objetos para llegar
a obtener nuevo conocimiento. De hecho, para un motor de inferencia que solamente
utiliza Modus Ponens, la incorporacion de la regla Modus Tol lens puede ser consid-
erada como una expansion de la base de conocimiento mediante la adicion de reglas,
tal como lo ilustra el ejemplo que sigue.
Suponga que la base de conocimiento de un sistema basado en reglas de produccion
consiste solo en la Regla 1 (ver ejemplo del cajero automatico). Se puede utilizar la
regla de inferencia Modus Tol lens para invertir la Regla 1 y obtener alguna con-
clusion cuando se tiene informacion relacionada con el consecuente de los objetos.
Entonces, aplicar la regla Modus Tol lens a la regla Si A entonces B, lo cual es
equivalente a aplicar la regla Modus Ponens a la regla Si B entonces A. En
caso de la Regla 1, utilizando la equivalencia:
(A = C y B = C) (A = F) o (B = F)
Se obtiene la siguiente regla:
Regla 1b:
Si
Pago = no autorizado
268 CAP

ITULO 4. SISTEMAS DE RAZONAMIENTO


Entonces
Tarjeta = no vericada o
Fecha = expirada o
NIP = incorrecto o
Intentos = excedidos o
Fondo = insuciente o
Lmite = excedido
Cuando la base de conocimiento contiene solo la Regla 1 (ejemplo del cajero Au-
tomatico), utilizar ambos mecanismos de inferencia: (Modus Ponens y Modus Tol-
lens), es equivalente a usar la regla Modus Ponens cuando la base de conocimiento
contiene tanto la Regla 1 como la Regla 1b. Por otra parte, el rendimiento del mo-
tor de inferencia depende del conjunto de reglas en su base de conocimiento. Hay
situaciones en las que el motor de inferencia puede concluir utilizando un conjunto
de reglas, pero no puede llegar a una conclusion al utilizar otro (aunque estos sean
logicamente equivalentes).
Resolucion. Las reglas de inferencia Modus Ponens y Modus Tol lens pueden ser
utilizadas para obtener conclusiones simples. Por otra parte, las conclusiones com-
puestas, que se basan en dos o mas reglas, se obtienen usando el llamado mecanismo
de resolucion. Este mecanismo de inferencia se forma por las etapas siguientes:
1. Las Reglas son sustituidas por expresiones logicas equivalentes.
2. Estas expresiones logicas se combinan en otra expresion logica.
3. Esta ultima expresion se utiliza para obtener la conclusion.
Estas etapas involucran conceptos tales como la combinacion y simplicacion de
expresiones logicas, que se ilustran de un modo intuitivo en los ejemplos que siguen.
Ejemplo. Suponga que se tienen las siguientes dos reglas:
Regla 1: Si A es cierto entonces B es cierto.
Regla 2: Si B es cierto entonces C es cierto.
La primera etapa en el mecanismo de resolucion consiste en sustituir cada una de
las dos reglas por expresiones logicas equivalentes (ver Figura 4.11). Esto se realiza
4.3. ARQUITECTURA DE UN SISTEMA DE PRODUCCI

ON 269
Figura 4.11: Ilustracion de la regla de inferencia correspondiente al mecanismo de
resolucion.
Cuadro 4.8: Tabla de verdad mostrando que la regla Si A es cierto entonces B es
cierto es equivalente a la expresion logica A es falso o B es cierto.
A B A Si A entonces B A o B
C C F C C
C F F F F
F C C C C
F F C C C
siguiendo los pasos que se indican
La Regla 1 es equivalente a la expresion logica: A es falso o B es cierto (ver Figu-
ra 4.11). Una prueba de esta equivalencia se muestra en la tabla de verdad que se
ilustrada en la Tabla 4.8.
Similarmente, la Regla 2 (Si B es cierto entonces C es cierto) es equivalente a la
expresion logica: B es falso o C es cierto (ver Figura 4.11).
La segunda etapa consiste en combinar las dos expresiones anteriores en una, tal
como sigue: Las expresiones logicas A es falso o B es cierto y B es falso o C es
cierto implican la expresion A es falso o C es cierto (ver Figura 4.11). Una prueba
de esta equivalencia se muestra en la Tabla 4.9. Esta ultima expresion se utiliza en
la tercera etapa para obtener la conclusion. Las etapas anteriores se ilustran en la
270 CAP

ITULO 4. SISTEMAS DE RAZONAMIENTO


Cuadro 4.9: Tabla de verdad que muestra que las expresiones logicas A es falso o
B es cierto y B es falso o C es cierto implican la expresion l ogica A es falso o C
es cierto.
A B C A o B B o C (A o B)y (B o C) A o C
C C C C C C C
C C F C F F F
C F C F C F C
C F F F C F F
F C C C C C C
F C F C F F C
F F C C C C C
F F F C C C C
Figura 4.12.
Mecanismo de resolucion 2. Considere nuevamente el ejemplo del CA con el
objeto a nadido Explicar, que puede tomar los valores s, no, indicando si se necesita
explicar las acciones del CA. Apliquemos ahora el mecanismo de resolucion a la
evidencia NIP = incorrecto y a las reglas siguientes:
Si NIP = incorrecto entonces Pago = no autorizado.
Si Pago = no autorizado entonces Explicar = s.
Tal como se ilustra en la Figura 4.12, la regla de inferencia correspondiente al mecan-
ismo de resolucion conduce a la conclusion Explicar = s. En efecto, siguiendo los
pasos indicados, se tiene
1. Las dos reglas se sustituyen por las expresiones equivalentes:
NIP = correcto o Pago = no autorizado
Pago = autorizado o Explicar = s
2. Las dos expresiones anteriores se combinan de la forma indicada para dar la ex-
presion NIP = correcto o Explicar = s, y
3. Esta ultima expresion se combina con la evidencia NIP = incorrecto, y se obtiene
la conclusion compuesta, Explicar = s.
4.3. ARQUITECTURA DE UN SISTEMA DE PRODUCCI

ON 271
Figura 4.12: Ilustracion de la regla de inferencia correspondiente al mecanismo de
resolucion del Cajero Automatico.
Es importante se nalar que la regla de inferencia correspondiente al mecanismo de
resolucion no siempre conduce a conclusiones, pues, de hecho, puede no conocerse
la verdad o falsedad de ciertas expresiones. Si esto ocurre, el sistema, o mas precisa-
mente, su motor de inferencia, debe decidir entre:
Abandonar la regla, dada la imposibilidad de obtener conclusiones, o
Preguntar al usuario, mediante el subsistema de demanda de informacion,
sobre la verdad o falsedad de una o varias expresiones para poder continuar
el proceso de inferencia hasta que se obtenga una conclusion.
Control de la Coherencia. En situaciones complejas, incluso verdaderos exper-
tos pueden dar informacion inconsistente (por ejemplo, reglas inconsistentes y/o
combinaciones de hechos no factibles). Por ello, es muy importante controlar la co-
herencia del conocimiento tanto durante la construccion de la base de conocimiento
como durante los procesos de adquisicion de datos y razonamiento. Si la base de
conocimiento contiene informacion inconsistente (por ejemplo, reglas y/o hechos),
es muy probable que el sistema se comporte de forma poco satisfactoria y obtenga
conclusiones absurdas. El objetivo del control de la coherencia consiste en
a) Ayudar al usuario a no dar hechos inconsistentes, por ejemplo, dandole al
usuario las restricciones que debe satisfacer la informacion demandada.
b) Evitar que entre en la base de conocimiento cualquier tipo de conocimiento
inconsistente o contradictorio.
272 CAP

ITULO 4. SISTEMAS DE RAZONAMIENTO


El control de la coherencia debe hacerse controlando la coherencia de las
reglas y la de los hechos.
Coherencia de Reglas. Un conjunto de reglas se denomina coherente si existe,
al menos, un conjunto de valores de todos los objetos que producen conclusiones
no contradictorias. En consecuencia, un conjunto coherente de reglas no tiene por
que producir conclusiones no contradictorias para todos los posibles conjuntos de
valores de los objetos. Es decir, es suciente que exista un conjunto de valores que
conduzcan a conclusiones no contradictorias.
Ejemplo: Conjunto de reglas incoherentes. Considerense las cuatro reglas siguientes,
que relacionan dos objetos A y B con los binarios C, F:
Regla 1: Si A = C entonces B = C.
Regla 2: Si A = C entonces B = F.
Regla 3: Si A = F entonces B = C.
Regla 4: Si A = F entonces B = F.
Entonces, pueden obtenerse las siguientes conclusiones:
Las Reglas 1 2 son coherentes puesto que, para A = F, no producen conclusiones.
Las Reglas 1 3 son coherentes puesto que para A = F y B = C, producen una
conclusion (B = C)
Las Reglas 14 son incoherentes porque producen conclusiones contradictorias para
todos los posibles valores de A y B.
Se debe tomar en cuenta que un conjunto de reglas puede ser coherente, aunque
algunos conjuntos de valores puedan producir conclusiones inconsistentes. Estos
conjuntos de valores se llaman valores no factibles. Por ejemplo, las Reglas 1-2 son
coherentes, aunque producen conclusiones inconsistentes en todos los casos en que A
= C. En consecuencia, el subsistema de control de coherencia eliminara automatica-
mente el valor C de la lista de posibles valores del objeto A, permitiendo de esta
forma al usuario seleccionar solo valores factibles de los objetos.
Valores no factibles. Se dice que un valor a para el objeto A no es factible si las
conclusiones obtenidas al hacer A = a contradicen cualquier combinacion de valores
4.3. ARQUITECTURA DE UN SISTEMA DE PRODUCCI

ON 273
del resto de los objetos. Por ello, cualquier valor no factible debe ser eliminado de
la lista de valores posibles de su correspondiente objeto para eliminar la posibilidad
de que el motor de inferencia pueda obtener conclusiones inconsistentes.
Ejemplo: Valores no factibles. Considerese el conjunto de las cuatro reglas del ejem-
plo anterior. En este caso, el motor de inferencia concluira lo siguiente:
a) Las dos primeras reglas implican que A = C, puesto que A = C siempre
conduce a conclusiones inconsistentes. Por tanto, el valor A = C debera ser
eliminado automaticamente de la lista de valores factibles de A. Dado que
A es binario, entonces resulta A = F (el unico valor posible).
b) Las tres primeras reglas implican que A = F y B = C. Por tanto, el valor B
= F debera ser eliminado automaticamente de la lista de valores factibles
de B.
c) Las primeras cuatro reglas implican que A = C, A = F, B = C y B =
F. Por tanto, los valores C, F son eliminados de las listas de valores de
A y B, con lo que las listas de valores factibles de todos los objetos estan
vacas, lo que implica que las cuatro reglas son incoherentes.
Se debe considerar que es suciente realizar la comprobacion de la coherencia de
las reglas solo una vez, tras ser introducida cada regla, y que todos los valores no
factibles pueden ser eliminados de sus correspondientes listas. El conjunto de reglas
que forman el conocimiento debe ser coherente; en otro caso, el sistema podra obtener
conclusiones erroneas. Por ello, antes de a nadir una regla a la base de conocimiento,
hay que comprobar la consistencia de esta regla con el resto de ellas, incluidas en la
base de conocimiento. Si la regla fuese consistente con el resto de reglas, se a nadira
a la base de conocimiento; en caso contrario, se devolvera al experto humano para
su correccion.
Ejemplo: Coherencia de reglas. Supongase que se tienen los cuatro objetos: A
0,1,B 0,1, C 0,1, 2 y D 0,1. Considerense las siguientes reglas:
Regla 1: Si A = 0 y B = 0, entonces C = 0.
Regla 2: Si A = 0 y D = 0, entonces C = 1.
Regla 3: Si A = 0 y B = 0, entonces C = 1.
Regla 4: Si A = 0 entonces B = 0.
Regla 5: Si B = 0 entonces A = 1.
Suponga ahora que se desea a nadir las tres ultimas reglas a una base de conocimiento
que contiene las dos primeras reglas. Entonces, las Reglas 1 y 3 son inconsistentes,
274 CAP

ITULO 4. SISTEMAS DE RAZONAMIENTO


puesto que tienen la misma premisa pero diferentes conclusiones. Por tanto, la Regla
3 debe ser rechazada y el experto humano debe ser informado de la razon del rec-
hazo. El experto humano corregira la regla en cuestion y/o las reglas existentes si
fueran incorrectas. La Regla 4 entrara en la base de conocimiento, puesto que es
consistente con las Reglas 1 y 2. La Regla 5 es inconsistente con la Regla 4. Por ello,
la consistencia de ambas reglas debe ser comprobada antes de pasar a formar parte
de la base de conocimiento.
Coherencia de hechos. Los datos o evidencias suministrados por los usuarios
deben ser tambien consistentes en s y con el conjunto de reglas de la base de datos.
Por ello, el sistema no debe aceptar hechos que contradigan el conjunto de reglas y/o
el conjunto de hechos existente en cada instante del proceso. Por ejemplo, con una
base de conocimiento que contenga las dos primeras reglas anteriores, el sistema no
debe aceptar el conjunto de hechos A = 0, B = 0 y C = 1 puesto que contradicen
la Regla 1. El sistema debe tambien comprobar si existe o no, una solucion factible
e informar al usuario en consecuencia. Si en el ejemplo anterior se trata de dar la
informacion A = 0, B = 0 y D = 0, el sistema debe detectar que no existe ning un
valor de C que sea consistente con la base de conocimiento. Notese que antes de
conocer los valores de los objetos, existe una solucion factible. Por ejemplo, A = 0,
B = 0, C = 0 y D = 1 (estos hechos no contradicen la base de conocimiento). Por
ello, la inconsistencia surge de que los hechos y las reglas sean inconsistentes. La
coherencia de los hechos puede lograrse mediante las estrategias siguientes:
1. Eliminar todos los valores no factibles (los que contradicen el conjunto de reglas
y/o hechos) de los objetos una vez detectados. Cuando se pregunte al usuario por in-
formacion sobre los valores de un conjunto de objetos, el sistema debera aceptar solo
los valores de cada objeto que sean consistentes con las reglas y con el conocimiento
previo. Considerese, por ejemplo, la base de conocimiento del Ejemplo anterior y
supongase que al sistema se le ha dado la informacion A = 0 y C = 1; entonces el
sistema debe saber que B = 0. Por ello, este valor debe ser eliminado de la lista de
posibles valores del objeto B.
2. El motor de inferencia debe comprobar que los hechos conocidos no contradicen el
conjunto de reglas. En la situacion anterior, por ejemplo, el sistema no debe aceptar
el conjunto de hechos A = 1, B = 1 y C = 2. Si el sistema no elimina los valores no
factibles, entonces el usuario podra dar evidencias contradictorias tales como Pago
= autorizado y NIP = incorrecto en el ejemplo del cajero automatico. Por lo tan-
to, tan pronto como se de la primera evidencia, Pago = autorizado, el sistema debe
seleccionar solo los valores del NIP que no conduzcan a conclusiones contradictorias.
4.3. ARQUITECTURA DE UN SISTEMA DE PRODUCCI

ON 275
3. Suministrar al usuario una lista de objetos a los que no se ha asignado valores
previamente.
4. Para cada uno de los objetos, mostrar y aceptar solo sus valores factibles.
5. Actualizar continuamente la base de conocimiento, es decir, tan pronto como se
de un hecho o se obtenga una conclusion, y eliminar los valores no factibles. El mo-
tor de inferencia obtiene todas las conclusiones posibles examinando, y posiblemente
concluyendo, las reglas tan pronto como una simple unidad de informacion llega al
sistema.
Tome en cuenta que dar varias unidades de informacion simultaneamente puede con-
ducir a inconsistencias en la base de datos. Por ejemplo, dado A = 0, no se puede dar
la informacion combinada B = 0 y C = 1. En este caso, el orden de la informacion
afecta a los posibles valores futuros de los objetos que conducen a compatibilidad,
es decir, tras dar A = 0 se puede dar B = 0 o C = 1, pero estas dos opciones
imponen restricciones diferentes a los posibles futuros valores de los restantes obje-
tos. La actualizacion continua de la base de conocimiento es muy importante puesto
que no actualizar implica la posibilidad de que evidencias contradictorias puedan
convivir en la base de conocimiento. Por ello, el conocimiento debe ser actualizado
inmediatamente tras la incorporacion de cada hecho. Por lo que, tanto la eliminacion
automatica de valores no factibles como la actualizacion continua del conocimiento
aseguran la coherencia de la base de conocimiento. El ejemplo siguiente ilustra la
aplicacion de esta tecnica al conocido problema de los agentes secretos.
Ejemplo: Los Agentes Secretos. Se menciona el problema de cuatro agentes secre-
tos: Alberto, Luisa, Carmen y Tomas, donde cada agente se encuentra en uno de
los siguientes cuatro pases: Egipto, Francia, Japon y Espa na. Se han recibido los
siguientes telegramas de los agentes:
De Francia: Luisa esta en Espa na.
De Espa na: Alberto esta en Francia.
De Egipto: Carmen esta en Egipto.
De Japon: Carmen esta en Francia.
El problema radica en que no se sabe quien ha enviado cada uno de los mensajes,
pero es conocido que Tomas miente (es un agente doble?) y que los demas agentes
dicen la verdad. El misterio que trata de escudri narse es el de responder a la pre-
gunta quien esta en cada pas? Por lo que se dise na un sistema basado en reglas de
276 CAP

ITULO 4. SISTEMAS DE RAZONAMIENTO


produccion para resolver este problema.
Se tienen cuatro objetos: Alberto, Luisa, Carmen y Tomas.
Cada objeto puede tomar uno de cuatro valores: Egipto, Francia, Japon o Es-
pa na.
Puesto que Tomas es el unico que miente, se considera que un telegrama suyo es
siempre falso. Esto da lugar a dos reglas por cada mensaje:
1. El mensaje de Francia (Luisa esta en Espa na) da lugar a:
Regla 1: Si Tomas esta en Francia, entonces Luisa no esta en Espa na.
Regla 2: Si Tomas no esta en Francia, entonces Luisa esta en Espa na.
2. El mensaje de Espa na (Alberto esta en Francia) da lugar a:
Regla 3: Si Tomas esta en Espa na, entonces Alberto no esta en Francia.
Regla 4: Si Tomas no esta en Espa na, entonces Alberto esta en Francia.
3. El mensaje de Egipto (Carmen esta en Egipto) da lugar a:
Regla 5: Si Tomas esta en Egipto, entonces Carmen no esta en Egipto.
Regla 6: Si Tomas no esta en Egipto, entonces Carmen esta en Egipto.
4. El mensaje de Japon (Carmen esta en Francia) da lugar a:
Regla 7: Si Tomas esta en Japon, entonces Carmen no esta en Francia.
Regla 8: Si Tomas no esta en Japon, entonces Carmen esta en Francia.
Utilizando solo estas ocho reglas, se intentara ahora averiguar el valor que toma el
objeto Tomas:
1. Tomas esta posiblemente en Egipto. Si Tomas esta en Egipto, se obtienen las
conclusiones siguientes:
4.3. ARQUITECTURA DE UN SISTEMA DE PRODUCCI

ON 277
Luisa esta en Espa na, por la Regla 2.
Alberto esta en Francia, por la Regla 4.
Carmen no esta en Egipto, por la Regla 5.
Carmen esta en Francia, por la Regla 8.
Se ve que con esta hipotesis se llega a la conclusion de que tanto Alberto como
Carmen estan en Francia, lo que contradice la informacion de que solo un agente
puede estar en cada pas (pero el conjunto de las ocho reglas anteriores no contiene
esta informacion). Por tanto, se concluye que Egipto es un valor imposible para el
objeto Tomas, es decir, Tomas no puede estar en Egipto.
Siguientes consideraciones:
Luisa esta en Espa na, por la Regla 2.
Alberto esta en Francia, por la Regla 4.
Carmen esta en Egipto, por la Regla 6.
En este caso no hay una contradiccion, lo que signica que Japon es un valor posible
para el objeto Tomas.
Con las ocho reglas anteriores, el motor de inferencia no puede concluir en que pas
esta cada uno de los agentes, puesto que las reglas no contienen la informacion solo
un agente puede estar en cada pas. Por lo que se considera esta situacion y se
obtiene un conjunto de reglas adicionales que tienen en cuenta esta informacion.
Puesto que cada pas puede estar ocupado por exactamente un agente, suponga que
un agente esta en un pas dado. Entonces, se necesitan tres reglas para garantizar
que ninguno de los restantes agentes esta en ese mismo pas. Dado que se tienen
cuatro agentes, resultan un total de 12 reglas (3 reglas 4 agentes). Sin embargo, si
se utiliza la regla de inferencia Modus Tol lens, solo son necesarias seis reglas, pues
las restantes resultan redundantes. Por ejemplo, para Egipto setienen las siguientes
reglas:
Regla 9: Si Alberto esta en Egipto, entonces Luisa no esta en Egipto.
Regla 10: Si Alberto esta en Egipto, entonces Carmen no esta en
Regla 11: Si Alberto esta en Egipto, entonces Tomas no esta en
Regla 12: Si Luisa esta en Egipto, entonces Carmen no esta en Egipto.
Regla 13: Si Luisa esta en Egipto, entonces Tomas no esta en Egipto.
Regla 14: Si Carmen esta en Egipto, entonces Tomas no esta en Egipto.
278 CAP

ITULO 4. SISTEMAS DE RAZONAMIENTO


Note que existen un conjunto de seis reglas equivalentes a las anteriores. Por ejem-
plo, la regla:
Regla 14a: Si Tomas esta en Egipto, entonces Carmen no esta en Egipto,
es equivalente a (Modus Tol lens) la Regla 14. Por tanto, se necesitan solo seis re-
glas por pas. Los conjuntos de seis reglas para cada uno de los restantes pases se
generan de forma similar. Por tanto, se tienen un total de 24 reglas adicionales que
representan el hecho de que exactamente un agente puede estar en cada pas.
Interfase de explicacion al usuario. Generalmente los usuarios de sistemas basa-
dos en reglas esperan que el sistema les proporcione alg un tipo de explicacion rela-
cionada con las conclusiones. Durante el proceso realizado por el motor de inferencia,
las reglas activas (las que han concluido) forman la base del mecanismo de expli-
caci on, que es regulado por el subsistema de explicacion. En los sistemas basados en
reglas, es facil dar explicaciones de las conclusiones obtenidas. El motor de inferen-
cia obtiene conclusiones basandose en un conjunto de reglas y, por tanto, conoce de
que regla procede cada conclusion. Por ello, el sistema puede dar al usuario la lista
de hechos concluidos junto con las reglas que se han utilizado para obtenerlos. Por
ejemplo, en base a los ejemplos antes mencionados en esta secci on, se podra llegar
a suministrar la explicacion siguiente a las conclusiones obtenidas:
1. Hechos dados:
A = cierto, B = cierto, D = cierto, E = cierto, F = cierto, H = cierto, I = cierto.
2. Conclusiones y explicaciones:
C = cierto, basada en la Regla 1.
G = cierto, basada en la Regla 2.
J = cierto, basada en la Regla 3.
4.4. Ciclo de vida de un sistema de produccion
El ciclo de vida de un sistema de produccion, es similar al ciclo de vida de cualquier
programa computacional en el sentido de que esta estructurado por diferentes fas-
es, entre las que guran: gesti on, desarrol lo, implementacion, analisis, evaluaci on,
4.4. CICLO DE VIDA DE UN SISTEMA DE PRODUCCI

ON 279
correccion, y mantenimiento entre otras. Asimismo, al igual que otro programa de
computadora, llega un momento en que por diversas razones, ya no es util y se
vuelve obsoleto. Sin embargo, los sistemas de IA a diferencia de los programas de
computadora convencionales estan formados por modulos independientes, los cuales
son generalmente adaptativos, es decir, se adaptan a cambios observados en el am-
biente. En el caso de los sistemas de produccion, los cambios que enfrentara el
sistema se preveen con la integracion de algoritmos con capacidad de aprendizaje.
Esta caracterstica, les permitira a estos sistemas modicar la base de conocimientos
(conjunto de las reglas que determinan el conocimiento del dominio) con el n de
adaptarse a las nuevas condiciones de uso.
En esta seccion, mas que explicar cada una de las fases que integran el ciclo de vida
de un sistema de produccion, considero mas interesante, mostrar dos ejemplos de
aplicaciones basadas en reglas de produccion, en el cual se observen algunos de los
componentes que forman su arquitectura. En primer caso, se van a mostrar aspectos
relacionados con uno de los sistemas que mas han inuenciado el desarrollo de los
sistemas basados en reglas: MYCIN. Posteriormente, y bajo un enfoque diferente,
se mostraran aspectos de un sistema basado en reglas para resolver uno de los prob-
lemas que afecta la vida cotidiana: el tr aco vehicular.
MYCIN: Sistema para diagnosticar causas de enfermedades. MYCIN fue
uno de los primeros sistemas basados en reglas. Este sistema fue desarrollado en
la Universidad de Stanford por Davis y Buchanan en la decada de 1970, con el
n de apoyar a los medicos a diagnosticar enfermedades infecciosas en la sangre
ocasionadas por bacterias. Despues de haber trabajado con varios especialistas en
enfermedades infecciosas, el equipo construyo un sistema con aproximadamente 500
reglas de produccion para reconocer de manera general 100 causas de infeccion.
Mientras el sistema opero basado en una forma de encadenamiento hacia adelante
tpica de los sistemas de produccion, el razonamiento fue realizado en un esquema
dirigido por objetivos (encadenamiento hacia atras). Las reglas se basaron en la
sintomatologa de las enfermedades para construir la evidencia, manejar hipotesis y
trabajar con ellas.
Caractersticas del sistema y explicacion de su arquitectura. Mycin intro-
dujo el uso de estructuras de datos estaticas para aumentar el mecanismo de razon-
amiento; estas incluyeron listas de organismos y parametros clnicos. Sin embargo, el
desarrollo mas signicativo en este sistema fue la introduccion de un nivel de certeza
para acumular la evidencia y conanza en las hipotesis. Ya que en el diagnostico
medico no todas las conclusiones son obvias, y varias enfermedades pueden producir
los mismos sntomas, el sistema trabajo acumulando evidencia tratando de evaluar
la hipotesis mas probable a partir de esta. La tecnica para hacer esto se llamo fac-
280 CAP

ITULO 4. SISTEMAS DE RAZONAMIENTO


Figura 4.13: Ilustracion de la arquitectura que muestra los seis componentes del sis-
tema Mycin: cuatro programas y dos bases de datos. Todo el conocimiento del sis-
tema relacionado con enfermedades infecciosas se almacena en la base de conocimien-
tos, mientras que los datos acerca de un paciente durante una consulta se almacena
en la base de datos del paciente, las echas indican la direccion del ujo de infor-
macion [129].
tores de certeza, la cual consistio en la asignacion de n umeros entre 0 y 1 a las
conclusiones de las reglas. Esto permitio el ordenamiento de hipotesis alternas. Ya
que estos n umeros podan ser introducidos a la memoria de trabajo a partir de re-
glas, la introduccion de nueva evidencia poda dar como resultado que estos valores
cambiaran, con lo cual se tuvo que especicar un conjunto de reglas combinadas
para diferentes factores de certeza. De esta forma, la conjuncion de dos conclusiones
poda tomar el mnimo de dos factores de certeza involucrados, mientras su disyun-
cion poda implicar el maximo de los dos.
No hay que perder de vista que el dise no e implementacion de sistemas como el
Mycin se construyen para apoyar el trabajo de los especialistas no para sustituir
su proceso de razonamiento. Todos los sistemas de produccion deben tener un n
especco, en el caso de Mycin fue el de sugerir una terapia para pacientes infecta-
dos por bacterias. Para este proposito, la arquitectura utilizada por este sistema se
muestra en la Figura 4.13. Como se observa, tal arquitectura consta de 6 compo-
nentes que interact uan entre s. Una breve explicacion de cada modulo se ofrece a
continuacion:
4.4. CICLO DE VIDA DE UN SISTEMA DE PRODUCCI

ON 281
Figura 4.14: Formato de una tpica regla extrada de la base de conocimientos uti-
lizada por MYCIN. En la parte superior se aprecia en may uscula el formato utilizado
en el programa. $AND y $OR son analogas multivaluadas de las booeanas AND y
OR. En la parte inferior en min uscula, se muestra la interpretacion de la regla [129].
1. Base de conocimientos. Generalmente los sistemas basados en conocimiento,
utilizados con nes de consulta o diagostico, tal como MYCIN, deben contar con
una gran cantidad de conocimiento tecnico en un area especca. Resulta claro que
manejar una gran cantidad de conocimiento especco de la tarea es necesario para
un buen rendimiento, sin perder ademas de vista que dicho conocimiento esta sujeto
a cambios a traves del tiempo. Las representaciones basadas en reglas de produccion
manejan tales aspectos. Otra demanda que se debe considerar en estos sistemas es
el manejo de dialogos, de igual forma, este es otro aspecto que los sistemas basados
en reglas realizan muy bien, ya que el proceso de explicacion resulta natural bajo
este formalismo. En la Figura 4.13 se muestra la arquitectura del sistema MYCIN,
y entre otros componentes aparecen los programas que manejan los dialogos (actual
interfase de usuario).
En Mycin, el suministro primario para el conocimiento especco del dominio esta rep-
resentado por 200 reglas de produccion, cada una con sus dos componentes: una
premisa o antecedente y una accion o consecuente. Un ejemplo de regla caracterstica
de este sistema extrada de su base de conocimientos se muestra en la Figura 4.14.
Cada premisa esta formada por los siguienets cuatro componentes:
funci on) objeto) atributo) valor)
Mycin manejo un total de 24 funciones (SAME, KNOWN, DEFINITE, etc.), 80
atributos (IDENTITY, SITE, SENSITIVITY, etc.) y 11 objetos (ORGANISM,
CULTURE, DRUG, etc.) para usarlos como primitivas en la construccion de las
reglas. Cada regla representa una parte del conocimiento y en la premisa se declara
282 CAP

ITULO 4. SISTEMAS DE RAZONAMIENTO


Figura 4.15: Ilustracion de un segmento inicial de una sesion de consulta con el
sistema. Las respuestas al usuario proporcionadas por el sistema se muestran en
may usculas y van despues de los dos asteriscos (**) [129].
de forma explcita todo el contexto necesario para su activacion (ver Figura 4.14).
Debido que cada regla utiliza un vocabulario de conceptos comunes al dominio, forma
por s sola, una sentencia comprensible de una parte del dominio. Esta caracterstica
de las reglas es de gran utilidad, pues permite su analisis por otros componentes del
sistema, lo cual a su vez genera una interpretacion directa de las reglas a explica-
ciones en lenguaje natural.
2. Programa de consulta. Este programa se encarga del proposito principal del
sistema al interactuar con los usuarios, es decir, proporcionar una sugerencia. En la
Figura Figura 4.15, se muestra un segmento de una sesion de consulta con el sistema.
3. Programa de respuesta a preguntas. Este componente del sistema se encarga
del manejo de solicitudes en lenguaje natural, ya sea relacionado con alguna consul-
ta especca o acerca de la base de conocimiento general del programa. Con el n
de realizar su tarea, este componente utiliza la informacion almacenada en la base
de conocimientos y la base de datos del paciente. Este componente generalmente
proporciona informacion al modulo que genera las explicaciones.
5. Programa de explicaciones. La capacidad de explicacion del sistema, se basa
en la asumcion que el desplegado de una regla o de alg un segmento del ujo de con-
trol, es una explicacion razonable del comportamiento del sistema. La modicacion
4.4. CICLO DE VIDA DE UN SISTEMA DE PRODUCCI

ON 283
de la base de conocimientos se facilita por la habilidad de descubrir que conocimien-
tos se encuentran actualmente en el sistema y como usarlo. Resulta evidente que
un enfoque basado en alguna forma de razonamiento simbolico hace factible al sis-
tema tener la habilidad para proporcionar una explicacion de su comportamiento
y conocimiento. En muchos sistemas actuales, esta es la razon principal para inte-
grar reglas de produccion en sus componentes. Los esfuerzos iniciales en Mycin para
tener un sistema que interactuara con los usuarios respondiendo a sus preguntas
se basaron en tres capacidades: (i) desplegar informacion durante la consulta de la
regla actualmente en uso, (ii) recordar las reglas que han sido invocadas, y despues
de una consulta, tener la habilidad de asociar reglas especcas a eventos especcos
(preguntas y conclusiones) y determinar el porque de cada suceso, y (iii) buscar en
la base de conocimientos un tipo especco de regla en respuesta a preguntas del
usuario. Algunos ejemplos de estas capacidades manejadas por Mycin se muestran
a continuacion:
(a) COMO SUPISTES QUE ORGANISMO-1 ERA UN E.COLI?
Yo use la Regla021 para concluir que la identidad de ORGANISMO-1 es e.coli.
Esto me dio un CF acumulado de 0.47.
Despues use la Regla084 para concluir que la identidad de ORGANISMO-1 es un
e.coli. Esto me dio un CF acumulado de 0.55.
Finalmente use la Regla 003 para concluir que la identidad de ORGANISMO-1 es
un e.coli. Esto me dio un CF acumulado de 0.74.
(b) CUALES SON LOS ORGANISMOS ASOCIADOS CON EL TRACTO GAS-
TROINTESTINAL?
Los patogenos mas probables asociados con el tracto gastrointestinal son:
ENTEROCOCCUS, CLOSTRIDIUM.GANGRENE, BACTEROIDES, KLEBISEL-
LA, PSEUDOMONAS, E.COLI, ENTEROBACTER, PROTEUS.
En este ejemplo, la pregunta (a) hace referencia a una consulta especca, mientras
que la pregunta (b) es general y su respuesta fue tomada de la base de conocimien-
tos del sistema. Para preguntas del tipo (iii) la b usqueda a traves de la base de
conocimientos es dirigida por un simple parsing de la pregunta hacia un conjunto de
reglas, con restricciones hacia el contenido de las reglas. La recuperacion de reglas
relevantes esta guiada basicamente por listas previamente establecidas indicando los
contenidos (premisa-accion) de las reglas.
Ya que el proceso de consulta es esencialmente una b usqueda a traves de un arbol
de objetivos del tipo AND/OR, las peticiones durante una consulta caen de forma
natural en dos tipos: Porque una pregunta fue realizada?, y Como se llego a
284 CAP

ITULO 4. SISTEMAS DE RAZONAMIENTO


una conclusion? La capacidad de explicacion del sistema para estos aspectos puede
verse en general como un proceso de arbol transversal. El enfoque fundamental del
sistema para realizar explicaciones es desplegar informacion de sus acciones internas,
es decir, un seguimiento de su razonamiento. El exito de esta tecnica es soportada
mencionando que el enfoque hacia el problema es lo sucientemente intuitivo para
que un resumen de estas acciones resulte una base razonable como punto de parti-
da. Mientras no es facil probar esta situacion de una manera formal, existen varios
factores que sugieren su plausibilidad.
Primero. Se manejo un dominio en el cual la deduccion como una forma de tratar
la incertidumbre, se convirtio en una tarea primaria. El uso de reglas de produccion
se observo como un enfoque natural de expresar aspectos del dominio, as como
desplegar tal informacion en lenguaje natural.
Segundo. El uso de estas reglas combinada con una forma de encadenamiento hacia
atras resulta en un esquema razonablemente intuitivo.
4. Programa de adquisicion del conocimiento. El objetivo de este componente
es la de extender la base de conocimientos. El campo de tratamiento clnico para
enfermedades infecciosas es grande y esta en constante cambio, esto ocasiona que la
base de conocimientos se considere cambiante. Asimismo, esto tambien causa que
describir totalmente el dominio a traves de un conjunto de reglas se convierta en
una tarea casi imposible. Para enfrentar estos aspectos, el sistema fue dise nado para
facilitar un enfoque de competencia incremental. Nueva investigacion en el dominio
produce nuevos resultados y por ende la modicacion de viejos principios, estos cam-
bios deben reejarse en la base de conocimientos. Este componente le permite a este
sistema actualizarse.
Asumciones basicas. Se van a indicar algunas asumciones que son explcitas e im-
plcitas en un sistema de produccion. Esto ayuda a sugerir el ambito de aplicacion
para estos sistemas, as como a mostrar sus fortalezas y debilidades. Aqu se muestra
el enfoque aplicado por Mycin.
Primero. No todos los dominios pueden ser representados por este formalismo. El
dominio a representar debe tener un cierto nivel de formalizacion, el cual incluya
un reconocido conjunto de primitivas y una mnima comprension de sus procesos
basicos.
Segundo. Se requiere un dominio donde exista un limitado orden de interaccion
4.4. CICLO DE VIDA DE UN SISTEMA DE PRODUCCI

ON 285
entre conceptos primitivos, los autores sugieren dos criterios para las interacciones:
(a) se debe considerar un n umero peque no de factores (6 como maximo) de forma
simultanea para activar una regla, (b) la ausencia o presencia de estos factores puede
ser establecida sin afectar de forma adversa a los demas.
Asimismo, algunas caractersticas del dominio van a inuir en el crecimiento de la
base de conocimiento. Donde exista un n umero limitado de atributos para un ob-
jeto dado, el crecimiento en el n umero de reglas en la base de conocimientos no
producira un crecimiento exponencial en el tiempo de b usqueda para la consulta
del sistema, ya que conforme se agreguen nuevas reglas, estas se mapearan a los
atributos ya establecidos. Por lo tanto, el uso de estas reglas en una consulta no
generaran nuevas ramas, ya que los atributos de sus premisas han sido ya estableci-
dos. Ademas, los autores asumen que un gran n umero de antecedentes en las reglas
no sera necesario, evitando con esto largas cadenas de deducciones. El manejo de
reglas del tipo Si Entonces, debe ser sucientemente simple, expresivo e intuiti-
vo de tal manera que provea de un lenguaje util para expresar las formalizaciones.
Finalmente, el modo de razonamiento del sistema (encadenamiento con modus po-
nens) debe mostrarse casi natural, de tal forma que un usuario pueda seguirlo sin
problemas.
Sistema de produccion 2. En este caso, el problema que intenta resolver este
sistema de produccion se relaciona con el control de traco en vas de ferrocarril.
Aunque es un problema de traco en vas de ferrocarril, el problema es similar para
el traco de otro tipo de vehculos (autos, camiones, trailers, etc.). Este ejemplo, se
tomo de Cesari Matilde [127].
Los sistemas de control de traco actuales son necesariamente complejos. Sin embar-
go, para este ejemplo se va a ilustrar el dise no de un sistema basado en reglas para
resolver un problema de control de traco muy simple. La Figura 4.16 muestra un
trazado de ferrocarril en el que varios trenes pueden circular en dos direcciones. El
sistema consta de cinco vas: S
1
, ..., S
5
, y 14 se nales de traco (U
1
, ..., U
8
, L
1
, ..., L
6
),
ocho de las cuales se muestran en la parte superior de la Figura y seis (L
1
, ..., L
6
)
en la parte inferior de la misma. Todos los objetos as como sus posibles valores se
muestran en la Tabla 4.10.
El objetivo del sistema es dise nar un conjunto de reglas que eviten la colision de los
trenes. Estas reglas pueden obtenerse como sigue:
1. Si la se nal de traco U
1
esta en color verde, entonces puede permitirse la salida
de un tren que este en la va S
1
y no debe permitirse la salida de los trenes de la va
286 CAP

ITULO 4. SISTEMAS DE RAZONAMIENTO


Figura 4.16: Figura que ilustra el trazado de ferrocarril con cinco vas, en el cual
se va a controlar el traco a traves de un sistema de reglas de produccion (cesari
matilde).
Cuadro 4.10: Objetos y sus correspondientes valores para el ejemplo del control de
traco ferroviario.
Objeto Valor
U
1
, ..., U
8
verde, rojo
L
1
, ..., L
6
verde, rojo
S
1
, ..., S
5
libre, ocupada
4.4. CICLO DE VIDA DE UN SISTEMA DE PRODUCCI

ON 287
S
2
, por lo que L
1
tiene que estar en rojo. El mismo razonamiento debe cumplirse
para las vas S
4
y S
5
. Esto da las dos primeras reglas de la Tabla 4.11. Notese que
si el motor de inferencia utiliza la regla de inferencia Modus Tol lens, estas reglas
garantizan tambien que cuando las se nales de la parte baja de las vas esten en
verde, las se nales de sus correspondientes partes superiores esten en rojo. Es decir,
las dos primeras reglas de la Tabla 4.11 implican las dos reglas siguientes:
Regla 1a: Si L
1
= verde entonces U
1
= rojo.
Regla 2a: Si L
6
= verde entonces U
6
= rojo.
Regla 1a: Si L
1
= verde, entonces U
1
= rojo.
Regla 2a: Si L
6
= verde, entonces U
6
= rojo.
2. Si la va S
1
esta ocupada, entonces la se nal U
2
debe estar en rojo para evitar que
un tren entre en la va ocupada. Similarmente, para las dem as vas. Esto da lugar a
las seis reglas adicionales (Reglas 3[8) en la Tabla 4.11.
3. Si ambas se nales U
3
y L
3
estan en rojo, entonces ning un tren puede salir de la
va S
1
. La misma condicion se aplica para las se nales U
5
y L
5
. Por lo que de ah se
deriva la Regla 9 (Si (U
3
= rojo y L
3
= rojo) o (U
5
= rojo o L
5
= rojo) entonces
U
1
= rojo). Las cinco reglas asociadas a las otras cinco vas pueden ser obtenidas
de forma analoga. Todas las reglas se muestran en la Tabla 4.11 como las Reglas
9 14.
4. Para evitar la colision de los trenes procedentes de las vas S
1
S
2
y S
4
S
5
,
resulta necesario la aplicacion de las Reglas 15 y 16.
5. Para evitar que las se nales de la parte alta y sus correspondientes se nales de la
parte baja esten simultaneamente en verde, es necesario incluir las Reglas 17 20
de la Tabla 4.11.
6. Finalmente, para evitar la colision de un tren de la va S
3
con un tren de las
otras cuatro vas, se requiere la aplicacion de las dos ultimas reglas mostradas en la
Tabla 4.11. De igual manera, para mantener la coherencia de los hechos, es necesario
actualizar automaticamente el conocimiento tan pronto como se conozca un nuevo
hecho o conclusion.
Sin duda alguna, los sistemas basados en reglas de produccion han mejorado en mu-
chos aspectos la vida cotidiana al ser integrados en una amplia variedad de aplica-
ciones. Desde la aparicion de sus primeros exponentes: MYCIN, DENDRAL, XCON,
288 CAP

ITULO 4. SISTEMAS DE RAZONAMIENTO


Cuadro 4.11: Figura que ilustra a los Objetos y sus correspondientes valores para el
ejemplo del control de traco ferroviario.
Regla Premisa Conclusion
Regla 1 U
1
= verde L
1
= rojo
Regla 2 U
2
= verde L
6
= rojo
Regla 3 S
1
= ocupada U
2
= rojo
Regla 4 S
2
= ocupada L
2
= rojo
Regla 5 S
3
= ocupada U
3
= rojo
Regla 6 S
3
= ocupada U
4
= rojo
Regla 7 S
4
= ocupada U
5
= rojo
Regla 8 S
5
= ocupada L
5
= rojo
Regla 9 (U
3
= rojo y L
3
= rojo) o U
1
= rojo
(U
5
= rojo y L
5
= rojo)
Regla 10 (U
3
= rojo y L
3
= rojo) o L
1
= rojo
(U
5
= rojo y L
5
= rojo)
Regla 11 (U
2
= rojo y L
2
= rojo) o U
6
= rojo
(U
4
= rojo y L
4
= rojo)
Regla 12 (U
2
= rojo y L
2
= rojo) o L
6
= rojo
(U
4
= rojo y L
4
= rojo)
Regla 13 (U
2
= rojo y L
2
= rojo) U
7
= rojo
Regla 14 U
5
= rojo y L
5
= rojo U
8
= rojo
Regla 15 U
3
= verde U
4
= rojo
Regla 16 L
3
= verde L
4
= rojo
Regla 17 U
2
= verde U
4
= rojo
Regla 18 U
3
= verde L
3
= rojo
Regla 19 U
4
= verde L
4
= rojo
Regla 20 U
5
= verde L
5
= rojo
Regla 21 U
1
= verde o L
1
= verde U
7
= rojo
Regla 22 U
6
= verde o L
6
= verde U
8
= rojo
4.5. EJERCICIOS 289
han sido de gran apoyo en las investigaciones de IA y lo seguiran siendo sin lugar
a dudas en el futuro. Sin embargo, como cualquier sistema hecho por el humano
esta propenso a tener sus pros y contras. A continuacion se muestran las ventajas y
desventajas de estos sistemas.
Ventajas de un sistema de produccion:
Se comprenden con facilidad.
la inferencia y explicacion se entienden facilmente.
Se pueden implementar aspectos de incertidumbre.
regla es independiente de las demas.
El mantenimiento y modicacion de este sistema es relativamente facil.
Desventajas:
Para representar un conocimiento complejo requiere la implementacion de
miles de reglas, lo cual representa un problema en el desarrollo del sistema.
Se necesitan establecer tecnicas de b usqueda en el programa de control.
Existe dependencia de reglas en casos de conocimiento complejo.
Se requiere amplio conocimiento del problema a representar asi como ex-
periencia en conocimiento complejo.
4.5. Ejercicios
a) En uno de los ejemplos mostrados, se usan dos objetos binarios A y B y
se da un ejemplo en el que la regla de inferencia Modus Tol lens expande
la base de conocimiento. Utilizando objetos no binarios, dar un ejemplo
similar. Por ejemplo, cuando A y B puedan tomar los valores 0,1,2.
b) En el procedimiento mostrado para el encadenamiento de reglas orientado
a un objetivo, se aplico Modus Ponens como motor de inferencia. Repita el
procedimiento, pero en este caso utilice como motor de inferencia Modus
Tol lens.
c) Aplique CLIPs con el n de integrar el sistema de control para el traco
de las vas ferroviarias.
d) En el problema de las Torres de Hanoi se tienen 3 postes A, B y C, as co-
mo n discos ahuecados de diferente tama no. Inicialmente, todos los discos
estan colocados en el poste A, con el disco de mayor tama no abajo y el de
menor tama no en el tope. El problema consiste en pasar todos los discos
(en ese orden) al poste C. Con las siguientes restricciones: (a) solamente
el disco que se encuentre en el tope de los postes puede ser movido, (b)
290 CAP

ITULO 4. SISTEMAS DE RAZONAMIENTO


un disco de mayor tama no no se puede colocar encima de uno de menor
tama no. Mientras este problema se ha resuelto de forma elegente emple-
ando un enfoque recursivo, existe una solucion bajo un enfoque iterativo
menos conocido, como sigue: (a) Se colocan los postes en crculo, de tal
forma que en el sentido de las manecillas del reloj se tengan A, B, y C. Se
asume nunca mover el mismo disco dos veces en una la, por lo que solo
habra un disco que pueda ser legalmente movido y transferirlo al primer
poste que pueda ocupar, moviendolo en sentido de las manecillas del reloj
si n es par, y en sentido contrario si es impar. Denir un conjunto de
reglas de produccion que implemente este procedimiento. Inicialmente, la
memoria de trabajo tendra elementos (disco i en el poste A) para cada
disco i y un elemento (solucion). Cuando ya no haya reglas que activar,
se deberan tener (disci i en el poste C) para cada disco i y (hecho) en la
meoria de trabajo.
e) Considere las siguientes armaciones en lenguaje natural
Los estudiantes son siempre jovenes.
Los jovenes que estudian estan solteros.
Los estudiantes que trabajan estan casados.
Los estudiantes del Seminario, aunque trabajen, estan solteros.
Las personas independientes estan solteras.
Soltero y casado son estados incompatibles.
Mara estudia, y Jorge esta casado.
Natalia estudia losofa, es independiente pero le gusta Daniel.
Represente este conocimiento en PROLOG. Seg un esta base de conocimien-
tos, Podra casarse Mara con Daniel?
f ) Clasicacion de Peces. Dadas las siguientes reglas:
R1.- Si el pez tiene la boca peque na y dientes puntiagudos y vive en ros
de muchas partes del mundo ENTONCES estamos hablando de un ejem-
plar del orden de los Ciprinodontiformes.
R2.- Si tenemos un individuo del orden de los Ciprinodontiformes y que
vive en los ros de America del Sur y que en el caso de ser macho posee
Gonopodio ENTONCES el pez es de la familia de los Poecilidos y la hem-
bra es 3 cm. mas grande que el macho.
R3.- Si tenemos un individuo del orden de los Ciprinodontiformes y que
vive en los ros de America del Sur y que es hembra ENTONCES el pez
es de la familia de los Poecilidos y el macho es 3 cm. mas peque no que la
hembra.
R4.- Si tenemos un individuo de la familia de los Poecilidos que tiene
4.5. EJERCICIOS 291
manchas a lo largo del cuerpo ENTONCES estamos ante un pez de la
raza de la Gambusia anis. R5.- Si tenemos un individuo de la familia
de los Poecilidos que tiene color gris y rayas verdes a lo largo del cuerpo
ENTONCES tenemos un ejemplar de raza de Gambusia Punctata.
R6.- Si el pez es de tama no medio, tiene dientes puntiagudos, vive en ros
de todo el mundo y posee canales labernticos para respirar fuera del agua
ENTONCES pertence al orden de los anabatidos.
R7.- Si el pez es del orden de los anabatidos, es de color azul, tiene
rayas rojas y vive en ros de Asia ENTONCES tenemos un pez de la
raza luchadores de Sian.
R8.- Si el pez es del orden de los anabatidos, mide 25 cm., no tiene rayas
ENTONCES es una perca trepadora.
R9.- Si el pez tiene la boca peque na, vive en ros de todo el mundo tiene
la cola redondeada ENTONCES es un ejemplar del orden de los Ciclidos.
R10.- Si el pez es del orden de los Ciclios, vive en los ros de Africa y es
de color rojo con manchas negras ENTONCES es pez joya.
Modela el problema con un sistema de produccion basado en Prolog.
g) Clasicacion de Animales. Supongase la siguiente Base de Reglas:
R1: Si un animal tiene pelo, entonces es mamfero
R2: Si un animal da leche, entonces es mamfero
R3: Si un animal tiene plumas es un ave
R4: si un animal vuela y pone huevos, es ave
R5: Si un animal come carne, es carnvoro
R6: Si un animal tiene dientes puntiagudos, tiene garras, tiene ojos al
frente es carnvoro
R7: Si un animal mamfero tiene pezu nas es una ungulado
R8: Si un animal mamfero rumia es un ungulado
R9: Si un animal mamfero y carnvoro tiene color leonado con manchas
oscuras se trata de un leopardo
R10: Si un animal mamfero y carnvoro tiene color leonado con rayas
negras es un tigre
R11: Si un animal ungulado con cuello largo y piernas largas tienen man-
chas oscuras es una jirafa
R12: Si un animal es un ungulado con rayas negras es una cebra
R13: Si un animal es ave y no vuela y tiene el cuello largo y piernas largas
de color blanco y negro es un avestruz
R14: Si un animal es ave, no vuela, nada, de color blanco y negro, se trata
de un ping uino
R15: Si es un ave que vuela bien, es un albatros
R16: Si un animal es de una especie y ese animal es padre de otro, en-
292 CAP

ITULO 4. SISTEMAS DE RAZONAMIENTO


tonces el hijo es de la misma especie.
Y la siguiente base de hechos:
(animal robbie)
(robbie manchas oscuras)
(robbie come carne)
(suzie tiene plumas)
(suzie vuela bien)
Modeliza este problema con un sistema de reglas de produccion basado en
Prolog. Que se puede decir de Robbie?
h) Se desea modelar el conocimiento de un experto ginecologo en cesareas.
Dicho conocimiento se ha extraido por medio de tres entrevistas para la
realizacion de un sistema experto que ayude al medico en la toma de la
decision del tipo de cesarea a realizar.
Se sabe que existen dos tipos de cesareas: las previstas de antemano y las
improvisadas durante el parto.
Las cesareas previstas de antemano se producen cuando se dan alguna de
las siguientes circunstancias:
1) El bebe esta en posicion podalica
2) La futura madre padece durante el embarazo alguna de las dos enfer-
medades siguientes: gestosisi o diabetes gravdica. 3) La placenta esta en
posicion previacentral.
4) La madre tiene problemas de corazon, renales o graves infecciones en
vas genitales.
En otros casos, la cesarea se improvisa durante el parto. Se produce cuan-
do:
a) La cabeza del ni no es demasiado grande y no cabe por el canal del
parto.
b) La cabeza del ni no no esta encajada correctamente en el canal del par-
to.
c) Existe sufrimiento fetal. Lo cual signica que el ritmo cardiaco del
bebe ya no es regular o que empieza a expulsar meconio.
d) La placenta se desprende.
Existen tres tipos de incision. Si la cesarea no esta programada y la pla-
centa se ha desprendido, se realiza una incision Umblico p ubica. En el
4.5. EJERCICIOS 293
resto de los casos se realiza una cesarea del tipo transversal baja o de Joel
Coell. Se posee la siguiente informacion sobre cada tipo de incision:
i)

Umblico p ubica. Es vertical, empieza debajo del ombligo y termina en
el pubis. La cicatriz es visible y grande.
ii) Transversal baja. Es horizontal, la cicatriz no es visible.
iii) De Joel Coell. Es horizontal.
Con independencia del tipo de incision que se realice, las fases de la in-
tervencion siempre suceden de la misma forma y en el siguiente orden:
Cortar, extraer al ni no, extraer la placenta, y suturar la herida.
Realice lo siguiente:
Construir la base de reglas que modelice dichos conocimientos en un sis-
tema de produccion basado en Prolog.
294 CAP

ITULO 4. SISTEMAS DE RAZONAMIENTO


Captulo 5
Aplicaciones con tecnicas de IA
To boldly go where no map has gone before
En el Captulo 1, se mostro un panorama general de las principales tecnicas en las
que se apoya la IA. Entre estas tecnicas destacan las siguientes: robotica, sistemas
expertos, logica difusa, redes neuronales, vision computacional, y procesamiento del
lenguaje natural. En cada uno de estos formalismos, se mostraron aspectos muy
generales relacionados con su origen, denicion, y principales campos de aplicacion.
Asimismo, en la mayora de estas areas se mostraron algunos de los actuales grupos
de investigacion y los principales foros academicos relacionados con las mismas. En
este Captulo, se van a describir en mayor detalle cada una de estas areas de trabajo,
desde un enfoque tal, que permita dejar en claro aspectos relacionados con sus con-
ceptos basicos, algunos criterios de clasicacion, y principales grupos de desarrollo
relacionados con la misma. La intencion del enfoque, es proporcionar al estudiante
el conocimiento basico relacionado con las diferentes areas de trabajo relacionadas
con la IA, y en base al conocimiento adquirido, bosquejar el dise no de un proyecto
que pueda ser utilizable en su campo de interes. A continuacion se van a describir
los principales campos de trabajo relacionados con la IA.
5.1. Robotica
La robotica es una disciplina que combina todas aquellas actividades relacionadas
con el estudio, dise no, construccion, operacion y mantenimiento de robots. Es un
campo de trabajo que combina recursos de vanguardia de diferentes disciplinas co-
mo Ingeniera Electrica, Ingeniera Electronica, Ingeniera Mecanica, Ciencias de la
Computacion, Matematicas, Fsica, Biologa, Ciencias cognitivas, y Neurociencias
295
296 CAP

ITULO 5. APLICACIONES CON T

ECNICAS DE IA
entre otras.
De acuerdo con la Asociacion Britanica de Robotica (BRA, por sus siglas en ingles),
un robot es un mecanismo reprogramable con un mnimo de cuatro grados de
libertad (DoF, por sus siglas en ingles) dise nado para manipular y transportar partes,
herramientas o implementar manufactura especializada a traves de movimientos
programados para la ejecucion de tareas especicas de manufactura

.
Desde sus inicios a mediados de 1700 cuando J. de Vaucason construyo varias
mu necas mecanicas de tama no humano que tocaban m usica hasta nuestros das,
la robotica ha recorrido un camino que se ha visto marcado por un gran desarrollo,
mismo que ha impactado de diferentes formas la vida cotidiana. Sin embargo, la
robotica reconocida como una nueva tecnologa surgio en la decada de 1960. Han
transcurrido pocos a nos y el interes que ha despertado, desborda cualquier pre-
vision. Quizas, al nacer la robotica en la era de la informacion

, una propaganda
desmedida genero una imagen irreal a nivel popular lo mismo que sucedio con
el microprocesador, sin embargo, en nuestros das, la miticacion de esta nueva
maquina, dio paso a un sistema con caractersticas reales, que ha apoyado el que-
hacer humano en una gran variedad de tareas. El auge de la Robotica y la imperiosa
necesidad de su implantacion en numerosas instalaciones, requiere la participacion
de un buen n umero de especialistas en la materia.
Al ser la robotica una disciplina que ha mantenido un desarrollo constante y una in-
uencia notable en nuestras vidas, las instituciones educativas han visto la necesidad
de incluirla en sus curriculas a diferentes niveles: licenciatura, maestra y doctorado.
Asimismo, se han formado cursos a nivel tecnico, y se ha visto su integracion en
varios talleres.
En esta seccion se van a mostrar los principales aspectos relacionados con esta dis-
ciplina iniciando con sus conceptos basicos.
5.1.1. Conceptos basicos
Un robot, es un mecanismo formado por partes mecanicas, electricas, y electronicas.
Y dependiendo del ambiente donde se vaya a utilizar, puede incorporar una var-
iedad de caractersticas, tales como: elementos de desplazamiento, mecanismos para
la deteccion y reconocimiento de objetos, brazos articulados para la manipulacion
de, y un sistema de control para coordinar la operacion de sus componentes. En
5.1. ROB

OTICA 297
esta seccion se van a describir los principales componentes y caractersticas que con-
stituyen a un robot y que le proporcionan la capacidad para realizar diferentes tareas.
Sistema de control. Este componente se encarga de coordinar la percepcion y ac-
tuacion de un robot. La complejidad de este componente vara en funcion de varios
aspectos tales como: tareas que pueda realizar, entorno donde va a operar, y man-
eras de desplazamiento entre otros. El sistema de control, se puede comparar con
el cerebro humano, en este componente se reciben las se nales provenientes de los
sensores, se procesan, y se envan en forma de comandos de control a las salidas del
sistema. Generalmente, el sistema de control reside en una computadora o microcon-
trolador, con su respectiva memoria de estado solido en la cual reside el programa.
Las distintas se nales de entrada y salida en un robot, proveen una interfaz entre el
sistema de control, el ambiente de operacion, y el efector (elemento que afecta el
ambiente de operacion).
En base al comportamiento requerido del robot, el sistema de control puede manejar
diferentes estrategias para lograrlo, entre las principales estan las siguientes.
Figura etapasdelrobot. En este diagrama se ilustra el mecanismo de operacion de
un robot. El proceso inicia desde que la informacion del entorno entra en forma
de datos por los sensores, es interpretada, y hasta que sale en forma de comandos
(se nales de control) hacia los actuadores.
Control reactivo. Este tipo de control se basa en un conjunto de reglas que mane-
ja las se nales de entrada y las transforma en acciones de salida, es un caso tpico
de estmulo respuesta. Tiene la ventaja de ser muy rapido, sin embargo, tiene la
desventaja de no planicar y tampoco de aprender. Se utiliza en sistemas roboticos
que realizan tareas simples.
Control deliberativo. A diferencia del control reactivo, el control deliberativo
tiene la caracterstica de planicar, es decir, esta basado en el modelo clasico de:
sensar planicar actuar. Bajo este esquema de control, se tiene la ventaja de
seleccionar la mejor accion en base a la informacion de entrada y al objetivo de
la tarea a realizar, esto hace que sea mas eciente que la estrategia reactiva. Sin
embargo, la caracterstica de planicacion requiere mecanismos de b usqueda, los
cuales en la mayora de las veces no son rapidos, ademas la b usqueda necesita tener
un modelo del mundo, el cual en ocasiones se vuelve obsoleto, hace que un sistema
robotico que opera con esta estrategia sea algo lento.
Control hbrido. Es un mecanismo de control que busca integrar las ventajas de
los esquemas anteriores, es decir, que tenga rapidez de respuesta, y que responda de
la mejor forma posible considerando la informacion actual del entorno. Este control
298 CAP

ITULO 5. APLICACIONES CON T

ECNICAS DE IA
generalmente se estructura en tres capas: la capa inferior tiene una estrategia de
control reactiva, la superior una estrategia deliberativa, y posee una capa interme-
dia que conecta las dos anteriores. las3 capas operan de forma concurrente.
Control basado en la conducta. Este mecanismo de control es considerado como
una alternativa al sistema hbrido pero sin la capa intermedia. La diferencia, es que
posee la caracterstica de actuar en forma reactiva y deliberativa. La facilidad de
manejar una escala temporal para todo el sistema lo habilita para el manejo de con-
ductas concurrentes, tales como las requeridas para sistemas que trabajan en equipo.
Independientemente de las estrategias mencionadas, las cuales son generales, algunos
tipos de robot utilizan esquemas de control particulares, por ejemplo, los robots in-
dustriales manejan esquemas de control considerando aspectos como la posicion,
velocidad, y precision entre otros.
Sensores. El siguiente componente importante que poseen la gran mayora de los
sistemas roboticos son los sensores, los cuales son dispositivos que miden cantidades
fsicas. Los sensores permiten que los robots puedan recibir y percibir informacion
del entorno. Su funcion es similar a la de nuestros sentidos. El tipo de sensor(es)
que se implementa(n) en cada robot dependera de la propiedad fsica que se necesita
medir. Por ejemplo, para que un robot sea capaz de medir y conocer la distancia
a objetos que estan a su alrededor, se pueden utilizar sensores con tecnologa ul-
trasonica, radar, o infrarrojos; si la intencion es detectar (percibir) a seres vivos
se pueden emplear sensores de temperatura de tipo termico o infrarrojos; por otro
lado, si la intencion es dotar de ojos al robot, con el n de que pueda percibir y re-
conocer formas complejas tales como personas, entonces se pueden utilizar camaras
o videocamaras, las cuales permiten medir el nivel de luz. De esta manera, existe
una diversidad de sensores, donde su complejidad vara en relacion a la cantidad
de informacion que entregan. Por ejemplo, un switch entrega informacion de tipo
binaria, al contrario, una camara puede entregar una gran cantidad de informacion,
la cual depende del tipo de resolucion que maneje (256x256, 512x640, 1024x1024
pxeles). La informacion que entra a traves de los sensores debe ser procesada con el
n de que pueda ser comprensible al sistema robotico. Este procesamiento involucra
tecnicas de digitalizacion o ltrado de se nales. Independientemente de como se real-
ice el procesado de las se nales, el manejo de los sensores puede ser de manera pasiva
o activa. Un sensor es pasivo cuando solamente capta la informaci on ambiental, por
ejemplo, un sensor de temperatura. Por otro lado, se dice que un sensor es activo
cuando tiene la capacidad de moverse y buscar objetos de interes, por ejemplo, una
camara de vdeo, que es controlada para buscar humanos en su entorno. El tipo de
percepcion que puede tener un robot se divide en dos: i) propiopercepcion, cuando
5.1. ROB

OTICA 299
posee la caracterstica de medir estados internos, por ejemplo: la tension muscular,
y la posicion de un motor, y ii) exteropercepcion, es el caso opuesto al anterior, es
decir, mide los estados externos tales como la vision y la audicion.
Efectores y Actuadores. A veces se manejan estos conceptos como sinonimos, sin
embargo son distintos. Se le denomina efector a todo elemento terminal que forma
parte de un sistema robotico y que tiene la caracterstica de afectar o modicar
el entorno, por ejemplo: brazos, dedos, pinzas, ganchos, electroimanes, patas, dis-
positivos de medicion, y ruedas. La realizacion de distintos tipos de movimientos
que son permitidos en las uniones individuales del efector, son referidos como gra-
dos de libertad (DoF). Estos componentes generalmente son hechos a la medida de
los requerimientos de la aplicacion, los cuales dependen de aspectos como: carga
de trabajo, ambiente de operacion, conabilidad, y costo. Los efectores dividen a
los robots en dos grandes grupos: robots moviles y robots manipuladores. Por otro
lado, un actuador es el mecanismo que le permite al efector realizar una accion.
Generalmente, los actuadores en un sistema robotico son uno de los siguientes: mo-
tores electricos (servomotores, de paso, de corriente continua), cilindros neumaticos,
y cilindros hidraulicos.
Ademas de los componentes mencionados existen otros aspectos que no son menos
importantes tales como: programacion de robots, comunicaciones, y suministro de
energa.
Programacion de robots. Lo que hace que un sistema robotico tenga un compor-
tamiento (determinado por la secuencia de acciones que ejecuta), apropiado en un
entorno determinado, es un programa de computadora. La programacion de robots
requiere de una plataforma computacional con requisitos propios. Esta plataforma
requiere de sistemas operativos los cuales pueden ser especcos (BrickOS, P2OS,
AROS, APERTOS) o generales (Linux, MS-Windows). Cada robot tiene su propio
entorno de software, y su programacion se realiza utilizando lenguajes de progra-
macion de bajo y alto nivel. Los lenguajes utilizados en la programacion de robots
son generalmente C, C++, y cuando se requiere tambien se programa en lenguaje
ensamblador con un conjunto de instrucciones acorde al microprocesador emplea-
do. En unidades roboticas peque nas (robots de entretenimiento y algunos de uso
domestico) el programa se encuentra almacenado en la memoria del microproce-
sador o microcontrolador, el cual generalmente se encuentra integrado (embebido)
en el robot. En unidades roboticas medianas (robots de servicio, unidades de lab-
oratorio) y grandes (robots industriales, robots de exploracion, de uso militar, y
algunas unidades roboticas quir urgicas) el programa que se encarga de controlarlos
generalmente se encuentra en unidades portatiles o en unidades jas. En la progra-
300 CAP

ITULO 5. APLICACIONES CON T

ECNICAS DE IA
macion de robots industriales, generalmente se emplea una computadora ja para
su programacion as como una caja de comandos (ense na las posiciones al efector del
robot) separada, la cual se enlaza con la computadora, lo mismo que otros elemen-
tos de comunicacion y control (servomotores, encoders). En muchas aplicaciones,
la plataforma de programacion requiere de una capa de software intermedio cono-
cida como middleware la cual funciona como una interfaz entre el programador y
el sistema operativo. La existencia de middleware es com un cuando se desarrollan
aplicaciones distribuidas, lo cual ocurre cuando se trabaja en sistemas roboticos que
trabajan en equipo de forma cooperativa y/o colaborativa.
Comunicaciones. El aspecto de la comunicacion en un sistema robotico es de im-
portancia para su buen desempe no. Esta puede ser de dos tipos: i) comunicacion
con humanos, la cual se realiza a traves de interfaces de usuario, y ii) comunicacion
con sistemas no humanos, la cual se realiza a traves de otros sistemas roboticos o
computadoras.
Suministro de energa. La fuente de energa, se encarga de proporcionar y reg-
ular la energa requerida por las diferentes partes del sistema robotico. La energa
utilizada puede ser de los siguientes tipos: electrica, neum atica, o hidraulica.
Aunque los componentes que forman a los robots no son exclusivos de estos (maquinas
herramientas y otros sistemas mecanicos emplean tecnologas semejantes), las altas
prestaciones que se exigen a los robots es lo que marca la diferencia entre ellos y
sistemas similares.
Locomocion robotica. El aspecto de locomocion, desplazamiento, o navegacion
de un robot se reere a la secuencia de acciones realizadas principalmente por los
efectores y que tienen como objetivo cambiar la posicion del robot de un punto ini-
cial a un punto nal. Antes de describir la locomocion en robots, se van a mencionar
algunos conceptos de la fsica que intervienen en este proceso, tales conceptos son
la cinetica, cinematica, DoF, y la dinamica.
Cinematica y cinetica. La cinematica es la rama de la fsica que nos ayuda a
comprender los movimientos (lineal y angular) que realiza un robot al desplazarse
por su entorno. Asimismo, la cinematica se encarga del analisis del movimiento sin
considerar las fuerzas que intevienen en el mismo. En este analisis, se contemplan
ademas las derivadas del movimiento con respecto al tiempo, es decir, velocidady
aceleraci on, incluso derivadas de orden superior. Por su parte, la cinetica involucra
fuerzas, torques, energa, momentos de inercia, masa, equilibrio, estabilidad, etc. La
5.1. ROB

OTICA 301
Figura 5.1: Ilustracion de grados de libertad (DoF): (a) Representa 6 grados de
libertad en el movimiento espacial donde 3 corresponden a traslacion (T1, T2, T3)
y 3 corresponden a rotacion (R1,R2,R3), (b) muestra 5 movimientos de rotacion en
sus articulaciones sumando un total de 15 DoF.
cinematica y cinetica al integrarse forman la dinamica, la cual se encarga de estu-
diar el movimiento considerando las fuerzas (energa y velocidad) que intervienen.
Resulta claro que estas ramas de la fsica, desempe nan un papel muy importante
en el desarrollo de la robotica ya que intervienen principalmente en aspectos tanto
de navegacion como de manipulacion de objetos. A continuacion se va a abordar lo
relacionado con DoF y posteriormente se va a mencionar nuevamente aspectos de la
cinematica en los robots.
Grados de libertad (DoF). El DoF determina la capacidad de movimiento o
rotacion de un objeto a lo largo de un eje. Un sistema mecanico tiene un DOF = 1
si su posicion geometrica se determina completamente en cualquier instante por una
sola variable. En general un objeto que se mueve libremente en el espacio tiene 6
DoF: tres de traslacion (x,y,z) y tres de orientacion/rotacion tal como se muestra
en la Figura 5.1(a), a su vez, en la Figura 5.1(b) se muestra un brazo robotico ar-
ticulado mostrando los movimientos que realiza en cada articulacion, en este caso
se trata solo de movimientos de rotacion. En el caso de estos brazos roboticos, cada
articulacion provee un grado de libertad (se requieren 6 para ubicar un manipulador
en cualquier posicion y orientacion). Los robots moviles generalmente realizan un
movimiento de desplazamiento en un plano (x y) y otro de rotacion.
Movimiento de un robot. Para entender el aspecto relacionado con el desplaza-
miento de un robot debemos tomar en consideracion los tipos de cinematica:(1)
cinematica directa, donde se trata de obtener la posicion nal del robot, teniendo
302 CAP

ITULO 5. APLICACIONES CON T

ECNICAS DE IA
Figura 5.2: Novedosos mecanismos de locomocion en robots: (a) Arrastrarse, (b)
Correr, y (c) Caminar.
como informacion de entrada la posicion inicial y la secuencia de movimientos que
el robot va a realizar, y (2) cinematica inversa, en este caso se intenta obtener la
secuencia de movimientos que debe realizar un robot, para trasladarlo de una posi-
cion inicial a una posicion nal, en este caso, se da como informacion de entrada
la posicion inicial y nal del robot. El movimiento que realiza un robot general-
mente imita al de organismos biologicos, los casos mas comunes son los siguientes:
(a) Arrastrarse, el robot realiza movimientos semejantes a los de un gusano o una
serpiente (ver Figura 5.2(a), (b) Correr, en este caso el movimiento del robot simula
a los de un animal cuadr upedo tal como un perro o un felino (ver Figura 5.2(b)), (c)
Brincar, cuando el movimiento del robot se realiza en base a saltos o brincos similar
a los de un canguro, y (d) Caminar, este movimiento basicamente es realizado por
robots que semejan caractersticas humanas (cabeza, tronco, brazos, piernas) los
cuales son conocidos como humanoides o androides (ver Figura 5.2(c)). Aunque mu-
chos sistemas roboticos utilizan novedosos mecanismos de desplazamiento imitando
organismos vivientes, otros lo hacen basandose en tecnologas ya existentes, tales
como: vehculos automotrices, aeroplanos, y submarinos.
Actualmente existe un gran n umero de robots que utilizan como forma de desplaza-
miento las ruedas. La razon de ello es que son mas simples y faciles de construir,
poseen mejor capacidad de carga, y buena estabilidad. Sin embargo, generalmente
5.1. ROB

OTICA 303
Figura 5.3: Ilustracion que muestra un robot que se desplaza en un terreno acciden-
tado utilizando 3 pares de ruedas sobre ejes articulados.
limitan su uso a terrenos planos, aunque existen dise nos actuales donde los ejes que
unen las llantas son articulados, haciendo que estos robots se desplacen en terrenos
accidentados, tal como se muestra en la Figura 5.3.
Cuando el robot se desplaza a traves de ruedas, estas pueden congurarse de distin-
tas formas, tales como: (a) dos ruedas, un ejemplo de robots que utilizan dos ruedas
para desplazarse son los robots tipo bicicleta y diferencial, (b) tres ruedas, el triciclo
con traccion trasera y delantera, es un ejemplo de robot que se desplaza utilizando 3
ruedas, (c) cuando el n umero de ruedas que utiliza el robot es de cuatro, da origen a
los siguientes casos: carro con traccion trasera, carro con traccion delantera, cuatro
ruedas omnidireccionales, y (d) cuando el robot utiliza seis ruedas generalmemte
emplea cuatro omnidireccionales y dos de traccion al centro. A continuacion se van
a describir de manera general cada uno de los tipos de conguraciones de ruedas
mencionados [131].
Diferencial. Esta conguracion es una de las mas sencillas encontradas en robots
moviles, consiste generalmente en dos ruedas conectadas por un eje com un, donde
cada rueda puede controlarse de forma independiente. Los movimientos permitidos
por esta conguracion son en lnea recta, en arco y alrededor de su eje. Asimismo,
y con el n de mantener el balance, puede utilizar una o dos ruedas adicionales (ver
Figura 5.4). Este esquema cuenta tambien con las versiones de tres ruedas conoci-
da como triangulo la cual presenta problemas de estabilidad y la version de cuatro
ruedas conocida como diamante, esta requiere de un sistema de suspension ya que
304 CAP

ITULO 5. APLICACIONES CON T

ECNICAS DE IA
Figura 5.4: Ilustracion de un robot que utiliza una conguracion diferencial, a la
derecha encerrado entre crculos pueden verse las versiones con una y dos ruedas
adicionales marcadas en color cafe.
presenta el problema de perdida de contacto en las ruedas que realizan la traccion.
Otro aspecto que se debe tomar en cuenta en esta conguracion, es que para realizar
un movimiento rectilneo hay que asegurarse que las ruedas se muevan a la misma
velocidad, para ello es necesario disponer de un sistema de control dinamico con
retroalimentacion.
Sncrono. En esta conguracion, todas las ruedas (usualmente tres) se mueven en
forma sncrona para dar vuelta y avanzar. Las tres ruedes deben estar conectadas
de forma tal que siempre apunten a la misma direccion. Para moverse en crculo las
ruedas deben girarse sobre el eje vertical por lo que debe mantenerse la direccion
del chasis, para esto se requiere de un mecanismo adicional con el n de mantener
el frente del chasis en la misma direccion de las ruedas. Con esta conguracion se
evitan los problemas de inestabilidad y perdida de contacto del diferencial, sin em-
bargo, tiene una mayor complejidad mecanica.
Triciclo. En la conguracion estilo triciclo, se cuenta con un par de ruedas jas
que se utilizan para la traccion y una rueda con mayor libertad de movimiento gen-
eralmente delante de las dos anteriores que se utiliza para darle direccion, la cual
normalmente no tiene la capacidad de traccion. Las caractersticas favorables de
5.1. ROB

OTICA 305
Figura 5.5: Ilustracion de la conguracion estilo triciclo, en la que puede observarse
a la derecha y encerrado en un crculo la disposicion de las ruedas.
Figura 5.6: Ilustracion de la conguracion tipo carro, a la derecha se muestra (encer-
rada en un crculo) la disposicion de las ruedas, donde se observa que un par de
ruedas se mantiene ja y el otro par dispone de una mayor libertad de movimiento.
esta conguracion es que proporciona al robot de buena estabilidad y simplicidad
mecanica, as como una mayor facilidad para moverse en lnea recta, sin embargo,
su cinematica es mas compleja. En la Figura 5.5 se muestra una imagen de esta
conguracion.
Carro. La conguracion tipo carro cuenta con cuatro ruedas, donde, los dos pares
de dos ruedas se mantienen unidas por un eje . Un par de ruedas se utilizan para
la traccion y el otro par de ruedas con libertad de movimiento se utilizan para la
direccion. Este esquema tiene una mayor complejidad mecanica en comparacion con
el tipo triciclo debido al acoplamiento entre el par de ruedas utilizadas para la direc-
cion. Entre las caractersticas favorables que posee este esquema es la disposicion de
una buena estabilidad y facilidad de movimiento en lnea recta, sin embargo, tiene
una mayor complejidad cinematica. En la Figura 5.6 se ilustra esta conguracion en
un robot, asmismo se muestra la disposicion de las ruedas.
Con respecto al movimiento de un robot movil a traves de sus ruedas, este normal-
mente cuenta con tres grados de libertad con respecto a una referencia. Tal referencia
es la posicion en el plano cartesiano (X, Y) y una orientacion ()(verFigura5.7).Demaneraideal, independientementededondeinicieel
306 CAP

ITULO 5. APLICACIONES CON T

ECNICAS DE IA
Figura 5.7: Ilustracion que muestra el desplazamiento de
un robot movil con respecto a un eje de referencia
(X
1
, Y
1
), enlafiguraseaprecianlasruedasdelrobotunidasporunejeenmediodelcualsetrazaelorigendel
con lo cual queda denida su posicion (X, Y, ) en el plano cartesiano [131].
Forma. Otro aspecto basico que resulta interesante sobretodo en la navegacion tiene
que ver con la forma del robot, esta caracterstica del robot es de particular interes
cuando el ambiente en el que se desplaza el robot tiene obstaculos y pasillos angostos.
Cuando el escenario presenta estas caractersticas, los robots con forma cilndrica
tienen mas facilidad para moverse debido a su simetra, ya que el espacio de congu-
raciones (Espacio n-dimensional donde se ubica cada grado de libertad del robot)
se reduce a un plano (2D). Sin embargo, cuando el robot tiene forma cuadrada su
desplazamiento resulta mas complicado, ya que en este caso se tiene que considerar
la orientacion del robot, por lo que su espacio de conguraciones es un espacio de 3D.
Robots con patas. El dise no, construccion y control de robots que se desplazan
utilizando patas resulta mas complicado que los que emplean ruedas (ver Figura
??(a)). Sin embargo, ofrecen la ventaja de su versatilidad para desplazarse en una
mayor variedad de terrenos. Existen versiones con 2, 4 y 6 patas, donde tambien
se observan variaciones en el dise no de las mismas, uno de los dise nos de patas
mas comunes son las patas tipo insecto (ver Figura5.8(b)). En estos robots, la
pata consiste de un segmento con dos motores que le proporcionan dos grados
de libertad, los cuales son los siguientes: (i) movimiento de fuera hacia adentro
5.1. ROB

OTICA 307
Figura 5.8: Ilustracion de un robot que se desplaza con patas: (a) tipos de movimiento
que realiza un robot que se desplaza a traves de patas tipo insecto, (b) disposicion
de 6 patas tipo insecto.
(M
1
)(verFigura5.8(a)), elcualesrealizadotomandocomoreferenciaelcuerpodelrobot, y(ii)movimientodeadel
M
1
M
2
M
1
M
2
.Esdecir, primeroserealizaunmovimientodelapataalej andoladelcuerpo(M
1
)
5.1.2. Clasicacion
Los robots pueden clasicarse tomando como base diferentes aspectos tales como:
aplicacion, locomocion, generacion, inteligencia, y grados de libertad etc. En esta
seccion se va a mostrar una forma para clasicar a los robots basandonos en su
aplicacion. Considerando las caractersticas que tiene un robot en base al trabajo
que va a realizar, estos se clasican en los siguientes tipos:
Industriales. Aunque existen diferentes deniciones para un robot industrial, la
mayora de ellas coinciden en que se trata de una maquina con capacidad de ma-
nipulacion automatica de piezas y/o herramientas para la realizacion de diferentes
tareas en un proceso industrial, ya sea en una posicion ja o en movimiento, re-
programable y multifuncional, con tres o mas ejes con varios DoF. Las tareas que
realizan este tipo de robots, generalmente incluyen entre otras las siguientes: fab-
ricacion, ensamble, manipulacion, inspeccion, y transportacion. En la Figura 5.9 se
muestra un grupo de robots que tienen como tarea el ensamble de partes automotri-
ces. Los robots industriales, en la actualidad, son con mucho, los mas frecuentemente
utilizados en la mayora de los procesos productivos, siendo Japon y Estados Unidos
los pases que lideran la fabricacion y uso de este tipo de tecnologa. Algunos aspectos
que motivan el uso de este tipo de robots son los siguientes:
Fabricar productos de manera economica.
308 CAP

ITULO 5. APLICACIONES CON T

ECNICAS DE IA
Figura 5.9: Ilustracion que muestra a un grupo de robots trabajando en el ensamble
de piezas.
Que los productos sean de calidad.
Que de un mismo producto se puedan elegir muchas opciones.
Realizacion de tareas en ambientes peligrosos.
1. Clasicacion del robot industrial. Con la evolucion del microprocesador,
as como de otros componentes mecanicos y electronicos, el robot industrial paso de
ser una maquina rgida a una con mayor exibilidad y capacidad de uso. Esta evolu-
cion ha generado que estos sistemas roboticos se clasiquen en los siguientes tipos:
(i) Brazos Manipuladores. Son sistemas mecanicos, como los mostrados en la
gura 5.9, los cuales pueden ser programados para realizar distintas tareas. Gen-
eralmente, cuentan con un sistema de control simple que les permite la movilidad
de sus partes de forma manual, automatica, o semiautomatica.
(ii) Robots con capacidad de aprendizaje. El aprendizaje es uno de los cam-
pos relevantes dentro de la IA, ya que al ser este una caracterstica distintiva de la
inteligencia, el desarrollo de algoritmos que permitan replicar esta habilidad en las
maquinas es de gran interes cientco. Al ser los robots, sistemas que han evoluciona-
do al igual que los avances tecnologicos, se les ha dotado de varias caractersticas
de IA con la nalidad de hacerlos cada vez mas utiles a los humanos. La forma de
aprendizaje que generalmente se ha incorporado en estos sistemas es a traves de
observar y repetir, es decir, el robot observa al humano realizar una tarea y posteri-
5.1. ROB

OTICA 309
ormente el la repite, a este tipo de programacion se le conoce como programacion
basada en gestos. Actualmente, solo se limitan a repetir secuencias de movimientos
o acciones previamente mostradas.
(iii) Robots controlados por computadora. Este tipo de sistemas roboticos
son controlados a traves de una computadora, la cual es programada utilizando un
lenguaje de programacion especco para este n. Las diferentes tareas que pueda
realizar este tipo de maquinas son indicadas a traves de una terminal. Este robot,
ofrece grandes ventajas en contraparte a otros sistemas manuales, sin embargo, re-
quiere de personal calicado para su programacion.
(iv) Robots Inteligentes. Actualmente, este tipo de robots se encuentran en fase
experimental. Se busca que estos sistemas tengan la capacidad de reconocer el am-
biente que le rodea y actuar de acuerdo a las tareas que debe realizar en tal es-
cenario. Las caractersticas que se busca en este tipo de sistemas, son las mismas
que busca el paradigma de programacion orientada a agentes. Es decir, entre otras,
tener la capacidad de autonoma, trabajo en equipo y toma de decisiones en tiempo
real. Los trabajos de investigacion relacionados con este tipo de sistemas integra
varias disciplinas entre las que se incluyen: vision articial, sistemas multiagentes,
y aprendizaje.
(v) Micro y nanorobots. Con el avance en el area de micro y nanotecnologas,
actualmente se estan realizando trabajos con el n de dise nar mecanismos roboticos
con esta escala, que puedan tener una variedad de aplicaciones (medicina, educa-
cional, investigacion).
Con respecto a robots industriales, el a no 2011 ha sido el mas exitoso en 50 a nos,
desde la primera instalacion del primer robot industrial en 1961, ya que mas de 2.3
millones de unidades han sido vendidas en todo el mundo. Alcanzando un maximo
historico en 2011 con 150,000 unidades vendidas. Esto fue declarado en mayo del
2012 por el Dr. Shinsuke sakakibara, presidente de IFR (Federacion Internacional
de Robotica) con sede en Munich, Alemania. De acuerdo con el Dr. Shinsuke, las
expectativas futuras en ventas para estos sistemas se ven prometedoras.
2. Robots Personales y/o de Servicio. Actualmente, el dise no y creacion de
sistemas roboticos ha llegado a introducirse en la sociedad humana, dando lugar
a una nueva clase de robots que interact ua con las personas, a estos robots se les
conoce bajo el nombre generico de: robots personales y/o de servicio. De acuerdo con
la Federacion Internacional de Robotica (IFR), un robot de servicio es un robot que
310 CAP

ITULO 5. APLICACIONES CON T

ECNICAS DE IA
opera de forma parcial o totalmente autonoma, para realizar tareas para el bienestar
de los humanos, excluyendo operaciones de manufactura. Los usos que se les da a
estos sistemas es variable e incluye entre otros los siguientes: (i) Servicio domestico,
realizando funciones relacionadas con mantenimiento, limpieza, y preparacion de
alimentos, (ii) Sector salud, principalmente en apoyar la independencia de adultos
mayores con n de mejorar su calidad de vida (es mejor permanecer en el hogar, que
estar recluidos en centros de atencion), (iii) Usos militares, manejo de explosivos y
uso de armamento, y (iv) Entretenimiento, robots parlantes que platican y cuentan
historietas, as como robots que se desempe nan como mascotas. En la Figura 5.10(a),
se muestra una imagen del robot conocido como NurseBot, el cual fue se dise nado
en la Universidad de Carnegie Mellon (CMU) en colaboracion con la Universidad de
Pittsburgh. Este robot fue creado para apoyar la labor de los cuidadores humanos, es
decir, ayudar a las personas encargadas de cuidar a las personas adultas a sobrellevar
su vida. Entre sus funciones, estan la de realizar recordatorios (cita con el medico,
hora de ejercitarse, hora de tomar la medicina), los cuales muestra de forma escrita
(en una pantalla) y verbal. Asimismo, otras de las tareas que realiza, es proporcionar
informacion del clima y noticar de algunos eventos diarios. En la Figura 5.10(b)
se muestra a OFRO, robot dise nado para labores de seguridad y vigilancia. La
Figura 5.10(c) ilustra a Big Dog, robot que se mueve con 4 pata imitando un
movimiento similar a un perro y con la capacidad de subir colinas. Este robot, se
utiliza actualmente por las fuerzas militares de USA como un vehculo de carga. En
la Figura 5.10(d) se muestra a Robomov, el cual es un robot de uso domestico
empleado para cortar el cesped.
De acuerdo con informacion mostrada por Rafael Barea (Robotica de Servicios, De-
partamento de Electronica, Universidad de Alcala), hasta el 2007, se haban vendido
un total de 5.5 millones de robots de servicio, siendo el area de entretenimiento, la
que haba vendido el mayor n umero de unidades: 2 millones. Y se muestra una es-
timacion para los a nos 2008-2011, en los que se esperan vender en este campo un
total de 7.4 millones de nuevos robots. Seg un informacion proporcionada por IFR,
en 2010 se vendieron un total de 753,000 unidades de robots para entretenimiento,
cifra que supero en un 31 % las unidades vendidas en el 2009. Esto nos da una idea
del crecimiento en el uso que tienen los productos derivados de la investigacion en
la robotica, disciplina estrechamente relacionado con la IA.
3. Exploracion. A diferencia de los sistemas roboticos descritos con anterioridad,
los cuales generalmente son connados a espacios cerrados, los robots utilizados en
la exploracion se mueven en espacios abiertos. Estos ambientes se caracterizan por
ser altamente dinamicos y plagados de incertidumbre. Por lo tanto, uno de los may-
ores desafos que enfrentan los dise nadores de estos estos sistemas, consiste en la
navegacion. Los robots de exploracion se utilizan en escenarios terrestres, marinos,
5.1. ROB

OTICA 311
Figura 5.10: Imagenes de diferentes robots de servicio. (a) NurseBot, robot
dise nado para el cuidado de personas adultas mayores, (b) OFRO, vehculo robotico
aplicado en tareas de seguridad y vigilancia, (c) Big Dog, Vehculo para carga, ac-
tualmente utilizado por el ejercito de USA, (d) Robomov, sistema robotico utilizado
para podar el cesped.
312 CAP

ITULO 5. APLICACIONES CON T

ECNICAS DE IA
aereo, y espacial. Cada uno de estos escenarios plantea sus propios desafos en la
tarea de exploracion. En la Figura 5.11, se muestran 4 robots utilizados para la
tarea de exploracion en tierra, aire y en el espacio. En la Figura 5.10(a) se muestra
Mini-Andros el cual es utilizado por las fuerzas armadas de USA para detectar y
disponer de bombas en medios urbanos, este es un robot con 8 ruedas, las cuales
pueden ser dispuestas como piernas tal como se observa en la gura con el n de
subir escaleras. En la Figura 5.11(b) se muestra una imagen del avi on no tripulado
conocido como Predator, el cual es un robot de exploracion al servicio de la milicia
de USA. Asimismo, en la Figura 5.11(c) se ilustra la imagen de TROV un robot de
exploracion que opera en el ambiente marino artico y que obtiene informacion para
nes cientcos. La Figura 5.11(d) muestra el Curiosity, el robot de exploracion
espacial mas avanzado hasta el momento, el cual despego de Cabo Ca naveral el 26
de noviembre del 2011 y se poso en la supercie de Marte el 6 de agosto del 2012. El
objetivo de este vehculo de exploracion espacial es la b usqueda de indicios de vida en
el planeta rojo, as como obtener informacion relacionada con el clima y la geologa
del mismo. El Curiosity fue un proyecto de colaboracion global desarrollado y co-
ordinado por la NASA (Administracion Nacional para la Aeronautica y el Espacio) .
4. La Robotica en la Medicina. Aunque la medicina es una aplicacion que cae
en el ambito de los robots de servicio, se muestra en un apartado separado por el
fuerte impacto que ha tenido la robotica en este campo. El ingreso de los sistemas
roboticos en la medicina, inicio como un proceso experimental a mediados del siglo
XX. Sin embargo, no fue sino hasta 1987 con la intervencion quir urgica realizada
por Mouret que hizo su entrada formal en los quirofanos del mundo [133, 132]. A
partir de entonces, el interes en esta area ha ido en incremento y se ha extendido
a una gran variedad de procedimientos quir urgicos. La aplicacion de la robotica en
el campo de la medicina es tan variado que lo hemos clasicado en los siguientes
subtipos:
(i) Robots Quir urgicos. Son mecanismos roboticos que han sido dise nados para
asistir al cirujano en una intervencion quir urgica. Dentro de este campo se distinguen
los siguientes subcampos.
Micro y Nanociruga. La microciruga y la nanociruga son subcampos que por
derecho propio son considerados como una disciplina, debido al creciente n umero
de trabajos de investigacion que se estan realizando. Se denomina con este nombre
a intervenciones quir urgicas poco invasivas y apoyadas por dispositivos roboticos
muy precisos. Un ejemplo de estas intervenciones son las operaciones laparoscopi-
cas, donde se introducen por peque nos oricios tres componentes roboticos: una
camara optica, una luz y una especie de dedo robotizado que puede llevar desde
5.1. ROB

OTICA 313
Figura 5.11: Imagenes que muestran robots utilizados con nes de exploracion en
diferentes ambientes: (a) Mini-Andros, robot que opera en ambiente terrestre y
que detecta bombas, (b) Predator, robot de exploracion aerea utilizado con nes
belicos, (c) TROV, robot que se mueve en ambiente marino y que obtiene datos para
nes cientcos, y (d) Curiosity, robot de exploracion espacial el cual se encuentra
actualmente en la supercie de Marte buscando indicios de vida.
314 CAP

ITULO 5. APLICACIONES CON T

ECNICAS DE IA
micropinzas a bisturs. El sistema robotico Da Vinci (ver Figura 5.12) creado por
Intuitive surgical Inc., creado para ciruga laparoscopica es un ejemplo tpico de esta
clase. Da Vinci es un sistema robotico que consiste en un par de brazos quir urgicos
manejados por medio de controles y realiza movimientos muy precisos, asimismo
dispone de una camara tridimensional de alta denicion para envviar imagenes en
tiempo real. En este sistema, el cirujano tiene el control total sobre los movimien-
tos del robot y siente las fuerzas de contacto del robot y sus herramientas con los
tejidos gracias a la integracion de tecnologa haptica. La imagen es transmitida
en modo entrelazado sin comprimir y es presentada no entrelazada. Se superponen
textos y gracos y se mejora la iluminacion. Este sistema robotico, fue aprobado por
la FDA para su uso en: laparoscopa en general, ciruga de torax, y prostatectoma.
Da Vinci se ha utilizado en Europa desde 1998. Esta tecnologa esta disponible
en Mexico desde el 2007 a traves del Hospital San Jose del Tec de Monterrey. Los
hospitales de Estados Unidos cuentan con poco mas de mil unidades Da Vinci. Esta
tecnologa esta presente en casi todos los de pases de Europa donde esta incluido en
casi todos los programas de atencion hospitalaria. En America Latina, solo algunos
pases como Argentina, Brasil, Venezuela y Puerto Rico tienen unidades Da vinci
[134].
Cirugas de precision y fuerza. En este tipo se clasican las intervenciones
quir urgicas que requieren gran fuerza o precision, tales son los casos de interven-
ciones para cortar huesos o intervenciones en la cabeza. En este ultimo caso, el
dispositivo robotico es capaz de cortar con precision sin afectar a puntos vitales,
recibiendo las instrucciones del cirujano y apoyandose de imagenes tridimensionales
que muestran la anatoma interna del paciente. Empleando tecnologa robotica, el
hueso puede ser seccionado con una precision diez veces mayor que con la tecnica
manual.
El uso de robots en intervenciones quir urgicas tiene varias ventajas, entre las que se
pueden mencionar las siguientes: (i) la intervencion es realizada con mayor precision
que su contraparte humano, (ii) Debido a que en la mayora de las ocasiones son
procesos no invasivos la recuperacion del paciente es mucho mas acelerada, (iii) el
uso del robot elimina los temblores humanos, es capaz de entrar a zonas inasequibles
para los medicos y da na menos tejido sano en los alrededores de la region afecta-
da.?, y (iv) el uso de los robots reduce la estada en el hospital, disminuye el trauma
operativo, benecia el impacto cosmetico de la intervenci on y aten ua el tiempo de
recuperacion.
(ii) Robots para la rehabilitacion y protesis. En terminos medicos, una protesis
es una extension articial que reemplaza una parte faltante del cuerpo. En terminos
5.1. ROB

OTICA 315
Figura 5.12: Imagen que muestra los componentes del sistema robotico Da Vinci. (a)
El sistema muestra las dos articulaciones roboticas durante una intervencion, estas
articulaciones o brazos roboticos tienen 7 DoF y reproducen de manera precisa los
movimientos del cirujano, (b) esta imagen muestra las manos del cirujano operando
los componentes del sistema robotico, (c) se muestra el centro de control, en el que
un cirujano se sienta y da inicio a una intervencion quir urgica.
316 CAP

ITULO 5. APLICACIONES CON T

ECNICAS DE IA
de robotica, se dene a una protesis robotica, como un elemento articial dotado
de cierta autonoma e inteligencia capaz de realizar la funcion de una parte faltante
del cuerpo humano. Dicha autonoma e inteligencia se logra al integrar dispositivos
de medicion, procesadores, actuadores, y complejos algoritmos de control [135] al
sistema robotico. Aunque el uso de protesis articiales data de varios siglos, en la
era moderna, el factor determinante que dio un fuerte impulso a su desarrollo fue la
necesidad de mejorar la calidad de vida de los sobrevivientes de las guerras. El de-
sarrollo de protesis roboticas de una calidad aceptable, requiere de un gran esfuerzo
y el conocimiento de varias disciplinas tales como: siologa y biomecanica humana,
mecanica de materiales, mecanismos, interfaces humano-maquina, mecatronica, cien-
cias cognitivas, neurociencias, nanotecnologa, procesamiento de se nales, y ciencias
del comportamiento. Actualmente, el uso de protesis es personalizado, ya que debe
reemplazar a una parte faltante de una persona, la cual tiene caractersticas muy
particulares de masa, tama no, grados de libertad, y fuerza. El control de las protesis
se realiza generalmente de forma mecanica a traves de interruptores o alg un tipo
de servomecanismo con comandos programados. El desarrollo y comercializacion de
protesis controladas a traves de la voluntad humana es de uso a un muy limitado y
costoso, ya que esta tecnologa a un se encuentra en fase experimental. Con respecto
a este tipo de protesis, el Prof. Hochberg (catedratico de ingeniera de la Universidad
de Brown, USA) y su equipo, probaron de manera exitosa una protesis robotica que
obedece las ordenes del cerebro. Esta protesis se probo en una paciente tetrapleji-
ca, la cual logro controlar un brazo robotico conectado a su cerebro para sujetar
un envase conteniendo agua y moverlo para lograr beber (ver Figura 5.13(a)). Esta
tecnologa funciona gracias a un chip implantado en la corteza motora del paciente,
el cual registra las se nales emitidas por las neuronas para mover la articulacion
robotica (brazo y mano) . El chip se conecta a un microprocesador que interpreta la
informacion y la traduce en comandos que enva al brazo robotico para que este se
mueva obedeciendo a los pensamientos de la persona. Esta tecnologa se probo en el
a no 2012.
Como ya se menciono las protesis roboticas son aquellas que tiene una fuente de en-
erga propia, un actuador, y sensores que permiten leer los movimientos deseados por
el usuario. Por lo tanto, se requiere un sistema para el procesamiento de esas se nales
(a un en su forma mas basica) para poder convertirlas en movimientos de los actu-
adores. En este proceso, no es necesario que el sistema provea de retroalimentacion
al usuario. Sin embargo, en la mayora de las protesis la retroalimentacion se realiza
a traves de la vista. Algunos ejemplos de protesis roboticas se ofrecen a continuacion.
Mano Bionica I-Limb. Esta protesis robotica (mostrada en la Figura 5.13(b)),
tiene dedos que son controlados de forma independiente a traves de las se nales
5.1. ROB

OTICA 317
electricas generadas por el cuerpo de la persona que la utiliza. El control indepen-
diente de cada dedo, permite la realizacion de una gran cantidad de movimientos.
La mano I-Limb, es capaz de sujetar objetos con fuerza y precision. Este sistema
robotico fue dise nado por la empresa Touch Bionics, y se describe como una protesis
creada para ayudar a incrementar la funcionalidad e independencia de personas que
han perdido este miembro.
Power Knee. Esta es la primer protesis robotica de rodilla (ver la Figura 5.13(c)),
la cual es fabricada por la compa na Ossur. La Power Knee reemplaza la funcion
muscular perdida mediante un actuador electrico, el cual permite generar la propul-
sion necesaria para caminar, levantarse de una silla, y subir escaleras. Esta protesis
contiene varios elementos electricos y electronicos (matriz de sensores, giroscopios,
celdas de cargas, sensores angulares, y un modulo de propriocepcion articial de
sonido en la pierna, ya que utiliza un detector de sonido para conocer el ritmo de
la pierna sana al desplazarse) para que realice de forma apropiada sus funciones.
La operacion conjunta de estos elementos es de la siguiente manera: el arreglo de
sensores, habilita al dispositivo observar

el estado general de la interfase humano-


protesis. El sistema contiene un microprocesador que utiliza la informacion de los
sensores para lograr un caminado similar al humano. La informacion proporcionada
por el sistema sensorial del sonido permite regenerar la cinematica del caminado
mientras anticipa la funcion requerida cuando las condiciones de caminado cam-
bian. La protesis Power Knee, sujeta su uso bajo las siguientes restricciones: (a)
puede ser utilizada por personas que han sido amputadas en una sola pierna, (b)
las personas deben pesar menos de 100 Kgs., y (c) la longitud del suelo al punto de
amputacion debe ser al menos de 49 cm.
Con respecto al aspecto de rehabilitacion, este es un proceso que se aplica gen-
eralmente a las personas que debido a un accidente o enfermedad han perdido de
manera parcial o total las funciones motoras en alguno de sus miembros. En muchas
ocasiones, se tiene que amputar alguna de las extremidades y se reemplaza por una
protesis. En esta situacion, la rehabilitacion consiste en una serie de ejercicios con
el n de acostumbrarse a manejar las funciones motoras, realizadas ahora por una
protesis robotica. En otros casos, la rehabilitacion se aplica para recuperar aunque
sea de forma parcial la movilidad motora en alguno de los miembros apoyada por
un sistema robotico (ver Figura 5.13(d)) . Las terapias de rehabilitacion, general-
mente son procesos repetitivos y costosos. Durante este proceso, el paciente debe
realizar un gran esfuerzo, pero tambien este esfuerzo lo realiza el sioterapeuta que
participa en el mismo. Al introducir la tecnologa robotica en la rehabilitacion, se
libera al sioterapeuta de esta tarea y solo se encarga de hacer un seguimiento de la
evolucion del paciente, y por ende, puede enfocar sus esfuerzos para conseguir ter-
318 CAP

ITULO 5. APLICACIONES CON T

ECNICAS DE IA
Figura 5.13: Ilustracion de protesis roboticas. (a) esta imagen muestra a una paciente
tetraplejica, que mueve a un brazo y mano roboticas a traves de comandos cerebrales,
(b) la imagen muestra a I-Limb, una mano bionica que puede sujetar objetos con
precision y fuerza, (c) en esta imagen se muestra a Power Knee, protesis robotica de
rodilla, ofrece al usuario la capacidad de caminar, doblar las rodillas para hacer el
movimiento de levantarse y sentarse (de una silla) y subir escaleras, y (d) persona
que se apoya de un sistema robotico para hacer ejercicios de rehabilitacion.
5.1. ROB

OTICA 319
Figura 5.14: En la imagen se muestra al sistema robotico Pi Zymark, el nombre es
debido a que sus componentes son dispuestos en crculo. El robot, colocado en el
centro, distribuye consumibles y muestras de una estacion de trabajo a otra [136].
apias mas ecientes. Finalmente, podemos decir que, como resultado de introducir
la tecnologa robotica en la medicina, se ha mejorado la calidad de vida de miles de
personas al permitirles realizar sus actividades de manera independiente.
(iii) Robots de almacenaje y distribucion de medicamentos. Es com un en
los grandes centros hospitalarios y clnicas llevar un estricto control, para que cada
paciente reciba su dosis de medicinas en el momento preciso. Generalmente, es el
medico quien se encarga de establecer el tratamiento farmacologico apropiado para
cada paciente, sin embargo, a veces es difcil llevar un buen control de los sumin-
istros. Por lo tanto, con el n de apoyar al personal medico en las tareas anteriores,
se han automatizado procesos y dise nado robots que se encargan de preparar en
todo momento las dosis que requiere cada paciente, a n de evitar equivocaciones y
descuidos. La automatizacion de los procesos en los laboratorios era una necesidad
en la decada de 1950. Sin embargo, no fue sino hasta la decada de 1980 que se
fundo Zymark Corporation Hopkinton en Massachusetts, corporacion dirigida
por el Dr. Frank Zenie y con el objetivo principal de dise nar robots para aplicaciones
de laboratorios. El sistema robotico llamado Pi Zimark (ver Figura 5.14), fue el
primer sistema dirigido a la automatizacion de procesos de laboratorios que esta em-
presa dise no y comercializo. El Pi Zimark fue dise nado para el manejo seguro de
objetos peque nos tales como tubos de ensayo y pastillas.
A partir de la introduccion del sistema robotico Pi Zymark en los laboratorios,
el n umero de estos sistemas automatizados, as como la diversidad de tareas que
320 CAP

ITULO 5. APLICACIONES CON T

ECNICAS DE IA
pueden realizar se ha multiplicado, siendo los clientes principales las industrias far-
maceuticas, instituciones de salud, y centros de investigaci on. Actualmente existe
toda una industria dedicada al dise no de sistemas roboticos para su uso en labora-
torios.
Un concepto que actualmente se esta materializando gracias a los avances de la
robotica y de otras disciplinas relacionadas es el de Quirofano Inteligente. Bajo este
esquema, el cirujano tiene la posibilidad de realizar diferentes actividades, tales como
las siguientes: interactuar con los equipos e instrumentos de la sala de operaciones,
establecer comunicacion va videoconferencia con otros cirujanos, e interactuar si-
multaneamente y en tiempo real con otros expertos.
El futuro de la robotica, es dise nar robots que tengan la exibilidad de poder realizar
varias tareas de forma autonoma similar a como la realizan los humanos, y que
ademas tengan la caracterstica de adaptarse a diferentes escenarios.
5.1.3. Desarrollos actuales y aplicaciones
Los trabajos que se estan desarrollando actualmente en diversas instituciones academi-
cas y de investigacion relacionados con la robotica son de ndole diversa. La investi-
gacion que se esta realizando actualmente es de caracter multidisciplinario, ya que
involucra diferentes disciplinas tales como: aprendizaje de maquinas, sistemas multi-
agentes, plataformas computacionales, psicologa, biologa, y fsica, entre otras. Con
respecto a las aplicaciones que tienen los resultados de estos trabajos, son de un
espectro muy variado, tal como se mostro en la seccion anterior. En este apartado,
se van a mostrar algunas de las instituciones academicas y de investigacion lderes
en robotica, con el n de formarse una idea, de lo que se esta haciendo actualmente
en este interesante campo de estudio.
Carnegie Mellon University (CMU). El instituto de robotica de CMU, es una
institucion que forma investigadores y realiza investigaci on en el area de la robotica.
Esta institucion cuenta al momento de escribir este libro con un equipo de 27
profesores investigadores. Sus proyectos de investigacion cubren practicamente todas
las areas en las cuales la robotica puede estar presente. A continuacion se propor-
ciona una breve descripcion de cada una de sus areas de trabajo, as como de los
proyectos que se encuentran desarrollando.
Humanoides. El objetivo que tiene este grupo de investigadores, es crear robots
de servicio utiles asi como la comprension del trabajo humano. Las actividades rel-
5.1. ROB

OTICA 321
evantes que actualmente se encuentra desarrollando este grupo de investigadores
(11 en total) son las siguientes: aprendizaje de robots y enfoques basados en opti-
mizacion aplicados a una planeacion dinamica de movimientos, desarrollo de meto-
dos de dise no para robots que asisten a humanos, desarrollo de modelos de control
humano y explorar su aplicacion en robots, habilitar a humanoides con el n de ver
y realizar movimientos guiados por vision, interaccion humano-robot y la percep-
cion del movimiento humano, habilitacion de movimiento similar al humano, dise no
de robots inteligentes que cooperan, observan, razonan, act uan y aprenden, anali-
sis de esfuerzos realizados por humanoides, movilidad y calidad de vida, sistemas
heterogeneos autonomamente distribuidos que interact uan con humanos, analisis de
interaccion con el ambiente, incluyendo sujecion y manipulacion, analisis de mecan-
ismos de planeacion y control de la manipulacion en ambientes dinamicos.
Interaccion robot-humano. En el a no 2005, el Instituto de Robotica (IR) iden-
tico a la Interaccion Humano-Robot (HRI) como un area emergente prioritaria y
realmente ha sido un area en constante crecimiento para este departamento que
cuenta actualmente con 15 investigadores. Como parte de sus trabajos de inves-
tigacion el grupo de robotica busca continuamente la colaboracion con colegas de
otras instituciones as como trabajar con organizaciones tales como la ACM/IEEE
Human-Robot Interaction Conference con el n de proyectar los trabajos realizados.
Los trabajos realizados por este equipo al igual que los demas que forman parte del
instituto de robotica son en su mayora interdisciplinarios, y actualmente son los
siguientes:
Manejo y control de robots. En esta area, se trabaja con sistemas remotos de
tierra y aire, tales como sistemas para control de robots no tripulados en terrenos
peligrosos requeridos por el ejercito y armada. Otra area de interes, es trabajar
en el control de m ultiples robots de forma tal que operen de manera coordinada,
este trabajo lo enfocan a vehculos aereos y terrestres controlados por una sola per-
sona. Para estos trabajos, se tienen los siguientes proyectos: (i) Coordinacion a gran
escala de sistemas multi-agentes, el cual realiza en colaboracion con el Laboratorio
de Agentes Inteligentes del CMU, (ii) Iniciativa de investigacion de multi universi-
dades. Con estos proyectos se busca escalar en el control de robots, permitiendo a un
solo operador controlar decenas o centenas de robots, este es un objetivo desaante
el cual tiene que ver con la coordinacion de m ultiples robots autonomos as como
probar con nuevas tecnicas para tratar la informacion proporcionada por m ultiples
sensores. Con respecto a manufactura, investigadores y estudiantes trabajan en for-
mas de colaboracion para que humanos y robots realicen tareas de manera conjunta.
Interaccion social. El impacto que los robots pueden tener al ser introducidos en el
ambiente humano ha sido objeto de estudio por diferentes instituciones academicas.
322 CAP

ITULO 5. APLICACIONES CON T

ECNICAS DE IA
Figura 5.15: Proyectos roboticos desarrollados en CMU: (a) Imagen de Robocep-
tionist, un robot que interact ua con personas realizando tareas de recepcionista, y
(b)Snackbot, robot que interact ua con personas ofreciendoles bocadillos.
En CMU, el trabajo relacionado con robots sociales inicio en 2002 con el proyecto
Roboceptionist (ver Figura 5.15(a)). En este proyecto, se ubico a un robot con
un rostro graco (en una pantalla) en uno de los corredores m as transitados del
CMU con el n de interactuar con los alumnos, visitantes, y demas personas. El
robot proporcionaba informacion del clima, direcciones dentro de la institucion, y
datos de su familia virtual. El trabajo consista en observar el comportamiento de
los humanos al interactuar con el robot. En este sentido, la informacion tiene como
objetivo el dise no de robots que puedan ser aceptados por los humanos. Por lo tanto,
los trabajos consisten en dise nar robots con comportamientos, posturas, y dialogos
anes a las diferentes culturas. La integracion de una personalidad articial es otro
trabajo muy desaante. En este sentido Simmons y sus alumnos trabajan en hacer
que el robot imite el comportamiento humano, es decir, en lugar de que los humanos
se adapten a los robots, estos deben adaptarse a los humanos: esperar a que los hu-
manos suban a un elevador antes que el robot, esperar la luz verde antes de cruzar,
etc. En la misma direccion, Rybski explora plataformas robotizadas y tecnologas
para asistencia humana. Su trabajo mas reciente es Snackbot (ver Figura 5.15(b))
un proyecto que sirve como base para el estudio de la ciencia del comportamiento,
robotica y dise no. En este proyecto, un robot recorre los pasillos de un edicio ofre-
ciendo bocadillos a sus ocupantes.
Asimismo, en un trabajo conjunto de Veloso, Simmons, Nourbakhsh, Steinfeld, y
5.1. ROB

OTICA 323
Rudnicky, se unen esfuerzos para introducir m ultiples robots en edicios con el n
de servir como guas, agentes de entrega y demas. Este proyecto explorara la in-
teraccion a largo plazo y los comportamientos de proximidad fsica entre robots y
humanos. Uno de los objetivos en este trabajo es obtener una forma conable para
medir la interaccion humano robot (HRI).
Fungir como tutores es otra de las aplicaciones en las que se han involucrado a los
robots. Desde el a no 2005, el proyecto LISTEN fue utilizado para apoyar la lec-
tura. Posteriormente, en el proyecto TechBridgeWorld Bernardine Dias propuso
el dise no de un tutor para el sistema Braille. Ambos sistemas tutoriales se han apli-
cado en varias comunidades para su uso y evaluacion, lo cual ha trado que, nuevos
metodos educacionales para minera de datos hayan sido desarrollados.
En este mismo sentido, se ha iniciado un gran n umero de proyectos los cuales in-
cluyen ChargeCar, GigaPan, Global Connection, Robot 250, y Robot Di-
aries, la intencion es desarrollar una tecnologa robotica para introducir a la sociedad
al uso de esta tecnologa.
Indudablemente, el aspecto de planeacion es crucial en el funcionamiento de robots.
Pues, resulta necesario que un robot pueda detectar deciencias en sus acciones, y
debe poder generar opciones para revisarlas y mejorarlas. Asimismo, es conveniente
que un robot de asistencia pueda ser utilizado por cualquier persona con un mnimo
de entrenamiento. El desarrollo de tecnologas para la ejecucion de planes, seleccion
de acciones y calendarizacion, requiere el uso de tecnicas de b usqueda, razonamien-
to con incertidumbre, optimizacion, aprendizaje de maquinas, toma de decisiones, y
optimizacion entre otras.
Manipulacion y control. En el IR del CMU, los trabajos relacionados con la
manipulacion mediante robots ha formado parte desde sus inicios en 1979, en un
principio en forma de aplicaciones de manufactura. Posteriormente, este campo sur-
gio como un area de investigacion separada trayendo como resultado la fundacion
del Laboratorio de Manipulacion en 1982, el cual crecio en los a nos siguientes hasta
onvertirse en el actual Laboratorio de Biorobotica y Sistemas Microdinamicos. Este
campo ha experimentado un crecimiento constante que ha dado origen a nuevas
directrices. Asimismo, se ha involucrado con otras ramas de la robotica tales co-
mo: Gracacion, Humanoides, HRI, Manufactura, Robotica Medica, y Tecnologa
de Calidad de vida. Tal vez el signo mas visible de estas colaboraciones ha sido la
creacion recientemente del Laboratorio de Planeacion Basado en B usqueda. Entre
las sub-areas de trabajo que incluye este equipo de trabajo formado por 9 investi-
gadores se encuentran las siguientes:
324 CAP

ITULO 5. APLICACIONES CON T

ECNICAS DE IA
Figura 5.16: Imagen de un robot que tiene como nalidad un comportamiento similar
al humano, al desplazarse por ambientes ruidosos y manipular objetos, en este caso,
el sistema robotico esta abriendo una puerta.
Manipulacion, Control y Planeacion de la Trayectoria. La investigacion en
aspectos de manipulacion en ambientes humanos ha extendido y cambiado nuestra
perspectiva acerca de la manipulacion. Encabezados por Srinivasa y en colaboracion
con investigadores de Intel, se realizan trabajos hacia la identicacion de nuevos
enfoques para tratar con escenarios ruidosos, la sujecion de objetos de forma similar
a como la hacen los humanos, y planeacion de movimientos (ver Figura 5.16). Estos
enfoques han dado lugar a la creacion de nuevas tecnologas.
Control y Planeacion de Movimientos. En este campo, el grupo de investigacion
se enfoca en el desarrollo de formas novedosas de elementos de dise no mecanico
as como tecnicas de control y planeacion, con el n de ampliar las posibilidades de
movimientos. Como resultado de los trabajos realizados por este grupo, guran los
siguientes: exploracion (arqueologa forense), manufactura (ensamble de aeroplanos),
intervenciones quir urgicas roboticas (cirugas del corazon mnimamente invasivas).
5.1. ROB

OTICA 325
Figura 5.17: Imagen que muestra una mano articulada, con la cual se estan probando
nuevos enfoques para la manipulacion autonoma.
Entre las clases de movimiento que se han explorado, guran los de tipo serpiente,
y tipo balon, en el cual el robot se mueve balanceandose sobre una esfera.
Planeacion de Movimientos para Manipulacion Movil. Para los trabajos
que se realizan en este campo se ha creado un nuevo laboratorio (Laboratorio de
Planeacion Basado en B usqueda) el cual esta encabezado por Likhachev y cuyo ob-
jetivo es el desarrollo de nuevas tecnicas de b usqueda aplicadas a la manipulacion
movil. Los trabajos realizados por Likhachev y su grupo incluyen los siguientes: el
robot para escalar RISE, Tecnicas de locomocion adecuadas para robots moviles,
manipulacion para la sujecion, nuevos enfoques a la manipulacion autonoma (ver
Figura 5.17), ensamble de dispositivos electronicos, estrategias de manipulacion y
aprendizaje por imitacion, reconocimiento de objetos y sujecion, entre otros.
Manufactura. Los trabajos desarrollados por el IR en el ambito de manufactura han
sido muy variados abarcando desde tecnologa para automatizacion y mejoramiento
de procesos de manufactura hasta el desarrollo de tecnologas de software para so-
porte de actividades tales como: manejo de operaciones en f abricas, coordinacion de
operaciones en cadenas de suministros y dise no de facilidades para productos. Las
tendencias actuales en manufactura contin uan con el manejo de sistemas de pro-
duccon en serie. Con en n de hacer este proceso rentable, el tiempo de ajuste de las
maquinas debe ser minimizado: calendarizando los productos con tiempos similares
de ajuste en las maquinas, dise nar productos para minimizar el uso de herramien-
tas especiales, y automatizacion de procesos. Con el n de alcanzar estos objetivos,
326 CAP

ITULO 5. APLICACIONES CON T

ECNICAS DE IA
los trabajos en este campo, se han enfocado a herramientas computacionales que
permitan a los robots seguir instrucciones dadas por humanos (RHI), basadas en
maximizar la utilidad de las habilidades naturales ya sea de humanos o de robots.
Este equipo de trabajo formado por 7 investigadores, se enfoca principalmente a la
creacion de tecnologas para hacer mas exible y eciente las operaciones de manu-
factura. Una tarea importante en este caso es la personalizaci on de la manufactura,
es decir, la habilidad para producir peque nas cantidades de productos a la medida
de forma rapida y eciente. En este sentido, David Bourne se enfoca en la automati-
zacion de procesos con el n de transformar dise nos en heramientas fsicas para una
clase especca de productos. Esquemas de conguraciones de procesos de m ultiples
etapas que pueden transformarse de forma rapida para elaborar tipos especcos de
productos, as como el dise no de mecanismos para la creacion y coordinacion de
organizaciones virtuales son direccionados por Ralph Hollis, Stephen Smith y Katia
Sycara.
Otra area de interes para este grupo de trabajo, consiste en ecientizar algunos pro-
cesos que ocurren en la industria y que generan cuellos de botella y altos costos
para las empresas. Se trata de situaciones que ocurren en la industria automotriz,
quienes emplean robots para pintar y ensamblar partes (ver Figura 5.18). En este
caso, cuando se cambia de un modelo de auto a otro la programaci on de los robots
para ajustar las trayectorias lleva un tiempo de especialista entre 3 a 5 meses. En
este caso, se trabaja en mecanismos de automatizar la planicacion de trayectorias
para determinar nuevas trayectorias en el menor tiempo posible.
Asimismo, algunos de los trabajos que actualmente se encuentra desarrollando este
equipo son los siguientes: (i) desarrollo de nuevos procesos de manufactura en sis-
temas micro-electromecanicos (MEMs), (ii) robots modulares de alta precision,y (iii)
dise no de herramientas de calendarizacion y planeacion para peque nas empresas de
manufactura. Una lnea reciente de investigacion involucra la combinacion de tecni-
cas de minera de datos con procedimientos de optimizacion basados en escenarios,
con el n de desarrollar planes para redes de produccion y suministro que reejan
de forma precisa los patrones de demanda/suministro y la historica incertidumbre
evidente en los procesos de manufacturas. En esta misma direccion, se trabaja en
el desarrollo de algoritmos para coordinar los movimientos de m ultiples robots que
manejan materiales.
La investigacion en procesos y tecnologas basados en MEMs proporcionara nuevas
oportunidades en la manufactura de microsistemas altamente integrados que van
desde arreglos de sensores aplicados en navegacion hasta implantes biomedicos minia-
turizados. Una rama relativamente nueva de investigacion relacionada con manip-
5.1. ROB

OTICA 327
Figura 5.18: Robots utilizados en la industria automotriz, automatizar la plani-
cacion en este campo es un trabajo desaante pero que ofrece grandes ventajas.
uladores MEMs, consiste en la creacion de sistemas de nanomanufactura, lo cual
traera un gran impulso en el uso de robots en la industria. Asimismo, este equipo
se encuentra actualmente trabajando en proyectos relacionados con automatizar el
ensamble de piezas en los telefonos celulares y manipuladores utilizados en la in-
speccion y ensamble de partes de aviones.
Robots en Medicina. Con respecto a la introduccion de robots en la medicina,
el IR se encuentra actualmente desarrollando investigacion basica y aplicada en las
siguientes areas: (1) Ciruga asistida por computadora, (2) Robots que realizan inter-
venciones quir urgicas, (3) Herramientas de diagnostico, (4) Informatica y analisis de
imagenes en 2D y 3D, (5) Realidad virtual, y (6) Medicina regenerativa. A mediados
de la decada de 1990, el IR se enfoco al desarrollo de procedimientos mas precisos
y menos invasivos. El primer sistema de ciruga ortopedica guiado por imagenes
fue desarrollado en esta institucion y ha sido usado clnicamente. Asimismo, se han
desarrollado herramientas roboticas para la preparacion de supercies oseas. Los
trabajos mas recientes de ciruga asistida por computadora se han enfocado a inter-
venciones adicionales: intervenciones cardiacas guiadas por imagenes en prenatales,
cirugas de corazon, cirugas en ojos, y otras. Ademas, las tecnicas para el analisis
de imagenes biomedicas se estan aplicando para apoyar la planeacion y toma de
decisiones en intervenciones quir urgicas. Asimismo, en a nos recientes, este campo
de investigacion ha ampliado sus horizontes y actualmente tambien contempla los
aspectos de cuidados de la salud.
328 CAP

ITULO 5. APLICACIONES CON T

ECNICAS DE IA
Varios investigadores, entre los que destacan Takeo Kanade, George Stetten, Lee
Weiss, y Gary Fedder, se encuentran enfocados al desarrollo de tecnologas desti-
nadas a apoyar la deteccion y prevencion de problemas medicos: tecnicas para el
analisis de imagenes biomedicas para la prediccion y clasicacion de enfermedades,
microsistemas implantables para el monitoreo de signos vitales, tecnologas de re-
habilitacion y asistencia, destinadas a mejorar la calidad de vida de personas con
alguna discapacidad y de la tercera edad, y metodologas para desarrollar prototi-
pos en la manufactura de tejido sintetico. A partir del 2005 y en colaboracion con
Marco Zenati (profesor de la Universidad de Harvard), Howie Choset desarrollo la
tecnologa para un robot serpiente el cual tiene como objetivo, servir como instru-
mento quir urgico para cirugas del corazon mnimamente invasivas. A este proyecto
se le llamo Cardiorobotics y recibio un apoyo de 30 millones de dolares y en el par-
ticiparon 21 investigadores. En febrero del 2010, este robot se utilizo por primera vez
en una ciruga del corazon. Otros dispositivos roboticos que han sido desarrollados
en el IR incluyen los siguientes: Sonic Flashlight (ver Figura 5.19), el cual muestra
en tiempo real imagenes de ultrasonido con vision humana directa para ver a traves
de la piel y observar los tejidos de una forma transparente; Micron, instrumento
quir urgico totalmente manejado a mano y que de forma reciente ha servido como
base para la investigacion de una plataforma robotica para bioenginiera en la univer-
sidad John Hopkins; Precision Freehand Sculptor, dispositivo robotico manejado
a mano para el tratamiento de huesos, el cual recientemente fue comercializado por
la empresa de tecnologas Blue Belt; y HearthLander, un robot miniatura para
tratamientos al corazon mnimamente invasivos, actualmente esta siendo comercial-
izado por HearthLander Surgical.
Un aspecto clave en el exito logrado por el IR en la investigaci on relacionada con
robotica biomedica, es su cercana colaboracion con personal e instituciones medicas.
Por ejemplo, se tiene una estrecha colaboracion con el Centro Medico de la Univer-
sidad de Pittsburgh, asimismo se tienen convenios de colaboracion con el Hospital
General y el Hospital del Ni no de Pittsburgh. Ademas, mantienen una cercana co-
laboracion con investigadores del Departamento de Bioingeniera de la Universidad
de Pittsburgh.
Resulta claro que en los tiempos actuales, los trabajos de investigacion deben ser
principalmente producto de una participacion multidisciplinaria.
Microrobotica. Esta es otra de las ramas de la robotica que es de interes para
el IR. Las investigaciones relacionadas con microrobotica y MEMs incluye los sigu-
ientes topicos: dise no de metodologas, tecnicas de manufactura con microsensores,
5.1. ROB

OTICA 329
Figura 5.19: Imagen de Sonic-Flashlight, robot desarrollado en el IR y que permite
obsevar imagenes de ultrasonido, tejidos y piel.
microactuadores, arreglo de sensores inerciales para control y gua, dise no de robots
miniaturas que trepan paredes mediante micro y nano bras adhesivas o que caminan
sobre la supercie del agua (ver Figura 5.20), manufactura de manipuladores uti-
lizando arreglos de MEMs, arreglo de sensores en base a gases qumicos para sistemas
que requieren un rapido calentamiento, sondas neuronales compatibles aplicadas en
interfaces cerebro-computadora. El equipo de robotica ha desarrollado programas
de investigacion multidisciplinarios relacionados con el dise no y fabricacion de sis-
temas MEMs integrados, sistemas micro y nano roboticos, as como la implantacion
de microsistemas medicos. El futuro de la investigacion en este campo es bastante
prometedor, con el dise no de tecnologa a una escala nanometrica la cual sin duda
tendra una fuerte aceptacion en aplicaciones biomedicas emergentes. Uno de los prin-
cipales desafos que enfrenta este grupo de trabajo, se relaciona con la integracion
de sistemas o componentes de un sistema desarrollados a diferentes escalas (macro,
micro, nano). La CMU se encuentra actualmente construyendo el Laboratorio de
Nano/Bio/Energy (el cual espera terminar en el a no 2014) el cual sera un espacio
destinado a la investigacion en nanotecnologas y biotecnologas. Asimismo, se es-
pera que este laboratorio proporcione la infraestructura necesaria para el estado del
arte en la micro y nanofabricacion.
Robots Moviles. La investigacion relacionada con robots moviles ha sido un area
de interes desde los inicios del IR. Actualmente, esta sigue siendo una de las areas
fuertes con cerca de 20 investigadores que se encuentran realizando trabajos de
investigacion en este interesante campo. Los proyectos de investigacion que se real-
330 CAP

ITULO 5. APLICACIONES CON T

ECNICAS DE IA
Figura 5.20: Ilustracion del microrobot WaterStrider, sistema bioinspirado que imita
el comportamiento de los insectos que caminan sobre la supercie del agua.
izan incluyen los siguientes topicos: dise nos innovativos en aspectos de locomocion
para robots de peque no tama no, robots de exploracion, y sistemas roboticos para
navegacion en exteriores. Ademas de los topicos anteriores, actualmente se esta tra-
bajando en las siguientes areas de investigacion:
Mecanismos de planeacion y herramientas arquitecturales para robots
moviles. Los trabajos desarrollados en este campo son encabezados por Alonzo
Kello y Tony Stent, quienes han demostrado sus investigaciones en aplicaciones de
uso para interiores y exteriores. Los productos resultado de sus trabajos estan siendo
utilizados como prototipos en la NASA. Sus investigaciones se relacionan desde el
desarrollo de herramientas de planeacion hasta algoritmos aplicados en navegacion
en ambientes con incertidumbre y determinacion de comportamientos. Estos algo-
ritmos fueron probados de forma exitosa en la competencia de desafo urbano para
vehculos no tripulados en el 2007 (ver Figura 5.21).
Mapeo y Localizacion. En esta area de investigacion, los trabajos estan dirigidos
por Howie Choset, Martial Hebert y Sanjiv Singh. En estos trabajos, se desarrol-
lan tecnicas basadas en imagenes para la localizacion de robots y generacion de
mapas, as como tecnicas para manejar la cooperacion entre m ultiples robots. Esta
area esta estrechamente relacionada con la de sistemas multi-agentes, y su investi-
gacion ha dado como resultado el desarrollo de algoritmos para controlar equipos
de robots con el n de realizar tareas complejas, tales como: exploracion y vigilancia.
5.1. ROB

OTICA 331
Figura 5.21: Imagen de Boss, vehculo autonomo no tripulado, el cual puede viajar
de forma segura manteniendo una velocidad maxima de 48 Kph. El desarrollo de
este vehculo autonomo fue dirigido por un equipo de investigadores de IR (CMU),
y en el que participaron tambien Intel, General Motors, Caterpillar, y Continental
AG. El proyecto fue nanciado por DARPA (Agencia de Proyectos de Investigacion
Avanzada para la Defensa).
Otro campo de trabajo interesante enfocado por este equipo de investigadores es el de
robots aereos. Estos trabajos iniciaron con el desarrollo de helicopteros autonomos, y
ha generado en los actuales sistemas autonomos de vuelo, utilizados principalmente
en aplicaciones de vigilancia y monitoreo. Asimismo, estas investigaciones han con-
ducido ademas del mapeo aereo de gran precision al control de la cooperacion entre
m ultiples vehculos autonomos tierra-aire. En estos trabajos, es vital el conocimiento
de un area de la IA conocida como: sistemas multi-agentes.
Algunas de las aplicaciones en las que se han utilizado los robots moviles son las sigu-
ientes: exploracion espacial; robots para la navegacion en exteriores utilizados en:
industria petroqumica (ver Figura 5.22, agricultura, defensa, construccion, b usque-
da y rescate, aplicaciones acuaticas; vehculos inteligentes para asistir a conductores
en ambientes urbanos.
Tecnologa para mejorar la calidad de vida (QoLT). El objetivo en este campo
es la creacion de sistemas inteligentes que apoyen a los adultos mayores y personas
con discapacidad a vivir de forma independiente. QoLT es una fundacion nacional
creada en el a no 2006 y mantiene una estrecha colaboracion con CMU (Interaccion
Humano Computadora, Ciencias sociales y toma de decisiones), la Universidad de
332 CAP

ITULO 5. APLICACIONES CON T

ECNICAS DE IA
Figura 5.22: Imagenes del robot Explorer. (a) se muestran los componentes de Ex-
plorer,y (b) imagen mostrando al robot en actividad. Este robot es utilizado para
la inspeccion visual, en el sistema de tuberas empleadas para la distribucion de gas
natural. Se espera en un futuro proximo, extender las capacidades de esta unidad,
para que pueda manipular herramientas y arreglar las imperfecciones en tuberas.
Pittsburgh (Ciencia y tecnologas para la rehabilitacion,) Bioingeniera, escuela de
enfermera, instituto de estudos sobre la edad). La idea de incluir este campo dentro
de la robotica, es que esta estrechamente relacionado con los trabajos realizados
en el campo de la robotica, ya que la mayora de la teconologa utilizada para
mejorar la calidad de vida en adultos mayores y personas con discapacidad provienen
de la robotica (ver Figura g:Cap510(a)). Asimismo, es conveniente mencionarla
ya que los resultados generados en este campo han dado lugar a la creacion de
industrias muy redituables. El aspecto central en QoLT es la simbiosis sistema-
persona en el que una pesona y componentes roboticos son mutuamente dependientes
y trabajan juntos. Algunas de las investigaciones que se realizan en QoLT tienen que
ver con los siguientes temas: tecnicas de percepcion y analisis con el n de reconocer
el comportamiento humano, en este caso, este equipo es pionero en el dise no de
una camara personal de la cual reconoce y predice las intenciones de las personas
de forma conable, dise no de equipos que asisten a las personas tales como sillas
automatizadas, manipuladores automaticamente controlados; dise no de equipo que
se adaptan a las necesidades cambiantes de las personas, por ejemplo, un equipo que
se ajusta durante la rehabilitacion.
Universidad de Stanford. A continuacion se van a mostrar los trabajos de inves-
tigacion en el campo de robotica, que el grupo de investigadores de la Universidad
de Stanford se encuentra desarrollando.
Laboratorio de Robotica Aeroespacial. El grupo de investigadores de este labo-
ratorio pertenecen al Departamento de Aeronautica y Astron autica de la Universidad
de Stanford. La investigacion realizada en este laboratorio se relaciona con los sigu-
5.1. ROB

OTICA 333
ientes temas: mejora del rendimiento de robots, sistemas integrados de medicion,
autonoma a nivel de tareas. Toda la investigacion que se realiza, se desarrolla y
valida de manera experimental en sistemas hardware. Estos sistemas incluyen desde
robots moviles (tierra, aire, mar , y espacio) hasta una variedad de manipuladores
jos para aplicaciones tanto espacial como en fabricas. La interaccion en un equipo
robot-humano es un tema central en este laboratorio. En este sentido, se estan desar-
rollando tecnicas que habilitan a operadores interactuar con robots en un esquema
altamente intuitivo a nivel de tareas, en el que los humanos tienen completo control
de estrategias y comandos de tareas u objetivos, mientras que el robot de forma
autonoma trabajos pesados a bajo nivel tales como planeaci on de trayectorias y
ejecucion de tareas de precision. Este esquema de control de tareas basada en obje-
tivos, permite a los sistemas humano-robot tomar ventaja de las fortalezas de cada
uno de sus miembros: los humanos en razonamiento, interpretacion y percepcion,
los robots en control preciso, eciencia, y repetibilidad. La otra area de interes en
este laboratorio, es la de proporcionar a los robots con las herramientas necesarias
para que complete de forma exitosa las tareas objetivo. Para esto, se deben extender
la capacidad de los robots agregandoles sensores de vision y GPS, as como de las
tecnicas necesarias de vision articial. Los proyectos que se estan realizando actual-
mente en este laboratorio son los siguientes:
Navegacion relativa al terrenos. En este proyecto, un vehculo puede estimar su
posicion midiendo la forma del terreno que lo rodea y comparando estas mediciones
con un mapa. Este trabajo resulta adecuado para la navegacion de vehculos bajo la
supercie del agua, por lo que, el Instituto de Investigacion del Aquarium Monterey
Bay se muestra interesado por los resultados que se obtengan. IDSR, es el nombre
de un proyecto que inicio y a un contin ua por la NASA en el a no 2006, el cual
involucro la participacion de varias universidades, y se interesa en el desarrollo de
tecnologa robotica espacial.
Control de un equipo de helicopteros. La transportacion aerea de material
pesado en lugares remotos se realiza tradicionalmente por grandes helicopteros con-
strudos para este fn. Conforme la demanda para estas cargas se incrementa, la
solucion obvia es construir helicopteros mas grandes, lo cual redundara en un costo
mayor. La alternativa, puede ser, utilizar m ultiples helicopetros ya existentes traba-
jando de manera cooperativa para llevar a cabo el trabajo.
Navegacion en asteroides. Para obtener una informacion (geologica, termica,
qumica) completa de un asteroide, esta debe ser obtenida de m ultiples sitios del as-
teroide. De forma ideal, estas mediciones deben ser tomadas de manera simultanea.
Este proyecto, explora las soluciones de ingeniera requeridas para localizar los sitios
334 CAP

ITULO 5. APLICACIONES CON T

ECNICAS DE IA
donde tomar las medidas, as como los metodos de navegacion con respecto a estos
sitios.
Laboratorio de Inteligencia Articial: Robotica. Asimismo, existe un grupo
de trabajo en robotica que depende del Laboratorio de Inteligencia Articial. Los
trabajos de investigacion de este grupo se enfocan a robotica centrada en humanos y
simulacion haptica interactiva. Los topicos manejados incluyen manipulacion movil,
robots cooperativos, modelacion del movimiento humano, interaccion haptica, dise no
de robots amigables con humanos, y simulacion dinamica con contacto. Los trabajos
de investigacion actuales estan enfocados a los siguientes campos:
Humanoides. Este campo de investigacion se relaciona con el dise no y construccion
de robots que interact uan con humanos en escenarios de la vida cotidiana. Cuando
un robot se mueve en nuestro ambiente, el problema de la seguridad es relevante.
Para ello, el dise no de algoritmos enfocados a controlar el movimiento debe ser tema
de interes.
Arquitecturas de control. El esquema de control de un robot se relaciona muy
de cerca con la salida del actuador en una arquitectura robotica. Esta confa en la
retroalimentacion en tiempo real de sensores, tales como codicadores de union y
sensores de fuerza, con el n de generar los comandos al actuador a una alta fre-
cuencia y en tiempo real. En este sentido, este grupo de investigadores trabaja en
el desarrollo de algoritmos para hacer una arquitectura que enlace los componentes
de control de forma coordinada y en tiempo real.
Control neuromuscular. La comprension del movimiento humano es esencial con
el n de construir robots que imitan las capacidades humanas. Para esto, es necesario
comprender el aspecto siologico del movimiento humano. El objetivo de este grupo
de investigacion consiste en recrear la actividad neuromuscular humana a traves
de modelos biomecanicos con el n de recrear la actividad humana con medios
mecanicos (robots).
Dise no de robots amigables. En a nos recientes se ha notado un interes creciente
en el dise no de robots amigables con humanos debido a sus variadas aplicaciones:
medicina, manufactura y entretenimiento. Un desafo importante en este campo es
la seguridad, es decir, el uso seguro de robots para trabajar en estas aplicaciones y
al mismo tiempo en su interaccion con humanos. En este sentido, los trabajos de
investigacion se enfocan al dise no de los componentes mecanicos de un robot, so-
bretodo actuadores, para que sea capaz de colaborar en tareas con los humanos. En
5.1. ROB

OTICA 335
estos momentos, los trabajos se dirigen a explorar un enfoque hbrido: neumatico y
electromagnetico, para el dise no de actuadores.
Interaccion haptica. El sentido humano del tacto es una herramienta indispens-
able que nos permite manipular e interactuar cada da en nuestro mundo. sin embar-
go, cuando se trabaja con ambientes virtuales o remotos esta forma de interaccion
esta ausente. Los sistemas hapticos han demostrado la capacidad de introducir esta
habilidad en las interfaces de computadoras. La investigaci on en simular esta habil-
idad se ha enfocado en el desarrollo de nuevos algoritmos y estructuras de control
para dise nar una pantalla tactil rapida y robusta en ambientes virtuales. Asimismo,
investigando la forma en que las personas perciben el entorno a traves del tacto,
se han desarrollado nuevas estrategias de control para mostrar ambientes virtuales
grandes por peque nos dispositivos hapticos. El desarrollo de estas nuevas tecnologas
tiene un gran potencial en muchas areas de la actividad humana tales como: medic-
ina, dise no industrial, aeronautica, robotica, y educacion.
Robots biomimeticos. Biomimeticos: mecanismos que imitan sistemas biologicos.
Esta investigacion se enfoca al desarrollo de robots biologicamente inspirados, los
cuales exhiben mayor robustez en su rendimiento comparado a los robots actuales
en ambientes reales. Esta nueva clase de robots sera sustancialmente mas compatible
y estable que los robots actuales, y sacara ventaja de los nuevos avances en los ma-
teriales, tecnologas de fabricacion, sensores y actuadores. Las aplicaciones incluiran
entre otras las siguientes: Realizacion de tareas de forma autonoma o semiautono-
ma, enjambres de robots, similares a los insectos, con el n de colaborar con humanos
en la realizacion de tareas a una mayor escala. Esta investigacion forma parte de
una estrecha colaboracion con investigadores de las siguientes instituciones: Univer-
sidad de Berkeley Ca., Universidad de Harvard, y la universidad John Hopkins. Este
proyecto esta siendo nanciado por la Ocina de Investigacion Naval de USA. En
Stanford en investigador que encabeza este proyecto es el Prof. Mark Cutkosky.
Trabajos de investigacion relacionados con el campo de la robotica que se estan de-
sarrollando por los diferentes grupos de investigacion en Harvard.
Laboratorio de Biorobotica. El Profr. Robert D. Howe dirige este laborato-
rio. Los trabajos de investigacion que se realizan se enfocan en aspectos de medi-
cion y dise no mecanico de control de motores, para aplicarse tanto en robots como
en humanos. Las disciplinas involucradas en este campo son: biomecanica, analisis
de sistemas, y neurosiologa. El enfoque utilizado es principalmente experimental,
aunque el analisis y la simulacion son tambien utilizados. En colaboracion con indus-
trias, estan desarrollando aplicaciones en instrumentacion biomedica, robots teleop-
336 CAP

ITULO 5. APLICACIONES CON T

ECNICAS DE IA
erados, y sensores inteligentes. Actualmente se encuentran realizando trabajos de in-
vestigacion en los siguientes campos: planeacion de cirugas y modelado biomecanico,
ciruga robotica, sensado tactil y manos roboticas, rehabilitacion robotica, y haptics.
Una descripcion de lo que se realiza en cada campo se mostrara a continuacion.
Planeacion de cirugas y modelado biomecanico. Los trabajos en este campo
se enfocan al dise no de modelos computacionales de valvulas del corazon anatomi-
ca y biomecanicamente precisas para un paciente especco, esto ofrece al cirujano
planicar una intervencion quir urgica y mejorar potencialmente los resultados de
la misma. Esta tecnologa se esta desarrollando en colaboracion con cirujanos del
corazon del Hospital del Ni no en Boston. La valvula mecanica puede ser simulada
aplicando tecnologa haptica, permitiendo la interaccion con el usuario en tiempo
real. Esto permite tanto evaluar la estructura de la valvula como implementar vir-
tualmente una estrategia de reparacion de una forma intuitiva e interactiva. Cuando
es combinada con un modelo de valvula especca de un paciente, tal como la gener-
ada por una segmentacion avanzada de ultrasonido, esta plataforma se puede utilizar
para una planicacion preoperatoria y para servir de entrenamiento al cirujano.
Ciruga robotica. Para realizar procedimientos dentro del corazon de un paciente
(ciruga intracardiaca), se requiere de un bypass cardiopulmonar para permitir al
cirujano trabajar en una intervencion a corazon abierto. Aunque este es el proced-
imiento usual, se han identicado numerosos efectos adversos en un bypass cardiopul-
monar. El uso de procedimientos menos invasivos podran eliminar la necesidad de
un bypass cardiopulmonar y por ende eliminar los efectos adversos. Los trabajos
de investigacion que se desarrollan en el campo de la ciruga robotica, se desto-
nan al dise no de tecnologas con el n de desarrolar tales procedimientos. Algunos
de los proyectos que se estan desarrollando actualmente en este campo se encuen-
tran los siguientes: (i) Cateter robotico. El objetivo en este proyecto, es desarrollar
una plataforma tecnologica para habilitar cirugas al corazon mnimamente invasi-
vas. Este sistema aplica imagen de ultrasonido 3D en tiempo real para controlar
un cateter robotico para compensar el movimiento del tejido. Esta compensacion
del movimiento estabiliza virtualmente los movimientos del corazon y permitir una
reparacion quir urgica similar a si el corazon estuviera detenido. (ii) Visualizacion
en mosaico de ultrasonido en 3D y tiempo real. Este proyecto busca disminuir el
problema de obstruccion visual que experimentan los cirujanos al realizar una inter-
vencion al corazon, por lo que se ofrece una vista extendida del area de interes con
el n de facilitarla.
Manos roboticas y medicion tactil. Las manos roboticas que existen actual-
mente son complicadas, fragiles, y costosas. Esto limita su uso en ambientes reales
5.1. ROB

OTICA 337
tales como hogares, exteriores, y zonas de desastres. La investigacion que se realiza
en este campo se enfoca a resolver estos problemas a traves de diferentes enfo-
ques, los cuales incluyen el uso de uniones mecanicas inteligentes, aplicar tecnicas
de optimizacion numerica para reducir la complejidad de actuacion manual, uso de
sensores robustos y desarrollo de algoritmos de percepcion y sujecion para habilitar
la operacion autonoma. Los proyectos que se estan desarrollando actualmente para
resolver los problemas en este campo y proponer soluciones conables, y robustas
son los siguientes: (i) Mecanismos pasivos inteligentes, (ii) Optimizacion numerica
para manos roboticas, (iii) Medicion tactil y percepcion.
Rehabilitacion robotica. Las personas que han sufrido alguna lesion provocada
por golpes o accidentes, as como los que se estan recuperando de alguna operacion,
requieren un proceso de rehabilitacion continua para recuperar nuevamente sus fun-
ciones motoras normales. La investigacion que se realiza en este campo se enfoca al
desarrollo de dispositivos de rehabilitacion que ayudan a los doctores a monitore-
ar el progreso del paciente y a proporcionar terapia fsica asistida por robots. Los
proyectos que se estan desarrollando actualmente en este campo se relacionan con
el desarrollo de dispositivos de rehabilitacion para la parte superior (hombros) de
una persona y se adaptan a las variaciones anatomicas del paciente, y dise no de
dispositivos efectivos y de bajo costo para la rehabilitacion de la mano.
Con respecto a los trabajos relacionados con dise no de dispositivos hapticos, estas
investigaciones son similares a las realizadas por el IR de CMU.
A continucion se van a mostrar los trabajos de investigacion en robotica, que estan
actualmente desarrollandose en Europa. En este caso, se van a mencionar los proyec-
tos que se realizan en IRIS (Instituto de Robotica y sistemas Inteligentes, institucion
con sede en Munich, y la cual cuenta con seis laboratorios en este campo. Una de-
scripcion de la investigacion que se lleva a cabo en cada laboratorio se ofrece a
continuacion.
Laboratorio de Robotica Multi-escala. Los trabajos realizados en este laborato-
rio siguen un programa de investigacion dinamico enfocados a la robotica. Un compo-
nente basico se enfoca a investigacion avanzada para crear m aquinas inteligentes que
funcionen a escalas micro y nanometricas. Se desarrollan herramientas y procesos
requeridos para fabricar y ensamblar robots de tama no micrometrico y componentes
roboticos de escala nanometrica. La mayora de estos sistemas son utilizados para
la exploracion robotica en dominios biologicos, tales como la investigacion de es-
tructuras moleculares, sistemas celulares, as como el complicado comportamiento
de organismos. Este laboratorio es dirigido por el Prof. Bradley Nelson.
338 CAP

ITULO 5. APLICACIONES CON T

ECNICAS DE IA
Laboratorio de Sistemas Autonomos. En este laboratorio se realiza investi-
gacion en robotica movil y mecatronica, enfocados al dise no y control de sistemas
que funcionen en ambiente altamente dinamicos y con incertidumbre. Su objeti-
vo se centra en encontrar nuevas formas de manejar la incertidumbre as tambien
como nuevas formas de dise nar sistemas adaptativos y altamente interactivos. Es-
tas tecnologas tienen amplias aplicaciones, principalmente en las siguientes: robots
personales y de servicio, vehculos aereos no tripulados, vehculos avanzados, robots
para uso espacial, robots de inspeccion. El Prof. Roland Siegwart es el director de
este laboratorio.
Laboratorio de Sistemas Motor-Sensoriales. El Prof. Robert Riener encabeza
los trabajos de investigacion en este laboratorio. El objetivo de los mismos, es el
estudio de las acciones motoras y sensoriales que surgen al interactuar humanos
y maquinas. En los humanos, la informacion a traves de los sensores (sentidos) es
percibida por el sistema nervioso central, y requiere el conocimiento para interpre-
tarla y generar una reaccion motora. De manera similar, en las maquinas existen
sensores mecanicos que detectan tanto el estado de la maquina como el del en-
torno que la rodea. En este caso, los datos de los sensores son procesados con el
n de manejar actuadores y sistemas de desplegado. Los humanos y las maquinas
interact uan a traves de sus sensores. Tomando como base este conocimiento, se de-
sarrollan dise nos novedosos sistemas mecatronicos, as como procedimientos para
optimizar tal interaccion. Algunas de las principales aplicaciones que pueden tener
los productos generados de estas investigaciones son los siguientes: rehabilitacion,
deportes, salud, y educacion medica.
Laboratorio de Ingeniera y Rehabilitacion. En este laboratorio, dirigido por el
Prof. Roger Gassert, se desarrollan trabajos de investigacion utilizando un enfoque
combinado de robotica, psicofsica y neurociencias cognitivas con el n de desarrol-
lar y evaluar clnicamente, herramientas terapeuticas y de asistencia con en n de
apoyar la recuperacion, independencia e integracion social de personas fsicamente
inhabilitadas. Las investigaciones actualmente se enfocan en las funciones motoras
de la mano y de que manera la retroalimentacion a traves de doispositivos hapticos
puede beneciar el aprendizaje de estas funciones. Otros temas de interes actual son
la terapia de rehabilitacion y la interaccion humano-maquina.
Laboratorio de Robotica Bio-Inspirado. Como su nombre lo indica, en este
laboratorio se realiza investigacion basada en la robotica y la biologa. En este sen-
tido, utilizando los principios de dise no de los sistemas biologicos, se desarrollan
tecnologas para el dise no y control de sistemas mecatronicos dinamicos sensores
5.2. REDES NEURONALES (RN) 339
bionicos, y tecnicas de optimizacion computacional. Entre las metas principales,
que persigue actualmente este grupo de trabajo liderado por el Prof. Fumiya Lida
es contribuir a un entendimiento mas profundo de los mecanismos de adaptacion
y autonoma animal mediante la investigacion en robots, y desarrollar novedosas
aplicaciones roboticas que sean mas adaptables, exibles, y ecientes.
Laboratoria de Robotica

Agil y Habilidosa. La investigacion que se realiza en
este laboratorio guiado por el Prof. Jonas Buchli, se centra en obtener mecanismos
de control para robots con las siguientes caractersticas: robusto, dinamico, agil, y
dinamico; el cual sea aplicable en entornos reales. Esto se intenta conseguir a traves
control basado en modelos, procedimientos de control para la impedancia y la fuerza,
as como la integracion de tecnicas de aprendizaje en maquinas. Las posibles apli-
caciones de estos trabajos incluyen las siguientes: manipulacion movil, mecanismos
de sujecion, patas utilizadas para locomocion, dispositivos para protesis, robotica
utilizada en exteriores, y dise no de mecanismos roboticos bio-inspirados.
Como se puede apreciar, la robotica es un campo de investigacion emergente que
cuenta con importantes grupos de investigacion en todo el orbe. Los trabajos desar-
rollados indican que este es un campo donde convergen varias disciplinas. Asimismo,
se demuestra que un gran n umero de productos comerciales han sido resultado de
una participacion multidisciplinaria.
A continuacion se va a describir otra de las disciplinas relacionadas con la IA, y al
igual que la robotica es un campo emergente de investigacion.
5.2. Redes neuronales (RN)
Las redes neuronales articiales (RNA) o simplemente redes neuronales (RN), son
modelos matematicos o simulaciones por computadora que intentan imitar la
operacion del cerebro biologico. La idea en construir una red neuronal articial en el
ambito computacional, es la de realizar tareas, que la gran mayora de los actuales
programas ejecutandose en microprocesadores convencionales son incapaces de hac-
er. En base a estudios se tiene conocimiento de que el cerebro biologico es un organo
formado por una gran cantidad de unidades especializadas (neuronas), cuya unica
funcion es la de comunicarse unas con otras. Ademas, el cerebro biologico tiene la
capacidad de aprendizaje y procesamiento en paralelo. Las caractersticas que ofrece
la implementacion en de una RNA son entre otras las siguientes:
340 CAP

ITULO 5. APLICACIONES CON T

ECNICAS DE IA
a) Exhiben capacidad de mapeo, es decir, pueden mapear patrones de entra-
da a los patrones de salida correspondientes.
b) Aprenden a partir de ejemplos, las diferentes arquitecturas son entrenadas
con ejemplos conocidos antes de evaluar su capacidad de inferencia con
ejemplos desconocidos.
c) Poseen la capacidad de generalizar, por lo tanto, pueden predecir nuevos
resultados partiendo de tendencias pasadas.
d) Son sistemas robustos y tolerantes a fallos, debido a su naturaleza dis-
tribuida si alguna unidad falla el sistema contin ua su operaci on, asimis-
mo, pueden recordar patrones completos a partir de patrones incompletos,
parciales o ruidosos.
e) Procesan informacion en paralelo, de forma distribuida y a gran velocidad.
f ) Pueden realizar tareas que los programas lineales no realizan (debido a su
esquema de procesamiento paralelo).
Sin embargo, este paradigma tambien tiene las siguientes desventajas: i) requiere de
entrenamiento para operar, ii) los microprocesadores actuales no soportan la arqui-
tectura de una RNA, por lo que su operacion debe ser simulada, iii) una RNA de
gran tama no, requiere de mucho tiempo de procesamiento. Sin embargo, y, a pesar
de sus desventajas, el paradigma basado en redes neuronales articiales ofrece un
gran potencial en una variedad de aplicaciones, por lo que, su estudio despierta gran
interes dentro de varias comunidades cientcas (vision, robotica, procesamiento de
lenguaje natural, reconocimiento de patrones, IA). Las caractersticas de una RNA
las hacen apropiadas para las siguientes tareas:
Clasicacion, enfocada a reconocimiento de patrones, extraccion de car-
actersticas, e imagenes.
Prediccion, basada en datos historicos.
Control.
Reduccion de ruido, reconocer patrones en las entradas y producir respues-
tas sin ruido (actualmente las RNA se encuentran entre las tecnologas mas
novedosas para el procesamiento de se nales).
Desde la incursion del primer modelo de red neuronal propuesto en 1943 por Mc-
Culloch y Pitts, las RNA se han visto fortalecidas debido a una gran cantidad de
nuevas propuestas, de tal manera que actualmente son un campo relevante dentro
del estudio de la IA.
En esta seccion, se van a mostrar aspectos importantes relacionados con este paradig-
ma computacional, iniciando con una descripcion de sus principios operacionales,
5.2. REDES NEURONALES (RN) 341
continuando con las arquitecturas mas utilizadas, y nalizando con una revision de
su estado actual y aplicaciones.
5.2.1. Coceptos basicos
Aunque las computadoras digitales actuales nos rebasan facilmente en el proce-
samiento del calculo numerico y la manipulacion simbolica, estos sistemas a un son
inecientes comparado a los humanos en la solucion de complejos problemas rela-
cionados con la percepcion (reconocimiento de rostros, reconocimiento de voz), los
cuales son facilmente resueltos por los humanos. La razon de esta diferencia consiste
en las arquitecturas de los sistemas de procesamiento. La arquitectura que rige el
procesamiento de informacion en las actuales computadoras, es la arquitectura de
Von Newman, la cual es un esquema de procesamiento secuencial. Mientras que la
arquitectura de las neuronas biologicas dan como resultado un procesamiento de in-
formacion paralelo. Esta diferencia arquitectural en los esquemas de procesamiento,
afecta notablemente el tipo de tareas que cada modelo realiza mejor. Las RNA son
masivos sistemas de computo paralelo, integrados por un gran n umero de unidades
de procesamiento (neurona) muy simples. La neurona biologica (ver Figura 5.23(a))
esta formada por un cuerpo celular en el que reside el n ucleo, y posee dos tipos de
ramicaciones: axon y dendritas. Una neurona recibe se nales (impulsos electricos)
de otras neuronas a traves de las dendritas y transmite se nales por el axon, el cual
eventualmente se ramica en hilos y subhilos, en cuyas terminales estan las sinapsis,
estructura elemental y unidad funcional entre dos neuronas.
Cuando las neuronas estan en operacion, las sinapsis son ajustadas para permitir
o inhibir las se nales, de tal manera que estas unidades aprenden de las actividades
en las que participan. Cada neurona esta conectada (aproximadamente) a otras 10
4
neuronas, y el n umero de interconexiones que tiene el cerebro humano, se encuentra
aproximadamente entre 10
14
a10
15
. Esta compleja red de comunicacion en paralelo,
hace que algunas tareas complicadas para las actuales computadoras, tal como el
reconocimiento de rostros, se realicen en unas decenas de milisegundos en el cerebro
humano.
Modelo de la neurona articial. El primer modelo para una neurona articial fue
propuesto por McCulloch y Pitts en 1943, y consistio de una unidad de umbralizacion
binaria (ver Figura 5.23(b)). Este modelo obtiene la suma ponderada (w
i
x
i
) de las
se nales de entrada (X
i
), y produce una se nal de salida (y) con valor numerico de 1,
si la suma esta por encima de cierto valor de umbral u, y un valor numerico de 0 en
caso contrario. La representacion matematica de este modelo es la siguiente:
342 CAP

ITULO 5. APLICACIONES CON T

ECNICAS DE IA
Figura 5.23: Neurona biologica y su modelo matematico. (a) ilustracion de una neu-
rona biologica, (b) imagen que corresponde al primer modelo de neurona propuesto
por McCulloch y Pitts en 1943.
y =
_
_
n

j=1
w
j
x
j
u
_
_
Donde (.) es una funcion de paso unitaria en 0, y w
j
es el peso sinaptico asociado
con la j esima entrada. Por simplicidad notacional, muy seguido se considera al
umbral u como otro peso (w
0
= u) el cual se asigna a una neurona con una en-
trada constante (x
0
= 1). Los pesos positivos corresponden a sinapsis de excitacion
mientras que los negativos a sinapsis inhibitorias. El ajuste apropiado de los pesos
permite al modelo articial de la neurona realizar una variedad de calculos.
La analoga entre la neurona biologica y la articial se describe de la siguiente man-
era: los axones y dendritas son representados por cables y sus conexiones, los pesos
indican las sinapsis, y la actividad del n ucleo se representa por la funcion de umbral.
Sin embargo, el modelo de McCulloch y Pitts es bastante limitado y no expresa el
5.2. REDES NEURONALES (RN) 343
comportamiento real de la neurona biologica. Con el paso del tiempo se han de-
sarrollado extensiones y generalizaciones al modelo inicial, aproximandolo mas al
biologico. Una mejora consiste en el uso de funciones de activacion (reemplazando
a la de umbral) de diferentes tipos: lineal, gaussiana y sigmoidal, entre otras. De
acuerdo con Jain y otros [137], la RNA con funcion sigmoidal es el modelo mas
utilizado.
Arquitecturas de RNAs. Las RNAs pueden ser vistas como grafos pesados di-
rigidos, donde los nodos representan neuronas individuales y los enlaces entre ellos
son conexiones entre salidas y entradas de neuronas (ver Figura 540). En base a la
forma en que estan conectadas, las RNAs se clasican en dos grandes grupos:
1) Redes con alimentacion hacia adelante (feed-forward). En estas redes no existen
ciclos (ver Figura 5.24(a)). Las RNA pertenecientes a este grupo son estaticas, es
decir, producen solamente un conjunto de valores de salida en lugar de una secuen-
cia de valores a partir de una entrada dada. Asimismo, estas redes no mantienen
registro de las entradas (memory-less), en el sentido de que la respuesta a una en-
trada, es independiente de la respuesta en el estado anterior. Ejemplos tpicos de
esta arquitectura son las redes perceptron de una y m ultiples capas.
2) Redes recurrentes o retroalimentadas (feedback). En este grupo de redes existe
retroalimentacion, por lo tanto, se presentan ciclos en los grafos (ver Figura 5.24(b)).
A diferencia del grupo anterior, estas redes se caracterizan por ser dinamicas, es de-
cir, cuando un nuevo patron de entrada se presenta, las salidas son calculadas, y
debido las trayectorias de retroalimentacion las entradas a las neuronas son modi-
cadas lo cual da como resultado que la red entre a un nuevo estado. Algunos ejemplos
representativos de este grupo de redes son las siguientes: red auto organizativa de
Kohonen, red de Hopeld, modelos ART, y redes competitivas.
Independientemente de la arquitectura que tenga una red neuronal, se requiere de
un apropiado algoritmo de aprendizaje para que pueda funcionar.
Aprendizaje. La habilidad de aprender es una caracterstica fundamental de la in-
teligencia. En el contexto de una RNA, el proceso de aprendizaje puede verse como
el problema de actualizar la arquitectura de la red y los pesos de las conexiones, de
tal forma que una red, pueda realizar de manera eciente una tarea especca [137].
La red usualmente aprende los pesos de las conexiones a partir de patrones de entre-
namiento disponibles. El rendimiento se mejora a traves de la actualizacion iterativa
de los pesos en la red. La habilidad de las RNA para aprender automaticamente a
344 CAP

ITULO 5. APLICACIONES CON T

ECNICAS DE IA
Figura 5.24: Arquitecturas de las redes neuronales. (a) RNA con alimentacion hacia
delante; (b) RNA con retroalimentacion, en este tipo de redes existe la formacion
de ciclos.
5.2. REDES NEURONALES (RN) 345
partir de ejemplos (positivos y negativos) las convierten en un enfoque atractivo
para varias aplicaciones. En vez de seguir un conjunto de reglas especicadas por
un experto humano, las RNAs aprenden estas reglas, al igual que las relaciones de
entrada-salida a partir de una coleccion de ejemplos representativos. Esta es una
caracterstica que distingue a las redes neuronales de otros enfoques. Para aplicar
el proceso de aprendizaje, se debe contar inicialmente con un modelo del ambiente
donde la red va a operar, es decir, se debe conocer la informacion disponible para la
red. Posteriormente, se debe entender como los pesos de la red se van a actualizar, es
decir, que reglas del aprendizaje controlan el proceso de actualizacion. Al mecanismo
mediante el cual las reglas de aprendizaje se aplican para ajustar los pesos de la red
se le conoce como: algoritmo de aprendizaje. Existen tres estrategias para aplicar
estos algoritmos: (i) aprendizaje supervisado, (ii) aprendizaje no supervisado y (iii)
aprendizaje hbrido. A continuacion se proporciona una descripcion de cada tipo de
aprendizaje.
Aprendizaje supervisado. Este tipo de aprendizaje se caracteriza por tener un
tutor o maestro que va guiando el proceso. Se le proporciona a la red muestras
de datos de entrada y de salida, es decir, para un patron de entrada determinado
(por ejemplo: 01), se le indica cual es la salida correcta (por ejemplo: 1). Durante
el proceso, los pesos (w
i
) se van ajustando para que la red genere respuestas lo mas
cercana a las indicadas por el tutor. Otra variante del aprendizaje supervisado es el
conocido como: Aprendizaje por refuerzo. En este aprendizaje, se trata de aprender
de la experiencia y no de un conjunto de ejemplos. Bajo este enfoque, el desempe no
de la red es evaluada mediante una recompensa la cual puede ser positiva o negativa,
indicandole a la red que tan bien esta haciendo su tarea. En base a esta recompensa
o crtica, la red ajusta sus pesos para mejorar su operacion.
Aprendizaje no supervisado. A diferencia del aprendizaje supervisado que cuen-
ta con un gua para indicarle que aprender, el aprendizaje no supervisado no cuenta
con esta ayuda, es decir, no cuenta con las respuestas correctas al darsele el conjunto
de datos de entrenamiento. Bajo este esquema, se analiza la estructura de los datos
y se exploran las correlaciones existentes entre los patrones de los mismos, y par-
tiendo de esta informacion, los patrones encontrados son organizados o agrupados
en categoras.
Aprendizaje hbrido. Este tipo de aprendizaje combina las estrategias utilizadas
por los dos anteriores. bajo este esquema, algunos pesos en la red son determinados
a traves de un enfoque supervisado, mientras que los demas se asignan aplicando el
enfoque no supervisado.
346 CAP

ITULO 5. APLICACIONES CON T

ECNICAS DE IA
En el aprendizaje a partir de datos se deben tener presente los siguientes aspectos
relacionados con el mismo: capacidad, complejidad de las muestras y complejidad
computacional. La capacidad se reere a la cantidad de patrones que pueden al-
macenarse, y con el tipo de funciones y decisiones que puede realizar la red. La
complejidad de las muestras tiene que ver con la cantidad de patrones de entre-
namiento, que es necesaria para garantizar la generalizaci on de la red. Por otro
lado, la complejidad computacional, se reere al tiempo requerido para que un al-
goritmo de aprendizaje obtenga una solucion con los datos de entrenamiento.
Los aspectos anteriores son fundamentales al momento de dise nar algoritmos que
sean ecientes para el aprendizaje de una RNA. Asimismo, independientemente del
paradigma de aprendizaje utilizado, existen cuatro tipos b asicos de reglas aplicadas
durante este proceso: 1) correccion de error, 2) aprendizaje de Boltzman, 3) regla
de Hebbian, y 4) regla de aprendizaje competitivo. Una breve descripcion de cada
regla se dara a continuacion.
1) Correccion de error. En el paradigma de aprendizaje supervisado, a la red se
le proporciona la salida deseada para cada patron de entrada. Durante el proceso
de aprendizaje, la salida y generada por la red puede no ser la salida deseada d.
El principio basico de las reglas de aprendizaje basadas en la correccion del error,
es usar la se nal de error (d y) con el n de ajustar los pesos de las conexiones
y reducir gradualmente esta se nal. La regla de aprendizaje de la red perceptron se
basa en este principio.
2) Aprendizaje Boltzman. La maquina de Boltzman es una red recurrente y
simetrica consistente de unidades binarias (+1 para indicar on, y 1 para o).
El termino simetrica, signica que el peso en la conexion de la unidad i a la unidad
j, es igual con el peso de la conexion entre la unidad j y la unidad i (w
ij
= w
ji
).
En este esquema, solamente un subconjunto de neuronas (neuronas visibles) son
las que interact uan con el ambiente. Cada neurona es una unidad estocastica que
genera una salida (estado) de acuerdo con la distribucion estadstica de Boltzman.
Las maquinas de Boltzman tienen dos formas de operacion: restringido, en el cual
las neuronas visibles se encuentran sujetas a estados especcos determinados por el
ambiente; y de libre ejecucion, en el que tanto las neuronas visibles como las ocultas
operan libremente. Esta regla de aprendizaje, es una regla de tipo estocastica, basa-
da en los principios de teora de la informacion y de la termodinamica. El objetivo de
esta regla de aprendizaje, consiste en ajustar los pesos de las conexiones, de tal forma
que los estados de las neuronas visibles satisfagan una distribucion de probabilidad
especca. Este aprendizaje puede ser visto como un caso especial del mecanismo de
aprendizaje de correccion de error, donde el error no es manejado como la diferencia
5.2. REDES NEURONALES (RN) 347
entre la salida deseada y la actual, sino, como la diferencia de correlaciones entre
las salidas de dos neuronas bajo condiciones de operacion restringida y libre.
3) Regla de Hebbian. La mas antigua de las reglas de aprendizaje utilizadas por
las redes neuronales, se basa en el postulado de aprendizaje de Hebb. Hebb baso es-
ta regla en la siguiente observacion derivada de experimentos neurobiologicos: Si
las neuronas estan conectadas a ambos lados, entonces las sinapsis son activadas de
manera sncrona y repetida, la fuerza de la sinapsis, es selectivamente incrementada,
es decir, el peso en el tiempo t + 1 depende del peso en el tiempo t. Esta regla de
aprendizaje es local, es decir, el ajuste de los pesos en las sinapsis depende solamente
de las actividades de las dos neuronas conectadas por cada sinapsis. Esta propiedad
simplica en gran medida la complejidad de aprendizaje.
4) Regla de aprendizaje competitivo. A diferencia del aprendizaje Hebbiano,
en el cual m ultiples unidades de salida pueden ser activadas (disparadas) de forma
simultanea, en el aprendizaje competitivo, las unidades de salida compiten entre
ellas para su activacion. Resultado de este proceso, es que solamente una unidad de
salida se encuentra activa a la vez. Este tipo de aprendizaje se ha encontrado en las
redes de neuronas biologicas. Bajo este enfoque, los datos de entrada son agrupados
o clasicados, de tal manera que los patrones similares son agrupados por la red y
representados por una unidad. El proceso de agrupamiento se hace automaticamente
basandose en la correlacion de los datos. Un determinado patr on de entrada puede
activar diferentes unidades de salida en diferentes iteraciones durante el aprendiza-
je. Esto trae como consecuencia la estabilidad del sistema de aprendizaje. Se dice
que el sistema alcanza la estabilidad, si ning un patron de entrada (durante el en-
trenamiento) cambia su categora despues de un n umero nito de iteraciones. Una
forma de alcanzar la estabilidad del sistema, consiste en forzar la razon de apren-
dizaje a disminuir gradualmente hasta cero. El ejemplo mas conocido de aprendizaje
competitivo, es la cuantizaci on vectorial, proceso aplicado en la compresion de datos.
La cuantizaci on vectorial, ha sido ampliamente utilizada en el procesamiento de voz
y de imagenes como un enfoque eciente de almacenamiento, transmision y mod-
elado. La idea en este proceso, es la representacion un conjunto o distribucion de
vectores de entrada, mediante un reducido n umero de vectores prototipo (en RNA:
vectores de pesos), o tambien conocido como: libro de codigos (codebook).
5.2.2. Clasicacion
Existen dos criterios sobre los que usualmente se basa la clasicacion de las redes
neuronales, el primero es tomando en cuenta su arquitectura y el segundo es en
base a la estrategia de aprendizaje utilizada. Ya se han mencionado en los parrafos
348 CAP

ITULO 5. APLICACIONES CON T

ECNICAS DE IA
anteriores ambos esquemas. En este apartado se va ampliar la explicacion de esta
tecnica en base a su arquitectura.
1. Redes multicapas con alimentacion hacia adelante. La RN mas popular
de esta clase es la perceptron de m ultiples capas
1
, la cual es una extension de la
red perceptron de una capa propuesta inicialmente por Frank Rosenblatt en 1958,
como una generalizacion al modelo inicial de McCulloch y Pitts. El perceptron se
considera el primer modelo de RNA, su exito inicial se debio a que era capaz de
aprender y reconocer patrones sencillos. Con el desarrollo del perceptron, surge el
area de las Redes Neuronales Articiales dentro de la Inteligencia Articial.
Al modelo del perceptron se le conoce actualmente como perceptron cl asico, ya que
en 1960 Marvin Minsky y Seymur Papert perfeccionaron el perceptron inicial y a
este modelo perfeccionado se le conoce simplemente como perceptron. Lo innovador
en el perceptron clasico fue la introduccion de pesos numericos y el uso de un patron
de conexion especial. En este modelo, las unidades de computo son elementos de um-
bralizacion y la conectividad se determina de forma estocastica. El aprendizaje se
realiza ajustando los pesos de la red con un algoritmo numerico.
La red perceptron fue basada en el modelo biologico