Sie sind auf Seite 1von 56

1

UNIVERSIDAD NACIONAL DE
INGENIERÍA
Facultad de Ingeniería Industrial y de
Sistemas

TÍTULO: La inteligencia artificial

AUTORES:
Kevin Arnold Acho Quispe

Marko Ernesto Ataulluco Palacios

Luis Angel Espinoza Huamali

Kim Ronald Kevin Larico Condori

Gabriela Flor de María López Huamanchaqui

PROFESOR: Saúl Acevedo Raymundo

MONOGRAFÍA PRESENTADA PARA EL CURSO


TÉCNICAS DE LA COMUNICACIÓN

Lima, 06 de junio del 2017


2
3

ÍNDICE

Introducción
Capítulo I
NOCIONES……………………………………………………………………….. 6
1.1. Concepto………………………………………………………………… 6
1.2. Historia y evolución…………………………………………………………... 7

Capítulo II
FUNDAMENTO DE LA INTELIGENCIA ARTIFICIAL………………………… 11
2.1. Algoritmos……………………………………………………………………… 11
2.2. Bases del conocimiento basado en sistemas……………………………………. 14
2.3. Experiencia habilidades y conocimiento……………………………………....... 16
2.4. Motor de inferencia…………………………………………………………....... 19

Capítulo III
CARACTERÍSTICAS…………………………………………………………......... 27
3.1. Diferenciación de la inteligencia artificial y los métodos numéricos…………… 27
3.2. Sistematizados …………………………………………………………………… 27
3.3. Razonamiento basado en el conocimiento ……………………………………….. 28
3.4. Aplicabilidad de datos y problemas………………………………………………. 28

Capítulo IV
CLASIFICACIÓN…………………………………………………………………… 30
4.1. Según Stuart Russell y Peter Norvig…………………………………………….. 30
4.1.1. Sistemas que piensan como humanos
4.1.2. Sistemas que actúan como hermanos
4.1.3. Sistemas que piensan racionalmente
4.1.4. Sistemas que actúan racionalmente
4.2. Según Searle……………………………………………………………………… 31
4.2.1. IA fuerte
4.2.2. IA débil

Capítulo V
APLICACIÓN…………………………………………………………………………. 33
5.1. Robótica…………………………………………………………………………... 33
5.2. Medicina…………………………………………………………………………... 33
5.3. Educación………………………………………………………………………...... 34
5.4. Entretenimiento……………………………………………………………………. 35
5.5. Gestión de información……………………………………………………………. 35
4

Capítulo VI
TEST DE TURING…………………………………………………………………… 36
6.1. Concepto………………………………………………………………………….. 36
6.2. Predicción………………………………………………………………………… 36
6.3. Ventajas…………………………………………………………………………… 37
6.4. Desventajas………………………………………………………………………… 40

Capítulo VII
VENTAJAS Y RIESGOS DE LA INTELIGENCIA ARTIFICIAL…………………… 46
7.1. Ventajas…………………………………………………………………………….. 46
7.2. Riesgos……………………………………………………………………………… 47

Capítulo VIII
PERSPECTIVAS FUTURAS…………………………………………………………… 49
8.1. La biología de lo posible…………………………………………………………….. 50
8.2. Vida real (artificia)…………………………………………………………………… 50
8.3. Toda la vida es forma………………………………………………………………… 50
8.4. Granja de evolución…………………………………………………………………. 51

Conclusiones
Referencias
5

INTRODUCCIÓN

El estudio y contenido de la inteligencia artificial resulta ser muy interesante, mucho más si

se puede visualizar el alcance que hoy en día tiene es en prácticamente en la mayoría de los

campos; como en la industria, alimentación, medicina, agricultura, historia, tecnología, etc.

Hoy nosotros sin que nos vayamos dado cuenta de ello, la inteligencia artificial se ha estado

cada vez involucrando en cada uno de los aspectos de nuestra vida cada vez más , sea de

una forma directa como indirecta.

La inteligencia artificial es un tema actual que puede afectar positiva y negativamente a

todos los integrantes de nuestra sociedad, a partir de este tema se puede explicar la relación

tecnología, ciencia y sociedad tomando varios puntos de vista.


6

En esta monografía conoceremos los términos de la inteligencia artificial, luego su

definición y lo que esta representa a la vida del ser humano, “un ser sin carne y hueso

inteligente” a nuestro servicio. Descubriremos la fascinante historia de la inteligencia

artificial y también describiremos los atributos de un agente inteligente, es decir, que

condiciones debe cumplir para ser llamada como tal. Se analizará las bases sobre la cual se

sustenta y también las perspectivas que tendrán los nuevos robots que probablemente

llegarán en un futuro cercano.


7

CAPÌTULO I
NOCIONES
1.1. Concepto

Se puede definir a la inteligencia artificial como esa inteligencia exhibida por artefactos

creados por humanos (artificial). Frecuentemente se aplica hipotéticamente a los

computadores pero la inteligencia artificial no solo se limita a ello. El nombre también se

puede utilizar para referirse al campo de la investigación científica que se trata de aproximar

a la creación de tales sistemas.

Debido a que la inteligencia artificial tuvo muchos padres no hay un solo consenso para

definir este concepto, pero nosotros podemos afirmar que la inteligencia artificial se encarga

de modelar la inteligencia humana en sistemas computacionales.

Puede decirse que la Inteligencia Artificial (IA) es una de las áreas más fascinantes e

impresionantes y con más retos de las ciencias de la computación, en su área de ciencias

cognoscitivas. La inteligencia artificial nació como mero estudio filosófico de la inteligencia

humana, mezclada con la inquietud del hombre de simular la naturaleza circundante (como

volar y nadar), hasta inclusive querer imitarse a sí mismo. Sencillamente, la Inteligencia

Artificial busca el imitar la inteligencia humana. Obviamente hasta el momento no lo ha

logrado todavía, al menos no completamente. La Inteligencia Artificial es una síntesis y

combinación de los estudios de la ciencia del computador, fisiología y filosofía, tan general

y amplio como eso, pues junta varios campos (robótica, sistemas expertos, por ejemplo),

todos los cuales tienen en común la creación de máquinas que pueden pensar y solucionar

problemas por sí mismas.


8

La idea de construir una máquina que pueda ejecutar tareas percibidas como requerimientos

de inteligencia humana es un atractivo. Las tareas que han sido estudiadas desde este punto

de vista incluyen juegos, traducción de idiomas, comprensión de idiomas, diagnóstico de

fallas, robótica, suministro de asesoría experta en diversos temas.

La Inteligencia Artificial trata de conseguir que los ordenadores simulen en cierta manera la

inteligencia humana. Se acude a sus técnicas cuando es necesario incorporar en un sistema

informático, conocimiento o características propias del ser humano.

1.2. Historia y evolución

La Inteligencia Artificial "nació" en 1943 cuando Warren McCulloch y Walter Pitts

propusieron un modelo de neurona del cerebro humano y animal. Estas neuronas nerviosas

abstractas proporcionaron una representación simbólica de la actividad cerebral. Más

adelante, Norbert Wiener elaboró estas ideas junto con otras, dentro del mismo campo, que

se llamó "cibernética"; de aquí nacería, sobre los años 50, la Inteligencia Artificial.

Los primeros investigadores de esta innovadora ciencia, tomaron como base la neurona

formalizada de McCulloch y postulaban que: "El cerebro es un solucionador inteligente de

problemas, de modo que imitemos al cerebro". Pero si consideramos la enorme complejidad

del mismo esto es ya prácticamente imposible, ni que mencionar que el hardware de la época

ni el software estaban a la altura para realizar semejantes proyectos. Se comenzó a considerar

el pensamiento humano como una coordinación de tareas simples relacionadas entre sí

mediante símbolos. Se llegaría a la realización de lo que ellos consideraban como los

fundamentos de la solución inteligente de problemas, pero lo difícil estaba todavía sin

empezar, unir entre sí estas actividades simples.


9

Es en los años 50 cuando se logra realizar un sistema que tuvo cierto éxito, se llamó el

Perceptrón de Rossenblatt. Éste era un sistema visual de reconocimiento de patrones en el

cual se asociaron esfuerzos para que se pudieran resolver una gama amplia de problemas,

pero estas energías se diluyeron enseguida. Fue en los años 60 cuando Alan Newell y Herbert

Simon, que trabajando la demostración de teoremas y el ajedrez por ordenador logran crear

un programa llamado GPS (General Problem Solver: solucionador general de problemas).

Éste era un sistema en el que el usuario definía un entorno en función de una serie de objetos

y los operadores que se podían aplicar sobre ellos. Este programa era capaz de trabajar con

las torres de Hanoi, así como con criptoaritmética y otros problemas similares, operando,

claro está, con microcosmos formalizados que representaban los parámetros dentro de los

cuales se podían resolver problemas. Lo que no podía hacer el GPS era resolver problemas

ni del mundo real, ni médicos ni tomar decisiones importantes. El GPS manejaba reglas

heurísticas (aprender a partir de sus propios descubrimientos) que la conducían hasta el

destino deseado mediante el método del ensayo y el error.

En los años 70, un equipo de investigadores dirigido por Edward Feigenbaum comenzó a

elaborar un proyecto para resolver problemas de la vida cotidiana o que se centrara, al menos,

en problemas más concretos. Así es como nació el sistema experto.

El primer sistema experto fue el denominado Dendral, un intérprete de espectrograma de

masa construido en 1967, pero el más influyente resultaría ser el Mycin de 1974. El Mycin

era capaz de diagnosticar trastornos en la sangre y recetar la correspondiente medicación,

todo un logro en aquella época que incluso fueron utilizados en hospitales (como el Puff,

variante de Mycin de uso común en el Pacific Medical Center de San Francisco, EEUU). Ya

en los años 80, se desarrollaron lenguajes especiales para utilizar con la Inteligencia
10

Artificial, tales como el LISP o el PROLOG. Es en esta época cuando se desarrollan sistemas

expertos más refinados, como por el ejemplo el EURISKO. Este programa perfecciona su

propio cuerpo de reglas heurísticas automáticamente, por inducción.


11

CAPÍTULO II

FUNDAMENTOS DE LA INTELIGENCIA ARTIFICIAL

2.1 Algoritmos

Cuando una tarea se realiza por medio de un algoritmo perfectamente definido de

almacenamiento, clasificación o cálculo, lo puede hacer un computador. Este concepto de

algoritmo, secuencial, fijo y de determinadas operaciones, es incapaz de manejar problemas

donde el camino del razonamiento es variable y donde deben afrontarse situaciones diversas

sin haber sido especificadas. La Inteligencia Artificial hace uso de un tipo de lenguaje

diferente como es el caso de LISP y PROLOG.

En 1932, Cannon visualizó la evolución natural como un proceso de aprendizaje. Alan Turing

reconoció, en 1950, que debe haber una conexión obvia entre el aprendizaje de máquina y la

evolución, y señaló que se podrían desarrollar programas para jugar ajedrez usando esta

técnica. Campbell conjeturó en 1960 que en todos los procesos que llevan a la expansión del

conocimiento, se involucra un proceso ciego de variación y supervivencias electivas.

Los primeros intentos de aplicar de manera formal la teoría de la evolución, a problemas

prácticos de ingeniería, apareció en las áreas de control de procesos estadísticos, aprendizaje

de máquina y optimización de funciones. Talvez el primer intento serio de este tipo se dio en

el trabajo que realizaron Box y sus colegas en 1957, en el desarrollo de una técnica que

denominaron operación evolutiva, la cual se aplicó a una planta de manufactura, y que se

implanto sobre la base de los votos de un comité de jefes técnicos. Bajo este esquema, la

calidad del producto avanzaba a través de mutaciones aleatorias y la selección era

determinada por el comité.


12

Por su parte, Friedberg intentó, en 1958, hacer que un programa en lenguaje máquina se

mejorara a sí mismo, seleccionando instrucciones que se asociaran más frecuentemente con

un resultado exitoso. Aunque Friedberg nunca mencionó explícitamente estar simulando la

evolución natural, esa es la interpretación más comúnmente aceptada de su trabajo, y a pesar

de que tuvo cierto éxito evolucionando manipuladores de bits y determinando las

interconexiones de una caja negra de 1400 terminales, la comunidad de Inteligencia

Artificial de la época prestó poca atención a su trabajo. Por ejemplo, Minsky lo criticó

duramente, argumentando que una búsqueda puramente aleatoria era mucho mejor que el

algoritmo de Friedberg.

El trabajo de Bremermann, en 1958, se enfocó más a la optimización, introduciendo el

importante manejo de un valor de aptitud, y definiendo a un individuo como una cadena de

símbolos binarios (unos y ceros). Bremermann advirtió, acertadamente, que la mutación

jugaba un papel importante en la evolución, pues impedía el estancamiento en mínimos

locales. Aunque muchas de sus ideas se usan hoy en día, Bremermann cometió el error de

tratar de optimizar funciones lineales y convexas, obteniendo resultados decepcionantes,

pues sus algoritmos evolutivos tenían que ser complementados con otras heurísticas para

converger en una solución.

Hoy sabemos que los algoritmos evolutivos difícilmente pueden competir con las técnicas

tradicionales de optimización en esos dominios. Barricelli ofreció, en 1954, una de las

primeras simulaciones que usaba principios evolutivos, utilizando los mismos

procedimientos generales que se usan hoy en día en la disciplina conocida como vida

artificial. Sin embargo, en este trabajo, así como el que Reed realizó posteriormente en 1967,
13

se concluyó que la cruza no parecía mejorar la velocidad de la adaptación selectiva, y el

operador primordial era la mutación.

Fue Fogel el que introdujo la primera técnica evolutiva que realmente funcionó más o menos

dentro de los lineamientos actuales de la computación evolutiva. Su programación evolutiva

consistía en hacer evolucionar autómatas de estados finitos por medio de mutaciones. Fogel

introdujo los importantes conceptos de población y selección, y aunque las revisiones

iniciales de su trabajo fueron favorables, algunos investigadores, como Solomonoff,

enfatizaron que el método de Fogel no debía verse en su estado actual (en 1966) como algo

particularmente útil para resolver problemas, a excepción de los más simples posibles.

Solomonoff vio a la programación evolutiva como una especie de búsqueda escalando la

colina modelada mediante autómatas, y otros investigadores como Holland, Kieras, Rada y

Lenat compartieron esa opinión.

Otra técnica evolutiva dirigida particularmente a la optimización de funciones continuas de

alta complejidad se desarrolló en Alemania, en 1965, por Rechenberg y Schwefel. Esta

técnica, llamada estrategia evolutiva, se utilizó inicialmente para resolver problemas de

ingeniería que desafiaban a los métodos de optimización tradicionales, como el gradiente

conjugado, y se basa en la modificación sistemática de un vector de números reales

(representando las variables de decisión del problema) mediante operadores probabilísticos,

usando ciertos criterios para decidir en qué dirección dirigir la búsqueda. La estrategia

evolutiva utiliza como operador principal a la mutación, y en su versión más reciente usa la

cruza como operador secundario.

Aunque el australiano Fraser propuso, desde fines de los 50, un procedimiento muy similar

al que John Hollandllamó planes evolutivos a fines de los 60, es al segundo al que se le suele
14

atribuir la creación de la técnica que se conoce como algoritmo genético, a raíz de que

Holland publicara el libro “Adaptation in Natural and Artificial Systems” en 1975.

La principal diferencia del algoritmo genético con las técnicas antes mencionadas, es que

utiliza la cruza como operador principal y a la mutación como operador secundario (e incluso

opcional). El algoritmo genético, al igual que las redes neuronales, funciona como una caja

negra que recibe ciertas entradas y produce (tras una cantidad de tiempo indeterminada) las

salidas deseadas. Sin embargo, a diferencia de éstas, los algoritmos genéticos no necesitan

entrenarse con ejemplos de ningún tipo, sino que son capaces de generar sus propios ejemplos

y contraejemplos que guíen la evolución a partir de poblaciones iniciales totalmente

aleatorias.

Los mecanismos de selección del más apto y de reproducción sexual del algoritmo genético,

son los encargados de preservar las características más adecuadas de cada individuo a fin de

hacer converger a la población en soluciones óptimas.

Los algoritmos genéticos se distinguen también por no quedar atrapados fácilmente en

mínimos locales, como la mayor parte de las técnicas de búsqueda clásicas, además de usar

operadores probabilísticos más robustos que los operadores determinísticos, que las otras

técnicas suelen usar.

No obstante, siendo una heurística, tampoco pueden garantizar encontrar siempre la solución

óptima, si bien la experiencia acumulada hasta la fecha parece demostrar que, cuando se

utilizan apropiadamente, pueden proporcionar soluciones muy aceptables y, en la mayoría de

los casos, superiores a las encontradas con otras técnicas de búsqueda y optimización.
15

Aunque aún atacados por algunos sectores de la comunidad de Inteligencia Artificial, los

algoritmos genéticos, al igual que las redes neuronales, se han ido ganando poco a poco, y

sobre la base de la efectividad de sus resultados en aplicaciones prácticas, el reconocimiento

de los investigadores como una técnica efectiva en problemas de gran complejidad, como lo

demuestra un número creciente de conferencias y publicaciones especializadas alrededor del

mundo, en los últimos años.

2.2 Base del conocimiento basado en sistemas

Los métodos generales desarrollados para la resolución de problemas y técnicas de búsqueda

al inicio dela era de la Inteligencia Artificial demostraron no ser suficientes para resolver los

problemas orientados a las aplicaciones, ni fueron capaces de satisfacer los difíciles

requerimientos de la investigación.

A este conjunto de métodos, procedimientos y técnicas, se lo conoce como Inteligencia

Artificial Débil. La principal conclusión que se derivó de este trabajo inicial fue que los

problemas difíciles sólo podrían ser resueltos con la ayuda del conocimiento específico

acerca del dominio del problema. La aplicación de estas ideas dio lugar al desarrollo de los

denominados Sistemas Basados en Conocimiento (Knowledge Based Systems) y al

aparecimiento de la Ingeniería Cognoscitiva, como una rama de la Inteligencia Artificial, que

estudia los sistemas basados en el conocimiento. La definición de un sistema basado en

conocimiento puede ser la siguiente:

Es un sistema computarizado capaz de resolver problemas en el dominio en el cual posee

conocimiento específico.
16

La solución es esencialmente la misma que hubiera dado un ser humano confrontado con

idéntico problema, aunque no necesariamente el proceso seguido por ambos puede ser igual.

El simple concepto dado, puede causar confusión ya que muchos sistemas basados en

programas convencionales podrían ser incorrectamente categorizados como sistemas basados

en conocimiento. Esta inconsistencia puede ser aclarada, sobre la base de tres conceptos

fundamentales que distinguen a los sistemas basados en conocimiento delos programas

algorítmicos convencionales y de los programas generales basados en búsqueda:

 Inteligencia Artificial Débil

 Primero, la separación del conocimiento y el modo en que es usado.

 Segundo, la naturaleza del conocimiento empleado (heurística antes que algorítmica).

 Tercero, El uso de conocimiento específico de un determinado dominio.

Principales Características son

 Amplia difusión del conocimiento.

 Fácil modificación.

 Respuestas coherentes.

 Disponibilidad casi completa.

 Conservación del conocimiento.

 Capacidad de resolver problemas disponiendo de información incompleta.

 Capacidad de explicar los resultados y la forma de obtenerlos.

Principales problemas asociados a este método

 Las soluciones no siempre son las mejores o correctas.

 Conocimiento limitado frente al dominio de un experto.


17

 carecen del sentido común o criterio que puede tener un experto.

 es difícil extraer todo el conocimiento que maneja un experto

2.3 Experiencia habilidades y conocimiento

Los tipos de experiencia que son de interés en los sistemas basados en conocimiento, pueden

ser clasificados en tres categorías: asociativa, motora y teórica. Los sistemas basados en

conocimiento son excelentes para representar conocimiento asociativo. Este tipo de

experiencia refleja la habilidad heurística o el conocimiento que es adquirido

mayoritariamente, a través de la observación. Puede ser que no se comprenda exactamente

lo que ocurre al interior de un sistema (caja negra), pero se pueden asociar entradas o

estímulos con salidas o respuestas, para resolver problemas que han sido previamente

conocidos. La experiencia motora es más física que cognitiva. La habilidad se adquiere

fundamentalmente a través del ejercicio y la práctica física constante. Los sistemas basados

en conocimiento no pueden emular fácilmente este tipo de experiencia, principalmente por

la limitada capacidad de la tecnología robótica. La experiencia teórica y el conocimiento

profundo permite que los humanos puedan resolver problemas que no se han visto antes, es

decir, no existe una posibilidad asociativa. El conocimiento teórico y profundo se adquiere a

través de estudio y entrenamiento formal, así como por medio de la resolución directa de

problemas. Debido a su naturaleza teórica, este conocimiento se puede olvidar fácilmente, a

no ser que se use informa continua. Al momento, los sistemas convencionales basados en

conocimiento tienen muchas dificultades para duplicar este tipo de experiencia. Sin embargo,

los Sistemas de Razonamiento Basado en Modelos representan un notable intento de

encapsular este conocimiento profundo y razonar con él.


18

 Estructura de los sistemas basados en conocimientos

La arquitectura de un sistema basado en conocimiento de alguna manera refleja la estructura

cognitiva y los procesos humanos. La primera parte es la memoria de largo plazo, en la que

guarda los hechos (Base de Hechos) y los conocimientos (Base de Conocimientos) acerca

del dominio en el que tiene experiencia.

La segunda parte es el sistema que realiza la función de razonamiento para resolver

problemas (Motor de Inferencia). Finalmente, la tercera parte la conforman las unidades de

entrada y salida que permiten la comunicación entre el sistema y su entorno. La

representación del conocimiento determina el desarrollo de un sistema experto e influye en

las estrategias de control. Es muy versátil, hay muchas formas de hacerlo y es complicada la

elección. Generalmente la elección está basada en la intuición o en las especiales

circunstancias del problema. La primera fase es la adquisición del conocimiento desde un

experto y depende de la cantidad y de su adecuada representación. Se deben conocer los

límites, pues sólo llegan hasta donde son capaces de resolver un problema. Esto implica, que

tiene que circunscribirse a un dominio homogéneo. El lenguaje de programación debe ser

adecuado, se usan principalmente el LISP y PROLOG, que difieren de los lenguajes clásicos

en que sus reglas (que también contienen hechos) entran masivamente, y que el programa, es

decir, el motor de inferencia, encontrará el camino a través de reglas. Por otra parte, la

programación procedural consiste en una cuidadosa descripción de los algoritmos que

marcan el camino de los diferentes procedimientos y funciones en los programas. Estos dos

modos de programación son teóricamente iguales, pero en la práctica difieren. La

programación declarativa es un tipo de programación implantada en los sistemas expertos y

por ciertos lenguajes. La principal diferencia es que en la declarativa las reglas se formulan
19

independientemente de su secuencia de aplicación. El modo en que se ejecutan las reglas

corresponde al motor de inferencia y es independiente de las reglas en sí mismas. En la

programación procedural, las reglas se implantan y ejecutan en un orden establecido. Las

ventajas en los sistemas expertos son el modularidad, no hay un solo camino para responder

a un problema y son fáciles de leer, lo que simplifica comprobar su consistencia. La

representación del conocimiento es esencial en inteligencia artificial y es la base de la

construcción de un sistema experto.

Fase en la adquisición del conocimiento

 identificación del problema.

 Estructuración del conocimiento.

 La arquitectura del sistema y la maqueta.

 El prototipo y terminación del sistema.

Tecnología de los Sistemas Basados en Conocimiento.

Desde el punto de vista tecnológico, los Sistemas Basados en Conocimiento pueden presentar

varias formas de aplicación:

 Aislada: un Sistema Basado en Conocimiento único se relaciona con el entorno.

 Integrada: varios Sistemas Basados en Conocimiento conectados a bases de

conocimiento comunes. Tipo Front-End cuando todos los hechos y datos están

físicamente en la base común. Tipo Back-End cuando los hechos y datos necesarios

que no estén en las bases comunes, pueden obtenerse de otros SBC.

 Embebida: un Sistema Basado en Conocimiento está integrado con otros sistemas y

no se lo distingue.
20

2.4 Motor de inferencia

Un motor de inferencia interpreta y evalúa los hechos en la base de conocimientos para

proveer una respuesta. Este debe ser independiente del conocimiento y de los hechos. Se

puede caracterizar por:

 El lenguaje en que ha sido escrito.

 La velocidad de trabajo: Inferencias / segundo.

 Las estrategias de búsqueda de soluciones:

1. No Ordenada: aleatoria, heurística.

2. Ordenada: Encadenamiento hacia adelante (guiado por los datos, deductivo),

encadenamiento hacia atrás (guiado por los objetivos, inductivo).

 La forma en que elige el conocimiento.

 La posibilidad de incorporar metaconocimiento.

 El tipo de lógica que emplea en el razonamiento:

1. Booleana, trivalente, multivalente, difusa


2. Monotónica o no monotónica.
3. Atemporal o temporal.
4. Lógica de orden 0, orden 0+, orden 1.
 El método que utiliza para la evaluación del conocimiento incompleto o incierto:

1. Determinístico.
2. Probabilístico.
3. Aproximado.
4. Difuso

En un sistema experto, dado un estado particular de la base de datos, se deben reconocer las

reglas aplicables y esto se llama filtrado o identificación de patrones, operación


21

especialmente larga, ya que muchos sistemas realizan una preselección de las reglas antes de

que comience la identificación propiamente tal. Es decir, se considera un subconjunto de

reglas y entre éstas, las aplicables. Esto, es lo que se llama restricción. Adicionalmente puede

existir una Base de Datos con información puntual sobre problemas específicos

anteriormente resueltos por el sistema, y que se usa como información adicional en el proceso

de inferencia. Una vez que las reglas han sido reconocidas deben ser elegidas, dependiendo

de la estrategia de control, que es la selección. Una vez que las regla han sido elegida ha de

ejecutarse. Al módulo central del sistema experto que maneja estas tres operaciones se le

denomina motor de inferencia o intérprete de reglas. Hay diversos tipos de motores de

inferencia según los métodos con que se manejan las tres operaciones precedentes.

 Identificación de patrones

Hay ciertos métodos típicos para resolver problemas mediante Inteligencia Artificial como:

descomposición de problemas, inferencia deductiva, deducción lógica, etc.

No es necesario que la búsqueda se aplique a todas las reglas, el sistema de control puede

decidir cuáles no son necesarias a ese nivel. El filtrado significa tener el conocimiento para

encontrar las reglas cuya precondición se satisfaga. Se debe comparar por tanto la

precondición con la base de datos. Si es una regla deductiva "si premisa entonces conclusión",

la partea ser probada de la regla, se llama disparador o activador (Tigger) es siempre una

fórmula bien formada ya sea de lógica proposicional o de lógica de primer orden. Puede

aplicarse a cualquier hecho. El único lenguaje que está totalmente basado en el cálculo de

predicados es el PROLOG. Los procesos de identificación de patrones pueden mejorarse

examinando, dentro del activador de cada regla, primero los predicados con más

restricciones, es decir, los que tienen el menor número de variables libres. Otra forma de
22

proceder es que, para cada regla o parte de su activador, se guarda en la memoria el resultado

de las posibles unificaciones para cada parte del activador. Después de cada ciclo del motor

de inferencia, esta memoria se actualiza y se denomina filtrado por propagación.

 Ejecución de las reglas

Después de la fase de filtrado, cuando una regla está reconocida como aplicable, teniendo en

cuenta la base de datos existente, solo resta ejecutarla. Si hay varias posibles reglas, la

elección la realiza la estrategia de control. La conclusión de la regla tiene por objeto modificar

la base de conocimiento, creando, modificando o suprimiendo un hecho.

 Fase de restricción

En un sistema dirigido por los datos, el filtrado consiste en retener todas las reglas cuyas

premisas son verdaderas teniendo en cuenta los hechos (verdaderos) presentes en la base de

datos. Este sistema funciona en encadenamiento hacia delante. Si el sistema es a la vez

dirigido por los datos y por los objetivos, se denomina mixto. La restricción también puede

estar especificada explícitamente por el experto para utilizar reglas dentro de las reglas, es

decir, meta reglas. Indica qué grupo de reglas debe ser retenido, por prioridad, o definir un

orden en los subconjuntos de las reglas. El conocimiento puede organizarse en forma de red

como en las redes semánticas utilizadas en el análisis sintáctico del lenguaje. Su posición

dentro de la red dirige las restricciones utilizando heurísticas. Esta formulación es

particularmente eficiente si se establece válidamente una organización jerárquica del

conocimiento, en este caso existiría una taxonomía de los hechos. Otro modo de gobernar las

restricciones es organizar las reglas en paquetes o esquemas, lo que genera una estructura de
23

árbol en reglas, lo que es una ventaja. Todos estos modos dependen de la forma en que está

representado el conocimiento.

 Fase de selección

Como después de las fases anteriores quedan varias reglas se debe seleccionar una y luego

de procesada el programa debe saber dónde volver. Cuando hay una o más reglas, se usan

dos estrategias:

La búsqueda en anchura, que elige una, generalmente la primera y se van ejecutando por

turno antes de comprobar que se ha alcanzado la condición final. Si no es así se inicia otro

ciclo del motor de inferencia. Este tipo de búsqueda es exhaustiva y la usa el sistema experto

MYCIN.

Otra estrategia es la de elegir una regla entre las aplicables por medio de una heurística,

procesarla y modificarla base de datos. Si no se alcanza la condición final, comienza otro

ciclo del motor de inferencia. Es, por lo tanto, una estrategia en profundidad. Cada una de las

estrategias puede ser irrevocables o avanzar por prueba y error. Muchos sistemas efectúan

marcha atrás, si no hay regla aplicable, pero si el sistema está bajo un control irrevocable

detendrá. Visto en la práctica, las reglas poseen la siguiente estructura:

SI (CONJUNTO DE PREMISAS) ENTONCES CONSECUENCIA

O bien:

CONJUNTO_DE_PREMISAS) CONSECUENCIA
24

El CONJUNTO_DE_PREMISAS contiene las cláusulas, o simplemente condiciones, que

deben cumplirse para que la regla pueda ejecutarse, y la CONSECUENCIA representa el

resultado de la ejecución de dicha regla.

Un ejemplo sencillo que ilustra cómo representar conocimiento a través de reglas:

Afirmación:

Todos los catedráticos son doctores. Representación Lógica – Matemática.

En esta representación la variable x constituye el conjunto de todas las personas posibles,

CATEDRÁTICO representa la relación "SER CATEDRÁTICO" y DOCTOR la de "SER

DOCTOR". De esta manera la regla anterior representa el hecho: Para toda persona x, Si x

es catedrático entonces x es doctor. Representación en SE:

O bien:

SI (x ES CATEDRÁTICO) ENTONCES (x ES DOCTOR) En este caso CATEDRÁTICO y

DOCTOR representan de nuevo relaciones que deben estar representadas sobre el sistema.

¿Cómo representar estas nuevas clasificaciones?

Como todo sistema informático los SE pueden operar sobre un conjunto finito de elementos,

para esto es necesario definir el universo de trabajo dentro del cual probaremos nuestras

reglas. Sobre esta base la definición dela relación SER CATEDRÁTICO o CATEDRÁTICO,

según sea la representación usada, debe hacerse puntualmente para cada individuo del
25

universo, por ejemplo: CATEDRÁTICO ("Mario Pérez") CATEDRÁTICO ("Manuel

Fernández")

CATEDRÁTICO ("María González”) Los componentes de la relación SER DOCTOR se

deducen a partir de la relación SER CATEDRÄTICO y la regla anterior, por lo que no es

necesario una representación o definición explícita

 Inferencia o extracción de conclusiones

Para extraer una conclusión, o inferencia, se hace necesario, antes que nada, saber el objetivo

a satisfacer, o problema a resolver. Este problema se plantea en forma de objetivo que se

toma por el Motor de Inferencia el cual a través de la activación y encadenamiento de reglas

trata de llegar a una solución. Al seguir con el ejemplo:

Objetivo:

"Es Mario Pérez Doctor"

Solución

Al aplicar la regla: SI (x ES CATEDRÁTICO) ENTONCES (x ES DOCTOR)

Se debe chequear, como precondición de activación, el cumplimiento de la relación:

CATEDRÁTICO ("Mario Pérez")

Se debe chequear la base de Axiomas o Afirmaciones:

CATEDRÁTICO ("Mario Pérez") existe en la base de axiomas, por lo que la precondición

es verdadera.

Se dispara la consecuencia y se llega a la conclusión que Mario Pérez es doctor.


26

 Encadenamiento de reglas

Existen dos mecanismos fundamentales de encadenamiento de reglas

1) Encadenamiento hacia delante:

Se produce cuando el objetivo propuesto al sistema hace que se ejecute una regla, y

la conclusión obtenida permite que se ejecute otra, y así sucesivamente hasta llegar a

una respuesta, positiva o negativa. El punto final se detecta cuando no se pueden

producir más encadenamientos, por ejemplo, cuando se llega a un axioma.

Por ejemplo

(1). SI (x ES JEFE_DPTO) ENTONCES (x ES CATEDRÁTICO)

(2). CATEDRÁTICO ("Mario Pérez")

(3). CATEDRÁTICO ("Manuel Fernández")

(4). CATEDRÁTICO ("María González")

Al evaluar el objetivo: "Mario Pérez es Jefe_Dpto", se dispara la regla (1), la cual a

su vez se encadena con la (2), en este momento no se pueden producir más

encadenamientos pues la regla (2) es un axioma. Llegado a este punto el Motor de

Inferencia retrocede y da una respuesta positiva a la pregunta.

2) Encadenamiento hacia atrás

Consiste en, dado un objetivo, buscar una regla que permita establecer dicha

conclusión, el proceso se repite hasta encadenar con la regla cuya conclusión satisfaga

el objetivo propuesto, o se detecte que dicho problema no se puede resolver

positivamente. Por ejemplo, para averiguar si "Mario Pérez es doctor" se busca una

regla que tenga esta afirmación en sus consecuencias. Analizando las reglas anteriores

vemos que la regla:


27

(5). SI (x ES CATEDRÁTICO) ENTONCES (x ES DOCTOR)

Satisface estas condiciones; siguiendo esta regla hacia atrás tenemos que buscar una

nueva que permita validar si “Mario Pérez" es catedrático, lo cual se hace con el

axioma (2).

Los encadenamientos constituyen, de esta manera, una de las herramientas

fundamentales del Motor de Inferencia; el Lenguaje PROLOG solamente soporta el

encadenamiento hacia atrás, el cual constituye el más frecuentemente implementado.


28

CAPÌTULO III

CARACTERÍSTICAS

3.1 Diferenciación de la IA y el método numérico

Una característica básica que diferencia los métodos de la inteligencia artificial de los

métodos numéricos es la utilización de símbolos no matemáticos, sin embargo no es

suficiente para diferenciarlo completamente. Otros tipos de programas como son los

compiladores y los sistemas de bases de datos, también trabajan símbolos sin que se considere

que usen técnicas de Inteligencia Artificial

3.2 Sistematizados

El comportamiento o conducta de los programas no lo describe explícitamente el algoritmo.

La secuencia de pasos que sigue el programa es influenciado por l problema específico

presente. El programa determina como hallar la secuencia de pasos necesarios para

solucionar un problema dado (programa declarativo). A diferencia de los programas que no

son de Inteligencia Artificial, que siguen determinado algoritmo, que especifica,

explícitamente, cómo hallar las variables de salida para cualquier variable dada de entrada

(programa de procedimiento).

Las conclusiones de todo programa declarativo no son fijas y son específicas parcialmente

por las conclusiones intermedias logradas durante las consideraciones intermedia logradas

durante las consideraciones al problema determinado. Los lenguajes orientados a objetos

comparten esta propiedad y siempre se han caracterizado por su afinidad con la Inteligencia

Artificial.
29

3.3 Razonamiento basado en el conocimiento

El razonamiento basado en conocimiento, ocasiona que estos programas incorporen factores

y relaciones el mundo real y del ámbito del conocimiento en que ellos trabajan. A diferencia

de los programas de propósito específico, como son los de contabilidad y cálculos

científicos; los programas de Inteligencia Artificial pueden diferenciar entre el programa de

razonamiento o motor de inferencia y la base de conocimientos otorgándole la capacidad de

explicar discrepancias entre ellas.

3.4 Aplicabilidad de datos y problemas

Aplicabilidad a datos y problemas equivocadamente estructurados. Sin el uso de las técnicas

de Inteligencia Artificial los programas no pueden trabajar con ese tipo de problemas. Por

ejemplo, la resolución de conflictos en tareas orientadas a objetivos como en planificación o

el diagnostico de tareas de un sistema del mundo real: con muy poca información, con una

solución cercana y no exacta.

La Inteligencia Artificial abarca varios campos de desarrollo como: la robótica, utilizada

básicamente en el campo industrial; la comprensión de lenguajes y a la traducción; visión en

máquinas que diferencian formas y que se utilizan en líneas de ensamblaje; el reconocimiento

de palabra y aprendizajes de máquinas; los sistemas computacionales expertos.

Los sistemas expertos, que repiten el comportamiento humano en un breve ámbito del

conocimiento, son programas tan diversos y variados como los que diagnostican infecciones

en la sangre y que indican un tratamiento, los que interpretan diversos datos sismológicos en

exploración geológica y los que permiten configurar complejos equipos de alta tecnología.
30

Dichas tareas reducen costos, reducen riesgos en el manejo humano en áreas peligrosas,

facilitan y mejoran el desempeño del personal inexperto, y también mejoran el control de

calidad principalmente en el ámbito comercial.


31

CAPÍTULO IV

CLASIFICACIÓN

4.1 Según Stuart Russell y Peter Norvig

4.1.1 Sistemas que piensan como humanos

Estos sistemas tratan de emular el pensamiento humano; por ejemplo las redes neuronales

artificiales. La automatización de actividades que vinculamos con procesos de pensamiento

humano, actividades como la toma de decisiones, resolución de problemas y aprendizaje.

4.1.2 Sistemas que actúan como humanos

Estos sistemas tratan de actuar como humanos; es decir, imitan el comportamiento humano;

por ejemplo la robótica. El estudio de cómo lograr que los computadores realicen tareas que,

por el momento, los humanos hacen mejor.

4.1.3 Sistemas que piensan racionalmente

Es decir, con lógica (idealmente), tratan de imitar o emular el pensamiento lógico racional

del ser humano; por ejemplo los sistemas expertos. El estudio de los cálculos que hacen

posible percibir, razonar y actuar.

4.1.4 Sistemas que actúan racionalmente

Tratan de emular de forma racional el comportamiento humano; por ejemplo los agentes

inteligentes. Está relacionado con conductas inteligentes en artefactos.


32

4.2 Según Searle

4.2.1 Inteligencia artificial fuerte

La escuela argumenta que las computadoras podrán llegar a realmente pensar, exactamente

igual que el humano y a tener conciencia.

El argumento más precisamente indica que hay un tipo básico de programas de computación

que implementado adecuadamente, piensa en forma real.

IA fuerte cree que la computadora puede exhibir conciencia de lo que está haciendo, por

ejemplo a través de rutinas y mecanismos autor reflexivos, esto es, de autoanálisis, de

autocontrol y de autocrítica de lo que está ejecutando, mediada con técnicas estadísticas.

IA fuerte implica desarrollo o aprendizaje interactivo (por ejemplo, modificaciones

interactivas de los parámetros en sistemas conexionistas). El aprendizaje se realiza basándose

en datos empíricos. Algunos métodos de aprendizaje son: Maquina de vectores soporte, redes

neuronales, sistemas difusos.

DÉBIL - Searle llama así a la escuela que aprecia que los procesos cerebrales y los mentales

pueden ser simulados computacionalmente.

4.2.2 Inteligencia artificial débil

No cree en las afirmaciones de la escuela FUERTE. Contrapone a esas ideas, estas otras: que

las computadoras podrían actuar como si fuesen inteligentes, mimetizadas o como si lo

fuesen, simulando serlo. Podrían superar en "inteligencia" a sus programadores, con motivo

de su alta capacidad combinatoria (deliberación) ejecutable en cortos tiempos o de ejecución

de "sistemas expertos" en campos restringidos.


33

La IA débil sostiene que no hay inconvenientes en agregarles a las computadoras habilidades

que no posee el ser humano, como conducir helicópteros que pierden una pala en pleno vuelo,

sin perder su estabilidad (imposible con pilotos humanos) o reconocer con alta precisión

quien es el que emite un cierto tipo de voz o terminar con buen éxito sistemas expertos muy

complicados.

En general los expertos en IA siguen perfeccionando sus sistemas computacionales sin

sentirse afectados por estas diferencias conceptuales, que no le modifican sus propósitos ni

le proponen nuevas vías. Es una tarea de nunca acabar que los expertos de diferentes

vertientes del conocimiento se pongan de acuerdo, frente a un candidato a ser un sistema

inteligente, sobre qué es la inteligencia o cómo evaluarla y reconocerla como tal.

Con esta misma tónica Sloman discrimina una fuerte AI de una débil fuerte AI,

introduciendo matices en la inteligencia artificial fuerte.


34

CAPÌTULO V

APLICACIÓN

La inteligencia artificial es uno de los contenidos científico con mayor variedad de

aplicaciones pues como su nombre indica; los aparatos o máquinas que estén dotados de ella

podrán hacer una perfecta emulación del ser humano y su complejidad de pensamiento.

Debido a su gran aceptación en el campo laboral ya que facilita ciertas tareas de los humanos

y reduce los costos

5.1 Robótica

Se podría decir que la rama de la robótica va de la mano con la inteligencia artificial ya que

expresa muy detalladamente la misma, y siempre se acostumbra a vincular ambas ciencias

.La inteligencia artificial se ve aplicada en la acción de poder comandar y controlar a las

diferentes maquinas haciéndolas capases de recibir y procesar la información exterior

mediante su programación y sensores especializados, naciendo así los llamados robots, los

robots son diseñados para que realicen trabajos con la finalidad reducir el esfuerzo del

hombre, en base a esto los robots se divide teniendo en cuenta la aplicación que se le dé en

un campo especifico por ejemplo la medicina, construcción, etc.

5.2 Medicina

La importancia de la medicina en las aplicaciones de la inteligencia artificial ha sido

realmente notable, hasta el extremo de que esas aplicaciones tienen nombre propio: AIM,

acrónimo de Artificial Intelligence in Medicine que, desde hace 15 años, ha evolucionado

como una activa y creciente disciplina. En su campo ya que se han desarrollado máquinas

que interpretan imágenes médicas, controlan las unidades de cuidados intensivos, monitorean
35

a los pacientes y realizan diagnósticos. Además se han creado máquinas que a su vez crean

diseños de prótesis, hasta sistemas expertos que colaboran a los médicos en cualquier

actividad a la cual le fue asignada.

5.3 Educación

En los años 50 aparecieron los primeros sistemas de enseñanza llamados programas lineales.

Aquellos programas eran muy básicos y la mayor desventaja era que el método de enseñanza

no se podía cambiar ni el programador podía realizar dicho cambio. A principio de los años

60, las computadoras, la compra y venta de las mismas, comenzó a emerger gracias a que las

universidades las requerían en gran cantidad, sobre todo Estados Unidos. De allí que la

computadora llego a formar gran parte de la educación de los profesionales. Tan rápido como

las universidades adquirieron las computadoras comenzaron a cambiar su método de

enseñanza obteniendo magníficos resultados. En el campo de la educación se ha hecho

necesario incluir la inteligencia artificial debido al gran trabajo que generan extensas

cantidades de estudiantes, ya que se han implantado sistemas de gestiones de estudiantes,

como también otro tipo de sistemas que puedan percibir las deficiencias de un estudiante y

ayudar en su desenvolvimiento.

Un STI es capaz de guiar al alumno a lo largo de un dominio en particular del conocimiento,

resolviendo durante el proceso tareas tales como la elaboración de una estrategia de

tutorización, la generación de ejercicios a la medida de las necesidades del alumno, la

resolución pedagógica de estos ejercicios, así como la explicación de la solución.


36

5.4 Entretenimiento

La inteligencia artificial en los videojuegos es cada vez más indispensable tanto en consolas

como en ordenadores aunque los usuarios no la distingan debido a que está muy implícita, la

podemos ver reflejada en los famosos avatares, comiquitas y textos.

5.5 Gestión de información

Esta parte es fundamental ya que la inteligencia artificial nos permite extraer información

muy difícil de encontrar o quizás que requiera de mucho esfuerzo para conseguirla, un

ejemplo de ello son los rastreos web, filtrado de correos y la minería de los datos.
37

CAPÌTULO VI

TEST DE TURING

6.1 Concepto

El test de Turing (o prueba de Turing) es una prueba de la habilidad de una máquina de

exhibir un comportamiento inteligente similar, o indistinguible, del de un humano. Alan

Turing propuso que un humano evaluara conversaciones en lenguaje natural entre un humano

y una máquina diseñada para generar respuestas similares a las de un humano. El evaluador

sabría que uno de los miembros de la conversación es una máquina y todos los participantes

serían separados de otros. La conversación estaría limitada a un medio únicamente textual

como un teclado de computadora y un monitor por lo que sería irrelevante la capacidad de la

máquina de transformar texto en habla. En el caso de que el evaluador no pueda distinguir

entre el humano y la máquina acertadamente (Turing originalmente sugirió que la máquina

debía convencer a un evaluador, después de 5 minutos de conversación, el 70% del tiempo),

la máquina habría pasado la prueba. Esta prueba no evalúa el conocimiento de la máquina en

cuanto a su capacidad de responder preguntas correctamente, solo se toma en cuenta la

capacidad de ésta de generar respuestas similares a las que daría un humano.

6.2 Predicción

Turing predijo que las máquinas pasarían la prueba eventualmente, de hecho, el estimaba que

para el año 2000, las máquinas con al menos 100 MB de almacenamiento podrían engañar a

un 30% de los jueces humanos en una prueba de 5 minutos y que la gente no consideraría la

frase “máquina pensante” como contradictoria. (En la práctica, desde el 2009 al 2012, los

robots conversacionales que participaron en el Premio Loebner solo lograron engañar una
38

vez a un juez y esto era debido a que el participante humano pretendía ser un robot

conversacional) Turing también predijo que el aprendizaje de las máquinas sería una parte

esencial al construir máquinas poderosas, esta afirmación se considera posible en la

actualidad por los investigadores en IA.

En un texto del 2008 enviado a la decimonovena Conferencia de Inteligencia Artificial y

Ciencia Cognitiva del Medio Oeste, el doctor Shane T. Mueller predijo que una variante de

la prueba de Turing llamada “Decatlón Cognitivo” sería completada en 5 años.

Al extrapolar el crecimiento exponencial de la tecnología a lo largo de varias décadas, el

futurista Ray Kurzweil predijo que las máquinas que aprobaran la prueba de Turing serían

fabricadas en el futuro próximo. En 1990, Kurzweil definió este futuro próximo alrededor

del año 2020, para el 2005 cambió su estimado para el año 2029.

El proyecto “Long Bet Project Nr. 1” es una apuesta de $20,000 USD entre Mitch

Kapor (pesimista) y Ray Kurzweil (optimista) sobre la posibilidad de que una máquina pase

la prueba de Turing para el año 2029. Durante la prueba de Turing de Long Now, cada uno

de los tres jueces realizara entrevistas a cada uno de los cuatro participantes (i.e. la

computadora y tres humanos) durante dos horas para un total de 8 horas de entrevistas. La

apuesta especifica condiciones a detalle.

6.3 Ventajas

 Tratabilidad y simplicidad

El poder y atractivo de la prueba de Turing se deriva de su simplicidad. La filosofía de la

mente, la psicología y la neurociencia moderna han sido incapaces de proporcionar

definiciones para “inteligencia” y “pensamiento” que sean suficientemente precisas y


39

generales como para ser aplicadas a máquinas. Sin estas definiciones, las incógnitas

principales de la filosofía de la inteligencia artificial no pueden ser respondidas. La prueba

de Turing, aunque imperfecta, al menos proporciona algo que puede ser medido y como tal,

es una solución pragmática a una difícil pregunta filosófica.

 Variedad de temas

El formato de la prueba permite al interrogador darle una gran variedad de tareas intelectuales

a la máquina. Turing escribió que: “Los métodos de pregunta y respuesta parecen ser

adecuados para introducir cualquiera de los campos de labor humana que queramos

incluir.” John Haugeland agregó: “la comprensión de las palabras no es suficiente, también

se tiene que entender el tema.”.

Para aprobar una prueba de Turing diseñada correctamente, la máquina debe usar lenguaje

natural, razón, tener conocimientos y aprender. La prueba puede ser extendida para incluir

video como fuente de información junto con una “escotilla” por la que se pueden transferir

objetos, esto forzaría a la máquina a probar su habilidad de visión y de robótica al mismo

tiempo. En conjunto representan casi todos los problemas que la investigación de inteligencia

artificial quisiera resolver.

La prueba de Feigenbaum está diseñada para usar a su ventaja el rango de temas disponibles

para una prueba de Turing. Es una forma limitada del juego de respuesta y pregunta de Turing

el cual compara a la máquina contra la habilidad de expertos en campos específicos como

la literatura y la química. La máquina Watson de IBM alcanzó el éxito en un show de

televisión que hacia preguntas de conocimiento humano a concursantes humanos y a la

máquina por igual y al mismo tiempo llamado Jeopardy!


40

 Énfasis en la inteligencia emocional y estética

Siendo un graduado de matemáticas con honores de Cambridge, se esperaba que Turing

propusiera una prueba de inteligencia computacional que requiriera conocimiento experto de

algún campo altamente técnico y como resultado necesitaría anticipar un acercamiento

diferente. En vez de eso, la prueba que describió en su texto de 1950 solo requiere que la

computadora sea capaz de competir exitosamente en un juego de fiestas común, con esto se

refiere a que pueda compararse su desempeño con el de un humano típico al responder series

de preguntas para aparentar ser la participante femenina.

Dado el estatus de dimorfismo sexual humano como uno de los temas más antiguos, se tiene

implícito, en el escenario anterior, que las preguntas realizadas no pueden involucrar

conocimientos factuales especializados ni técnicos de procesamiento de información. El reto

para la computadora será exhibir empatía por el papel de la mujer al igual que demostrar una

característica de sensibilidad estética, cualidades las cuales se muestran en este extracto

imaginado por Turing:

Interrogador: ¿Podría X decirme el largo de su cabello?

Participante: Mi cabello está en capas y las hebras más largas son de aproximadamente 9

pulgadas de largo.

Cuando Turing introduce algo de conocimiento especializado a sus diálogos imaginarios, el

tema no es matemáticas ni electrónica sino poesía:

Interrogador: En la primera línea de tu soneto se lee: “Podré compararla con un día de

verano”, ¿acaso no funcionaría “un día de primavera” de igual o mejor manera?

Testigo: No funcionaría.
41

Interrogador: ¿Qué tal “un día de invierno”? Eso debería funcionar.

Testigo: Si, pero nadie quiere ser comparado con un día de invierno.

Turing, nuevamente, demuestra su interés en la empatía y en la sensibilidad estética como

componente de la inteligencia artificial y en luz de una preocupación creciente de una IA en

descontrol, se ha sugerido que este enfoque puede representar una intuición crítica por parte

de Turing, i.e. que la inteligencia y estética jugarán un rol clave en la creación de una “IA

amigable”. Sin embargo, se ha observado que cualquiera que sea la dirección en la que Turing

nos inspire, depende de la preservación de su visión original, ósea, la promulgación de una

“Interpretación Estándar” de la prueba de Turing (i.e. una que se enfoque únicamente en la

inteligencia discursiva) debe ser tomada con precaución.

6.4 Desventajas

Turing no afirmó explícitamente que la prueba de Turing podía ser usada como una medida

de la inteligencia, o de cualquier otra cualidad humana. Él quería proporcionar una alternativa

clara y comprensible a la palabra “pensar”, que posteriormente se pudiera usar para responder

ante las críticas sobre la posibilidad de “máquinas pensantes”, y sugerir formas para que la

investigación siga avanzando. Sin embargo, se ha propuesto el uso de la prueba de Turing

como una medida de la “capacidad para pensar” o de la “inteligencia” de una máquina. Esta

propuesta ha recibido las críticas de filósofos y científicos de la computación. Esta asume

que un interrogador puede determinar si una máquina es “pensante” al comparar su

comportamiento con el de un humano. Cada elemento de esta asunción ha sido cuestionado:

la confiabilidad del juicio del interrogador, el valor de comparar únicamente el

comportamiento y el valor de comparar a la máquina con el humano, es por estas asunciones


42

y otras consideraciones que algunos investigadores de IA cuestionan la relevancia de la

prueba de Turing en el campo.

 Inteligencia humana vs. Inteligencia en general

La prueba de Turing no evalúa directamente si una computadora se comporta

inteligentemente, solo si se comporta como un ser humano. Ya que el comportamiento

humano y un comportamiento inteligente no son exactamente iguales, la prueba puede errar,

al medir precisamente la inteligencia, de dos maneras:

 Ciertos comportamientos humanos no son inteligentes

La prueba de Turing requiere que la máquina despliegue todos los comportamientos

humanos, sin importar el hecho de que sean inteligentes o no. Incluso examina en

búsqueda de comportamientos que consideramos, en lo absoluto, inteligentes. Entre

ellos se encuentra la susceptibilidad a insultos, la tentación de mentir o, simplemente,

errores de escritura. Si una máquina falla al imitar estos comportamientos no

inteligentes, reprobaría la prueba.: Esta objeción fue sacada a la luz en una

publicación en “The Economist” titulada “Artificial Stupidity” (Estupidez artificial en

inglés) poco después de la primera competencia del Premio de Loebner en 1992. El

artículo afirmaba que el ganador de la competencia fue, en parte, por la habilidad de

la máquina de "imitar errores humanos de escritura." El mismo Turing sugirió que los

programas añadieran errores a la información que transmitían para parecer

“jugadores” del juego.

 Ciertos comportamientos inteligentes son inhumanos

La prueba de Turing no examina comportamientos altamente inteligentes como lo son

la habilidad de resolver problemas difíciles o la ocurrencia de ideas originales. De


43

hecho, requiere específicamente decepción por parte del interrogador: si la máquina

es más inteligente que un humano, esta debe aparentar no ser “demasiado” inteligente.

Si resolviera un problema computacional que es prácticamente imposible para un ser

humano, el interrogador sabría que no es humano y como resultado la computadora

reprobaría la prueba.

Como no se puede medir la inteligencia que está más allá de la humana, la prueba no

puede ser usada para construir o evaluar sistemas que son más inteligentes que los

humanos. Por esto se han propuesto varias pruebas alternativas capaces de evaluar un

sistema súper inteligente

 Inteligencia real vs. Inteligencia simulada

La prueba de Turing evalúa única y estrictamente cómo se comporta el sujeto (o

sea, el comportamiento externo de la máquina). En cuanto a esto, se toma una

perspectiva conductista o fundamentalista al estudio de la inteligencia. El

ejemplo de ELIZA sugiere que una máquina que pase la prueba podría simular

el comportamiento conversacional humano siguiendo una simple (pero larga)

lista de reglas mecánicas sin pensar o tener mente en lo absoluto.

John Searle ha argumentado que el comportamiento externo no puede ser usado

para determinar si una máquina esta “realmente” pensando o simplemente

“simulando el pensamiento”. Su habitación china pretende demostrar esto,

aunque la prueba de Turing sea una buena definición operacional de la

inteligencia, no indica si la máquina tiene

una mente, conciencia o intencionalidad. (La intencionalidad es un término

filosófico para el poder de los pensamientos de ser “sobre” algo.)


44

Turing anticipó esta crítica en su texto original escribiendo:

No deseo dar la impresión de que no creo en el misterio de la conciencia. Hay,

por ejemplo, algo paradójico conectado a cualquier intento de localizarla. Pero

no creo que estos misterios necesiten ser resueltos antes de poder responder la

pregunta que tratamos en este texto.

 Ingenuidad de los interrogadores y la falacia antropomórfica.

En la práctica, los resultados de la prueba pueden ser fácilmente dominados, no

por la inteligencia de la computadora sino por, las actitudes, la habilidad o la

ingenuidad del interrogador.

Turing no especifica las habilidades ni el conocimiento requeridos del integrador

en la descripción de su prueba pero si incluyó el término “interrogador

promedio”: “el interrogador promedio no debe tener más del 70% de oportunidad

de acertar en la identificación después de cinco minutos de cuestionamiento.”

Shah y Warwick (2009b) demostraron que los expertos son engañados y que la

estrategia, “poder” vs “solidaridad” del interrogador influyen en la identificación

con la última siendo más exitosa.

Los bots conversacionales como ELIZA han engañado, en repetidas ocasiones, a

personas en creer que se comunican con seres humanos. En este caso, el

interrogador no estaba al tanto de la posibilidad de que su interacción fuera con

una computadora. Para aparentar ser un humano exitosamente, no hay necesidad

de que la máquina tenga inteligencia alguna, solo se necesita una similitud

superficial al comportamiento humano.


45

Las primeras competencias del Premio Loebner usaban interrogadores poco

sofisticados que eran fácilmente engañados por las máquinas. Desde el 2004, los

organizadores del Premio Loebner han implementado filósofos, científicos de la

computación y periodistas entre los interrogadores. Sin embargo, algunos de

estos expertos han sido engañados por las máquinas.

Michael Shermer señala que los seres humanos consistentemente consideran

objetos no humanos como humanos siempre que tenga la oportunidad de hacerlo,

un error llamado “falacia antropomórfica”: hablan con sus vehículos, atribuyen

deseos e intenciones a fuerzas naturales (e.g. “la naturaleza odia el vacío”) y

veneran al solo como un ser humano con inteligencia. Si la prueba de Turing se

aplicara a objetos religiosos, entonces las estatuas inanimadas, rocas y lugares

aprobarían consistentemente la prueba a lo largo de la historia según Shermer.

Esta tendencia humana hacia el antropomorfismo, efectivamente reduce la

exigencia a la prueba de Turing a menos que se le entrene a los interrogadores a

evitarlo.

 Errores en la identificación humana

Una característica interesante de la prueba de Turing es la frecuencia con la que

investigadores confunden a los participantes humanos con máquinas. Se ha

sugerido que esto es porque los investigadores buscan respuestas humanas

esperadas en vez respuestas típicas. Esto resulta en la categorización incorrecta

de algunos individuos como máquinas lo que puede favorecer a la máquina.


46

 Irrelevancia e impractibilidad: Turing y la investigación de IA.

Los investigadores de IA famosos argumentan que el intentar pasar la prueba de

Turing es una distracción de las investigaciones más fructíferas. La prueba no es

un enfoque activo de investigación académica o de esfuerzo comercial, como

Stuart Russel y Peter Norvig escribieron: “Los investigadores de IA han dedicado

poca atención a pasar la prueba de Turing”.Hay varias razones para esto.

En primera, hay formas más fáciles de probar un programa. La mayoría de las

investigaciones en los campos relacionados con la IA están dedicadas a metas

más específicas y modestas como la planificación automatizada, reconocimiento

de objetos o logísticas. Para probar la inteligencia de los programas al realizar

estas tareas, los investigadores simplemente les dan la tarea directamente.

Russell y Norvig propusieron una analogía con la historia del vuelo: Los aviones

son probados según su habilidad para volar, no comparándolos con aves. Textos

de “Ingeniería Aeronáutica” mencionan: “no se debe definir la meta del campo

como máquinas voladoras que vuelan tan parecidamente a las palomas que

podrían engañar a estas.”.

En segunda, la creación de simulaciones de humanos es un problema difícil que

no necesita resolverse para cumplir las metas básicas de la investigación de IA.

Caracteres humanos creíbles son interesantes para una obra de arte, un juego o

una interfaz de usuario sofisticada pero no tienen lugar en la ciencia de la

creación de máquinas inteligentes que resuelven problemas con esta inteligencia.


47

CAPÌTULO VII

VENTAJAS Y RIESGOS DE LA INTELIGENCIA ARTIFICIAL

7.1 Ventajas

 Puede resolver problemas, incluso particionando problemas complejos en otros más

simples.

 Entiende. Posee la capacidad de crearle sentido, si es posible, a ideas ambiguas o

contradictorias.

 Planifica, predice consecuencias, evalúa alternativas (como en los juegos de ajedrez).

 Conoce los límites de sus propias habilidades y conocimientos.

 Puede distinguir a pesar de la similitud de las situaciones.

 Puede ser original, creando incluso nuevos conceptos o ideas, y hasta utilizando

analogías.

 Puede generalizar.

 Puede percibir y modelar el mundo exterior.

 Puede entender y utilizar el lenguaje y sus símbolos.

 Si ya hubo un día en el que el teletrabajo nos parecía una verdadera pasada, imagina

por un segundo que tu robot personal adquiere las destrezas suficientes como para

encargarse de tu trabajo diario. Tú sólo concéntrate en disfrutar de la vida.

 Enviar a hombres al espacio supone un gran riesgo. Respirar, eso que solemos hacer

los seres vivos, suele ser un problema fuera de nuestra atmósfera. Sin embargo, una

IA podría ser nuestros ojos y oídos a miles de kilómetros de distancia a altas presiones

o bajas temperaturas.
48

7.2 Riesgos

 La pérdida de los lugares de trabajo es uno de los riesgos más grandes, ya que hasta

ahora la inteligencia artificial ha facilitado y desplazado a las personas de labores

repetitivas o peligrosas, pero con avances en la inteligencia artificial comenzaran a

peligrar trabajos en el sector de servicios es por eso que los expertos señalan que

opten por trabajos en donde se prime la creatividad. Esto va desde la educación y una

salida pronta a este riesgo seria que se incorporen habilidades blandas (artes) en las

escuelas, para que no sea tarde en la inevitable revolución del trabajo.

 La capacidad de procesar datos da un poder por parte de quienes lo controlan y

analizan. Esto puede arraigar una serie de problemas si es que hacen un mal uso de la

información brindada. En claro ejemplo se vería en el siguiente caso: una

investigación en el MIT con un grupo de científicos pudieron identificar con datos

anónimos a las personas con solo el patrón de tarjetas de crédito.

 Los errores de programación son uno de los problemas más frecuentes como: una

caída de red que nos podría dejar sin comunicación. Pero no solo este tipo de

problemas, ya que cada día la tecnología avanza y es capaz de el control de

automóviles, robots quirúrgicos… que implicaría tener más cuidado y esfuerzo para

la calidad del software y evitar alguna falla que en este caso podría ser trágica.

 La seguridad cibernautita es uno de los riesgos que pueden ser o no vulnerados

fácilmente dependiendo del nivel de complejidad, ya que los algoritmos de la


49

inteligencia artificial no son diferentes a otros programas. Es por eso que actualmente

se fomenta y financia mucho a la seguridad cibernautita para que puedan detectar y

eliminar algún tipo de ataque.

 Cambio de relación con el medio, al estar intercambiando información en vez de un

doctor con un robot o en la manera de como nuestras casas son vigiladas.

 La automatización es un riesgo que correríamos la mayoría ya que todos estaríamos

expuestos a este sistema, por ejemplo: automóviles automáticos ya que con el tiempo

al dejar de manejarlos nos olvidaríamos de como hacerlo, ¿y si el sistema falla? Pues

no sabríamos que hacer y con esto nos volveríamos dependientes a estas máquinas.

 Pérdida del control, ya que al ser que estos sistemas inteligentes toman decisiones cada

día más delicadas hacen que nuestras vidas pierdan elección suficiente
50

CAPÌTULO VIII

PERSPECTIVAS FUTURAS

Con poco más de diez años de antigüedad, la Vida Artificial se ha convertido en un punto de

referencia sólido de la ciencia actual. En septiembre de 1987, 160 científicos en informática,

física, biología y otras disciplinas se reunieron en el Laboratorio Nacional de Los Álamos

para la primera conferencia internacional sobre Vida Artificial. En aquella conferencia se

definieron los principios básicos que han marcado la pauta desde entonces en la investigación

de esta disciplina. Un concepto básico dentro de este campo es el de comportamiento

emergente.

El comportamiento emergente aparece cuando se puede generar un sistema complejo a partir

de reglas sencillas. Para que se dé este comportamiento se requiere que el sistema en cuestión

sea iterativo, es decir, que el mismo proceso se repita de forma continua y además que las

ecuaciones matemáticas que definen el comportamiento de cada paso sean no lineales. Por

otra parte, un autómata celular consiste en un espacio n-dimensional dividido en un conjunto

de celdas, de forma que cada celda puede encontrarse en dos o más estados, dependiendo de

un conjunto de reglas que especifican el estado futuro de cada celda en función del estado de

las celdas que le rodean. Hay dos posturas dentro de la Vida Artificial: la fuerte y la débil.

Para los que apoyan la postura débil, sus modelos son solamente representaciones simbólicas

de los síntomas biológicos naturales, modelos ciertamente muy útiles para conocer dichos

sistemas, pero sin mayores pretensiones. Para los que defienden la versión fuerte, dicen que

se puede crear vida auténtica a partir de un programa de ordenador que reproduzca las
51

características básicas de los seres vivos. Desde este punto de vista, la vida se divide envida

húmeda, que es lo que todo el mundo conoce como vida, vida seca, formada por autómatas

físicamente tangibles, y vida virtual, formada por programas de computador.

Las dos últimas categorías son las que integran lo que genéricamente se conoce como Vida

Artificial. Para defender un punto de vista tan radical, los defensores de la postura fuerte,

aluden a un conjunto de reglas que comparten las tres categorías anteriores:

8.1 La biología de lo posible

La Vida Artificial no se restringe a la vida húmeda tal como la conocemos, sino que "se ocupa

de la vida tal como podría ser". La biología ha de convertirse en la ciencia de todas las formas

de vida posibles.

 Método sintético

La actitud de la Vida Artificial es típicamente sintética, a diferencia de la biología clásica,

que ha sido mayoritariamente analítica. Desde este punto de vista, se entiende la vida como

un todo integrado, en lugar de desmenuzarlo en sus más mínimas partes

8.2 Vida real artificial

La Vida Artificial es tal porque son artificiales sus componentes y son artificiales porque

están construidos por el hombre. Sin embargo, el comportamiento de tales sistemas depende

de sus propias reglas y en ese sentido es tan genuino como el comportamiento de cualquier

sistema biológico natural.

8.3 Toda vida es forma


52

La vida es un proceso, y es la forma de este proceso, no la materia, lo que constituye la

esencia de la vida. Es absurdo pretender que sólo es vida genuina aquella que está basada en

la química del carbono, como es el caso dela vida húmeda.

8.4 Granja de evolución

La evolución en la naturaleza fue la clave para mejorar los organismos y desarrollar la

inteligencia. Michael Dyer, investigador de Inteligencia Artificial de la Universidad de

California, apostó a las características evolutivas de las redes neuronales (redes de neuronas

artificiales que imitan el funcionamiento del cerebro) y diseñó Bio-Land.

Bio-Land es una granja virtual donde vive una población de criaturas basadas en redes

neuronales

Los biots pueden usar sus sentidos de la vista, el oído e incluso el olfato y tacto para encontrar

comida y localizar parejas. Los biots cazan en manadas, traen comida a su prole y se apiñan

buscando calor.

Lo que su creador quiere que hagan es hablar entre ellos, con la esperanza de que desarrollen

evolutivamente un lenguaje primitivo.

A partir de ese lenguaje, con el tiempo podrían surgir niveles más altos de pensamiento.
53

CONCLUSIONES

 En esta monografía cubre los principales aspectos de esta ciencia tan moderna ya que

trata principalmente de la creación de programas para maquinas que simulen el

comportamiento humano capaz de aprender pensar y reconocer, sin embargo lo de pensar

aún está por verse y definirse. Es por eso que surgen muchas preguntas como ¿podrá

pensar un artefacto como nosotros? Pues no cabe duda que la tecnología ha avanzado a

grandes pasos y eso se ve en tan solo esa interrogante.

 Con el paso del tiempo esta ciencia ha ido creciendo e innovando, pero esto puede traer

muchos perjuicios como la perdida de algunos profesionales que serían reemplazados por

estas máquinas. Por eso se debe tener en cuenta que las mejoras también deben ser en el

ámbito educativo para formar personas creativas e innovadoras que puedan seguir

diversas carreras que con el tiempo no puedan ser desplazadas.

 En la sociedad, dentro de las ciencias de la computación, la de la Inteligencia Artificial

es una de las áreas que causa más expectación. Que un sistema pueda mejorar su

comportamiento sobre la base de la experiencia y que además, tenga una noción de lo que

es un error y que pueda evitarlo, resulta muy interesante. Resulta también interesante

que, al encontrarse en constante evolución, encontramos antiguas referencias de robots

en la ciencia ficción que ahora sabemos que son posibles a medio o largo plazo.
54

REFERENCIA

WEBGRAFIA

https://es.wikipedia.org/wiki/Inteligencia_artificial
http://inteligenciaartificialudb.blogspot.pe/2008/01/concepto-caractersticas-y-
metodologas.html
http://inteligenciartificialdayapolis.blogspot.pe/p/caracteristicas.html
https://buhomag.elmundo.es/entretenimiento/5-ventajas-y-5-desventajas-de-la-ia-para-la-
evolucion/c00b11c3-0004-5813-2134-112358132134

http://iaiutap203a3.blogspot.pe/2010/05/ventajas.html

http://www.innovaticias.com/innovacion/33078/beneficios-y-riesgos-de-la-inteligencia-
artificial

http://www.lavanguardia.com/tecnologia/innovacion/20150206/54425888190/peligros-
inteligencia-artificial.html

http://inteligenciaartificialgrupo7.blogspot.pe/2013/02/normal-0-21-false-false-false-es-
ve-x.html
https://es.scribd.com/document/49288818/Inteligencia-Artificial
https://es.wikipedia.org/wiki/Test_de_Turing
http://matap.dmae.upm.es/cienciaficcion/DIVULGACION/3/TestTuring.htm
http://www.monografias.com/trabajos97/sobre-inteligencia-artificial/sobre-inteligencia-

artificial.shtml#conceptoa#ixzz4h1FrUuEy

BIBLIOGRAFIA

Crovetto, H. (2005). Inteligencia Artificial e introducción a la Robótica Perú: Grupo


Megabyte.
55
56

Das könnte Ihnen auch gefallen