Beruflich Dokumente
Kultur Dokumente
UNIVERSIDAD NACIONAL DE
INGENIERÍA
Facultad de Ingeniería Industrial y de
Sistemas
AUTORES:
Kevin Arnold Acho Quispe
ÍNDICE
Introducción
Capítulo I
NOCIONES……………………………………………………………………….. 6
1.1. Concepto………………………………………………………………… 6
1.2. Historia y evolución…………………………………………………………... 7
Capítulo II
FUNDAMENTO DE LA INTELIGENCIA ARTIFICIAL………………………… 11
2.1. Algoritmos……………………………………………………………………… 11
2.2. Bases del conocimiento basado en sistemas……………………………………. 14
2.3. Experiencia habilidades y conocimiento……………………………………....... 16
2.4. Motor de inferencia…………………………………………………………....... 19
Capítulo III
CARACTERÍSTICAS…………………………………………………………......... 27
3.1. Diferenciación de la inteligencia artificial y los métodos numéricos…………… 27
3.2. Sistematizados …………………………………………………………………… 27
3.3. Razonamiento basado en el conocimiento ……………………………………….. 28
3.4. Aplicabilidad de datos y problemas………………………………………………. 28
Capítulo IV
CLASIFICACIÓN…………………………………………………………………… 30
4.1. Según Stuart Russell y Peter Norvig…………………………………………….. 30
4.1.1. Sistemas que piensan como humanos
4.1.2. Sistemas que actúan como hermanos
4.1.3. Sistemas que piensan racionalmente
4.1.4. Sistemas que actúan racionalmente
4.2. Según Searle……………………………………………………………………… 31
4.2.1. IA fuerte
4.2.2. IA débil
Capítulo V
APLICACIÓN…………………………………………………………………………. 33
5.1. Robótica…………………………………………………………………………... 33
5.2. Medicina…………………………………………………………………………... 33
5.3. Educación………………………………………………………………………...... 34
5.4. Entretenimiento……………………………………………………………………. 35
5.5. Gestión de información……………………………………………………………. 35
4
Capítulo VI
TEST DE TURING…………………………………………………………………… 36
6.1. Concepto………………………………………………………………………….. 36
6.2. Predicción………………………………………………………………………… 36
6.3. Ventajas…………………………………………………………………………… 37
6.4. Desventajas………………………………………………………………………… 40
Capítulo VII
VENTAJAS Y RIESGOS DE LA INTELIGENCIA ARTIFICIAL…………………… 46
7.1. Ventajas…………………………………………………………………………….. 46
7.2. Riesgos……………………………………………………………………………… 47
Capítulo VIII
PERSPECTIVAS FUTURAS…………………………………………………………… 49
8.1. La biología de lo posible…………………………………………………………….. 50
8.2. Vida real (artificia)…………………………………………………………………… 50
8.3. Toda la vida es forma………………………………………………………………… 50
8.4. Granja de evolución…………………………………………………………………. 51
Conclusiones
Referencias
5
INTRODUCCIÓN
El estudio y contenido de la inteligencia artificial resulta ser muy interesante, mucho más si
se puede visualizar el alcance que hoy en día tiene es en prácticamente en la mayoría de los
Hoy nosotros sin que nos vayamos dado cuenta de ello, la inteligencia artificial se ha estado
cada vez involucrando en cada uno de los aspectos de nuestra vida cada vez más , sea de
todos los integrantes de nuestra sociedad, a partir de este tema se puede explicar la relación
definición y lo que esta representa a la vida del ser humano, “un ser sin carne y hueso
condiciones debe cumplir para ser llamada como tal. Se analizará las bases sobre la cual se
sustenta y también las perspectivas que tendrán los nuevos robots que probablemente
CAPÌTULO I
NOCIONES
1.1. Concepto
Se puede definir a la inteligencia artificial como esa inteligencia exhibida por artefactos
puede utilizar para referirse al campo de la investigación científica que se trata de aproximar
Debido a que la inteligencia artificial tuvo muchos padres no hay un solo consenso para
definir este concepto, pero nosotros podemos afirmar que la inteligencia artificial se encarga
Puede decirse que la Inteligencia Artificial (IA) es una de las áreas más fascinantes e
humana, mezclada con la inquietud del hombre de simular la naturaleza circundante (como
combinación de los estudios de la ciencia del computador, fisiología y filosofía, tan general
y amplio como eso, pues junta varios campos (robótica, sistemas expertos, por ejemplo),
todos los cuales tienen en común la creación de máquinas que pueden pensar y solucionar
La idea de construir una máquina que pueda ejecutar tareas percibidas como requerimientos
de inteligencia humana es un atractivo. Las tareas que han sido estudiadas desde este punto
La Inteligencia Artificial trata de conseguir que los ordenadores simulen en cierta manera la
propusieron un modelo de neurona del cerebro humano y animal. Estas neuronas nerviosas
adelante, Norbert Wiener elaboró estas ideas junto con otras, dentro del mismo campo, que
se llamó "cibernética"; de aquí nacería, sobre los años 50, la Inteligencia Artificial.
Los primeros investigadores de esta innovadora ciencia, tomaron como base la neurona
del mismo esto es ya prácticamente imposible, ni que mencionar que el hardware de la época
Es en los años 50 cuando se logra realizar un sistema que tuvo cierto éxito, se llamó el
cual se asociaron esfuerzos para que se pudieran resolver una gama amplia de problemas,
pero estas energías se diluyeron enseguida. Fue en los años 60 cuando Alan Newell y Herbert
Simon, que trabajando la demostración de teoremas y el ajedrez por ordenador logran crear
Éste era un sistema en el que el usuario definía un entorno en función de una serie de objetos
y los operadores que se podían aplicar sobre ellos. Este programa era capaz de trabajar con
las torres de Hanoi, así como con criptoaritmética y otros problemas similares, operando,
claro está, con microcosmos formalizados que representaban los parámetros dentro de los
cuales se podían resolver problemas. Lo que no podía hacer el GPS era resolver problemas
ni del mundo real, ni médicos ni tomar decisiones importantes. El GPS manejaba reglas
En los años 70, un equipo de investigadores dirigido por Edward Feigenbaum comenzó a
elaborar un proyecto para resolver problemas de la vida cotidiana o que se centrara, al menos,
masa construido en 1967, pero el más influyente resultaría ser el Mycin de 1974. El Mycin
todo un logro en aquella época que incluso fueron utilizados en hospitales (como el Puff,
variante de Mycin de uso común en el Pacific Medical Center de San Francisco, EEUU). Ya
en los años 80, se desarrollaron lenguajes especiales para utilizar con la Inteligencia
10
Artificial, tales como el LISP o el PROLOG. Es en esta época cuando se desarrollan sistemas
expertos más refinados, como por el ejemplo el EURISKO. Este programa perfecciona su
CAPÍTULO II
2.1 Algoritmos
donde el camino del razonamiento es variable y donde deben afrontarse situaciones diversas
sin haber sido especificadas. La Inteligencia Artificial hace uso de un tipo de lenguaje
En 1932, Cannon visualizó la evolución natural como un proceso de aprendizaje. Alan Turing
reconoció, en 1950, que debe haber una conexión obvia entre el aprendizaje de máquina y la
evolución, y señaló que se podrían desarrollar programas para jugar ajedrez usando esta
técnica. Campbell conjeturó en 1960 que en todos los procesos que llevan a la expansión del
de máquina y optimización de funciones. Talvez el primer intento serio de este tipo se dio en
el trabajo que realizaron Box y sus colegas en 1957, en el desarrollo de una técnica que
implanto sobre la base de los votos de un comité de jefes técnicos. Bajo este esquema, la
Por su parte, Friedberg intentó, en 1958, hacer que un programa en lenguaje máquina se
Artificial de la época prestó poca atención a su trabajo. Por ejemplo, Minsky lo criticó
duramente, argumentando que una búsqueda puramente aleatoria era mucho mejor que el
algoritmo de Friedberg.
locales. Aunque muchas de sus ideas se usan hoy en día, Bremermann cometió el error de
pues sus algoritmos evolutivos tenían que ser complementados con otras heurísticas para
Hoy sabemos que los algoritmos evolutivos difícilmente pueden competir con las técnicas
procedimientos generales que se usan hoy en día en la disciplina conocida como vida
artificial. Sin embargo, en este trabajo, así como el que Reed realizó posteriormente en 1967,
13
Fue Fogel el que introdujo la primera técnica evolutiva que realmente funcionó más o menos
consistía en hacer evolucionar autómatas de estados finitos por medio de mutaciones. Fogel
enfatizaron que el método de Fogel no debía verse en su estado actual (en 1966) como algo
particularmente útil para resolver problemas, a excepción de los más simples posibles.
colina modelada mediante autómatas, y otros investigadores como Holland, Kieras, Rada y
usando ciertos criterios para decidir en qué dirección dirigir la búsqueda. La estrategia
evolutiva utiliza como operador principal a la mutación, y en su versión más reciente usa la
Aunque el australiano Fraser propuso, desde fines de los 50, un procedimiento muy similar
al que John Hollandllamó planes evolutivos a fines de los 60, es al segundo al que se le suele
14
atribuir la creación de la técnica que se conoce como algoritmo genético, a raíz de que
La principal diferencia del algoritmo genético con las técnicas antes mencionadas, es que
utiliza la cruza como operador principal y a la mutación como operador secundario (e incluso
opcional). El algoritmo genético, al igual que las redes neuronales, funciona como una caja
negra que recibe ciertas entradas y produce (tras una cantidad de tiempo indeterminada) las
salidas deseadas. Sin embargo, a diferencia de éstas, los algoritmos genéticos no necesitan
entrenarse con ejemplos de ningún tipo, sino que son capaces de generar sus propios ejemplos
aleatorias.
Los mecanismos de selección del más apto y de reproducción sexual del algoritmo genético,
son los encargados de preservar las características más adecuadas de cada individuo a fin de
mínimos locales, como la mayor parte de las técnicas de búsqueda clásicas, además de usar
operadores probabilísticos más robustos que los operadores determinísticos, que las otras
No obstante, siendo una heurística, tampoco pueden garantizar encontrar siempre la solución
óptima, si bien la experiencia acumulada hasta la fecha parece demostrar que, cuando se
los casos, superiores a las encontradas con otras técnicas de búsqueda y optimización.
15
Aunque aún atacados por algunos sectores de la comunidad de Inteligencia Artificial, los
algoritmos genéticos, al igual que las redes neuronales, se han ido ganando poco a poco, y
de los investigadores como una técnica efectiva en problemas de gran complejidad, como lo
al inicio dela era de la Inteligencia Artificial demostraron no ser suficientes para resolver los
requerimientos de la investigación.
Artificial Débil. La principal conclusión que se derivó de este trabajo inicial fue que los
problemas difíciles sólo podrían ser resueltos con la ayuda del conocimiento específico
acerca del dominio del problema. La aplicación de estas ideas dio lugar al desarrollo de los
conocimiento específico.
16
La solución es esencialmente la misma que hubiera dado un ser humano confrontado con
idéntico problema, aunque no necesariamente el proceso seguido por ambos puede ser igual.
El simple concepto dado, puede causar confusión ya que muchos sistemas basados en
en conocimiento. Esta inconsistencia puede ser aclarada, sobre la base de tres conceptos
Fácil modificación.
Respuestas coherentes.
Los tipos de experiencia que son de interés en los sistemas basados en conocimiento, pueden
ser clasificados en tres categorías: asociativa, motora y teórica. Los sistemas basados en
lo que ocurre al interior de un sistema (caja negra), pero se pueden asociar entradas o
estímulos con salidas o respuestas, para resolver problemas que han sido previamente
fundamentalmente a través del ejercicio y la práctica física constante. Los sistemas basados
profundo permite que los humanos puedan resolver problemas que no se han visto antes, es
través de estudio y entrenamiento formal, así como por medio de la resolución directa de
no ser que se use informa continua. Al momento, los sistemas convencionales basados en
conocimiento tienen muchas dificultades para duplicar este tipo de experiencia. Sin embargo,
cognitiva y los procesos humanos. La primera parte es la memoria de largo plazo, en la que
guarda los hechos (Base de Hechos) y los conocimientos (Base de Conocimientos) acerca
las estrategias de control. Es muy versátil, hay muchas formas de hacerlo y es complicada la
límites, pues sólo llegan hasta donde son capaces de resolver un problema. Esto implica, que
adecuado, se usan principalmente el LISP y PROLOG, que difieren de los lenguajes clásicos
en que sus reglas (que también contienen hechos) entran masivamente, y que el programa, es
decir, el motor de inferencia, encontrará el camino a través de reglas. Por otra parte, la
marcan el camino de los diferentes procedimientos y funciones en los programas. Estos dos
por ciertos lenguajes. La principal diferencia es que en la declarativa las reglas se formulan
19
ventajas en los sistemas expertos son el modularidad, no hay un solo camino para responder
Desde el punto de vista tecnológico, los Sistemas Basados en Conocimiento pueden presentar
conocimiento comunes. Tipo Front-End cuando todos los hechos y datos están
físicamente en la base común. Tipo Back-End cuando los hechos y datos necesarios
no se lo distingue.
20
proveer una respuesta. Este debe ser independiente del conocimiento y de los hechos. Se
1. Determinístico.
2. Probabilístico.
3. Aproximado.
4. Difuso
En un sistema experto, dado un estado particular de la base de datos, se deben reconocer las
especialmente larga, ya que muchos sistemas realizan una preselección de las reglas antes de
reglas y entre éstas, las aplicables. Esto, es lo que se llama restricción. Adicionalmente puede
existir una Base de Datos con información puntual sobre problemas específicos
anteriormente resueltos por el sistema, y que se usa como información adicional en el proceso
de inferencia. Una vez que las reglas han sido reconocidas deben ser elegidas, dependiendo
de la estrategia de control, que es la selección. Una vez que las regla han sido elegida ha de
ejecutarse. Al módulo central del sistema experto que maneja estas tres operaciones se le
inferencia según los métodos con que se manejan las tres operaciones precedentes.
Identificación de patrones
Hay ciertos métodos típicos para resolver problemas mediante Inteligencia Artificial como:
No es necesario que la búsqueda se aplique a todas las reglas, el sistema de control puede
decidir cuáles no son necesarias a ese nivel. El filtrado significa tener el conocimiento para
encontrar las reglas cuya precondición se satisfaga. Se debe comparar por tanto la
precondición con la base de datos. Si es una regla deductiva "si premisa entonces conclusión",
la partea ser probada de la regla, se llama disparador o activador (Tigger) es siempre una
fórmula bien formada ya sea de lógica proposicional o de lógica de primer orden. Puede
aplicarse a cualquier hecho. El único lenguaje que está totalmente basado en el cálculo de
examinando, dentro del activador de cada regla, primero los predicados con más
restricciones, es decir, los que tienen el menor número de variables libres. Otra forma de
22
proceder es que, para cada regla o parte de su activador, se guarda en la memoria el resultado
de las posibles unificaciones para cada parte del activador. Después de cada ciclo del motor
Después de la fase de filtrado, cuando una regla está reconocida como aplicable, teniendo en
cuenta la base de datos existente, solo resta ejecutarla. Si hay varias posibles reglas, la
elección la realiza la estrategia de control. La conclusión de la regla tiene por objeto modificar
Fase de restricción
En un sistema dirigido por los datos, el filtrado consiste en retener todas las reglas cuyas
premisas son verdaderas teniendo en cuenta los hechos (verdaderos) presentes en la base de
dirigido por los datos y por los objetivos, se denomina mixto. La restricción también puede
estar especificada explícitamente por el experto para utilizar reglas dentro de las reglas, es
decir, meta reglas. Indica qué grupo de reglas debe ser retenido, por prioridad, o definir un
orden en los subconjuntos de las reglas. El conocimiento puede organizarse en forma de red
como en las redes semánticas utilizadas en el análisis sintáctico del lenguaje. Su posición
conocimiento, en este caso existiría una taxonomía de los hechos. Otro modo de gobernar las
restricciones es organizar las reglas en paquetes o esquemas, lo que genera una estructura de
23
árbol en reglas, lo que es una ventaja. Todos estos modos dependen de la forma en que está
representado el conocimiento.
Fase de selección
Como después de las fases anteriores quedan varias reglas se debe seleccionar una y luego
de procesada el programa debe saber dónde volver. Cuando hay una o más reglas, se usan
dos estrategias:
La búsqueda en anchura, que elige una, generalmente la primera y se van ejecutando por
turno antes de comprobar que se ha alcanzado la condición final. Si no es así se inicia otro
ciclo del motor de inferencia. Este tipo de búsqueda es exhaustiva y la usa el sistema experto
MYCIN.
Otra estrategia es la de elegir una regla entre las aplicables por medio de una heurística,
ciclo del motor de inferencia. Es, por lo tanto, una estrategia en profundidad. Cada una de las
estrategias puede ser irrevocables o avanzar por prueba y error. Muchos sistemas efectúan
marcha atrás, si no hay regla aplicable, pero si el sistema está bajo un control irrevocable
O bien:
CONJUNTO_DE_PREMISAS) CONSECUENCIA
24
Afirmación:
DOCTOR". De esta manera la regla anterior representa el hecho: Para toda persona x, Si x
O bien:
DOCTOR representan de nuevo relaciones que deben estar representadas sobre el sistema.
Como todo sistema informático los SE pueden operar sobre un conjunto finito de elementos,
para esto es necesario definir el universo de trabajo dentro del cual probaremos nuestras
reglas. Sobre esta base la definición dela relación SER CATEDRÁTICO o CATEDRÁTICO,
según sea la representación usada, debe hacerse puntualmente para cada individuo del
25
Fernández")
Para extraer una conclusión, o inferencia, se hace necesario, antes que nada, saber el objetivo
Objetivo:
Solución
es verdadera.
Encadenamiento de reglas
Se produce cuando el objetivo propuesto al sistema hace que se ejecute una regla, y
la conclusión obtenida permite que se ejecute otra, y así sucesivamente hasta llegar a
Por ejemplo
Consiste en, dado un objetivo, buscar una regla que permita establecer dicha
conclusión, el proceso se repite hasta encadenar con la regla cuya conclusión satisfaga
positivamente. Por ejemplo, para averiguar si "Mario Pérez es doctor" se busca una
regla que tenga esta afirmación en sus consecuencias. Analizando las reglas anteriores
Satisface estas condiciones; siguiendo esta regla hacia atrás tenemos que buscar una
nueva que permita validar si “Mario Pérez" es catedrático, lo cual se hace con el
axioma (2).
CAPÌTULO III
CARACTERÍSTICAS
Una característica básica que diferencia los métodos de la inteligencia artificial de los
suficiente para diferenciarlo completamente. Otros tipos de programas como son los
compiladores y los sistemas de bases de datos, también trabajan símbolos sin que se considere
3.2 Sistematizados
explícitamente, cómo hallar las variables de salida para cualquier variable dada de entrada
(programa de procedimiento).
Las conclusiones de todo programa declarativo no son fijas y son específicas parcialmente
por las conclusiones intermedias logradas durante las consideraciones intermedia logradas
comparten esta propiedad y siempre se han caracterizado por su afinidad con la Inteligencia
Artificial.
29
y relaciones el mundo real y del ámbito del conocimiento en que ellos trabajan. A diferencia
de Inteligencia Artificial los programas no pueden trabajar con ese tipo de problemas. Por
el diagnostico de tareas de un sistema del mundo real: con muy poca información, con una
Los sistemas expertos, que repiten el comportamiento humano en un breve ámbito del
conocimiento, son programas tan diversos y variados como los que diagnostican infecciones
en la sangre y que indican un tratamiento, los que interpretan diversos datos sismológicos en
exploración geológica y los que permiten configurar complejos equipos de alta tecnología.
30
Dichas tareas reducen costos, reducen riesgos en el manejo humano en áreas peligrosas,
CAPÍTULO IV
CLASIFICACIÓN
Estos sistemas tratan de emular el pensamiento humano; por ejemplo las redes neuronales
Estos sistemas tratan de actuar como humanos; es decir, imitan el comportamiento humano;
por ejemplo la robótica. El estudio de cómo lograr que los computadores realicen tareas que,
Es decir, con lógica (idealmente), tratan de imitar o emular el pensamiento lógico racional
del ser humano; por ejemplo los sistemas expertos. El estudio de los cálculos que hacen
Tratan de emular de forma racional el comportamiento humano; por ejemplo los agentes
La escuela argumenta que las computadoras podrán llegar a realmente pensar, exactamente
El argumento más precisamente indica que hay un tipo básico de programas de computación
IA fuerte cree que la computadora puede exhibir conciencia de lo que está haciendo, por
en datos empíricos. Algunos métodos de aprendizaje son: Maquina de vectores soporte, redes
DÉBIL - Searle llama así a la escuela que aprecia que los procesos cerebrales y los mentales
No cree en las afirmaciones de la escuela FUERTE. Contrapone a esas ideas, estas otras: que
fuesen, simulando serlo. Podrían superar en "inteligencia" a sus programadores, con motivo
que no posee el ser humano, como conducir helicópteros que pierden una pala en pleno vuelo,
sin perder su estabilidad (imposible con pilotos humanos) o reconocer con alta precisión
quien es el que emite un cierto tipo de voz o terminar con buen éxito sistemas expertos muy
complicados.
sentirse afectados por estas diferencias conceptuales, que no le modifican sus propósitos ni
le proponen nuevas vías. Es una tarea de nunca acabar que los expertos de diferentes
Con esta misma tónica Sloman discrimina una fuerte AI de una débil fuerte AI,
CAPÌTULO V
APLICACIÓN
aplicaciones pues como su nombre indica; los aparatos o máquinas que estén dotados de ella
podrán hacer una perfecta emulación del ser humano y su complejidad de pensamiento.
Debido a su gran aceptación en el campo laboral ya que facilita ciertas tareas de los humanos
5.1 Robótica
Se podría decir que la rama de la robótica va de la mano con la inteligencia artificial ya que
mediante su programación y sensores especializados, naciendo así los llamados robots, los
robots son diseñados para que realicen trabajos con la finalidad reducir el esfuerzo del
hombre, en base a esto los robots se divide teniendo en cuenta la aplicación que se le dé en
5.2 Medicina
realmente notable, hasta el extremo de que esas aplicaciones tienen nombre propio: AIM,
como una activa y creciente disciplina. En su campo ya que se han desarrollado máquinas
que interpretan imágenes médicas, controlan las unidades de cuidados intensivos, monitorean
35
a los pacientes y realizan diagnósticos. Además se han creado máquinas que a su vez crean
diseños de prótesis, hasta sistemas expertos que colaboran a los médicos en cualquier
5.3 Educación
En los años 50 aparecieron los primeros sistemas de enseñanza llamados programas lineales.
Aquellos programas eran muy básicos y la mayor desventaja era que el método de enseñanza
no se podía cambiar ni el programador podía realizar dicho cambio. A principio de los años
60, las computadoras, la compra y venta de las mismas, comenzó a emerger gracias a que las
universidades las requerían en gran cantidad, sobre todo Estados Unidos. De allí que la
computadora llego a formar gran parte de la educación de los profesionales. Tan rápido como
necesario incluir la inteligencia artificial debido al gran trabajo que generan extensas
como también otro tipo de sistemas que puedan percibir las deficiencias de un estudiante y
ayudar en su desenvolvimiento.
5.4 Entretenimiento
La inteligencia artificial en los videojuegos es cada vez más indispensable tanto en consolas
como en ordenadores aunque los usuarios no la distingan debido a que está muy implícita, la
Esta parte es fundamental ya que la inteligencia artificial nos permite extraer información
muy difícil de encontrar o quizás que requiera de mucho esfuerzo para conseguirla, un
ejemplo de ello son los rastreos web, filtrado de correos y la minería de los datos.
37
CAPÌTULO VI
TEST DE TURING
6.1 Concepto
Turing propuso que un humano evaluara conversaciones en lenguaje natural entre un humano
y una máquina diseñada para generar respuestas similares a las de un humano. El evaluador
sabría que uno de los miembros de la conversación es una máquina y todos los participantes
6.2 Predicción
Turing predijo que las máquinas pasarían la prueba eventualmente, de hecho, el estimaba que
para el año 2000, las máquinas con al menos 100 MB de almacenamiento podrían engañar a
un 30% de los jueces humanos en una prueba de 5 minutos y que la gente no consideraría la
frase “máquina pensante” como contradictoria. (En la práctica, desde el 2009 al 2012, los
robots conversacionales que participaron en el Premio Loebner solo lograron engañar una
38
vez a un juez y esto era debido a que el participante humano pretendía ser un robot
conversacional) Turing también predijo que el aprendizaje de las máquinas sería una parte
Ciencia Cognitiva del Medio Oeste, el doctor Shane T. Mueller predijo que una variante de
futurista Ray Kurzweil predijo que las máquinas que aprobaran la prueba de Turing serían
fabricadas en el futuro próximo. En 1990, Kurzweil definió este futuro próximo alrededor
del año 2020, para el 2005 cambió su estimado para el año 2029.
El proyecto “Long Bet Project Nr. 1” es una apuesta de $20,000 USD entre Mitch
Kapor (pesimista) y Ray Kurzweil (optimista) sobre la posibilidad de que una máquina pase
la prueba de Turing para el año 2029. Durante la prueba de Turing de Long Now, cada uno
de los tres jueces realizara entrevistas a cada uno de los cuatro participantes (i.e. la
computadora y tres humanos) durante dos horas para un total de 8 horas de entrevistas. La
6.3 Ventajas
Tratabilidad y simplicidad
generales como para ser aplicadas a máquinas. Sin estas definiciones, las incógnitas
de Turing, aunque imperfecta, al menos proporciona algo que puede ser medido y como tal,
Variedad de temas
El formato de la prueba permite al interrogador darle una gran variedad de tareas intelectuales
a la máquina. Turing escribió que: “Los métodos de pregunta y respuesta parecen ser
adecuados para introducir cualquiera de los campos de labor humana que queramos
incluir.” John Haugeland agregó: “la comprensión de las palabras no es suficiente, también
Para aprobar una prueba de Turing diseñada correctamente, la máquina debe usar lenguaje
natural, razón, tener conocimientos y aprender. La prueba puede ser extendida para incluir
video como fuente de información junto con una “escotilla” por la que se pueden transferir
tiempo. En conjunto representan casi todos los problemas que la investigación de inteligencia
La prueba de Feigenbaum está diseñada para usar a su ventaja el rango de temas disponibles
para una prueba de Turing. Es una forma limitada del juego de respuesta y pregunta de Turing
diferente. En vez de eso, la prueba que describió en su texto de 1950 solo requiere que la
computadora sea capaz de competir exitosamente en un juego de fiestas común, con esto se
refiere a que pueda compararse su desempeño con el de un humano típico al responder series
Dado el estatus de dimorfismo sexual humano como uno de los temas más antiguos, se tiene
para la computadora será exhibir empatía por el papel de la mujer al igual que demostrar una
Participante: Mi cabello está en capas y las hebras más largas son de aproximadamente 9
pulgadas de largo.
Testigo: No funcionaría.
41
Testigo: Si, pero nadie quiere ser comparado con un día de invierno.
descontrol, se ha sugerido que este enfoque puede representar una intuición crítica por parte
de Turing, i.e. que la inteligencia y estética jugarán un rol clave en la creación de una “IA
amigable”. Sin embargo, se ha observado que cualquiera que sea la dirección en la que Turing
6.4 Desventajas
Turing no afirmó explícitamente que la prueba de Turing podía ser usada como una medida
clara y comprensible a la palabra “pensar”, que posteriormente se pudiera usar para responder
ante las críticas sobre la posibilidad de “máquinas pensantes”, y sugerir formas para que la
como una medida de la “capacidad para pensar” o de la “inteligencia” de una máquina. Esta
humanos, sin importar el hecho de que sean inteligentes o no. Incluso examina en
la máquina de "imitar errores humanos de escritura." El mismo Turing sugirió que los
es más inteligente que un humano, esta debe aparentar no ser “demasiado” inteligente.
reprobaría la prueba.
Como no se puede medir la inteligencia que está más allá de la humana, la prueba no
puede ser usada para construir o evaluar sistemas que son más inteligentes que los
humanos. Por esto se han propuesto varias pruebas alternativas capaces de evaluar un
ejemplo de ELIZA sugiere que una máquina que pase la prueba podría simular
no creo que estos misterios necesiten ser resueltos antes de poder responder la
promedio”: “el interrogador promedio no debe tener más del 70% de oportunidad
Shah y Warwick (2009b) demostraron que los expertos son engañados y que la
sofisticados que eran fácilmente engañados por las máquinas. Desde el 2004, los
evitarlo.
Russell y Norvig propusieron una analogía con la historia del vuelo: Los aviones
son probados según su habilidad para volar, no comparándolos con aves. Textos
como máquinas voladoras que vuelan tan parecidamente a las palomas que
Caracteres humanos creíbles son interesantes para una obra de arte, un juego o
CAPÌTULO VII
7.1 Ventajas
simples.
contradictorias.
Puede ser original, creando incluso nuevos conceptos o ideas, y hasta utilizando
analogías.
Puede generalizar.
Si ya hubo un día en el que el teletrabajo nos parecía una verdadera pasada, imagina
por un segundo que tu robot personal adquiere las destrezas suficientes como para
Enviar a hombres al espacio supone un gran riesgo. Respirar, eso que solemos hacer
los seres vivos, suele ser un problema fuera de nuestra atmósfera. Sin embargo, una
IA podría ser nuestros ojos y oídos a miles de kilómetros de distancia a altas presiones
o bajas temperaturas.
48
7.2 Riesgos
La pérdida de los lugares de trabajo es uno de los riesgos más grandes, ya que hasta
peligrar trabajos en el sector de servicios es por eso que los expertos señalan que
opten por trabajos en donde se prime la creatividad. Esto va desde la educación y una
salida pronta a este riesgo seria que se incorporen habilidades blandas (artes) en las
analizan. Esto puede arraigar una serie de problemas si es que hacen un mal uso de la
Los errores de programación son uno de los problemas más frecuentes como: una
caída de red que nos podría dejar sin comunicación. Pero no solo este tipo de
automóviles, robots quirúrgicos… que implicaría tener más cuidado y esfuerzo para
la calidad del software y evitar alguna falla que en este caso podría ser trágica.
inteligencia artificial no son diferentes a otros programas. Es por eso que actualmente
expuestos a este sistema, por ejemplo: automóviles automáticos ya que con el tiempo
no sabríamos que hacer y con esto nos volveríamos dependientes a estas máquinas.
Pérdida del control, ya que al ser que estos sistemas inteligentes toman decisiones cada
día más delicadas hacen que nuestras vidas pierdan elección suficiente
50
CAPÌTULO VIII
PERSPECTIVAS FUTURAS
Con poco más de diez años de antigüedad, la Vida Artificial se ha convertido en un punto de
definieron los principios básicos que han marcado la pauta desde entonces en la investigación
emergente.
de reglas sencillas. Para que se dé este comportamiento se requiere que el sistema en cuestión
sea iterativo, es decir, que el mismo proceso se repita de forma continua y además que las
ecuaciones matemáticas que definen el comportamiento de cada paso sean no lineales. Por
de celdas, de forma que cada celda puede encontrarse en dos o más estados, dependiendo de
un conjunto de reglas que especifican el estado futuro de cada celda en función del estado de
las celdas que le rodean. Hay dos posturas dentro de la Vida Artificial: la fuerte y la débil.
Para los que apoyan la postura débil, sus modelos son solamente representaciones simbólicas
de los síntomas biológicos naturales, modelos ciertamente muy útiles para conocer dichos
sistemas, pero sin mayores pretensiones. Para los que defienden la versión fuerte, dicen que
se puede crear vida auténtica a partir de un programa de ordenador que reproduzca las
51
características básicas de los seres vivos. Desde este punto de vista, la vida se divide envida
húmeda, que es lo que todo el mundo conoce como vida, vida seca, formada por autómatas
Las dos últimas categorías son las que integran lo que genéricamente se conoce como Vida
Artificial. Para defender un punto de vista tan radical, los defensores de la postura fuerte,
La Vida Artificial no se restringe a la vida húmeda tal como la conocemos, sino que "se ocupa
de la vida tal como podría ser". La biología ha de convertirse en la ciencia de todas las formas
de vida posibles.
Método sintético
que ha sido mayoritariamente analítica. Desde este punto de vista, se entiende la vida como
La Vida Artificial es tal porque son artificiales sus componentes y son artificiales porque
están construidos por el hombre. Sin embargo, el comportamiento de tales sistemas depende
de sus propias reglas y en ese sentido es tan genuino como el comportamiento de cualquier
esencia de la vida. Es absurdo pretender que sólo es vida genuina aquella que está basada en
California, apostó a las características evolutivas de las redes neuronales (redes de neuronas
Bio-Land es una granja virtual donde vive una población de criaturas basadas en redes
neuronales
Los biots pueden usar sus sentidos de la vista, el oído e incluso el olfato y tacto para encontrar
comida y localizar parejas. Los biots cazan en manadas, traen comida a su prole y se apiñan
buscando calor.
Lo que su creador quiere que hagan es hablar entre ellos, con la esperanza de que desarrollen
A partir de ese lenguaje, con el tiempo podrían surgir niveles más altos de pensamiento.
53
CONCLUSIONES
En esta monografía cubre los principales aspectos de esta ciencia tan moderna ya que
aún está por verse y definirse. Es por eso que surgen muchas preguntas como ¿podrá
pensar un artefacto como nosotros? Pues no cabe duda que la tecnología ha avanzado a
Con el paso del tiempo esta ciencia ha ido creciendo e innovando, pero esto puede traer
muchos perjuicios como la perdida de algunos profesionales que serían reemplazados por
estas máquinas. Por eso se debe tener en cuenta que las mejoras también deben ser en el
ámbito educativo para formar personas creativas e innovadoras que puedan seguir
es una de las áreas que causa más expectación. Que un sistema pueda mejorar su
comportamiento sobre la base de la experiencia y que además, tenga una noción de lo que
es un error y que pueda evitarlo, resulta muy interesante. Resulta también interesante
en la ciencia ficción que ahora sabemos que son posibles a medio o largo plazo.
54
REFERENCIA
WEBGRAFIA
https://es.wikipedia.org/wiki/Inteligencia_artificial
http://inteligenciaartificialudb.blogspot.pe/2008/01/concepto-caractersticas-y-
metodologas.html
http://inteligenciartificialdayapolis.blogspot.pe/p/caracteristicas.html
https://buhomag.elmundo.es/entretenimiento/5-ventajas-y-5-desventajas-de-la-ia-para-la-
evolucion/c00b11c3-0004-5813-2134-112358132134
http://iaiutap203a3.blogspot.pe/2010/05/ventajas.html
http://www.innovaticias.com/innovacion/33078/beneficios-y-riesgos-de-la-inteligencia-
artificial
http://www.lavanguardia.com/tecnologia/innovacion/20150206/54425888190/peligros-
inteligencia-artificial.html
http://inteligenciaartificialgrupo7.blogspot.pe/2013/02/normal-0-21-false-false-false-es-
ve-x.html
https://es.scribd.com/document/49288818/Inteligencia-Artificial
https://es.wikipedia.org/wiki/Test_de_Turing
http://matap.dmae.upm.es/cienciaficcion/DIVULGACION/3/TestTuring.htm
http://www.monografias.com/trabajos97/sobre-inteligencia-artificial/sobre-inteligencia-
artificial.shtml#conceptoa#ixzz4h1FrUuEy
BIBLIOGRAFIA