Sie sind auf Seite 1von 31

qwertyuiopasdfghjklzxcvbnmqwe

rtyuiopasdfghjklzxcvbnmqwertyui
opasdfghjklzxcvbnmqwertyuiopa
sdfghjklzxcvbnmqwertyuiopasdfg
hjklzxcvbnmqwertyuiopasdfghjklz
xcvbnmqwertyuiopasdfghjklzxcv
CIENCIAS DE LA
COMPUTACION
bnmqwertyuiopasdfghjklzxcvbnm
LA ROBOTICA

qwertyuiopasdfghjklzxcvbnmqwe
01/06/2010

DIEGO MARTINEZ MARTINEZ

rtyuiopasdfghjklzxcvbnmqwertyui
opasdfghjklzxcvbnmqwertyuiopa
sdfghjklzxcvbnmqwertyuiopasdfg
hjklzxcvbnmqwertyuiopasdfghjklz
xcvbnmqwertyuiopasdfghjklzxcv
bnmqwertyuiopasdfghjklzxcvbnm
qwertyuiopasdfghjklzxcvbnmqwe
rtyuiopasdfghjklzxcvbnmrtyuiopa
CIENCIAS DE LA COMPUTACION

Que es Inteligencia artificial?_______________________________________3


Escuelas de pensamiento____________________________________________4
La inteligencia artificial convencional___________________________________4
Inteligencia artificial computacional_____________________________________5
Historia________________________________________________________________5
Fundamentos y filosofía_____________________________________________7
La inteligencia artificial y los sentimientos________________________9
Críticas_______________________________________________________________11
Tecnologías de apoyo_______________________________________________12
Interfaces de usuario____________________________________________________12
TIPOS DE INTERFACES DE USUARIO______________________________________________12
SEGUN LA FORMA DE INTERACTUAR DEL USUARIO_____________________________13
SEGÚN SU CONSTRUCCION:____________________________________________________13

FUNCIONES PRINCIPALES DE INTERFACES DE USUARIO__________14


Visión artificial___________________________________________________________14
MICROSCOPIA DIGITAL___________________________________________________________15
Producción de la imagen digital en microscopía óptica_________________________15
Propiedades básicas de las imágenes digitales_________________________________15
Detectores de imagen electrónicos_____________________________________________16
Fundamentos de la producción de imágenes en vídeo__________________________16

Introducción a los sensores de imagen CMOS_________________________17


CMOS____________________________________________________________________________17
CMOS analógicos______________________________________________________________18
CMOS y Bipolar________________________________________________________________18
Conceptos básicos sobre procesamiento digital de la imagen_____________________19
Estrategias recomendadas para el procesamiento de imágenes digitales_________19
Deconvolución en microscopía óptica____________________________________________19

Smart process management____________________________________________20


Aplicaciones de la inteligencia artificial___________________________21
Científicos en el campo de la inteligencia artificial_______________21
Jeff Hawkins______________________________________________________________21
John McCarthy____________________________________________________________22
Marvin Minsky____________________________________________________________23
Judea Pearl_______________________________________________________________24
Investigación_____________________________________________________________________24

“EL FUTURO SE DEBE CREAR“ ----ROBOTICA---- Página 2


CIENCIAS DE LA COMPUTACION
Alan Turing_______________________________________________________________25
Joseph Weizenbaum_____________________________________________________25
Raúl Rojas________________________________________________________________26
Ray Kurzweil_____________________________________________________________27
Trabajos citados____________________________________________________27
Bibliografía__________________________________________________________27

Error: Reference source not found

“EL FUTURO SE DEBE CREAR“ ----ROBOTICA---- Página 3


CIENCIAS DE LA COMPUTACION

Que es Inteligencia artificial?


S e denomina inteligencia artificial (IA) a la rama de las Ciencias de la
Computación dedicada al desarrollo de agentes racionales no vivos.

Para explicar la definición anterior, entiéndase a un agente como cualquier cosa


capaz de percibir su entorno (recibir entradas), procesar tales percepciones y
actuar en su entorno (proporcionar salidas), y entiéndase a la [racionalidad] como
la característica que posee una elección de ser correcta, más específicamente, de
tender a maximizar un resultado esperado (este concepto de racionalidad es más
general y por ello más adecuado que inteligencia para definir la naturaleza del
objetivo de esta disciplina).

“EL FUTURO SE DEBE CREAR“ ----ROBOTICA---- Página 4


CIENCIAS DE LA COMPUTACION
Por lo tanto, y de manera más específica la inteligencia artificial es la disciplina
que se encarga de construir procesos que al ser ejecutados sobre una arquitectura
física producen acciones o resultados que maximizan una medida de rendimiento
determinada, basándose en la secuencia de entradas percibidas y en el
conocimiento almacenado en tal arquitectura.

Existen distintos tipos de conocimiento y medios de representación del


conocimiento. El cual puede ser cargado en el agente por su diseñador o puede
ser aprendido por el mismo agente utilizando técnicas de aprendizaje.

También se distinguen varios tipos de procesos válidos para obtener resultados


racionales, que determinan el tipo de agente inteligente. De más simples a más
complejos, los cinco principales tipos de procesos son:

• Ejecución de una respuesta predeterminada por cada entrada (análogas a


actos reflejos en seres vivos).
• Búsqueda del estado requerido en el conjunto de los estados producidos
por las acciones posibles.
• Algoritmos genéticos (análogo al proceso de evolución de las cadenas de
ADN).
• Redes neuronales artificiales (análogo al funcionamiento físico del cerebro
de animales y humanos).
• Razonamiento mediante una lógica formal (análogo al pensamiento
abstracto humano).

También existen distintos tipos de percepciones y acciones, pueden ser obtenidas


y producidas, respectivamente por sensores físicos y sensores mecánicos en
máquinas, pulsos eléctricos u ópticos en computadoras, tanto como por entradas y
salidas de bits de un software y su entorno software.

Varios ejemplos se encuentran en el área de control de sistemas, planificación


automática, la habilidad de responder a diagnósticos y a consultas de los
consumidores, reconocimiento de escritura, reconocimiento del habla y
reconocimiento de patrones. Los sistemas de IA actualmente son parte de la rutina
en campos como economía, medicina, ingeniería y la milicia, y se ha usado en
gran variedad de aplicaciones de software, juegos de estrategia como ajedrez de
computador y otros videojuegos.

“EL FUTURO SE DEBE CREAR“ ----ROBOTICA---- Página 5


CIENCIAS DE LA COMPUTACION

Escuelas de pensamiento

Se divide en dos escuelas de pensamiento:

La inteligencia artificial convencional

Inteligencia artificial convencional Se conoce también como IA simbólico-


deductiva. Está basada en el análisis formal y estadístico del comportamiento
humano ante diferentes problemas: Razonamiento basado en casos: Ayuda a
tomar decisiones mientras se resuelven ciertos problemas concretos y aparte que
son muy importantes requieren de un buen funcionamiento.Sistemas expertos:
Infieren una solución a través del conocimiento previo del contexto en que se
aplica y ocupa de ciertas reglas o relaciones.Redes bayesianas: Propone
soluciones mediante inferencia estadística.Inteligencia artificial basada en
comportamientos: que tienen autonomía y pueden auto-regularse y controlarse
para mejorar.Smart process management: facilita la toma de decisiones
complejas, proponiendo una solución a un determinado problema al igual que lo
haría un especialista en la actividad.

Inteligencia artificial computacional


La Inteligencia Computacional (también conocida como IA subsimbólica-inductiva)
implica desarrollo o aprendizaje interactivo (por ejemplo, modificaciones
interactivas de los parámetros en sistemas conexionistas). El aprendizaje se
realiza basándose en datos empíricos.

Historia
• Las ideas más básicas se remontan a los griegos, antes de Cristo.
Aristóteles (384-322 a. C.) fue el primero en describir un conjunto de reglas
que describen una parte del funcionamiento de la mente para obtener
conclusiones racionales, y Ktesibios de Alejandría (250 a. C.) construyó la
primera máquina autocontrolada, un regulador del flujo de agua (racional
pero sin razonamiento).
• En 1315 Ramon Llull en su libro Ars magna tuvo la idea de que el
razonamiento podía ser efectuado de manera artificial.

“EL FUTURO SE DEBE CREAR“ ----ROBOTICA---- Página 6


CIENCIAS DE LA COMPUTACION
• En 1936 Alan Turing diseña formalmente una Máquina universal que
demuestra la viabilidad de un dispositivo físico para implementar cualquier
cómputo formalmente definido.
• En 1943 Warren McCulloch y Walter Pitts presentaron su modelo de
neuronas artificiales, el cual se considera el primer trabajo del campo, aun
cuando todavía no existía el término. Los primeros avances importantes
comenzaron a principios de los años 1950 con el trabajo de Alan Turing, a
partir de lo cual la ciencia ha pasado por diversas situaciones.
• En 1955 Herbert Simon, Allen Newell y J.C. Shaw, desarrollan el primer
lenguaje de programación orientado a la resolución de problemas, el IPL-
11. Un año más tarde desarrollan el LogicTheorist, el cual era capaz de
demostrar teoremas matemáticos.
• En 1956 fue inventado el término inteligencia artificial por John McCarthy,
Marvin Minsky y Claude Shannon en la Conferencia de Dartmouth, un
congreso en el que se hicieron previsiones triunfalistas a diez años que
jamás se cumplieron, lo que provocó el abandono casi total de las
investigaciones durante quince años.
• En 1957 Newell y Simon continúan su trabajo con el desarrollo del General
Problem Solver (GPS). GPS era un sistema orientado a la resolución de
problemas.
• En 1958 John McCarthy desarrolla en el Instituto de Tecnología de
Massachusetts (MIT), el LISP. Su nombre se deriva de LISt Processor.
LISP fue el primer lenguaje para procesamiento simbólico.
• En 1959 Rosenblatt introduce el Perceptrón.
• A fines de los 50 y comienzos de la década del 60 Robert K. Lindsay
desarrolla «Sad Sam», un programa para la lectura de oraciones en inglés y
la inferencia de conclusiones a partir de su interpretación.
• En 1963 Quillian desarrolla las redes semánticas como modelo de
representación del conocimiento.
• En 1964 Bertrand Raphael construye el sistema SIR (Semantic Information
Retrieval) el cual era capaz de inferir conocimiento basado en información
que se le suministra. Bobrow desarrolla STUDENT.
• Posteriormente entre los años 1968-1970 Terry Winograd desarrolló el
sistema SHRDLU, que permitía interrogar y dar órdenes a un robot que se
movía dentro de un mundo de bloques.
• A mediados de los años 60, aparecen los sistemas expertos, que predicen
la probabilidad de una solución bajo un set de condiciones. Por ejemplo
DENDRAL, iniciado en 1965 por Buchanan, Feigenbaum y Lederberg, el
primer Sistema Experto, que asistía a químicos en estructuras químicas
complejas euclidianas, MACSYMA, que asistía a ingenieros y científicos en
la solución de ecuaciones matemáticas complejas.
• En 1968 Minsky publica Semantic Information Processing.

“EL FUTURO SE DEBE CREAR“ ----ROBOTICA---- Página 7


CIENCIAS DE LA COMPUTACION
• En 1968 Seymour Papert, Danny Bobrow y Wally Feurzeig, desarrollan el
lenguaje de programación LOGO.
• En 1969 Alan Kay desarrolla el lenguaje Smalltalk en Xerox PARC y se
publica en 1980.
• En 1973 Alain Colmenauer y su equipo de investigación en la Universidad
de Aix-Marseille crean PROLOG (del francés PROgrammation en LOGique)
un lenguaje de programación ampliamente utilizado en IA.
• En 1973 Shank y Abelson desarrollan los guiones, o scripts, pilares de
muchas técnicas actuales en Inteligencia Artificial y la informática en
general.
• En 1974 Edward Shortliffe escribe su tesis con MYCIN, uno de los Sistemas
Expertos más conocidos, que asistió a médicos en el diagnóstico y
tratamiento de infecciones en la sangre.
• En las décadas de 1970 y 1980, creció el uso de sistemas expertos, como
MYCIN: R1/XCON, ABRL, PIP, PUFF, CASNET, INTERNIST/CADUCEUS,
etc. Algunos permanecen hasta hoy (shells) como EMYCIN, EXPERT,
OPSS.
• En 1981 Kazuhiro Fuchi anuncia el proyecto japonés de la quinta
generación de computadoras.
• En 1986 McClelland y Rumelhart publican Parallel Distributed Processing
(Redes Neuronales).
• En 1988 se establecen los lenguajes Orientados a Objetos.
• En 1997 Garry Kasparov, campeón mundial de ajedrez pierde ante la
computadora autónoma Deep Blue.
• En 2006 se celebró el aniversario con el Congreso en español 50 años de
Inteligencia Artificial - Campus Multidisciplinar en Percepción e Inteligencia
2006.
• En el año 2009 ya hay en desarrollo sistemas inteligentes terapéuticos que
permiten detectar emociones para poder interactuar con niños autistas.
• Existen personas que al dialogar sin saberlo con un chatbot no se percatan
de hablar con un programa, de modo tal que se cumple la prueba de Turing
como cuando se formuló: «Existirá Inteligencia Artificial cuando no seamos
capaces de distinguir entre un ser humano y un programa de computadora
en una conversación a ciegas».
• Como anécdota, muchos de los investigadores sobre IA sostienen que «la
inteligencia es un programa capaz de ser ejecutado independientemente de
la máquina que lo ejecute,
computador o cerebro».

Fundamentos y filosofía
“EL FUTURO SE DEBE CREAR“ ----ROBOTICA---- Página 8
CIENCIAS DE LA COMPUTACION
Como ocurre casi siempre en el caso de una ciencia recién creada, la inteligencia
artificial aborda tantas cuestiones confundibles en un nivel fundamental y
conceptual que, adjunto a lo científico, es necesario hacer consideraciones desde
el punto de vista de la filosofía. Gran parte de esta ciencia se junta con temas en
la filosofía de la mente, pero hay ciertos temas particulares a la IA. Por ejemplo:

 ¿En qué consiste la inteligencia? ¿Cómo la reconoceríamos en un objeto


no humano, si la tuviera?
 ¿Qué sustancia y organización se requiere? ¿Es posible que una criatura
hecha de metal, por ejemplo, posea una inteligencia comparable a la
humana?
 Aunque una criatura no orgánica pudiera solucionar problemas de la misma
manera que un humano, ¿tendría o podría tener conciencia y emociones?
 Suponiendo que podemos hacer robots con una inteligencia comparable a
la nuestra, ¿debemos hacerlo?

Durante más de 2000 años de tradición en filosofía, han ido surgiendo diversas
teorías del razonamiento y del aprendizaje, simultáneamente con el punto de vista
de que la mente se reduce al funcionamiento físico. La psicología ofrece
herramientas que permiten la investigación de la mente humana, así como un
lenguaje científico para expresar las teorías que se van obteniendo. La lingüística
ofrece teorías para la estructura y significado del lenguaje, así como la ciencia de
la computación, de la que se toman las herramientas que permiten que la
Inteligencia Artificial sea una realidad.

Empezó con el nacimiento de Platón en 428 a. C. y con lo que aprendió de


Sócrates. La temática de su obra fue muy diversa: política, matemática, física,
astronomía y diversas ramas de la filosofía. El filósofo Hubet Dreyfus (1979) afirma
que:

Bien podría afirmarse que la historia de la inteligencia artificial comienza en el año


450 a.C., cuando Platón cita un diálogo en el que Sócrates le pregunta a
Eutidemo: «Desearía saber cuál es la característica de la piedad que hace que
una acción se pueda considerar como pía... y así la observe y me sirva de norma
para juzgar tus acciones y las de otros.»Los filósofos delimitaron las más
importantes ideas relacionadas con la inteligencia artificial, pero para pasar de allí
a una ciencia formal era necesario contar con una formalización matemática en
tres áreas principales: la computación, la lógica y la probabilidad. La idea de
expresar un cálculo mediante un algoritmo formal se remonta a la época de
Jwarizmi, matemático árabe del siglo IX, con cuyas obras se introdujeron en
Europa los números arábigos y el álgebra (de su nombre al-Jwarizmi deriva la
palabra algoritmo).

“EL FUTURO SE DEBE CREAR“ ----ROBOTICA---- Página 9


CIENCIAS DE LA COMPUTACION
El hombre se ha aplicado a sí mismo el nombre científico de Homo sapiens como
una valoración de la trascendencia de nuestras habilidades mentales tanto para
nuestra vida cotidiana como para nuestro propio sentido de identidad. Los
esfuerzos del campo de la inteligencia artificial se enfocan en lograr la compresión
de entidades inteligentes. Una de las razones de su estudio es el aprender más de
nosotros mismos. A diferencia de la filosofía y de la psicología, que también se
ocupan de la inteligencia, los esfuerzos de la inteligencia artificial están
encaminados tanto a la construcción de entidades como a su compresión. Otra
razón por la cual se estudia la inteligencia artificial es debido a que ha sido posible
crear sorprendentes y diversos productos de trascendencia. Nadie podría
pronosticar con toda precisión lo que se podría esperar en el futuro, es evidente
que las computadoras que posean una inteligencia a nivel humano tendrán
repercusiones muy importantes en nuestra vida diaria así como en el devenir de la
civilización.

El problema que aborda la inteligencia artificial es uno de los más complejos:


¿Cómo es posible que un diminuto y lento cerebro, sea biológico o electrónico,
tenga capacidad de percibir, comprender, predecir y manipular un mundo que en
tamaño y complejidad lo excede con creces?, pero a diferencia de la investigación
en torno al desplazamiento mayor que la velocidad de la luz o de un dispositivo
antigravitatorio, el investigador del campo de la inteligencia artificial cuenta con
pruebas contundentes de que tal búsqueda es totalmente factible.

La inteligencia artificial permite al hombre emular en las máquinas el


comportamiento humano, tomando como base el cerebro y su funcionamiento, de
manera tal que se pueda alcanzar cierto razonamiento creando marionetas
robóticas.

La inteligencia artificial y los


sentimientos
El concepto de IA es aún demasiado difuso. Contextualizando, y teniendo en
cuenta un punto de vista científico, podríamos englobar a esta ciencia como la
encargada de imitar una persona, y no su cuerpo, sino imitar al cerebro, en todas
sus funciones, existentes en el humano o inventadas sobre el desarrollo de una
máquina inteligente.

A veces, aplicando la definición de Inteligencia Artificial, se piensa en máquinas


inteligentes sin sentimientos, que «obstaculizan» encontrar la mejor solución a un
problema dado. Muchos pensamos en dispositivos artificiales capaces de concluir

“EL FUTURO SE DEBE CREAR“ ----ROBOTICA---- Página 10


CIENCIAS DE LA COMPUTACION
miles de premisas a partir de otras premisas dadas, sin que ningún tipo de
emoción tenga la opción de obstaculizar dicha labor.

En esta línea, hay que saber que ya existen sistemas inteligentes. Capaces de
tomar decisiones «acertadas».

Aunque, por el momento, la mayoría de los investigadores en el ámbito de la


Inteligencia Artificial se centran sólo en el aspecto racional, muchos de ellos
consideran seriamente la posibilidad de incorporar componentes «emotivos» como
indicadores de estado, a fin de aumentar la eficacia de los sistemas inteligentes.

Particularmente para los robots móviles, es necesario que cuenten con algo similar
a las emociones con el objeto de saber –en cada instante y como mínimo– qué
hacer a continuación [Pinker, 2001, p. 481].

Al tener «sentimientos» y, al menos potencialmente, «motivaciones», podrán


actuar de acuerdo con sus «intenciones» [Mazlish, 1995, p. 318]. Así, se podría
equipar a un robot con dispositivos que controlen su medio interno; por ejemplo,
que «sientan hambre» al detectar que su nivel de energía está descendiendo o
que «sientan miedo» cuando aquel esté demasiado bajo.

Esta señal podría interrumpir los procesos de alto nivel y obligar al robot a
conseguir el preciado elemento [Johnson-Laird, 1993, p. 359]. Incluso se podría
introducir el «dolor» o el «sufrimiento físico», a fin de evitar las torpezas de
funcionamiento como, por ejemplo, introducir la mano dentro de una cadena de
engranajes o saltar desde una cierta altura, lo cual le provocaría daños
irreparables.

Esto significa que los sistemas inteligentes deben ser dotados con mecanismos de
retroalimentación que les permitan tener conocimiento de estados internos, igual
que sucede con los humanos que disponen de propiocepción, interocepción,
nocicepción, etcétera. Esto es fundamental tanto para tomar decisiones como para
conservar su propia integridad y seguridad. La retroalimentación en sistemas está
particularmente desarrollada en cibernética, por ejemplo en el cambio de dirección
y velocidad autónomo de un misil, utilizando como parámetro la posición en cada
instante en relación al objetivo que debe alcanzar. Esto debe ser diferenciado del
conocimiento que un sistema o programa computacional puede tener de sus
estados internos, por ejemplo la cantidad de ciclos cumplidos en un loop o bucle
en sentencias tipo do... for, o la cantidad de memoria disponible para una
operación determinada.

A los sistemas inteligentes el no tener en cuenta elementos emocionales les


permite no olvidar la meta que deben alcanzar. En los humanos el olvido de la
meta o el abandonar las metas por perturbaciones emocionales es un problema

“EL FUTURO SE DEBE CREAR“ ----ROBOTICA---- Página 11


CIENCIAS DE LA COMPUTACION
que en algunos casos llega a ser incapacitante. Los sistemas inteligentes, al
combinar una memoria durable, una asignación de metas o motivación, junto a la
toma de decisiones y asignación de prioridades con base en estados actuales y
estados meta, logran un comportamiento en extremo eficiente, especialmente ante
problemas complejos y peligrosos.

En síntesis, lo racional y lo emocional están de tal manera interrelacionados entre


sí, que se podría decir que no sólo no son aspectos contradictorios sino que son –
hasta cierto punto– complementarios.

Críticas
Las principales críticas a la inteligencia artificial tienen que ver con su incapacidad
de imitar por completo a un ser humano. Estas críticas ignoran que ningún
humano individual tiene capacidad para resolver todo tipo de problemas, y autores
como Howard Gardner han propuesto que existen inteligencias múltiples. Un
sistema de inteligencia artificial debería resolver problemas. Por lo tanto es
fundamental en su diseño la delimitación de los tipos de problemas que resolverá
y las estrategias y algoritmos que utilizará para encontrar la solución.

En los humanos la capacidad de resolver problemas tiene dos aspectos: los


aspectos innatos y los aspectos aprendidos. Los aspectos innatos permiten por
ejemplo almacenar y recuperar información en la memoria y los aspectos
aprendidos el saber resolver un problema matemático mediante el algoritmo
adecuado. Del mismo modo que un humano debe disponer de herramientas que le
permitan solucionar ciertos problemas, los sistemas artificiales deben ser
programados de modo tal que puedan resolver ciertos problemas.

Muchas personas consideran que el test de Turing ha sido superado, citando


conversaciones en que al dialogar con un programa de inteligencia artificial para
chat no saben que hablan con un programa. Sin embargo, esta situación no es
equivalente a un test de Turing, que requiere que el participante esté sobre aviso
de la posibilidad de hablar con una máquina.

Otros experimentos mentales como la Habitación china de John Searle han


mostrado cómo una máquina podría simular pensamiento sin tener que tenerlo,
pasando el test de Turing sin siquiera entender lo que hace. Esto demostraría que
la máquina en realidad no está pensando, ya que actuar de acuerdo con un
programa preestablecido sería suficiente. Si para Turing el hecho de engañar a un
ser humano que intenta evitar que le engañen es muestra de una mente
inteligente, Searle considera posible lograr dicho efecto mediante reglas definidas
a priori.

“EL FUTURO SE DEBE CREAR“ ----ROBOTICA---- Página 12


CIENCIAS DE LA COMPUTACION
Uno de los mayores problemas en sistemas de inteligencia artificial es la
comunicación con el usuario. Este obstáculo es debido a la ambigüedad del
lenguaje, y apareció ya en los inicios de los primeros sistemas operativos
informáticos. La capacidad de los humanos para comunicarse entre sí implica el
conocimiento del lenguaje que utiliza el interlocutor. Para que un humano pueda
comunicarse con un sistema inteligente hay dos opciones: o bien el humano
aprende el lenguaje del sistema como si aprendiese a hablar cualquier otro idioma
distinto al nativo, o bien el sistema tiene la capacidad de interpretar el mensaje del
usuario en la lengua que el usuario utiliza.

Un humano durante toda su vida aprende el vocabulario de su lengua nativa. Un


humano interpreta los mensajes a pesar de la polisemia de las palabras utilizando
el contexto para resolver ambigüedades. Sin embargo, debe conocer los distintos
significados para poder interpretar, y es por esto que lenguajes especializados y
técnicos son conocidos solamente por expertos en las respectivas disciplinas. Un
sistema de inteligencia artificial se enfrenta con el mismo problema, la polisemia
del lenguaje humano, su sintaxis poco estructurada y los dialectos entre grupos.

Los desarrollos en inteligencia artificial son mayores en los campos disciplinares


en los que existe mayor consenso entre especialistas. Un sistema experto es más
probable de ser programado en física o en medicina que en sociología o en
psicología. Esto se debe al problema del consenso entre especialistas en la
definición de los conceptos involucrados y en los procedimientos y técnicas a
utilizar. Por ejemplo, en física hay acuerdo sobre el concepto de velocidad y cómo
calcularla. Sin embargo, en psicología se discuten los conceptos, la etiología, la
psicopatología y cómo proceder ante cierto diagnóstico. Esto dificulta la creación
de sistemas inteligentes porque siempre habrá desacuerdo sobre lo que se
esperaría que el sistema haga. A pesar de esto hay grandes avances en el diseño
de sistemas expertos para el diagnóstico y toma de decisiones en el ámbito
médico y psiquiátrico (Adaraga Morales, Zaccagnini Sancho, 1994).

Tecnologías de apoyo
Interfaces de usuario

Las interfaces básicas de usuario son aquellas que incluyen cosas como menús,
ventanas, teclado, ratón, los beeps y algunos otros sonidos que la computadora
hace, en general, todos aquellos canales por los cuales se permite la
comunicación entre el ser humano y la computadora. La mejor interacción

“EL FUTURO SE DEBE CREAR“ ----ROBOTICA---- Página 13


CIENCIAS DE LA COMPUTACION
humano-máquina a través de una adecuada interfaz (Interfaz de Usuario), que le
brinde tanto comodidad, como eficiencia

TIPOS DE INTERFACES DE USUARIO

Dentro de las Interfaces de Usuario se puede distinguir básicamente tres tipos: A)


Una interfaz de hardware, a nivel de los dispositivos utilizados para ingresar,
procesar y entregar los datos: teclado, ratón y pantalla visualizadora. B) Una
interfaz de software, destinada a entregar información acerca de los procesos y
herramientas de control, a través de lo que el usuario observa habitualmente en la
pantalla. C) Una interfaz de Software-Hardware, que establece un puente entre la
maquina y las personas, permite a la maquina entender la instruccion y a el
hombre entender el codigo binario traducido a informacion legible.

SEGUN LA FORMA DE INTERACTUAR DEL USUARIO


Atendiendo a como el usuario puede interactuar con una interfaz, nos
encontramos con varios tipos de interfaces de usuario:

 Interfaces alfanuméricas (intérpretes de mandatos) que solo presentan


texto.
 Interfaces gráficas de usuario (GUI, graphics user interfaces), las que
permiten comunicarse con el ordenador de una forma muy rápida e intuitiva
representando gráficamente los elementos de control y medida.
 Interfaces táctiles, que representan gráficamente un "panel de control" en
una pantalla sensible que permite interaccionar con el dedo de forma similar
a si se accionara un control físico.

SEGÚN SU CONSTRUCCION:

Pueden ser de hardware o de software:

 Interfaces de hardware: Se trata de un conjunto de controles o dispositivos


que permiten la interacción hombre-máquina, de modo que permiten
introducir o leer datos del equipo, mediante pulsadores, reguladores e
instrumentos.

“EL FUTURO SE DEBE CREAR“ ----ROBOTICA---- Página 14


CIENCIAS DE LA COMPUTACION
 Interfaces de software: Son programas o parte de ellos, que permiten
expresar nuestros deseos al ordenador o visualizar su respuesta.

FUNCIONES PRINCIPALES DE
INTERFACES DE USUARIO

Sus principales funciones son los siguientes:

1. Puesta en marcha y apagado.


2. Control de las funciones manipulables del equipo.
3. Manipulación de archivos y directorios.
4. Herramientas de desarrollo de aplicaciones.
5. Comunicación con otros sistemas.
6. Información de estado.
7. Configuración de la propia interfaz y entorno.
8. Intercambio de datos entre aplicaciones.
9. Control de acceso.
10. Sistema de ayuda interactivo.

Visión artificial

La Visión artificial, también


conocida como Visión por
Computador (del inglés
Computer Vision) o Visión
técnica, es un subcampo de la
inteligencia artificial. El
propósito de la visión artificial
es programar un computador
para que "entienda" una
escena o las características
de una imagen.

“EL FUTURO SE DEBE CREAR“ ----ROBOTICA---- Página 15


CIENCIAS DE LA COMPUTACION
Esquema de relaciones entre visión por computadora y otras áreas afines.Los
objetivos típicos de la visión artificial incluyen:

✔ La detección, segmentación, localización y reconocimiento de ciertos


objetos en imágenes (por ejemplo, caras humanas).
✔ La evaluación de los resultados (ej.: segmentación, registro).
✔ Registro de diferentes imágenes de una misma escena u objeto, i.e., hacer
concordar un mismo objeto en diversas imágenes.
✔ Seguimiento de un objeto en una secuencia de imágenes.
✔ Mapeo de una escena para generar un modelo tridimensional de la escena;
tal modelo podría ser usado por un robot para navegar por la escena.
✔ Estimación de las posturas tridimensionales de humanos.
✔ Búsqueda de imágenes digitales por su contenido.

Estos objetivos se consiguen por medio de reconocimiento de patrones,


aprendizaje estadístico, geometría de proyección, procesado de imágenes, teoría
de gráficos y otros campos. La visión artificial cognitiva está muy relacionada con
la psicología cognitiva y la computación biológica.

MICROSCOPIA DIGITAL
Producción de la imagen digital en microscopía óptica

La digitalización de una imagen electrónica o de video capturada por un


microscopio óptico permite obtener un incremento espectacular en las
posibilidades de ampliar características, extraer información o modificar la imagen.
En comparación con el mecanismo tradicional de capturación de imágenes, la
fotomicrografía en película, la digitalización de la imagen y el proceso de
postadquisición/recuperación permiten una modificación reversible de la imagen
como matriz ordenada de enteros fundamentalmente libre de ruido más que una
mera serie de variaciones análogas en color e intensidad. Esta sección trata sobre
diversos temas de actualidad acerca de la adquisición y procesamiento de
imágenes para microscopía óptica.

Propiedades básicas de las imágenes digitales

“EL FUTURO SE DEBE CREAR“ ----ROBOTICA---- Página 16


CIENCIAS DE LA COMPUTACION
Las imágenes de señal continua se reproducen mediante dispositivos electrónicos
analógicos que registran los datos de la imagen con precisión utilizando varios
métodos, como una secuencia de fluctuaciones de la señal eléctrica o cambios en
la naturaleza química de la emulsión de una película, que varían continuamente en
los diferentes aspectos de la imagen. Para procesar o visualizar en el ordenador
una señal continua o una imagen analógica, se debe convertir primero a un
formato comprensible para el ordenador o formato digital. Este proceso se aplica a
todas las imágenes, independientemente de su origen, complejidad y de si son en
blanco y negro (escala de grises) o a todo color. Una imagen digital se compone
de una matriz rectangular (o cuadrada) de píxeles que representan una serie de
valores de intensidad ordenados en un sistema de coordenadas (x,y).

Detectores de imagen electrónicos

La gama de métodos de detección de luz y la amplia variedad de dispositivos de


imagen que están disponibles actualmente para el micros copista hacen que su
selección sea difícil y a menudo confusa. Con este documento se pretende ofrecer
ayuda para la comprensión de conceptos básicos sobre la detección de luz y
proporcionar una guía para la selección del detector electrónico adecuado ( CCD o
sistema de videocámara) con aplicaciones específicas de microscopía óptica.

Fundamentos de la producción de imágenes en vídeo

Las imágenes ópticas producidas en el microscopio pueden ser capturadas


utilizando bien técnicas de película tradicionales, digitalmente con detectores
electrónicos como un chargecoupled device ( CCD), o con una cámara de tipo
tubo. Las cámaras son a menudo el recurso más apropiado cuando se deben
grabar sucesos dinámicos en
tiempo real.

Para otros usos de este término,


véase CCD (desambiguación).
Sensor CCD.Un CCD (siglas en
inglés de charge-coupled device:
‘dispositivo de cargas eléctricas

“EL FUTURO SE DEBE CREAR“ ----ROBOTICA---- Página 17


CIENCIAS DE LA COMPUTACION
interconectadas’) es un circuito integrado que contiene un número determinado de
condensadores enlazados o acoplados. Bajo el control de un circuito interno, cada
condensador puede transferir su carga eléctrica a uno o a varios de los
condensadores que estén a su lado en el circuito impreso. La alternativa digital a
los CCD son los dispositivos CMOS (complementary metal oxide semiconductor)
utilizados en algunas cámaras digitales y en numerosas Webcam. En la actualidad
los CCD son mucho más populares en aplicaciones profesionales y en cámaras
digitales.

Los primeros dispositivos CCD fueron inventados por Willard Boyle y George
Smith el 17 de octubre de 1969 en los Laboratorios Bell, ambos premiados con el
Premio Nobel de Física de 2009 precisamente por este invento.

Introducción a los sensores de imagen CMOS

Los sensores de imagen CMOS se han diseñado con la capacidad de integrar un


número de funciones de procesamiento y control directamente en el circuito
integrado del sensor, lo que se extiende más allá de la tarea fundamental de
recopilación de fotones. Estos nuevos aspectos incluyen generalmente lógica
temporal, control de exposición, conversión de analógico a digital, obturación,
balance de blancos, ajuste del aumento y algoritmos de procesamiento inicial de la
imagen. Se están introduciendo sensores de imagen CMOS económicos en el
campo de la microscopía óptica en instrumentos para fines educativos que
combinan una calidad óptica aceptable con paquetes de software de control e
imagen fáciles de usar.

CMOS

(del inglés complementary metal-oxide-semiconductor, "estructuras


semiconductor-óxido-metal complementarias") es una de las familias lógicas
empleadas en la fabricación de circuitos integrados (chips). Su principal
característica consiste en la utilización conjunta de transistores de tipo pMOS y
tipo nMOS configurados de tal forma que, en estado de reposo, el consumo de
energía es únicamente el debido a las corrientes parásitas.

En la actualidad, la mayoría de los circuitos integrados que se fabrican utilizan la


tecnología CMOS. Esto incluye microprocesadores, memorias, DSPs y muchos
otros tipos de chips digitales.

“EL FUTURO SE DEBE CREAR“ ----ROBOTICA---- Página 18


CIENCIAS DE LA COMPUTACION
Cuando la entrada es 1, el transistor nMOS está en estado de conducción. Al estar
su fuente conectada a tierra (0), el valor 0 se propaga al drenador y por tanto a la
salida de la puerta lógica. El transistor pMOS, por el contrario, está en estado de
no conducciónCuando la entrada es 0, el transistor pMOS está en estado de
conducción. Al estar su fuente conectada a la alimentación (1), el valor 1 se
propaga al drenador y por tanto a la salida de la puerta lógica. El transistor nMOS,
por el contrario, está en estado de no conducción.Otra de las características
importantes de los circuitos CMOS es que son regenerativos: una señal
degradada que acometa una puerta lógica CMOS se verá restaurada a su valor
lógico inicial 0 o 1, siempre y cuando aún esté dentro de los márgenes de ruido
que el circuito pueda tolerar.

CMOS analógicos

Los transistores MOS también se emplean en circuitos analógicos, debido a dos


características importantes:

✔ Alta impedancia de entrada: La puerta de un transistor MOS viene a ser un


pequeño condensador, por lo que no existe corriente de polarización. Un
transistor, para que pueda funcionar, necesita corriente de polarización.
✔ Baja resistencia de canal: Un MOS saturado se comporta como una
resistencia cuyo valor depende de la superficie del transistor. Es decir, que
si se le piden corrientes reducidas, la caída de tensión en el transistor llega
a ser muy reducida.
✔ Estas características posibilitan la fabricación de amplificadores
operacionales "Rail-to-Rail", en los que el margen de la tensión de salida
abarca desde la alimentación negativa a la positiva. También es útil en el
diseño de reguladores de tensión lineales y fuentes conmutadas.

CMOS y Bipolar

Se emplean circuitos mixtos bipolar y CMOS tanto en circuitos analógicos como


digitales, en un intento de aprovechar lo mejor de ambas tecnologías. En el ámbito
analógico destaca la tecnología BiCMOS, que permite mantener la velocidad y
precisión de los circuitos bipolares, pero con la alta impedancia de entrada y
márgenes de tensión CMOS. En cuanto a las familias digitales, la idea es cortar
las líneas de corriente entre alimentación y masa de un circuito bipolar, colocando
transistores MOS. Esto debido a que un transistor bipolar se controla por corriente,
mientras que uno MOS, por tensión.

“EL FUTURO SE DEBE CREAR“ ----ROBOTICA---- Página 19


CIENCIAS DE LA COMPUTACION

Conceptos básicos sobre procesamiento digital de la


imagen

El procesamiento digital de la imagen permite una modificación reversible de la


imagen prácticamente libre de ruido en forma de una matriz de enteros en vez de
las clásicas manipulaciones en el cuarto oscuro o filtración de voltajes
dependientes del tiempo necesarios para las imágenes analógicas y señales de
video. Incluso aunque muchos algoritmos de procesamiento de imágenes son
extremadamente potentes, el usuario medio a menudo aplica operaciones a
imágenes digitales sin tener en cuenta los principios subyacentes tras dichas
manipulaciones. Las imágenes que resultan de una manipulación descuidada
están a menudo distorsionadas con respecto a aquellas que podrían producirse si
la potencia y versatilidad del software de procesamiento digital fuesen utilizados
correctamente ...

Estrategias recomendadas para el procesamiento de


imágenes digitales

Dependiendo de las condiciones de iluminación, la integridad de la muestra y los


métodos de preparación, las imágenes capturadas con el microscopio óptico
pueden requerir una cantidad considerable de
rehabilitación/reinserción/renovación para conseguirun equilibrio entre precisión
científica y composición estética. Las imágenes digitales que se obtienen mediante
un CCD (charge-coupled device) o un CMOS (complementary metal oxide
semiconductor) a menudo sufren señales-a-ruido pobres, iluminación irregular,
impurezas de enfoque, deslumbramiento, cambios en los colores y otros
problemas que distorsionan la calidad global de la imagen.

Deconvolución en microscopía óptica

La deconvolución es una técnica de procesamiento de imagen


computacionalmente intensiva/reforzadora que se está utilizando cada vez más
para mejorar el contraste y la resolución de las imágenes digitales capturadas con
el microscopio. Su fundamento se basa en un juego de métodos diseñados para

“EL FUTURO SE DEBE CREAR“ ----ROBOTICA---- Página 20


CIENCIAS DE LA COMPUTACION
eliminar las imprecisiones presentes en las imágenes producidas por la abertura
limitada del objetivo. Prácticamente, cualquier imagen obtenida con un
microscopio digital fluorescente se puede deconvolver y se están desarrollando
varias aplicaciones nuevas que utilizan técnicas de deconvolución para imágenes
transmitidas de luz compuestas mediante varias estrategias de procesamiento de
contraste. Uno de los campos qué más puede beneficiarse de la deconvolución es
el de montajes en tres dimensiones a partir de secciones ópticas.

Smart process management

La tecnoogía Smart Process Management se utiliza para el desarrollo de sistemas


de ayuda a la toma de decisiones que son capaces de generar de modo
automático procesos compuestos de las tareas necesarias para resolver
problemas mediante la incorporación de conocimiento experto.

La tecnología Smart Process Management da soporte en la toma de decisiones


del personal especialista al generar de un modo rápido procesos específicos para
resolver problemas concretos. Los procesos generados por SPM incluyen un
conjunto de tareas a realizar, la dependencia de orden de ejecución de las
distintas tareas y los recursos asociados a cada tareas.

Existen otras tecnologías basadas en la gestión de procesos como Business


Process Management (BPM). La diferencia principal es que en BPM los procesos
son definidos de forma explícita y el sistema se encarga de automatizar su
ejecución mientras que en SPM se representa cierto conocimiento experto
mediante un modelado gráfico de procesos no estructurados y es el sistema el que
se encarga de generar automáticamente el proceso necesario para cada
ejecución.

Los sistemas BPM son utilizados en entornos estáticos en los que los procesos
ejecutados son repetitivos y similares mientras que SPM se utiliza para
automatizar la generación de procesos no estructurados de toma de decisiones
por parte de expertos en los que la casuística es muy alta.

Un ejemplo de aplicación de SPM es para sistemas de gestión de emergencias en


los que el sistema genera un proceso o plan de paliación de la emergencia
diferente para cada situación.

Los sistemas SPM son utilizados como complementarios en sistemas de Business


Intelligence (BI) ya que, gracias a ellos, el usuario no sólo puede obtner
“EL FUTURO SE DEBE CREAR“ ----ROBOTICA---- Página 21
CIENCIAS DE LA COMPUTACION
conocimiento sobre los datos e información almacenada (como hacen los sistemas
BI) sino sugerencias sobre qué decisiones tomar.

Los motivos principales por los que se implantan sistemas software basados en
tecnología Smart Process Management son los siguientes:

Aumento de la velocidad y la agilidad en la toma de decisiones al personal


expertoAyuda en la toma de decisiones para personal no experto.Cumplimiento de
protocolos, legislaciones y normasHomogenidad en la toma de decisiones dentro
de las organizacionesCapitalizar el conocimiento humano y el know-howLa
Workflow Management Coalition está trabaja en la definición de los lenguajes de
modelado estándares para SPM y para BPM 2.0.

Aplicaciones de la inteligencia
artificial
✔ Lingüística computacional
✔ Minería de datos (Data Mining)
✔ Industriales.
✔ Médicas
✔ Mundos virtuales
✔ Procesamiento de lenguaje natural (Natural Language Processing)
✔ Robótica
✔ Sistemas de apoyo a la decisión
✔ Videojuegos
✔ Prototipos informáticos
✔ Análisis de sistemas dinámicos.
✔ Smart process management

Científicos en el campo de la
inteligencia artificial

Jeff Hawkins

Según Hawkins expresa en su libro Sobre la inteligencia, el cerebro funciona sobre


la base de la memorización y el reconocimiento de patrones, de forma que la tarea
que realiza el cerebro (o al menos la parte del cerebro denominada córtex) es la

“EL FUTURO SE DEBE CREAR“ ----ROBOTICA---- Página 22


CIENCIAS DE LA COMPUTACION
predicción, es lo que el autor llama Marco de Memoria-Predicción (memory-
prediction framework). Según el autor, "El papel de cualquier región del córtex es
averiguar qué relación hay entre sus entradas (inputs), memorizarla y usar esa
memoria para predecir cómo se comportarán las entradas (inputs) en el futuro".

Según el autor, los algoritmos empleados por el cerebro son lo suficientemente


generales como para que sirvan para que se pueda reconocer, imaginar, crear y
aprender: "cada paso desde la información cruda hasta la idea abstracta se basa
en el mismo algoritmo. Es la única computación que sabe hacer el córtex, pero es
tan versátil que puede explicar todas las increíbles propiedades de la mente".

Hawkins cree que su teoría podría convertirse en la norma unificadora. Afirma que
tuvo una revelación a mediados de la década de los 80 mientras caminaba hacia
la puerta de su oficina en su casa de Mountain View, California. En ese preciso
momento, se preguntó: ¿Qué pasaría si la puerta cambiara? ¿Por qué me daría
cuenta? Y se contestó: Me daría cuenta del cambio porque mi cerebro ya predecía
qué aspecto tendría la puerta. 'Los cerebros no son como las computadoras, a las
cuales uno introduce símbolos, y luego sale de ellas algo diferente', dice Hawkins.
'En lo que al cerebro se refiere, todo son patrones de información'.

La teoría de Hawkins de una memoria que completa patrones es una variante de


la memoria autoasociativa, es decir, la creencia de que la memoria se impulsa a sí
misma.“

John McCarthy

John McCarthy (n. 4 de septiembre de 1927, Boston, Massachusetts), también


conocido como Tío John McCarthy, es un prominente informático que recibió el
Premio Turing en 1971 por sus importantes contribuciones en el campo de la
Inteligencia Artificial. De hecho, fue el
responsable de introducir el término
“inteligencia artificial”, concepto que acuñó
en la Conferencia de Dartmouth en 1955.

McCarthy inventó el lenguaje de


programación Lisp y publicó su diseño en
Comunicaciones del ACM en 1960.

John McCarthy ayudó a motivar la creación


del Proyecto MAC en el MIT, pero en 1962
se marchó del MIT y se fue a la Universidad de Stanford, donde se dedicó a
instalar el Laboratorio de IA de Stanford, que durante muchos años fue un rival
amistoso del Proyecto MAC.

“EL FUTURO SE DEBE CREAR“ ----ROBOTICA---- Página 23


CIENCIAS DE LA COMPUTACION

En 1961, fue el primero en sugerir públicamente (en un discurso dado para


celebrar el centenario del MIT) que la tecnología de tiempo compartido de las
computadoras podría conducir a un futuro en el que el poder del cómputo e incluso
aplicaciones específicas podrían ser vendidas como un servicio (como el agua o la
electricidad).

La idea de una computadora o una utilidad informática era muy popular a fines de
la década del 60, pero se desvaneció hacia mediados de los 70 cuando se volvió
claro que el hardware, software y las tecnologías de telecomunicación
simplemente no estaban preparadas. Sin embargo, desde el 2000, la idea ha
reaparecido en diferentes formas.

McCarthy recibió su B.S. en Matemáticas del Instituto de Tecnología de California


en 1948 y su Ph.D. en Matemáticas de la Universidad de Princeton en 1951. Tras
cortas estancias en Princeton, Stanford, Dartmouth, y el MIT, pasó a ser profesor a
tiempo completo en Stanford en 1962, donde permaneció hasta su retiro a finales
del 2000. Ahora es Profesor Emérito.

Marvin Minsky

Tras acabar la secundaria se unió a la Marina de


los Estados Unidos. Tras dos años de servicio
entra en la Universidad de Princeton donde se
graduaría en 1950. En la actualidad ocupa la
plaza de Profesor Toshiba de los Medios de
Comunicación y las Ciencias en el Instituto
Tecnológico de Massachusetts (MIT).

Minsky ha contribuido en el desarrollo de la


descripción gráfica simbólica, geometría
computacional, representación del conocimiento,
semántica computacional, percepción mecánica,
aprendizaje simbólico y conexionista. En 1951
creó SNARC, el primer simulador de redes neuronales.

Escribió el libro "Perceptrones" (con Seymour Papert), que se convirtió en el


trabajo fundacional en el análisis de redes neuronales artificiales. Su crítica de la
investigación poco rigurosa en el campo ha sido indicada como responsable de la

“EL FUTURO SE DEBE CREAR“ ----ROBOTICA---- Página 24


CIENCIAS DE LA COMPUTACION
desaparición virtual de la investigación académica en redes neuronales artificiales
durante los años 70.

Minsky fue consejero en la película 2001: Una odisea del espacio y hay
referencias a él tanto en la película como en el libro. Durante la filmación Minsky
casi murió en un accidente.[1]

Minsky también es responsable de sugerir la trama de "Jurassic Park" a Michael


Crichton durante un paseo por la playa de Malibú. En ese punto los dinosaurios
fueron concebidos como autómatas. Más tarde Crichton hizo uso de sus
conocimientos en biomedicina y concibió los dinosaurios como clones.

Judea Pearl

Pearl recibió un Grado Ingeniería Eléctrica del Technion, Israel, en 1960, un


Máster en Físicas de la Rutgers University, EE.UU., en 1965, y un Doctorado en
Ingeniería Eléctrica del Instituto Politécnico de Brooklyn, EE.UU. en 1965. Trabajó
en los Laboratorios de Investigación RCA y posteriormente se unió a la UCLA en
1970, donde actualmente es profesor en Ciencias de la Computación y Estadística
y director del Laboratorio de Sistemas Cognitivos. En 2002, su hijo, Daniel Pearl
fue secuestrado y asesinado en Pakistán, por lo que él y su familia crearon la
Daniel Pearl Foundation [1].

Investigación
Judea Pearl fue uno de los pioneros de las Redes Bayesianas y la aproximación
probabilística a la inteligencia artificial y uno de los primeros en dar un formalismo
matemático al fenómeno de la causalidad en las ciencias empíricas. Su trabajo
también trata a un alto nivel un modelo cognitivo. Sus intereses son la filosofía de
la ciencia, representación del conocimiento, lógicas no estándares y aprendizaje
automático. Pearl es descrito como "uno de los gigantes en el campo de la
inteligencia artificial" por el Richard Korf [2], de la UCLA. Su trabajo en causalidad
ha "revolucionado el entendimiento de este campo en estadística, psicología,
medicina y en las ciencias sociales"

Alan Turing
discípulo de John Von Neumann, diseñó el Test de Turing que debería utilizarse
para comprender si una máquina lógica es
inteligente o no.

“EL FUTURO SE DEBE CREAR“ ----ROBOTICA---- Página 25


CIENCIAS DE LA COMPUTACION
Alan Mathison Turing (23 de junio de 1912 en Maida Vale, Londres - 7 de junio de
1954 en Wilmslow, Cheshire) fue un matemático, informático teórico, criptógrafo y
filósofo inglés.

Es considerado uno de los padres de la Ciencia de la computación siendo el


precursor de la informática moderna. Proporcionó una influyente formalización de
los conceptos de algoritmo y computación: la máquina de Turing. Formuló su
propia versión de la hoy ampliamente aceptada Tesis de Church-Turing, la cual
postula que cualquier modelo computacional existente tiene las mismas
capacidades algorítmicas, o un subconjunto, de las que tiene una máquina de
Turing. Durante la Segunda Guerra Mundial, trabajó en romper los códigos nazis,
particularmente los de la máquina Enigma; durante un tiempo fue el director de la
sección Naval Enigma del Bletchley Park. Tras la guerra diseñó uno de los
primeros computadores electrónicos programables digitales en el Laboratorio
Nacional de Física del Reino Unido y poco tiempo después construyó otra de las
primeras máquinas en la Universidad de Mánchester. Entre otras muchas cosas,
también contribuyó de forma particular e incluso provocativa al enigma de si las
máquinas pueden pensar, es decir a la Inteligencia Artificial.

La carrera de Turing terminó súbitamente cuando fue procesado por su


homosexualidad. No se defendió de los cargos y se le dio a escoger entre la
castración química o ir a la cárcel. Eligió lo primero y sufrió importantes
consecuencias físicas, entre ellas la impotencia. Dos años después del juicio, en
1954, se suicidó.

Joseph Weizenbaum

Joseph Weizenbaum (8 de enero de 1923 - 5 de


marzo de 2008) fue profesor emérito de
Informática en el Instituto Tecnológico de
Massachusetts y se le considera uno de los
padres de la cibernética.

Nació en Berlín, Alemán de padres judíos,


escapó del régimen de Hitler en 1936,
emigrando con su familia a los Estados Unidos.
Empezó a estudiar matemáticas en 1941, pero
sus estudios fueron interrumpidos por la guerra,
durante la que sirvió en el ejército.

Sobre los años 50, trabajó en computación


analógica, y ayudó a crear un ordenador digital para la Universidad Wayne State.

“EL FUTURO SE DEBE CREAR“ ----ROBOTICA---- Página 26


CIENCIAS DE LA COMPUTACION
En 1955 trabajó para General Electric en el primer ordenador utilizado por un
banco y en 1963 entró en el Instituto Tecnológico de Massachusetts, dos años
después creó allí su célebre departamento de ciencias de la computación.

En 1966 publicó un aparentemente simple programa llamado ELIZA que utilizaba


el procesamiento del lenguaje natural para dar la sensación de cierta empatía. El
programa aplicaba reglas de concordancia de patrones a las frases de los
humanos para calcular sus respuestas. Weizenbaum se sorprendió del impacto
que este programa tuvo, al tomarse en serio por mucha gente que incluso llegaban
a abrirle sus corazones. Esto le hizo pensar sobre las implicaciones filosóficas de
la Inteligencia Artificial y más adelante se convirtió en uno de sus más fervientes
críticos. Su influyente libro de 1976 El Poder de las Computadoras y la Razón
Humana (Computer Power and Human Reason) muestra su ambivalencia en
cuanto a la tecnología introducida por la informática y afirma que cuando la
Inteligencia Artificial sea posible, no deberemos dejarles tomar decisiones
importantes por que los ordenadores nunca tendrán cualidades humanas como la
compasión y la sabiduría al no haber crecido en el entorno emocional de una
familia humana.En los últimos años había sido también reconocido como un gran
pacifista por su firme oposición al uso de los ordenadores y la tecnología como
armas y se contrapuso firmemente a la creación de robots-soldado. En este
sentido se le considera que es a la Informática lo que Albert Einstein fue a la
Física Nuclear.

Llegó a ser el presidente del Consejo Científico del Intituto de Comercio


electrónico de Berlin.Falleció el 5 de marzo de 2008 en Gröben, Alemania por
complicaciones de cáncer

Raúl Rojas

Raúl Rojas (n. en 1955 en la Ciudad de Mexico), nacionalizado alemán en 1996,


es un profesor de matemáticas e informática de la Universidad Libre de Berlín, en
Alemania, y un reconocido experto en redes neuronales artificiales e inteligencia
artificial. Los robots de fútbol FU-Fighters construidos en su equipo de
investigación fueron campeones mundiales en 2004 y 2005. En este momento se
dedica a un proyecto de automóvil sin piloto llamado Spirit of Berlin.

Ray Kurzweil

“EL FUTURO SE DEBE CREAR“ ----ROBOTICA---- Página 27


CIENCIAS DE LA COMPUTACION
Raymond Kurzweil (Massachusetts, 12 de febrero de 1948) es un inventor
estadounidense, además de músico, empresario, escritor y científico especializado
en Ciencias de la Computación e Inteligencia Artificial.

Experto tecnólogo de sistemas y de Inteligencia Artificial y eminente futurista se


caracteriza por ser el Cybernostradamus, porque sus predicciones tecnólógicas
casi siempre son acertadas.[1] Es actualmente presidente de la empresa
informática Kurzweil Technologies, que se dedica a elaborar dispositivos
electrónicos de conversación máquina-humano y aplicaciones para discapacitados
y es canciller e impulsor de la Universidad de la Singularidad de Silicon Valley.

Trabajos citados
MARTINEZ, D. A. (02 de 05 de 2010). WIKISPACE. Recuperado el 1 de 05 de
2010, esta informacion fue utilizada en servicio propio para poder recopilar y
mejorar todo hacerca del tema de robotica y las computadoras.

Bibliografía
MARTINEZ, D. A. (02 de 05 de 2010). WIKISPACE. Recuperado el 1 de 05 de
2010.

“EL FUTURO SE DEBE CREAR“ ----ROBOTICA---- Página 28


CIENCIAS DE LA COMPUTACION

Índice

A
artificial. artificial

C
calculo, 29
circuito. Véase
computacion, 30
creacion, 30

F
filosofia, 30

I
informatica, 29,

M
maquina, 30

N
numeros, 30

“EL FUTURO SE DEBE CREAR“ ----ROBOTICA---- Página 29


CIENCIAS DE LA COMPUTACION
operacion, 29

P
pensamiento, 30

R
reconocimiento, 30

S
sistema. sistema
software. ,10

T
tecnologia. Véase

U
usuario. ,15

“EL FUTURO SE DEBE CREAR“ ----ROBOTICA---- Página 30

Das könnte Ihnen auch gefallen