Sie sind auf Seite 1von 7

Fase 1 Pre saberes

Presentado por:

Bernabé Sánchez Lenis

Código: 16460502

Grupo:

301405_41

Tutor:

Universidad Nacional Abierta y a Distancia UNAD

Ingeniería de sistemas

Yumbo – Valle del Cauca

Agosto de 2019
Actividad 1:

•D. Hilbert
•El punto de partida son las cuestiones fundamentales que D. Hilbert formuló en 1928, durante el transcurso de
un congreso internacional:
•1.- ¿Son completas las matemáticas?
•2.- ¿Son las matemáticas consistentes ?
1928 •3.- ¿Son las matemáticas decidibles?.
•La meta de Hilbert era crear un sistema matemático formal completo y consistente". Su idea era encontrar un
algoritmo que determinara la verdad o falsedad de cualquier proposición en el sistema formal.

•D. Hilbert
•Por desgracia para Hilbert, en la década de 1930 se produjeron una serie de investigaciones que mostraron que
no era posible sus teorías.
1930

•K. Gödel
•Teorema de Incompletitud: "Todo sistema de primer orden consistente que contenga los teoremas de la
aritmética y cuyo conjunto de axiomas sea recursivo, no es completo."
•Un aspecto a destacar dentro del teorema de incompletitud de Gödel, fue la idea de codificación.
1931 •A través del código, los enunciados referentes a enteros positivos, pueden considerarse como enunciados
referentes a Números de código de expresiones, o incluso referentes a las propias expresiones.

• Kleene
•Por otra parte Kleene, pocos meses después, demuestra formalmente la equivalencia entre funciones λ-
definible y funciones recursivas de Herbrand-Gödel, y da ejemplos de problemas irresolubles utilizando la
1936 noción de función recursiva.

• E. Post
•Finalmente, cabe reseñar el trabajo de E. Post. Este estaba interesado en marcar la frontera entre lo que se
puede hacer en matemáticas simplemente por procedimientos formales y lo que depende de la comprensión y
1936 el entendimiento. De esta forma, Post formula un modelo de procedimiento efectivo a través de los llamados
sistemas deductivos normales.

• Church
•Church propuso la función definible como función calculable. La demostración se convierte en una
transformación de cadena de símbolos en otra,según un conjunto de reglas formales.Este sistema fue
inconsistente,pero la capacidad para calcular funciones numéricas como términos del sistema llamó su
1936 atención.Hace un esquema de la demostración de la equivalencia entre las funciones definibles y las recursivas
y aventura que iban a ser las únicas funciones calculables por medio de un algoritmo.

• A. Turing
•La tercera noción de función calculable proviene de A Turing, quien señaló que había tenido éxito en
caracterizar de un modo matemáticamente preciso, por medio de sus máquinas, la clase de las funciones
calculables mediante un algoritmo, lo que se conoce hoy como Tesis de Turing. Aunque no se puede dar
1936 ninguna prueba formal de que una máquina pueda tener esa propiedad, Turing dió un elevado número de
argumentos a su favor, en base a lo cual presentó la tesis como un teorema demostrado.
•Kleene
•Los resultados hasta ahora citados, se refieren a funciones totales. La existencia de algoritmos que con
determinadas entradas nunca terminan, condujo de forma natural a considerar funciones parciales. Kleene fué
1938 el primero en hacer tal consideración en 1938

•McCulloch y Pitts
•Describen los cálculos lógicos inmersos en dispositivo que habían diseñado para simular la actividad de una
neurona biológica. El dispositivo recibía o no, una serie de impulsos eléctricos por sus entradas que se
ponderaban, y producía una salida binaria. Las entradas y salidas se podían considerar como cadenas de 0 y 1,
1943 indicando entonces la cadena de entrada para producir la salida. La notación es la base para el desarrollo de
expresiones en descripción de conjuntos de cadenas de caracteres.

•J. Von Neumann


•Introduce teoría de autómatas, y dice sobre los trabajos de McCulloch-Pitts: “el resultado más importante de
estos, es que cualquier funcionamiento en este sentido, que pueda ser definido en todo, lógicamente,
estrictamente y sin ambigüedad, en un número finito de palabras, puede ser realizado también por una red
1948 neuronal formal”, La necesidad de traducir los algoritmos escritos en lenguajes de alto nivel al lenguaje
máquina,propicia la utilización de máquinas como autómatas de estados finitos

• C. Shannon
•Define los fundamentos de la teoría de la información, y utiliza esquemas para poder definir sistemas discretos,
parecidos a los autómatas finitos, relacionándolos con cadenas de Markov, para realizar aproximaciones a los
1948 lenguajes naturales.

• Kleene
•Realiza un informe sobre los trabajos de McCulloch-Pitts, que se publica en 1956. En este informe, Kleene
demuestra la equivalencia entre lo que él llama "dos formas de definir una misma cosa", que son los sucesos
1951 regulares (que se pueden describir a partir de sucesos bases y los operadores unión, concatenación e iteración
(*) ), es decir, expresiones regulares, y sucesos especificados por un autómata finito

• D. A. Huffman
•Ya utiliza conceptos como estado de un autómata y tabla de transiciones.
1954

• N. Chomsky
•Propone tres modelos para la descripción de lenguajes, que son la base futura jerarquía de los tipos de
lenguajes, que ayudó también en el desarrollo de los LP. Para ello intentó utilizar autómatas para extraer
estructuras sintácticas y dirige sus estudios a las gramáticas, indicando que la diferencia esencial entre
1956 autómatas y gramáticas es que la lógica asociada a los autómatas es decidible, mientras que la asociada a las
gramáticas no lo es.
•C. Shannon y J. McCarthy
•En 1956, la Princenton Univ. Press publica el libro Automata Studies, editado por C. Shannon y J.
McCarthy, donde se recogen una serie de trabajos sobre autómatas y lenguajes formales.
1956

•Rabin y Scott
•Obtienen un modelo de computador con una cantidad finita de memoria, al que llamaron autómata de
estados finitos. Demostraron que su comportamiento posible, era básicamente el mismo que el descrito
mediante expresiones regulares, desarrolladas a partir de los trabajos de McCulloch y Pitts.
1960

•Norman E. Gibbs y Allen B. Tucker


•Indican que: ‘no debemos entender que el objetivo de las Ciencias de la Computación sea la
construcción de programas sino el estudio sistemático de los algoritmos y estructura de datos,
específicamente de sus propiedades formales’
1986

• A. Berztiss
•Vamos a considerar a las C.C. como un cuerpo de conocimiento cuyo objetivo es obtener respuestas
para las siguientes cuestiones:
•A) ¿Qué problemas se pueden resolver mediante un ordenador?.
•B) ¿Cómo puede construirse un programa para resolver un problema?.
•C) ¿Resuelve realmente nuestro programa el problema?.
1987 •D) ¿Cuanto tiempo y espacio consume nuestro problema?.
•Analizando en profundidad los 4 puntos llegaremos a descubrir explícitamente los diferentes
contenidos abarcados por las C.C.

• Teoría de Autómatas y Lenguajes Formales


•El desarrollo de los ordenadores, con la introducción de los programas en la memoria principal, y
posteriormente con los lenguajes de programación de alto nivel,propician la distinción entre lenguajes
Period: 1928 to formales, con reglas sintácticas y semánticas rígidas, concretas y bien definidas, de los lenguajes
naturales como el inglés, donde la sintaxis y la semántica no se pueden controlar fácilmente.
1990
Actividad 2:

Alan Mathison Turing, OBE (Paddington, Londres, 23


de junio de 1912-Wilmslow, Cheshire, 7 de junio de
1954)
Su campo principal fue la matemática, pero también
aportó desde el campo de la psicología, filosofía, física,
química y biología. Sus mayores aportes son a la
computación, siendo probablemente de los primeros
investigadores en estudiar las computadoras y su
potencial futuro, así como la inteligencia artificial.
Turing realizó numerosos aportes a lo que son hoy nuestras computadoras modernas, a través
de la programación y la matemática. Sin duda fue un gran pensador que aportó desde varios
campos al desarrollo de la programación y los códigos. Dio el primer paso en plantear la
posibilidad de una inteligencia artificial que pueda parecerse a la humana en su efectividad
y cumplimiento de tareas, un tema que hasta el día de hoy es clave.
Durante la Segunda Guerra Mundial, Turing fue contratado por el gobierno para descifrar el
código alemán Enigma. Para esto utilizó un artefacto electromecánico llamado Bombe,
construido junto a Welchman, que logró con éxito descifrar los códigos, participó de la
construcción de un aparato que mantuviera en secreto las conversaciones de Churchill y
Roosevelt.. Turing creyó en la posibilidad de construir un artefacto que realice tareas
previamente asumidas, cosa solo equiparable al cerebro humano. Para construir una máquina
universal era necesario el almacenamiento, los códigos de instrucciones y números.
Las implicaciones del pensamiento de Alan Turing han trascendido mucho más allá que su
aplicación en procedimientos o razonamientos únicamente al ámbito computacional. Las
nociones de autómata formuladas por Turing desde la década de los 30 implicaron el
desarrollo de la Máquina de Turing, un modelo de lógica y matemáticas aplicadas en un
proceso que permite a quienes plantean el estudio de una determinada hipótesis el conocer
de forma matemática el límite de lo que se puede calcular, además de que esa máquina
coexista replicada por otras máquinas.
Tal es la repercusión del modelo planteado por Turing, que a la fecha existe como un
procedimiento común en la ciencia, no sólo en el entorno de las materias computacionales.
La física, la genética e incluso la psicología, se valen del modelo turingiano para lograr
plantear modelos matemáticos que definen los límites de lo calculable.

Máquina de Turing:
Esta máquina es un artefacto que puede realizar algunas tareas de manera sistemática. Los
mecanismos estaban relacionados con los conceptos computacionales entrada (input), salida
(output) y programa. Fue la primera vez que se pensó la posibilidad de que una sola
computadora pudiera realizar varias tareas, dependiendo del programa que se le suministra.
El autómata pensado por Turing es la base teórica de los dispositivos de cómputo de hoy.

Actividad 3:
Test de Turing: es una prueba de la habilidad de una máquina para exhibir un
comportamiento inteligente similar al de un ser humano o indistinguible de este, formula un
método, el denominado Juego de la Imitación [Imitation Game], que consiste en que ciertas
personas juegan a descubrir la identidad de uno de ellos mediante un breve interrogatorio.
Es importante destacar que las bases de tal juego fueron ideadas antes del Test de Turing,
cuando el matemático-filósofo propone un experimento en el cual hay tres jugadores de
ajedrez y uno de ellos debe adivinar con quién está jugando.

González, R., (2007). EL TEST DE TURING: DOS MITOS, UN DOGMA. (pp 4).
Recuperado de
http://eds.a.ebscohost.com.bibliotecavirtual.unad.edu.co/eds/pdfviewer/pdfviewer?vid=0&s
id=35cbebba-31bd-4472-90cf-7d771001ab3c%40sessionmgr4008

Inteligencia artificial: El término inteligencia artificial (IA) se le acredita a John


McCarthy de la universidad de Stanford en una conferencia llevada a cabo en 1956
(Alandete, 2011). La IA surge a partir de algunos trabajos publicados en la década de los
años 40, pero no es hasta el trabajo del científico Inglés Alan Turing en el año 1950 (A.
Turing, 1950), que ocurre un despegue en la disciplina.

Leyva, M., Smarandache, F.(2018). Inteligencia Artificial:retos, perspectivas y papel de la


Neutrosofía. (pp 3). Recuperado de
http://eds.a.ebscohost.com.bibliotecavirtual.unad.edu.co/eds/pdfviewer/pdfviewer?vid=0&s
id=7ad207eb-e20e-4836-a8fc-a3748d60d5a1%40sessionmgr4007
Criptografía: La Criptografía se ocupa de los problemas relacionados con la transmisión
confidencial y segura por el medio no fiable, en tanto la seguridad informática se ocupa de
asegurar la fiabilidad de los nodos "a" y "b".
Marrero, Y. (2003). La Criptografía como elemento de la seguridad informática. (pp. 4).
Recuperado de
http://eds.b.ebscohost.com.bibliotecavirtual.unad.edu.co/eds/pdfviewer/pdfviewer?vid=0&s
id=af094e07-de0e-408b-85de-b939ff8d07b2%40sessionmgr102

Das könnte Ihnen auch gefallen