Sie sind auf Seite 1von 7

Actividad 1:

Realizar una línea del tiempo que permita observar la historia y evolución de la teoría de

autómatas y lenguajes formales, se debe tener en cuenta los orígenes, los precursores y los

distintos campos en los que repercute esta área del conocimiento (Ingeniería, lenguajes y

gramáticas, matemáticas y computabilidad) y aplicación directa de las ciencias computacionales.

Solución:

Origenes y precursores:

La mayor parte del conocimiento científico es el resultado de muchos años de investigación,

con frecuencia sobre temas que aparentemente no tienen una relación directa, incluso en el

campo de la Informática Teórica. Esta materia se ha desarrollado gracias a la confluencia de

áreas muy diferentes, matemáticas, teoría de máquinas, la lingüïstica, entre otras. Para encontrar

los principios de la Informática Teórica debemos remontarnos a los años 30, década en la que el

mundo de las matemáticas se hallaba ocupado, sobre todo, en temas como la lógica y la

definición de sistemas axiomáticos.

El método axiomático requiere una colección de enunciados básicos, llamados axiomas, que

describen las propiedades fundamentales del sistema que se estudia. A partir de estos axiomas, se

derivan enunciados adicionales, llamados teoremas, aplicando secuencias finitas de reglas de

inferencia.
Una ventaja del método axiomático es que ofrece un modelo de razonamiento deductivo en el

cual todas las suposiciones están aisladas en los axiomas iniciales y las reglas de inferencia.

Cualquier enunciado que se derive posteriormente será una consecuencia de estas suposiciones.

A principios del siglo XX, muchos matemáticos creían que era posible encontrar un unico

sistema axiomático en el que podrían basarse todas las matemáticas. Su meta era encontrar un

conjunto de axiomas y reglas de inferencia correctos de manera que las matemáticas pudieran

reducirse a un sistema computacional con el cual pudiera deducirse la veracidad o falsedad de

cualquier enunciado matemático. Uno de los principales defensores de esta idea era el conocido

matemático alemán Hilbert (Jurado, 2008).

1929-1930 David Hilbert: Plantea las siguientes cuestiones

1. ¿Son completas las matemáticas, en el sentido de que pueda probarse o no cada

aseveración matemática?

2. ¿Son las matemáticas consistentes, en el sentido de que no pueda probarse

simultáneamente una aseveración y su negación?

3. ¿Son las matemáticas decidibles, en el sentido de que exista método definido que se

pueda aplicar a cualquier aseveración matemática, y que determine si dicha aseveración es

cierta?

1931 Kurt Gödel: Teorema de la incompletitud “todo sistema de primer orden consistente

que contenga los teoremas de la aritmética y cuyo conjunto de axiomas sea recursivo no es

completo” Como consecuencia no sera posible encontrar el sistema formal deseado por Hilbert.

1936 Turing, Church, Kleene, Post: Post formula un modelo de procedimiento efectivo a

través de los llamado sistema deductivos normales. Se puede caracterizar de un modo


matemático preciso, por medio de sus maquinas, la clase de las funciones calculables mediante

un algoritmo, lo que se conoce hoy como TESIS DE TURING.

1943 McCullon y Pitts: Describen los cálculos lógicos inmersos en un dispositivo que habían

diseñado para simular la actividad de una neurona biológica. el dispositivo recibía o no, una serie

de impulsos eléctricos por sus entradas que se ponderaban y producían una salida binaria. las

salidas y entradas se podían considerar como cadenas de 0 y 1.

1948 Von Neumann, Shannon: Define los fundamentos de la teoría de la información, y

utiliza esquemas para poder definir sistemas discretos, parecidos a los autómatas finitos,

relacionándolos con cadenas de Markow, para realizar aproximaciones a los lenguajes naturales.

Neumann introduce el termino de teoría de autómatas.

1951 Kleene: Kleene demuestra la equivalencia entre lo que el llama “dos formas de definir

una misma cosa”, que son los sucesos regulares ,es decir expresiones regulares, y sucesos

especificados por un autómata finito.

1956 Shannon: Propone tres modelos para la descripción de lenguajes, que son la base de la

futura jerarquía de los tipos de lenguajes, que ayudo también en el desarrollo de los lenguajes de

programación.

1960 Rabin y Scott: Obtienen un modelo de computador con una cantidad finita de memoria,

al que llamaron autómata de estados finitos. demostraron que su comportamiento posible era

básicamente el mismo que el descrito mediante expresiones regulares, desarrolladas a partir del

trabajo de McCulloch y Pitts.

Jurado, E. M., (2008). Teoría de Autómatas y Lenguajes Formales. Cáceres, España:

Universidad de Extremadura.
Unad, (03, Septiembre, 2018). Historia y evolución de la teoría de autómatas y lenguajes

formales. [timeline]. Recuperado de: https://www.timetoast.com/timelines/historia-y-evolucion-

de-la-teoria-de-automatas-y-lenguajes-formales

Actividad 2:

Realizar un resumen, ensayo o relatoría (El estudiante selecciona uno a trabajar) sobre Alan

Turing y la máquina enigma, existen varios documentales y películas que cuentan esta historia,

adicional pueden realizar búsquedas en la biblioteca virtual de la universidad sobre el tema. Para

saber que estructura tiene cada uno de los textos académicos solicitados tener presente el

siguiente autor:

http://bibliotecavirtual.unad.edu.co:2077/lib/unadsp/reader.action?docID=10458287&ppg=

Solución:

“Sólo podemos ver a corta distancia delante de nosotros, pero podemos ver que hay mucho

por hacer” A. T.

Una de las características más representativas de la humanidad que sobresale del resto de las

especies animales es la complejidad de su capacidad de comunicación. Desde sus inicios con

pictogramas, hasta mensajes altamente estructurados, el lenguaje ha revolucionado y definido

nuestra história. A pesar de la cotidianidad y de lo trivial de un mensaje, como por ejemplo estas

líneas que el lector aprecia, estudiar la estructura lógica y semántica, e incluso gramátical y
evolutiva de nuestro idioma (o cualquier tipo de idioma) es una tarea bastante complicada. Aún

más si el lenguaje en cuestión es aquél usado en matemáticas, el lenguaje formal, que permite

expresar, casi de manera universal una idea, por menos, completamente global y abstracta en

representación de la realidad tanto interna como externa que percibimos.

Una cuestión igual de importante además de garantizar que el receptor de un determinado

mensaje cuente con las herramientas necesarias para comprender la idea tras las líneas, es que el

mensaje llegue sin alteraciones o interrupciones, especialmente, si este puede cambiar de una

manera u otra la história de la humanidad. Este punto en partícular se conoce como criptografía,

es decir, el cifrado y descifrado de un mensaje. Ha sido de uso mayoritariamente militar, aunque

hoy en día, con la cantidad de información que se maneja, se usa practicamente en cualquier área

y desde cualquier campo de investigación, desde la física hasta la biología.

Históricamente, quizá el caso más analizado es la conocida máquina enigma, con la cual los

soldados alemanes cifraban sus mensajes tácticos de forma tal que para los aliados fuera

prácticamente imposible encontrar la llave que descifrara el mensaje. Los alemanes pusieron en

marcha el uso de esta maquinaria que se valia de la gran cantidad de permutaciones y

combinatoras que pueden lograrse con el alfabeto ordinario, cambiando a diario de manera

aleatoria pero controlada la clave que permitia descifrar el código y con el, leer correctamente el

mensaje. No fue sino después de 12 años de estudio que se logró esclarecer la manera en la cual

la máquina operaba, gracias particularmente al matemático Allan Turing y su equipo polaco de

investigadores.

El punto de partida fue la necesidad de analizar mecánicamente, y no manualmente como se

hacía, el patrón de conexiones y todo el mecanismo bajo el cual se realizaba la encriptación de

los mensajes. De allí, además de resolver el engima de la máquina, nace lo que hoy en día se
conoce como inteligencia artificial, que no es más que un algoritmo de aprendizaje autónomo

que se alimenta de datos externos para reorganizar su lenguaje y así obtener salidas que

aparentemente son producto de un pensamiento racional.

Actualmente se sigue trabajando en el área de información y computación con el fin de

mejorar los algoritmos, no solo para producir estructuras de análisis más eficientes y prácticas,

sino también para emular el comportamiento humano de la manera más natural posible; y no

solamente desde el punto de vista de la informática y las matemáticas, también desde el punto de

vista físico, en partícular con los desarrollos de Shannon y su relación entre la información y la

entropía, tanto en el regímen clásico como en el cuántico, desde el punto de vista biológico al

estudiar la eficiencia en los procesos de generación, transmisión y recepción de información,

genética, molecular y celular.

Es así, como cobra realmente importancia el trabajo que Turing, dejando un legado que nos ha

permitido ver mucho más allá de nuestro presente.

Actividad 3:

El estudiante busca 3 palabras que considera importantes para los temas estudiados

anteriormente y que no se encuentran en el glosario. Debe agregar el nombre, la definición

técnica y la referencia bibliográfica según normas APA.

Solución:
1) Lenguaje: Forma de representar información basada en un conjunto finito de signos o

símbolos.

2) Alfabeto: Conjunto de símbolos que forman parte de un lenguaje.

3) Lenguaje formal: Lenguaje descrito mediante un formalismo matemático.

Universidad de Huelva, (03, Septiembre, 2018). Ciencias de la Computación e Inteligencia

Artificial. [Presentación]. Recuperado de:

http://www.uhu.es/francisco.moreno/talf/docs/tema1.pdf

Das könnte Ihnen auch gefallen