Sie sind auf Seite 1von 9

Historia de la computadora Inventor, Origen y

Evolución

La computadora u ordenador es un invento que ha


marcado un hito en la historia de la humanidad
comparable con la rueda o el descubrimiento del fuego.
Se trata de un ingenio capaz de ejecutar operaciones
matemáticas y lógicas a una velocidad sorprendente.
En CurioSfera.com te explicamos la historia de la
computadora y su origen. También descubrirás quién
inventó la computadora y muchos más detalles, curiosidades y anécdotas. ¿Comenzamos?

Origen de la computadora

Antes de conocer el origen de las computadoras debes


saber que el mundo de los cálculos matemáticos y del
manejo ágil de la información ha sido una preocupación
fundamental para el ser humano desde hace muchísimos
años.

Es cierto que hace ya un par de siglos existían ciertos


artefactos o máquinas mecánicas que eran capaces de realizar cálculos simples, pero fue en el
siglo XX cuando la electrónica causa un auténtica revolución en estos ingenios.

También es verdad que la invención de la máquina calculadora fue en 1645 por parte del francés
Blaise Pascal (1623-1662) agilizaba las operaciones aritméticas complejas, pero aquello no
resultaba suficiente.

Siempre se sintió la necesidad de que la mano fuera tan rápida como el pensamiento, y es que la
imaginación del hombre ha ido siempre por delante de sus posibilidades técnicas, al menos hasta
mediados del siglo XX.

El antecedente de la computadora más antiguo lo encontramos en el ábaco. Pero esto solo es el


principio. Veámoslo con más detalle:

Las primeras máquinas de computar

Los primeros ábacos, que muchas cronologías sitúan en 2500 a.C., consistían en una serie de
piedras que se colocaban en hileras paralelas en el suelo y se movían de derecha a izquierda (los
egipcios), o de izquierda a derecha (los griegos), para contar, sumar, restar y multiplicar.

Instrumentos parecidos al ábaco aparecen en Babilonia y China en los años 1000 y 500 a.de C.,
pero aún son nada más que tablas de contar. Más parecido era el tablero de Salamis, encontrado
en 1846 en la isla del mismo nombre y que se cree que fue usado por los babilonios en tomo al 300
a.de C.

Leonardo de Pisa Fibonacci, inventor de la secuencia de Fibonacci, es el primero en usar la


expresión abacus en su obra Líber Abad, de 1202, y durante mucho tiempo, ábaco y aritmética
fueron equivalentes.
El nombre, en griego, significa “tabla”, y probablemente procede del semita aqab, polvo o arena.
Sin embargo, el ábaco, tal como lo conocemos nosotros, formado por una serie de cuentas que se
deslizan sobre cuerdas o alambres, se populariza en China en torno a 1300, durante la dinastía
Yuan.

Entre 1610 y 1617 John Napier, estudioso del Apocalipsis e inventor de los logaritmos, desarrolla
un sistema para calcular mediante varillas colocadas sobre un tablero, también llamadas huesos
de Napier, precursoras de la regla de cálculo, que se inventa entre 1620-1630.

Probablemente fue el matemático inglés William Oughtred, amigo de Napier, quien hacia 1621
desarrolló este instrumento, tanto en su versión rectilínea como circular. En 1624, el matemático
alemán Wílhelm Schickard construye la primera calculadora mecánica a partir de los huesos
de Napier, veinte años antes que Pascal.

Se usa para cálculos astronómicos. En 1645, el matemático y físico francés Blaise Pascal
construye la segunda calculadora mecánica de la historia, la Pascalina. Estuvo tres años
construyendo la máquina, que sólo podía sumar y restar, para ayudar a su padre, que trabajaba en
Hacienda.

Los inicios de la computación

En 1670, Wilhelm Leibnitz inventa el sistema binario y descubre muchos de los aspectos
matemáticos que se utilizarán en la computación moderna, se anticipa a Touring y diseña una
máquina de calcular, la Stepped Reckoner, que realiza la cuatro operaciones básicas.

En 1800, el matemático francés Joseph Jacquard desarrolla un sistema de tarjetas perforadas para
controlar el dibujo formado en un telar.

Estamos en plena revolución de la industria textil y según los agujeros de la tarjeta, la máquina
actúa de una manera u otra. Presentó su proyecto en Lyon en 1805.

En 1822, Charles Babbage presenta su proyecto de la máquina diferencial para evaluar polinomios
en la Royal Astronomical Society. Babbage fue la primera persona en concebir un ordenador,
pero nunca acabó de construir la máquina.

En 1835, Babbage presenta una máquina analítica basada en el funcionamiento del telar de tarjetas
perforadas de Jacquard, pero aunque trabajó en el proyecto entre 1833 y 1842, nunca consiguió
acabarlo, como le pasó con la máquina diferencial.

En 1855, el sueco Georg Scheutz construye con éxito una máquina diferencial, basada en el diseño
de Babbage, que el Gobierno británico compra para su Oficina General del Registro en 1859,
aunque finalmente, la falta de fondos frustró el proyecto.

En 1859, el matemático y filósofo ingles George Boole publica su obra Ecuaciones Diferenciales y
sienta las bases de la denominada álgebra booleana, una de las bases de la Ciencia
Computacional. En 1885, Hermán Hollerith construye la máquina censadora o tabuladora, que por
medio de tarjetas perforadas reducía el tiempo al realizar el censo. Es considerado el primer
informático.
En 1893, Leonardo Torres Quevedo presenta su Memoria sobre las máquinas algebraicas y al año
siguiente presenta la primera máquina construida por él. Este ingeniero y matemático español
construyó el primer transbordador aéreo que cruza las cataratas del Niágara, el Spanish Aerocar.

Historia de la computadora siglo XIX

Se puede considerar que el pionero en esta lucha contra la


limitación material y la capacidad espiritual fue el matemático y
científico británico Charles Babbage (1791-1871).

Fue él quien primero vio la posibilidad, en 1823, de crear una


máquina que hiciera posible operaciones matemáticas que
el hombre no podría realizar a lo largo de una vida por existir.
Eran cálculos matemáticos de tal complejidad que no pueden
emprenderse ya que nadie vive lo suficiente para verlos acabados.

Babbage convenció al gobierno inglés para que financiara su “ingenio analítico” capaz de
solucionar todo tipo de cálculos. (Tal vez te interese: La historia de los números).

Los esfuerzos de Babbage se unieron a los de Herman Hollerith (1860-1929) que estaba
confeccionando el censo de Estados Unidos y tenía el problema de que apenas había terminado el
censo de un ciclo temporal ya tenía que comenzar el próximo, dada la cantidad de tiempo que
llevaban los cálculos y tabulaciones.

Herman Hollerith fue la persona que introdujo las primeras


tarjetas perforadas para almacenar información. Con este
revolucionarios sistema para la época, consiguió reducir el
tiempo a la mitad.

Como curiosidad, existió una especie de computadora que


funcionó a vapor. El programa de operaciones se
almacenaba en una cinta perforada, método que todavía se
seguía empleando en los años sesenta.

La idea procedía del sistema de cartulinas perforadas utilizado en el año 1801 por Joseph Marie
Jacquard (1752-1834) para hacer que los telares urdiesen complicados tejidos.

Pero el primer ordenador nunca llegó a completarse; de


cualquier forma, si hubiera sido desarrollado del todo no
hubiera dado resultados ya que no existía tecnología
suficiente: funcionaba con palancas, bielas, ruedas
dentadas, engranajes pesado y lentos que no permitían
realizar cálculos rápidos.

Solo los electrones, cuya velocidad se aproxima a la de la


luz, podrían llevar a cabo los sueños del padre del
ordenador. Al finalizar, es posible que también te interese
conocer quién inventó el teléfono.
Historia de la computadora siglo XX

El primer esbozo de un computador moderno lo acometió


en 1930 el ingeniero alemán Konrad Zuse (1910-1995).
Construyó una calculadora que ya operaba según el modo
binario: la Z1. Con aquel ingenio se podía realizar una
multiplicación compleja en tres segundos.

Primera computadora moderna: la Z1 de Konrad Zuse

En 1940 propuso al gobierno alemán financiar su desarrollo,


crear una máquina de pensar y resolver de forma rápida cualquier problema, pero Adolf Hitler no le
hizo caso.

Se considera que en 1942 John Vincent Atanassoff inventó la


primera computadora digital. Por tanto, no si gran polémica y
disputas, se considera al ingeniero electrónico estadounidense
John Vincent Atanassoff (1903-1955) el inventor de la
computadora. Pero de ello hablamos con detalle un poco más

abajo.

Al comienzo de la Segunda Guerra Mundial los especialistas


ingleses en cálculo buscaban la forma de decodificar los
mensajes secretos alemanes y encargaron el asunto al húngaro
Alan Mathison Turing (1912-1954) inventor de una máquina de
calcular que lleva su nombre.

La primera computadora se ensambló en 1943 en Bletchley, nos referimos al computador


electromecánico llamado Colossus. El enorme aparato podía tratar cinco mil caracteres por
segundo, para lo que requería de más de dos mil lámparas.

Esta máquina podía descifrar los mensajes de la inteligencia alemana, pero no era exactamente un
ordenador.

Al tiempo que Turing trabajaba en Londres, Estados Unidos buscaba la forma de poner al día la
máquina de Babbage. En 1944 el ingeniero Howard H.Aiken (1900-1973) daba a conocer su
máquina: el Harvard Mark 1, financiada por IBM y se mejoró la calculadora de Babbage.

Paso importantísimo fue dado en 1946 con el computador


electrónico ENIAC o Electronic Numerical Integrator and
Computer de John Presper Eckert (1919-1995) y John
William Mauchly (1907-1980).

El invento se debió al encargo hecho a los científicos citados


por el ejército norteamericano necesitado de una máquina
rápida para calcular la trayectoria de los proyectiles.

Como curiosidad, decir que aquel aparato era inmenso: pesaba 30 toneladas que ocupaban una
superficie de 170 m2. Su cableado tenía varios kilómetros y utilizaba 18.000 válvulas de radio
(ver historia de la radio), que consumían gran cantidad de electricidad. Pero se calentaban tanto y
tan deprisa que su refrigeración suponía un problema adicional.

A pesar de todo, el armatoste tenía una capacidad de proceso mil veces inferior a la de un
ordenador personal o PC de los años noventa, y no podía almacenar ni la milésima parte de
información.

Pero la llegada e introducción de la electrónica hizo posible


contar con un factor nuevo de capital importancia: la velocidad
operativa. Un paso importantísimo dentro de la historia de la
computadora y su evolución.

El ordenador con programación almacenada nacería hacia


1948; lo lanzó IBM con una revolucionaria idea fruto de las
investigaciones de John von Neumann (1903-1957) de la
Universidad de Princeton, en New Jersey.

La presentación de esta primera computadora electrónica de la Historia tuvo lugar en Nueva


York, el 24 de enero de 1948: el modelo IBM SSEC, dotado de 13.500 lámparas al vacío y 21.000
relés. Consistiendo su primera prueba en sumar 3.500 números de 14 cifras decimales cada uno,
en un solo segundo.

Pero la computadora moderna solo fue posible con la invención del transistor en 1947. El
término fue idea de Maurice Perret, científico francés a quien en 1955 pidió consejo un alto cargo
de IBM sobre cómo llamar a aquellas nuevas máquinas.

Propuso el de computadora u ordenador, término que procedía de la Teología, donde figura como
uno de los adjetivos que se aplicaban a Dios “Ordenador del mundo”.

A principio de los años 60 los chips, microchips y circuitos integrados entraban en escena.
Disminuyendo el tamaño de las computadoras y aumentando su potencia sensiblemente.

La década de 1970 fue la de las supercomputadoras o


superordenadores, máquinas pensantes que en los
años ochenta ya habían llegado a una gran perfección.
El ETA 10 (1987) podía realizar 10.000 millones de
operaciones por segundo.

Poco tiempo después, en 1988, la empresa Cray creó


la Y-MP creaba un supercomputador que costaba veinte
millones de dólares y utilizaba tecnología de alta
densidad y un sistema de refrigeración muy eficiente.

El mundo de las computadoras es todavía un universo en expansión al que no se le ve límite porque


su complejidad y posibilidades son infinitas.

Prueba de ellos es que desde hace muchos años se viene cumpliendo la denominada Ley de
Moore, una teoría que indica que aproximadamente cada dos años se consigue duplicar el número
de transistores en un microprocesador.
Quién inventó la computadora

Lo cierto es que es muy complejo atribuir a una única


persona el descubrimiento o la invención de las
computadoras. Para muchos expertos, son diversas las
personas que contribuyeron con sus creaciones, ideas y
conocimientos para que este ingenio viese la luz.

Muchos investigadores concentraron sus esfuerzos en el


diseño de una máquina de cálculo digital. Pero si existe
una persona a la que se le puede atribuir el primer
prototipo de computadora al ingeniero electrónico y físico Estadounidense de origen Búlgaro
John Vincent Atanassoff, nacido en New York el 4 de Octubre del año 1903.

Atanassoff realizó diversos estudios y experimentos sobre la realización de cálculos matemáticos


mediante aparatos o máquinas analógicas, ya que no había otra alternativa en su tiempo.

Según palabras de Atanassoff, estos ingenios eran muy imprecisos y lentos. Por este motivo, era
necesario la invención de una máquina de cálculo mucho más eficiente, veloz y fiable que las que
existían.

No dudó en ponerse manos a la obra y en 1933 comenzó un laborioso proceso de desarrollo e


investigación sobre el tema. El objetivo final no era otro que conseguir lo que se conoce hoy en día
como el primer computador u ordenador digital.

Con la ayuda, colaboración y asistencia del ingeniero eléctrico estadounidense Clifford Berry
(1918-1963), enfocaron sus esfuerzos en cuatro pilares o conceptos:

1. Electrónica para los componentes operativos


2. Sistema binario para la realización de cálculos
3. Condensadores para el almacenamiento de datos
4. Sistema lógico para la realización de cálculos.

Tras unos pocos años, en 1942 se presentó el primer


prototipo de computadora. Le pusieron el nombre de
ABC (acrónimo de Antanassoff-Berry Computers). Dicho
artefacto es considerado como la primera computadora
digital del mundo.

Como curiosidad, decir que Antanassoff cometió el error de no patentar su invento al momento. Esto
provocó que Jhon Mauchly (1907-1980) intentara adelantarse y les llevara a ambos a un extenso
proceso judicial. Finalmente, en el año 1972, se le otorgó el mérito de ser el padre de la
computadora a Antanassoff.

GENERACIONES DE LAS COMPUTADORAS

Todo este desarrollo de las computadoras suele divisarse por generaciones.


Primera Generación (1951-1958)

En esta generación había una gran desconocimiento de las capacidades de las


computadoras, puesto que se realizó un estudio en esta época que determinó que
con veinte computadoras se saturaría el mercado de los Estados Unidos en el
campo de procesamiento de datos. Esta generación abarco la década de los
cincuenta. Y se conoce como la primera generación. Estas máquinas tenían las
siguientes características:

Usaban tubos al vacío para procesar información.


Usaban tarjetas perforadas para entrar los datos y los programas.
Usaban cilindros magnéticos para almacenar información e instrucciones internas.
Eran sumamente grandes, utilizaban gran cantidad de electricidad, generaban gran cantidad
de calor y eran sumamente lentas.
Se comenzó a utilizar el sistema binario para representar los datos.

En esta generación las máquinas son grandes y costosas (de un costo aproximado de 10,000
dólares).

La computadora más exitosa de la primera generación fue la IBM 650, de la cual se produjeron
varios cientos. Esta computadora que usaba un esquema de memoria secundaria llamado tambor
magnético, que es el antecesor de los discos actuales.

Segunda Generación (1958-1964)

En esta generación las computadoras se reducen de tamaño y son de menor


costo. Aparecen muchas compañías y las computadoras eran bastante
avanzadas para su época como la serie 5000 de Burroughs y la ATLAS de
la Universidad de Manchester. Algunas computadoras se programaban con
cinta perforadas y otras por medio de cableado en un tablero.

Características de está generación:

Usaban transistores para procesar información.


Los transistores eran más rápidos, pequeños y más confiables que los tubos al vacío.
200 transistores podían acomodarse en la misma cantidad de espacio que un tubo al vacío.
Usaban pequeños anillos magnéticos para almacenar información e instrucciones. cantidad
de calor y eran sumamente lentas.
Se mejoraron los programas de computadoras que fueron desarrollados durante la primera
generación.
Se desarrollaron nuevos lenguajes de programación como COBOL y FORTRAN, los cuales
eran comercialmente accsesibles.
Se usaban en aplicaciones de sistemas de reservaciones de líneas aéreas, control del tráfico
aéreo y simulaciones de propósito general.
La marina de los Estados Unidos desarrolla el primer simulador de vuelo, "Whirlwind I".
Surgieron las minicomputadoras y los terminales a distancia.
Se comenzó a disminuir el tamaño de las computadoras.

Tercera Generación (1964-1971)

La tercera generación de computadoras emergió con el desarrollo de


circuitos integrados (pastillas de silicio) en las que se colocan miles de
componentes electrónicos en una integración en miniatura. Las
computadoras nuevamente se hicieron más pequeñas, más rápidas,
desprendían menos calor y eran energéticamente más eficientes. El
ordenador IBM-360 dominó las ventas de la tercera generación de
ordenadores desde su presentación en 1965. El PDP-8 de la Digital
Equipment Corporation fue el primer miniordenador.

Características de está generación:

Se desarrollaron circuitos integrados para procesar información.


Se desarrollaron los "chips" para almacenar y procesar la información. Un "chip" es una pieza
de silicio que contiene los componentes electrónicos en miniatura llamados semiconductores.
Los circuitos integrados recuerdan los datos, ya que almacenan la información como cargas
eléctricas.
Surge la multiprogramación.
Las computadoras pueden llevar a cabo ambas tareas de procesamiento o análisis
matemáticos.
Emerge la industria del "software".
Se desarrollan las minicomputadoras IBM 360 y DEC PDP-1.
Otra vez las computadoras se tornan más pequeñas, más ligeras y más eficientes.
Consumían menos electricidad, por lo tanto, generaban menos calor.

Cuarta Generación (1971-1988)

Aparecen los microprocesadores que es un gran adelanto de la


microelectrónica, son circuitos integrados de alta densidad y con una
velocidad impresionante. Las microcomputadoras con base en estos
circuitos son extremadamente pequeñas y baratas, por lo que su uso se
extiende al mercado industrial. Aquí nacen las computadoras personales
que han adquirido proporciones enormes y que han influido en la
sociedad en general sobre la llamada "revolución informática".

Características de está generación:

Se desarrolló el microprocesador.
Se colocan más circuitos dentro de un "chip".
"LSI - Large Scale Integration circuit".
"VLSI - Very Large Scale Integration circuit".
Cada "chip" puede hacer diferentes tareas.
Un "chip" sencillo actualmente contiene la unidad de control y la unidad de aritmética/lógica.
El tercer componente, la memoria primaria, es operado por otros "chips".
Se reemplaza la memoria de anillos magnéticos por la memoria de "chips" de silicio.
Se desarrollan las microcomputadoras, o sea, computadoras personales o PC.
Se desarrollan las supercomputadoras.

Quinta Generación (1983 al presente)

En vista de la acelerada marcha de la microelectrónica, la sociedad industrial se ha dado a la


tarea de poner también a esa altura el desarrollo del software y los sistemas con que se manejan
las computadoras. Surge la competencia internacional por el dominio del mercado de la
computación, en la que se perfilan dos líderes que, sin embargo, no han podido alcanzar el nivel
que se desea: la capacidad de comunicarse con la computadora en un lenguaje más cotidiano y
no a través de códigos o lenguajes de control especializados.

Japón lanzó en 1983 el llamado "programa de la quinta generación de computadoras", con los
objetivos explícitos de producir máquinas con innovaciones reales en los criterios mencionados.
Y en los Estados Unidos ya está en actividad un programa en desarrollo que persigue objetivos
semejantes, que pueden resumirse de la siguiente manera:

Se desarrollan las microcomputadoras, o sea, computadoras


personales o PC.
Se desarrollan las supercomputadoras.

Inteligencia artíficial:

La inteligencia artificial es el campo de estudio que trata de aplicar


los procesos del pensamiento humano usados en la solución de
problemas a la computadora.

Robótica:

La robótica es el arte y ciencia de la creación y empleo de robots. Un robot es un sistema de


computación híbrido independiente que realiza actividades físicas y de cálculo. Están siendo
diseñados con inteligencia artificial, para que puedan responder de manera más efectiva a
situaciones no estructuradas.

Sistemas expertos:

Un sistema experto es una aplicación de inteligencia artificial que usa una base de conocimiento
de la experiencia humana para ayudar a la resolución de problemas.

Redes de comunicaciones:

Los canales de comunicaciones que interconectan terminales y computadoras se conocen como


redes de comunicaciones; todo el "hardware" que soporta las interconexiones y todo el "software"
que administra la transmisión.

Das könnte Ihnen auch gefallen