Sie sind auf Seite 1von 16

Calculador analógico avanzado del MIT

En 1931 en los EE.UU., Vannevar Bush completa en el Instituto de


Tecnologia de Massachusetts la primera maquina analitica diferencial la
que es usada para resolver ecuaciones diferenciales muy utilizadas para el
calculo de tablas de tiro de artilleria. La compleja ingenieria de la maquina
es movida por motores electricos. Un modelo avanzado de la misma
seguira siendo usada durante la 2da. guerra mundial.
 En 1937 el matematico ingles Alan M. Turing diseña "la máquina de Turing", un modelo teorico que
sostiene que cualquier problema humano puede ser resuelto mediante un conjunto de algoritmos operados por
una maquina adecuada lo cual lleva a concluir que la inteligencia mecánica y la inteligencia humana son
esencialmente equivalentes.

Primera calculadora programable digital


En 1938 el ingeniero alemán Konrad Zuse diseña con componentes exclusivamente mecanicos, el prototipo
V1, la primera calculadora programable binaria, destinada inicialmente a cálculos de ingeniería. Tres años
mas tarde presenta en Berlin el modelo Z3 con una velocidad de procesamiento de 5.3 Hertz, construida ahora
utilizando reles, convirtiendose asi en la primera computadora digital programable plenamente funcional. Sus
conceptos basicos de ingenieria seran comunes en el futuro en los modernos computadores. La falta de apoyo
oportuno del gobierno aleman, inmerso en plena guerra lo priva a Zuse de recursos para continuar el
desarrollo de su invencion.
 En 1942 el físico John V. Atanasoff asistido por Clifford Berry inventan la máquina ABC (Atanasoff Berry
Computer), la primera calculadora digital electrónica en los EE.UU. aunque no programable.

Colossus: el proyecto secreto británico


En 1943 en Bletchley Park, Inglaterra en plena guerra mundial, entra en
operaciones un avanzado calculador programable a valvulas denominado
Colossus. El ingenio es construido por T.H. Flowers y Max A. Newman a
instancias del matematico Alan Turing y como parte de un proyecto secreto
del gobierno británico para contar con la potencia de calculo necesaria para
poder descifrar los codigos encriptados de comunicaciones de guerra
alemanas generados por la máquina "Enigma". El objetivo es logrado.

Guerra, tecnología y computadores


La complejidad del avance cientifico en este campo comienza a requerir recursos tecnicos y
economicos que solo un elite de gobiernos estan en condiciones de aportar. Las urgencias por
tomar ventaja en la guerra una vez mas obran de catalizador en estas decisiones. El libre acceso a
los avances científicos logrados por Alemania y Gran Bretaña, cedidos en este ultimo caso al fin de
la Segunda Guerra Mundial a cuenta de las abultadas deudas contraidas durante el conflicto,
permiten explicar en buena medida el rapido avance que llevara durante los proximos años a los
EE.UU. a una posicion de liderazgo indiscutido y mas tarde sobrepasar a la URSS en la carrera
espacial y armamentística.

Mark I, primer calculador secuencial


En 1944 el ingeniero Howard H. Aiken pone operativo en Harvard al Mark I
el primer calculador electromecanico de secuencia automatica controlada.
La secuencia de operaciones es alimentada por un operador mediante
cintas de papel perforado. El proyecto ha sido solventado por IBM y los
servicios del equipo son requeridos de inmediato por la marina de EE.UU.

ENIAC primer calculador en gran escala


En 1946 John W. Mauchly y J. Prester Eckert en la universidad de Pennsylvania, en EE.UU. crean la ENIAC
(Electronic Numerical integrator and Computer) diseñada con interruptores y 17.000 tubos de vacio. El
equipo operaba con entrada y salida mediante por tarjetas perforadas, su capacidad de calculo era superlativa
y podia realizar hasta 5.000 operaciones por segundo, igualmente superlativas eran sus dimensiones, peso y
consumo de energia.
Invención del transistor
En 1947 en los Laboratorios de la Bell Telephone se desarrolla el transistor, un microdispositivo
revolucionario ideado en base a las propiedades de materiales semiconductores tales como el silicio y el
germanio. Esta invención desplazará a los tubos de vacío empleados en electrónica posibilitando la rápida
miniaturización de los equipos y permitiendo dar un paso de calidad impensable en terminos de eficiencia.
Sus tiempos de operacion pasan a medirse en microsegundos. El descubrimiento es reconocido a los
científicos. John Bardeen, William Shockley y Walter Brattain quienes serán cogalardonados en 1956 con el
Premio Nobel en Física. Recién casi una década mas tarde se producira una nueva revolución en la
microelectronica con la aparición de los circuitos integrados.
EDVAC, primer computador programable
En 1950 se concluye la construccion en el poligono de tiro militar de Aberdeen (EE.UU.) del EDVAC, (
Calculador automatico electronico de variable discreta) el cual emplea código binario y en el que por primera
los programas de operacion pasan a estar almacenados en la memoria del computador. El ingeniero de origen
hungaro John von Neumann ha realizado aportes fundamentales en su concepcion de ingenieria contemplando
la configuracion de dispositivos y funciones que tendran todos los computadores modernos. El singular
talento de von Neumann a quien le espera una muerte temprana ha legado en estos años aportes igualmente
trascendentales en el ambito de la economia a traves de su Teoria de los Juegos.

Univac I, primer computador comercial


Para 1953 los doctores Mauchly y Eckert han fundado la compañía
Universal Computer (Univac ), y su primer producto es esta máquina
encargada por la oficina del censo de los EE.UU. Un conflicto por sus
derechos de invencion, que reclaman desde 1944 por sus aportes, los ha
llevado a distanciarse del gobierno. Van a pasar sin embargo dos decadas
hasta que en 1973 la cuestion se dirima legalmente a favor del ... físico
John V. Atanasoff quien nunca ha patentado su invento pero cuyo credito
como primer descubridor termina invalidando las patentes registradas
originariamente por Mauchly y Eckert que para entonces intenta hacer valer
la corporacion Sperry Rand en un litigio frente a Honeywell, Inc.

IBM y sus primeros computadores


En 1953 IBM fabrica su primer computador para aplicaciones científicas el 701 Defense Calculator .
En 1954 IBM desarrolla el IBM 650, el primer computador producido en serie.
En 1956 IBM presenta el IBM 305 Ramac, con la primera unidad magnética en discos de almacenamiento de
cerca de 4MB de capacidad.

Kilby inventa los circuitos integrados (microcircuitos)


En 1958 en los EE.UU. el científico Jack S. Kilby desarrolla en la
corporacion Texas Instruments por primera vez un circuito integrado de
varios transistores en un chip, la invención se concreta en un diseño
definitivo un año mas tarde, constituyendo un verdadero paso
revolucionario que inicia una nueva etapa en el proceso de miniaturización
de los dispositivos electrónicos. A comienzo de los 60 el standard de
producción consiste en la integración de hasta 12 circuitos en una pequeña
placa de tan solo 25 x 10 mm aproximadamente, a fines de siglo el proceso
parece no tener limites las nuevas tecnologias constructivas ha logrado
incorporar en los chips millones de circuitos.
La invención por parte de Kilby de un nuevo tipo de transistor ("chip")
provoca una verdadera revolución en los circuitos electrónicos. El nuevo
elemento es tan pequeño que en un dedal de costura caben mas de 50.000
chips.
Con los circuitos integrados nace la tercera generación de computadores
Las computadoras basadas en tubos de vacío y programación básica representan la primera
generación, a comienzos de los 50 con la invencion tres años antes del transistor y el
almacenamiento de programas en la memoria del ordenador surge la segunda generación de
computadores. La creación en 1958 de los circuitos integrados y la utilización de lenguajes de
programación cada vez mas avanzados marcan el despegue de esta tercera generación.

Las primeras computadoras tenian circuitos con valvulas de vacío. Los tiempos de
operación se median en ellas en milisegundos. Cuando aparecieron los transistores
el diseño de los circuitos se mejoró notablemente y la duración de las operaciones
que utilizaban esta "tecnología de estado sólido" se midió en microsegundos. El
hecho de que las nuevas máquinas fueran miles de veces mas rápidas que las
anteriores trajo aparejada la creación de unidades de entrada, salida y memoria
externa mucho mas veloces.

La invención de un nuevo tipo de transistor ("chip") provocó una verdadera


revolución en los circuitos electrónicos y sus procesos de fabricación. El nuevo
elemento es tan pequeño que en un dedal de costura caben mas de 50.000 chips.
Puede observarse en la imagen marcada con un círculo un circuito completo basado
en esta nueva "Tecnologia de Lógica Sólida". Debido a su tamaño se los denomina
microcircuitos. Los tiempos de operacion se comienzan a medir en nanosegundos.

(Fragmento extractado de la fuente bibliografica citada).


Publicación: Que hacen las computadoras y como lo hacen - IBM (1970)

Ken Olsen introduce el monitor


En 1960 Ken Olsen, que ha fundado en EE.UU. la empresa Digital Computers tres años antes,
produce el computador programable PDP-1, el primero en utilizar un monitor con tubo de rayos
catódicos. Olsen, prolífico inventor, obtiene también el reconocimiento de patentes de invención de
dispositivos trascendentales para el desarrollo de nuevos computadores, entre ellos diodos
transformadores de circuitos, dispositivos de memoria magnética y buffer en línea para impresoras.

Hitos: la invención del ratón


En 1963 Doug Engelbart inventa el ratón (mouse), su evolución décadas mas tarde se
extendera por todo el mundo al aplicarse a los computadores personales sistemas con
entorno grafico para sus usuarios.
 En 1963 se crea el ASCII (American Standard Code for Information Interchange),
código que permite la compatibilidad entre distintos ordenadores.

IBM 360
En 1964 IBM presenta el IBM sistema 360, con diferentes sistemas operativos
ahora compatibles entre si en versiones que escalan desde monousuarios
dotadas de sistema operativo DOS/360 hasta configuraciones multiusuarios
de tiempo compartido con una amplia gama de perifericos. La arquitectura de
estos sistemas adquieren el caracter de standard para su epoca.

Ley de Moore : una profecía


En 1964 Gordon Moore anuncia que la computacion duplicara en adelante su poder de procesamiento cada
18 meses. Moore y Robert Noyce emprenderán cuatro años mas tarde la creación de una de las mas
prosperas empresas en lo que resta del siglo : Intel dedicada a la fabricacion de microprocesadores. Digital
Equipment Corporation presenta su computador modelo PDP-8 computer, el primero de los
microcomputadores de fabricación masiva.
En 1966 Hewlett-Packard lanza el computador profesional de proposito general HP-2115
brindando prestaciones comparables hasta entonces solo por computadores cientificos y
soportando varios lenguajes tales como BASIC, ALGOL, and FORTRAN
INTEL y el primer microprocesador
En 1971 Intel introduce el primer microprocesador comercial en el mundo conocido como 4004, construido
en base a 2.300 transistores y con una capacidad de procesamiento de 60.000 cálculos por segundo. Los
microprocesadores tendrán un futuro venturoso constituyendo el producto tecnológico de mayor producción
masiva de la historia.

Origen del sistema UNIX


En 1973 Ken Thompson y Dennis Ritchie presentan el primer papel de trabajo sobre UNIX en
simposio sobre Principios de Sistemas Operativos.

Bill Gates funda Microsoft En 1975 en los EE.UU. el norteamericano Bill


Gates funda la empresa Microsoft cuyos programas de computación 20
años mas tarde serán usados por el 80% de las computadoras en todo el
mundo.
Altair 8080, avanzada en PC
En 1975 en EE.UU. la compañia MITS pone a la venta el Altair 8800
basado en el microprocesador de Intel 8080, 256 bytes de memoria
(expandible a 64K) y operando con lenguaje BASIC representando un
formidable exito de ventas por su performance y precio. Este equipo es el
primer antecedente de "computador personal".

IBM lanza las primeras PC


En 1981 IBM introduce las primeras PC iniciandose el vertiginosos crecimiento del mercado de los
computadores personales. Las prestaciones iniciales son de 4.77 MHz basadas en microprocesadores Intel
8088 y en el sistema operativo Microsoft´s MS-DOS.

Primeras PC LAN
En 1982 la primera PC LAN es presentada la Conferencia Nacional de Computadores en EE.UU. por Drew
Major, Kyle Powell, y Dale Neibaur, el software será conocido más adelante como Novell's Netware.
Apple y la aparición de Macintosh
En 1984 El lanzamiento de Macintosh, por Apple Computer marca un hito en la historia de los
computadores al introducir una revolucionaria interfaz grafica y por primera vez un comando de raton eficaz
para el usuario. Ademas incluye el procesador de texto MacWrite, incorporando por primera vez la habilidad
WYSIWYG (What You See Is What You Get). Los equipos estan basados en microprocesadores Motorola
68000. El producto logra un extraordinario exito de ventas.
 En 1993 Intel Corporation crea el primer microprocesador PENTIUM de lo que será un exitosa serie.

Microsoft presenta Windows 95


En 1995 Microsoft lanza al mercado conjuntamente con su sistema operativo Windows 95 la primera
versión del browser Internet Explorer 1.0

Historia y Evolucion de la Computadora

Por siglos los hombres han tratado de usar fuerzas y artefactos de diferente tipo para
realizar sus trabajos, para hacerlos más simples y rápidos. La historia conocida de los
artefactos que calculan o computan, se remonta a muchos años antes de Jesucristo.

* El Ábaco

Dos principios han coexistido respecto a este tema. Uno es usar cosas para contar, ya sea
los dedos, piedras, conchas, semillas.

El otro es colocar esos objetos en posiciones determinadas. Estos principios se reunieron en


el ábaco, instrumento que sirve hasta el día de hoy, para realizar complejos cálculos
aritméticos con enorme rapidez y precisión.

En el Siglo XVII en occidente se encontraba en uso la regla de cálculo, calculadora basada


en las investigaciones de Nappier, Gunther y Bissaker. John Napier (1550-1617) descubre
la relación entre series aritmética y geométricas, creando tablas que llama logaritmos.
Edmund Gunter se encarga de marcar los logaritmos de Napier en líneas. Bissaker por su
parte coloca las líneas de Nappier y Gunter sobre un pedazo de madera, creando de esta
manera la regla de cálculo. Durante más de 200 años, la regla de cálculo es perfeccionada,
convirtiéndose en una calculadora de bolsillo, extremadamente versátil.

Por el año 1700 las calculadoras numéricas digitales, representadas por el ábaco y las
calculadoras análogas representadas por la regla de cálculo, eran de uso común en toda
Europa.

* La Pascalina
La primera máquina de calcular mecánica, un precursor del ordenador digital, fue inventada
en 1642 por el matemático francés Blaise Pascal. Aquel dispositivo utilizaba una serie de
ruedas de diez dientes en las que cada uno de los dientes representaba un dígito del 0 al 9.
Las ruedas estaban conectadas de tal manera que podían sumarse números haciéndolas
avanzar el número de dientes correcto. En 1670 el filósofo y matemático alemán Gottfried
Wilhelm Leibniz perfeccionó esta máquina e inventó una que también podía multiplicar.

El inventor francés Joseph Marie Jacquard, al diseñar un telar automático, utilizó delgadas
placas de madera perforadas para controlar el tejido utilizado en los diseños complejos.
Durante la década de 1880 el estadístico estadounidense Herman Hollerith concibió la idea
de utilizar tarjetas perforadas, similares a las placas de Jacquard, para procesar datos.
Hollerith consiguió compilar la información estadística destinada al censo de población de
1890 de Estados Unidos mediante la utilización de un sistema que hacía pasar tarjetas
perforadas sobre contactos eléctricos.

* La máquina analítica

También en el siglo XIX el matemático e inventor británico Charles Babbage elaboró los
principios de la computadora digital moderna. Inventó una serie de máquinas, como la
máquina diferencial, diseñadas para solucionar problemas matemáticos complejos. Muchos
historiadores consideran a Babbage y a su socia, la matemática británica Augusta Ada
Byron (1815-1852), hija del poeta inglés Lord Byron, como a los verdaderos inventores de
la computadora digital moderna. La tecnología de aquella época no era capaz de trasladar a
la práctica sus acertados conceptos; pero una de sus invenciones, la máquina analítica, ya
tenía muchas de las características de un ordenador moderno. Incluía una corriente, o flujo
de entrada en forma de paquete de tarjetas perforadas, una memoria para guardar los datos,
un procesador para las operaciones matemáticas y una impresora para hacer permanente el
registro.

* Primeros Ordenadores

Los ordenadores analógicos comenzaron a construirse a principios del siglo XX. Los
primeros modelos realizaban los cálculos mediante ejes y engranajes giratorios. Con estas
máquinas se evaluaban las aproximaciones numéricas de ecuaciones demasiado difíciles
como para poder ser resueltas mediante otros métodos. Durante las dos guerras mundiales
se utilizaron sistemas informáticos analógicos, primero mecánicos y más tarde eléctricos,
para predecir la trayectoria de los torpedos en los submarinos y para el manejo a distancia
de las bombas en la aviación.
* Ordenadores electrónicos

1944 marca la fecha de la primera computadora, al modo actual, que se pone en


funcionamiento. Es el Dr. Howard Aiken en la Universidad de Harvard, Estados Unidos,
quien la presenta con el nombre de Mark I. Es esta la primera máquina procesadora de
información. La Mark I funcionaba eléctricamente, instrucciones e información se
introducen en ella por medio de tarjetas perforadas y sus componentes trabajan basados en
principios electromecánicos. A pesar de su peso superior a 5 toneladas y su lentitud
comparada con los equipos actuales, fue la primer máquina en poseer todas las
características de una verdadera computadora.

La primera computadora electrónica fue terminada de construir en 1946, por J.P.Eckert y


J.W.Mauchly en la Universidad de Pensilvania, U.S.A. y se le llamó ENIAC. Con ella se
inicia una nueva era, en la cual la computadora pasa a ser el centro del desarrollo
tecnológico, y de una profunda modificación en el comportamiento de las sociedades
5 Generaciones de las Computadoras
Generaciones de las computadoras

Quinta generación: Surge la PC tal y cual la conocemos en la actualidad. IBM presenta su


primera computadora personal y revoluciona en el sector informático. La quinta generación
de computadoras, también conocida por sus siglas en inglés, FGCS (de Fifth Generation
Computer Systems) fue un ambicioso proyecto propuesto por Japón a finales de la década de
1970. Su objetivo era el desarrollo de una nueva clase de computadoras que utilizarían técnicas y
tecnologías de inteligencia artificial tanto en el plano del hardware como del software,1 usando el
lenguaje PROLOG2 3 4 al nivel del lenguaje de máquina y serían capaces de resolver problemas
complejos, como la traducción automática de una lengua natural a otra (del japonés al inglés, por
ejemplo).
El propósito de la Inteligencia Artificial es equipar a las Computadoras con "Inteligencia
Humana" y con la capacidad de razonar para encontrar soluciones. Otro factor fundamental del
diseño, la capacidad de la Computadora para reconocer patrones y secuencias de procesamiento
que haya encontrado previamente, (programación Heurística) que permita a la
Computadora recordar resultados previos e incluirlos en el procesamiento, en esencia, la
Computadora aprenderá a partir de sus propias experiencias usará sus Datos originales para
obtener la respuesta por medio del razonamiento y conservará esos resultados para posteriores
tareas de procesamiento y toma de decisiones. El conocimiento recién adquirido le servirá como
base para la próxima serie de soluciones.
Como unidad de medida del rendimiento y prestaciones de estas computadoras se empleaba la
cantidad de LIPS (Logical Inferences Per Second) capaz de realizar durante la ejecución de las
distintas tareas programadas. Para su desarrollo se emplearon diferentes tipos de
arquitecturas VLSI (Very Large Scale Integration).
El proyecto duró once años, pero no obtuvo los resultados esperados: las computadoras actuales
siguieron así, ya que hay muchos casos en los que, o bien es imposible llevar a cabo
una paralelización del mismo, o una vez llevado a cabo ésta, no se aprecia mejora alguna, o en el
peor de los casos, se produce una pérdida de rendimiento. Hay que tener claro que para realizar
un programa paralelo debemos, para empezar, identificar dentro del mismo partes que puedan
ser ejecutadas por separado en distintos procesadores. Además, es importante señalar que un
programa que se ejecuta de manera secuencial, debe recibir numerosas modificaciones para que
pueda ser ejecutado de manera paralela, es decir, primero sería interesante estudiar si realmente
el trabajo que esto conlleva se ve compensado con la mejora del rendimiento de la tarea después
de paralelizarla.
Cuarta generación (1972-1980): Fase caracterizada por la integración de los
componentes electrónicos, lo que propició la aparición del microprocesador, es decir,
un único circuito integrado en el que se reúnen los elementos básicos de la
máquina. La denominada Cuarta Generación (1971 a la fecha) es el producto de la
microminiaturización de los circuitos electrónicos. El tamaño reducido del microprocesador de
chips hizo posible la creación de las computadoras personales (PC). Hoy en día las tecnologías LSI
(Integración a gran escala) y VLSI (integración a muy gran escala) permiten que cientos de miles
de componentes electrónicos se almacenen en un chip. Usando VLSI, un fabricante puede hacer
que una computadora pequeña rivalice con una computadora de la primera generación que
ocupaba un cuarto completo. Hicieron su gran debut las microcomputadoras o Computadoras
Personales (PC´s) .
El primer microprocesador de 8 bits fue el Intel 8008, desarrollado en 1972 para su empleo en
terminales informáticos. El Intel 8008 contenía 3.300 transistores. El primer microprocesador
realmente diseñado para uso general, desarrollado en 1974, fue el Intel 8080 de 8 bits, que
contenía 4.500 transistores y podía ejecutar 200.000 instrucciones por segundo. Los
microprocesadores modernos tienen una capacidad y velocidad mucho mayores.

Entre ellos figuran el Intel Pentium Pro, con 5,5 millones de transistores; el UltraSparc-II, de Sun
Microsystems, que contiene 5,4 millones de transistores; el PowerPC 620, desarrollado
conjuntamente por Apple, IBM y Motorola, con 7 millones de transistores, y el Alpha 21164A, de
Digital Equipment Corporation, con 9,3 millones de transistores. El Microprocesador, es un
circuito electrónico que actúa como unidad central de proceso de un ordenador, proporcionando
el control de las operaciones de cálculo. Un "chip" sencillo actualmente contiene la unidad de
control y la unidad de aritmética/lógica. El tercer componente, la memoria primaria, es operado
por otros "chips".

Los microprocesadores también se utilizan en otros sistemas informáticos avanzados, como


impresoras, automóviles o aviones. En 1995 se produjeron unos 4.000 millones de
microprocesadores en todo el mundo. El microprocesador es un tipo de circuito sumamente
integrado. Los circuitos integrados, también conocidos como microchips o chips, son circuitos
electrónicos complejos formados por componentes extremadamente pequeños formados en una
única pieza plana de poco espesor de un material conocido como semiconductor.

Se dejaron de llamar computadoras y se llamaban PC mucho mas económicas.

Tercera generación (1965-1971): Comienzan a utilizarse los circuitos integrados, lo


cual permitió abaratar costos al tiempo que se aumentaba la capacidad de procesamiento y se
reducía el tamaño de las máquinas. Comienza a investigarse también programas y aplicaciones
que facilitan las operaciones con las computadoras sin necesidad de conocer un lenguaje de
programación. A mediados de los años 60 se produjo la invención del circuito integrado o
microchip, por parte de Jack St. Claire Kilby y Robert Noyce. Después llevó a Ted Hoff a la
invención del microprocesador, en Intel. A finales de 1960, investigadores como George
Gamow notó que las secuencias de nucleótidos en el ADN formaban un código, otra forma de
codificar o programar.
A partir de esta fecha, empezaron a empaquetarse varios transistores diminutos y otros
componentes electrónicos en un solo chip o encapsulado, que contenía en su interior un circuito
completo: un amplificador, un oscilador, o una puerta lógica. Naturalmente, con estos chips
(circuitos integrados) era mucho más fácil montar aparatos complicados: receptores
de radio o televisión y computadoras.
En 1965, IBM anunció el primer grupo de máquinas construidas con circuitos integrados, que
recibió el nombre de serie Edgar.

Estas computadoras de tercera generación sustituyeron totalmente a las de segunda,


introduciendo una forma de programar que aún se mantiene en las grandes computadoras
actuales.

Esto es lo que ocurrió en (1964-1971) que comprende de la Tercera generación de computadoras:

 Menor consumo de energía


 Se desarrollaron los "chips" para almacenar y procesar la información. Un "chip" es una pieza de silicio
que contiene los componentes electrónicos en miniatura llamados semiconductore
 Los circuitos integrados recuerdan los datos, ya que almacenan la información como cargas eléctricas.
 Surge la multiprogramación
 Las computadoras pueden llevar a cabo ambas tareas de procesamiento o análisis matemáticos

 Emerge la industria del "software".


 Apreciable reducción del espacio
 Aumento de fiabilidad
 Teleproceso
 Renovación de periféricos
 Minicomputadoras, no tan costosas y con gran capacidad de procesamiento. Algunas de las más
populares fueron la PDP-8 y la PDP-11
 Se calculó π (Número Pi) con 500.000 decimales

La computadora más exitosa fue la IBM y el modelo fue 360, todas las computadoras son
compatibles entre si. Empezaron a servir para multitareas.
Segunda generación (1953-1964): Las computadoras de la segunda generación ya no son de
válvulas de vacío, sino con transistores, son más pequeñas y consumen menos electricidad que las
anteriores, la forma de comunicación con estas nuevas computadoras es mediante lenguajes más
avanzados que el lenguaje de máquina, y que reciben el nombre de "lenguajes de alto nivel" o
lenguajes de programación. Los transistores eran más rápidos, pequeños y confiables que los
tubos al vacío. Se inician los sistemas operativos, es decir, las computadoras con una
programación previa que interpretan las instrucciones mediante comandos introducidos por el
usuario en un lenguaje. Usaba anillos para almacenar información. El primer lenguaje de
programación de propósito general de alto-nivel, FORTRAN, también estaba desarrollándose en
IBM alrededor de este tiempo. Aparecen muchas compañías y las computadoras eran bastante
avanzadas para su época, como la serie 5000 de Burroughs y la ATLAS de la Universidad de
Manchester.

Las características más relevantes de las computadoras de la segunda generación son:

 Estaban construidas con electrónica de transistores


 Se programaban con lenguajes de alto nivel
 200 transistores podían acomodarse en la misma cantidad de espacio que un tubo al vacío.
 Se usaban en aplicaciones de sistemas de reservaciones de líneas aéreas, control de tráfico
aereo y simulaciones de propósito general
 La marina de los Estados Unidos desarrolla el primer simulador de vuelo,
"Whirlwind I"
 Se comenzó a disminuir el tamaño de las computadoras.

Primera generación (1940-1952): En esta generación había un gran desconocimiento de las


capacidades de las computadoras, puesto que se realizó un estudio en esta época que determinó
que con veinte computadoras se saturaría el mercado de los Estados Unidos en el campo de
procesamiento de datos}.
En esta etapa las computadoras funcionaban con válvulas y se utilizaban exclusivamente en el
ámbito científico o militar. La programación implicaba la modificación directa de los valores de
los circuitos de las máquinas, con el consecuente gasto de tiempo y esfuerzo. Usaba cilindros
magnéticos para almacenar datos.

La primera generación de computadoras era a base de bulbos o tubos de vacío, y la comunicación


era en términos de nivel más bajo que puede existir, que se conoce como lenguaje de máquina.

Primera computadora digital electrónica en la historia. No fue un modelo de producción, sino una
máquina experimental. Tampoco era programable en el sentido actual. Se trataba de un enorme
aparato que ocupaba todo un sótano en la universidad. Construida con 18.000 bulbos consumía
varios KW de potencia eléctrica y pesaba algunas toneladas. Era capaz de efectuar cinco mil
sumas por segundo. Fue hecha por un equipo de ingenieros y científicos encabezados por los
doctores John W. Mauchly y J. Prester Eckert en la universidad de Pennsylvania, en los Estados
Unidos.

Características:
 Estaban construidas con electrónica de válvulas.
 Se programaban en lenguaje de máquina.
 Las máquinas son grandes y costosas (de un costo aproximado de 10,000 dólares).
 La primera computadora fue la ENIAC (300 toneladas)
Un programa es un conjunto de instrucciones para que la máquina efectúe alguna tarea, y el
lenguaje más simple en el que puede especificarse un programa se llama lenguaje de máquina
(porque el programa debe escribirse mediante algún conjunto de códigos binarios).bbbbbbbitch

Das könnte Ihnen auch gefallen