Sie sind auf Seite 1von 23

AÑO DEL BUEN SERVICIO AL CIUDADANO.

TEMA :

COMPUTADOR

CURSO :

COMPUTACION E INFORMATICA.

PROFESOR :

KELVIN SAAVEDRA ROJAS.

ALUMNOS : ROSA RAYMUNDO SERNAQUE .

PIURA DICIEMBRE DEL 2017


HISTORIA DEL COMPUTADOR Y QUIENES FUERON SUS
CREADORES

La computadora u ordenador es un invento que ha


marcado un hito en la historia de la humanidad
comparable con la rueda o el descubrimiento del
fuego. Se trata de un ingenio capaz de ejecutar
operaciones matemáticas y lógicas a una velocidad
sorprendente. En CurioSfera.com te explicamos
la historia de la computadora y su origen. También
descubrirás quién inventó la computadora y muchos
más detalles, curiosidades y anécdotas.

El mundo de los cálculos matemáticos y del manejo


ágil de la informaciónha sido una preocupación para el
ser humano desde hace muchísimos años. Es cierto
que hace ya un par de siglos existían ciertos
artefactos o máquinas mecánicas que eran capaces
de realizar cálculos simples, pero fue en el siglo XX
cuando la electrónica causa un auténtica revolución
en estos ingenios.

También es verdad que la invención de la máquina


calculadora fue en 1645 por parte del francés Blaise
Pascal (1623-1662) agilizaba las operaciones
aritméticas complejas, pero aquello no resultaba
suficiente. Te recomendamos la lectura de:

Historia de la calculadora.

Siempre se sintió la necesidad de que la mano fuera


tan rápida como el pensamiento, y es que la
imaginación del hombre ha ido siempre por delante de
sus posibilidades técnicas, al menos hasta mediados
del siglo XX.
Historia de las computadoras siglo XIX

Se puede considerar que el pionero en esta lucha


contra la limitación material y la capacidad espiritual
fue el matemático y científico británico Charles
Babbage (1791-1871).

Fue él quien primero vio la posibilidad, en 1823, de


crear una máquina que hiciera posible operaciones
matemáticas que el hombre no podría realizar a lo
largo de una vida por existir. Eran cálculos
matemáticos de tal complejidad que no pueden
emprenderse ya que nadie vive lo suficiente para
verlos acabados.

Babbage convenció al gobierno inglés para que


financiara su “ingenio analítico” capaz de
solucionar todo tipo de cálculos. (Tal vez te
interese: La historia de los números).

Los esfuerzos de Babbage se unieron a los de Herman


Hollerith (1860-1929) que estaba confeccionando el
censo de Estados Unidos y tenía el problema de que
apenas había terminado el censo de un ciclo temporal
ya tenía que comenzar el próximo, dada la cantidad de
tiempo que llevaban los cálculos y tabulaciones.

Herman Hollerith fue la persona que introdujo


las primeras tarjetas perforadas para almacenar
información. Con este revolucionarios sistema para la
época, consiguió reducir el tiempo a la mitad.
Como curiosidad, existió una especie de computadora
que funcionó a vapor. El programa de operaciones se
almacenaba en una cinta perforada, método que
todavía se seguía empleando en los años sesenta. La
idea procedía del sistema de cartulinas perforadas
utilizado en el año 1801 por Joseph Marie
Jacquard (1752-1834) para hacer que los telares
urdiesen complicados tejidos.

Pero el primer ordenador nunca llegó a completarse;


de cualquier forma, si hubiera sido desarrollado del
todo no hubiera dado resultados ya que no existía
tecnología suficiente: funcionaba con palancas, bielas,
ruedas dentadas, engranajes pesado y lentos que no
permitían realizar cálculos rápidos.

Solo los electrones, cuya velocidad se aproxima a la


de la luz, podrían llevar a cabo los sueños del padre del
ordenador. Al finalizar, es posible que también te
interese conocer quién inventó el teléfono.
Historia de las computadoras siglo XX

El primer esbozo de un computador moderno lo


acometió en 1930 el ingeniero alemán Konrad
Zuse (1910-1995. Construyó una calculadora que ya
operaba según el modo binario: la Z1. Con aquel
ingenio se podía realizar una multiplicación compleja
en tres segundos.

En 1940 propuso al gobierno alemán financiar su


desarrollo, crear una máquina de pensar y resolver de
forma rápida cualquier problema, pero Adolf Hitler no
le hizo caso.

Se considera que en 1942 John Vincent Atanassoff


inventó la primera computadora digital. Por tanto, no si
gran polémica y disputas, se considera al ingeniero
electrónico estadounidense John Vincent Atanassoff
(1903-1955) el inventor de la computadora. Pero de ello
hablamos con detalle un poco más abajo.

Al comienzo de la Segunda Guerra Mundial los


especialistas ingleses en cálculo buscaban la forma de
decodificar los mensajes secretos alemanes y
encargaron el asunto al húngaro Alan Mathison
Turing (1912-1954) inventor de una máquina de
calcular que lleva su nombre.
La primera computadora se ensambló en 1943 en
Bletchley, nos referimos al computador
electromecánico llamado Colossus. El enorme aparato
podía tratar cinco mil caracteres por segundo, para lo
que requería de más de dos mil lámparas. Esta
máquina podía descifrar los mensajes de la
inteligencia alemana, pero no era exactamente un
ordenador.

Al tiempo que Turing trabajaba en Londres, Estados


Unidos buscaba la forma de poner al día la máquina de
Babbage. En 1944 el ingeniero Howard H.Aiken (1900-
1973) daba a conocer su máquina: el Harvard Mark 1,
financiada por IBM y se mejoró la calculadora de
Babbage.

Paso importantísimo fue dado en 1946 con el


computador electrónico ENIAC o Electronic Numerical
Integrator and Computer de John Presper
Eckert (1919-1995) y John William Mauchly (1907-
1980). El invento se debió al encargo hecho a los
científicos citados por el ejército norteamericano
necesitado de una máquina rápida para calcular la
trayectoria de los proyectiles.

Como curiosidad, decir que aquel aparato era inmenso:


pesaba 30 toneladas que ocupaban una superficie de
170 m2. Su cableado tenía varios kilómetros y utilizaba
18.000 válvulas de radio que consumían gran cantidad
de electricidad. Pero se calentaban tanto y tan deprisa
que su refrigeración suponía un problema adicional.
Puedes ver también la historia de la radio.
A pesar de todo, el armatoste tenía una capacidad de
proceso mil veces inferior a la de un ordenador
personal o PC de los años noventa, y no podía
almacenar ni la milésima parte de información.

Pero la llegada e introducción de la electrónica hizo


posible contar con un factor nuevo de capital
importancia: la velocidad operativa. Un paso
importantísimo dentro de la historia de la
computadora y su evolución.

El ordenador con programación almacenada nacería


hacia 1948; lo lanzó IBM con una revolucionaria idea
fruto de las investigaciones de John von
Neumann (1903-1957) de la Universidad de Princeton,
en New Jersey.

La presentación de esta primera computadora


electrónica de la Historiatuvo lugar en Nueva York, el
24 de enero de 1948: el modelo IBM SSEC, dotado de
13.500 lámparas al vacío y 21.000 relés. Consistiendo
su primera prueba en sumar 3.500 números de 14
cifras decimales cada uno, en un solo segundo.
Pero la computadora moderna solo fue posible con la
invención del transistor en 1947. El término fue idea
de Maurice Perret, científico francés a quien en 1955
pidió consejo un alto cargo de IBM sobre cómo llamar
a aquellas nuevas máquinas y propuso el de
computadora u ‘ordenador’, término que procedía de la
Teología, donde figura como uno de los adjetivos que
se aplicaban a Dios ‘Ordenador del mundo’.

A principio de los años 60 los


chips, microchips y circuitos integradosentraban en
escena. Disminuyendo el tamaño de las computadoras
y aumentando su potencia sensiblemente.

La década de 1970 fue la de


las supercomputadoras o superordenadores, máquinas
pensantes que en los años ochenta ya habían llegado a
una gran perfección. El ETA 10 (1987) podía realizar
10.000 millones de operaciones por segundo.

Poco tiempo después, en 1988, la empresa Cray creó


la Y-MP creaba un supercomputador que costaba
veinte millones de dólares y utilizaba tecnología de
alta densidad y un sistema de refrigeración muy
eficiente.

El mundo de las computadoras es todavía un universo


en expansión al que no se le ve límite porque su
complejidad y posibilidades son infinitas. Prueba de
ellos es que desde hace muchos años se viene
cumpliendo la denominada Ley de Moore, una teoría
que indica que aproximadamente cada dos años se
consigue duplicar el número de transistores en
un microprocesador.

Quién inventó la computadora

Lo cierto es que es muy complejo atribuir a una única


persona el descubrimiento o la invención de las
computadoras. Para muchos expertos, son diversas las
personas que contribuyeron con sus creaciones, ideas
y conocimientos para que este ingenio viese la luz.

Muchos investigadores concentraron sus esfuerzos en


el diseño de una máquina de cálculo digital. Pero si
existe una persona a la que se le puede atribuir el
primer prototipo de computadora al ingeniero
electrónico y físico Estadounidense de origen
Búlgaro John Vincent Atanassoff, nacido en New York
el 4 de Octubre del año 1903.

Realizó diversos estudios y experimentos sobre la


realización de cálculos matemáticos mediante
aparatos o máquinas analógicas, ya que no había otra
alternativa en su tiempo.
Según palabras de Atanassoff, estos ingenios eran
muy imprecisos y lentos. Por este motivo, era
necesario la invención de una máquina de cálculo
mucho más eficiente, veloz y fiable que las que
existían.

No dudó en ponerse manos a la obra y en 1933


comenzó un laborioso proceso de desarrollo e
investigación sobre el tema. El objetivo final no era
otro que conseguir lo que se conoce hoy en día como
el primer computador u ordenador digital.

Con la ayuda, colaboración y asistencia del ingeniero


eléctrico estadounidense Clifford Berry (1918-1963),
enfocaron sus esfuerzos en cuatro pilares o conceptos:

1. Electrónica para los componentes operativos

2. Sistema binario para la realización de cálculos

3. Condensadores para el almacenamiento de


datos
4. Sistema lógico para la realización de cálculos.

Tras
unos pocos años, en 1942 se presentó el primer
prototipo de computadora. Le pusieron el nombre
de ABC (acrónimo de Antanassoff-Berry Computers).
Dicho artefacto es considerado como la primera
computadora digital del mundo.

Como curiosidad, decir que Antanassoff cometió el


error de no patentar su invento al momento. Esto
provocó que Jhon Mauchly (1907-1980) intentara
adelantarse y les llevara a ambos a un extenso
proceso judicial. Finalmente, en el año 1972, se le
otorgó el mérito de ser el padre de la computadora a
Antanassoff.

SISTEMA BINARIOS ,HEXAGEXIMALES Y SUPER


COMPUTADOR QUE SON

sistema hexadecimal (abreviado como 'Hex', no


confundir con sistema sexagesimal) es el sistema de
numeración posicional que tiene como base el 16. Su
uso actual está muy vinculado a
la informática y ciencias de la computación donde las
operaciones de la CPU suelen usar el byte u octeto
como unidad básica de memoria; y, debido a que un
byte representa valores posibles, y esto puede
representarse como , que equivale al número en base
16 , dos dígitos hexadecimales corresponden
exactamente a un byte.
En principio, dado que el sistema usual de numeración
es de base decimal y, por ello, sólo se dispone de diez
dígitos, se adoptó la convención de usar las seis
primeras letras del alfabeto latino para suplir los
dígitos que nos faltan. El conjunto de símbolos es el
siguiente:
Se debe notar que A = 10, B = 11, C = 12, D = 13, E = 14
y F = 15. En ocasiones se emplean letras minúsculas
en lugar de mayúsculas. Como en cualquier sistema de
numeración posicional, el valor numérico de cada
dígito es alterado dependiendo de su posición en la
cadena de dígitos, quedando multiplicado por una
cierta potencia de la base del sistema, que en este
caso es 16. Por ejemplo: 3E0A16 = 3×163 + E×162 +
0×161 + A×160 = 3×4096 + 14×256 + 0×16 + 10×1 =
15882.
El sistema hexadecimal actual fue introducido en el
ámbito de la computación por primera vez
por IBM en 1963. Una representación anterior, con 0-9
y u-z, fue usada en 1956 por la computadora Bendix G-
15.
SISTEMA BINARIO

Página del artículo Explication de l'Arithmétique


Binaire de Leibniz.
El antiguo matemático indio Pingala presentó la
primera descripción que se conoce de un sistema de
numeración binario en el siglo tercero antes de
nuestra era, lo cual coincidió con su descubrimiento
del concepto del número cero.
Una serie completa de 8 trigramas y 64
hexagramas (análogos a 3 bits) y números binarios de
6 bits eran conocidos en la antigua China en el texto
clásico del I Ching. Series similares de combinaciones
binarias también han sido utilizadas en sistemas de
adivinación tradicionales africanos, como el Ifá, así
como en la geomancia medieval occidental.
Un arreglo binario ordenado de los hexagramas del I
Ching, representando la secuencia decimal de 0 a 63, y
un método para generar el mismo fue desarrollado por
el erudito y filósofo Chino Shao Yong en el siglo XI.
En 1605 Francis Bacon habló de un sistema por el cual
las letras del alfabeto podrían reducirse a secuencias
de dígitos binarios, las cuales podrían ser codificadas
como variaciones apenas visibles en la fuente de
cualquier texto arbitrario.
En 1670 Juan Caramuel publica su libro Mathesis
Biceps; en las páginas XLV a XLVIII se da una
descripción del sistema binario.
El sistema binario moderno fue documentado en su
totalidad por Leibniz, en el siglo XVII, en su artículo
"Explication de l'Arithmétique Binaire". En él se
mencionan los símbolos binarios usados por
matemáticos chinos. Leibniz utilizó el 0 y el 1, al igual
que el sistema de numeración binario actual.
En 1854, el matemático británico George Boole publicó
un artículo que marcó un antes y un después,
detallando un sistema de lógica que terminaría
denominándose Álgebra de Boole. Dicho sistema
desempeñaría un papel fundamental en el desarrollo
del sistema binario actual, particularmente en el
desarrollo de circuitos electrónicos.
Aplicaciones
En 1937, Claude Shannon realizó su tesis doctoral en
el MIT, en la cual implementaba el Álgebra de Boole y
aritmética binaria utilizando relés y conmutadores por
primera vez en la historia. Titulada Un Análisis
Simbólico de Circuitos Conmutadores y Relés, la tesis
de Shannon básicamente fundó el diseño práctico de
circuitos digitales.
En noviembre de 1937, George Stibitz, trabajando por
aquel entonces en los Laboratorios Bell, construyó una
computadora basada en relés —a la cual apodó
"Modelo K" (porque la construyó en una cocina, en
inglés "kitchen")— que utilizaba la suma binaria para
realizar los cálculos. Los Laboratorios Bell autorizaron
un completo programa de investigación a finales de
1938, con Stibitz al mando.
El 8 de enero de 1940 terminaron el diseño de una
"Calculadora de Números Complejos", la cual era
capaz de realizar cálculos con números complejos. En
una demostración en la conferencia de la Sociedad
Estadounidense de Matemática, el 11 de septiembre
de 1940, Stibitz logró enviar comandos de manera
remota a la Calculadora de Números Complejos a
través de la línea telefónica mediante un teletipo. Fue
la primera máquina computadora utilizada de manera
remota a través de la línea de teléfono. Algunos
participantes de la conferencia que presenciaron la
demostración fueron John von Neumann, John
Mauchly y Norbert Wiener, quien escribió acerca de
dicho suceso en sus diferentes tipos de memorias en
la cual alcanzó diferentes logros.
Véase también: Código binario

Representación
En el sistema binario solo se necesitan dos cifras.
En informática, un número binario puede ser
representado por cualquier secuencia de bits (dígitos
binarios), que suelen representar cualquier mecanismo
capaz de usar dos estados mutuamente excluyentes.
Las siguientes secuencias de símbolos podrían ser
interpretadas como el mismo valor numérico binario:
1010011011
¦ − ¦ −− ¦ ¦ − ¦ ¦
xoxooxxoxx
ynynnyyny y
El valor numérico representado en cada caso depende
del valor asignado a cada símbolo. En una
computadora, los valores numéricos pueden
representar dos voltajes diferentes; también pueden
indicar polaridades magnéticas sobre un disco
magnético. Un "positivo", "sí", o "sobre el estado" no
es necesariamente el equivalente al valor numérico de
uno; esto depende de la nomenclatura usada.
De acuerdo con la representación más habitual, que es
usando números arábigos, los números binarios
comúnmente son escritos usando los símbolos 0 y 1.
Los números binarios se escriben a menudo con
subíndices, prefijos o sufijos para indicar su base. Las
notaciones siguientes son equivalentes:

 100101 binario (declaración explícita de formato)

 100101b (un sufijo que indica formato binario)

 100101B (un sufijo que indica formato binario)

 bin 100101 (un prefijo que indica formato binario)

 1001012 (un subíndice que indica base 2 (binaria)


notación)

 %100101 (un prefijo que indica formato binario)

 0b100101 (un prefijo que indica formato binario,


común en lenguajes de programación)

Decimal a binarios
Se divide el número del sistema decimal entre 2, cuyo
resultado entero se vuelve a dividir entre 2, y así
sucesivamente hasta que el dividendo sea menor que
el divisor, 2. Es decir, cuando el número a dividir sea 1
finaliza la división.
A continuación se ordenan los restos empezando
desde el último al primero, simplemente se colocan en
orden inverso a como aparecen en la división, se les da
la vuelta. Este será el número binario que buscamos.
Ejemplo
Transformar el número decimal 131 en binario. El
método es muy simple:

131 dividido entre 2 da 65 y el residuo es igual a 1


65 dividido entre 2 da 32 y el residuo es igual a 1
32 dividido entre 2 da 16 y el residuo es igual a 0
16 dividido entre 2 da 8 y el residuo es igual a 0
8 dividido entre 2 da 4 y el residuo es igual a 0
4 dividido entre 2 da 2 y el residuo es igual a 0
2 dividido entre 2 da 1 y el residuo es igual a 0
1 dividido entre 2 da 0 y el residuo es igual a 1
-> Ordenamos los residuos, del último al
primero: 10000011

En sistema binario, 131 se escribe 10000011


Ejemplo
Transformar el número decimal 100 en binario.

Otra forma de conversión consiste en un método


parecido a la factorización en números primos. Es
relativamente fácil dividir cualquier número entre
2. Este método consiste también en divisiones
sucesivas. Dependiendo de si el número es par o
impar, colocaremos un cero o un uno en la
columna de la derecha. Si es impar, le restaremos
uno y seguiremos dividiendo entre dos, hasta
llegar a 1. Después solo nos queda tomar el
último resultado de la columna izquierda y todos
los de la columna de la derecha y ordenar los
dígitos de abajo a arriba.
supercomputadora o un superordenador es aquella
con capacidades de cálculo muy superiores a las
computadoras comunes y de escritorio y que son
usadas con fines específicos. Hoy día los términos de
supercomputadora y superordenador están siendo
reemplazados por computadora de alto
rendimiento y ambiente de cómputo de alto
rendimiento, ya que las supercomputadoras son un
conjunto de poderosos ordenadores unidos entre sí
para aumentar su potencia de trabajo y rendimiento. Al
año 2011, los superordenadores más rápidos
funcionaban en aproximadamente más de
1 petaflops (que en la jerga de la computación
significa que realizan más de 1000 billones de
operaciones por segundo). La lista de
supercomputadoras se encuentra en la lista TOP500.

Estaciones de trabajo de una computadora

Estación de trabajo: como un término informático, es


un computador con altos rendimientos destinado para
trabajos técnicos o científicos. Si se utiliza una red
informática, la definición para una estación de trabajo
es: cualquier computadora cliente conectada a la red
que acceda a los recursos de un computador servidor.
Este término es algo ambiguo, por esta razón este
texto tratará de usar las definiciones adecuadas para
aclarar diferencias.
Las estaciones de trabajo o workstations, son equipos
de alto nivel, capaz de manejar aplicaciones que
requieren poder de computador, constan de procesador o
varios procesadores, disco duro, pantalla y demás periféricos que
componen un computador funcional. En ocasiones se puede utilizar
una estación de trabajo como un servidor para compartir información
o recursos.
Las terminales tontas son estaciones de trabajo sin disco, solo
incluye monitor, teclado, memoria, instrucciones de arranque en
memoria ROM y por supuesto una memoria de red para el enlace. Los
programas que utilizan este tipo de equipos, se carga desde el equipo
servidor. Es por ello que muchos no las consideran estaciones de
trabajo.
Las estaciones de trabajo clientes, son capaces de correr programas
de manera independiente del servidor; pero una terminal tonta no es
capaz de realizar un procesamiento independiente.

Componentes de una estación de trabajo:


Las estaciones de trabajo deben de ser equipos fiables, con
características avanzadas para trabajar en entornos de múltiples
procesos. En general las estaciones de trabajo deben de ofrecer
mayor rendimiento que cualquier sobremesa PC o computadora
personal, preferiblemente en lo que respecta a procesamiento y
gráficas (manipular diseños 3D).

Utilidad de las Estaciones de trabajo:


Por ser un ordenador de alta gama, generalmente es orientada para
uso comercial, siendo utilizada como un computador para tareas que
requieran alto desempeño o haciendo la función de servidores en
ocasiones.

Se pudiera elegir una workstation para uso personal, si el trabajo en


casa requiere utilizar muchos recursos, pero hay que tomar en cuenta
que la elección de estos ORDENADORES SOBREPASA EL PRECIO DE
UN COMPUTADOR ESTÁNDAR POR SUS PRESTACIONES.
Elementos de una computadora

Los elementos de la
computadora son de dos tipos, el hardware y el
software. La computadora o computador es una
máquina que recibe y transmite datos, los procesa y
los transforma en información útil. Están compuestas
visualmente por una serie de circuitos integrados
entre otros componentes y accesorios que ejecutan
tareas de forma rápida y eficaz. LA computadora sin
duda nos facilita la vida a todos, fueron inventadas
para realizar tareas y trabajos de forma rápida y
organizada

El software es la parte lógica de la computadora, es el


conjunto de componentes lógicos que hacen posible
una tarea o una instrucción. Está compuesto de
programas operativos y aplicaciones. Es el cerebro o
pensamiento de la computadora, lo que hace posible
su funcionamiento correcto.
Sistema operativo
De los elementos de la computadora no físicos es
el más básico, ya que sin un sistema operativo el
computador no podría funcionar. Es un programa o un
conjunto de órdenes y programas que controlan todos
los procesos básicos de la máquina y permite a su vez
el funcionamiento de otros programas. Ejemplos de
algunos sistemas operativos son: Windows, MAC,
Linux, Unix, Android, Google Chrome OS.
Aplicaciones de escritorio Office
Entre los elementos de una computadora de casa u
oficina, nunca debe faltar un procesador de textos, un
software para hacer presentaciones y uno para hojas
de cálculo. El conjunto de aplicaciones de escritorio
Office, de Microsoft es compatible con la mayoría de
computadoras e incluye dichos programas, es esencial
y básico para cualquier persona. Cuenta
con aplicaciones como Microsoft Word, Microsoft
Excel y Microsoft Power Point
Utilidades para edición de sonido, video o imagen
Al igual que los programas de oficina, estas
aplicaciones para editar sonidos y videos son básicas
en todas las computadoras tales como Power Point
(Windows imagen), Audacity (edición de audio en
Linux) o Movie Maker (edición de videos, Windows).
Elementos de la computadora físicos: El Hardware
El hardware comprende toda la parte física de los
elementos de la computadora. El hardware típico de
una computadora está compuesto básicamente por un
monitor, placa principal, CPU, memoria RAM, fuente de
alimentación, unidad lectora de discos (CD, DVD),
disco duro, teclado y ratón o mouse.
CPU o unidad central de procesamiento
Es la encargada de administrar y ejecutar procesos
que sean solicitados por el sistema operativo en curso.
Administra y determina que tareas en ejecución son
más prioritarias y cuales son secundarias. Algunos
ejemplos de estas unidades son el Intel Core Haswell
(2013), Intel Core Ivy Bridge (2012) y el AMD Fusion de
Turion (2011).
Unidad lectora de discos
Es un aparato o dispositivo de almacenamiento de
datos que se encarga de la lectura de discos ya sea en
formato CD o DVD, esto con el fin de reproducir audio o
video. La unidad hace girar el disco a una velocidad
constante, esto con la finalidad de ser leído por la
unidad.
Tarjeta de interfaz de red
La tarjeta de red es un elemento periférico que
permite la comunicación con otros aparatos
conectados entre sí. Esto permite compartir recursos
entre dos computadoras. Permite que exista una “red
de computadoras”.

Das könnte Ihnen auch gefallen