Beruflich Dokumente
Kultur Dokumente
las siglas CPU, del inglés: Central Processing Unit), es el hardware dentro de un
ordenador u otros dispositivos programables, que interpreta las instrucciones de un
programa informático mediante la realización de las operaciones básicas
aritméticas, lógicas y de entrada/salida del sistema. El término, y su acrónimo,
han estado en uso en la industria de la Informática por lo menos desde el principio
de los años 1960.1 La forma, el diseño de CPU y la implementación de las CPU ha
cambiado drásticamente desde los primeros ejemplos, pero su operación fundamental
sigue siendo la misma.
Un ordenador puede tener más de una CPU; esto se llama multiprocesamiento. Todas
las CPU modernas son microprocesadores, lo que significa que contienen un solo
circuito integrado (chip). Algunos circuitos integrados pueden contener varias CPU
en un solo chip; estos son denominados procesadores multinúcleo. Un circuito
integrado que contiene una CPU también puede contener los dispositivos periféricos,
y otros componentes de un sistema informático; a esto se llama un sistema en un
chip (SoC).
Dos componentes típicos de una CPU son la unidad aritmético lógica (ALU), que
realiza operaciones aritméticas y lógicas, y la unidad de control (CU), que extrae
instrucciones de la memoria, las decodifica y las ejecuta, llamando a la ALU cuando
sea necesario.
Índice
1 Historia
1.1 CPU de transistores y de circuitos integrados discretos
1.2 Microprocesadores
2 Operación
2.1 Fetch
2.2 Decode
2.3 Execute
2.4 Writeback
3 Diseño e implementación
3.1 Rango de enteros
3.2 Frecuencia de reloj
3.3 Paralelismo
3.3.1 ILP: Segmentación y arquitectura superescalar
3.3.2 Paralelismo a nivel de hilos
3.3.3 Paralelismo de datos
4 Desempeño
5 Véase también
6 Notas
7 Referencias
8 Bibliografía
9 Enlaces externos
9.1 Diseños de microprocesador
9.2 Lectura adicional
Historia
Artículo principal: Anexo:Historia de la computación
Las primeras CPU fueron diseñadas a medida como parte de un ordenador más grande,
generalmente un ordenador único en su especie. Sin embargo, este método de diseñar
las CPU a medida, para una aplicación particular, ha desaparecido en gran parte y
se ha sustituido por el desarrollo de clases de procesadores baratos y
estandarizados adaptados para uno o varios propósitos. Esta tendencia de
estandarización comenzó generalmente en la era de los transistores discretos,
computadoras centrales y microcomputadoras y fue acelerada rápidamente con la
popularización del circuito integrado (IC), este ha permitido que sean diseñados y
fabricados CPU más complejas en espacios pequeños en la orden de nanómetros. Tanto
la miniaturización como la estandarización de las CPU han aumentado la presencia de
estos dispositivos digitales en la vida moderna mucho más allá de las aplicaciones
limitadas de máquinas de computación dedicadas. Los microprocesadores modernos
aparecen en todo, desde automóviles hasta teléfonos móviles o celulares y juguetes
de niños.
Si bien von Neumann muchas veces acreditado por el diseño de la computadora con
programa almacenado debido a su diseño del EDVAC, otros antes que él, como Konrad
Zuse, habían sugerido y aplicado ideas similares. La denominada arquitectura
Harvard del Harvard Mark I, que se completó antes de EDVAC, también utilizó un
diseño de programa almacenado usando cinta de papel perforada en vez de memoria
electrónica. La diferencia clave entre las arquitecturas de von Neumann y la de
Harvard es que la última separa dentro del almacenamiento el tratamiento de
instrucciones de la CPU y los datos, mientras que el primero utiliza el mismo
espacio de memoria para ambos. La mayoría de los CPU modernos son de diseño von
Neumann, pero los CPU con arquitectura Harvard se ven, sobre todo en aplicaciones
embebidas; por ejemplo, los microcontroladores Atmel AVR son procesadores de
arquitectura Harvard.
Los relés eléctricos y los tubos de vacío (válvulas termoiónicas) eran usados
comúnmente como elementos de conmutación; un ordenador útil requiere miles o
decenas de miles de dispositivos de conmutación. La velocidad global de un sistema
depende de la velocidad de los conmutadores. Los ordenadores de tubo, como el
EDVAC, tendieron en tener un promedio de ocho horas entre fallos, mientras que los
ordenadores de relés, (anteriores y más lentos), como el Harvard Mark I, fallaban
muy raramente.1 Al final, los CPU basados en tubo llegaron a ser dominantes porque
las significativas ventajas de velocidad producidas generalmente pesaban más que
los problemas de confiabilidad. La mayor parte de estas tempranas CPU síncronas
corrían en frecuencias de reloj bajas comparadas con los modernos diseños
microelectrónicos. Eran muy comunes en este tiempo las frecuencias de la señal del
reloj con un rango desde 100 kHz hasta 4 MHz, limitado en gran parte por la
velocidad de los dispositivos de conmutación con los que fueron construidos.