Beruflich Dokumente
Kultur Dokumente
Compatible IBM PC
Se denomina Compatible IBM PC o IBM PC compatible a un tipo de ordenadores similares al IBM
PC, IBM Personal Computer XT e IBM Personal Computer/AT. Estos ordenadores también llamados PC
clones, IBM clones o clónicos, se denomina así porque casi duplican exactamente todas las
características importantes de la arquitectura PC, hecho facilitado por la posibilidad de realizar
legalmente ingeniería inversa de la BIOS mediante el diseño de sala limpia por parte de varias
compañías. Columbia Data Products construyó el primer clon de un IBM PC mediante una
implementación de sala limpia de la BIOS.
Muchos de los primeros compatibles IBM PC utilizan el mismo bus que los IBM PC e IBM AT originales.
El bus compatible IBM AT es posteriormente llamado Bus ISA por los fabricantes de ordenadores
compatibles.
Índice
[ocultar]
1 Orígenes
2 Problemas de compatibilidad
4 Expansión
8 El PC compatible hoy
9 Referencias
10 Véase también
11 Enlaces externos
[editar]Orígenes
IBM PC original (Model 5150) motivó la fabricación de clones a princpios de la década de 1980.
Los orígenes de esta plataforma se inician con la decisión adoptada por IBM en 1980 de comercializar
un ordenador personal de bajo costo lo antes posible en respuesta al éxito de Apple Computer en el
creciente mercado. El 12 de agosto de 1981 se pone en venta el primer IBM PC. Había tres sistemas
operativos disponibles para él, pero el más popular y menos caro fue PC DOS, una versión de MS
DOS licenciada porMicrosoft. En una concesión crucial, el acuerdo con IBM permitió a Microsoft vender
su propia versión, MS-DOS, para las plataformas no-IBM. El único componente propietario del PC es
la BIOS (Basic Input/Output System).
Se fabricaron gran cantidad de ordenadores basados en los microprocesadores Intel 8086 y 8088,
durante ese período, pero con arquitectura diferente a la del PC, y que desarrolló por ello sus propias
versiones de DOS y CP/M-86. Sin embargo, el software que aborda directamente el hardware en lugar
de hacer llamadas a nivel de MS-DOS es más rápido. Esto es particularmente relevante en
los videojuegos. El IBM PC fue la única máquina que se vende en volúmenes lo suficientemente altos
como para justificar el software escrito específicamente para ella, y esto motiva a otros fabricantes a
producir máquinas que puedan usar los mismos programas, tarjetas de expansión y periféricos que el
PC. El mercado de ordenadores 808x excluye rápidamente todas las máquinas que no fueran
funcionalmente muy similares al PC. El límite de 640 Kilobytes dememoria RAM convencional disponible
para MS-DOS es una herencia de este período; otras máquinas no clónicas no tienen ese límite.
Los "clones" del IBM PC se crearon sin la participación o aprobación de IBM. Columbia imita
estrechamente al IBM PC y produce el primer "compatible" PC (es decir, más o menos compatible con el
estándar IBM PC) en junio de 1982, seguido al poco por Eagle Computer. Compaq Computer
Corp. anuncia su primer compatible unos meses después en noviembre de 1982, el Compaq Portable.
El Compaq fue el primer ordenador portable del tamaño de una máquina de coserque es esencialmente
100% compatible. La empresa no podía copiar directamente la BIOS, como resultado de la decisión
judicial en el caso Apple v. Franklin, pero sí puede realizar ingeniería inversa de la BIOS de IBM y luego
escribir su propia BIOS utilizando el diseño de sala limpia.
[editar]Problemas de compatibilidad
Al mismo tiempo, muchos fabricantes, como Xerox, Hewlett Packard, Digital, Sanyo, Texas
Instruments, Tulip, Wang y Olivetti lanzaron ordenadores personales que era compatibles MS-DOS,
pero no completamente software o hardware compatibles con el IBM PC.
La intención de Microsoft, y la de la industria desde 1981 hasta mediados de los 80, era que los
programadores de aplicaciones utilizaran las APIs en MS-DOS o el firmware de la BIOS, utilizando lo
que hoy llamamos una capa de abstracción de hardware. Cada ordenador tendría su propia
versiónOEM de MS-DOS, personalizado para su hardware. Cualquier software escrito para MS-DOS
podría ejecutarse en cualquier ordenador MS-DOS, a pesar de las variaciones en el diseño de
hardware. Un camino similar se siguió con los ordenadores domésticos MSX.
Esta expectativa parece razonable para el mercado de computadoras de la época. Hasta entonces,
Microsoft se centra principalmente en lenguajes de programación como BASIC. El por entonces sistema
operativo por excelencia para pequeños ordenadores era CP/M de Digital Research que se utilizaba
tanto en el por usuarios aficionados como profesionales. Para lograr ese uso generalizado y, por tanto,
hacer el producto económicamente viable, el sistema operativo tenía que poder funcionar en un rango
de ordenadores de diferentes fabricantes con una amplia variedad de hardware. Aquellos clientes que
necesitan otras aplicaciones más allá de los Starter Pack podría esperar razonablemente que los
diferentes editores de software les ofrecieran sus productos para una amplia variedad de ordenadores,
en el soporte adecuado para cada uno.
El sistema operativo de Microsoft estaba inicialmente orientado para ejecutarse en una variada gama de
hardware, aunque todas basadas en el procesador 8086. Por ello, MS-DOS fue vendido durante muchos
años sólo como un producto OEM. No había MS-DOS con marca Microsoft: MS-DOS no podía
adquirirse directamente a Microsoft, y cada versión OEM era empaquetada con la marca del fabricante
de PCs licenciatario. Las diferentes versiones eran en general incompatibles con hardware diferente.
Los errores debían notificarse al OEM, no a Microsoft. Sin embargo, cuando se extendieron los clones,
pronto quedó claro que las versiones OEM de MS-DOS eran prácticamente idénticas, excepto tal vez
por la presencia de algunos programas de utilidad.
MS-DOS proporciona el soporte adecuado para aplicaciones orientadas a caracteres como las que se
pueden implementar para un terminal de computadora de sólo texto. La mayor parte del software con
importancia comercial entraba en estos límites, donde el bajo nivel de compatibilidad hardware no tenía
importancia. Sin embargo, con el fin de proporcionar el máximo rendimiento y aprovechar las
características de hardware (o trabajar sobre los errores de hardware), las aplicaciones de PC
evolucionaron muy rápidamente más allá del simple terminal de aplicaciones que MS-DOS soporta
directamente. Hojas de cálculo, procesador de textos WYSIWYG, soft de presentaciones y software de
comunicaciomes remotas establecieron nuevos mercados que explotaban los puntos fuertes del PC,
pero requieren capacidades más allá de lo que proporciona MS-DOS. Por ello, desde muy temprano en
el entorno de desarrollo de aplicaciones para MS-DOS, muchos productos de software comerciales
importantes fueron escritos directamente para el hardware, por una variedad de razones:
MS-DOS en sí no proporciona ninguna manera de colocar el cursor de texto (excepto para avanzar
después de la impresión de cada carácter). Mientras que las rutinas de la BIOS para la interfaz de
vídeo eran adecuadas par un manejo rudimentario, eran muy ineficaces; no había salida de cadena
de caracteres (sólo salida carácter a carácter) y esto añade períodos de retardo para compensar
el efecto nieve del hardware CGA (cuando en las tarjetas CGA se escribía directamente en
la VRAM se mostraban artefactos en la pantalla) algo especialmente malo cuando se llaman
via IRQs, lo que hace muy difícil la multitarea. Un programa que escriba la salida directamente a la
memoria de vídeo puede alcanzar tasas de 5 a 20 veces más rápido que utilizar llamadas estándar
a la BIOS y MS-DOS. Turbo Pascal utiliza esta técnica desde sus primeras versiones.
La capacidad gráfica no fue tomada en serio en el diseño original de IBM, que se consideró una
novedad exótica. MS-DOS no tenía un API para gráficos, y la BIOS sólo incluía las funciones más
rudimentarias de gráficos (por ejemplo, los cambios de modo de pantalla o el dibujo punto a punto).
Para realizar una llamada de la BIOS por cada punto dibujado o modificado se incrementaba
considerablemente el trabajo, haciendo la interfaz de la BIOS notoriamente lenta. Debido a esto,
dibujar líneas o arcos, y el bit blit, tuvo que ser llevado a cabo por cada aplicación para lograr una
velocidad aceptable, que se solía hacer ignorando la BIOS y accediendo directamente a la memoria
de vídeo.
Los videojuegos, incluso los primeros, en su mayoría requerían un modo gráfico verdadero.
También se realizó algún truco dependiente de la máquina que los programadores podían utilizar
para ganar velocidad. Aunque en un principio el principal mercado del PC fue el profesional, la
capacidad de los juegos se convirtió en un factor importante en el impulso de las compras de PC
cuando sus precios cayeron. La disponibilidad y calidad de los juegos podría significar la diferencia
entre la compra de un PC compatible o una plataforma interoperable diferente como elCommodore
Amiga.
Incluso para las aplicaciones empresariales estándar, la velocidad de ejecución fue una ventaja
competitiva significativa. Esto se demostró dramáticamente en el golpe de gracia de Lotus 1-2-3 a
su rival Context MBA en el popular género del software integrado. Context MBA, ahora casi
olvidado, precedió a Lotus en el mercado e incluía más funciones; fue escrito en lenguaje Pascal, lo
que lo hacía altamente portable, pero, habida cuenta de los compiladores del momento, resultaba
demasiado lento para ser realmente útil en un PC. Lotus fue escrito en lenguaje ensamblador puro y
realizaba algunas tareas directamente en la máquina. Era mucho más rápido que el Context MBA,
que desapareció tan pronto como Lotus llegó.
Al principio, pocos compatibles aparte del Compaq ofrecían compatibilidad más allá del nivel DOS/BIOS.
Los evaluadores y los usuarios desarrollaronsuites de programas para probar la compatibilidad; la
capacidad de ejecutar el Lotus 1-2-3 o Microsoft Flight Simulator se convirtió en uno de los más
importantes pruebas. Los vendedores no sólo aprendieron gradualmente la manera de emular la BIOS
de IBM, sino también dónde utilizar chips idénticos para desempeñar funciones clave dentro del sistema.
Finalmente, el Phoenix BIOS y productos similares disponibles comercialmente permitieron a los
fabricantes de computadoras la fabricación de clones prácticamente 100% compatibles sin necesidad de
realizar ingeniería inversa de la BIOS del IBM PC.
Con el tiempo, IBM perjudicó su propio mercado al no apreciar la importancia de la compatibilidad IBM,
introduciendo productos como el IBM portátil(que fue superado en ventas por el anterior Compaq
Portable) y el PCjr (que tenía importantes incompatibilidades con el PC original y se retiró en breve).
Desde mediados de la década de 1980 hasta finales de la misma, los compradores comenzaron a
considerar el PC como el producto básico, y dudaban de que el plus de seguridad de la marca IBM
estaba garantizado por el precio más alto. Mientras tanto, los sistemas compatibles MS-DOS (pero no
compatibles en hardware) no tuvieron éxito en el mercado. Su incapacidad para ejecutar los paquetes
de software de alto rendimiento para IBM PC y compatibles verdaderos motivó sus bajas ventas y la
extinción de esta categoría de sistemas. Por su incompatibilidad de hardware con el diseño del IBM PC,
el procesador 80186, lanzado sólo un año después del IBM PC, nunca fue popular en los ordenadores
personales de uso general.
Después de 1987, los PCs compatibles IBM dominaron en el mercado de productos básicos, tanto en el
campo doméstico como en el profesional,1 con otras notables arquitecturas alternativas como los
equipos Macintosh ofertados por Apple Inc., el Commodore 64 de 8 bits que finalmente se convirtió en el
ordenador de mayor venta en el mundo, y la línea Commodore Amiga de 32 bits utilizada en la televisión
y producción de vídeo. Sin embargo, la propia IBM perdió el liderazgo en el mercado de los compatibles
IBM PC en 1990. Algunos pocos sucesos fueron probablemente los puntos de inflexión:
La introducción en 1982 del Compaq Portable, el primer ordenador 100% compatible con IBM PC
(Columbia Data Products), un ordenador portátil del que IBM no disponía en ese momento. La
compatibilidad y el rendimiento del portátil legitimó este clon de PC para muchas empresas.
La introducción por IBM de tecnologías incompatibles en 1987, tales como su sistema patentado de
Arquitectura de microcanal (bus MCA) para bus de computadora , en su línea IBM PS/2.
La introducción en 1988 por las empresas de la "Banda de los Nueve" de un bus rival, EISA ,
destinado a competir con MCA en lugar de copiarlo.
El duelo entre las normas de memoria expandida y memoria extendida en la década de 1980,
ambas desarrolladas sin la participación de IBM.
La disponibilidad en 1989 de ordenadores compatibles con el PC-XT por debajo de 1000 dólares,
incluyendo las tempranas ofertas de Dell Computer, reduciendo la demanda de la última tecnología
de IBM.
Sin embargo, con la evolución del mercado, y a pesar del fracaso del bus MCA, IBM obtuvo un flujo de
ingresos considerables por las tasas de licencia de empresas que pagaron por licencias de uso de las
patentes de IBM que estaban en el diseño del PC, en la medida que los objetivos de IBM habían
cambiado desde la disuasión de clones de PC hacia el aumento de ingresos por ventas de licencias.
Paralelamente al desarrollo del PS/2, IBM también siguió vendiendo PCs compatibles, que esta vez
incorporaban los estándares que habían sido desarrollados por sus competidores. IBM finalmente
renunció a su papel como fabricante de PC en abril de 2005, cuando vendió su división de PC
a Lenovo por 1.750 millones de dólares.
A partir de octubre de 2007, Hewlett-Packard y Dell Computer acapararon las mayores cuotas del
mercado de PC en América del Norte. También son exitosos fuera de América, junto
a Acer,Lenovo y Toshiba. A nivel mundial, un gran número de ordenadores son "caja blanca", sistemas
ensamblados por un gran número de fabricantes de sistemas locales. A pesar de los avances en la
tecnología informática, todos los actuales PC compatibles IBM guardan en gran medida cierta
compatibilidad con las computadoras IBM PC originales, aunque la mayoría de los componentes
implementan la "compatibilidad hacia atrás" con versiones anteriores en modos especiales, utilizados
sólo durante el arranque del sistema.
[editar]Expansión
Uno de los puntos fuertes de la plataforma compatible PC es su diseño modular de hardware. Los
usuarios finales pueden actualizar fácilmente los periféricos y, hasta cierto punto, el procesador y la
memoria sin necesidad de modificar la placa base del equipo o reemplazar todo el equipo, como así
ocurría con muchas de las microcomputadoras de la época. Sin embargo, a la vez que la velocidad del
procesador y la cantidad de memoria fueron incrementándose, los límites del diseño de bus de la XT/AT
original se alcanzaron en poco tiempo, sobre todo con las nuevas tarjetas gráficas. IBM introdujo un bus
actualizado en el IBM PS/2, que superó muchos de los límites técnicos del bus de los XT/AT, pero rara
vez se utilizó como base para computadoras compatibles con IBM, ya que requería el pago de licencias
a IBM tanto para el bus PS/2 como para los diseños previos del bus AT que quedaban bajo licencia.
Esto fue impopular entre los fabricantes de hardware, y varios estándares de bus en competencia fueron
desarrollados por consorcios, con términos de licencia más asequibles. Se hicieron varios intentos de
estandarizar las interfaces, pero en la práctica, muchos de estos intentos tuvieron fallos o bien fueron
ignorados. Aun así, había muchas opciones de expansión, y la plataforma "PC compatible" avanzó
mucho más rápidamente que otras plataformas competidoras de la época, incluso aunque sólo sea por
su dominio del mercado.
Aunque el IBM PC fue diseñado para permitir su expansión, los diseñadores no podían anticipar el
desarrollo del hardware de los años 80. Para empeorar las cosas, la elección de la CPU Intel 8088 por
IBM presentaba varias limitaciones que fueron obstáculos para el desarrollo de software para la
plataforma PC compatible. Por ejemplo, el procesador 8088 sólo tenía un espacio de direccionamiento
de memoria de 20 bits. Para poder expandir la memoria del PC más allá de un megabyte, Lotus, Intel y
Microsoft crearon conjuntamente la memoria expandida (EMS), un esquema de conmutación de banco
para permitir más memoria proporcionada por complemento de hardware, y visto a través de un
conjunto de cuatro "ventanas " de 16 kilobytes dentro del direccionamiento de 20 bits. Más tarde, las
CPUs Intel tuvieron mayor espacio de direcciones y podían ocuparse directamente de
16 megabytes (caso del Intel 80286) o más, lo que permitió a Microsoft desarrollar la memoria
extendida (XMS), que no requería hardware adicional.
La memoria expandida y la extendida tienen interfaces incompatibles, por lo que cualquier software que
utilizaba más de un megabyte tenía que mantener soporte para los dos sistemas. Para dar mayor
compatibilidad, MS-DOS comenzó a incluir el programa EMM386, que simula la memoria EMS utilizando
memoria XMS. Un sistema operativo en modo protegido también podía ser escrito para el 80286, pero
su compatibilidad con aplicaciones DOS era más difícil de lo esperado, no sólo porque la mayoría de
aplicaciones para DOS accedían directamente al hardware, sino también porque la mayoría de llamadas
al BIOS eran realizadas a través de IRQs marcadas como "reservadas" por Intel.
Las tarjetas gráficas tuvieron sus propias incompatibilidades. Una vez que las tarjetas de vídeo
evolucionaron hacia SVGA, el estándar para acceder a ellas ya no estaba claro. A la vez, la
programación para PC utilizaba un modelo de memoria por segmentos de 64 KB. El más común modo
de pantalla VGA quedaba alojado en un único segmento de memoria. Los modos SVGA requerían más
memoria, por lo que el acceso a la memoria completa de pantalla era complicado. Cada fabricante
desarrolló sus propias formas de acceso a la memoria de pantalla, incluso sin enumerar los modos de
forma coherente. Se hizo un intento de crear un estándar, llamado VBE, pero no todos los fabricantes se
adhirieron a ella.
Debido al gran número de adaptadores de terceros y no estándar para ellos, la programación para PC
resultaba difícil. Los desarrolladores profesionales debían someter sus programas a prueba con un gran
conjunto de combinaciones de hardware diferentes. Incluso el propio PC no tenía una clara interfaz de la
aplicación al modelo de memoria plana que los 386 y superiores podrían proporcionar en modo
protegido.
Cuando llegó el 386, de nuevo se podía programar un sistema operativo en modo protegido para él.
Esta vez, la compatibilidad con MS-DOS era mucho más fácil, pues este procesador incluíamodo virtual
8086. Desafortunadamente los programas no podían cambiar directamente entre ellos, así quese
desarrollaron nuevos modelos de memoria API, VCPI y DPMI, este último se hizo el más popular.
Mientras tanto, los consumidores se vieron desbordados por los diferentes estándares incompatibles y
las diferentes combinaciones de hardware que se ofrecían. Para dar una idea de qué clase de PC que
necesitarían para ejecutar sus programas, se estableció el estándar PC Multimedia (MPC) en 1990. Un
PC que cumplía el mínimo estándar MPC podía ser considerado, y comercializado como, un MPC. El
software que podía ejecutarse en un PC con la más mínima compatibilidad MPC estaría garantizado
para funcionar en cualquier MPC. Las normas de MPC nivel 2 y MPC nivel 3 se crearon más tarde, pero
el término "MPC compatible" nunca tuvo éxito. Después del nivel 3 MPC en 1996, no se establecieron
más normas MPC.
Al principios del siglo XXI, el éxito de Microsoft Windows había llevado a casi todos los otros sistemas
operativos a casi la extinción, y se aseguró que la plataforma "IBM PC compatible" fuese el equipo
informático dominante. Esto significó que si un programador sólo desarrollaba su software para la
plataforma Wintel, sería capaz de llegar a la gran mayoría de usuarios de computadoras. A fines de
1980, el único competidor importante para Windows fue el Macintosh de Apple Inc.. El Mac fue
presentado como "el ordenador para el resto de nosotros", pero la pujanza del conjunto
DOS/Windows/Intel redujo rápidamente a los Macintosh al nicho de la educación y el diseño gráfico, del
que sólo recientemente ha comenzado a surgir. A mediados de 1990, la cuota de mercado de Macintosh
se había reducido a cerca del 5%, y la introducción de un nuevo sistema operativo rival se había vuelto
demasiado arriesgada comercialmente. La experiencia había demostrado que incluso si un sistema
operativo era técnicamente superior a Windows, sería un fracaso en el mercado (BeOS y OS/2, por
ejemplo). En 1989, Steve Jobs lanzó su nueva plataforma NeXT, de la que dijo que "será la última
plataforma nueva de hardware en tener éxito, o la primera en fracasar." En 1993, NeXT anunció que
ponía fin a la producción del ordenadorNeXTcube y portaba NeXTSTEP a los procesadores Intel. En
1997, NeXT fue adquirida por Apple, que presentó a continuación el ordenador iMac en 1998. Después
de este lanzamiento, los Mac han recuperado cuota de mercado, aunque muy lentamente. En agosto de
2009, la cuota de mercado de Mac OS era sólo de un 4,59%. {cita requerida}
En el mercado de hardware, Intel inicialmente licenció su tecnología para que otros fabricantes pudieran
fabricar x86 CPUs. Como la plataforma "Wintel" consiguió el dominio del mercado, Intel terminó
abandonando esta práctica. Compañías como AMD y Cyrix desarrollaron CPUs alternativas que eran
funcionalmente compatibles con Intel. Hacia el final de la década de 1990, AMD estaba tomando una
parte creciente del mercado de las CPU para PC. AMD incluso terminó jugando un papel importante en
la dirección de la evolución de la plataforma x86, cuando su línea de procesadores Athlon siguió
desarrollando la clásica arquitectura x86, de la que Intel se desvió con su arquitectura Netburst de las
CPUs Pentium 4 y la arquitectura IA-64 para la línea de CPUsItanium para servidores. AMD desarrolló
el AMD64, el primer desarrollo importante no creado por Intel, que más tarde adoptó Intel. En 2006, Intel
comenzó a abandonar Netburst con el lanzamiento de su línea de procesadores Intel Core, que
representaba una evolución del anterior Pentium III.
El término "compatible con IBM" no es de uso común para los ordenadores actuales, porque
prácticamente todos los equipos principales se basan en la arquitectura PC. La mayoría de plataformas
competidoras han desaparecido o han sido relegadas a los mercados minoritarios de entusiastas, como
el Commodore Amiga. Una excepción notable fue el Apple Macintosh, que utilizó la
arquitectura PowerPC hasta 2006, cuando Apple adoptó la arquitectura Intel x86 tal como se utiliza en el
PC. La arquitectura x86 que Apple comercializa actualmente es, a todos los efectos, "IBM PC
Compatible".
La velocidad del procesador y capacidad de memoria de los ordenadores modernos son muchísimo
mayores de lo que eran en el original de PC de IBM y, sin embargo la compatibilidad hacia atrás se ha
mantenido en gran medida. Un sistema operativo de 32 bits publicado en la década de 2000 todavía
puede ejecutar muchas de los programas más simples escritos para los sistemas operativos de la
década de 1980 sin necesidad de un emulador, aunque un emulador como DOSBox tiene ahora cerca
de la funcionalidad nativa a toda velocidad.
Arquitectura de computadoras
Una visión típica de una arquitectura de computadora como una serie de capas de
abstracción: hardware, firmware,ensamblador, kernel, sistema operativo yaplicaciones.
También suele definirse como la forma de seleccionar e interconectar componentes de hardware para
crear computadoras según los requerimientos de funcionalidad, rendimiento y costo.
El ordenador recibe y envía la información a través de los periféricos por medio de los canales. La UCP
es la encargada de procesar la información que le llega al ordenador. El intercambio de información se
tiene que hacer con los periféricos y la UCP. Todas aquellas unidades de un sistema exceptuando la
UCP se denomina periférico, por lo que el ordenador tiene dos partes bien diferenciadas, que son: la
UCP (encargada de ejecutar programas y que está compuesta por la memoria principal, la UAL y la UC)
y los periféricos (que pueden ser de entrada, salida, entrada-salida y comunicaciones).
Índice
[ocultar]
1 Introducción
3 Véase también
4 Enlaces externos
[editar]Introducción
A estos procesadores se les conoce como pipeline processors. Estos están compuestos por una lista de
segmentos lineales y secuenciales en donde cada segmento lleva a cabo una tarea o un grupo de
tareas computacionales. Los datos que provienen del exterior se introducen en el sistema para ser
procesados. La computadora realiza operaciones con los datos que tiene almacenados en memoria,
produce nuevos datos o información para uso externo.
Las arquitecturas y los conjuntos de instrucciones se pueden clasificar considerando los siguientes
aspectos:
Número de operandos explícitos por instrucción: cuántos operandos se expresan en forma explícita
en una instrucción típica. Normalmente son 0, 1, 2 y 3.
Posición del operando: ¿Puede cualquier operando estar en memoria?, o deben estar algunos o
todos en los registros internos de la CPU. Cómo se especifica la dirección de memoria (modos de
direccionamiento disponibles).
Acumulador.
Conjunto de registros.
Memoria
La Arquitectura de registros tiene sólo operandos explícitos (es aquel que se nombra) en registros o
memoria.
Pila: Modelo sencillo para evaluación de expresiones (notación polaca inversa). Instrucciones cortas
pueden dar una buena densidad de código.
Registro: Modelo más general para el código de instrucciones parecidas. Automatiza generación de
código y la reutilización de operandos. Reduce el tráfico a memoria. Una computadora actualmente
tiene como estándar 32 registros. El acceso a los datos es más rápido, y veloz.
[editar]Desventajas de las arquitecturas
Pila: A una pila no se puede acceder aleatoriamente. Esta limitación hace difícil generar código
eficiente. También dificulta una implementación eficiente, ya que la pila llega a ser un cuello de
botella es decir que existe dificultad para la transferencia de datos en su velocidad mk.
1. LA PLACA BASE
Componente fundamental del PC, también denominada frecuentemente placa madre o
mediante los términos en inglés motherboard o mainboard. Es la placa más importante del PC.
Sobre ella se conectan el resto de componentes y de sus características se derivan, en gran
medida, las prestaciones que nos va a ofrecer finalmente nuestro ordenador.
LA BIOS
Se denomina BIOS (Basic Input-Output System, Sistema Básico de Entrada y Salida) a un
software o código específico almacenado en un chip de memoria EPROM (Erasable
Programable Read Only Memory, Memoria de Sólo Lectura que puede ser borrada y
programada), cuyo contenido permanece inalterable al apagar el PC, aunque puede ser
reprogramado. Este software es el prime en ejecutarse durante el proceso de arranque de una
placa base, de ahí su vital importancia.
Actualmente, la práctica totalidad de placas existentes en el mercado incorpora un chip de
memoria de tipo EPROM denominada flash BIOS, que además cuenta con el apoyo de otro
chip de memoria estática llamado CMOS. Este chip flash BIOS puede ser actualizado
mediante software, y permite mucha más flexibilidad a la hora de disponer de una BIOS que
incorpore nuevas prestaciones. Basta con conseguir del fabricante la última versión disponible
de BIOS para nuestro modelo de placa base y, con un sencillo programa que generalmente
también es suministrado por el fabricante. Las opciones más actuales permiten realizar el
proceso de actualización desde una opción en la propia BIOS o incluso desde el propio
sistema operativo, como es el caso de determinados modelos que permiten llevar a cabo todo
el proceso directamente desde una aplicación Windows.
En la actualidad, los principales fabricantes de BIOS para placas base son AMI (American
Megatrends Inc.), y sobre todo AWARD (actualmente integrada con Phoenix Technologies).
Algunas de las principales características incorporadas en todas las BIOS actuales son el
soporte para Plug and Play, que permite la detección automática de dispositivos, la gestión
avanzada de energía mediante estándares como APM, y la configuración del microprocesador
a través de la propia BIOS.
Generalmente se suele acceder al menú de opciones de la BIOS pulsando la tecla Supr
(suprimir). Este es el caso de las BIOS AWARD-Phoenix y AMI. En otras BIOS la tecla
“mágica” suele ser la tecla F2. La BIOS dispone además de funciones de protección de
acceso mediante contraseña para evitar el acceso a nuestro PC. Debido a esto, puede ocurrir
que un usuario asigne contraseñas de acceso a la BIOS y posteriormente no las recuerde.
Para solucionar este problema, la mayoría de las placas base incorporan un puente (jumper)
denominado ClearCMOS (“limpiar” CMOS), que permite eliminar las configuraciones
almacenadas en BIOS, entre ellas las contraseñas, y dejar así la BIOS con los valores
originales de fábrica. El inconveniente de esta solución es que se pierden los valores que
hubiéramos modificado.
EL PROCESO DE ARRANQUE.
Cuando arrancamos el PC se realizan una serie de procesos que duran tan solo unos pocos
segundos. La BIOS realiza inicialmente un autochequeo de encendido denominado POST
(Power On Self Test, Test Automático de Encendido), que se encarga de verificar todos los
componentes vitales de nuestra placa base: memoria, microprocesador, caché, DMA, teclado,
sistema gráfico, disqueteras y discos duros. Si durante esta comprobación se detecta algún
error, la BIOS responderá con una serie de pitidos a través del altavoz del PC. Según sea el
número de pitidos y su duración podremos determinar el tipo de error. Estos códigos de error
generalmente están estandarizados.
La BIOS también configura todos los parámetros de funcionamiento de los distintos
componentes del sistema, asignando varios recursos como la IRQ, direcciones de memoria y
los puertos de entrada/salida a cada uno de estos componentes.
El proceso de arranque de la BIOS es el responsable de todos los mensajes que nos
aparecen en el tiempo que transcurre justo desde que encendemos el ordenador hasta que
vemos el mensaje del sistema operativo. La secuencia de aparición de los mensajes, en líneas
generales, suele ser la siguiente:
1.1.2. LA BATERÍA.
Todas las placas base suelen incluir una pequeña pila o batería de tipo botón que se encarga
básicamente de mantener la alimentación eléctrica del reloj de tiempo real (RTC, Real Time
Clock), así como los parámetros sobre nuestros discos duros y otros parámetros de usuario
almacenados en la CMOS RAM. Si observamos alguna anomalía al encender nuestro equipo
y recibimos algún mensaje en pantalla del tipo cheksum failure, posiblemente sea debido a
que la pila está agotada. Generalmente la duración de la batería suele oscilar entre tres y
cinco años.
1.1.3. EL ZÓCALO DEL MICROPROCESADOR.
Este zócalo ha sufrido una constante evolución desde la aparición del PC original en 1980.
En determinadas placas base 486, existían varios tipos de zócalos, en función del tipo de
microprocesador para los que estuviese diseñada la placa. Los de estructura cuadrada con
palanca se conocen como zócalo ZIF (Zero Inserction Force, zócalos de fuerza de inserción
cero). Se denomina así porque no es necesario hacer fuerza al insertar el microprocesador.
Estos fueron los zócalos más habituales durante unos años, hasta la irrupción en el mercado
del Pentium II y sus sucesores, que impusieron el zócalo de tipo Slot. Posteriormente, se
volvió de nuevo a los zócalos de tipo ZIF con un número de patillas mucho mayor.
Los zócalos de tipo ZIF cuentan con una pequeña marca triangular que debe hacerse coincidir
con otra marca triangular o muesca presente en el microprocesador. Si el microprocesador no
es insertado de esta manera, las patillas no coincidirán y se corre el peligro de dañar sus
patillas al forzarlo en una posición incorrecta. Por lo tanto, en los zócalos de tipo ZIF hay que
tener en cuenta la orientación del microprocesador a la hora de insertarlo.
En el caso de los zócalos rectangulares tipo Slot, la inserción del microprocesador en los
mismos se hace por simple presión, siempre teniendo en cuenta la orientación de la muesca
que tienen tanto el zócalo como la fila de contactos del propio microprocesador, muesca que
evita el montaje incorrecto.
Los tipos mas frecuentes de zócalos presentes en las diferentes placas base para PC han sido
desarrollados en su mayoría por Intel, y se recogen en la siguiente tabla:
Nota: en determinados casos puede ocurrir que dos zócalos de memoria estén compartidos, lo que viene
a significar que sólo se puede usar uno de los dos. Esto ocurre en determinados modelos de placas base
con cuatro zócalos, estando compartidos el zócalo 3 y 4. No obstante, todos estos detalles, así como la
configuración precisa de la memoria de la placa, son aspectos que suelen estar perfectamente
contemplados por todos los fabricantes de placas base en sus correspondientes manuales y hay que
referirse a ellos para una correcta configuración.
Un hardware que soporte Bus Mastering. Tanto el chipset integrado en la placa base como la BIOS
deben soportar esta tecnología.
Discos duros con soporte Bus Mastering. Esto se traduce en que los discos duros deben soportar al
menos el modo de transferencia Multiword DMA modo 2.
EL CHIPSET.
La placa base de un ordenador es el dispositivo sobre el que se montan los demás
componentes del PC, tales como el microprocesador, las diferentes tarjetas de expansión y la
memoria.
La función de la placa base es la de servir de vía de comunicación entre los citados
componentes, proporcionando las líneas eléctricas necesarias y las señales de control para
que todas las transferencias de datos se lleven a cabo de manera rápida y fiable.
Si analizamos la arquitectura de un PC, podemos ver que existen varios caminos por los que
fluye la información, siendo el centro neurálgico el microprocesador, ya que es el componente
que maneja y procesa toda esa información. Así pues podemos diferencias tres canales de
comunicaciones principales en una placa base:
Entre el microprocesador y la memoria (RAM y caché).
Entre el microprocesador y las tarjetas de expansión (ISA, PCI, AGP, AMR, CNR y ACR).
Entre el microprocesador y los diferentes dispositivos de almacenamiento.
La velocidad con que se mueven los datos en el interior de un PC está muy estrechamente
relacionada con el chipset integrado en la placa base. Prácticamente desde la aparición de la
arquitectura PCI Intel fijó como estándar una frecuencia máxima de comunicación de 66 Mhz
entre microprocesador, memoria y caché. La frecuencia de funcionamiento del
microprocesador y de otros componentes como la memoria era un múltiplo de esos 66 Mhz.
Por otro lado, la velocidad con la que se mueve la información a través del bus PCI es de 33
Mhz, justo la mitad de los 66 Mhz fijados como base.
¿QUÉ ES UN CHIPSET?
Es un grupo de circuitos altamente integrados que cumplen una serie de tareas fundamentales
para el funcionamiento de la placa base. Implementa en unos pocos chips, habitualmente dos,
todas las funciones de una placa.
Las diferentes funciones lógicas que suele integrar son las siguientes:
Soporte para el microprocesador. Una de las principales funciones del chipset es la detección correcta
del microprocesador y el pleno soporte de todas sus funciones. Cada chipset se diseña pensando en un
procesador o familia de procesadores. Es el responsable directo de que la placa base soporte más de un
microprocesador.
Controlador de memoria (MMU, Memory Management Unit). Gestiona la memoria RAM.
Controlador IDE/ATA. Directamente relacionados con esta función están los modos de transferencia.
El que una placa soporte los más recientes modos de transferencia UltraDMA es responsabilidad directa
del chipset.
Control de periféricos y del bus de E/S. El chipset es el responsable de la gestión de los buses PCI y de
ofrecer el soporte para el bus gráfico AGP. Esta función también incluye el soporte para nuevas
tecnologías, como USB 2.0 o IEEE 1394.
Controlador de interrupciones.
Reloj de Tiempo Real (RTC, Real Time Clock). Mantener la hora del sistema.
o Audio compatible AC'97 2.2 con seis canales y Dolby Digital 5.1.
o Módem MC'97.
o Tarjetas de red Ethernet 10/100 integrada.
o CHIPSETS INTEL PARA PENTIUM Y PENTIUM MMX.
Intel ha experimentado una rápida evolución en los últimos años, a partir de su conocido Chipset FX
Tiritón.
o Intel 82430FX.
El FX fue, el chipset que marcó una revolución en el mundo de las placas base para PC. El juego de
chips que lo formaba llevaba la referencia conjunta 82430FX y fue bautizado con el nombre clave de
Triton. Los cuatro chips que lo integraban eran:
Un controlador de sistema.
Dos unidades de Encaminamiento de Datos.
Un Acelerador PCI/ISA IDE denominado PIIX
o Intel 82430HX.
Apareció un año después que el FX, y mejoraba sus prestaciones, estando orientado según Intel al
mercado profesional. La diferencia con respecto al FX radica en que era capaz de ofrecer toda su
funcionalidad con tan solo dos chips. Estos dos chips eran:
o Intel 82430TX.
Se desarrolló como el chipset idóneo para sacarle todo el rendimiento a los procesadores Pentium MMX.
Permitía un máximo de 256 Mb de RAM, soportando FPM, EDO y SDRAM. Incluía una memoria caché
adicional de tercer nivel.
o Intel 440BX.
Es conocido por ser el primer chipset de Intel que aumentó la frecuencia del bus del sistema a 100 Mhz.
A partir de la aparición del BX Intel lanzó toda una nueva gama de microprocesadores que funcionaban
a una frecuencia base de 100 Mhz, de los cuales el primero fue el Pentium II a 350 Mhz.
El chipset Intel 440BX AGPSet se componía de dos chips con encapsulado BGA: el Controlador
Principal (82443BX) y el Puente PCI-ISA (82371AB).
o Intel 440EX.
Orientado básicamente para ser usado en PC con los primeros microprocesadores Intel Celeron, una
versión de Pentium II con prestaciones recortadas. Entre otras cosas no incorporaba memoria caché de
nivel 2.
La frecuencia base con este chipset permanece en los hasta entonces habituales 66 Mhz.
El EX también soportaba el estándar de ahorro de energía ACPI, AGP, UltraDMA/33 y USB.
o Intel 440ZX.
Se desarrolló en dos versiones, una a 66 Mhz y otra a 100 Mhz de frecuencia base, y venía a ser una
versión reducida de los chipsets LX y BX, respectivamente.
o Intel i815.
La frecuencia del bus se situaba en 133 Mhz, lo que daba soporte completo a la memoria SDRAM PC-
133 y a microprocesadores con una frecuencia base de 133 Mhz.
Otra característica especial del i815 es que en el apartado gráfico incluía una tarjeta gráfica integrada en
la propia base, tal y como sucedía en el i810, pero además se incluía un conector AGP 4x, lo que
permitía anular la tarjeta gráfica integrada en la placa y utilizar en su lugar una tarjeta externa.
Una posible limitación del i815 podría ser su soporte de memoria, ya que la máxima cantidad de
memoria capaz de gestionar se situaba en los 512 Mb.
Se incluyó un nuevo conector denominando ACNR (Advanced Configuration and Netework Riser,
Conector de Red y Configuración Avanzada), que permitía la conexión de tarjetas de red que cumplieran
con el estándar AC'97 Plus.
o Intel i820.
Conocido con el nombre clave de Camino, es el primer chipset que Intel lanzó con soporte para módulos
RIMM de memoria RDRAM, con frecuencias iniciales de 300 y 400 Mhz. Destaca el soporte de AGP
4x, así como un bus del sistema de 133 Mhz.
o Intel i850.
La característica más notable es que se trata de un chipset específicamente diseñado para dar soporte a la
memoria RDRAM, sin que ofrezca soporte a otros tipos de memoria más habituales como la SDRAM
DDR.
o Intel E7205.
Conocido con el nombre clave de Granite Bay. El E7205 es un chipset destinado, según Intel, a ser
empleado en estaciones de trabajo y pequeños servidores.
o AMD.
AMD es el directo competidor de Intel en el mercado de microprocesadores. Los chipsets necesarios
para gobernar los procesadores AMD Athlon deben ser específicos para cada familia.
o AMD 750.
Entre sus características figuraban el bus del sistema de 200 Mhz, AGP 2x, soporte de memoria SDRAM
PC-100 con y sin ECC (detección y corrección de errores).
o AMD 760.
Esta es una versión más avanzada del chipset de AMD para dar soporte a sus microprocesadores Athlon
XP. Destaca el bus a 266 Mhz, el soporte para AGP 4x, soporte de memoria SDRAM DDR con
frecuencias de hasta 266 Mhz, además de soportar tecnologías anteriores como la SDRAM sin ECC,
UltraDMA/100, soporte para cuatro puestos USB y gestión de energía ACPI.
Más tarde, AMD lanzó una revisión de este chipset denominada 760-MP, orientada a placas base
multiprocesador.
o VIA TECHNOLOGIES.
Es hoy por hoy una de las más serias alternativas en cuanto a chipsets en cuanto a chipsets integrados en
placa base se refiere, tanto para Pentium 4 como para Athlon XP. Prueba de ello ha sido la incorporación
de novedades tecnológicas mucho tiempo antes de que fabricantes como Intel las integraran en sus
chipsets. A ello hay que unir una cualidad y estabilidad en sus chipsets bastante notables, lo que
convierte a las placas base con chipsets VIA en una muy buena opción a un precio muy competitivo.
o VIA PT800.
Este es el más reciente chipset de VIA para los últimos modelos de Pentium 4 con tecnología
HyperThreading. El bus del sistema de 800 Mhz, junto con el soporte de hasta 8 Gb de memoria
SDRAM DDR 400. Ofrece una transferencia de datos entre el Northbridge y Southbridge de hasta 533
MB/s. El chipset VIA PT800 se compone de Northbridge PT800 y del Southbridge VT8237.
Entre el resto de prestaciones, se encuentra el soporte AGP 8x, ATA/133 y Serial-ATA para dispositivos
IDE con soporte de varios niveles de RAID, así como la integración de un chip de red en el propio
Southbridge. Además permite la integración de 8 conectores USB 2.0, así como AC'97 con soporte
Dolby Digital 5.1 y un módem MC'97.
o VIA KT600.
Ofrece una frecuencia de bus del sistema de 400 Mhz. Soporta memoria SDRAM DDR a 266, 333 y 400
Mhz, así como SDRAM estándar. Soporta el estándar gráfico AGP 8x y los estándares ATA/133 para
dispositivos IDE, así como el nuevo Serial-ATA. Entre otras características que cabe destacar figura el
audio compatible AC'97 con soporte Dolby Digital 5.1 y 7.1 gracias a la tecnología Vinyl Multichannel
Audio. También soporta módem integrado compatible MC'97, una tarjeta de red Fast Ethernet VIA y
ocho puertos USB 2.0.
El conjunto lo integran los chips: el Northbridge es el denominado propiamente KT600 y el Southbridge
es el VT8237. Ambos chips se comunican entre gracias al bus específico de VIA denominado V-Link,
con una tasa de transferencia máxima de 533 MB/seg.
o VIA K8T800.
El chipset VIA K8T800 es uno de los más avanzados para la plataforma AMD hasta la fecha, orientado
totalmente a la plataforma ADM de 64 bits basadas en los microprocesadores AMD Opteron y Athlon
64. Ofrece una frecuencia del bus del sistema de 1,6 Ghz, algo totalmente sorprendente, gracias al bus
denominado HyperTransport que emplea la denominada tecnología Hyper8. Este bus es el que comunica
los dos chipsets que forman el chipset.
El VIA K8T800 soporta hasta 4 Gb de memoria SDRAM DDR a 266, 333 y 400 Mhz. El VIA K8T800
soporta el estándar gráfico AGP 8x y los estándares ATA/133 para dispositivos IDE, así como el nuevo
Serial-ATA.
o SIS 748.
La actual propuesta del fabricante SiS para la plataforma AMD Athlon XP es el chipset 748. Con una
frecuencia de bus del sistema de 400 Mhz, soporta memoria SDRAM DDR a 266, 333 y 400 Mhz, hasta
un máximo de 3 Gb, AGP 8x y el estándar ATA/133 para dispositivos IDE. Además, integra audio
compatible AC'97 en su versión 2.2 con soporte Dolby Digital 5.1, un códec para módem con soporte de
la norma v.90, seis puertos USB 2.0, soporte de gestión de energía USB y controladora IEEE 1394 que
permite hasta tres puertos de este tipo con tasas de transferencia de 400 MB/seg.
o SIS 755.
El fabricante SiS también ha desarrollado un chipset específico para la plataforma AMD de 64 bits. Se
trata del chipset SiS 755. Con una frecuencia de bus del sistema de 800 Mhz, soporta memoria SDRAM
DDR a 266, 333 y 400 Mhz, hasta un máximo de 2 Gb, AGP 8x y el estándar ATA/133 para dispositivos
IDE. Como es habitual, integra un sistema de audio compatible AC'97 2.2 con soporte para Dolby
Digital 5.1 y seis puertos USB 2.0
o ALI M1687.
La propuesta actual de Ali para la plataforma Athlon XP de AMD es el chip M1687. Ofrece una
frecuencia de bus del sistema de 333 Mhz. Soporta memoria SDRAM DDR 200/266 con frecuencia
máxima de 333 Mhz, así como SDRAM normal, AGP 8x y el estándar ATA/133 para dispositivos IDE.
o nVIDIA.
Conocido fabricante de algunos de los más avanzados chips gráficos, ha encontrado recientemente en el
mundo de los chipsets, con dos modelos, denominados nForce y nForce2, ambos destinados a la
plataforma AMD Athlon XP.
o LA FAMILIA nFORCE
El bus de comunicaciones, específico entre sus dos chips es denominado HyperTransport, que
proporciona una tasa de transferencia de 800 Mbytes/seg.
El bus del sistema soporta frecuencias de 200 y 266Mhz, mientras que el bus de memoria soporta
frecuencias de 100, 133, 200 y 266 Mhz. Soporta hasta 1,5 Gb de memoria SDRAM, tanto estándar
como DDR.
El nForce3 Pro, es uno de los primeros chipsets que dan soporte a los microprocesadores AMD de 64
bits (Optaron y AMD 64).
o ATI
Los modelos de chipsets de ATI existentes se encuadran en dos familias:
815EM.
830MP.
845MP.
o CHIPSETS VIA PARA PORTÁTILES.
Los chipsets KN266 y PN266T son los actuales modelos que VIA ofrece para microprocesadores Athlon
4 y Pentium 4, respectivamente.
Conector para arranque desde línea telefónica mediante módem (Wake On-Ring).
Conector para módulo de infrarrojos (irDA).
o ATA/33, 66, 100 y 133.
UltraDMA/33 es un protocolo desarrollado por Quantum Corporation que incrementaba las prestaciones
del bus IDE hasta conseguir una tasa de transferencia máxima de 33 Mb/s, frente a los 16,6 Mb/s que
proporcionaba el estándar ATA-2. Este protocolo se implementó en los chipsets TX y ha sido
perfeccionado sucesivamente hasta llegar al UltraDMA/133. No hay que olvidarse que la velocidad de
transferencia especificada en los modos UltraDMA siempre es teórica. En la práctica nunca se llega a
alcanzar.
Posteriormente se implantó la tecnología UltraDMA/66, que doblaba la velocidad de transferencia
máxima teórica del bus IDE hasta situarla a 66,6 Mb/s. También se la conoce como Ultra ATA/66. La
principal innovación que supone esta tecnología es que se necesitan nuevos cables para alcanzar dichas
velocidades. Aunque se mantienen los 40 pines del conector, sin embargo ahora la banda de datos
incorpora un total de 80 cables. Se usan los 40 habituales, mas otros 40 adicionales para control de
errores y para permitir una mayor claridad de la señal transmitida. Este nuevo estándar incorpora un
sistema de código de redundancia cíclica (CRC) para control de errores, al igual que ya hacía el estándar
SCSI. El UltraDMA/66 es totalmente compatible con los estándares anteriores, por lo que, si montamos
un disco duro con un cable IDE estándar, la unidad funcionará correctamente, aunque nunca llegará a
obtener la velocidad de transferencia máxima permitida por esta tecnología.
Posteriormente surgió el UltraDMA/100. Actualmente, el último estándar en transferencia IDE es el
UltraDMA/133 que implementan todas las placas bases de última generación. Esta evolución del
estándar UltraDMA permite una tasa de transferencia teórica máxima de 133 Mb/s.
o SERIAL ATA.
La principal diferencia es que se pasa de un modo de transferencia de datos paralelo a un modo de
transferencia serie, donde se emplean básicamente dos cables para datos, uno para transmisión y otro
para reopción, obteniéndose unas tasas de transferencias máximas de 150 Mb/s, aunque con revisiones
posteriores de este estándar se espera conseguir velocidades aún mayores.
Entre otras características del Serial ATA figuran la conexión de discos duros en caliente, la posibilidad
de usar cables de datos de una mayor longitud y unos voltajes de funcionamiento menores. Una
característica a la que no estamos acostumbrados es que el ATA es un interfaz punto a punto, por lo que
en cada cable Serial ATA sólo se puede conectar un solo disco duro, en lugar de dos como ocurría con el
ATA paralelo.
Alimentación ATX.
LED de disco duro.
LED de alimentación.
Altavoz.
Bloqueo de teclado (en placas base antiguas).
Reinicio (Reset).
o CONTROLADOR DE ENTRADA/SALIDA.
Es un chip de gran importancia, ya que controla gran parte de las comunicaciones de la placa base.
Dentro de este chip se suelen integrar, entre otros, los siguientes elementos:
o DMI.
Estas iniciales hacen referencia a Desktop Management Interface (Interfaz para Gestión de Escritorio).
Se trata de un estándar que permite la monitorización de determinadas funciones del PC, así como
parámetros que pueden servir como indicadores del buen o mal funcionamiento de los diferentes
componentes, todo ello de manera centralizada y única.
El DMI es un estándar totalmente independiente del hardware y del sistema operativo y permite
gestionar tanto ordenadores aislados como conectados en red.
DMI está formado por cuatro componentes:
Formato para la Gestión de Información (Management Information Format, MIF). Se trata de un
archivo de texto que contiene información específica sobre el hardware y el software de un ordenador
concreto. Los archivos MIF de cada componente hardware concreto suelen ser suministrados por el
propio fabricante.
Capa de servicio (Service Layer). Es un código residente en memoria que hace de intermediario entre
el componente hardware y el DMI. Permite al software acceder a los archivos MIF en la base de datos
MIF. Esta capa de servicio generalmente suele ser una aplicación que al instalarse permite al usuario
gestionar los diferentes elementos a monitorizar.
Interfaz de Componente (Component Interface, CI). Suele ser una librería que permite manipular
información del MIF haciendo uso de la capa de servicio.
Interfaz de Gestión (Management Interface, MI). Es una interfaz que permite al software de gestión
comunicarse con la capa de servicio.
Para hacer uso del DMI y de todas sus funciones de monitorización que este ofrece, se necesita una placa
base que soporte DMI, así como un paquete software de monitorización.
De todos los existentes, sin duda alguna uno de los más conocidos es el Intel LanDesk Manager, en sus
versiones cliente servidor.
o IDHMS.
Este sistema nos permite visualizar en cada instante información acerca de las variaciones en el voltaje
de la fuente de alimentación, voltaje y temperatura del microprocesador, ciclo de vida de la batería en
ordenadores portátiles, el sistema de memoria o los discos duros. El IDHMS trabaja generalmente a
nivel de BIOS y ya está totalmente implantando en la BIOS de todas las placas bases actuales.
o APM.
Las siglas APM responden a Advanced Power Management (Gestión Avanzada de Energía). Se
denomina así un componente software integrado en determinados sistemas operativos que en conjunción
con la BIOS del sistema, y basándose en esta, permite el control del las diferentes funciones de ahorro de
energía.
Es muy importante distinguir este punto. Tanto APM como ACPI son dos estándares de gestión de
energía. La diferencia fundamental es que APM realiza la gestión desde la BIOS, a un nivel más bajo,
mientras que con ACPI la práctica totalidad de funciones de gestión de energía se encuentra en el propio
sistema operativo, que debe incluir soporte para ACPI.
o ACPI.
ACPI (Advanced Configuration and Power Interface, Interfaz Avanzado de Configuración y Gestión de
Energía) es un estándar de gestión de energía desarrollado por Intel, Microsoft y Toshiba en 1996 que
permite pasar todo el control de la gestión de energía directamente al sistema operativo, lo que facilita
funciones tales como apagar automáticamente nuestro sistema o dejarlo en estado de hibernación.
ACPI se estructura en dos apartados: por un lado, la configuración de dispositivos, siguiendo el estándar
Plug and Play, y por otra parte las funciones de ahorro de energía. Las especificaciones ACPI para el
ahorro de energía se basan en cuatro niveles, que llevan al ordenador a un consumo de energía casi nulo
en el último nivel. El paso de uno a otro nivel de energía se puede observar en la velocidad de parpadeo
del LED de alimentación de la caja.
ACPI se diferencia de APM principalmente en una característica. Con APM es la BIOS la que determina
cuándo se debe entrar en los diferentes modos de ahorro de energía. Con ACPI, este control ahora se
pasa al sistema operativo y es desde aquí donde el usuario controla en qué momento entrarán en
funcionamiento los modos de ahorro de energía. Otra de las diferencias entre APM y ACPI es el número
de estados en el que el sistema se puede encontrar. En APM se definen cuatro estados posibles:
Habilitado, StandBy, Suspendido y Apagado. En ACPI, el número de estados diferentes es mayor:
S0. Encendido
S1, S2, S3. Durmiendo (en diferentes niveles). El nivel S3 es el más conocido, y se suele denominar
Suspend To RAM (STR).
S4. Apagado por software (mediante el sistema operativo).
S5. Apagado normal.
El estándar ACPI fue introducido con la aparición del chipset TX de Intel y se ha mantenido con todos
los chipsets posteriores. Para que un sistema pueda soportar ACPI se necesitas varios elementos:
Un sistema operativo con soporte ACPI. Todas las versiones actuales de Microsoft lo soportan.
Un microprocesador con soporte SMM. Todos los microprocesadores actuales incluyen dicho soporte.
Un chipset con soportes SMM. Todos los chipsets de Intel a partir del TX lo soportan.
Circuitería para el software ACPI. Todas las placas actuales incorporan dicha circuitería.
4 Ninguno Ninguno
Los arquitectos tienen que tener en cuenta una serie de detalles antes de empezar a diseñar sus
proyectos. Los datos incluyen las mediciones, las direcciones geográficas, las dimensiones, la
mano de obra, materiales, dinero, tiempo, las proporciones de la construcción de teorías, etc
matemático y científico se toman en consideración antes de hacer el diseño real. El propósito de
la estructura y el tamaño de la construcción son otros factores que entran en la composición del
edificio.
Redacción no sólo ahorra tiempo y energía, pero también aumenta la eficiencia de los
arquitectos. Por otra parte, con el diseño estructural frente a los ojos de los arquitectos, que
fácilmente se puede jugar con el diseño hacer cambios sin tener que volver todo el proyecto una
y otra vez.
Procesos de la Comunicación
Curso de PHP Online Aprende a Programar en PHP Ahora! Solo 2 pagos de US$ 99,
Reserva Hoy
Capacityacademy.com/Curso-PHPEnlaces patrocinados
Ahora bien, la computadora Cliente tan solo recibe una copia de las
páginas para la consulta y las almacena temporalmente en su sistema con el
objeto de re utilizarlas. Esto sucede cuando un usuario visita el sitio Web de un
portal. Las páginas transferidas hacia la computadora Cliente, resultan totalmente
estáticas y en formato HTML. En alguna sección de dicha página, se establece un
formulario de acción con el propósito de poder enviar una petición a la
computadora Servidor. El formulario se encuentra en espera y reaccionará cuando
el usuario accione algún mecanismo, por ejemplo, que haga clic en un botón
Enviar con el objeto de que se envíe la solicitud deseada. Por tanto, la
computadora Cliente solamente utiliza la página estática en formato HTML para
proceder con dicha comunicación y petición con el Servidor.
Arquitectura de 2 Capas ~ Cliente / Servidor
A veces la consulta o petición del cliente podría ser dirigida hacia una base
de datos. Por ejemplo, consultar acerca de la existencia de un libro en un catálogo
virtual que posee una librería virtual que opera en la Internet. A continuación,
analizaremos un caso de consultas Online. En el siguiente ejercicio práctico que
hará más tarde, tendrá la oportunidad de construir este ejemplo que analizaremos
en este apartado. Por tanto, empezaremos describiendo las partes que operan en
esta solución y sus detalles operativos.
Una vez transferido todos los archivos, el usuario podrá disponer del uso
interactivo que esta página Web le ofrece. Para ello, comienza a rellenar los
campos de búsqueda y selecciona el tipo de búsqueda que desea dependiendo de
las opciones ofrecidas por dicho recurso. Una vez que completa correctamente
todos los requisitos básicos de dicho formulario, procede a ejecutar la consulta
haciendo clic en el botón Buscar. A partir de este instante, la petición es enviada
directamente al servidor Web.
El uso de la función trim es para quitar los posibles espacios vacíos por
delante o por detrás de los datos escritos en el formulario del cliente. Puede que el
usuario escriba los datos en el campo de texto y haya dejado espacios vacíos por
delante o por detrás de sus escritos. La función trim nos garantiza que estos
espacios no pasen directamente al código dado que podrían incidir en los
resultados de las consultas finales.
A partir del resto del código, se utiliza una serie de funciones que tienen el
propósito de manipulación y obtención de los datos en pantalla, los cuales, pueden
ser formateados para su presentación final en la pantalla. Empecemos
describiendo dichas funciones.
La variable $consulta alberga la cadena en formato SQL para construir la
consulta estática. Notará que hemos utilizado el predicado LIKE para poder
realizar consultas de rango amplio. Para potenciar los métodos de búsqueda, la
variable llamada$terminbusqueda es la que inserta las palabras que ha escrito el
usuario en el formulario para luego su posterior envío. Si observa bien, se ha
encerrado entre signos porcentuales (%). Estos caracteres junto al
predicado LIKE se los utiliza para hacer que la búsqueda busque todos los
registros posibles cuyas palabras que figuran en la
variable$terminbusqueda coincidan con las que se hallan dentro de la tabla de la
base de datos.
Entrada, son todos los datos que hay que ingresar para la resolución del problema.
Proceso, son los diferentes procedimientos en los cuales usare los datos proporcionados por el usuario
en el paso anterior para resolver el problema.
La respuesta a la primera pregunta indicara los resultados deseados o las salidas del
problema. La respuesta a la segunda pregunta indicara que datos proporcionan o las entradas
del problema.
En esta fase debemos aprender a analizar la documentación de la empresa , investigar,
observar todo lo que rodea el problema.
3. Diseño de la solución
Una computadora no tiene la capacidad para solucionar mas que cuanto se le proporcionan
los sucesivos pasos a realizar. Estos pasos sucesivos que indican las instrucciones a ejecutar
por la maquina constituyen, como ya sabemos el algoritmo.
La información proporcionada al algoritmo constituye su entrada y la información producida
por el algoritmo constituye su salida.
Los problemas complejos se pueden resolver mas eficazmente con la computadora cuando se
rompen en subproblemas que sean mas fáciles de solucionar que el original. La
descomposición del problema original en subproblemas mas simples y a continuación dividir
estos subproblemas en otros mas simples que puedan ser implementados para su solución en
la computadora de denomina diseño descendente (top - down design ).
Es presiso representar el algoritmo mediante una determinada herramienta de
programación: diagramas de flujo, pseudocódigo o diagramas N - S.
4. Codificación
Es el algoritmo traspasado a la computadora a través de un lenguaje de programación,
debe ser escrito de acuerdo a las reglas gramaticales o sintaxis del mismo.
Generamos un algoritmo el cual se denomina código, y al pasarlo a un lenguaje de
programación se le llama código fuente.
5. Compilación y ejecución
Compilación, el lenguaje de programación seleccionado revisa que ya no halla errores en el
código fuente.
Ejecución, ejecutar el programa después del ser compilado.
6. Verificación y pruebas
Revisar que el programa de los resultados que el usuario quiere, hay que revisar si hay algún
error el cual puede ser de tipo lógico, de semántica o ejecución.
7. Depuración
Corregir los errores encontrados en la etapa anterior, si hubiese algún error se tiene que
regresar hasta la etapa que sea necesaria para que la solución sea la que el usuario requiere.
8. Documentación
Son todos los comentarios, referencias desde que se dio el problema hasta que se encontró la
solución.
a) documentación interna, es el encabezado, descripción, declaración del problema, son todos
los comentarios que puedan llegar a servir dentro del código fuente.
b) documentación externa, son los manuales que se hacen para una mejor ejecución del
programa, ahí se explicara como usar el programa.
9. Capacitación
Una ves que tenemos lo manuales viene la capacitación de usuarios, como no a todos les
interesa los mismo porque hay diferentes tipos de usuarios, se tienen que dividir de acuerdo a
sus conveniencias.
10. Implantación o implementación del sistema
Hay diferentes formas de implementar el sistema:
Depende del tamaño del sistema
Si existiera un sistema se tiene que poner el nuevo y quitar el que ya estaba.
Trabajar primero con el sistema viejo(si existe), y después empezar a trabajar con el nuevo.
Sistemas implantados por regiones.
Trabajar con el sistema viejo (si existe) y con el sistema nuevo simultáneamente después quitar el
sistema viejo.
Ir quitando el sistema viejo(si existe) poco a poco e ir implantando el sistema nuevo.
11. Mantenimiento
El mantenimiento preventivo es que hagamos lo posible por no caer en errores, la
actualización si el usuario tiene la necesidad de quitar o poner algo; téngase en cuenta que
cuando surge mantenimiento tenemos que volver a hacer todos los pasos anteriores revisando
que todas la condiciones sean favorables alrededor del sistema.
Fases de la programación:
1.- ANALISIS: Cuando se tiene y piensa la idea o problema a ejecutar.
2.- DISEÑO: Se plantea un algoritmo con los pasos a dibujar o realizarse.
3.- IMPLEMENTACION: Los pasos de algoritmo se transforma en un código pascal y se
plasman en el programa
4.- PRUEBAS: Se corre el programa y se registra su efectividad.
5.- DEPURACION: después de haber corrido el programa se hacen las correcciones
necesarias.
6.- RETROALIMENTACION Y LIBERACION: Después de haber corregido los errores se
regresa al paso 4 en caso de haber existido.
Introducción
Las arquitecturas de las computadoras evolucionando de forma rápida alcanzando sorprendes
velocidades y capacidades , sobre sus orígenes y sus partes más importantes, aclararemos
puntos muy importante sobre buses, puertos de comunicación, configuración de placas sobre
algunos modelos, en capitulo trato sobre la evolución de la mainboard y muestro alguno planos
y estructura de mainboard sacadas por asi decirlo de un museo, también
incluyo descripción fuentes y case se desarrollaron, en el capitulo tres vero sobre los socket y
slot para microprocesadores.
Presentación
Este documento fue recopilado buscando realidades diferentes que hay mercado, bueno espero
que se gran utilidad este documento para los que desean profundizar sobre el tema
de arquitectura de PC´s, espero que me envíen sus comentarios
a fersystem_soft@hotmail.com, agradecido anticipadamente a todos los lectores.
CAPITULO I
B. CACHÉ
Es un tipo de memoria del ordenador; por tanto, en ella se guardarán datos que el ordenador
necesita para trabajar.
Para explicar su funcionamiento haremos la siguiente analogía: supongamos que se debe
realizar una torta, para ello se recurre al supermecado y se compra la harina. Luego se va a una
cocina y se coloca la harina necesaria según la receta. Esta indica que debe agregarse leche;
nuevamente se va al supermercado y se compra leche. De vuelta en la casa se agrega la leche,
pero el próximo ítem es azúcar por lo que se debe recurrir nuevamente al supermercado y así
sucesivamente con cada ingrediente. Definitivamente jamás se haría esto en la vida real, sino
que se compraría todo lo necesario y se lo guardaría en la alacena, recurriendo a ésta por cada
ingrediente sin mayor pérdida de tiempo.
Llevando la analogía a la computadora, supongamos que la memoria principal es el mercado, el
programa a ejecutar es la receta, el microprocesador la persona que realiza la torta y la
memoria caché la alacena.
C. CHIPSET
Es el conjunto de chips que se encargan de controlar determinadas funciones del ordenador
El chipset como tal, no incluye todos los integrados instalados sobre una misma tarjeta madre,
por lo general son los dos o tres mas grandes. Los demás son los que realizan funciones
especificas como red, sonido, PLL, alimentación eléctrica y control de las temperaturas. El
chipset determina muchas de las características de una tarjeta madre y por lo general, la
referencia de la misma, esta relacionada con la del Chipset.
D. ZÓCALO ZIF
El zócalo o (en inglés) socket es un sistema electromecánico de soporte y conexión eléctrica,
instalado en la placa base, que se usa para fijar y conectar un microprocesador. Se utiliza en
equipos de arquitectura abierta, donde se busca que haya variedad de componentes
permitiendo el cambio de la tarjeta o el integrado. Es decir que se pueden retirar de la placa
base cuando se quiera cambiar.
Es el lugar donde se aloja el procesador
E. SLOT DE EXPANSIÓN
Son ranuras de plástico con conectores eléctricos (slots) donde se introducen las tarjetas de
expansión.
También llamado slot de expansión o ranura de expansión, es un elemento de la placa base de
un ordenador que permite conectar a ésta una tarjeta adaptadora adicional o de expansión, la
cual suele realizar funciones de control de dispositivos periféricos adicionales, tales como
monitores,impresoras o unidades de disco.
F. RANURAS PCI
Peripheral Component Interconnect ("Interconexión de Componentes Periféricos")
Generalmente son de color blanco, miden 8.5 cm es de hasta 132 MB/s a 33 MHz, no es
compatible para alguna tarjetas de vídeo 3D.
G. RANURAS DIMM
Son ranuras de 168 contactos y 13 cm. de color negro, es lugar donde nos permite
inserta memorias RAM tipo DIMM
H. RANURAS SIMM
Son ranuras de 30 conectores, y meden 8,5 cm. En 486 aparecieron los de 72 contactos, más
largos: unos 10,5 cm de color blanco, es lugar donde almacenaremos las memorias RAM tipo
SIMM.
I. RANURAS AGP
Puerto de Gráficos Acelerado, en ocasiones llamado Advanced Graphics Port, Puerto de
Gráficos Avanzado) es un puerto (puesto que solo se puede conectar un dispositivo, mientras
que en el bus se pueden conectar varios) desarrollado por Intel en 1996 como solución a los
cuellos de botella que se producían en las tarjetas gráficas que usaban el bus PCI.
El diseño parte de las especificaciones del PCI 2.1.
El puerto AGP es de 32 bit como PCI pero cuenta con notables diferencias como 8 canales más
adicionales para acceso a la memoria RAM. Además puede acceder directamente a esta a través
del puente norte pudiendo emular así memoria de vídeo en la RAM. La velocidad del bus es de
66 MHz.
Se dedica exclusivamente a conectar tarjetas de vídeo 3D,. ofrece 264 MB/s o incluso 528
MB/s. Mide unos 8 cm
J. RANURAS ISA
Son las más antiguas,. Funcionan con 8 MHz-16MB/s sirve para conectar un módem o una
tarjeta de sonido , Miden unos 14 cm y su color suele ser negro.
K. PILA
Se encarga de conservar los parámetros de la BIOS como la fecha y hora.
L. JUMPER
Es la forma mas simple de un conmutador de encendido/apagado, es un habilitador o
deshabilitado de funciones , trata de un conjunto de pines que se encuentran en los circuitos
impresos de mainboard, discos, etc.
Mediante los mismos, se configuran determinados aspectos periféricos. La tarea de las
características del seteo, se lleva a cabo mediante el uso de puentes(de conexión).
M. CONECTORES FRONTALES
Es un conjunto de pines donde conectamos el panel frontal del case, es decir los botones de
encendido , reset y los leds o indicadores, posee una regla de conexión: "Cables oscuros hacia el
pin positivo (+), y en el caso del speaker, el cable negro es tierra y el rojo tiene +5 v DC"
Después de haber detallado alguna de las partes de mainboard, se le vendrá a las memoria
que he obviado varias partes como: conectores SATA, IDE, Puertos USB, Ranuras para
memorias RIM, DDR1,DDR2, Slot para microprocesadores y otros más que faltan el tema es
muy amplio, por lo que voy a dividirlo en: Motherboards viejos, Motherboards
modernos y Motherboards contemporáneos, les aclaro que no hablo de tipos de placa
que otro tema.
1. MOTHERBOARDS VIEJOS
En los motherboard viejos existe una serie de switches, (pequeños interruptores) y Jumpers
(puentecitos metálicos que se pueden sacar y poner). En la mayoría de los casos, no es
necesario meterse con los jumpers éstos ya vienen configurados por el fabricante.
Los switches de opciones son otra historia; estos le dicen al motherboard que tipo de accesorios
tiene conectados al mismo, y cuanta memoria tiene instalada. Los switches están localizados en
un pequeño banco, denominado DIP (por Dual In-Line Package). El conjunto de switches DIP
tiene ocho pequeños controles en un algunos motherboards. Se pueden mover con la punta de
una lapicera o cualquier otro instrumento de punta.
2. MOTHERBOARDS MODERNOS
En los motherboards modernos la configuración no esta dada por los switches, sino por un
pequeño programa de setup. Este programa esta disponible en discos de utilidades embalados
junto con la maquina o insertos dentro del sistema y siempre disponibles. Este programa de
setup es accedido por muchos motherboards presionando la tecla Delete mientras la maquina
esta booteando (recién arrancada).
Los cambios que usted realiza en el programa de Setup son almacenados en un tipo especial
de memoria denominado CMOS (los circuitos integrados CMOS con conocidos por su poco
consumo de energía). El contenido de esta memoria no se pierde al apagar la maquina gracias a
una pequeña batería conectada al motherboard.
Aunque se usa el programa de setup, también hay una serie de switches para setear(reiniciar)
las opciones, muchos motherboards tienen al menos dos o tres conjuntos del tipo de chips
RAM y ROM que se tengan instalados.
Las motherboards tienen diferentes configuraciones acceso para entrar al programa Setup, en
otros se presiona la tecla F1, F10, CRTL+S, F12 y otros. Esto se debe a las diferentes marcas que
existen en el marcado
3. MOTHERBOARDS CONTEMPORÁNEOS
En los motherboards contemporáneos son similares a los modernos, con algunos avances como
detección y configuración automática, también se puede actualizar el programa Setup,
para poder reconocer nuevos dispositivos.
Gracias a al avance de las Flash Rom, además hay modelos donde incorporan doble BIOS,
como respaldo lo cual nos permite un mejor rendimiento, esta forma de trabajo lo patentan
mainboard que son de la familia AMD
PROBLEMAS GENERALES DE INCOMPATIBILIDAD
La flexibilidad de las computadoras personales nos permiten incorporar las llamadas tarjetas o
placas de expansión. Estas tarjetas agregan funciones que pueden no estar disponibles en el
mainboard, tales como interfaces extras, aceleradores de gráficos, etc. Estas placas de han
estandarizado bastante, pero subsisten algunas cuestiones de incompatibilidad, como puede
ser:
a) VELOCIDAD DEL RELOJ DEL SISTEMA:
A veces sucede que el sistema opera demasiado rápido para la expansión. Generalmente la
memoria suele ser lugar que causa el problema de incompatibilidad.
b) ESPECIFICACIONES DEL BUS:
Las maquinas mas veloces suelen tener un bus levemente modificado y esto tiende a causar la
mayor parte de los problemas Interferencia de radiofrecuencia: algunas placas
emiten señales de radio a un nivel suficientemente alto como para llegar a causar interferencia
sobre otros dispositivos. Esto generalmente sucede con las tarjetas gráficas.
c) INCOMPATIBILIDAD DE DIRECCIONES:
Puede suceder que distintas placas instaladas en una misma máquina posean direcciones
conflictivas.
d) CALOR Y CONSUMO DE ENERGÍA:
Aunque no es exactamente un problema de compatibilidad, el exceso de calor puede presentar
dificultades
N. PUERTOS DE COMUNICACIÓN EN LA MAINBOARD
Los ports(puertos de comunicacion) son muy importantes pues representan la interfase entre
el procesador y el hardware del sistema. El procesador utiliza el bus de datos para comunicarse
con los ports. Si necesita acceder a alguno de ellos, transmite una señal de control. Esta señal le
avisa al hardware que el procesador desea acceder a un port en lugar de acceder a la RAM.
La dirección del port se coloca en los 16 bits mas bajos del bus de direcciones. Esto instruye al
sistema para que transfiera los ocho bits de información presentes en el bus de datos hacia el
port correcto. El hardware conectado, a su vez, recibe la información y responde.
Existen dos instrucciones para controlar los ports: IN y OUT (enviar y recibir información de
un port).
Cada dispositivo de hardware es responsable de un área de direcciones de ports. Es por esta
razón que se producen conflictos entre las placas de expansión que utilizan las mismas
direcciones de ports. Así es que muchas de estas placas incluyen switches DIP para modificar la
dirección del port al cual van a responder.
O. INTERRUPCIONES
Existen dos tipos de interrupciones que puede manejar la PC.
1. INTERRUPCIONES DE SOFTWARE:
Éstas ejecutan una determinada parte de un código a partir de la ejecución de una instrucción
de interrupción. Para esto existe la tabla de vectores de interrupción en la parte baja de
memoria. En esta tabla se encuentra la dirección que va a tomar el registro IP, a partir de la
cual seguirá ejecutando. Por supuesto, en el momento de la interrupción se guarda el contexto
inherente a la parte del programa que estaba en ejecución, para ser restaurado luego de
finalizada la interrupción.
Una de las ventajas del uso de interrupciones es que un fabricante puede escribir sus propias
rutinas en BIOS y, aunque estas sean totalmente diferentes a las originales de IBM, le basta con
mantener el numero de interrupción y el formato de parámetros que se le pasa (y en los
mismos registros) para mantener la compatibilidad.
2. INTERRUPCIONES DE HARDWARE:
Estas interrupciones son producidas por diferentes componentes del hardware, y son pasadas
al procesador por el controlador de interrupciones. Seguidamente se da un listado detallado de
las mismas:
00h - División por cero
01h - Paso a paso
02h - NMI (Non-Maskable Interrup)
03h - Breakpoint
04h - Overflow
05h - Impresión de pantalla
08h - Timer
09h – Teclado
PRECAUCIONES GENERALES
Debido a que los componentes de la plaqueta madre son sumamente delicados, un
descarga electrostática puede fácilmente dañarla. Es muy importante, por lo tanto, tomar
ciertos recaudos a la hora de manipular la plaqueta, sobre todo en ambientes secos o
con aire acondicionado.
A continuación detallamos algunas de las precauciones que deben de llevarse a cabo con el fin
de evitar posibles daños al equipo:
Mantenga la plaqueta en su envoltorio anti-estático, hasta que esté listo para instalarlo.
Antes de retirar cualquier componente de su envoltura es conveniente tocar un superficie a
tierra con el fin de descargar posibles corrientes estáticas en el cuerpo.
Durante la instalación de los componentes o la configuración de los conectores se
recomienda descargarse frecuentemente.
P. LOS BUSES
Es el que envía la información entre las partes del computador, son los canales de
comunicación por el que circulan los datos entre el micro, la memoria, la memoria caché, etc.
En el ordenador hay varios buses, pero por «bus» se entiende al bus principal, que es el que
comunica el micro con el chipset.
Se trata de un conjunto de conductores (líneas) muy delgadas de cobre que están fijas,
colocadas sobre la superficie de la placa madre, se utilizan para intercambiar información y
conectar entre sí a los diferentes elementos que posee la placa madre, como así también los que
se encuentran conectados a ella.
Los buses son espacios físicos que permiten el transporte de información y energía entre dos
puntos de la computadora. Los Buses Generales son los siguientes:
BUS DE DATOS
BUS DE DIRECCIÓN
BUS DE CONTROL.
Vemos como están ubicados y como se comunican con las partes de la mainboard mediante
una representación grafica
1. BUS DE DATOS
El bus de datos es el camino por el que se transmite la instrucción o dato apuntado por el bus
de direcciones. Este bus se usa para realizar el intercambio de instrucciones y datos tanto
internamente, entre los diferentes componentes del sistema informático y los diferentes
subsistemas periféricos que se encuentran en el exterior.
2. BUS DE DIRECCIÓN
Es el camino por el que se envía la dirección de memoria que ocupa o va a ocupar la
información a tratar. Para determinar la cantidad de memoria directamente accesible por
la CPU, hay que tener en cuenta el número de líneas que integran el bus de direcciones, ya que
cuanto mayor sea el número de líneas, mayor será la cantidad de direcciones y, por lo tanto, el
tamaño máximo de memoria a manejar por el sistema informático. Este bus se compone de 32
líneas.
3. BUS DE CONTROL
El bus de control se encarga de manejar las señales de lectura/escritura a memoria, las
peticiones de interrupciones , las señales de reloj. Su trabajo, como lo dice su nombre es
controlar que la transmisión de datos se efectué sin problemas (colisiones).
EL ANCHO DEL BUS:
Es «él número de líneas disponibles para transferir datos», éste determina la cantidad de bits
que se pueden transportar a la vez. Cuanto más ancho sea el canal, mayor cantidad de datos
podrá transportar en cada ciclo de trabajo.
Como puede observar el microprocesador tiene una frecuencia de 166Mhz, siendo su frecuencia
base de 60Mhz, su factor de multiplicación es de 2.5x y la tensión del microprocesador es de
2.9v.
En este ejemplo solamente se configurará la tensión del microprocesador y la configuración
P54C o P55C (dependiendo de si posee instrucciones MMX o no.)
PASOS PARA CONFIGURAR UN MICROPROCESADOR EN UNA MODELO DE
MAINBOARD
1º PASO
Identificar las serigrafías impresas al motherboard o bien siguiendo las indicaciones del
manual correspondiente al motherboard, utilizar el mismo para ubicar donde están situados
los jumpers para poder realizar el seteo correspondiente.
CPU Voltage Setting (JP30,JP1 and JP2)
2º Paso
Una vez identificados los jumpers de seteo, procederá a leer las tablas que se encuentran en el
manual para la configuración o lo que sería lo mismo leer las serigrafías impresas en el
motherboard para así saber cuál es la combinación de jumpers que se debe utilizar de acuerdo
al microprocesador que vaya a incorporar al motherboard.
En este caso el microprocesador es un Cyrix 6x86MX por lo tanto el tipo de
voltaje es (Dual Voltaje: Voltaje Doble).
Esta imagen detalla como debe ser configurado el jumper JP30 que determina el voltaje, en el
caso del procesador que se está explicando, el mismo es de 2,9v, ubicando este valor en la tabla
se procederá a setear el jumper de la manera indicada.