Sie sind auf Seite 1von 83

UNIDAD 1

Introducción. Conceptos
básicos

1. Las TIC´s y áreas de aplicación.


2.Componentes de un sistema de cómputo.
1.3. Dispositivos de almacenamiento.
4. Dispositivos de procesamiento.
5. Dispositivos de Entrada/Salida.
6. Tipos de computadoras y sus
dispositivos.
1.1. Las TIC´s y su aplicación a las necesidades de
Información Globalizada

La influencia de la globalización tecnológica en el campo de


las Tecnologías de Información y Comunicación ha alcanzado
límites increíbles e inimaginables en la actualidad llegando a
considerarse incluso como un cuarto poder muy aparte de los
res que generalmente tiene un país. El impacto de los amplios
usos de estas herramientas basadas principalmente en la
ingeniería informática permite hoy a las sociedades acceder a
servicios que antes eran monolíticos o exclusivos para
algunos clientes.

Información digital en inmensas cantidades es transmitida y


recibida por las distintas redes que hacen posible el acceso a
servicios que no solo son de datos alfanuméricos ya que ellos
también tienden a ser gráficos. Los usuarios no solo suben o

1
bajan datos también intercambian datos llegando en algunos
casos a realizar operaciones principalmente en campos donde
ellos encuentran servicios como el de la banca al hacer un
deposito o transacción monetaria, transporte al comprar
tickets electrónicos, hospedaje ya que pueden debitar
directamente de sus cuentas los gastos que conlleva esta
actividad o incluso realizar compras o vender artículos online
desde cualquier parte del mundo.

En todas estas actividades los usuarios requieren visualizar el


lugar, la ruta a seguir o donde comprar o vender lo que les
interesa. El presente documento pretende realizar un
cercamiento a los avances y aplicaciones de las TIC´s en el
campo de la visualización y sistematización de la información
que se maneja en un mundo globalizado que es tendiente a
brindar servicios y acortar distancias.

Partiendo de la base de que se deben unificar los procesos


relacionados con la información que debe facilitarse a los
usuarios; varios dispositivos y aplicaciones son desarrollados
para cumplir con este fin. La tendencia de las redes
informáticas como sistemas integrados basan principalmente
su funcionamiento en catálogos, servidores, software;
aplicaciones que están al alcance de todos a través de la Web.
Por ello es también importante enfatizar que en Internet, estas
cumplan una serie de condiciones de interoperabilidad
normas, especificaciones, protocolos, interfaces,…).

2
bajan datos también intercambian datos llegando en algunos
casos a realizar operaciones principalmente en campos donde
ellos encuentran servicios como el de la banca al hacer un
deposito o transacción monetaria, transporte al comprar
tickets electrónicos, hospedaje ya que pueden debitar
directamente de sus cuentas los gastos que conlleva esta
actividad o incluso realizar compras o vender artículos online
desde cualquier parte del mundo.

En todas estas actividades los usuarios requieren visualizar el


lugar, la ruta a seguir o donde comprar o vender lo que les
interesa. El presente documento pretende realizar un
cercamiento a los avances y aplicaciones de las TIC´s en el
campo de la visualización y sistematización de la información
que se maneja en un mundo globalizado que es tendiente a
brindar servicios y acortar distancias.

Partiendo de la base de que se deben unificar los procesos


relacionados con la información que debe facilitarse a los
usuarios; varios dispositivos y aplicaciones son desarrollados
para cumplir con este fin. La tendencia de las redes
informáticas como sistemas integrados basan principalmente
su funcionamiento en catálogos, servidores, software;
aplicaciones que están al alcance de todos a través de la Web.
Por ello es también importante enfatizar que en Internet, estas
cumplan una serie de condiciones de interoperabilidad
normas, especificaciones, protocolos, interfaces,…).

2
Más allá del riesgo que involucran estas tecnologías esta por
ejemplo el deterioro de las relaciones humanas, la
dependencia y adicción a las maquinas, la falsa idea que en
internet este toda la información y que esta se limite a la
cultura de webs, wikis, blogs, visualización de videos en You
Tube, pues dicha información puede estar poco contrastada o
tal vez fuera de la realidad cultural que se pretende mostrar.
Lo positivo del aporte y avance del las TIC´s en la información
globalizada radica en su gran aporte en aplicaciones de
Sistemas de p osicionamiento Global “GPS”, fusión de
tecnologías de imágenes satelitales y de GPS a través de
Google Maps o Google Earth. Viajes alrededor del mundo,
viajes por el espacio, visitas a Marte o incluso viajes al fondo
del mar, un sinfín de posibilidades abiertas a necesidades de
información globalizada.

AREAS DE APLICACIÓN

Tecnología de Información y su Aplicación

Estratégica Abstracto:

Este articulo presentará la Tecnología de Información como


una herramienta estratégica para la estrategia corporativa ya
que tiene como objetivo además de apoyarla, ayudar a
definirla. Posteriormente tocará un poco sobre cada elemento
clave de la TI (procesamiento de datos, automatización de
oficinas, telecomunicaciones, inteligencia artificial y la

3
tecnología Internet) su aplicación estratégica y algunos
pensamientos de hacia dónde se dirige.

Apoyando la Estrategia Corporativa

La tendencia de la Tecnología de la Información (TI), en los


últimos años, en los países más desarrollados ha sido la de
apoyar la estrategia corporativa. Sin embargo, en los países
en vías de desarrollo la TI se ha limitado solamente a apoyar
la administración financiera y las operaciones básicas
(contabilidad, cuentas por pagar, cuentas por cobrar,
inventarios, facturación, presupuesto, etc.).

Tal vez, lo más difícil que enfrenta una empresa que desea
introducir o mejorar la TI es la falta de una estrategia
corporativa clara; sin ésta, es muy fácil equivocarse e invertir
grandes cantidades de dinero en aplicaciones que no tienen
ninguna funcionalidad estratégica para la organización.
Muchas empresas creen que computarizar las herramientas de
control es en sí una estrategia, e insisten que el hacerlo les
proporciona ventajas competitivas con las demás empresas
que no tienen "informática". ( Según el Diccionario Larousse,
informática se define como: "Ciencia del tratamiento
automático y racional de la información considerada como
soporte de los conocimientos y las comunicaciones"). Y esto
es el error más grande que pueden cometer, el de compararse
con otras empresas y pensar que todavía están en la década
de los 80 y que la globalización no existe. Quiero clarificar
este punto, la realidad es que las empresas miltinacionales
que
4
vienen a nuestros países en vías de desarrollo, ya tienen
como arma estratégica para competir una tecnología de
información más avanzada que la que generalmente nosotros
tenemos. Y es con esas empresas que nos tenemos que
comparar para poder competir en este mundo globalizado.

¿Cómo vamos a competir con estas empresas que tienen


tanto captial invertido en tecnología, personal altamente entrenado
y por lo general más productivo? 

En primer lugar, lo más importante es tener la convicción de


que podemos competir si tenemos una estrategia clara que
nos dé una dirección correcta hacia el futuro, y en segundo
lugar, tener las herramientas que nos apoyen a lograr esta
estrategia.

Y qué es estrategia? No quiero entrar en una discusión de qué


es estrategia, pero digamos que tiene que ver con el
posicionamiento de una empresa en un mercado, de tal forma
que le dé a sus clientes valores agregados en base a la
conveniencia de adquirir un producto o servicio, en base a la
necesidad por un producto o servicio o por la variedad de
productos o servicios que ofrece. Larousse define estrategia
como: "habilidad para dirigir un asunto"; Michael Porter la
define como: (Michael Porter, What is Strategy, Harvard
Business Review, pág. 68, noviembre-diciembre 1996) " la
creación de una posición única y de valor que envuelve un
grupo de diferentes actividades." El punto aquí es, que para
mantener una posición estratégica hay que ser bueno en una
serie de actividades complementarias entre sí, que son las
que 5
al final nos diferencian de los demás e instan a los
consumidores a escogernos. También Porter distingue en el
mismo artículo que la eficiencia operacional es hacer una
actividad mejor que los rivales, pero que no debemos de
confundir la búsqueda de la productividad, calidad o velocidad
y las herramientas para lograrlas como calidad total,
benchmarking, reingeniería, etc. como la estrategia misma.
Porter también dice que el éxito de toda estrategia depende en
hacer muchas cosas bien, no solo unas pocas, integrándolas
entre sí.

Aquí es donde yo quisiera regresar a la tecnología de


información y asegurar que es la única herramienta que existe
con una capacidad integradora total y que puede integrar las
cosas que hacemos bien para desarrollar con éxito la
estrategia corporativa. La integración no se da solamente en
dos dimensiones, sino que se da en cuatro dimensiones.
Integra las herramientas de control, de toma de decisiones y
de apoyo (dos dimensiones, el plano corporativo) con la
gente, la cultura corporativa, la visión, misión y objetivos
estratégicos (le agrega fondo y por tanto una tercera
dimensión) y las proyecta en el tiempo (la cuarta dimensión)
satisfaciendo a su paso los mercados dinámicos de este
mundo globalizado.

Plan Estratégico para el Uso de la Tecnología de Información


(PEUTI)

Este tema no lo quiero ahondar mucho ya que en si mismo es


un tema muy rico, pero deseo mencionar que para utilizar
6
correctamente la TI es esencial al elaboración de un plan
estratégico para su uso. Como puntos específicos en el
desarrollo de este PEUTI hay que iniciar identificando la
Visión, Misión, y objetivos estratégicos, correlacionarlos con
los factores clave de éxito (FCE) que los apoyan, analizar las
áreas de negocios y los procesos, e identificar la aplicaciones
necesarias que tendrán la funcionalidad que necesita la
organización. Una vez identificado lo anterior es importante
elaborar matrices de FCE-aplicaciones, y áreas de negocio-
aplicaciones y en base a esto prioritizar las aplicaciones a
desarrollar y elaborar la calendarización necesaria en base a la
disponibilidad de recursos.

Componentes de la TI

Otro factor importante es conocer y saber utilizar los distintos


componentes de la TI en una forma racional y adecuada para
lograr esta integración y así poder sostener el
posicionamiento de nuestra empresa. Por eso es que en este
momento quiero aterrizar un poco y discutir qué ventajas
estratégicas nos pueden dar los componentes básicos de la
TI.

Procesamiento Electrónico de Datos

Quisiera iniciar por el Procesamiento Electrónico de Datos, sin


duda el componente de la TI más utilizado en la actualidad y
que cumple con una función fundamental en la organización.
Utilizar el hardware y el software para automatizar el proceso
de recolección, análisis y salida de datos para convertirlos en
7
información seguirá siendo fundamental en cualquier
organización. En este sentido la utilización de Sistemas de
Administración de Bases de Datos Relacionales (RDBMS, por
sus siglas en inglés) deberá ser la única alternativa real con la
que cuente una organización para manipular sus datos e
integrar en dos dimensiones los sistemas orientados al
control y a la toma de decisiones. Como concepto
fundamental para el uso de un RDBMS deberíamos de tener
en cuenta que los datos de entrada al sistema deberán de
enterarse una sola vez y en su lugar de origen, ya que esto es
lo único que garantiza una integración real al no duplicarlos.
La aplicación de este concepto eliminará la redundancia y
hará eficiente el uso de este recurso informático.

Otro concepto importante para la utilización eficiente de un


RDBMS es la separación en dos etapas es la forma en que un
sistema manipula los datos: etapa usuarios-datos y etapa
datos-procesamiento. Para un usuario el hacer altas, bajas y
cambios en los datos deberá ser un proceso amigable, rápido
y confiable utilizando un ambiente de ventanas como los
brindados por Windows. Esta etapa de manipuleo por estar al
frente del usuario, en inglés se le llama front-end, y por lo
general se hace con programas como Visual-Basic, MS
Access, etc., pero lo importante aquí es que los front-end
cambiarán y antes del año 2000 serán navegadores de
internet, como Netscape Communicator y MS Internet Explorer
utilizando lenguajes comunes que sirvan de interfase y
puertas de interacción con servidores Web o programas
hechos en CGIs
8
(Common Gateway Interface) para publicaciones, y en APIs
(Application Processing Interface) propietarios como Java,
Java-Script, Active-X, etc. para el procesamiento de los datos.
La segunda etapa, en donde el dato es procesado, se llama en
inglés back-end, y aquí los RDBMS (como Informix, Oracle,
Sysbase, etc.) funcionan como máquinas eficientes en el
manipuleo que transformarán los datos en información.
Estratégicamente hablando, el no tener redundancia en los
datos y tener facilidad de accesarlos nos hará más eficientes.

Como ultimo punto deseo mencionar que los RDBMS


modernos ya incorporan facilidades para el manejo de objetos
como fotos, textos completos, textos escaneados, planos, voz,
sonidos, etc.. Inclusive ya se ven tendencias de la integración
de tecnologías CAD/CAM (Computer Aided
Manufacturing/Computer Aided Design) con MRPII (Materials
Requirement Planning II) y con tecnología Internet.

Automatización de Oficina (AO).

La AO ayuda a mejorar la productividad e integra las


funciones básicas para la elaboración de documentos; provee
una serie de herramientas que ayudan en el análisis de
sensibilidad de escenarios corporativos en distintas áreas del
negocio y ayudan en la presentaciones internas y externas
que promueven la venta de nuevas ideas, productos o
servicios. Además, nos apoyan en la planificación de nuestro
tiempo en carácter individual y en la programación de la
utilización de recursos en los proyectos. Este campo de la TI
será uno de los
9
que tendrá un impacto más profundo en la cultura futura de
las corporaciones. La razón de lo anterior se debe
precisamente a la incorporación de tecnología Internet en
todas las herramientas que se utilizan para la AO, y en
algunos casos más específicos aplicaciones de grupo.
Escenarios distintos se pueden imaginar en este campo, por
ejemplo documentos compartidos y siendo editados en
tiempo real por varias personas al mismo tiempo
independientemente de las fronteras geográficas; la
incorporación de multimedia, incluyendo voz y video para las
comunicaciones interactivas sin necesidad de la utilización de
aparatos telefónicos son ya una realidad, y la tecnología está
al alcance de cualquier empresa; correos electrónicos
interactuando con acceso a bases de datos corporativas,
enviando y recibiendo información mientras se actualizan las
bases de datos. En fin, todo aquello que mueva la información
y no el papel serán factores clave para mejorar la
productividad de la oficina. En este componente los intranets,
es decir redes corporativas privadas utilizando la tecnología
internet, jugarán un papel preponderante.

Telecomunicaciones

Las telecomunicaciones han jugado un papel clave en la


tecnología cliente/servidor, en la conexión de servidores en
Redes Locales (LAN, por sus siglas en inglés) y Redes
Amplias (WAN, por sus siglas en inglés); y con el
advenimiento del Internet un papel esencial en la
globalización. El Internet es lo más importante que le ha
sucedido a las telecomunicaciones
10
en toda su historia. Para ver la magnitud que las
comunicaciones tienen en la tecnología de la información en la
actualidad, podemos citar el estudio hecho por Mark Lottor de
Network Wizzards en Menlo Park, California, EEUU, julio 1997
(http://www.nw.com; ftp://ftp.nw.com/zone), en
últimas medidas arrojan que hay donde19.5 millones las
de
computadoras (hosts u hostales) conectadas al internet en 214
países. En este sentido el crecimiento anual esperado es de
52% en forma lineal (Ya dejó de crecer en forma exponencial y
está creciendo linealmente en 18,339 hostales por día.), pero
lo interesante es que el crecimiento de servidores de www
(por sus siglas en inglés, world wide web) sigue siendo
exponencial creciendo 256% anual a un nuevo total a julio del
97, de 760,000 hostales de www.

Lo relevante de lo anterior es que existen protocolos de


comunicación como el TCP/IP que han hecho de las
telecomunicaciones algo fácil, y por esta razón el potencial de
crecimiento sigue siendo espeluznante, y las posibles
aplicaciones para la estrategia corporativa, apenas se están
conociendo.

Inteligencia Artificial

Este es un campo muy interesante, y que estuvo de moda en


la década de los 80, pero cayó en el letargo a causa de la
explosión de la tecnología Internet. Aun así, es importante
tener en cuenta que éste componente de la TI está aún en
pañales. Las aplicaciones de inteligencia artificial que se

11
desarrollan en la actualidad a través de Sistemas Expertos,
tienen papeles importantes, aunque poco difundidos, en la
estrategia de algunos negocios como hospitales, oficina de
leyes, seguros, y la banca, entre otros. Es de esperar que éste
componente se desarrolle más gracias al Internet. Ya se está
hablando de policías robots con facultades de navegar
libremente en el tejido del mundo del internet investigando
transacciones comerciales, detectando acosos sexuales, y
otras cosas como estas. Aunque no creo que esto suceda
pronto debido a los problemas de invasión de privacidad e
inclusive de soberanía que esto pueda tener.

Internet/intranet

Probablemente representa el más grande potencial que tienen


las corporaciones para desarrollar estrategias de negocios
dentro de la globalización, pero también representa la
oportunidad que tienen las empresas pequeñas de proyectarse
como las empresas grandes independientemente de las
fronteras geográficas.

El Comercio Interactivo será un elemento esencial para el


Sistema de Transacciones Comerciales en el Internet, el cual
tendrá como objetivo convertir a navegantes y mirones
ocasionales (del Internet) en clientes. El reto para las
empresas que participen en el comercio interactivo será el de
preparar la infraestructura adecuada con constante conexión
al Internet, y como ya lo mencionábamos antes cuando
discutimos sobre el

12
procesamiento de datos, teniendo el Web como front-end y las
bases de datos corporativas como el back-end.

Mirando introspectivamente y haciendo uso de los intranets,


ésta tecnología ayudará a mejorar la comunicación interna
impactando así la cultura corporativa de una forma muy
positiva. También ayudarán a la implementación de
herramientas que tengan como objetivo la eficiencia
operacional porque facilitará que los equipos de trabajo y los
individuos sean facultados a tomar decisiones debido al
acceso compartido de información sin que medien fronteras
geográficas. Finalmente, el Intranet es una excelente
herramienta para promover la visión, misión y los valores
corporativos y así lograr la sinergia necesaria en este mundo
de alta competitividad e indiscutible camino hacia la
globalización total.

Considero que las empresas que tomen la decisión de iniciar a


planificar una orientación hacia los Intranets tendrán ciertas
ventajas competitivas, especialmente en el bajo costo de los
programas de navegación vs. los clientes convencionales. En
este sentido, sí deseo recomendar que hay que iniciar el
movimiento con las aplicaciones de bases de datos de bajo
riesgo y así minimizar la posibilidad de comprometer la
integridad de la data.

Para ahondar mas sobre este punto ya que lo considero


fundamental en el desarrollo futuro de la TI en el mundo
corporativo quisiera citar lo que dice un estudio hecho por la

13
empresa Giga Information Group, Mejores Prácticas en el
Diseño de la Capacidad Internet/Intranet Emergente, 1996, en
empresas que han desarrollado con éxito aplicaciones en
Internet/intranet:

Las técnicas de diseño Internet/intranet tienen que ver con


acceso a bases y bodegas de datos, integración del correo-e,
integración de los mainframes con tecnología cliente/servidor,
Intercambio Electrónico de Data (Electronic Data Interchange,
EDI) basado en el Internet, y las alternativas de colaboración
del contenido o administración del conocimiento. Un diseño
exitoso se basa la escogencia correcta de navegadores,
servidores, seguridad, muros de fuego, redes TCP/IP,
herramientas de publicación de contenido, estaciones de
trabajo y bases de datos. Y esto a su vez depende de la
evaluación de la estrategia del vendedor de tecnología para la
infraestructura, software para el cliente, software de servidores
y paquetes de software con capacidades de web.

El mismo estudio de Giga cita que el propósito que han tenido


las aplicaciones con tecnología Internet/intranet (Internet e
intranets ahora representan una sola tecnología) han sido
orientados hacia:

Herramientas estratégicas de mercadeo para llegar a nuevos


clientes, Internet.

Comercio Electrónico, Internet

14
Comunicación Interna Estratégica, Intranet (Ver
http://www.uam.edu.ni/usuarios/ejn/intranet/intranet.htm) :

Herramientas Estratégicas para Comunicaciones Externas,


Internet

En este sentido el estudio encontró que el catalizador


principal para el desarrollo de esta tecnología fue el empuje
que ha tenido el Comercio Electrónico y los beneficios
resultantes.

Por el lado de reducción de costos o simplemente evitar


costos estos beneficios se reflejan en:

1. Bajar los costos de servicio al

cliente, 2. Mejorar el servicio al cliente,

3. Mejorar el Comercio Electrónico (EDI),

y 4. Adicionar socios comerciales.

Por el lado de la generación de Ingresos


se encuentran:

1.Venta de productos,

2.Venta de anuncios, ($74 millones en 1996, $2.6 mil millones


estimados, en el 2000)

3.Venta de información, y

4.Canal de ventas adicional.

Conclusiones 15
Como podemos ver existen oportunidades en cada uno de los
componentes de la TI para apoyar la estrategia corporativa,
pero más aún, podemos concluir que sin una tecnología de
información adecuada que apoye la estrategia, una empresa
no podrá competir en el mundo globalizado. También
podemos inferir que la utilización de todos los componentes
de la TI tienen un grado de complejidad no apta para ser
implementados por aquellos que tienen pocos conocimientos
en la tecnología existente en las vísperas del nuevo milenio.
Por último, es importante hacerle ver a los gerentes
corporativos que cuando piensen en desarrollar su estrategia
empresarial es de vida o muerte la incorporación de una
estrategia tecnológica que les permita sostener su ventaja
competitiva. Y es que un negocio es como andar en bicicleta,
si uno no mantiene la velocidad, se cae.

Un último pensamiento: El primer paso que ustedes deberían


de tomar si desean ser exitosos es decidir qué tipo de
empresario o ejecutivo desean ser. Hay tres categorías:
Personas que hacen que las cosas sucedan; aquellos que ven
cuando las cosas suceden; y aquellos que se preguntan que
fue lo que
pasó.

ACTIVIDAD

INVESTIGAR CAMPOS DE APLICACIÓN DE


LAS TECNOLOGIAS DE LA INFORMACION.

16
1.2. Componentes de un sistema de cómputo.
USUARIO:

Puede definirse el término Usuario como cualquier persona


que pide o recibe servicios de proceso de datos. Entre los
usuarios se encuentran estudiantes, ejecutivos de
corporaciones que efectúan complejos análisis financieros de
ventas anuales etc. Los usuarios generan la demanda de los
Servicios de Computación.
Diferentes Usuarios que utilizan las Computadoras

Usuario:
Es la persona que utiliza la computadora para realizar un
trabajo y obtener de está un resultado.
Superusuario:
Usuario que tiene acceso a cualquier punto del sistema
sin restricciones y cuenta con todos los privilegios.
Administrador de Sistemas:
Persona Técnica encargada de gestionar el sistema:
Contabilidad, usuarios, Permisos etc. es súperusuario ya
que es un usuario privilegiado con todo tipo de
privilegios.
Usuario Privilegiado:
Usuario que cuenta con ciertos privilegios para realizar
algunas funciones o acceder a cierta información no
accesible al resto de usuario.
Usuario no Privilegiado:
Usuario que solo puede acceder a su propia información
y
a la que le permitan los demás.
Operador:
Persona especializada y dedicada a
manipular la
computadora con objeto de realizar
determinados trabajos de
17 accionamiento y control de
los equipos.
Programador:
Persona especializada y dedicada a codificar programas
en lenguajes de alto nivel o bajo nivel para ser
ejecutados en computadora. Otras de sus misiones son
el mantenimiento y documentación de los programas.
Podemos diferenciar 2 tipos de programadores:
Programadores de aplicaciones:
Es el encargado de codificar programas para los
usuarios
finales. En general suelen desarrollar aplicaciones
compuestas por uno o más programas sin privilegios
especiales.
Programadores de Sistemas:
Es el encargado de desarrollar programas y utilidades
del
sistema operativo. Son programas específicos que se
desarrollan para resolver un problema.
HARDWARERepresenta la parte física de un sistema
(Computadora) incluyendo procesador, informático
almacenamiento memoria,
etc.

ESQUEMA BASICO DEL


HARDWARE.

18
QUE SON LOS PERIFÉRICOS:

Se puede considerar periférico a todo aquel dispositivo en


contacto con la computadora de forma externa, es decir, no
incluido como parte integrante de su placa principal.
Así, por ejemplo, la tarjeta de video es un periférico de salida
que funciona en conjunción con el monitor. En este sentido, si
el ordenador dispone de una placa que integra el sistema de
video, no se podrá considerar dicha placa como periférico,
pero sí al monitor, puesto que en cualquier caso este
dispositivo nunca ira incluido en la placa principal de la
computadora
Atendiendo a la dirección en la que se desplaza la
información a través de ellos, los periféricos pueden ser
básicamente de tres tipos: periféricos de entrada, de salida y de
entrada/salida.
1.3. DISPOSITIVOS DE ALMACENAMIENTO
Memoria auxiliar o dispositivos de almacenamiento

En la actualidad se utiliza principalmente dos tecnologías para


almacenar información: Almacenamiento magnético y el
Óptico.
Son dispositivos de almacenamiento masivo de información
durante el tiempo que se desee, recuperándola cuando sea
requerida. Es útil pensar en el almacenamiento como si fuera
un archivero electrónico y en la memoria principal como si
fuera una mesa de trabajo electrónica. Cuando necesitas
trabajar con una serie de datos la computadora extrae los
datos del archivero y los pone sobre la mesa. Cuando ya no
necesita los datos, los guarda en el archivero.

19
Dispositivos de almacenamientos magnéticos
Disco flexibles: Son fabricados en material plástico recubierto
con una capa de oxido magnético muy delgado, el cual esta
dentro de una funda protectora de plástico grueso, para evitar
que se doble, raye o contamine durante su manejo.
Tiene las siguientes presentaciones:

Los discos nuevos (magnéticos y ópticos) hay


que
círculos concéntricos
“mapearlos” magnéticos
o formatearlos, primero para crear “ una serie
Pis tas” . Su
número
llamados
de varía conforme al disco. Cada pista esta dividida en
partes muy pequeñas. Cada división corta transversalmente
todas las pistas del disco, resultando segmentos más
pequeños llamadas “Sectores” por ejemplo: si un disco tiene
80 pistas y 18 sectores por pista tiene 1440 sectores por cara
como son dos lados 1440 x 2 = 2880 sectores en total.
Cada sector es numerado en forma única
comenzando con los sectores de la
parte externa o sea de afuera para
adentro empezando con el sector cero.
Aunque los sectores se distribuyen en
círculos concéntricos, la computadora
los ve como si fuera una línea recta
única.
En la mayoría de los discos, un sector contiene 512 bytes. El
sector es la unidad más pequeña con la que cualquier disco
puede trabajar.

20
No todos los sectores de un disco flexible son usados para
almacenar datos. Algunos sectores mantienen datos sobre el
mismo disco y donde esta localizada la información en este.

Solo quita el 1.1% del espacio total del disco.

Registro de arranque: Es un pequeño programa que corre


cuando se enciende la computadora. Determina si el disco
tiene o no los componentes básicos del Sistema Operativo
DOS necesarios para correrlo con éxito, si determina que los
archivos necesarios están presentes y que el disco tiene
formato valido pasa el control a uno de los programas del
DOS el registro de arranque también describe otras
características del disco como en el número de bytes por
sector y por números de sectores por pista.
FAT (Tabla de asignación de archivos) es un registro que
graba la ubicación de cada archivo y el estado de cada sector.
Cuando grabas un archivo en el disco, El Sistema Operativo
revisa el FAT para localizar un área libre, almacena el archivo y
lo identifica junto con su ubicación en la FAT.
Directorio Raíz: Normalmente los usuarios no necesitan ver la
información en la FAT, pero sí utilizan a menudo la información
del directorio. En un disco el directorio detalla la información
específica acerca de cada archivo, como el nombre del
archivo, su tamaño, la hora, y fecha en que fue creado ó su
última modificación, entre otros datos.

21
Discos duros: Estos se han convertido en el principal
dispositivo de almacenamiento de las computadoras debido a
que son increíblemente cómodos. En velocidad y capacidad
sobrepasan en cada giro al disco flexible ya que pueden
almacenar más que un disco flexible debido a que el medio, la
velocidad y precisión de giro del disco permiten que la
información sea acumulada más densamente y tenga un
rápido acceso.
El Disco Duro esta compuesto por metales rígidos de cobre y
aluminio y pude almacenar desde 5MB hasta miles de MB
(Gigabytes).
Diferencias entre los Discos Flexibles y los Discos Duros:.
1.Los discos flexibles están separados de la unidad lectora, en
cambio la unidad lectora del Disco Duro y el disco están
unidos los dos términos se utilizan recíprocamente y
significan toda la pieza disco y unidad. Algunas fabricantes
hacen Discos Duros removibles los cuales se conectan a
una unidad separada.
2.Una diferencia física de importancia entre estos discos es
que los discos duros son rígidos (metal frecuentemente
aluminio) en lugar del material flexible de los discos
flexibles.
3.Debido a que las tolerancias y rigidez del metal con que está
construido el disco duro permiten al disco girar mucho más
rápido que un disco flexible, un disco duro gira a una
velocidad cercana a las 5400 hasta 10000 RPM (revoluciones
por minuto) en lugar de las 300 RPM de un disco flexible.
4.Los discos duros almacenan mucho mas información por
pulgada cuadrada que un disco flexible, esté puede tener
135 pistas por pulgada en cambio el disco duro fácilmente
puede comprimir correctamente más de 100 pistas x
pulgada.

22
5.Los discos flexibles solo tienen dos lados o dos caras en
cambio los discos duros pueden llegar a contener hasta 12
lados pero solo se pueden utilizar 10 lados. En los discos
duros se le llaman cilindros lo que en los discos flexibles se
le llaman pistas ya que es la misma pista a través de todos
los lados.
6.En ambos en discos duros y discos flexibles, el contenido
de los sectores es igual de 512 bytes, pero contienen los
discos duros mayores sectores x pista 54, 63 ó más.

A continuación se presentan los principales soportes de


almacenamiento alternativos a los sistemas más extendidos,
esto es, discos duros tradicionales, los discos flexibles o los
discos compactos.
Discos duros extraíbles estos discos permiten disponer de
espacio adicional de almacenamiento, aunque su intercambio
con otras computadores esta limitado por las características
particulares de la instalación de estos dispositivos, que
necesitan de una bahía de expansión, en el frontal de la caja
del PC, convenientemente preparada para facilitar la inserción
y extracción de la unidad. Esta es la principal diferencia de
estas unidades respecto de los discos duros externos
(conectados normalmente al bus SCSI mediante un cable), una
de las desventajas de este sistema de almacenamiento es la
necesidad de apagar la computadora para proceder a instar la
nueva unidad.
Unidades Jaz: Es una categoría equivalente a los discos duros
extraíbles, se encuentran diversos formatos de
almacenamiento, con la diferencia de utilizar cartuchos que
encierran la superficie donde se almacenan los datos (como si
se tratara de un disco flexible). Uno de estos dispositivos de
uso mas extendido es Jaz, desarrollado por Iomega, en
versiones internas y externas, y para interfaz SCSI. Los
discos
23
que utilizan alcanzan una elevada capacidad 1 GB o 2 GB
dependiendo del modelo, con una velocidad de transferencia
cercada a los 6,6 MB/s y un tiempo de acceso medio de 12
minutos.
Unidades Zip: Otro medio de
almacenamiento desarrollado por Iomega
es Zip, un soporte muy extendido gracias
a su reducido costo y la facilidad de su
instalación. El formato Zip presenta dos
especificaciones distintas, con capacidades para 100 MB y 250
MB, con una velocidad de transferencia aproximada de 1,4
MB/s y un tiempo de acceso medio de 29 minutos.
Unidades de cinta: Las unidades de cinta de Backup
almacenan información en una larga secuencia, en la cual se
escribe información digital en vez de información analógica
como la cinta de audio. El mejor uso para el almacenamiento
en cinta es para la información que no se usa con frecuencia.
Debido a que es una tira larga de material magnético, se
tienen que escribir en ella en forma secuencial. El acceso
secuencial es mucho más lento. Son medios de
almacenamiento poco prácticos. Una importante desventaja
es que su vida útil es muy reducida, por lo que se recomienda
renovar un respaldo aproximadamente cada dos o tres años,
pues se corre el riesgo de que la información se vaya
deteriorando
Dispositivo de almacenamiento óptico

Actualmente el almacenamiento
óptico
para es el
la principal alternativa
magnético.
almacenamiento
Las técnicas de almacenamiento
óptico hacen posible el uso de
localización precisa
la
mediante
24
rayos láser. El láser utiliza una luz concentrada y delgada.
Aunque leer información de un medio óptico es fácil escribirla
es otro asunto. El problema está en la dificultad para modificar
la superficie ya que la información esta grabada en diminutos
pozos llamados (pits) y planos llamados (lans) que son
equivalentes a 1 y 0 . Los pozos reflejan la luz hacía un censor
y los llamados planos la dispersan.
A diferencia de un medio magnético donde cualquier punto en
la superficie es físicamente igual a cualquier otro, en los
discos ópticos su superficie está perforada. Pueden tener una
densidad de 16,000 Pistas por Pulgada y la longitud total de la
pista alcanzada es de aproximadamente. 4.5 km. La gran
capacidad de almacenamiento y la seguridad ó Confiabilidad
que ofrece este método hacen a los discos ópticos ideales
para aplicaciones de archivos, respaldo y recuperación de
datos.
Cd-Rom (Disco compacto de memoria de solo lectura). Utiliza
la misma tecnología que la de discos
compactos para música. Es un medio útil

de información que raramente cambia. El


soporte físico de un disco compacto esta
fabricado con poli carbonato, tiene
un
diámetro de 120 mm, un grosor de 1,2 mm y el orifico del
centro mide 15mm. Una de sus caras esta recubierta con una
película metálica, por regla general una aleación de aluminio,
que se denomina strata. Esta película esta recubierta, a su
vez, por una laca de poli carbonato platico a modo de
protección. En dicha cara del disco se almacenan los datos
que, después,
leerá la unidad de CD-ROM
MO (Medios Magnéticos - Óptico)
Combina algunas de las mejores características de la
tecnología de grabación magnética y óptica. El medio que
25
utilizan es diferente a los de ópticos ó magnéticos. El disco
esta cubierto con cristales metálicos
sensibles colocados bajo una delgada capa de plástico.
magnéticamente
En su estado normal el plástico que cubre los cristales es
sólido, evitando que se muevan. Para escribir, un intenso rayo
láser es dirigido hacia la superficie que por breves instantes
ablanda la capa de plástico lo suficiente para permitir al imán
cambiar la orientación de los cristales. Para leer la información
del disco, la unidad enfoca un rayo láser de menor intensidad
en la pista de los cristales. Al ir pasando debajo del rayo,
algunos puntos de la pista reflejan la luz dando lugar a la
secuencia de 1 y 0 que la máquina reconoce. Actualmente los
discos MO están disponibles en varios tamaños y
capacidades.
El tamaño habitual de los discos utilizados por estas unidades
es de 2 pulgadas y media, con capacidades de 128 MB, 230
MB y 640 MB, aunque algunos modelos superan los 2 GB.
Los MO son lentos pero su desempeño es impresionante y
son portátiles. Son más lentos que el Disco duro y el disco
flexible.
La ventaja de estos discos MO. Es que pueden operar sin
ningún problema en una amplia variedad de temperaturas
desde un punto de congelación hasta 380 C, lo que no puede
hacer los medios magnéticos.
CD-RW (Disco Compacto Reescribible)
Los discos CD-RW son una evolución de los CD-R, la
diferencia principal entre ambos consiste en el cambio de la
capa de material fotosensible por otra, realizada a partir de un
compuesto químico de características especiales es por esto
que los discos CD-RW emplean un láser con una frecuencia
distinta a la que se utiliza en los discos CD-ROM y CD-R , las
características ópticas del
frecuencia especifica compuesto
para poder empleado
leer la en los discos
información
CD-RW hacenPor
almacenada. que ello,
sea necesario emplear
los discos CD-RW unson
láserincompatibles
con una
con la mayoría de lectores de CDs existentes. Sin embargo
algunos
26
lectores de CD-ROM pueden leer datos de discos CD-RW, ya
que incorporan un cabezal que opera con el haz del láser a dos
frecuencias esta característica se conoce
murtilead (mue
ltictura) 
DVD (Disco de Vídeo Digital)
Este no es más que un nuevo intento para unificar todos los
estándares óptico-digitales de almacenamiento, es decir,
cualquier sistema de grabación que almacene imágenes ó
sonido. DVD abarca todos los campos actualmente existentes,
por lo que, si llega a implantarse un mismo disco DVD podrá
utilizarse para almacenar películas, música, datos
informáticos, e incluso los juegos.
La gran ventaja del DVD, en relación a los dispositivos de
almacenamiento actuales, es su mayor velocidad de lectura
hasta 4 veces más que los reproductores de CD tradicionales
y su gran capacidad de almacenamiento, que varía entre los
4.7 y los 17 Gigas, es decir el tamaño aproximadamente de 25
Cd- ROM. A pesar de todo,
como cualquier tecnología
nueva, no está exenta de
problemas ya que existen
ciertas incompatibilidades
con ciertos estándares,
pero es muy pronto
para
predecir el impacto que las siglas mágicas DVD provocarán en
nuestras vidas. Pero, si las previsiones de sus creadores se
cumplen, dentro de dos ó tres años no existirán
probablemente los televisores, altavoces, videos, láserdiscs,
cadenas
musicales, consolas, tarjetas gráficas ó lectores de CD-ROM,
tal como hoy los conocemos.
Diferencias entre CD y DVD
Gracias a la incorporación de un láser rojo, con una longitud
de onda menor que el de un CD, un lector DVD puede
27
diferenciar
marcas de un tamaño menor que las de un CD. Esto permite
aumentar el número de marcas que constituyen los datos
almacenados en el disco, sin que puedan apreciarse
diferencias importantes entre un CD y un DVD. Para
diferencias un CD de un DVD, basta con comprobar la
cobertura reflectante del anillo interior que rodea el eje que
tienen los DVD.
El futuro del almacenamiento: La incesante evolución de las
tecnologías de almacenamiento apuntan a la aparición en los
próximos años de nuevos sistemas, basados en principios
totalmente diferentes a los actuales. Una de las posibilidades
más claras es la propuesta de Fujitsu y algunas otras
compañías, con el estudio físico para el desarrollo de nuevos
tipos de memoria, denominados QDWMM (memoria
multiplexada de longitudes de onda de puntos cuánticos). En
ellos se usan múltiples longitudes de onda de luz (colores)
para almacenar la información a escala atómica, permitiendo
alcanzar teóricamente cifras del orden de 8.000 GB
(aproximadamente, el equivalente a 500 DVDs de doble cara y
densidad) en una superficie similar a la de un sello de correos.
Además, este es un sistema que permitirá efectuar lecturas y
escrituras de la información a velocidades muy elevadas.
1.4. DISPOSITIVOS DE PROCESAMIENTO
LA UNIDAD CENTRAL DE PROCESO (UCP O CPU).

CPU Es el elemento principal de la computadora y su misión


consiste en coordinar, controlar y realizar todas las
operaciones del sistema. Es el “Cerebr o” de la Computadora, la
que interpreta y ejecuta las instrucciones.
En su forma general, la unidad central de proceso de una
microcomputadora incluye los elementos básicos como son:

28
La tarjeta principal (Motherboard), en la que se localiza el
microprocesador y los diferentes tipos de memoria.
Una fuente de
poder. Un gabinete
y
Un pequeño altavoz.

Es en esta parte del sistema de cómputo donde se lleva a


cabo todo el proceso informático, desde la recepción y el
proceso de los datos que llegan a través de los periféricos de
entrada, hasta la entrega de los resultados visuales, escritos
o sonoros por medio del monitor, impresora, altavoces.
La Tarjeta Principal:

La tarjeta principal de una computadora es un tablero de


circuitos impresos de varias capas en el cual están montados
los diferentes componentes electrónicos y los conectores
sobre los cuales se realiza el flujo y el proceso de
información.y Esto
operativo de selasrealiza de acuerdo
aplicaciones a los programas
genéricas como del
sistema
procesadores de palabras etc.
los
En ella encontramos las partes electromecánicas como los
conectores para la alimentación desde la fuente de poder, las
ranuras de expansión o slots  que se utilizan para instalar las
tarjetas de los periféricos (equipos adicionales externos).
En esta tarjeta, se incluye la memoria CMOS (Semiconductor
de óxido metálico complementario) que contiene elementos
semiconductores de muy bajo consumo de energía, por lo que
se le utiliza para mantener, mediante una minúscula batería,
los registros de fecha, hora y dispositivos instalados, sin que
se pierdan cada vez que se apaga la computadora.
Así como también cuenta con las ranuras para la memoria
RAM y los circuitos electrónicos integrados de
procesamiento,

29
control y la Unidad Aritmético - Lógica, como son
el microprocesador etc.
Buses:

Para poder emplear un dispositivo cualquiera (de entrada,


salida o memoria) la CPU debe realizar dos operaciones:
primero, seleccionar el dispositivo y, a continuación, enviar o
leer el dato que interesa. Necesitamos disponer, por tanto, de
dos canales; uno, para elegir el dispositivo al que queremos
acceder, el otro, para enviar los datos.
A los canales por lo que la CPU puede trabajar con el exterior
se les denomina genéricamente con el termino “ bus es ” , ya que
actúan como autobuses que transportan información de la
CPU a su destino dentro del ordenador

La CPU emplea una serie


de dispositivos externos,
a los que se conecta a
través de canales
denominados “buses”

El bus de direcciones es el encargado de seleccionar la


dirección (de ahí su nombre) del dispositivo que se desea
utilizar. Este dispositivo suele ser la memoria, y el bus de
direcciones transporta la dirección de la misma a la que la
CPU desea acceder. La información propiamente dicha se
transporta por otro canal, al que se denomina “ b u s de datos”

30
La CPU necesita tanto enviar como recibir datos del exterior.
Por ello emplea el bus de datos, compuesto generalmente de
8, 16 o 32 pistas, una por cada bit. Este bus es por tanto
bidireccional ya que por el entran las instrucciones que debe
ejecutar la CPU procedentes de la memoria y los demás
dispositivos con que se comunica y salen las instrucciones y
datos que la CPU envía a dichos dispositivos.
El bus de datos debe estar adaptado a la longitud de la
palabra que es capaz de manejar la CPU. Esto quiere decir
que si la CPU puede realizar operaciones con números binario
de 16 bits el bus de datos deberá tener 16 vías. También es
posible que el bus sea de menor tamaño. De este modo se
pueden transferir palabras de, por ejemplo, 16 bits a través de
un bus de datos de 8 bits realizando dos operaciones
sucesivas de transmisión de datos.
Los tamaños de los buses se miden por el número de bits que
pueden circular por ellos, y son un buen indicador de la
ef icacia de la CPU. El termino “CPU de 8 b it s ” indica que se
trata de una CPU con un bus de datos de 8 bits; hay buses de
datos para todos los gustos, desde 4 hasta 64 bits, y algunos
mayores.
El bus de direcciones es mayor, ya que debe permitir el
acceso a una gran cantidad de direcciones diferentes. Suele
ser común que su tamaño sea el doble del de datos.
La Unidad de Control:

Se podría decir que es el autentico director de la orquesta de


la computadora. Como tal, su función consiste en que la
partitura (el programa) sea ejecutado correctamente por el
resto de los componentes de la computadora, es decir, que
cada uno de ellos realice su tarea en el momento preciso.

31
Las funciones principales de la unidad de control
son:
1. Extraer de la
memoria la
instrucción de
programa qu
l
correspond
e
a ejecutar en un
instante
determinado
.

interpretar2. la
instrucción
Decodificar e
de
programa
l ,
determinand
o
cuales
son las
operaciones
que conlleva
la ejecución
de
la instrucción.
3. generar las ordenes necesarias para la ejecución, en
forma de señales eléctricas que activaran la memoria, la
ALU o las unidades de entrada-salida.
A su vez la unidad de control se compone de los siguientes
elementos básicos.
• Contador de programa: Es un registro, es decir una
“casilla” de memoria independiente que almacena la
posición en memoria de la próxima instrucción del
programa que se va a ejecutar.
• Registro de instrucción: Es donde se almacena la
32
instrucción que ha sido extraída de la memoria.
• Decodificador: Este circuito recibe el dato del registro del
registro de instrucción, con lo que averigua de qué
instrucción se trata y determina cuales son las órdenes
que lleva aparejada la ejecución de esa instrucción.
• Multiplexor: Recibe la información del decodificador y
envía las ordenes al resto de los componentes del CPU y
a la memoria para ejecutar la instrucción.

Unidad aritmética-lógica:

Se trata de un circuito que se limita a efectuar ciertas


operaciones, controlada por un conjunto de órdenes. En
esencia funciona como una calculadora, con líneas de entrada
para las operaciones, una línea de salida para el resultado y
una entrada de control en la que se especifica la operación
que se debe realizar.
Las líneas de entrada de datos disponen de tantos bits como
la máxima longitud de los operandos que pueda manejar la
CPU. En la actualidad todas las ALU funcionan mediante el
procesamiento en paralelo de los datos, mucho más rápido
que en serie, si bien se necesitan tantas líneas como bits
tengan las operaciones
La ALU realiza tres tipos de operaciones básicas: 
• Operaciones aritméticas: sumas, restas, multiplicaciones.
• Operaciones lógicas: ejecuta operaciones lógicas como
AND, OR, NOT, XOR, etc.
• Operaciones de desplazamiento: Estas operaciones
desplazan a la derecha o a la izquierda los bits de un
número binario añadiendo ceros, lo cual es la base de
operaciones más complejas. Por ejemplo, el resultado de
desplazar 0011010 un bit hacia la izquierda es 0110100

33
Todas las computadoras tienen un ciclo de máquina durante
éste tiene lugar los siguientes pasos:

1.Instrucciones a traer = se obtiene o se trae de la RAM ó la


memoria caché y se carga el registro en la Unidad de
Control
2.Instrucción se decodifica
3. Instrucción a ejecutar
4. Se sitúa el resultado en la memoria. Los resultados se
colocan en la posición apropiada de la memoria (En la RAM ó
en 1 registro de la ALU llamado Acumulador.)
Memoria Principal

La CPU seria de poca utilidad sin un sistema de


almacenamiento en que se encuentren las instrucciones y los
datos necesarios para desempeñar cada tarea. El termino
memoria se refiere tanto a la memoria principal de la
computadora, contenida físicamente en los distintos circuitos
integrados, como a las memorias auxiliares tales como las
unidades de disco. La información de las memorias auxiliares,
no obstante, debe ser trasladada previamente a la memoria
principal para que la computadora pueda interpretarla.
La memoria principal puede considerarse de forma intuitiva
como un conjunto de casillas numeradas, cada una de ellas
pudiendo contener un dato binario.
La memoria en su conjunto dispone de 2 canales de
comunicación con el exterior, el bus de datos y el bus de
direcciones. El funcionamiento de la memoria es el siguiente: 
En primer lugar se introduce en el bus de direcciones
el
número de la posición de memoria, es decir la “ casilla” a la que
se quiere acceder, en el bus de direcciones. A continuación se
suministra a la memoria una orden de lectura o de
34
escritura
según se desee introducir algo en la dirección de memoria
indicada o extraer un dato de esta dirección a través del bus
de control. Con esto se enviara o se recibirá por el bus de
datos el número binario correspondiente.
Existen dos tipos básicos de memoria en el interior de la
computadora, la memoria RAM y ROM, cada una de ellas con
funciones específicas sin embargo creo que es conveniente
conocer algunos de los diversos tipos de memorias que puede
manejar la computadora.

RAM: Memoria de Acceso Aleatorio:

A diferencia de los dispositivos magnéticos de


almacenamiento secundario, como cinta, disco, a RAM no
tiene partes móviles está al no tener un movimiento
mecánico, se puede tener acceso a los datos de la RAM a
velocidades electrónicas o velocidad de la luz. La mayor parte
de las computadoras actuales usan tecnología CMOS
(Semiconductor de óxido metálico complementario) para la
RAM, no obstante el almacenamiento del semiconductor
presenta un problema fundamental y es que es una memoria
volátil y cuando se va la luz se pierden los datos. Los
investigadores están trabajando en perfeccionar una
tecnología de RAM que conserve su contenido después de
una interrupción de energía.
Actualmente han surgido muchas tecnologías de Memoria no
volátil como la Memoria burbuja. En ciertas computadoras la
memoria burbuja supera al CMOS, es muy confiable, no es
susceptible a las variaciones ambientales y puede operar en
un tiempo considerable con batería. Este tipo de memoria es
ideal para usarse en robots industriales y computadoras
portátiles. Una variación de ésta es otra ampliamente
disponible, pero poco utilizada la memoria flash o relámpago
puede almacenar varios MB en una tarjeta, podría reemplazar
por completo a los discos duros y flexibles, combinando las
funciones de la RAM 35
interna y el almacenamiento a largo plazo dentro de un
dispositivo único. Se usa en laptop y notebook (PC portátiles).
Uno de los aspectos más emocionantes de la Ram Flash o
memoria flash es que su memoria no es volátil. Por un lado
significa que no tendrás que salvar tu trabajo cuando termines
de usar tu computadora, solo tendrás que apagarla. Cuando
vuelvas a encenderla, comenzará exactamente donde la
apagaste con los programas corriendo, las ventanas
perfectamente alineadas y los archivos abiertos exactamente
como lo dejaste.
ROM (read-only-memory) Memoria de solo lectura:
Este tipo de memoria no pude ser alterada por el programador.
El contenido de la ROM fue diseñado por el fabricante con
una protección especial para que únicamente pueda ser leído.
Se utiliza en aquellos sistemas donde los datos son siempre
los mismos durante las veces que se tenga acceso a la
memoria.
Los circuitos de memoria ROM de las computadoras suelen
venir en forma de DIP (encapsulado en doble línea, es una
forma rectangular con 8 pines a cada lado formando 16 pines
y se inserta directamente a la tarjeta madre).
En las computadoras, la BIOS( Sistema básico de entradas y
salidas) viene almacenado en memorias ROM, pero también se
utilizan las EPROM.
Este circuito (ROM-BIOS) viene incluido en las tarjetas
principales y el programa que trae grabado tiene como función
el reconocimiento y prueba de los diversos circuitos y
dispositivos de la computadora en el momento del encendido,
así como durante la ejecución de los diferentes programas de
computo.
Cuando se enciende una micro, automáticamente se
ejecutan varias rutinas que permiten ponerla en marcha y
revisar la fiabilidad del sistema. Estas pruebas corresponden
a
36
pequeños programas grabados en la memoria ROM-BIOS,
cuyas tareas específicas son las siguientes:

Se encarga de despertar a la computadora. Esta rutina


le indica al CPU los elementos periféricos que tiene
conectados, y la comunicación con ellos mientras este
encendida la computadora.
 Comprobación de los elementos de hardware declarado
en el sistema estén listos para trabajar (rutinas POST
entre las incluyen la comprobación del CMOS Setup
(configuración) y dependiendo del tipo de RAM usada
en la máquina, verificación de la paridad de memoria)
Permitir al micropocesador mantener la comunicación
con los periféricos
 Actúan como interfase entre la máquina y el sistema
operativo y a través de este último, con los programas
de aplicación.

Una variación de la ROM es la:

PROM (Memoria de solo lectura Programable).


La PROM es una ROM en la que podemos poner como
usuarios programas y datos de solo lectura. Existen en el
mercado algunos paquetes de software para micros, como
hojas de cálculo, que se fabrican en unidades de PROM ó en
disquetes, una vez que un programa se carga en la PROM
rara vez se modifica básicamente la PROM proporciona una
flexibilidad y una conveniencia que no ofrece la ROM.
Las PROM proporcionan una alternativa más rápida y mucho
menos costosa, ya que el usuario puede programarla
directamente pero por única vez.

37
EPROM (Memoria de solo lectura, programable y borrable)
Otro tipo de memoria ROM que permite que los datos
almacenados se borren para cargar nuevos datos se conoce
como EPROM. Este tipo de memoria proporciona considerable
flexibilidad durante el desarrollo de sistemas digitales, ya que
la EPROM es capaz de retener información almacenada
durante largos períodos, aproximadamente 1 año ó más, por
lo que puede utilizarse mientras se desarrolla un software, así
es más fácil implantar modificaciones y actualizaciones. El
contenido de una EPROM puede borrarse exponiendo el Chip
a la luz ultravioleta lo cual eliminará toda la información de la
memoria, ó bien aplicando un alto voltaje solo borra de
manera parcial la información.
Existe otro tipo de memoria importante que es la: 
Memoria Cache:
Esta es similar a la RAM excepto que es extremadamente
rápida comparada con la memoria RAM y se usa en forma
diferente. Cuando un programa está en ejecución y la CPU
necesita leer datos de la RAM, verifica primero si los datos
están en la caché, si no está ahí continua y lee los dato de la
RAM y los lleva a sus registros, pero también carga estos en
la caché al mismo tiempo. La siguiente vez que la CPU
necesita estos datos, los encuentra en la Caché y hay ahorro
de tiempo. Al igual que la RAM es un área de almacenamiento
de alta velocidad para las instrucciones de los programas y
datos, la memoria Caché usa una tecnología que es alrededor
de 10 veces mas veloz que la RAM y 100 veces más costosa,
Debido a su alto costo, las computadoras solamente poseenp
 equeñas
cantidades de memoria caché instalada en su unidad central
comparada con la cantidad de RAM 

38
Caché L1 de algunos procesadores:
Cuando la memoria caché esta ubicada dentro del
microprocesador se denomina esta caché L1 Si la memoria
caché es externa al encapsulado del microprocesador, se
denomina caché L2 (nivel 2)
En algunos sistemas, la memoria caché L2 se ha construido
directamente dentro del microprocesador. Esto hace que la
tarjeta principal sea de menor costo ya que no necesita
espacio adicional para la instalación de dicha memoria.
Memoria Virtual:
Es una adición o mejor dicho es un RAM imaginaria, ya que
cuando una RAM esta llena, no puede ejecutar más programas
hasta que este disponible una parte de esta. La memoria
virtual aumenta de manera efectiva la capacidad de la RAM
mediante el uso de software y almacenamiento secundario.
Esto permite que en determinado momento, residan más
datos y programas en la RAM. El principio de la Memoria
Virtual es muy sencillo un programa se ejecuta de manera
secuencial. (Una instrucción después de otra) los programas
se segmentan por páginas de modo que solo la porción del
programa que se ejecuta (una o más páginas) residen en la
RAM. El resto del programa está en el almacenamiento en
disco. Las páginas apropiadas se transfieren (se mueven a la
RAM) desde el almacenamiento en disco conforme se
necesitan para continuar la ejecución del programa.
Memoria Flash

Introducción a la memoria flash (a veces


llamada flash ROM o flash RAM). La
memoria flash permanece estrechamente
relacionada a la EEPROM, pero una de sus
ventajas más importantes, es que no
requiere un mayor voltaje, que aquellas que

39
normalmente están disponibles en computadoras y cámaras
digitales (típicamente 3 a 5 voltios).
Cómo todas las memorias tipo ROM, la memoria flash, está
limitada a un número finito de ciclos de escritura y borrado. Al
principio estos ciclos eran unos pocos, pero ahora, algunas
memorias más nuevas, los ciclos llegan hasta un millón o
más.
La memoria flash se ha vuelto algo básico para los chips
BIOS, porque hacen fácil actualizarlo para los usuarios. Es
posible borrar y también escribir en algunas áreas
seleccionadas del chip, pero algunas pueden protegerse no
permitiendo el acceso a ellas.
Estos rasgos hacen a la memoria flash atractiva para
dispositivos portátiles como PDAS y cámaras digitales, donde
los usuarios puede querer alterar algunas áreas y dejar otras
áreas intactas. Algunos de estos dispositivos tienen instalado
una unidad de 3.5 pulgadas normalmente disco blando para
trasladar lo almacenado, pero este dispositivo mecánico es
grande, requiere más cantidad de energía (llevando a la batería
a tener una vida más corta), y tiene una capacidad limitada.
Por el contrario, Sony tiene la Memoria Stick, que es más
rápida, tiene menos consumo, y su almacenamiento puede
elevarse a 32MB (más de 20 discos blandos).
La memoria flash tiene varias ventajas sobre
estos dispositivos de almacenamiento
mecánico, o magnético. Puede fabricarse en
paquetes
pequeños.que son son
Y ellos significativamente más
transistorizados: No
ninguna parte movible
hay que se pueda dañar.
Una tarjeta de memoria flash puede servir fácilmente como el
medio del almacenamiento trasladable para un dispositivo
portátil. La parte más difícil está en la transferencia de los
datos a una computadora de escritorio. Para sistemas de
escritorio que no tengan slots para estas tarjetas, hay
adaptadores de lectura en paralelo, SCSI, o puertos de USB.

40
Algunos de estos incluso soportan memoria flash en múltiples
formatos.
Una desventaja es que no hay ninguna norma uniforme para la
aplicación de memoria flash en los dispositivos portátiles.
Diferentes tarjetas están compitiendo para volverse a la norma
actualmente.
1.5. DISPOSITIVOS DE ENTRADA/SALIDA.
Periféricos de Entrada
También llamados dispositivos ó elementos de entrada, son
los encargados de introducir los datos y los programas desde
el exterior a la memoria principal. Describiremos algunos de
ellos:
 El teclado.

Es el principal periférico de entrada y control por medio del


teclado puede introducir datos y dar comandos. Los
teclados para PC vienen en varios estilos los diferentes
modelos pueden variar en tamaño y forma, pero fuera de
eso los teclados están distribuidas en forma idéntica.
Tiene 101 teclas arregladas en 4 grupos, los 2 primeros: el
teclado alfanumérico y numérico (alfanumérico igual que la
máquina de escribir), el numérico generalmente localizado a
la derecha del teclado parece una máquina sumadora y
operadores matemáticos.- Las otras 2 partes son: teclas de
función “ F ” . (F1-F12) y teclas de movimientos.
 Ratón o Mouse.

A principio de los 80s, el único periférico de entrada que


había era el teclado. Hoy sin embargo es uno de los
periféricos de entrada mas extendidos como alternativa al
teclado. Aunque el ratón puede funcionar en entornos
basado en caracteres, su aplicación básica se centra en
los
41
entornos de usuario basados en sistemas gráficos como el
Windows de Microsoft. Su funcionamiento se basa en la
selección de un icono o menú por medio del puntero o
cursor y su activación mediante la pulsación de uno de los
botones o teclas del ratón. Cabe destacar que hay ratones
con 3 de estos pulsadores y otros con dos.
 El trackball o ratón estacionario.

Es un periférico para apuntar que trabaja como un ratón


boca arriba. Recarga tu pulgar sobre la bola expuesta y tus
dedos sobre los botones. Para mover el ratón giras la bola
con tu pulgar. Este dispositivo requiere de poco espacio
porque no lo mueves. Este es usado en computadoras
Notebook y en algunas ya viene integrado al equipo.
 Escritura a base de Plumas.

Son tecnologías nuevas y promisorias para la entrada de


datos, en especial para personas que trabajan en las áreas de
servicio o ventas o para aquellos que siempre han odiado los
teclados de computadoras.
Estos dispositivos basados en la pluma normalmente
consisten en una pantalla plana en forma de tableta y un
“señalador” en forma de pluma con la cual los usuarios
imprimen directamente en una pantalla del tamaño de una
tablilla.
 Pantallas sensibles al tacto.

Las pantallas sensibles al tacto son apropiadas en ambientes


donde la tierra o el clima harían imposible el uso de teclados y
dispositivos para señalar. Desafortunadamente esto también
quiere decir, que las personas no pueden tomar ventajas de
sus habilidades para teclear y poder meter grandes cantidades
de información, así que éstas son mejores para aplicaciones

42
sencillas, como cajas automáticas o estaciones de
información pública.
Estas pantallas cada día son más comunes en tiendas
departamentales, farmacias, supermercados, incluso en
maquinas para apostar en casinos, aeropuertos, bibliotecas.
Permiten que el usuario seleccione las operaciones
disponibles con solo tocar con el dedo al icono o concepto
del menú deseado. Son considerados como periférico de
entrada y salida.
 Lectores de código de barras.

Es el periférico de entrada mas usado después del ratón o


teclado es hallado en supermercados, tiendas
departamentales, farmacias. Estos dispositivos convierten
un patrón de barras impresas en los productos, mediante la
emisión de un rayo de luz, (láser) que se refleja en la
imagen del Código de Barras. Un detector sensible a la luz
identifica la imagen del código, una vez identificado el
código convierte los patrones de barra individual en
números digitales alimenta ese número a la computadora
tal como si se hubiera teclado y en algunos casos también
puede actualizar los registros del inventario.
 Dispositivos de alimentación de voz.

Transforman la palabra hablada en una forma digital. El


software de reconocimiento de voz compara los patrones
eléctricos producidos por la voz del interlocutor en un
conjunto de patrones pregrabados. Si los patrones
concuerdan, la entrada se acepta.
La mayoría de los sistemas de voz aun tienen
“vocabular ios” limitados de diversos cientos a diversos
miles de palabras, y solo pueden aceptar instrucciones muy
sencillas.

43
 Digitalizadores (scanners)

Un escáner es un periférico de entrada que permite capturar


imágenes digitalizando la información grafica que las
forma. Los escáneres se diferencian entre si por la
resolución máxima y el numero de colores o escalas de
grises que pueden soportar.
Utilizando los programas adecuados, los escáneres pueden
leer la información escrita convirtiendo la misma a archivos
utilizables por un procesador de textos. Estos programas se
denominan de OCR (Reconocimiento Óptico de
Caracteres). Los escáneres actuales son capaces de
convertir las imágenes a los formatos gráficos más
comunes y utilizados
Reconocimiento óptico de caracteres (OCR)
Se utilizan máquinas ópticas sensibles a la luz (dispositivos
de entrada especializados), que permiten reconocer
caracteres impresos convirtiéndolos a señales eléctricas,
por medio de un software especial.
Este tipo de tecnología OCR ha avanzado mucho y hay una
gran variedad de ella, actualmente los bancos utilizan con
bastante éxito una variación de esta que se le llama
Reconocimiento de Caracteres de Tinta Magnética, por
ejemplo en cheques y en tarjetas de plástico. En las tarjetas
se agrega información referente al número de cuenta y límite
de crédito del cliente codificado magnéticamente en una
franja de cinta al reverso de la tarjeta, cuando se inserta la
tarjeta en el cajero automático la Terminal lee y trasmite los
datos de la cinta a un procesador que activa la cuenta del
cliente.

PERIFÉRICOS DE SALIDA

44
Los periféricos de salida son los que permiten presentar la
información de forma que se pueda entender directamente por
el hombre o pueda ser utilizada por otro sistema. Veamos con
detalle algunos de ellos:
 Monitor

Los monitores quizá los mas importantes debido a que son


los dispositivos de salida con lo que mas trabaja la gente.
Los monitores se definen por tres
características: 1. Tamaño (dimensión diagonal
de la pantalla)

2. Resolución (detalle de la imagen) y

3. Monocromático ó a Colores

 Tamaño .

El tam año de las pantallas varía entre 5” y 29”

(la dimensión diagonal).


 Resolución.

La resolución se refiere al número de puntos definibles


en la pantalla, el número de puntos a los que se puede
dirigir luz por medio del control del programa. Estos
puntos se conocen como Píxeles (elementos de
imagen).
Un monitor de baja resolución tiene alrededor de
64,000 (320 X 200) puntos definibles. Un monitor que
se usa para gráficas ó el diseño asistido por
computadoras puede llegar
45 a tener más de 16 millones
de puntos definibles. Los monitores de alta resolución
proyectan
imágenes muy claras y que tienen una apariencia
similar a la de una fotografía.
Monocromáticos ó a Color.
Los monitores monocromáticos proyectan imágenes en un
solo color, por lo general en blanco, verde, azul, rojo ó ámbar.
Sin embargo puede presentar sombras de un solo color, se
utiliza el término escala de grises para referirse al número de
sombras de un color que se pueden proyectar en el monitor.
Los monitores a color suman otra dimensión a los
despliegues, la mayorías de los monitores a colores combinan
el rojo, verde y el azul para lograr un espectro de colores.
Cada uno se implementa instalando una tarjeta de expansión y
conectándola al monitor apropiado.
A continuación se presentan los monitores más
populares: VGA: Matriz gráfica de vídeo

SVGA: Súper matriz gráfica de vídeo XGA:

Matriz de gráficas ampliada

CGA: Adaptador gráfico de vídeo

(obsoleto) EGA: Adaptador mejorado de gráfico

(obsoleto)

Entre mas colores pueden desplegar un monitor mas memoria


necesita. Un monitor de 256 colores requiere 1 byte de
memoria para definir cada píxel.
Impresoras

46
La salida visualizada en un monitor es inmediata pero
temporal. Una impresora permite obtener una copia física ó
dura en papel, de cualquier información que pueda aparecer en
la pantalla. Hay muchas variedades de impresoras pero
otdasc oe
rsponden a 2 grupos básicos:  impresoras de impacto e
impresoras de no impacto
Impresoras de Impacto.
Dentro de estas se encuentran las impresoras de línea y
matriz de puntos. Las impresoras de este tipo comparten una
misma característica que forman las imágenes golpeando un
martillo contra una cinta y papel como lo hace una máquina
de escribir.
Impresoras de líneas: son aquellas con que las
macrocomputadoras producen grandes listados; estas
máquinas rápidas y ruidosas imprimen cientos de líneas de
texto por segundo.

Se usan principalmente en los entornos de procesamiento


de las minis y macros para realizar trabajo pesado y
generar grandes volúmenes de salida.
Su velocidad de impresión se miden en LPM (líneas por
minuto) estas impresoras llegan a imprimir desde 1000 a
5000 líneas por minuto.
Impresoras de matriz de punto ó de serie: Esta ordena
puntos impresos para formar caracteres y todo tipo de
imágenes de manera muy similar a las luces que presentan
la hora y la temperatura en los tableros electrónicos de los
bancos, la calidad de salida impresa es directamente
proporcional a la densidad de los puntos de la matriz. Las
impresoras de 18 y 24 cabezas ó agujas crean caracteres
más sólidos y se usan para la salida del procesamiento de
datos. La velocidad de impresión se mide en CPS
(caracteres por segundo) este tipo de impresoras pueden
llegar a imprimir desde 40 hasta 450 caracteres por
segundo.
Impresoras de NO impacto:
47
Las impresoras de no impacto ó también llamadas impresoras
de páginas utilizan una variedad de tecnologías para lograr
una salida de copia dura de alta calidad y velocidad
imprimiendo una página a la vez.
Impresoras de chorro de tinta: Este tipo de impresoras
utilizan varias cámaras de inyección controladas de manera
independiente para inyectar pequeñas gotas de tinta sobre
el papel. Las pequeñas gotas de tinta van formando
imágenes ó caracteres las cuales se secan inmediatamente.
Este tipo de impresoras son mas lentas de las impresoras
láser se encuentran en el punto intermedio de las matriz de
punto y láser.

Impresoras láser: Estas impresoras son más caras pero


más rápidas y silenciosas. Este tipo de impresoras utilizan
un mecanismo de impresión xerográfico, con fuente de luz
producida por un layo láser, éste carga electrónicamente
una superficie fotoconductora a la que se le adhiere un
polvo especial (toner) que al fundirse por la aplicación de
calor conforma los caracteres especiales.
La calidad y velocidad de las láser las hacen ideales para
ambientes de oficina ya que varios usuarios pueden usar
fácilmente la misma impresora esta puede usar papel
Standard de bajo costo, en contraste con la máquina de
impresión de matriz de punto que usan papel continuo.

Graficadores o plotters: Están diseños para producir


grandes dibujos o imágenes, como planos de construcción
para edificios o heliográficas de objetos mecánicos.

El graficador usa un brazo automatizado para dibujar con


plumas de colores sobre hojas de papel. Las instrucciones
que recibe de una computadora consisten de un color y las
coordenadas del principio y fin de una línea.
Dispositivos de salida de voz

48
Transforma datos digitales de salida en palabras inteligibles.
Los sonidos son prerregistrados, codificados y almacenados
en un disco, para ser traducidos en palabras orales. Por
ejemplo, cuando se pide información por teléfono, es posible
oír la “ v o z ” de la computad ora respondiendo al número
telefónico que se solicitó.
DISPOSITIVOS DE ENTRADA/SALIDA

Son dispositivos mixtos que permiten, tanto la entrada como la


salida de datos, desde o hacia el microprocesador. A esta
categoría pertenecen especialmente los dispositivos
dm
e
a lacenam
en
o
it de datos como:  las unidades de disco
flexibles, las unidades de disco duro, las unidades de cintas,
los disco ópticos magnético-ópticos y los CD-
(regrabables
RW
). Módem

Las computadoras emplean únicamente señales digitales. Sin


embargo, la línea telefónica es un medio de transmisión de
señales analógicas. La red telefónica esta diseñada para
transportar la voz humana en forma de onda analógica, pero
no puede transmitir las señales digitales tal y como las
maneja la computadora. Por ello, para poder ser
transportadas, éstas deben ser convertidas, en primer lugar,
en señales analógicas. Esta conversión se denomina
“ m o d u l a c i ó n ”   mientras que la reconversión de esas señales
digitales al otro extremo de la línea se llama “ d e m o d u l a c i ó n ” .
El dispositivo capaz de efectuar estas conversiones es el
módem, nombre procedente de los términos
MOdulador/DEModulador.
Los módems pueden ser internos o externos y se diferencian
básicamente en la velocidad máxima a la que pueden
enviar/recibir la información. La velocidad se mide en baudios 
 – es decir bits por segundo-.

49
1.6. TIPOS DE COMPUTADORAS Y SUS DISPOSITIVOS.
Clasificación de las Computadoras 
Aunque el período de desarrollo de las computadoras en esta era
de la información ha sido muy corto, se han hecho otras
clasificaciones de estas, de acuerdo a su tamaño, poder de
cómputo, capacidad de memoria y almacenamiento. Sin
embargo, este rápido ritmo de cambios tecnológicos altera los
esquemas de clasificación. En la actualidad estas diferencias han
pasado a segundo termino debido a los grandes avances de la
tecnología informática, que permite ofrecer cada vez con menos
tiempo de por medio, computadoras de menor tamaño, con una
mayor velocidad y poder de proceso de datos.
Independientemente del tamaño o la forma, todas las
computadoras en uso tienen cuatro componentes básicos:
procesamiento, almacenamiento, elementos de entrada y
salida.
Existen muchas formas de clasificar a la computadora, sin
embargo se puede decir que son por su aplicación, configuración
y capacidad.

50
Clasificación por su aplicación.
En el cual tenemos 2 tipos de computadoras que son:
De propósito específico.
Son aquellas computadoras que son diseñadas para alguna
aplicación en especial. Ejemplo como las que se usan en
simuladores de vuelo, apoyo a diseños arquitectónicos, controles,
industriales, autos para el control de combustible, ignición, frenado,
etc.
De propósito general.
En este caso se tratan de las computadoras que pueden ser
programadas para resolver una gran variedad de problemas.
La mayoría de las computadoras actuales son de propósito
general.
Clasificación por su configuración.

Computadoras analógicas.
Su denominación tiene su origen en el vocablo griego “análogos”
que puede traducirse como “relación exacta”
Esta procesa datos de tipo continuo, lo hace con variables que
están medidas en una escala continua y son registrados con un
determinado grado de precisión. Estas son imprecisas quizás en
un
0.1% del valor correcto. La precisión de los datos usados en unac ompuatdoar
analógica está íntimamente ligada a la precisión con 
que pueden medirse.

Es decir, una computadora analógica es en sí un dispositivo de


medida. Como los datos analógicos se adquieren a través de un
proceso de medida, las computadoras analógicas tienen la ventaja
de poder aceptar directamente los datos a partir de instrumentos
de medición sin necesidad de alguna conversión o codificación
Su programación en la mayoría de los casos está en su cableado y
se utiliza fundamentalmente para controlar los procesos y en
determinados problemas de simulación, no tiene almacenamiento
ya que las respuestas a los problemas se leen en gráficos de
51
tubos
de rayos catódicos. Tienen gran velocidad de cálculo, y son aptas
como dispositivos de control de procesos industriales.
Ejemplo: Una bomba de gasolina tiene un procesador analógico y
bombea la gasolina según el precio de la gasolina y la cantidad a
vender.
Datos continuos: Son los que se obtienen a partir de un aparato de
medición como termómetro, kilómetro, básculas, manómetros.

Computadoras digitales
Su denominación se basa en la palabra latina “digitus” (dedo).

Se caracteriza por procesar datos discretos. La mayoría de las


computadoras de propósito general son digitales.
Las computadoras digitales representan los datos o unidades
separadas. La forma más simple de computadora digital es contar
con los dedos.
Cada dedo representa una unidad del artículo que se está
contando. A diferencia de la computadora analógica, limitada por la
precisión de las mediciones que pueden realizarse, la
computadora digital puede representar correctamente los datos
con tantas posiciones y números que se requieran. Las sumadoras
y las calculadoras de bolsillo son ejemplos comunes de
dispositivos construidos según los principios de la Computadora
Digital.
Para obtener
mientras resultados,
que las las computadoras
computadoras miden, 
. En la
analógicas
digitales cuentan.
el 95% de las computadoras son de este tipo.
actualidad
Datos discretos:  Son aquellos que están compuestos por
bien definidas como números, letras, símbolos especiales,
unidades
etc.
Combinan las características
Computadoras híbridas más favorables de las computadoras
digitales y analógicas tienen la velocidad de las analógicas y la
precisión de las digitales, para lo cual tiene sus entradas y salidas

52
controladas por medio de convertidores. Analógico - digital ó
digital - analógico.
Esto quiere decir que reciben datos provenientes de mediciones y
mediante un dispositivo electrónico interno, dichos datos se
transforman en valores discretos.
Ejemplo: Pueden ser las básculas electrónicas, que en si es una
computadora de uso específico que obtiene datos a través del
hecho de pesar el producto que se coloca en ella y proporciona el
importe a cobrar dado el costo por kilogramo. En hospitales miden
la función cardiaca de los pacientes. Las Computadoras Híbridas
controlan el radar de la defensa de Estados Unidos y de los vuelos
comerciales.
En síntesis podemos establecer que las computadoras analógicas
e híbridas se utilizan en muchas de las aplicaciones especiales y
las digitales tienen aplicaciones generales utilizándose en áreas
científicas, comerciales, administrativas, etc.
Clasificación por su Capacidad ó tamaño
Existe una gran variedad en el tamaño, el costo y el desempeño
de
los sistemas de cómputo. La tecnología está cambiando tan
rápidamente, que pocos meses después de que ha salido al
mercado un nuevo modelo, nos enfrentamos con dos sucesores
potenciales; uno que cuesta lo mismo y tiene mucho mejor
funcionamiento, y el otro tiene el mismo desempeño y cuesta
menos.
Supercomputadora
Es la computadora más potente disponible en un momento
dado.
Estas máquinas están construidas para procesar enormes
cantidades de información en forma rápida que puede ser 10 veces
mayor que la macrocomputadora. Y pueden costar entre 10 y 30
millones de dólares. Su velocidad se mide en FLOPS (operaciones
de punto flotante por segundo) y GIGAFLOPS (mil millones de
flops). Una supercomputadora puede llegar a tener mas de 5
Gigabytes en memoria RAM, y una capacidad de
almacenamiento 53
en disco duro 10, 20 ó 30 terabytes (mil gigabytes) y maneja
millones de peticiones simultáneas de acceso a la información.
Contienen múltiples microprocesadores, hasta miles de ellos,
trabajando en forma paralela para aumentar su eficiencia. Por su
diseño, fueron creadas para servir al mismo tiempo a muchos
usuarios.
Algunas aplicaciones representativas de
a
S
 lupecrompu
atdoa
 r:

Analizan y ordenan gran cantidad de datos sísmicos que se


recopilan durante las explosiones en busca de yacimientos
petrolíferos.
Permite simulación de una corriente de aire alrededor de un
avión a diferentes velocidades y altitudes.
Estudia los resultados de explosiones de armas
nucleares. Estudian la formación de tornados.
Estudio de las olas, corrientes y temperaturas del océano
para
vaticinar condiciones meteorológicas
Estudios de producción de Hollywood, usan gráficos
avanzados para crear efectos especiales para películas y
comerciales de TV.
Todas estas aplicaciones son imposibles en
macrocomputadoras.
las
Macrocomputadora o Mainframes
Es la computadora de mayor tamaño en uso común.
Están
diseñadas para manejar
almacenamiento. Tambiéngrandes volúmenes
llamadas de generalmente
Mainframe entrada/salida
cuestan
y desde $200,000 hasta varios millones de dólares. Era
usual que éstas ocuparan cuartos completos o incluso pisos
enteros de edificios, usaban aire acondicionado para mantener la
temperatura baja y usar pisos falsos para ocultar los cables de
conexión de la máquina.

54
Hoy en día una macro común se ve como una hilera sencilla de
grandes archiveros aunque todavía requiere de un ambiente
controlado. Una macrocomputadora puede dar servicio a más de
200 terminales. Hay algunas macros más grandes que dan servicio
a más de 10,000 terminales remotos. La velocidad de la
macrocomputadora se mide en MIPS (Millones de Instrucciones
Por Segundo).
3 Aplicaciones de la Macrocomputadora: 

Ejecución de tareas de lotes en grandes volúmenes.


Administración de extensas base de datos (consultas,
recuperación, y actualización de registros).
Sirve como procesador anfitrión en una red distribuida de
procesamiento de datos.
Minicomputadoras
Son computadoras que pueden tener varios procesadores y son
utilizadas primordialmente en el sector manufacturero y financiero.
También tienen aplicación en el manejo de bases de datos de
información y se emplean para la administración de redes de
computadores.
Utilizan sistemas operativos multiusuarios con una gran cantidad
de variantes y fabricantes. Una minicomputadora puede trabajar
individualmente pero es más común encontrarla como estación
central o bien procesador satelital (conexión hacia una
macrocomputadora) con muchos usuarios conectados a ella.
Algunas aplicaciones representativas de
aM
l n
ciompuatdoa
r :
Las minis cuentan con las capacidades operativas de las
macros que pueden ser de 10 hasta 1000 veces más rápidas.
Simplemente que las minis son mas lentas en cuanto a las
macros, y tienen menos capacidad de almacenamiento, las
impresoras no son tan rápidas y se pueden dar servicio a
menos terminales. Puede dar servicio a más de 150
terminales, pero no más de 200.

55
Las minis realizan cualquier tarea desde imprimir cuentas de
servicio hasta controlar robots industriales. Su velocidad se
mide en MIPS (millones de instrucciones por segundo).
Estaciones de trabajo (workstations)
Se encuentra entre las minis y las micros aunque se parece más
a
las micros. Las estaciones de trabajo tienen una gran diferencia
con sus primas la microcomputadoras en 2 áreas principales: 
Internamente ya que están construidas en forma diferente que las
micros. Están basadas generalmente en otra filosofía de diseño de
CPU llamado procesador de cómputo con un conjunto de
instrucciones reducidas (RISC) lo cual origina un procesamiento
más rápido de las instrucciones. La otra diferencia entre las
estaciones de trabajo y micros es que las micros pueden correr
cualquiera de los 4 sistemas operativos mas importantes DOS,
UNIX, OS/2, WINDOWS NT y las estaciones de trabajo
generalmente corren el sistema operativo UNIX o una variación de
este (XENIX).
Por tradición las estaciones de trabajo se han enfocado hacia
usuarios de poder avanzados como científicos, programadores,
ingenieros y otras personas con actividades similares.
Algunas aplicaciones representativas de la Estaciones derta
 baoj
(workstations): 
El uso común es para el diseño asistido por computadora
(CAD).
Cirujanos y ortopedistas para diseñar y construir prótesis de
cadera y rodilla.
Las estaciones de trabajo se están tornando tan poderosas
que cada vez se usan mas para manejar tareas
administrativas básicas como contabilidad.
La estación de trabajo se lanzó al mercado a principios de los
80. Las de altas capacidades actuales tienen capacidad de
procesamientos similares a las de las macros que atienden
hasta 2000 terminales.

56
Es probable que la mayor amenaza competitiva para las
minis sea la estación de trabajo una computadora de
escritorio que tiene el poder de una mini pero mas barata.
Microcomputadoras
O también llamadas PC computadoras personales estas vienen en
todas formas y tamaños. Son más pequeñas que las minis y
estaciones de trabajo. La mayor parte de las PC’ s usan la
arquitectura CISC (Computadora con un conjunto de
instrucciones complejas), las que usan la tecnología RISC
efectúan un proceso más rápido para ciertas aplicaciones.
Estas tienen 4 tamaños físicos distintos:
PC escritorio, torre, laptop y de bolsillo.

Las micros se pueden usar como sistemas independientes o servir


como terminales inteligentes de
supercomputadoras,
macrocomputadoras,minicomputadoras o de estaciones de
trabajo.
PC de torre y escritorio
Este tipo de computadoras es la más común y es la que se
introdujo primero al mercado.
La mayoría de estas computadoras son lo suficientemente
pequeñas para caber sobre un escritorio, pero son demasiado
grandes para llevarlas de un lugar a otro.
La única diferencia que podríamos mencionar entre una PC
de torre a un PC de escritorio es que la caja principal,
llamada Unidad Central de Proceso CPU, se pone en
posición vertical en el modelo torre y con frecuencia se
coloca en el suelo para ahorrar espacio en el escritorio

PC
bolsillo
Laptop.

Son ligeras, desde unos gramos hasta 6 kg.


Son compactas y pueden operar sin una fuente externa
de
57
energía de modo que se le pueden llamar también
“portátiles”.
Las Laptop, son las predecesoras de las computadoras
notebook y son ligeramente más grandes que éstas.
Cuentan con todas las capacidades de las PC, las laptop
tienen por lo común un teclado casi del tamaño normal.
Notebook.

Se llaman así porque su tamaño es similar al de un


cuaderno. Algunas de estas computadoras pueden superar
por mucho a algunas computadoras de escritorio.
Sin embargo hay desventajas: los teclados en miniatura
dificultan y reducen la velocidad de captura de datos.
Asistentes Personales Digitales.

También llamados a veces como Palmtops, son las


computadoras portátiles más pequeñas que caben en la
palma de la mano. Esta área de la computación está
evolucionando rápidamente. La generación más reciente
de este tipo de computadoras llamadas comunicadores
inteligentes personales PIC, pueden usar luz infrarroja para
comunicarse con computadoras cercanas e incluso tener
teléfono celular y fax integrados.
Este tipo de computadoras generalmente son usados por
gente que no quiere cargar mucho y que no necesita gran
cantidad de aplicaciones de negocios mientras está fuera
de la oficina. Debido a su poder limitado estas
computadoras generalmente no tienen unidad de disco. En
vez de ésta, utilizan pequeñas tarjetas del tamaño de las
de crédito para almacenar programas y datos. Estas
tarjetas han resultado tan prácticas que están siendo
adoptadas por los fabricantes de noteboolk, laptop y hasta
de computadoras de escritorio.
LECTURAS COMPLEMENTARIAS
1.1 Antecedentes históricos y tendencias.

58
La historia de las computadoras tiene un significado especial para
nosotros porque muchos de los sucesos más importantes han
ocurrido a lo largo de nuestra vida. Las 4 ultimas décadas han
sido
la parte mas excitante de la
historia de la computadora si se
toma en cuenta la manera en
la
que la gente vive y trabaja,
llegando en nuestros días a la
total dependencia hacia las
computadoras, el invento de
la
computadora digital por Atanasoff
en 1942, puede considerarse
como uno de los sucesos
mas
significativos de la historia de la computadora.

La era de la información ha llegado para quedarse. La informática se


encuentra en casi todas las actividades del ser humano.

1.1.1 Época Antigua.

Desde los más antiguos tiempos, el hombre ha tenido conciencia


de sus limitaciones con respecto a su capacidad mental de
cálculo, por lo que ha ido desarrollando diversas herramientas de
apoyo, que van desde las más simples hasta las más complejas; a
continuación se mencionan algunas de ellas:

ABACO: Primer dispositivo mecánico de la contabilidad que


existió. Tuvo origen en china hace unos 5000 años. Su efectividad
ha soportado el paso del tiempo ya que todavía se usa.

ESTRUCTURAS DE NAPIER: El matemático escocés Jhon Napier


inventor de los logaritmos naturales, ideó un dispositivo basado en
palillos que contenían números, capaz de multiplicar y dividir de
forma automática. También ideó una calculadora con tarjetas que
permitía multiplicar y que tomó59el nombre de “Estructuras de
Napier”.
LA PASCALINA: El inventor Leonardo Da Vinci, trazo la idea de
una “Sumadora mecánica”. Siglo y medio después el filósofo y
matemático Blaise Pascal matemático francés finalmente inventó y
construyó la primera Sumadora mecánica se llamó “la Pascalina” y
funcionaba a base de ruedas y engranes. Aunque la Pascalina se
desechó por ser poco práctica, su diseño de ruedas de conteo se
uso en todas las calculadoras mecánicas hasta mediados de la
década de los sesenta, cuando se tornaron obsoletas ante el
surgimiento de las calculadoras electrónicas.

REGLA DE CALCULO: En 1650 Patridge basándose en los


descubrimientos de Napier, inventó “la Regla de cálculo”, era una
pequeña regla deslizante sobre una base fija en la que figuraban
diversas escalas para la realización de determinadas operaciones.
Este dispositivo de cálculo fue utilizado hasta los años setenta, en
que las calculadoras electrónicas fueron su mejor sustituto.

1era. TARJETA PERFORADA: Joseph Marie Jacquard aprendiz


de tejedor nacido en Francia construyó en 1801 “el Telar de
Jacquard”, el movimiento de las
agujas, el hilo y la tela se dirigía
por medio de perforaciones sobre
una tarjeta. A éste se le considera
como el creador de la 1era.
Maquina mecánica programada.

El primer paso serio en la creación de una computadora lo dio el


matemático inglés Charles Babbage quien inició la construcción
de 2 máquinas la cuales fueron:

MAQUINA DE DIFE-RENCIAS:
Durante la apresurada
Revolución Industrial personas
de todo tipo dependían de las
tablas matemáticas, sin embargo
al percatarse que sus propias
tablas contenían gran
cantidad de
errores en 1822 Charles Babbage matemático ingles empezó a
trabajar en un proyecto financiado por la Royal Society, diseñando
60
su máquina de diferencias activada a base de vapor, con la
intención de producir tabla logarítmicas de hasta 6 cifras, pero
nunca fue terminada debido a que, mientras avanzaba en la
construcción, constantemente se le ocurrían mejoras para
perfeccionar el aparato.

MAQUINA ANALÍTICA En 1833 Babbage abandona el primer


proyecto, e inspirado en las tarjetas perforadas de Jacquard se
propone realizar el verdadero sueño de su vida el diseño de su
máquina analítica similar a la computadora actual, Esta
calculadora, que seria capaz de realizar cualquier tipo de calculo
de manera digital, tampoco pudo ser concluida debido a que su
tecnología era muy adelantada para la época y nunca pudo
construir las sofisticadas piezas que diseñaba para ella. Si la
tecnología de esa época hubiera estado al nivel de este gran
genio, posiblemente desde entonces hubiéramos contado con la
primera computadora digital, pues disponía de programa, memoria,
unidad de control,
periféricos de entrada periféricos de salida. Reazilabaa
 uo
tmácitamene
t tablas de
logaritmos y funciones trigonométricas.

ESQUEMA DE LA MAQUINA ANALITICA DE BABBAGE

Salida a
Entrada de
tarjetas
Tarjetas Memoria Calculadora perforadas

A pesar de que el proyecto nunca se llevó a cabo, en


reconocimiento a su genio, muchos consideran a Charles
Babbage como el Padre de las Computadoras, aunque su
invento no pasó de ser el prototipo de una excelente máquina
mecánica de cálculo.

61
PRIMER PROGRAMADORA: Una matemática aficionada amiga de
Babbage Ada Augusta Lovelace (hija de Lord Byron), se intereso
mucho en la maquina analítica y trabajó junto con él. Se convirtió
así en la primera programadora de la historia (1842,) pues
escribió secuencias de instrucciones en tarjetas perforadas, inventó
métodos de programación como la subrutina e introdujo en sus
programas las interacciones y el salto condicional, lo que abre ya
la posibilidad de tomar decisiones automáticamente.
Otra de sus contribuciones es que propuso utilizar el sistema
binario
en lugar del decimal que utilizaba Babbage para la codificación de
los programas en tarjetas perforadas.

MAQUINA CENSADORA: En el año de 1885 Herman Hollerit,


funcionario de la oficina de censos de los E.U. vio que se tardaban
10 años en realizar un censo anual del
país y observo que la maquina de las
preguntas del censo tenían como
respuesta si ó no por lo que ideo en
1886 una tarjeta perforada para
contener la información de las personas
censadas y una maquina capaz de leer
y tabular dicha información a la
que llamo
máquina censadora la cual fue capaz de reducir el trabajo manual
a la 3era. parte el censo de 1890 solo tardo poco menos de 3 años
y se perforaron 56 millones de tarjetas. Hollerith rento su
maquinaria a los Gobiernos de: Estados Unidos, Canadá, Austria,
Rusia y otros países.
En 1895 incluyó en su máquina la operación de sumar con el fin
de
utilizarla para la contabilidad de los ferrocarriles centrales de
Nueva Cork. En 1896 se une con otras 2 empresas y forman la
Tabulating Machines Company la cual en 1924 T. J. Watson le
cambia el nombre por el de (IBM) Internacional Business
Machines.

Para llegar a algo que ya se puede considerar como una


computadora digital con capacidad para recibir datos mediante un
dispositivo de entrada, almacenarlos en localidades de memoria,
procesarlos, ordenándolos y haciendo los cálculos necesarios, y
62
entregar los resultados como información visual o impresa hubo
que
esperar al siglo XX, cuando se dieron los grandes descubrimientos
que permitieron la creación de esa asombrosa maquina.

1.1.2 Época Moderna.

En el decenio 1930-1940 hubo una explosión de actividad


concerniente al desarrollo de computadoras. Este período fue
llamado “ L o s años de efervescencia “ ya que sufrió la poderosa
influencia de la segunda guerra mundial, debido ha ésta, se
intensificó la necesidad de cálculos científicos, el gobierno financió
varios proyectos claves entre los que estuvo la construcción de
una serie de 5 computadoras a gran escala bajo la dirección de
George Stibitz a pedido del ejercito de los E.U. se le llamo la
computadora de relés de Bell, debido a que utilizaban relés
electrónicos como componentes operacionales básicos y que se
construyeron en los Laboratorios Bell. Además de las operaciones
específicas que realizaban las computadoras de Bell probaron que
podían realizar operaciones las 24 horas durante los 7 días a la
semana con muy pocos errores.

En 1937 a inicios John Vincent Atanasoff profesor de la


Universidad estatal de Iowa, comenzó a formular los principios de
la primera calculadora electrónica automática con ayuda del
estudiante graduado Clifford Berry e inicio la construcción del
prototipo de computadora que operaba en binario siguiendo la idea
de Babbage, con el fin de reducir el tiempo que los estudiantes de
física debían pasar realizando cálculos complicados. En 1942 se
terminó un modelo que funcionaba. Las decisiones de Atanasoff
(de usar un medio electrónico con tubos al vació, el sistema de
numeración con base en el 2, y circuitos de memoria y lógica)
determinaron la dirección de la computadora moderna. Esta
máquina llamada ABC (Atanasoff-Berry-Computer) fue considerada
como la primera computadora digital electrónica automática.
Irónicamente, el Estado de Iowa no pudo patentar el aparato y
cuando se estableció comunicación con IBM acerca del ABC,
esta
respondió con un dejo de frivolidad que hizo que “IBM jamás se
interesara en una maquina de computación electrónica”. En 1973,
un tribunal federal en ejercicio de sus funciones otorgó en forma
oficial a Atanasoff los créditos de la invención de la “computadora
digital electrónica automática”.

63
En 1937 Howard Aiken de la Universidad de Harvard desarrollo la
idea de Babbage junto con
científicos de la IBM y
construyen la primera
computadora electromecánica
basada en relés ó ruedas
dentadas electromecánicos a la
cual se le llamo MARK I. Esta
se terminó de construir en 1944
tenia elementos de
entrada,
memoria principal, und
i ad artimétcia,
Unidad de control,
entrada y salida , utilizando como
dispositivos de entrada/salida
tarjetas y cintas perforadas. Pesaba unas 5 toneladas, estaba
constituida por 78 máquinas sumadoras conectadas entre si
mediante 800 km. de cable, recibía las instrucciones por medio de
cinta perforada de papel, y multiplicaba 2 números de 10 dígitos en
3 segundos aproximadamente. Esta computadora estuvo activa
desde 1944 hasta 15 años más tarde, en que fue desmantelada.
Se utilizo poco tiempo ya que nacieron las computadoras
electrónicas e hizo que las de este tipo cayeran rápidamente en
desuso.

Durante este mismo tiempo un alemán llamado Konrad Zuse se


dedico al diseño y construcción de computadoras. Su primer
intento denominado inicialmente como Z1 lo inicio en su casa. A
pesar de que muchos de sus trabajos fueron destruidos por la
guerra continúo trabajando hasta diseñar y mejorar modelos, y por
último formar una compañía productora de computadoras. Se le
atribuye la primera computadora de propósito general
controlada por programas.

Durante la guerra, la inteligencia británica construyó una serie de


computadoras electrónicas conocidas como Colossi, era un
proyecto altamente secreto, se desarrollo para propósitos
específicos para la lectura de códigos, entro en operación en
diciembre de 1943.

En 1940 John Mauchly y J.A.


Eckert Jr. Junto con científicos 64
de la universidad de Pennsylvania, construyeron la primera
computadora electrónica denominada ENIAC (Electrónica
Numerical Integrador and Calculator ) basada en los trabajo de
Atanasoff que entró en funcionamiento en 1945. Fue un proyecto
del ejército de los E.U. para el cálculo de trayectoria de proyectiles.
Era 1000 veces más rápida que la Mark I y realizaba 5000 sumas
y 500 multiplicaciones por minuto, ocupaba 167 metros cuadrados,
tenía un peso de 30 toneladas, 18,000 válvulas de vacío, 70,000
resistencias, y consumía entre 100,000 y 200,000 voltios, esto
hacia que al conectarse la ENIAC las luces de Filadelfia sufrieran
un caída en su iluminación. Además el equipo necesitaba
ventilación y el mantenimiento era elevado sobre todo debido a la
gran cantidad de válvulas.
La programación de las primeras computadoras era una tarea
enorme que requería: -estar totalmente familiarizado con los
detalles de operación de la máquina, una gran cantidad de ingenio
y mucha paciencia-, los programas de la ENIAC por ejemplo, se
cargaban y cambiaban modificando los alambres entre sus
componentes, posiblemente una tarea que les llevaba de uno a dos
días en programar una computadora que era capaz de resolver
problemas en minutos.

El Doctor Jhon Von Neuman consultor del proyecto ENIAC, fue el


primero en proponer el concepto de programa almacenado
(desarrolla la idea del programa interno) y describe el fundamento
teórico de construcción de una computadora electrónica
denominada Modelo de Von Neuman era la unión de datos e
instrucciones en la computadora y la posibilidad de ser
programados no estando las ordenes cableadas. Es por esto que
Von Neuman y el equipo de la ENIAC proponen el concepto de
programa almacenado. Sugirió que las instrucciones podían
almacenarse en la computadora junto con los datos, lo cual
aumentaba la flexibilidad y aplicabilidad de la computadora en 2
sentidos:

1.Las instrucciones podrían cambiarse sin tener que alambrar


manualmente las conexiones.

2.Las instrucciones serian almacenadas como números.

65
Por lo que antes de terminar la ENIAC, ya se trabajaba en la
EDVAC (Electronic Discrete Variable Automatic Computer) que
contemplaba las teorías sobre programación almacenada en alm
  emoari
de la máquina, ésta era solo una modificación de la ENIAC.

Neuman terminó la computadora EDVAC en 1952 debido a un


retraso (desintegración del equipo de trabajo), aparece antes en
1949 la EDSAC (Electronic delay storage automatic computer)
construida en Cambridge por M.V.Wilkes y fue considerada como
la primer computadora que podía almacenar un programa
digital.

Mauchly y Eckert. Pasaron del proyecto de la EDVAC al de la


Construcción de una máquina denominada Computadora
Automática Universal UNIVAC
que fue primera
computadora
la digital producida
comer-cialmente desarrollada
en 1951 y a partir de entonces la
tecnología avanza a pasos
agigantados hasta llegar a
nuestros días, donde las
microcompu-tadoras
han
alcanzado un alto grado de perfección por sus grandes velocidades
de procesamiento, su gran capacidad de almacenamiento en la
memoria, la reducción considerable en su tamaño y sus precios
bastante accesibles para casi todos los consumidores.

Sin embargo, como en la mayoría de los eventos que se van


sucediendo sin un control por parte de un país o una sola
universidad, el desarrollo de las computadoras no cuenta con una
bitácora precisa que permita asegurar sin temor a equivocaciones
el período medido en años, que abarque cada una de esas
generaciones. Hay quienes ubican a la primera generación a partir
de 1937 o antes, relacionándola con los primeros trabajo del Dr.
Konrad Zuse y del Dr. Aiken, otros consideran a 1951 como el año
de arranque de la computación, por coincidencia con la aparición
de 66
la primera computadora comercial UNIVAC. Por estos motivos, no
es conveniente tomar partido por alguna de estas teorías, sino
considerar a las fechas en que se dieron los grandes cambios
tecnológicos, como parámetros para determinar el fin de una etapa
y el comienzo de otra.

1.1.2.1 Cuatro inventos decisivos.

1er. Generación. “Válvulas de vacío”

En 1904 Jhon Ambose Fleming fabrica su válvula diodo, primer


dispositivo electrónico que conduce la corriente eléctrica en un solo
sentido.

En 1907 Lee de Forest inventa el tubo de vacío  (bulbo) de 3


elementos que puede controlar el flujo eléctrico y amplificar las
señales débiles a voluntad.

2da. Generación. “Transistores”

En 1947 el transistor es inventado por Walter Brattain y Jhon


Bardeen en los Laboratorios Bell,
sustituyó a la válvula permitiendo la
reducción de los circuitos en tamaño
y aumentando la fiabilidad de los
equipos debido a sus mejores
características.

3er. Generación. “Circuitos


Integrados”

El circuito integrado fue creado por Jack Kilby en 1958, y Robert


Noyce lo perfeccionó en 1959 fabricándolo con silicio, un sool  cricutio
integrado reemplazaba a cientos de transistores y realizaba millones
de cálculos por segundo .

4ta. Generación “Microprocesadores”


67
En 1971 apareció el Microprocesador desarrollado por los
ingenieros de Intel, Federico Faggin, Marcian E. Hoff y Stan Mazor,
en el que se consiguió implementar toda la UCP de una
computadora en un solo elemento integrado.

1.1.3 Época actual.

Generación de las

computadoras 1ª. Generación:


Esta generación la constituyen todas aquellas
computadoras construidas a base de Válvulas de Vacío y cuyo
uso fundamental fue la realización de aplicaciones en los campos
Científicos y Militar.

Utilizaban como lenguaje de programación el


Lenguaje Máquina (El Concepto de Programa Almacenado) y
como únicas memorias para conservar información las Tarjetas
Perforadas.

El costo de construir tales maquinas era realmente


exorbitante, y comparado con el rendimiento resultaban
inaccesibles para el mercado contemporáneo, por lo que IBM optó
por retirarse temporalmente de ese giro.

2ª. Generación de Computadoras (1959-1964).

El transistor representó la construcción de


Computadoras mas poderosas y confiables, eran de menor costo,
ocupaban menos espacio y producían menos calor que las
computadoras que operan a base de tubos al vacío, lo que las
hacia mas prácticas.

Respecto a la programación o software, seguían


dominando los sistemas de tarjeta o cinta perforada para la
entrada de datos. Nace en los Laboratorios Bell la TRADIC
(Transistorized Airborne Digital Computer) que ya incluía 800
transistores en su estructura interna.
68
Otro gran logro de esta época, es el desarrollo del primer lenguaje
de alto nivel el FORTRAN (FORmula TRANslator) desarrollado por
Jhon Backus, este lenguaje es muy apropiado para trabajos
científicos, matemáticos y de ingeniería. En 1958 Jhon McCarthy
desarrolla el lenguaje LISP (acrónimo de LISt Processor), que
aporta grandes avances en la investigación sobre Inteligencia
Artificial. Uno de los más grandes avances en cuanto a portabilidad de
programas entre diferentes computadoras  fue el  COBOL
(Common Business Oriented Language) desarrollado por Grace
Murray Hopper.

La introducción de memorias de ferrita en estas computadoras hizo


posible que se redujeran de tamaño considerablemente así como
el consumo de energía eléctrica,

Algunas de las computadoras que se construyeron ya con


transistores fueron la IBM 1401, las Honeywell 800, UNIVAC
M460, etc. Se construyen las supercomputadoras:  Reminigton
Rand, UNIVAC LARC y la IBM Stretch.

1959 IBM lanzó la 7090  una computadora transistorizada, se


vendieron cientos de éstas a un promedio de 3 millones de
dólares.

Los campos de aplicación eran el Científico,


Militar, Administrativo y de Gestión.

3ª. Generación de Computadoras.

El suceso más importante en la historia de las computadoras


ocurrió cuando la IBM anunció su línea de Macrocomputadoras
sistema 360 con su tecnología SLT (Solid Logic Technology) el 7
de abril de 1964. Ésta maquina causó tal impacto en el mundo de
la computación que se fabricaron mas de 30,000.

Los Circuitos integrados hicieron por la 3ª. Generación lo que los


transistores por la 2ª. Generación, los sistemas 360 provocaron
que todas las computadoras instaladas con anterioridad se
volvieran obsoletas. No hubo problemas de compatibilidad. Se dice
que el cambio fue revolucionario no evolutivo y provoco pesadillas
a miles de usuarios. Esta serie alcanzo un éxito enorme, a tal
grado que la 69
gente en general, pronto llegó a identificar el concepto con el
nombre de IBM. Sin embargo, sus máquinas no fueron las únicas,
ni necesariamente las mejores. Control Data Corporation
presenta la supercomputadora CDC 6600, que se consideró como
la más poderosa de la época, ya que tenía capacidad de ejecutar 3
millones de instrucciones por segundo (MIPS); se empiezan a
utilizar los medios magnéticos de almacenamiento, como cintas
magnéticas y enormes discos rígidos

Características predominantes de la 3ª.

Generación: Circuitos Integrados.


Compatibilidad con equipo mayor, ya que una Compañía podía
adquirir un equipo con un distribuidor particular y después cambiar
a una computadora más poderosa sin necesidad de volver a
programar o diseñar los sistemas existentes.

Multiprogramación. Estas computadoras corren a tal velocidad


que pueden correr más de un programa de manera simultánea
(Multiprogramación), p/ejemplo: en cualquier momento la máquina
puede estar imprimiendo cheques, aceptando órdenes y probando
programas.

Minicomputadora. Surgen las minicomputadoras las cuales no


son tan costosas como las grandes máquinas, pero ya disponen
de gran capacidad de proceso. IBM crea el modelo 34 que luego
fue reemplazado por los modelos 36 y 38.

4ª. Generación de Computadoras (1971-1982).

Una de las contribuciones más importantes al surgimiento de la 4ª.


Generación es el microprocesador que puede estar contenido en
una pastilla de Silicio ó Chip y que es el producto de la
microminiaturización de los circuitos electrónicos. El primer
procesador totalmente operacional al que se le llama a veces
“Computadora dentro de un Circuito o Chip”, hoy hay más
microprocesadores que gente sobre la tierra. Este dispositivo
puede encontrársele en cualquier parte, desde ascensores hasta
satélites.

70
Las principales empresas tecnológicas que dominan este mercado
son: IBM y sus compatibles llamadas “clones” , fabricadas por
infinidad de compañías, en segundo término Apple Computer.

Características predominantes de la 4tª. Generación

Crece la capacidad de almacenamiento de información.

se perfeccionan el almacenamiento auxiliar y los dispositivos de


entrada/salida (Unidades de discos flexibles y duros, tableros
digitales, lectoras de Código, Impresoras rayo láser, matriz de
puntos Impresoras chorros de tinta, etc.).

 Aparecen las microcomputadoras PC’ s.

Los sistemas operativos alcanzan notable desarrollo que permite


utilizar interfaces gráficas de usuario (GUI).

El software tiende a enfocarse al usuario poco experimentado.


Lenguajes de aplicación dbase, Informix, Prolog, Lotus, etc.

5ta. Generación de Computadoras

Con base en los grandes acontecimientos tecnológicos en materia


de microelectrónica y computación (software): Inteligencia Artificial,
sistemas expertos, redes neuronales, fibras ópticas,
telecomunicaciones, etc., a mediados de la década de los 80’s se
establecieron las bases de lo que se puede considerar como 5ta.
Generación de computadoras.

Hay que mencionar 2 grandes avances tecnológicos que quizás


sirvan como parámetro para el inicio de dicha generación: 1) La
creación en 1982 de la primer supercomputadora con capacidad
de proceso paralelo, diseñada por Seymouy Cray, quien ya
experimentaba desde 1968 con supercomputadoras, y que funda
en 1976 la Cray Research Inc. y 2) El anuncio de Japón del
proyecto
“Quinta Generación” un acuerdo con seis de las mas grandes
empresas japonesas de computación que debería de terminar en
1992, una de las características principales de este era la
aplicación de Inteligencia artificial.
71
Las computadoras de esta generación contienen una gran cantidad
de microprocesadores trabajando en paralelo y pueden reconocer
voz e imágenes, tienen la capacidad de comunicarse con un
lenguaje natural, e irán adquiriendo la habilidad para tomar
decisiones fundamentadas en sistemas expertos e inteligencia
artificial.

El almacenamiento de información se realiza en dispositivos


magnéticos-ópticos con capacidad de decenas de gigabytes.

Se establece el DVD como estándar para el almacenamiento de


vídeo y sonido, la capacidad de almacenamiento crece de manera
exponencial.

Los microprocesadores actuales utilizan tecnologías de alta y ultra


integración denominadas VLSI (Very Large Scale Integration) y
ULSI Ultra Large Scale Integration).

El hardware de computadoras continúa declinando en precio


mientras que las velocidades de procesamiento y las capacidades
de almacenamiento aumentan.

El tamaño físico de los procesadores y memorias disminuye.

Características de la 5ta. Generación:

Consolidación del concepto

multimedia. Reconocimiento de voz.

Dispositivos inalámbricos.
El multiprocesamiento se hace más
común.

Hacer posible la intercomunicación hombre máquina basados en


lenguaje natural.

Se logran procesos paralelos ya que varias instrucciones pueden


ser ejecutadas al mismo tiempo.
72
6ta. Generación de Computadoras

Como supuestamente la sexta generación de computadoras está


en marcha desde principios de los noventas, se señalaran las
características que deben tener las computadoras de esta
generación.

Se han creado computadoras capaces de realizar más de un millón


de millones de operaciones aritméticas de punto flotante por
segundo (teraflops).
Las redes de área mundial (Wide Area Networek, WAN)
seguirán
creciendo desorbitadamente utilizando medios de comunicación a
través de fibras ópticas y satélites con anchos de banda
impresionantes.

1.1.4 Época Futura.

De acuerdo con la Ley de Moore, “indica que cada 18 meses los


procesadores duplicaran su poder en la
mitad de su tamaño” y llegaran al nivel
atómico alrededor del año 2012. De
acuerdo con él mismo y, por su parte
Lucent Technologies, han profetizado
que alrededor del año 2012
los
transistores llegaran al límite de su capacidad de miniaturización,
por lo que es necesario encontrar otros materiales para continuar
con ese proceso tecnológico.

Ese proceso tecnológico se le ha dado el nombre de


Nanotecnología o sea, el desarrollo de dispositivos cuyo tamaño
no excede de la mil millonésima parte de un metro.

P/e. En la Universidad de Nueva York, se han creado nano-robots


cuya particularidad es que fueron desarrollados a partir de
apariencias de DNA artificial, lo que los hace totalmente
compatibles con un organismo 73viviente, cuyo objeto será entrar
en
el torrente sanguíneo de una persona y realizar algunos
procedimientos médicos que de otra forma requerirían de una
operación o estudios mas tardados. En este campo será
concebible que se introduzcan minúsculos agentes que puedan
medir concentraciones de toxinas, ataquen y destruyan células
cancerígenas o liberen arterias obstruidas. A este nivel todavía
quedan varios elementos por definir, puesto que no saben cuanta
fuerza pueda tener el nano-robot para ejercer alguna función.

En el campo de la electrónica tenemos a dos contendientes que


han desarrollado servidores muy, pero muy pequeños. El anterior
rey de miniservidor era el profesor Vaughan Pratt de la
Universidad de Santford, que tenia el Matchbox Server del
tamaño, como su nombre lo indica, de una cajetilla de cerillos y
que hospeda su pagina de internet; sin embargo, un estudiante
graduado del MIT cuyo nombre (el casi impronunciable
Hariharasubrahmanian Shrikumar) llamado Shri, desarrolló el
servidor iPIc del tamaño aproximado de una cabeza de cerillo y
que puede dar servicio de Internet.
Aplicaciones prácticas de la nanotecnología se verán hasta dentro
de 10 años o más, y que potencialmente cambiaran nuestra vida.

El Chip Molecular

El chip molecular, está llamado a jubilar al microprocesador de


silicio. Supondrá el paso de la microelectrónica a la “moletrónica” o
“electrónica molecular” y la entrada de la química en la fabricación
de microprocesadores. Los chips moleculares se elaboran sobre un
componente químico nuevo, el rotaxano, que permitirá reducir el
tamaño de los circuitos a una molécula. La nueva técnica podrá
reproducir la potencia de 100 computadoras en la cabeza de un
alfiler.

74
El futuro de los microprocesadores

Los investigadores de Intel han desarrollado los transistores más


rápidos del mundo -que son casi 1000% más rápidos que los
procesadores más rápidos de la actualidad, los Procesadores
Pentium® 4-. Estos transistores conducirán a procesadores
compuestos de mil millones de transistores, ejecutando a
velocidades cercanas a 20 gigahertz y operando con menos de un
volt antes del fin de la década. Y a pesar de la idea general que la
Nanotecnología sustituirá al silicio, estos transistores tienen base
de silicio. Usando materiales normales y estructuras de
transistores
75
para alcanzar este nivel, Intel mostró que la innovación puede
continuar con su paso actual.

Los Microprocesadores, el “ Cerebro” de nuestra computadora

Un microprocesador (o simplemente Procesador), es un chip de


silicón con una Unidad Central de Proceso que ejecuta todas las
instrucciones. Éste se localiza en el centro de todas las
computadoras personales y estaciones de trabajo, controlando
además los procesos lógicos de dispositivos digitales, como los
relojes o sistemas de inyección de gasolina de los automóviles,
etc.
Existen 3 características que determinan la Capacidad de un
Procesador:

1.Conjunto de instrucciones (Instruction set). Serie de instrucciones


que el procesador puede ejecutar.
2.Ancho de banda (Bandwidth). Numero de bits procesados en una
sola instrucción.
3.Velocidad de reloj (clock speed). Cuya medida son MegaHertz
(MHz), determina cuantas instrucciones por segundo puede ejecutar
el procesador.

De una manera simplista, por eso los procesadores a 64 bits


(ancho de banda) son más rápidos que aquellos de 16 bits. De
manera similar, mientras mayor sea la velocidad del reloj
(MegaHertz), más instrucciones puede procesar por segundo.

Los principales competidores en la creación de microprocesadores


son:

Intel, ( www.intel.com ) ,
Advanced Micro Device ( www.amd.com ) ,
Motorola, (w  ww.motorola.com ) ,
Cyrix ( www.cyrix.com )  y 
Alpha Processors (w 
ww.alphaprocessors.com ) .
76
Intel junto con Microsoft son las que han definido el camino de la
computación personal durante los últimos 32 años, claro que ha
tenido altibajos, pero continúa siendo el líder del mercado.

1.2. El Modelo de Von Neumann 

Los primeros dispositivos de cómputo no se distinguían por su


flexibilidad, pues era frecuente que el programa que cada uno
ejecutaba estuviera en gran medida integrado en la Unidad de
Control y formara parte de la maquina. Un sistema así es
semejante a una caja de música que siempre toca la misma
canción, cuando lo que se necesita es la flexibilidad de un
cambiador de discos compactos.

Una estrategia que se utilizó para lograr esa flexibilidad en los


primeros computadores electrónicos fue: diseñar las unidades de
control de modo que pudieran reconectarse con facilidad, cosa que
se hacia mediante un tablero de clavijas similar a los antiguos
conmutadores telefónicos, en los que se insertaban en agujeros los
extremos de cables puenteadores.
Las instrucciones como patrones de bits 1
Un avance crucial (atributo, tal vez de manera errónea, a Jhon Von
Neumann) tuvo lugar cuando se tomó conciencia de que los
programas, al igual que los datos, se podían codificar y almacenar en
la memoria principal .

Este concepto de programa almacenado se ha convertido en el


enfoque estándar en la actualidad. Para aplicarlo, las máquinas se
diseñan de modo que puedan darse cuenta de que ciertos patrones
de bits representan ciertas instrucciones. Esta serie de
instrucciones, junto con el sistema de codificación, se denomina
lenguaje maquina porque define la forma en que comunicamos
algoritmos a la maquina.
1
Hay quienes aseguran que el primero en desarrollar esta idea
fue
J.P. Eckert Jr., en la Moore School, pero que sus ideas
se
77
convirtieron en parte de una labor de grupo, para finalmente ser
atribuidas indebidamente a Von Neumann.

Introducción a la Informática.

Desde sus orígenes, el hombre ha tenido necesidad de la


información. Esta información, que en principio se recogía de forma
oral, con la aparición de la escritura, comenzó a almacenarse en
medios que evolucionaron desde las tablillas hasta el papel,
pasando por los papiros y los pergaminos. También los medios de
transmisión han ido evolucionando desde la transmisión oral,
buena para distancias cortas, hasta la transmisión a grandes
distancias por cables utilizando código Morse (telégrafo) o la
propia voz mediante el teléfono.

Se puede decir que el tratamiento de la información es tan antiguo


como el hombre y se ha ido potenciando y haciendo más
sofisticado con el transcurso del tiempo hasta llegar a la era de la
electrónica. El hombre no ha parado a lo largo de la historia de
crear máquinas y métodos para procesar la información. Para
facilitar esta tarea, en especial en el mundo actual, donde la
cantidad de información que se procesa a diario es enorme, surge
la informática.

Definiciones básicas:

El término Informática proviene de la unión de las palabras


información y automática. De una forma muy general, podemos
decir que la informática se ocupa del tratamiento automático de
la información.

Concretando más, podemos definir Informática: como la ciencia


oc onujno
t, de conocimientos científicos que permiten el
tratamiento automático de la información por medio
de ordenadores .

Como se puede observar, en la definición anterior de Informática,


intervienen dos palabras clave: 78
Información, y

ordenador.

Información

Por información se entiende cualquier conjunto de símbolos que


represente hechos, objetos o ideas.

Computadora

¿Qué es un ordenador? Un ordenador o computadora es una


máquina compuesta de una serie de circuitos electrónicos que es
capaz de recoger unos datos de entrada, efectuar con ellos ciertos
cálculos, operaciones lógicas y/o aritméticas, y devolver los datos o
información resultante por medio de algún medio de salida. Todas
estas acciones las realiza por medio de un programa de
instrucciones previamente introducido en ella, sin necesidad de
intervención humana.

La computadora se diferencia del resto de las máquinas conc apacdiad de


tratar información (por ejemplo, una calculadora básica o una
máquina de escribir) en lo siguiente: 

Gran velocidad de tratamiento de la

información. Gran potencia de cálculo

aritmético y lógico.

Capacidad para memorizar los programas y datos necesarios para


resolver cualquier problema técnico o de gestión.

Capacidad de comunicación con las personas


y con otras máquinas, y dispositivos
para recibir o transmitir datos.

Posibilidad de tratamiento de datos


79
en tiempo real.
Actúa sin intervención de un operador humano y bajo el control de
un programa previamente almacenado en la propia computadora.

Desde el “punto de vista informático”, existen dos tipos de


información: Datos e instrucciones .

Los datos son conjuntos de símbolos que utilizamos para expresar


o representar un valor numérico, un hecho, un objeto ó una idea
en la forma adecuada para su tratamiento. En informática, también
se entiende como dato: una matrícula, una dirección, un nombre,
etc. Estos datos los puede obtener el ordenador directamente
mediante mecanismos electrónicos (detectar sonidos,
temperaturas, contornos, imágenes,...) o pueden ser introducidos
mediante grafismos (letras y números) que es el medio más
utilizado (lenguaje escrito). Cualquier información (datos e
instrucciones) se puede introducir al ordenador mediante
caracteres (letras, dígitos, símbolos especiales). Generalmente la
computadora devolverá la información utilizando también esta
forma escrita.

Las instrucciones le indican a la computadora qué es lo que


debe reazilar y los datos son los elementos sobre los que actúan o
que generan las instrucciones. 

Visto esto, una computadora la podemos ver como un sistema que


tiene como entradas datos e instrucciones y produce en función de
éstos unos determinados resultados.

El funcionamiento básico de un ordenador se podría describir


así:

Programa

80
Cálculos

Salid
Entrada Operaciones Aritméticas
a

¿Cuáles son las razones principales que de alguna forma han


obligado a la automatización del tratamiento de la
información?

1.A veces es necesario realizar funciones que el hombre puede


abordar por sí mismo pero que le llevarían mucho tiempo, como por
ejemplo, cálculos complejos como los necesarios para el
seguimiento y control de naves espaciales (cálculos en tiempo
real).

2.Es preciso realizar funciones que el hombre, por sí solo no pude


cubrir, como por ejemplo, las comunicaciones a larga distancia.

3.Es necesario obtener seguridad en algunas tareas, sobre todo en


las de tipo repetitivo en las que el hombre es más propenso a
cometer errores. Sin embargo, las máquinas, una vez que se les ha
enseñado cómo realizar las tareas correctamente, repiten el
proceso una y otra vez sin cometer ningún error.

4.Se puede sustituir al hombre en las tareas monótonas. Este tipo de


tareas no implican el desarrollo de su actividad intelectual, con lo
que al automatizarlas, el hombre puede dedicar su esfuerzo a
funciones más decisivas e importantes.

Características esenciales de una computadora:

Una de las características esenciales de una computadora es que


trata información digital, es decir trabaja en lenguaje binario (serie
de 1 y 0) Así toda la información va a ser digitalizada (traducida a
81
lenguaje binario). El elemento binario (bit) es la unidad de
cuantificación elemental.
La medida de información se hace en números de bits o en
números de “Octetos” (bytes).

Como se representa la información en las computadoras


(Bits y Bytes)

Para que la información fluya a través de un sistema de cómputo y


tome la forma adecuada para ser procesada, todos los símbolos,
imágenes o palabras deben ser reducidos a una cadena de dígitos
binarios.

Un dígito binario se llama bit o representa un cero o un uno. En la


computadora, la presencia de un símbolo magnético o electrónico
significa un uno y su ausencia significa un cero.
Las computadoras digitales operan directamente con dígitos
binarios, ya sea aisladamente o encadenados para formar bytes.
Una cadena de 8 bits se llama byte.  Cada byte  puede ser usado
para representar un número decimal, un símbolo o una parte de
una
imagen.

Bit: un dígito binario que representa la unidad de información más


pequeña en un sistema de cómputo. Puede tener solo 2 estados
representados por 0 o 1.

Byte: Una cadena de bits, en general 8, que se emplea para


representar un numero o carácter almacenado en el sistema de
computo.

Kilobyte: Mil bytes (en realidad, 1024 posiciones), empleado como


medida de capacidad de almacenamiento en las
microcomputadoras.

Megabyte: Aproximadamente un millón de bytes.

Gigabyte: Aproximadamente mil millones de


82
bytes.

Das könnte Ihnen auch gefallen