Sie sind auf Seite 1von 199

1.

1 TECNOLOGÍAS DE LA INFORMACIÓN

TI, o más conocida como IT por su significado en inglés: information technology es


la aplicación de ordenadores y equipos de telecomunicación para almacenar,
recuperar, transmitir y manipular datos, con frecuencia utilizado en el contexto de
los negocios u otras empresas. El término es comúnmente utilizado como sinónimo
para los computadores, y las redes de computadoras, pero también abarca otras
tecnologías de distribución de información, tales como la televisión y los teléfonos.
Múltiples industrias están asociadas con las tecnologías de la información,
incluyendo hardware y software de computador, electrónica, semiconductores,
internet, equipos de telecomunicación y servicios computacionales.

Este concepto engloba todo lo relacionado con la informática, la electrónica y las


telecomunicaciones.

Los avances tecnológicos como el Internet, las comunicaciones móviles, los


satélites, etc. Han hecho significativos cambios en el sistema económico y social,
influyendo en las relaciones sociales.

En la actualidad y gracias a las tecnologías de la información los individuos pueden


comunicarse y recibir información en tiempo real, cosa que era imposible hacer hace
unos años atrás. Estamos viviendo en la era de la información, y a nivel empresarial,
una organización debe estar al día con relación a las nuevas tecnologías ya que
esto va a repercutir en su desempeño, el poder manejar herramientas que logren
disminuir los costos operativos de la empresa es de vital importancia al igual que el
poder entregar los productos en menor tiempo, y el brindarle a los clientes un
servicio de calidad y con resultados óptimos.

La mejor manera de que una empresa sea mucho más competitiva a nivel nacional
e internacional, es manejando las tecnologías de la información, adquiriendo
equipos de alta tecnología, y no es solo computadoras también son cámaras de
vídeo, para la seguridad de la empresa, etc. Y simultáneamente ir capacitando a su
personal para que este sea capaz de poder manejar todo lo relacionado con los
equipos tecnológicos que se encuentren dentro de la organización.

1
Las personas hoy en día manejan tecnologías de la información a diario desde sus
casas, en su trabajo, en los centros educativos etc. La mayoría de los individuos
tienen a su alcance un celular, están constantemente revisando los correos
electrónicos, las redes sociales y muchas cosas más. Y no es solo los adultos, los
jóvenes y niños están sumergidos en todo lo que tenga que ver con tecnologías de
la información.

Frecuentemente los términos TI y TIC suelen ser confundidos en su uso. Es


importante señalar la diferencia entre ambos: TI hace referencia a tecnologías de la
información, mientras que TIC implica las tecnologías de la información y la
comunicación. Ambas sostienen una amplia relación, sin embargo, señalan áreas
diferentes. El término TI es un término más amplio y abarca a las TIC, siendo éste
un término que indica una subcategoría de aquel. "Las TI abarcan el dominio
completo de la información, que incluye al hardware, al software, a los periféricos y
a las redes. Un elemento cae dentro de la categoría de las TI cuando se usa con el
propósito de almacenar, proteger, recuperar y procesar datos electrónicamente".

Este término de tecnologías de la información surgió desde el siglo xx, aunque ya


nuestros ante pasados comenzaban a utilizar de esta herramienta, pero de forma
diferente de lo que hoy podemos ver. Con el paso del tiempo y debido a las
necesidades humanas que hemos descubierto, tales como almacenar, distribuir
información, comunicarse y más necesidades básicas del ser humano, estas
herramientas han evolucionado para poder satisfacer dichas necesidades. Muchas
de las limitaciones de las primeras épocas han sido superadas, como las
dimensiones de los dispositivos, la velocidad de procesamiento y la volatilidad de la
memoria (los primeros medios de almacenamiento eran incapaces de retener los
datos una vez que se interrumpía el suministro de energía eléctrica, así como ocurre
con la memoria RAM), pero aún quedan muchos desafíos pendientes, siendo la
estabilidad de Internet una de las principales, sin dejar de lado las diferencias
abismales entre los proveedores de países desarrollados frente a los
subdesarrollados.

2
El término tecnología de la información en su significado moderno hizo su primera
aparición en 1958 en un artículo publicado en la revista Harvard Business Review;
sus autores Harold J. Leavitt y Thomas L. Whisler comentaron que “la nueva
tecnología no tiene aún un nombre establecido. Deberíamos llamarla tecnología de
la información (TI)”. Su definición consistía en tres categorías: técnicas de
procesamiento, la aplicación de métodos estadísticos y matemáticos para la toma
de decisión, y la simulación del pensamiento de orden superior a través de
programas computacionales. En ese artículo, dichos autores tratan de especular
acerca de los efectos, especialmente porque se aplican a las empresas medianas y
grandes del futuro.

Dicho término está compuesto de varias partes relacionadas. Uno incluye técnicas
para procesar grandes cantidades de información rápidamente, y está resumido en
la computadora de alta velocidad, esto a través de la clasificación, registro,
tabulación, codificación y muchas otras técnicas para el procesamiento de datos.
Pero antes de continuar es importante resaltar que son los datos para entender lo
que queremos decir; por lo tanto los datos son una representación simbólica
(numérica, alfabética, etc.) de conjunto de valores sobe un hecho real.

Una segunda parte se centra en la aplicación de métodos estadísticos y


matemáticos a los problemas de toma de decisiones; está representado por técnicas
como la programación matemática y por metodologías como la investigación de
operaciones.

Una tercera parte está a la vista, aunque sus aplicaciones aún no han emergido muy
claramente; consiste en la simulación del pensamiento de orden superior a través
de programas informáticos.

Trataremos de entender el concepto un poco más amplio y reconocemos las


tecnologías de la información como la aplicación de computadores y equipos de
telecomunicaciones para almacenar, recuperar, transmitir y manipular datos,
utilizado universalmente en el contexto de las organizaciones sean negocios o
empresas, privadas o públicas.

3
Es probable que la tecnología de la información tenga su mayor impacto en la
gerencia media y superior. En muchos casos, conducirá a conclusiones opuestas a
las dictadas por la filosofía popular de gestión "participativa". En términos generales:

1. La tecnología de la información debe mover el límite entre la planificación y el


rendimiento hacia arriba. Así como la planificación fue tomada del trabajador por
hora y entregada al ingeniero industrial, ahora esperamos que sea tomada de varios
gerentes intermedios y entregados a especialistas aún inexistentes: "investigadores
de operaciones", tal vez, o "analistas organizacionales". Los puestos de trabajo en
el nivel medio de gestión actual serán altamente estructurados. Mucho más del
trabajo será programado, es decir, cubierto por conjuntos de reglas de operación
que rigen las decisiones cotidianas que se toman.

2. Correlativamente, predecimos que las grandes organizaciones industriales se


volverán a centralizar, que los altos directivos asumirán una proporción aún mayor
de las funciones innovadoras, de planificación y otras funciones "creativas" de las
que tienen ahora.

3. Debería ocurrir una reorganización radical de los niveles de gerencia media, con
ciertas clases de trabajos de gerencia media que se mueven hacia abajo en estatus
y compensación (porque requerirán menos autonomía y habilidad), mientras que
otras clases se mueven hacia arriba en el grupo de administración superior.

La tecnología de la información tiene diversas raíces, con contribuciones de grupos


tan dispares como sociólogos e ingenieros eléctricos. Al trabajar de manera
independiente, las personas de muchas disciplinas se han estado preocupando por
problemas que han resultado estar estrechamente relacionados y fertilizados.
Ejemplos de ello son el desarrollo de los servomecanismos de los ingenieros y los
desarrollos relacionados de la cibernética general y la teoría de la información.
Todas estas ideas tenían una relación directa con los problemas del procesamiento
de la información, en particular, el desarrollo de técnicas para conceptualizar y medir
la información.

4
También surgieron ideas relacionadas de otras disciplinas. El economista
matemático llegó junto con la teoría de juegos, un medio para ordenar y permitir el
análisis de estrategias y tácticas en juegos puramente competitivos tipo "pensar".
La investigación operativa también encaja aquí; O la gente hizo uso de conceptos
matemáticos en evolución, o ideó los propios, para resolver problemas multivariados
sin preocuparse necesariamente por el contexto particular de las variables. Y a partir
de la psicología social, comenzaron a surgir ideas sobre las estructuras de
comunicación en grupos, seguidas de ideas sobre el pensamiento y los procesos
generales de resolución de problemas.

Características distintivas de la tecnología de la información:

1. Llamamos a la tecnología de la información "nueva" porque no se vio mucho uso


hasta la Segunda Guerra Mundial, y no se volvió claramente visible en la industria
hasta una década después.

2. En gran parte, después de la Segunda Guerra Mundial, una segunda tecnología


distinta, la gestión participativa, superó seriamente, e incluso parcialmente, la
gestión científica. Las nociones sobre la descentralización, la moral y las relaciones
humanas modificaron y en ocasiones revertieron las aplicaciones anteriores de la
gestión científica. Los incentivos individuales, por ejemplo, se trataron primero como
aplicaciones simples del taylorismo, pero se han revisado más recientemente a la
luz de las ideas "participativas".

La tecnología de la información parece ahora mostrarse principalmente en la


periferia de la administración. Sus aplicaciones parecen ser independientes de
cuestiones organizacionales centrales como la comunicación y la creatividad. Hasta
ahora hemos tendido a utilizar pequeñas piezas de la nueva tecnología para generar
información, o establecer límites para subtareas que luego pueden usarse dentro
del antiguo marco estructural.

Creemos que la tecnología de la información se extenderá rápidamente. Una razón


importante para esperar cambios rápidos en las prácticas actuales es que la
tecnología de la información facilitará la centralización. Al permitir que más

5
información se organice de manera más simple y se procese más rápidamente, en
efecto, se ampliará el rango de pensamiento de las personas. Permitirá que el más
alto nivel de gestión clasifique, digiera y actúe de forma inteligente en una gama
más amplia de problemas. Además, al cuantificar más información extenderá el
control de la alta dirección sobre los procesos de decisión de los subordinados.

Si la centralización se vuelve más fácil de implementar, los gerentes probablemente


volverán a utilizarla. La descentralización, después de todo, ha sido en gran medida
motivada negativamente. Los altos directivos han respaldado porque no han podido
mantenerse al día con el tamaño y la tecnología. No podían diseñar y mantener los
enormes y complejos sistemas de comunicación que necesitaban sus grandes
organizaciones centralizadas. La tecnología de la información debería posibilitar la
recentralización. También puede obviar otras razones importantes para la
descentralización. Por ejemplo, la velocidad y la flexibilidad serán posibles a pesar
del gran tamaño, y los altos ejecutivos dependerán menos de los subordinados
porque habrá menos áreas de "experiencia" y "juicio" en las que los hombres
jóvenes tengan más conocimiento práctico. Además, se puede esperar que las
técnicas más eficientes de procesamiento de la información acorten radicalmente el
ciclo de retroalimentación que prueba la precisión de las observaciones y decisiones
originales.

En perspectiva, y descontando las contra tendencias instigadas por la gestión


participativa, el resultado del taylorismo parece haber sido la separación del
trabajador por horas del resto de la organización, y la aceptación por parte de la
gerencia y el trabajador de la idea de que el trabajador no necesita planificar y crear,
ya sea que sea psicológicamente o socialmente justificable o no, su creatividad e
ingenio se dejan en gran parte por actuar fuera del trabajo en su hogar o su
comunidad. Una razón, entonces, por la cual esperamos la máxima aceptación de
la tecnología de la información es su promesa implícita de permitir que la parte
superior controle la parte central, del mismo modo que el taylorismo permitió que la
parte media controlara el fondo.

6
Hay otras razones para esperar cambios rápidos. La tecnología de la información
promete permitir que menos personas hagan más trabajo. Cuanto más pueda
reducir la cantidad de mandos medios, más altos directivos estarán dispuestos a
probarlo.

Basándose en la tecnología de almacenamiento y procesamiento empleada, es


posible distinguir cuatro eras del desarrollo de TI: pre-mecánica (3000 a. C.-1450 d.
C.), mecánica (1450-1840), electromecánica (1840-1940) y electrónica (1940-al
presente).

Era Pre mecánica: En el periodo comprendido entre 3000 a. C y 1450 d.C el hombre
se enfrentó a necesidades básicas, dos de las cuales fueron comunicarse y contar
objetos; para satisfacerlas inventó la escritura y los sistemas de numeración y se
apoyó en tecnologías que hoy utilizamos: papel, plumas y ábaco.

Era mecánica: En esta era, comprendida entre 1450 y 1840, los inventores
comenzaron a utilizar técnicas y herramientas (el tratamiento de los metales, la
rueda, el poder de transmisión mecánico) para crear máquinas que realizaran
algunas tareas, la imprenta, inventada por Johann Gutenberg fue una de las
máquinas más sobresalientes en esta era porque hizo accesible la información
escrita en público general y ayudo a crear nuevas formas de gobierno con
ciudadanos educados y cultos. El hombre está versátil que el mismo tiempo que
respondía al impacto de la imprenta en la sociedad ideaba otras tecnologías para
trabajar con los números de una manera más sencilla. En 1614, el matemático
escocés John Napier publico la primera tabla de los logaritmos para simplificar y
agilizar los cálculos. Por estas fechas, el clérigo inglés William Oughtred inventó la
regla de cálculo con dos escalas móviles que se graduaban según los logaritmos de
las cantidades que se iban a calcular. Es un ejemplo de las primeras computadoras
analógicas, porque media en lugar de contar y fue tan útil para los científicos que
se utilizó por cientos de años, hasta 1950.

Alrededor de 1642, el matemático francés Blaise Pascal, con tan solo 19 años
construyo la primera calculadora automática para ayudar a su padre, recaudador de

7
impuestos que trabajaba arduamente en el cálculo de grande operaciones
aritméticas.

En Inglaterra, 150 años después, Charles Babbage, al notar que los matemáticos
tenían problemas por la falta de cálculos precisos y exactos, comenzó a diseñar y
a construir la máquina diferencial sin embargo, no logro terminarla porque
emprendió la construcción de otra más ambiciosa , la máquina analítica, que podía
programarse con tarjetas perforadas para llevar a cabo cualquier cálculo. El diseño
de Babbage incluyo los componentes que se encuentran en la computadora
moderna:

a) Tenía dispositivos de entrada basados en las tarjetas perforadas.

b) Un procesador aritmético para calcular números.

c) Una unidad de control para determinar la tarea que debía realizarse.

d) Un mecanismo de salida.

e) Una memoria donde se almacenaban los números hasta procesarse.

Era electromecánica: Se caracterizó por dos sucesos importantes: el comienzo de


las telecomunicaciones y la computación electromecánica. A finales del siglo se
descubrió un método confiable para crear y almacenar electricidad, el cual permitió
el surgimiento de un nuevo método de comunicación: el telégrafo; este sistema
desglosaba la información (el alfabeto) en bits (rayas y puntos) que podían
transmitirse mediante impulsos eléctricos a través de un cable. En esta era de la
computación electromecánica destacaron dos hombres brillantes: el estadístico
estadounidense Herman Hollerith y el profesor Howard Aiken. En 1886,Hollerith,
quien trabajó como estadístico en la oficina de censos de Estados unidos, ,quiso
reducir el número de años en los que entregaron los resultados del censo de 1880,
por lo que propuso un sistemas basado en tarjetas perforadas para codificar los
datos de la población en el censo de 1890.

El éxito fue rotundo: con la máquina electromecánica de Hollerith se redujo un largo


proceso de 10 años a dos años y medio. Fundó una compañía para manufacturar y

8
vender esta máquina empresa que poco a poco se convertiría en la mundialmente
famosa International Business Machines Corporation (IBM).

A principios del siglo XX los investigadores se enfocaron arduamente a la


computación electromecánica para responder a las necesidades de cálculos
precisos y al manejo del papeleo de los científicos, el ejército y las grandes
empresas.

Era electrónica: En 1943, el matemático británico Alan Turing ayudo a construir la


maquina Colossus para descifrar códigos alemanes; esta máquina utilizo 1 800
tubos de vacío para contar, comparar y realizar operaciones aritméticas simples.
Colossus represento un gran avance al mostrar que era útil para el procesamiento
de datos de alta velocidad.

Cabe resaltar la gran importancia de la relación que existe entre la informática y las
tecnologías de la información, ya que como antes se mencionó y valiendo la
redundancia las tecnologías de la información son un conjunto de técnicas,
conocimientos y procesos que sirven para el diseño y construcción de objetos para
satisfacer las necesidades humanas; aplicadas en la sociedad, la tecnología es
consecuencia de la ciencia y la ingeniería, aunque muchos avances tecnológicos
sean posteriores a estos dos conceptos. Y la informática, es un conjunto de
conocimientos científicos y técnicas que hacen posible el tratamiento automático de
la información por medio de ordenadores. Pero también es de importante resaltar la
diferencia ya que aunque se relacionan estos dos conceptos no debemos
confundirlo. La tecnología es una disciplina que estudia el tratamiento automático
de la información utilizando dispositivos electrónicos y sistemas computacionales.
Para llegar a los sistemas informativos computarizados hace falta, por supuesto, la
tecnología es decir, que la informática y tecnología van tomados de la mano, pero
no es lo mismo.

La importancia de la tecnología es que avanzamos teniendo mejores herramientas


y mejor calidad de vida de muchas formas, es importante porque somos capaces
de crear, ver, entender y aprovechar más lo que vamos teniendo y lo que vamos
dejando en la historia.

9
La importancia de la informática reside en que se ha encargado de facilitar la
realización de tareas y la comunicación de las personas. El avance vertiginoso que
representa la historia de la informática, provoca que lo que ayer ya era moderno,
hoy este relegado; este avance también ha permitido resaltar el valor de la
información de todas sus formas (sitios web, blogs, emails).

Algunos aspectos que definen a las tecnologías de la información son:

Almacenamiento de datos:

Las primeras computadoras electrónicas, como la Colossus, hacían uso de cintas


perforadas, una larga tira de papel en donde los datos son representados por una
serie de agujeros, una tecnología ahora obsoleta.

El almacenamiento electrónico de datos usado por las computadoras modernas


data de la Segunda Guerra Mundial, cuando una forma de memoria de línea de
retardo fue desarrollada para eliminar el desorden de las señales de radar; la
primera aplicación práctica de esto fue la línea de retardo de mercurio. El primer
dispositivo de almacenamiento digital de acceso aleatorio fue el Tubo Williams,
basado en un tubo de rayos catódicos estándar, pero la información almacenada en
ella y en la memoria de línea de retardo era volátil, por lo que debía ser
continuamente refrescada, y por lo tanto se perdía una vez que se desconectaba de
la energía. La primera forma de almacenamiento computacional no volátil fue la
memoria de tambor, inventada en 1932 y usada en la Ferranti Mark I, la primera
computadora de uso general disponible comercialmente.

IBM introdujo el primer disco duro en 1956, como un componente de su sistema


computacional 305 RAMAC. La mayoría de los datos digitales al día de hoy son
almacenados magnéticamente en discos duros, u ópticamente en medios como los
CD-ROMs. Hasta 2002, la mayoría de la información era almacenada en
dispositivos analógicos, pero ese año la capacidad de almacenamiento digital
superó al analógico por primera vez. En 2007 cerca del 94 % de los datos
almacenados mundialmente eran digitales: 52 % en discos duros, 28 % en medios
ópticos y 11 % en cintas magnéticas digitales. Se ha estimado que la capacidad

10
mundial de almacenamiento de información en dispositivos electrónicos creció de
menos de 3 exabytes en 1986 a 295 exabytes en 2007, doblándose
aproximadamente cada tres años.

Bases de datos:

Los sistemas de administración de bases de datos surgieron en la década de 1960


para abordar el problema de almacenar y recuperar grandes cantidades de datos
de manera precisa y rápida. Uno de los primeros sistemas fue el Information
Management System de IBM, el cual sigue siendo ampliamente implementado más
de 40 años después. El IMS almacena datos jerárquicamente, pero en la década de
1970, Ted Codd propuso como alternativa los modelos de almacenamiento
relacionales basándose en la teoría de conjuntos y en la lógica de predicados y en
conceptos familiares como lo son las tablas, filas y columnas. El primer sistema de
gestión de bases de datos relacionales (RDBMS del inglés: Relational database
management system) comercial disponible fue el de Oracle en 1980.

Todos los sistemas de administración de bases de datos consisten en un número


de componentes que juntos permiten que los datos que ellos almacenan sean
accedidos simultáneamente por varios usuarios mientras mantienen su integridad.
Una característica de todas las bases de datos es que la estructura de los datos que
contienen es definido y almacenado de manera separada de los datos mismos, en
el llamado esquema de la base de datos.

El lenguaje de marcas extensible o XML, siglas en inglés de extensible markup


language, se ha vuelto un formato para la representación de datos popular en los
últimos años. Aunque los datos XML pueden ser almacenados en sistemas de
archivos normales, son comúnmente usados en bases de datos relacionales para
aprovechar su “aplicación robusta verificada durante años por esfuerzos tanto
teóricos como prácticos”. Como una evolución del estándar de lenguaje de marcado
generalizado o SGML, las estructuras basadas en texto XML ofrecen la ventaja de
poder ser leídas por máquinas como por humanos.

Recuperación de datos:

11
El modelo relacional introdujo un lenguaje de programación independiente llamado
Structured query language, basado en el álgebra relacional. El término “dato” e
“información” no son sinónimos. Cualquier cosa almacenada es un dato, pero solo
se transforma en información cuando es organizada y presentada de forma
significativa. La mayoría de los datos digitales a nivel mundial están
desestructurados y almacenados en una variedad de diferentes formatos físicos,
incluyó aquellos pertenecientes a una misma organización. Los almacenes de datos
comenzaron a ser desarrollados en la década de 1980 para integrar estos diversos
depósitos de datos. Por lo general contienen datos extraídos de variadas fuentes,
incluidas fuentes externas como internet, y organizadas de tal manera que sirva a
los sistemas de soporte a decisiones (DSS por sus siglas en inglés decision support
system).

Transmisión de datos:

La transmisión de datos contempla tres etapas: transmisión, propagación y


recepción. Puede ser ampliamente categorizada como broadcasting, en donde la
información es transmitida unidireccional y descendentemente, o como
telecomunicación, con canales bidireccionales tanto ascendentes como
descendentes. XML ha sido empleado cada vez más como medio de intercambio
de información desde comienzos de la década de 2000, particularmente para
interacciones orientadas a la máquina como aquellas involucradas en protocolos
web como SOAP, describiendo “datos en tránsito en vez de datos en reposo”. Uno
de los retos de su uso es convertir datos de una base de datos relacional en
estructuras como la document object model o DOM.

Manipulación de datos:

Hilbert y López identificaron un ritmo exponencial de cambio tecnológico (una


especie de Ley de Moore): la capacidad per cápita de las máquinas de uso
específico para procesar información se duplicó aproximadamente cada 14 meses
entre 1986 y 2007; la capacidad per cápita de las computadoras de uso general se
duplicó cada 18 meses durante las mismas dos décadas; la capacidad mundial de
telecomunicaciones per cápita se duplicó cada 34 meses; la capacidad de

12
almacenaje global per cápita necesitó aproximadamente 40 meses para duplicarse
(cada tres años). Enormes cantidades de datos son almacenados cada día a nivel
mundial, pero a menos que pueda ser analizada y presentada de manera efectiva
se cataloga en lo que se han llamado tumbas de datos: “archivos de datos que rara
vez son visitados”. Para abarcar ese problema, el campo de la minería de datos (“el
proceso de descubrir patrones interesantes y conocimiento desde grandes
cantidades de datos”) emergió a finales de la década de 1980.

Y dentro de este tema de tecnologías de la información también es importante


abordar el tema de tecnologías de la información y comunicación o mejor conocido
como TIC, que como al inicio del desarrollo del tema, se explicó la diferencia entre
estos dos conceptos, más sin embargo también se aclaró que la tecnología de la
información y comunicación está dentro del tema de tecnologías de la información.
Por lo tanto es necesario dar a conocer más a fondo este tema.

Como primer paso es indispensable dar una clara definición de esta, las tecnologías
de la información y comunicación conforman el conjunto de recursos necesarios
para manipular y/o gestionar la información: los ordenadores, los programas
informáticos y las redes necesarias para convertirla, almacenarla, administrarla,
transmitirla y encontrarla.

Las tecnologías de la información y comunicación se desarrollan a partir de los


avances científicos producidos en los ámbitos de la informática y las
telecomunicaciones. Las TIC son el conjunto de tecnologías que permiten el acceso,
producción, tratamiento y comunicación de información presentada en diferentes
códigos (texto, imagen, sonido,...). El elemento más representativo de las nuevas
tecnologías es sin duda el ordenador y más específicamente, internet. Como indican
diferentes autores, Internet supone un salto cualitativo de gran magnitud,
cambiando y redefiniendo los modos de conocer y relacionarse del hombre.

13
1.2 ELEMENTOS DE UN SISTEMA COMPUTACIONAL

Un sistema de cómputo es básicamente un conjunto de dispositivos que tienen la


función de procesar y almacenar información. Primeramente, la información tiene
que entrar al sistema de cómputo y, una vez procesada, puede salir para que el
usuario vea los resultados.
Todo sistema de cómputo está integrado por elementos físicos o dispositivos,
llamados hardware. Pero, para que el sistema de cómputo trabaje, tiene que llevar
a cabo funciones u operaciones que son controladas por instrucciones, es decir,
programas que indican a los dispositivos qué hacer con la información. A los
programas se les conoce como software.

Usuario
Software
Hardware
Firmware
Orgware

14
Usuario

“Aquellos para quienes se desarrolla el sistema”.

Un usuario es la persona que “usa” una aplicación de


computadora. Esto incluye tanto a los programadores
expertos, así como principiantes. Un usuario está
autorizado para utilizar una aplicación, equipo,
instalación, proceso o sistema. Usuario final es un
término que se utiliza para distinguir la persona para
la cual se ha diseñado un hardware o software.

Tipos de Usuario

Existen diferentes tipos de usuarios que se clasifican dependiendo de la aplicación


a utilizar, generalmente los usuarios se pueden clasificar en tres tipos:

 Usuario estándar

Conoce el software básico de un computador. Este utiliza regularmente Internet y


programas de oficina como Microsoft Office Excel y Microsoft Office Word.

 Usuario intermedio

Sabe utilizar las herramientas de oficina para obtener reportes especiales que
permiten analizar la información y realizar presentaciones.

 Usuarios avanzados

Conocen sobre desarrollo de aplicaciones y pueden crear programas que serán


utilizados por otros usuarios.

15
Software

Origen del término y definición

El software es una palabra que proviene del idioma inglés, compuesto por “soft”
'blando' y “ware” 'utensilios, objetos'. Es un término creado por los ingenieros
informáticos americanos por analogía al hardware.

Si bien es una palabra que tiene su origen en inglés, gracias a la masificación de su


uso, ha sido aceptada por la Real Academia Española. Según la RAE, el software
es un conjunto de programas, instrucciones y reglas informáticas para ejecutar
ciertas tareas en una computadora. El Oxford English Dictionary lo define como el
conjunto de programas, rutinas y otra información operativa utilizada por una
computadora para realizar determinadas tareas.

La IEEE (Institute of Electrical and Electronics Engineers, que por su traducción al


español significa “Instituto de ingenieros eléctricos y electrónicos”) define al software
como el conjunto de los programas de cómputo, procedimientos, reglas,
documentación y datos asociados, que forman parte de las operaciones de un
sistema de computación.

En términos más específicos, al hablar de software


nos referimos al equipamiento lógico o soporte
lógico de un sistema informático, que comprende el
conjunto de los componentes lógicos necesarios
que hacen posible la realización de tareas
específicas, en contraposición a los componentes
tangibles que son llamados hardware.

En ese sentido, siendo el software una pieza clave en los sistemas informáticos,
podríamos definir a este último como un sistema que permite almacenar y procesar
información y que contempla una serie de partes o recursos: hardware, software y
las personas que lo emplean.

16
Origen e historia del software

La historia del software tiene una larga trayectoria, en comparación con el hardware
hubo menos novedades ya que el desarrollo de ambos iba paralelo o superpuesto.

Algunos historiadores acreditan al ingeniero mecánico e inventor musulmán Al-


Jazarí como el primer ejemplo de programación. Durante el
siglo 13, varias de las máquinas que Al-Jazarí diseñó y
construyó podían alterarse o modificarse cambiando sus
instrucciones. Este es el concepto de la programación
informática moderna.
En 1804, Joseph Marie Jacquard, tejedor y comerciante
francés, creó la forma más antigua práctica de la
programación. Diseñó un telar que realizaba tareas
predefinidas a través de la alimentación de tarjetas
perforadas. El artilugio utilizaba tarjetas perforadas para conseguir tejer patrones en
la tela, permitiendo que hasta los usuarios más inexpertos pudieran elaborar
complejos diseños.

Durante el siglo 18, Charles Babbage, matemático y científico inglés, conocido


como el padre de la computación moderna, diseñó máquinas capaces de realizar
operaciones matemáticas complejas. Entre los diseños e inventos de Babbage
están la base para las máquinas sumadoras y otros dispositivos mecánicos de
cálculo que se convirtieron en herramientas empresariales comunes a finales del
siglo 19 y principios del 20. El concepto de leer diferentes secuencias de
instrucciones (programa) desde la memoria de un dispositivo para controlar los

17
cálculos fue introducido por Charles Babbage como parte de su “máquina
diferencial” o “máquina analítica”.

En 1843, Ada Lovelace, escribió un programa rudimentario para la máquina


analítica, diseñada anteriormente por Babbage en 1827, pero la máquina nunca
llegó a funcionar.

No es sino hasta 1936 que Alan Turing, un matemático, lógico, científico de la


computación, criptógrafo y filósofo británico, en su ensayo “los números
computables” forma la base de la mayor parte del software moderno. Este ensayo
tuvo una aplicación al problema de decisión. Turing es considerado uno de los
padres de la ciencia de la computación y precursor de la informática moderna.
Proporcionó una influyente formalización de los conceptos de algoritmo y
computación: la máquina de Turing.

Alan Turing diseñó uno de los primeros computadores programables en el


Laboratorio Nacional de Física del Reino Unido y poco tiempo después construyó
otra de las primeras máquinas en la Universidad de Mánchester.

18
En 1945, John Von Neumann desarrolló dos conceptos importantes que afectaron
directamente el camino de los lenguajes de programación:
 El primer concepto se conoce como “técnica de programa compartido” (shared-
program technique). Esta técnica indica que el hardware del equipo debe ser
simple y no necesita ser cableado para cada programa. En su lugar,
instrucciones complejas se deben utilizar para controlar el hardware,
permitiendo que sea reprogramado mucho más rápidamente.

 El segundo concepto fue también muy importante para el desarrollo de lenguajes


de programación. Von Neumann lo llamó “control de transferencia condicional”
(conditional control transfer). Esta idea dio lugar a las subrutinas o bloques
pequeños de código que podría ser ejecutados o saltados en cualquier orden,
en lugar de un único conjunto de pasos ordenados cronológicamente. La
segunda parte de la idea sostenía que dicho código debería ser capaz de
ejecutar una acción basada en el resultado de una expresión, definiendo el
estado lógico del comando “si” (expresión), “entonces” (if…then). Neumann
también definió el bucle como una instrucción “for”. “Control de transferencia
condicional” dio lugar a la idea de “bibliotecas”, que son bloques de código que
pueden ser reutilizados una y otra vez.

Desde la década de 1930 hasta la década de 1950, las tarjetas perforadas se


convirtieron en la fuerza motriz de las empresas, ya que se utilizaron en
prácticamente todas las máquinas de contabilidad de oficina. Las tarjetas fueron
creadas con lenguajes de programación como FORTRAN de IBM y COBOL del

19
Departamento de Defensa de EEUU. El término “software” se creó a finales de 1950
y pronto fue adoptado por toda la industria.

Durante la primera era del software (1950-1965) este se contemplaba como un


añadido. La programación de computadoras era un “arte de andar por casa” para el
que existían pocos métodos sistemáticos. El desarrollo del software se realizaba
virtualmente sin ninguna planificación, hasta que los planes comenzaron a
descalabrarse y los costos a correr. Los programadores trataban de hacer las cosas
bien, y con un esfuerzo heroico, a menudo salían con éxito. Los problemas a ser
resueltos eran principalmente de una naturaleza técnica, el énfasis estaba en
expresar algoritmos conocidos eficazmente en algún lenguaje de programación.

En estos primeros años lo normal era que el hardware fuera de propósito general.
Por otra parte, el software se diseñaba a medida para cada aplicación y tenía una
distribución relativamente pequeña. El software como producto estaba en su
infancia. La mayoría del software se desarrollaba y era utilizado por la misma
persona u organización. La misma persona lo escribía, lo ejecutaba y, si fallaba, lo
depuraba.
El lenguaje Algol fue creado por un comité científico
para su uso en 1958. Algol es la base para lenguajes
como Pascal, C, C + + y Java. Pascal fue creado en
1968 por Niklaus Wirth. Su desarrollo se debe
principalmente por la necesidad de una buena
herramienta de enseñanza. BASIC fue desarrollado en
1964 por John Kemeny y Kurtz Thomas.

La segunda era del software (1965-1972) y la


evolución de los sistemas de computadora se extiende
desde la mitad de la década de los sesenta hasta
principios de los setenta. La multiprogramación y los sistemas multiusuario
introdujeron nuevos conceptos de interacción hombre - máquina. Las técnicas

20
interactivas abrieron un nuevo mundo de aplicaciones y nuevos niveles de
sofisticación del hardware y del software.

Los sistemas de tiempo real podían recoger, analizar y transformar datos de


múltiples fuentes, controlando así los procesos y produciendo salidas en
milisegundos en lugar de en minutos. Los avances en los dispositivos de
almacenamiento en línea condujeron a la primera generación de sistemas de
gestión de bases de datos.

Estos años se caracterizaron también por el desarrollo intensito del software ya que
se construían para tener una amplia distribución en un mercado multidisciplinario.
Los programas se distribuían para computadoras grandes y para
minicomputadoras, a cientos e incluso a miles de usuarios. Los patronos de la
industria, del gobierno y de la universidad se aprestaban a “desarrollar el mejor
paquete de software” y ganar así mucho dinero.

Conforme crecía el número de sistemas informáticos, comenzaron a extenderse las


bibliotecas de software de computadora. Las casas desarrollaban proyectos en los
que se producían programas de decenas de miles de sentencias fuente. Los
productos de software comprados al exterior incorporaban cientos de miles de
nuevas sentencias. Una nube negra apareció en el horizonte. Todos esos
programas, todas esas sentencias fuente tenían que ser corregidos cuando se
detectaban fallos, modificados cuando
cambiaban los requisitos de los usuarios o
adaptados a nuevos dispositivos hardware
que se hubieran adquirido. Estas actividades
se llamaron colectivamente “mantenimiento
del software”. El esfuerzo gastado en el
mantenimiento del software comenzó a absorber recursos en una medida
alarmante. Aún peor, la naturaleza personalizada de muchos programas los hacía
virtualmente imposibles de mantener. Había comenzado una “crisis del software”.

21
La tercera era del software (1972-1989) se dispuso de un sistema distribuido,
múltiples computadoras, cada una ejecutando funciones concurrentemente y
comunicándose con alguna otra, incrementó notablemente la complejidad de los
sistemas informáticos. Las redes de área local y de área global, las comunicaciones
digitales de alto ancho de banda y creciente demanda de acceso “instantáneo” a los
datos, supusieron una fuente presión sobre los desarrolladores del software. Aún
más, los sistemas y el software que lo permitían continuaron residiendo dentro de
la industria y de la academia. El uso personal era extraño. La conclusión de la
tercera era se caracterizó por la llegada y amplio uso de los microprocesadores.

A finales de la década de 1970 y principios de 1980, se creó


el método de “Programación Orientada a Objetos” o POO. Los
objetos son piezas de datos que pueden ser envasados y
manipulados por el programador. Este conjunto de
extensiones desarrolladas en el lenguaje de todas las
funciones de C + +, que fue lanzado en 1983.

La cuarta era del software (1989-actualidad) se aleja del impacto individual de las
computadoras, dirigiéndose al impacto colectivo de las computadoras y del
software. Potentes máquinas personales controladas por sistemas operativos
sofisticados, en redes globales y locales, acompañadas por aplicaciones de
software avanzadas se han convertido en la norma. Las arquitecturas informáticas
están cambiando de entornos centralizados de grandes computadoras a entornos
descentralizados cliente/servidor.

La industria del software ya es la cuna de la


economía del mundo. Las decisiones tomadas por
gigantes de la industria tales como Microsoft
arriesgan billones de dólares. A medida que la
cuarta generación progresa, han comenzado a
surgir nuevas tecnologías. Las tecnologías

22
orientadas a objetos están desplazando rápidamente los enfoques de desarrollo de
software más convencionales.

Los sistemas expertos y el software de inteligencia artificial han salido del laboratorio
para entrar en aplicaciones prácticas de una gran variedad de problemas del mundo
real. El software de redes neuronales artificiales junto con la aplicación de lógica
difusa ha abierto posibilidades excitantes para el reconocimiento de patrones y
habilidades de procesamiento de información de carácter humano. La programación
de realidad virtual y los sistemas multimedia ofrecen formas radicalmente diferentes
de comunicar información al usuario final.

Clasificación del software


Como ya decíamos, el software es la parte lógica intangible del sistema
computacional que entrega al equipo tangible o hardware una serie de instrucciones
organizadas en programas que permiten ejecutar cualquier trabajo. A continuación
se presenta la clasificación del software:
 Software de sistemas.
 Software de programación.
 Software de aplicación.

23
Software de sistemas
También conocido como software de base, es toda aquella parte lógica realizada
generalmente por cada fabricante de computadoras o por casas especializadas.
Este conjunto de programas tiene por función coordinar las diversas partes del
sistema computacional para hacerlo funcionar rápida y eficazmente, actuando como
mediadores entre los programas de aplicaciones y el hardware de sistema,
interpretando los requerimientos de cada programa que ingresa al sistema,
poniendo a su disposición cualquiera de los recursos que necesite (ya sean
hardware, software o datos) para producir los resultados deseados. Existe una
estrecha relación entre el software de base y las características de un computador.

El software de sistemas es un conjunto de programas


que sirven para interactuar con el sistema y dirigirlo,
confiriendo control sobre el hardware, dar soporte a
otros programas, administración de los dispositivos
periféricos, impresoras, pantallas, teclados, etc.
Ejecuta tres principales tareas: organizar los archivos
en variados dispositivos de almacenamiento,
gestionar los defectos y errores tanto del software
como del hardware y manipular el equipo físico o hardware.

El software del sistema no es para lo que un usuario compraría una computadora;


en su lugar, puede verse como uno de los elementos básicos de una computadora
que vienen incorporados o preinstalados. En contraste con el software del sistema,
un software que permite a los usuarios hacer cosas como crear documentos de
texto, jugar, escuchar música o navegar por la web se llama software de aplicación.

El software de sistemas permite utilizar el


sistema operativo y sistema informático.
Incluye herramientas de diagnóstico, los
compiladores, servidores, sistemas de
ventanas, utilidades, traductor de idiomas,
24
programas de comunicación de datos, sistemas de base de datos y más. El
propósito del software del sistema es aislar el programador de aplicaciones tanto
como sea posible de los detalles del complejo equipo particular que se utilice, la
memoria y otras características, especialmente de hardware y dispositivos
accesorios tales como las comunicaciones, impresoras, lectores, monitores,
teclados, etc.

El software de sistemas le procura al usuario y programador adecuadas interfaces


de alto nivel, controladores, herramientas y utilidades de apoyo que permiten
el mantenimiento del sistema global. El software de sistemas se puede clasificar en:

 Sistemas operativos.
 Controladores de dispositivos.
 Herramientas de diagnóstico.
 Herramientas de corrección y optimización.
 Servidores.
 Utilidades.
 Cargadores.
 Enlazadores.
 Hipervisores.
 Gestores de arranque.
El sistema operativo

El sistema operativo (SO) funciona


como interfaz y puente de
comunicación entre los dispositivos de
hardware (partes físicas, disco duro,
pantalla, teclado, etc.) y los
programas usados por el usuario permitiendo así la comunicación entre este último
y el ordenador.

Un sistema operativo es un software de sistema, es decir, un conjunto de programas


de computación destinados a realizar muchas tareas entre las que destaca

25
la administración de los recursos de la
computadora y controlar su funcionamiento.
Es el encargado de gestionar, coordinar las
tareas y llevar a cabo la transferencia de los
recursos y actúa como soporte para las
aplicaciones que se efectúan en el
computador.

Todas las PC, portátiles, tablets, smartphones y servidores tienen y necesitan un


sistema operativo. Los otros programas son llamados aplicaciones. Resumiendo,
un SO es el encargado de gestionar el software y el hardware de un ordenador o
computadora.

Los sistemas operativos generalmente vienen precargados en cualquier ordenador


cuando lo compramos. La mayoría de la gente usa el sistema operativo que viene
en su ordenador o móvil, pero es posible actualizarlo o incluso cambiar el sistema
operativo por otro diferente.

Los sistemas operativos utilizan imágenes, íconos y botones para poder


comunicarnos con el ordenador de forma sencilla y fácil, para decirle lo que
queremos hacer en cada momento. Su función principal es la de darnos las
herramientas necesarias para poder controlar nuestra computadora y poder hacer
uso de ella, de la forma más cómoda y sencilla posible.

26
Funciones básicas

El sistema operativo tiene dos funciones básicas, globalmente consideradas:

1. Proveer servicios para la ejecución de programas de aplicación y para el


desarrollo de los mismos, es decir administrar los recursos en proceso,
obtener automáticamente la rutina apropiada y mantener el computador sin
necesidad de operación manual.

2. Actuar como entorno de la aplicación en la cual el programa es ejecutado,


planeando los recursos y trabajos, puesto que ayuda a decidir no solo qué
recursos utilizar (asignación), sino también cuando utilizarlos (planificación).
Debido a que los dispositivos de “entrada-salida” trabajan mucho más
lentamente que la CPU, pueden realizarse millones de instrucciones de
cálculo para varios programas, mientras que los resultados se imprimen o
muestran por pantalla.

Utilizando varias técnicas el sistema operativo combina los diversos trabajos que
deben realizarse de modo que los dispositivos del sistema se empleen lo más
eficientemente posible.

Sin embargo, en términos más


específicos un sistema operativo realiza varias funciones básicas: suministro de
interfaz al usuario, administración de recursos, administración de archivos,
administración de tareas, servicio de soporte, control de operaciones de entrada y
salida, administración de la memoria, recuperación de errores y programas de
proceso. A continuación se describen cada una de ellas:

27
 Suministro de interfaz al usuario: Permite al usuario comunicarse con la
máquina, equipo, computadora o dispositivo por medio de interfaces que se
basan en comandos, interfaces que utilizan menús, e interfaces gráficas de
usuario, y en general, todos aquellos puntos de contacto entre el usuario y el
equipo.

o Interfaz gráfica de usuario: La interfaz gráfica de usuario, conocida


como GUI (del inglés graphical user interface), es un programa
informático que actúa de interfaz de usuario, utilizando un conjunto de
imágenes y objetos gráficos para representar la información y
acciones disponibles en la interfaz. Su principal uso consiste en
proporcionar un entorno visual sencillo para permitir la comunicación
con el sistema operativo de una máquina o computador.

Habitualmente las acciones se realizan mediante manipulación directa


para facilitar la interacción del usuario con la computadora. Surge
como evolución de las interfaces de línea de comandos y de líneas de
texto que se usaban para operar los primeros sistemas operativos y
es pieza fundamental en un entorno gráfico. Como ejemplos de
interfaz gráfica de usuario, cabe citar los entornos de
escritorio “Windows”, el “X-Window” de GNU/Linux o el de Mac OS
X, “Aqua”. En el contexto del proceso de interacción persona-
computadora, la interfaz gráfica de usuario es el artefacto tecnológico
de un sistema interactivo que posibilita, a través del uso y la

28
representación del lenguaje visual, una interacción amigable con un
sistema informático.

 Administración de recursos: Administran los recursos del hardware como la


CPU, memoria, dispositivos de almacenamiento secundario y periféricos de
entrada y de salida. Mediante esta función el sistema operativo está en
capacidad de distribuir en forma adecuada y en el momento oportuno los
diferentes recursos (memoria, dispositivos, etc.,...) entre los diversos
programas que se encuentran en proceso, para esto, lleva un registro que le
permite conocer qué recursos están disponibles y cuáles están siendo
utilizados, por cuánto tiempo y por quién, etc.

 Administración de archivos: Controla la creación, borrado, copiado y acceso


de archivos de datos y de programas.

 Administración de tareas: Administra la información sobre los programas y


procesos que se están ejecutando en la computadora. Puede cambiar la
prioridad entre procesos, concluirlos y comprobar el uso de estos en la CPU,
así como terminar programas. Cuando existen varios programas en espera
de ser procesados, el sistema operativo debe decidir el orden de

29
procesamiento de ellos, así como asignar los recursos necesarios para su
proceso.

 Servicio de soporte: Los servicios de soporte de cada sistema operativo


dependen de las implementaciones añadidas a este, y pueden consistir en
inclusión de utilidades nuevas, actualización de versiones, mejoras de
seguridad, controladores de nuevos periféricos, o corrección de errores de
software.

 Control de operaciones de entrada y salida: Mediante esta actividad el


sistema operativo decide qué proceso hará uso del recurso, durante cuánto
tiempo y en qué momento.

 Administración de la memoria: Supervisa qué áreas de memoria están en uso


y cuáles están libres, determina cuanta memoria asignará a un proceso y en
qué momento, además libera la memoria cuando ya no es requerida para el
proceso.

 Recuperación de errores: El sistema


operativo contiene rutinas que intentan
evitar perder el control de una tarea cuando
se suscitan errores en la trasferencia de
información hacia y desde los dispositivos
de entrada/salida.

 Programas de proceso: El sistema operativo contiene programas


de servicios que sirven de apoyo al procesamiento de los trabajos, se
conocen también como utilerías y se pueden clasificar en tres tipos:

30
o Utilerías del sistema: Se ejecutan bajo el control del sistema operativo
y se utilizan para preparar algunos recursos usados por el sistema.
Son de uso interno.

o Utilerías para archivos: Manejan información de los archivos tales


como imprimir, clasificar, copiar, etc.

o Utilerías independientes: Realizar funciones que se relacionan con la


iniciación de dispositivos de entrada/salida, carga del sistema
operativo, etc.

Las utilerías son programas especiales que sirven para revisar ciertos
aspectos del funcionamiento del sistema, tanto para hardware como para
software (antivirus, programa de diagnóstico de pruebas). También se
consideran como utilerías aquellos programas que facilitan la ejecución de
determinadas tareas, por ejemplo, el explorador de Windows.

En resumen, el sistema operativo se encarga de:


 Ejecutar múltiples programas al mismo tiempo; el sistema operativo
determina qué aplicaciones se deben ejecutar en qué orden y en cuánto
tiempo.
 Gestiona el intercambio de memoria interna entre múltiples aplicaciones.
 Se ocupa de entradas y salidas desde y hacia los dispositivos de hardware
conectados, tales como discos duros, impresoras y puertos.
 Envía mensajes a cada aplicación o usuario interactivo (o a un operador del
sistema) sobre el estado de funcionamiento y los errores que se hayan
podido producir.

31
 En los equipos que pueden proporcionar procesamiento en paralelo, un
sistema operativo puede manejar la forma de dividir el programa para que se
ejecute en más de un procesador a la vez.

Tipos de sistemas operativos según su funcionamiento


Tarea única
Los sistemas operativos de tarea única, los más primitivos, solo pueden manejar un
proceso en cada momento. Los sistemas operativos de monotareas son todo lo
contrario a los sistemas operativos actuales, es decir, solo pueden manejar un
proceso en cada momento o que solo pueden ejecutar las tareas de una en una.
Por ejemplo, cuando la computadora está imprimiendo un documento, no puede
iniciar otro proceso ni responder a nuevas instrucciones hasta que se termine la
impresión.
Multitarea

Los sistema operativos modernos son del


tipo multitarea, es decir, puedes ejecutar
varias tareas al mismo tiempo, como por
ejemplo trabajar en la edición de un
documento y reproducir pistas de tu
música favorita, mandar a imprimir,
etc. Es el modo de funcionamiento
disponible en algunos sistemas operativos
mediante el cual una computadora procesa varias tareas al mismo tiempo. Los
sistemas operativos multitarea pueden ejecutar varios procesos simultáneamente.
En la mayoría de los ordenadores sólo hay una UCP (Unidad Central de
Procesamiento); un sistema operativo multitarea crea la ilusión de que varios
procesos se ejecutan simultáneamente en la UCP. El mecanismo que se emplea
más a menudo para lograr esta ilusión es la “multitarea por segmentación de
tiempos”, en la que cada proceso se ejecuta individualmente durante un periodo de
tiempo determinado. Si el proceso no finaliza en el tiempo asignado, se suspende y

32
se ejecuta otro proceso. Este intercambio de procesos se denomina “conmutación
de contexto”.

El sistema operativo se encarga de controlar el


estado de los procesos suspendidos. También
cuenta con un mecanismo llamado
“planificador” que determina el siguiente
proceso que debe ejecutarse. El planificador
ejecuta los procesos basándose en su prioridad
para minimizar el retraso percibido por el
usuario. Los procesos parecen efectuarse
simultáneamente por la alta velocidad del “cambio de contexto”.

Existen varios tipos de multitareas. La conmutación de contextos (context switching)


es un tipo muy simple de multitarea en el que dos o más aplicaciones se cargan al
mismo tiempo, pero en el que sólo se está procesando la aplicación que se
encuentra en primer plano (la que ve el usuario). Para activar otra tarea que se
encuentre en segundo plano, el usuario debe traer al primer plano la ventana o
pantalla que contenga esa aplicación.

Lo que hace especiales a los sistemas operativos multitarea,


es que debido a la arquitectura de los CPU´s, los equipos
están diseñados para ejecutar una sola tarea por vez, es
decir, se necesitarían varias CPU´s para realizar varias
operaciones simultáneamente. Sin embargo, los sistemas
multitarea permiten realizar varias operaciones a la vez,
debido a que realizan una operación anteriormente denominada “cambio de
contexto”, la cual actúa de la siguiente manera: quita un proceso del CPU, ingresa
uno nuevo, y luego vuelve a ingresar el proceso que quitó del CPU en una especie
de cola de ejecución, sin que el procesador se entere de todo lo que está pasando,
de modo que pueda realizar varias tareas simultáneas. Es como una especie de
engaño que permite mejorar el rendimiento de los ordenadores y facilitar el trabajo
a los usuarios.

33
El “tiempo compartido” se refiere a compartir un
recurso de computación entre muchos usuarios
por medio de la multitarea. Su introducción en los
años 1960, y el surgimiento como el modelo
prominente de la computación en los años 1970,
representa un cambio histórico importante en
la historia de la computación. Al permitir que un
gran número de usuarios interactuara simultáneamente en una sola computadora,
el tiempo compartido bajó dramáticamente el costo del servicio de computación,
mientras que al mismo tiempo hacía la experiencia computacional mucho más
interactiva.

Entre los sistemas operativos multitarea, podemos encontrar la siguiente


clasificación:

 Cooperativos: Estos otorgan a los procesos la facultad de ceder intervalos de


trabajo al sistema operativo, según las necesidades del usuario, son un poco
problemáticos, ya que por momentos las ejecuciones se detienen. En la
actualidad son muy poco utilizados.

 Preferentes: Estos se encargan de administrar los procesos, repartiendo el


uso del CPU entre los procesos que estén esperando ser ejecutados.

 Multitramo: Permite que diversas partes de un solo programa funcionen al


mismo tiempo.

 Real: Estos sistemas sólo se ejecutan en


equipos con multiprocesadores, como su
nombre lo indica, permiten ejecutar varias
tareas al mismo tiempo, en varios
microprocesadores a la vez. Un sistema en
tiempo real (STR) es aquel sistema digital
que interactúa activamente con un entorno
con dinámica conocida en relación con sus entradas, salidas y restricciones

34
temporales, para darle un correcto funcionamiento de acuerdo con los
conceptos de predictibilidad, estabilidad, controlabilidad, alcanzabilidad y
determinismo.

Las características de un sistema operativo de multitarea son las siguientes:

 Mejora la productividad del sistema y utilización de recursos.


 Multiplexa recursos entre varios programas.
 Generalmente soportan múltiples usuarios (multiusuarios).
 Proporcionan facilidades para mantener el entorno de usuarios individuales.
 Requieren validación de usuario para seguridad y protección.
 Proporcionan contabilidad del uso de los recursos por parte de los usuarios.
 Multitarea sin soporte multiusuario se encuentra en algunos computadores
personales o en sistemas de tiempo real.
 Sistemas multiprocesadores son sistemas multitareas por definición ya que
soportan la ejecución simultánea de múltiples tareas sobre diferentes
procesadores.
 En general, los sistemas de multiprogramación se caracterizan por tener
múltiples programas activos compitiendo por los recursos del sistema:
procesador, memoria, dispositivos periféricos.

Clasificación de los sistemas operativos comerciales

Hay dos grandes grupos de sistemas operativos en


términos del hardware que controlan: sistemas operativos
para computadores y sistemas operativos para
dispositivos móviles. Hablaremos sobre los SO
computacionales.

Entre los sistemas operativos para computadores


tenemos:

 Familia Windows

35
 Familia Mac
 Familia Unix

Familia Windows

Microsoft Windows (conocido generalmente


como Windows o MS Windows) es el nombre de una
familia de distribuciones de software o sistemas
operativos que comenzaron a ser desarrollados desde
1981, año en que el proyecto se denominaba
“Interface Manager”. Los hay sistemas operativos para PC, Smartphone, servidores
y sistemas empotrados, desarrollados y vendidos por Microsoft y disponibles para
múltiples arquitecturas, tales como x86 y ARM.

Windows es un entorno multitarea dotado de una interfaz gráfica de usuario, que se


ejecuta en una computadora diseñada para MS-DOS. Windows proporciona una
interfaz estándar basada en menús desplegables, ventanas en pantalla y un
dispositivo señalador como el mouse (ratón).
Los programas deben estar especialmente
diseñados para aprovechar estas
características.

Microsoft tomó una decisión: hacer un sistema


operativo que tuviera una interfaz gráfica
amigable para el usuario, y como resultado obtuvo “Windows”. Este sistema
muestra íconos en la pantalla que representan diferentes archivos o programas, a
los cuales se puede accesar al darles doble clic con el puntero del mouse. Todas
las aplicaciones elaboradas para Windows se parecen, por lo que es muy fácil
aprender a usar nuevo software una vez aprendidas las bases.

Desde un punto de vista técnico, no son sistemas operativos, sino que contienen
uno (tradicionalmente MS-DOS, o el más actual cuyo núcleo es Windows NT) junto
con una amplia variedad de software; no obstante, es usual (aunque no

36
necesariamente correcto) denominar al conjunto como sistema operativo en lugar
de distribución.

El uso de las ventanas es la insignia del sistema operativo de Microsoft, el


“Windows”, sistema estándar para ordenadores personales y de negocios. Microsoft
introdujo un entorno operativo denominado “Windows 1.0” el 20 de noviembre
de 1985 como un complemento y extensión gráfica para MS-DOS en respuesta al
creciente interés en las interfaces gráficas de usuario. Este entorno operativo
revolucionario fue en gran parte el responsable de la rápida evolución de la
informática personal.

Microsoft Windows llegó a dominar el mercado mundial de computadoras


personales, con más del 90 % de la cuota de mercado, superando a Mac OS, que
había sido introducido en 1984.

La primera IBM-PC aparece con un sistema operativo desarrollado por Microsoft,


denominado “DOS 1.0” en 1981.Él mismo administraba la PC con tan sólo
disqueteras. Aparece luego la versión 2 que controlaba también discos rígidos. La
versión 3 agregaba posibilidades de compartir dispositivos (en una red). Luego
vinieron las versiones 4, 5 y 6, que fueron incorporando más utilidades (compresión
de discos, resguardo, verificadores, ayudas, interfase gráfica elemental, etc.)

DOS (sigla de Disk Operating System, "Sistema Operativo de Disco" y "Sistema


Operativo en Disco") es una familia de sistemas operativos para computadoras
personales (PC). Creado originalmente para computadoras de la familia IBM PC,

37
que utilizaban los procesadores Intel 8086 y 8088, de 16 bits,
siendo el primer sistema operativo popular para esta
plataforma.

También fueron desarrollados otros sistemas por otras


compañías, como por ejemplo “Digital Research” que desarrolló
el “DR-DOS” cuya primera versión fue la 5.0, le siguieron la 6.0
y la 7.0, también agregando más utilidades y mejor integración a ambientes de red.

Asimismo y en forma paralela, Microsoft comenzaba con el desarrollo de un entorno


operativo que permitía una interfase gráfica más sencilla e intuitiva para el usuario,
tomando como ideas los desarrollos realizados por un área de la empresa Xerox,
los que también han sido llevados a otras arquitecturas de equipos como las “Apple
Lisa” y “Macintosh”. Este entorno se ejecutaba por encima del DOS, y no tuvo una
significativa aceptación en sus versiones 1.0 y 2.0. No obstante las mejoras
introducidas a la versión 3.0 y la mayor potencia que se tenía en el hardware,
posibilitaron su gradual utilización.

Paralelamente Microsoft estaba trabajando con IBM en el desarrollo de un nuevo


sistema operativo gráfico, denominado “OS/2”. Por distintas motivaciones, IBM se
desvincula de Microsoft en este proyecto. Microsoft desarrolla una nueva versión de
Windows que a diferencia de las anteriores es un sistema operativo y no sólo un
entorno. Guarda compatibilidad con las anteriores versiones pero tiene significativas
mejoras, tanto en lo estético como en lo funcional. Este sistema operativo se
denominó “Windows 95”. Lanza luego otra versión llamada “Windows NT” destinada
a un segmento de equipos de mayores requerimientos y entornos empresariales.

38
La versión “Windows 95” tuvo una actualización, “Windows 98”. “Windows NT” fue
evolucionando, apareciendo las versiones 3.5 y 4.0. Microsoft desarrolló para el año
2000 una versión que denominó “Millenium”, y para el segmento mayor, actualizó el
NT con una versión que denominó “Windows 2000”.

En las versiones nativas de Microsoft Windows, basadas en NT (y este a su vez


en OS/2 2.x), MS-DOS desaparece como sistema operativo (propiamente dicho) y
entorno base, desde el que se arrancaba el equipo y sus procesos básicos y se
procedía a ejecutar y cargar la inferfaz gráfica o entorno operativo de Windows.

Microsoft Windows XP (Windows Experience) es una versión de Microsoft


Windows, basado en Windows 2000 y con importantes mejoras. Fue lanzado al
mercado el 25 de octubre de 2001. En agosto de 2012, tenía una cuota de mercado
de 46,33%, y fue superado por Windows 7 que ya tenía un 46,60% de la cuota de
mercado.

Windows vista se enfocó para ser utilizado en equipos de escritorio en hogares y


oficinas, equipos portátiles, tabletas y equipos media center. El proceso de
desarrollo terminó el 8 de noviembre de 2006 y en los siguientes tres meses fue
entregado a los fabricantes de hardware y software, clientes de negocios y canales
de distribución. El 30 de enero de 2007 fue lanzado mundialmente y fue puesto a
disposición para ser comprado y descargado desde el sitio web de Microsoft
Windows.

El desarrollo de Windows 7 se completó el 22 de julio de 2009, siendo entonces


confirmada su fecha de venta oficial para el 22 de octubre de 2009 junto a su
equivalente para servidores Windows Server 2008 R2.3.

39
A diferencia del gran salto arquitectónico y de características que sufrió su
antecesor Windows Vista con respecto a Windows XP, Windows 7 fue concebido
como una actualización incremental y focalizada de Vista y su núcleo NT 6.0, lo que
permitió mantener cierto grado de compatibilidad con aplicaciones y hardware en
los que éste ya era compatible.

Windows 8 es una versión de Microsoft Windows, línea de sistemas


operativos desarrollada por Microsoft para su uso en computadoras personales,
incluídas computadoras de escritorio en casa y de negocios, computadoras
portátiles, netbooks, tabletas, servidores y centros multimedia. El principal cambio
es la polémica decisión de eliminar el menú de inicio, existente desde Windows 95
como estándar de facto en cómo presentar aplicaciones en interfaces
gráficas. Su interfaz de usuario ha sido modificada para hacerla más adecuada
para su uso con pantallas táctiles, además de los tradicionales ratón y teclado.

Windows 10 es el último y actual sistema


operativo desarrollado por Microsoft como parte
de la familia de sistemas operativos Windows
NT. Esta edición introdujo una arquitectura de
aplicaciones «universales». Desarrolladas con
la interfaz “Continuum” y, posteriormente, con la interfaz “Fluent Design”, estas
aplicaciones pueden ser diseñadas para ejecutarse en todas las familias de
productos de Microsoft con un código casi idéntico (incluyendo computadoras
personales, tabletas, teléfonos inteligentes, sistemas embebidos, Xbox One,
Surface Hub y HoloLens).
40
A continuación se presentan algunos de los sistemas operativos de la familia
Windows:

 Windows 1.0.
 Windows 2.03.
 Windows 3.0.
 Windows 95.
 Windows 98.
 Windows NT.
 Windows 2000.
 Windows XP.
 Windows Server 2003.
 Windows Mobile.
 Windows Vista.
 Windows 7.
 Windows 8.
 Windows 10.

Familia Mac
Mac OS (del inglés Macintosh Operating System,
en español “Sistema Operativo de Macintosh”) es el
nombre del sistema operativo creado por Apple para su
línea de computadoras Macintosh. Es conocido por haber
sido uno de los primeros sistemas dirigidos al gran público
en contar con una interfaz gráfica compuesta por la
interacción del mouse con ventanas, íconos y menús.

En los primeros años, Apple pensaba en favor de que la máquina resultara más
agradable al usuario, diferenciándolo de otros sistemas contemporáneos, como MS-
DOS (Microsoft-IBM), que eran un desafío técnico. El equipo de desarrollo del Mac
OS original incluía a Bill Atkinson, Jef Raskin y Andy Hertzfeld.

41
Este fue el comienzo del “Mac OS clásico”, desarrollado íntegramente por Apple,
cuya primera versión vio la luz en 1985. Su desarrollo se extendería hasta la versión
9 del sistema, lanzada en 1999. A partir de la versión 10 (Mac OS X), el sistema
cambió su arquitectura totalmente y pasó a basarse en Unix, sin embargo su interfaz
gráfica mantiene muchos elementos de las versiones anteriores.

El sistema 1 tenía escritorio, ventanas, íconos,


mouse, menús y barras de desplazamiento. El
basurero “trash” funcionaba como un tobogán
de basura, todo desaparecía luego de reiniciar
el ordenador; no se podía trabajar en dos
aplicaciones al mismo tiempo, sólo en una, ya
que la memoria virtual no existía.

En este sistema operativo era imposible crear un folder dentro de otro folder, de
hecho, todos los archivos eran guardados en la misma dirección del disco, se creaba
una nota en la tabla de archivos para que cada archivo estuviera en su respectivo
folder. Luego, el sistema 1.1 agregó la caja de avisos de diálogo, también el
comando para limpiar la Mac y algunos implementos para la velocidad. A
continuación se presentan las versiones del sistema previo al Mac OS X:

 Mac OS versión del sistema 1, 1984.


 Mac OS versión del sistema 2, 1985.
 Mac OS versión del sistema 3, 1986.
 Mac OS versión del sistema 4, 1987.
 Mac OS versión del sistema 5, 1987.
 Mac OS versión del sistema 6, 1988.
 Mac OS versión del sistema 7, 1990.
 Mac OS versión del sistema 8, 1997.
 Mac OS versión del sistema 9, 1999.

Mac OS X es el sistema operativo más nuevo de Apple. Aunque oficialmente es


designado como "sistema 10" del Mac OS, tiene una historia en gran medida
independiente de las versiones anteriores de Mac OS. Es el sucesor del Mac OS

42
9 y del “Mac OS clásico”. Se trata de un
sistema operativo Unix, basado en el
“sistema operativo nextstep” y el núcleo
mach que Apple adquirió tras la compra
de “NeXT”, al regresar su director
general Steve Jobs a Apple en ese
momento.

La primera versión del sistema fue “Mac OS X Server 1.0” en 1999, y en cuanto al
escritorio, fue Mac OS X v10.0 “Cheetah” (publicada el 24 de marzo de 2001).
Para dispositivos móviles Apple produce una versión específica de OS X
llamada iOS, que funciona en iPhone, iPod Touch, iPad y Apple TV.

Han existido catorce versiones del sistema operativo, siendo la más reciente Mac
OS 10.13 llamado "High Sierra". Antes hubo Mac OS 10.12 (Sierra), Mac OS 10.11
(El Capitán), Mac Os 10.10 (Yosemite), 10.9 (Mavericks), 10.8 (Mountain Lion), 10.7
(Lion), 10.6 (Snow Leopard), 10.5 (Leopard), 10.4 (Tiger), 10.3 (Panther), 10.2
(Jaguar), 10.1 (Puma), y 10.0 (Cheetah).

Familia Unix
El sistema Unix es un sistema operativo que admite múltiples usuarios, es portable,
así como también múltiples tareas, lo que permite a un único equipo o
multiprocesador ejecutar simultáneamente varios programas a cargo de uno o
varios usuarios. Este sistema cuenta con uno o varios intérpretes de comando
(shell) así como también con un gran número de comandos y muchas utilidades

43
(ensambladores, compiladores para varios idiomas,
procesador de textos, correo electrónico, etc.). Además,
es altamente portable, lo que significa que es posible
implementar un sistema Unix en casi todas las
plataformas de hardware.

Los sistemas Unix se han afianzado en entornos


profesionales y universitarios gracias a su estabilidad, su
gran nivel de seguridad y el cumplimiento de estándares, especialmente en lo que
se refiere a redes.

El sistema provee de una serie de herramientas, cada una realiza una función
limitada y bien definida. Utiliza un sistema de archivos unificado como medio de
comunicación, y un lenguaje de comandos llamado “shell” que permite combinar
esas herramientas para realizar acciones complejas.

Unix nació en los “Laboratorios Bell de


AT&T” en 1969, desarrollado por Ken
Thompson y Dennis Ritchie (también
creador del lenguaje de programación C).
Unix ofrecía solo una serie de pequeños
programas, tan poco como fuese posible
con respecto a sus predecesores, y tal
vez esperando que la gente quisiera unir
todos esos programas.

El objetivo de Ken Thompson era desarrollar un sistema operativo interactivo simple,


denominado “Multics” (Multiplexed Information and Computing System, “Sistema
informático y de Información multiplexado”) de manera que pudiera ejecutar un
juego que él mismo había creado (Space Travel, “Viaje al espacio”), una simulación
de un sistema solar.

44
La fecha del 1 de enero de 1970 es considerada la fecha de nacimiento del sistema
Unix, lo que explica por qué todos los relojes del sistema en los sistemas operativos
de Unix comienzan con esta fecha.

En 1972 se tomó la decisión de escribir


nuevamente Unix, pero esta vez en
el lenguaje de programación C. Este
cambio significaba que UNIX podría ser
fácilmente modificado para funcionar en
otras computadoras (de esta manera, se
volvía portable) y así otras variaciones podían ser desarrolladas por otros
programadores. Ahora, el código era más conciso y compacto, lo que se tradujo en
un aumento en la velocidad de desarrollo de Unix. AT&T puso a Unix a disposición
de universidades y compañías, también al gobierno de los Estados Unidos, a través
de licencias.

Unix es parte de Mac OS X, es lo que se ejecuta en la mayoría de los servidores


que te dejan acceder a la web, y está también dentro de millones y millones de
teléfonos. Linux es una clase de Unix, y a la fecha puedes ejecutar Unix dentro de
un navegador.

La gente que inventó Unix no intentaba enseñar a usar los ordenadores en la


manera en la que los entendemos hoy. Estaban educando a profesionales para
operar equipos industriales y sumamente costosos. La producción en masa y el
abaratamiento de la tecnología han cambiado casi completamente la manera en
que usamos computadores, pero algunas ideas fundamentales acerca
del software permanecen iguales 40 años después. Gracias a Unix que hizo fácil
para los especialistas hablar sobre computación.

Entre las familias Unix más significativas se tienen las siguientes:

 Familia AT&T: La familia que tuvo su origen en el Unix de AT&T. Considerada


la familia UNIX "pura y original”. Sus sistemas operativos más significativos
son “UNIX System III” y “UNIX System V”.

45
 Familia BSD (Berkeley Software Distribution): Familia originada por el
licenciamiento de Unix a Berkeley. BSD se reescribió para no incorporar
propiedad intelectual originaria de AT&T en la versión 4. La primera
implementación de los protocolos TCP/IP que dieron origen a internet son la pila
(stack) TCP/IP BSD.

Algunos sistemas operativos descendientes del sistema desarrollado por


Berkeley son “SunOS”, “FreeBSD”, “NetBSD”, “PC-BSD”, “OpenBSD “y “Mac
OS X”. BSD también ha hecho grandes contribuciones en el campo de los
sistemas operativos en general.

 Familia AIX: Esta familia surge por el licenciamiento de Unix System III a IBM.
 Familia Xenix: Familia derivada de la adquisición de los derechos originales de
AT&T por parte de Microsoft y de esta los vendió a SCO.
 GNU: Es un sistema operativo de tipo Unix desarrollado por y para el Proyecto
GNU, y auspiciado por la “Free Software Foundation”. Está formado en su
totalidad por software libre, mayoritariamente bajo términos de copyleft. GNU es
el acrónimo recursivo de "GNU's Not Unix" (en español: “GNU no es Unix”),
nombre elegido debido a que GNU sigue un diseño tipo Unix y se mantiene
46
compatible con éste, pero se distingue de Unix por ser software libre y por no
contener código de Unix.

GNU, al ser un sistema operativo Unix, significa que se trata de una colección
de muchos programas: aplicaciones, bibliotecas, herramientas de desarrollo y
hasta juegos. El desarrollo de GNU, iniciado en enero de 1984, se conoce como
“Proyecto GNU”. Muchos de los programas de GNU se publican bajo el auspicio
del “Proyecto GNU” y los llamamos paquetes de GNU.

El programa que asigna los recursos de la máquina y se comunica con el


hardware se denomina “núcleo”. GNU se usa generalmente con un núcleo
llamado “Linux”. Esta combinación es el sistema operativo GNU/Linux. Millones
de personas usan GNU/Linux, aunque muchos lo llaman erróneamente “Linux”.

El desarrollo del núcleo propio de GNU se inició en 1990 (antes de que


comenzara el de Linux). Programadores voluntarios continúan desarrollándolo
por tratarse de un proyecto técnico interesante.

 Linux: Linux es un núcleo mayormente libre semejante al núcleo de Unix.


Linux es uno de los principales ejemplos
de software libre y de código abierto. La mayor
parte del software incluido en el paquete que se
distribuye en su sitio web es software libre. Está
desarrollado por colaboradores de todo el
mundo.

47
El núcleo Linux fue concebido por el entonces estudiante de ciencias de la
computación finlandés Linus Torvalds. Cuando Torvalds empezó a proponer
el núcleo Linux y a reunir colaboradores, las herramientas GNU eran la
elección perfecta. Al combinarse ambos elementos, conformaron la base del
sistema operativo que hoy se conoce como GNU/Linux.

Linux consiguió rápidamente desarrolladores y usuarios que adoptaron


códigos de otros proyectos de software libre para usarlos con el nuevo núcleo
de sistema. A día de hoy miles de programadores de todo el mundo
contribuyen en su desarrollo.

Las distribuciones basadas en el núcleo, el software GNU y otros agregados


entre las que se pueden mencionar a “Slackware Linux”, “Red Hat
Linux” y “Debian GNU/Linux” se han hecho populares tanto entre los
aficionados a la computación como en el mundo empresarial. Obsérvese que
Linux tiene un origen independiente, por lo que se considera un 'clónico' de
Unix y no un Unix en el sentido histórico. A continuación se presentan algunas
de las distribuciones de GNU/Linux:

48
Linux es multiprogramado, dispone de memoria virtual, gestión de memoria,
conectividad en red y permite bibliotecas compartidas.

Linux es multiplataforma y es portable a cualquier arquitectura siempre y


cuando esta disponga de una versión compatible.

Software libre

Software libre significa que los usuarios tienen la libertad de ejecutar, copiar,
distribuir, estudiar, modificar y mejorar el software. El software libre es una cuestión
de libertad, no de precio. Para entender el concepto, debe pensarse en “libre” como
en “libertad de expresión”, no como en “cerveza gratis”.

“Software libre” no significa “no comercial”. Un


programa libre debe estar disponible para uso
comercial, desarrollo comercial y distribución
comercial. El desarrollo comercial del software libre
ha dejado de ser inusual; el software comercial libre
es muy importante.

Más precisamente, software libre significa que los usuarios de un programa tienen
las cuatro libertades esenciales:

 La libertad de ejecutar el programa como lo desee, con cualquier propósito


(libertad 0).

49
 La libertad de estudiar el funcionamiento del programa y adaptarlo a sus
necesidades (libertad 1). El acceso al código fuente es un prerrequisito para
esto.

 La libertad de redistribuir copias para ayudar a los demás (libertad 2).

 La libertad de mejorar el programa y de publicar las mejoras, de modo que toda


la comunidad se beneficie (libertad 3). El acceso al código fuente es un
prerrequisito para esto.

Son aceptables, sin embargo, ciertos tipos de reglas sobre la manera de distribuir
software libre, mientras no entren en conflicto con las
libertades centrales. Por ejemplo, “copyleft” es la regla que
implica que, cuando se redistribuya el programa, no se
pueden agregar restricciones para denegar a otras personas
las libertades centrales. Esta regla no entra en conflicto con
las libertades centrales, sino que más bien las protege.

Debido a la evolución de la tecnología y del uso de la red, estas libertades son ahora
aún más importantes que en 1983. Hoy en día el movimiento del software libre va
mucho más allá del desarrollo del sistema GNU.

Historia

Entre los años 1960 y 1970, el software no era considerado un producto sino un
añadido que los vendedores de las grandes computadoras de la época
(las mainframes) aportaban a sus clientes para que éstos pudieran usarlas. En dicha
cultura, era común que programadores y desarrolladores de software compartieran
libremente sus programas unos con otros. A finales de la década de 1970, las
compañías iniciaron el hábito de imponer restricciones a los usuarios, con el uso de
acuerdos de licencia.

50
En 1971, cuando la informática todavía no había sufrido su gran auge, las personas
que hacían uso de ella, en ámbitos universitarios y empresariales, creaban y
compartían el software sin ningún tipo de restricciones.

Con la llegada de los años 1980 la situación empezó a cambiar. Las computadoras
más modernas comenzaban a utilizar sistemas operativos privativos, forzando a los
usuarios a aceptar condiciones restrictivas que impedían intercambiar, compartir o
realizar modificaciones a dicho software.

En caso de que algún usuario o programador encontrase algún error en la


aplicación, lo único que podía hacer era darlo a conocer a la empresa desarrolladora
para que ésta lo solucionara. Aunque el programador estuviese capacitado para
solucionar el problema y lo desease hacer sin pedir nada a cambio, el contrato le
impedía que modificase el software.

En 1971, el estadounidense Richard Matthew Stallman, estudiante de Física de la


Universidad de Harvard, formó parte como hacker del “Laboratorio de Inteligencia
Artificial” del Instituto Tecnológico de Massachusetts (MIT). En la década de 1980,
la cultura hacker que constituía la vida de Stallman empezó a disolverse bajo la
presión de la comercialización en la industria del software.

Los demás compañeros de Stallman, también hackers del laboratorio, fundaron la


compañía “Symbolics” que intentaba reemplazar el software libre producido en las
instalaciones por software no libre de su propiedad.

Stallman contó, años después, que por aquellos años, en el laboratorio donde
trabajaba, habían recibido una impresora por una empresa externa. El dispositivo,
que era utilizado en red por todos los trabajadores, parecía no funcionar a la

51
perfección, dado que cada cierto tiempo el papel se atascaba. Como agravante, no
se generaba ningún aviso que se enviase por red e informase a los usuarios de la
situación. La pérdida de tiempo era constante, ya que en ocasiones los trabajadores
enviaban por red sus trabajos a imprimir y al ir a buscarlos se encontraban con la
impresora atascada y una cola enorme de trabajos pendientes.

Richard Stallman decidió arreglar el problema e implementar el envío de un aviso


por red cuando la impresora se bloqueara. Para ello necesitaba tener acceso
al código fuente de los controladores de la impresora. Pidió a la empresa propietaria
de la impresora lo que necesitaba, comentando, sin pedir nada a cambio, qué era
lo que pretendía realizar. La empresa se negó a entregarle el código fuente. En ese
preciso instante, Stallman se vio en una encrucijada: debía elegir entre aceptar el
nuevo software propietario firmando acuerdos de no revelación y acabar
desarrollando más software propietario con licencias restrictivas, que a su vez más
adelante deberían ser aceptadas por sus propios colegas.

Stallman renunció a su empleo, viviendo de


realizar programas libres y vender las copias en
cintas. El día 27 de septiembre de 1983 anunció
el inicio del “Proyecto GNU”, que perseguía crear
un sistema operativo completamente libre. En
1985, Stallman fundó la organización “Free
Software Foundation” (FSF) e introdujo la definición formal de software libre y el
concepto de copyleft, siendo este último el que desarrolló para otorgar libertad a los
usuarios y para restringir las posibilidades de apropiación del software.

Controladores de dispositivos

Un controlador de dispositivo o manejador de dispositivo (en inglés: “device driver”


o simplemente “driver”) es un tipo de software de sistema que permite al sistema
operativo interaccionar con un periférico, haciendo una abstracción del hardware y
proporcionando una interfaz de comunicación (posiblemente estandarizada) para

52
utilizar el dispositivo. Es una pieza esencial del software, y en particular,
del núcleo de un sistema operativo, sin la cual el hardware sería inutilizable.

Los controladores de dispositivos son programas que permiten a otros programas


de mayor nivel (como un sistema operativo) interactuar con un dispositivo de
hardware.

Existen tantos tipos de controladores como tipos de periféricos, y es común


encontrar más de un controlador posible para un mismo dispositivo.
Cada driver ofrece un nivel distinto de funcionalidades.

Por ejemplo, aparte de los drivers oficiales (normalmente disponibles en el sitio web
del fabricante), se pueden encontrar también los proporcionados por los sistemas
operativos (drivers genéricos) y también versiones no oficiales realizadas por
terceros.

Utilidades

Los programas utilitarios o “utilidades” son programas diseñados para realizar una
función determinada, por ejemplo un
editor, un depurador de código o un
programa para recuperar datos
perdidos o borrados accidentalmente
en el disco duro.

Este software de sistemas realiza


diversas funciones para resolver
problemas específicos, además de realizar tareas en general y de mantenimiento.

53
Algunos se incluyen en el sistema operativo. El software de utilidad o software de
utilidades ayuda a analizar, configurar, optimizar y mantener el equipo. El término
“utilitario” se refiere normalmente al software que resuelve problemas relacionados
con la administración del sistema de la computadora. Existen softwares utilitarios
que nos ayudan a resolver gran cantidad de problemas, entre ellos tenemos las
utilidades.

En informática, una utilidad es una herramienta que realiza:

 Tareas de mantenimiento.
 Revisión de software.
 Recuperar datos perdidos.
 Eliminar software malicioso.

Entre ellas podemos nombrar también el cifrado y descifrado de archivos,


compresión de archivos, defragmentadores de disco, editores de texto, respaldo,
etc.

Llamamos utilitarios a aquellos programas entregados por el fabricante, comprados


a terceros o desarrollados en la propia instalación, de uso general en todo equipo,
escritos con el objeto de realizar tareas repetitivas de procesamiento de datos. Estas
tareas se realizan con tanta frecuencia en el curso del procesamiento, que sería
extremadamente ineficiente el que cada usuario tuviera que codificarlas en forma

54
de programas una y otra vez. Desde el punto de vista de las funciones que cumplen,
los podemos agrupar en:

 Utilitarios de apoyo a los sistemas de aplicación: estos programas se integran


al sistema de aplicación, es decir, que su función es formar parte de la
secuencia de procesamiento necesaria para operar el sistema de aplicación;
por ejemplo: generador de copias de archivo, generador de listados,
clasificador e intercalador de archivos, etc.
 Utilitarios de Servicios: Por un lado se incluyen en este grupo un conjunto de
utilitarios que ayudarán a manejar ciertos recursos del computador, y por otro
a los utilitarios en el manejo de programas y sus bibliotecas.; por ejemplo:
listador del directorio de un disco, inicializador de discos, el que elimina y
renombra archivos, el reorganizador de espacios en discos, los
compiladores, compaginadores, etc.

Existen distintos tipos de software utilitarios estándar destinados a tareas muy


diferentes. A continuación se presentan algunos de estos:

 Antivirus.
 Quemadores.
 Mantenimiento.
 Información.
 Seguridad.
 Generadores de llaves.
 Reproductores de audio/video.
 Compresores de archivos.

¿Cómo funciona un sistema operativo?

En términos generales, cuando se aplica voltaje al procesador de un dispositivo


electrónico, éste ejecuta un reducido código en lenguaje ensamblador localizado en
una dirección concreta en la ROM (dirección de reset) y conocido como “reset code”,

55
que a su vez ejecuta una rutina con la que se inicializa el hardware que acompaña
al procesador. También en esta fase suele inicializarse el controlador de las
interrupciones. Finalizada esta fase se ejecuta el “código de arranque” (startup
code), también código en lenguaje ensamblador, cuya tarea más importante es
ejecutar el programa principal del software.

Los sistemas operativos proporcionan una plataforma de software encima de la cual


otros programas, llamados aplicaciones, puedan funcionar. Las aplicaciones se
programan para que funcionen encima de un sistema operativo particular, por tanto,
la elección del sistema operativo determina en gran medida las aplicaciones que
puedes utilizar.

El sistema operativo permite a las


partes de una computadora trabajar
juntas para la realización de tareas
como la transferencia de datos entre
la memoria y los discos o la prestación
de salida en un dispositivo de
visualización. También proporciona
una plataforma para ejecutar software
de alto nivel del sistema y software de
aplicación.

56
Las instrucciones que conforman un sistema operativo materializan, entre otras,
las siguientes tareas en la ejecución de una aplicación:
 Carga de programas.
 Gestión del tiempo de procesamiento.
 Gestión de la memoria principal.
 Gestión de la memoria secundaria (ficheros y directorios).
o Ficheros: es un conjunto de bits que son almacenados en un
dispositivo. Un archivo es identificado por un nombre y la descripción
de la carpeta o directorio que lo contiene. A los archivos informáticos
se les llama así porque son los equivalentes digitales de los archivos
escritos en expedientes, tarjetas, libretas, papel o microfichas del
entorno de oficina tradicional.

o Directorios: un directorio es un contenedor virtual en el que se


almacenan una agrupación de archivos informáticos y otros
subdirectorios, atendiendo a su contenido, a su propósito o a cualquier
criterio que decida el usuario. Técnicamente, el directorio almacena
información acerca de los archivos que contiene, como los atributos
de los archivos o dónde se encuentran físicamente en el dispositivo
de almacenamiento.

57
 Gestión del subsistema de drivers.
 Seguridad y protección del sistema.
 Interfaz de llamadas al sistema.
 Interfaz de usuario y utilidades del sistema.
 Tareas de comunicación de datos.

Generalmente en algunos equipos el sistema operativo cumple funciones de


monitoreo: lleva registro de las actividades del computador mientras se realiza el
procesamiento. El sistema operativo detiene los programas que contienen errores
o exceden, ya sea su tiempo máximo de ejecución o sus asignaciones de
almacenamiento. Mediante el envío de mensajes informa las anormalidades en los
dispositivos de entrada-salida o en otra parte del sistema. Son también parte del
sistema operativo la contabilización o registro de hora de ingreso y egreso, y el
tiempo de duración de los programas, lo que hace posible elaborar facturas por
concepto de utilización del sistema por parte de los usuarios. Posee además
mecanismos de seguridad para proteger contra el acceso no autorizado a través de
la verificación de identificación (claves o passwords).

Núcleo del sistema

Los Sistemas Operativos proporcionan


un número potencialmente grande de
servicios accesibles al usuario. Uno de
los problemas principales que se
encuentran los diseñadores de sistemas
operativos es cómo manejar esta
complejidad de funciones a muchos
niveles de detalle mientras proporcionan un producto fiable y fácil de mantener. Con
la experiencia que se tiene sobre el tema, se está tendiendo a la implantación de
sistemas operativos en forma de niveles jerárquicos de abstracción. De esta forma,
se obtendrán una serie de módulos que ocultarán los detalles de la estructura de
datos y los algoritmos de procesamiento que utilicen.

58
Externamente se conocerá cada módulo por realizar unas funciones específicas que
sólo pueden usar las capas superiores, pero los detalles de cómo lo hacen no
estarán disponibles. Como resultado, los módulos tienden a ser pequeños y fáciles
de comprender e implementar. Con todo esto, el diseño jerárquico ofrece una mayor
facilidad en la depuración, modificación y verificación de los sistemas operativos.

Un núcleo o kernel (de la raíz germánica “Kern” que significa “núcleo, hueso”) es un
software que constituye una parte fundamental del sistema operativo, y se define
como la parte que se ejecuta en modo privilegiado (conocido también como modo
núcleo). Es el principal responsable de facilitar a los distintos programas acceso
seguro al hardware de la computadora o en forma básica, es el encargado de
gestionar recursos, a través de servicios de llamada al sistema.

Como hay muchos programas y el acceso


al hardware es limitado, también se
encarga de decidir qué programa podrá
usar un dispositivo de hardware y durante
cuánto tiempo, lo que se conoce
como “multiplexado”. Acceder al hardware
directamente puede ser realmente

59
complejo, por lo que los núcleos suelen implementar una serie de “abstracciones
del hardware”. Esto permite esconder la complejidad y proporcionar una interfaz
limpia y uniforme al hardware subyacente, lo que facilita su uso al programador.

El núcleo del sistema operativo es el nivel más interno del sistema operativo. Actúa
de interfaz entre el hardware básico y el resto del sistema operativo. Su finalidad es
constituir un entorno adecuado en el que se puedan desarrollar los distintos
procesos.

Las funciones básicas del núcleo de un sistema operativo son:

 Manipulación de las interrupciones.


 Creación/destrucción de procesos.
 Cambios de estados de procesos.
 Planificación de los procesadores.
 Suspensión/reanudación de procesos.
 Sincronización de procesos.
 Comunicación entre procesos.
 Manipulación de bloques de control de procesos.
 Soporte de las actividades de entrada/salida.
 Soporte de un mecanismo de llamada/ingreso al procedimiento.
 Soporte de ciertas funciones contables del sistema.

60
Software malicioso

El malware es un término abreviado que


significa “software malicioso”. Este es un
software (programa) que está diseñado
específicamente para obtener acceso o
dañar un ordenador sin el conocimiento
del propietario. Los primeros programas
malware fueron creados como
experimentos y travesuras, pero con el
tiempo, ha dado lugar a actos de
vandalismo y destrucción de máquinas.

Tipos de software malicioso:

 Virus informático: Los virus son programas con unas características muy
peculiares que se introducen en los ordenadores de formas muy diversas:
a través del correo electrónico, internet, memorias, etc. Tienen dos
características distintivas:
o Se reproducen infectando otros ficheros o programas.
o Al ejecutarse, realizan acciones molestas y/o dañinas para el
usuario, ralentizando o apagando el sistema.
Los virus informáticos se introducen en los ordenadores e infectan
ficheros insertando en ellos su "código". Cuando el programa infectado se
ejecuta, el código entra en funcionamiento y el virus sigue extendiéndose.

 Keylogger: Tipo de software que se encarga de obtener y memorizar las


pulsaciones que se realizan en un teclado. Puede utilizarse para espiar
de forma remota, con el objetivo de obtener contraseñas del usuario.

 Gusano informático: Tipo de virus cuya finalidad es multiplicarse e infectar


a los equipos y se diferencian de los virus en que no necesitan infectar
otros ficheros para reproducirse. Se limitan a realizar copias de sí mismos,

61
y se reproducen a tal velocidad que pueden colapsar por saturación las
redes en las que se infiltran, y desbordan la memoria del ordenador.

 Troyano: Un troyano o “caballo de Troya” es un programa que se


diferencia de los virus en que no se reproduce infectando otros ficheros.
Es pues una pequeña aplicación escondida en otros programas de
utilidades, fondos de pantalla, imágenes, etc., y al abrir y ejecutar el
archivo instalará en nuestro ordenador un segundo programa, el troyano.
Su finalidad es disponer de una puerta de entrada al equipo para destruir
la información almacenada en los discos y recabar información de usuario
recopilando información de nuestro ordenador o, incluso, tomar el control
absoluto de una forma remota.

 Secuestradores: Programas que secuestran a otros programas para usar


sus derechos y modificar su comportamiento. El caso más habitual es el
ataque a un navegador, modificando la página de inicio y redireccionando
las páginas sin el consentimiento del usuario.

 Spyware: Programa que se instala en el ordenador


sin conocimiento del usuario y cuya finalidad es
recopilar información sobre el usuario para
enviarla a servidores de Internet que son
gestionados por compañías de publicidad. La

62
información que recopila un espía suele ser utilizada para enviarnos spam
o correo basura.

 Adware o software de publicidad: Se denomina adware al software que


muestra publicidad, empleando cualquier tipo de medio, como ventanas
emergentes, banners, cambios en la página de inicio o de búsqueda del
navegador, etc.

 Spam: Consiste en el envío de correo electrónico publicitario de forma


masiva a cualquier dirección de correo electrónico.

63
Software de programación

El software son los programas que se ejecutan sobre esta pieza de ingeniería física
y más en concreto en cómo se confeccionan los programas.

Programación de software.

Un programa informático es el
resultado final de un proceso
que empieza con el
planteamiento de un problema.
Un programa es un conjunto de
instrucciones escritas con un
lenguaje de programación y
que serán ejecutadas en un
ordenador.
Cada PC reconoce un lenguaje propio, denominado lenguaje máquina o
ensamblador, que consta de unas instrucciones muy a bajo nivel, en las cuales se
accede directamente a los elementos físicos de la máquina como por ejemplo los
registros.
Por ejemplo, son del tipo: copia lo que hay en una posición concreta de la memoria
a un registro concreto o suma lo que hay en dos registros o copia lo que hay en un
registro a otra posición de memoria. La unidad de control (a la unidad central de
proceso o CPU) es quien es capaz de entender estas instrucciones sencillas y
controlar su ejecución. Como ya sabes, cada máquina tiene una configuración física
diferente, y también un lenguaje ensamblador diferente. Por ejemplo, es diferente el
ensamblador de un PC que el de un Mac.

64
Etapas de la programación.

En la primera etapa de la informática todos los programas se hacían utilizando el


código máquina, pero aparte de que es muy complicado de programar y muy difícil
de leer, una vez tenemos el programa sólo lo podemos ejecutar en un tipo de
máquina concreto. Si cambiamos de máquina perdemos todos nuestros programas.
Es por estos factores que aparecen los lenguajes de programación de alto nivel,
donde se busca por una parte un lenguaje más fácil de escribir y leer, y por la otra
la portabilidad, es decir que podamos traer los programas de una máquina a otra.
Realmente lo que la máquina ejecuta continúa siendo código máquina, pero el
programador escribe en otro lenguaje. Hace falta, por lo tanto, una etapa de
traducción intermedia. Esta traducción puede ser por dos mecanismos diferentes:
la compilación y la interpretación:

- Compilación: antes de ejecutar nuestro programa, lo


compilamos. Lo que denominamos compilador (que
es otro programa) primero reconoce si nuestro código
está escrito siguiendo las reglas del lenguaje y, si no
hay errores, lo traduce a código máquina. Lo que posteriormente se ejecuta es el
código máquina que se ha generado.

- Interpretación: el código se va ejecutando instrucción a instrucción, y una a una se


van traduciendo a código máquina. Quien lo hace es el intérprete (también otro
programa).
Hay un tercer mecanismo que es el de Java, que utiliza una solución mixta, primero
con un compilador que no genera código máquina para la máquina física sino para
lo que se llama una máquina virtual (la famosa máquina virtual de Java). A este
código de máquina virtual se le llama byte-code. La máquina virtual en realidad es
un intérprete que después va ejecutando (traduciendo a código máquina real) el
byte-code instrucción a instrucción.

65
Categorías del software de programación

Las herramientas de desarrollo de software se pueden dividir en las siguientes


categorías:
 Herramientas de análisis de rendimiento.
La más conocida es la herramienta de análisis de
GCC gprof; para usarla, debe compilar los
programas a analizar con la opción pg., y al
ejecutarlos se crea un archivo llamado gmon.out que
puede convertirse a un formato legible mediante
gprof. Una desventaja es que se necesita recompilar
el programa y enlazarlo estáticamente. Este método se llama «instrumentación
generada mediante el compilador», que mide los arcos de las llamadas entre
funciones y el correspondiente número de llamadas -junto con el TBS- que aporta
un histograma de distribución temporal en el código. Usando ambas fuentes de
información, es posible calcular heurísticamente el tiempo dedicado a la ejecución
de una función y el de todas las que han sido llamadas por ella.

 Herramientas de depuración.

Llamamos herramientas de depuración a cualquier


procedimiento para detectar y eliminar errores. La
depuración puede consistir en una simple lectura del
código buscando errores, así como en distintos métodos manuales o con uso del
ordenador para comprobar el correcto funcionamiento del programa (verificaciones).
Las verificaciones las podemos clasificar en:

· Verificaciones del programador “manuales”: mental, seguimiento escrito,


con tablas.

· Verificaciones con ejecución: seguimiento con desarrollo en un lenguaje.

66
· Verificación con medios de depuración del lenguaje.

Para cada lenguaje habremos de estudiar qué posibilidades nos brinda en cuanto a
depuración de programas.

 Análisis estático y herramientas formales de verificación.


Actualmente la idea de análisis de código estático para la verificación de código
fuente se ha ampliado y se han desarrollado diversas técnicas y herramientas,
algunas de ellas aplicables a nivel industrial.
Algunas herramientas se utilizan para la verificación de propiedades de seguridad,
como por ejemplo detección de posible búfer overflows
o inyección de código, mientras que otras tratan de
detectar problemas de uso adecuado de componentes
o detección de condiciones de carreras en código
concurrente.
Las herramientas de análisis estático pueden
clasificarse en:
-Análisis estático liviano:
Cuyo objetivo es analizar grandes cantidades de líneas de código en poco tiempo.
Estas herramientas usan técnicas de sistemas de tipos extendidos, interpretación
abstracta y del uso de patrones estructurales. Tienen como desventaja la
generación de muchos falsos positivos, por lo cual el usuario tiene que brindarles
información más precisa para eliminarlos.
Estas herramientas usan generalmente sistemas de reglas estructurales (o
contextuales) para detectar problemas de mal uso de algunas construcciones, y
anotaciones en forma de precondiciones, post condiciones e invariantes en puntos
específicos del programa. Esto permite que las herramientas sean extensibles, por
lo que su exactitud depende de la información brindada por el usuario mediante
anotaciones y/o la base de datos de reglas.
-Análisis estático extendido:
Estas herramientas permiten la verificación de propiedades arbitrarias.

67
Generalmente usan demostradores automáticos o semi-automáticos de teoremas
(ej.: SAT solving) o mo del checking y las herramientas requieren de un lenguaje de
anotaciones de programas, como por ejemplo contratos Eiffel, JML (Java Mo deling
Language), Sp ecJ (Java) o Sp ec# (C#).
Estas herramientas no son tan eficientes como las anteriores, pero permiten
demostrar propiedades más precisas. Los avances producidos recientemente en
SAT solving permiten analizar grandes volúmenes de código, por lo que su uso se
está expandiendo en la industria.

 Herramientas de corrección y optimización.

Las herramientas de corrección y optimización son las


encargadas de modificar un software para que funcione
con más eficiencia o con un menor uso de recursos.
Normalmente a los programas informáticos se les
optimiza para que funcionen de manera más rápida, que
sean capaces de trabajar con un menor uso de memoria o que usen menos energía.

Aunque la palabra optimización tiene la misma raíz que óptima, raramente se


produce un software óptimo con el simple uso de dichas herramientas. El sistema
optimizado será óptimo únicamente para una aplicación o una simple audiencia.
Uno puede reducir el tiempo que tarda un programa en ejecutarse a cambio de que
utilice más memoria. En casos donde la memoria sea escasa se deberá elegir que
el programa funcione más lento.

Normalmente no existe una "configuración perfecta", así que los ingenieros suelen
optimizar los atributos dependiendo de los intereses de dicha aplicación. Además,
el esfuerzo necesario para crear un software óptimo (imposible de mejorar) es
mucho mayor a las ventajas que este recibiría, así pues el proceso de optimización
puede ser parado antes de llegar a una opción totalmente óptima. Afortunadamente,
las mayores mejoras suelen ser las primeras en aplicarse.

 Herramientas de uso de la memoria.

68
La herramienta uso de memoria permite tomar una o más instantáneas del montón
de memoria nativo y administrado. Puede recopilar instantáneas de aplicaciones
.NET, nativas o de modo mixto (.NET y nativo).
Puede analizar una sola instantánea para entender el impacto relativo de los tipos
de objeto en el uso de la memoria y buscar código en la aplicación que use la
memoria de forma ineficaz.
También puede comparar (diff) dos instantáneas de una aplicación para buscar las
áreas del código que generen un aumento del uso de la memoria con el tiempo.

 Herramientas de construcción de aplicaciones.

El desarrollo de software, también conocido como el


ciclo del software, se compone por diversas etapas
que dependen precisamente de qué es lo que se está
llevando a cabo, cada una de esas etapas cuenta con
distintas Herramientas de Desarrollo de Software y hoy vamos a ver cada una de
ellas, para que sin importar en qué fase de desarrollo te encuentres, tengas la
posibilidad de usar distintas herramientas de software que te faciliten la vida en
gran manera.

 Herramientas de Desarrollo de Software

Las etapas del desarrollo del software más establecidas o comunes, son las
siguientes:
1. Modelaje.
2. Desarrollo.
3. Pruebas.
4. Depurado.
5. Diseño.
Ahora bien, cada una de las etapas llevadas a cabo en el desarrollo de software,
cuenta con sus distintas herramientas. Estas herramientas tienen como finalidad, el

69
disminuir el estrés y los tiempos de cada fase, para además mejorar los resultados
obtenidos y dar mejores propuestas al cliente. Además de que claro, el nivel de
satisfacción con el uso de herramientas es mucho mayor que sin ellas. Por eso a
continuación, vamos a ver las mejores herramientas para el desarrollo de software
en cada una de las etapas o fases que conlleva el proceso.

 Entorno de desarrollo integrado.

Un IDE es un entorno de programación que ha sido


empaquetado como un programa de aplicación, o sea, consiste en un editor de
código, un compilador, un depurador y un constructor de interfaz gráfica. Los IDEs
pueden ser aplicaciones por sí solas o pueden ser parte de aplicaciones existentes.
El lenguaje Visual Basic, por ejemplo, puede ser usado dentro de las aplicaciones
de Microsoft Office, lo que hace posible escribir sentencias Visual Basic en forma
de macros para Microsoft Word.

Características

Los IDE ofrecen un marco de trabajo amigable para la mayoría de los lenguajes de
programación tales como C++, Python, Java, C#, Delphi, Visual Basic, etc. En
algunos lenguajes, un IDE puede funcionar como un sistema en tiempo de
ejecución, en donde se permite utilizar el lenguaje de programación en forma
interactiva, sin necesidad de trabajo orientado a archivos de texto, como es el caso
de Smalltalk u Objective-C.

Es posible que un mismo IDE pueda funcionar con varios lenguajes de


programación. Este es el caso de Eclipse, al que mediante plugins se le puede
añadir soporte de lenguajes adicionales.

Un IDE debe tener las siguientes características:

 Multiplataforma.
 Soporte para diversos lenguajes de programación.
 Integración con Sistemas de Control de Versiones.

70
 Reconocimiento de Sintaxis.
 Extensiones y Componentes para el IDE.
 Integración con Framework populares.
 Depurador.
 Importar y Exportar proyectos.
 Múltiples idiomas.
 Manual de Usuarios y Ayuda.

Componentes

 Editor de texto.
 Compilador.
 Intérprete.
 Herramientas de automatización.
 Depurador.
 Posibilidad de ofrecer un sistema de control de versiones.
 Factibilidad para ayudar en la construcción de interfaces gráficas de usuarios.

Fases intermedias de la programación.

Pero entre el planteamiento del problema y el programa es necesaria otra fase, la


de concepción de un algoritmo. Un algoritmo es también la resolución del problema
como una secuencia de acciones, pero no destinado a ser ejecutado en un
ordenador sino en lo que podríamos denominar máquina abstracta o ideal.
Un algoritmo está escrito en lenguaje humano, como el castellano (a diferencia del
programa que está escrito en un lenguaje de programación) y está destinado a que
lo entienda el programador que después lo traducirá a cualquier lenguaje de
programación concreto como Java, C++, Python, Visual Basic.
De esta forma, el algoritmo será la lista de las acciones necesarias porque se
resuelva el problema inicial, en nuestro caso escritas en castellano. La elección del
lenguaje en que codificamos el algoritmo dependerá de factores muy variados (y no
siempre técnicos), como pueden ser la facilidad por aprenderlo, facilidad por leerlo,

71
eficiencia, disponibilidad para la plataforma donde se ha de ejecutar, el precio y
más.
¿Por qué pasamos por esta fase intermedia?
Porque así la persona que resuelve el problema no tiene por qué saber nada sobre
el lenguaje que se utilizará después para hacer la codificación al programa, y quizás
ni siquiera sepa cuál será este lenguaje.
Los algoritmos deben representar dos
cosas: las acciones que hace falta hacer y
los objetos sobre los cuales se hacen estas
acciones, es decir los objetos que el
algoritmo manipula. Para hacer esto de una
manera que lo pueda entender cualquier
programador se hace utilizando lo que se llama pseudo-código, que no es más que,
en nuestro caso, castellano con unas reglas sintácticas concretas para representar
las acciones y los objetos.
Resumiendo, los programas están escritos en un lenguaje de programación
concreto y los algoritmos en pseudo-código, un castellano modificado con ciertas
reglas sintácticas.

Clasificación.

Los lenguajes de programación se pueden clasificar según varios criterios.


Se encuentran doce en total:
1) Nivel de abstracción.
2) Propósito.
3) Evolución histórica.
4) Manera de ejecutarse.
5) Manera de abordar la tarea a realizar.
6) Paradigma de programación.
7) Lugar de ejecución.
8) Concurrencia.

72
9) Interactividad.
10) Realización visual.
11) Determinismo.
12) Productividad.

Hay que tener en cuenta también, que, en la práctica, la mayoría de lenguajes no


pueden ser puramente clasificados en una categoría, pues surgen incorporando
ideas de otros lenguajes y de otras filosofías de programación, pero no importa al
establecer las clasificaciones, pues el auténtico objetivo de las mismas es mostrar
los rangos, las posibilidades y tipos de lenguajes que hay.

1. Nivel de abstracción.

Según el nivel de abstracción, o sea, según el grado de cercanía a la máquina:

 Lenguajes de bajo nivel: La programación se realiza teniendo muy en cuenta


las características del procesador. Ejemplo: Lenguajes ensamblador.
 Lenguajes de nivel medio: Permiten un mayor grado de abstracción, pero al
mismo tiempo mantienen algunas cualidades de los lenguajes de bajo nivel.
Ejemplo: C puede realizar operaciones lógicas y de desplazamiento con bits,
tratar todos los tipos de datos como lo que son en realidad a bajo nivel
(números), etc.
 Lenguajes de alto nivel: Más parecidos al lenguaje humano. Manejan
conceptos, tipos de datos, etc., de una manera cercana al pensamiento humano
ignorando (abstrayéndose) del funcionamiento de la máquina.
Ejemplos: Java, Ruby.

Hay quien sólo considera lenguajes de bajo nivel y de alto nivel, (en ese caso, C es
considerado de alto nivel).

2. Propósito.

Según el propósito, es decir, el tipo de problemas a tratar con ellos:

 Lenguajes de propósito general: Aptos para todo tipo de tareas: Ejemplo: C.

73
 Lenguajes de propósito específico: Hechos para un objetivo muy concreto.
Ejemplo: Csound (para crear ficheros de audio).
 Lenguajes de programación de sistemas: Diseñados para realizar sistemas
operativos o drivers. Ejemplo: C.
 Lenguajes de script: Para realizar tareas varias de control y auxiliares.
Antiguamente eran los llamados lenguajes de procesamiento por lotes (batch)
o JCL (“Job Control Languages”). Se subdividen en varias clases (de shell, de
GUI, de programación web, etc.). Ejemplos: bash (shell), mIRC
script, JavaScript (programación web).

3. Evolución histórica.

Con el paso del tiempo, se va incrementando el nivel de abstracción, pero en la


práctica, los de una generación no terminan de sustituir a los de la anterior:
 Lenguajes de primera generación (1GL): Código máquina.
 Lenguajes de segunda generación (2GL): Lenguajes ensamblador.
 Lenguajes de tercera generación (3GL): La mayoría de los lenguajes
modernos, diseñados para facilitar la programación a los humanos. Ejemplos:
C, Java.
 Lenguajes de cuarta generación (4GL): Diseñados con un propósito concreto,
o sea, para abordar un tipo concreto de problemas.
Ejemplos: NATURAL, Mathematica.
 Lenguajes de quinta generación (5GL): La intención es que el programador
establezca el qué problema ha de ser resuelto y las condiciones a reunir, y la
máquina lo resuelve. Se usan en inteligencia artificial. Ejemplo: Prolog.

4. Manera de ejecutarse.

Según la manera de ejecutarse:

 Lenguajes compilados: Un programa traductor traduce el código del programa


(código fuente) en código máquina (código objeto). Otro programa, el

74
enlazador, unirá los ficheros de código objeto del programa principal con los de
las librerías para producir el programa ejecutable. Ejemplo: C.
 Lenguajes interpretados: Un programa (intérprete), ejecuta las instrucciones
del programa de manera directa. Ejemplo: Lisp.
También los hay mixtos, como Java, que primero pasan por una fase de compilación
en la que el código fuente se transforma en “bytecode”, y este “bytecode” puede ser
ejecutado luego (interpretado) en ordenadores con distintas arquitecturas
(procesadores) que tengan todos instalados la misma “máquina virtual” Java.

5. Manera de abordar la tarea a realizar.

Según la manera de abordar la tarea a realizar, pueden ser:

 Lenguajes imperativos: Indican cómo hay que hacer la tarea, es decir, expresan
los pasos a realizar. Ejemplo: C.
 Lenguajes declarativos: Indican qué hay que hacer. Ejemplos: Lisp, Prolog.
Otros ejemplos de lenguajes declarativos, pero que no son lenguajes de
programación, son HTML (para describir páginas web) o SQL(para consultar
bases de datos).

6. Paradigma de programación.

El paradigma de programación es el estilo de programación empleado. Algunos


lenguajes soportan varios paradigmas, y otros sólo uno. Se puede decir que
históricamente han ido apareciendo para facilitar la tarea de programar según el tipo
de problema a abordar, o para facilitar el mantenimiento del software, o por otra
cuestión similar, por lo que todos corresponden a lenguajes de alto nivel (o nivel
medio), estando los lenguajes ensambladores “atados” a la arquitectura de su
procesador correspondiente. Los principales son:
 Lenguajes de programación procedural: Divide el problema en partes más
pequeñas, que serán realizadas por subprogramas (subrutinas, funciones,

75
procedimientos), que se llaman unas a otras para ser ejecutadas. Ejemplos:
C, Pascal.
 Lenguajes de programación orientada a objetos: Crean un sistema de clases y
objetos siguiendo el ejemplo del mundo real, en el que unos objetos realizan
acciones y se comunican con otros objetos. Ejemplos: C++, Java.
 Lenguajes de programación funcional: La tarea se realiza evaluando funciones,
(como en Matemáticas), de manera recursiva. Ejemplo: Lisp.
 Lenguajes de programación lógica: La tarea a realizar se expresa empleando
lógica formal matemática. Expresa qué computar. Ejemplo: Prolog.

Hay muchos paradigmas de programación: Programación genérica, programación


reflexiva, programación orientada a procesos, etc.

7. Lugar de ejecución.

En sistemas distribuidos, según dónde se ejecute:


 Lenguajes de servidor: Se ejecutan en el servidor. Ejemplo: PHP es el más
utilizado en servidores web.
 Lenguajes de cliente: Se ejecutan en el cliente. Ejemplo: JavaScript en
navegadores web.

8. Concurrencia.

Según admitan o no concurrencia de procesos, esto es, la ejecución simultánea de


varios procesos lanzados por el programa:

 Lenguajes concurrentes. Ejemplo: Ada.


 Lenguajes no concurrentes. Ejemplo: C.

9. Interactividad.

Según la interactividad del programa con el usuario u otros programas:

 Lenguajes orientados a sucesos: El flujo del programa es controlado por la


interacción con el usuario o por mensajes de otros programas/sistema

76
operativo, como editores de texto, interfaces gráficos de usuario (GUI) o
kernels. Ejemplo: VisualBasic, lenguajes de programación declarativos.
 Lenguajes no orientados a sucesos: El flujo del programa no depende de
sucesos exteriores, sino que se conoce de antemano, siendo los procesos
batch el ejemplo más claro (actualizaciones de bases de datos, colas de
impresión de documentos, etc.). Ejemplos: Lenguajes de programación
imperativos.

10. Realización visual.

Según la realización visual o no del programa:

 Lenguajes de programación visual: El programa se realiza moviendo bloques


de construcción de programas (objetos visuales) en un interfaz adecuado para
ello. No confundir con entornos de programación visual, como Microsoft Visual
Studio y sus lenguajes de programación textuales (como Visual C#).
Ejemplo: Mindscript.
 Lenguajes de programación textual: El código del programa se realiza
escribiéndolo. Ejemplos: C, Java, Lisp.

11. Determinismo.

Según se pueda predecir o no el siguiente estado del programa a partir del estado
actual:

 Lenguajes deterministas. Ejemplos: Todos los anteriores.


 Lenguajes probabilísticos o no deterministas: Sirven para explorar grandes
espacios de búsqueda, (como gramáticas), y en la investigación teórica de
hipercomputación. Ejemplo: mutt (generador de texto aleatorio).

12. Productividad.

Según se caractericen por tener virtudes útiles o productivas, u oscuras y


enrevesadas:

77
 Lenguajes útiles o productivos: Sus virtudes en cuanto a eficiencia, sencillez,
claridad, productividad, etc., motiva que sean utilizados en empresas,
administraciones públicas y/o en la enseñanza. Ejemplos: Cualquier lenguaje
de uso habitual (C, Java, C++, Lisp, Python, Ruby).
 Lenguajes esotéricos o exóticos: Inventados con la intención de ser los más
raros, oscuros, difíciles, simples y/o retorcidos de los lenguajes, para diversión
y entretenimiento de frikis programadores. A veces exploran nuevas ideas en
programación. Ejemplo: Brainfuck.

78
Software de aplicación

En esta categoría se engloba todo aquel software cuyo propósito es ayudar a


realizar al usuario una tarea. El software de aplicación se puede considerar como
una herramienta que extiende las capacidades humanas, permitiendo la realización
de tareas que de otro modo sería difícil o imposible realizarlas. Por lo tanto, la mayor
parte del software cae dentro de esta clase. Dentro de ella podemos distinguir los
siguientes tipos de software:

1. Aplicaciones de publicación electrónica (Procesadores de texto,


entornos de desarrollo de sitios web).

Cuyo principal objetivo es facilitar un método sencillo para la escritura, la corrección


e impresión de un texto.

Un procesador de texto es una aplicación informática que permite crear y


editar documentos de texto en una computadora. Se trata de un software de
múltiples funcionalidades para la redacción, con diferentes tipografías, tamaños de
letra, colores, tipos de párrafos, efectos artísticos y otras opciones.

79
Los procesadores de texto cumplen con una función similar a la que cumplían
las máquinas de escribir hace algunas décadas, aunque mucho más completa y
compleja. En la máquina de escribir, por ejemplo, cada letra tipeada por el usuario
era impresa de forma inmediata en el papel, lo que imposibilitaba la posibilidad de
borrar.

Con un procesador de texto, en cambio, es posible borrar y editar el contenido en


todo momento ya que su funcionalidad básica se realiza sobre la pantalla. Una vez
que la tarea de redacción ya está completada, el usuario tiene la opción de guardar
el documento en un soporte informático (ya sea en el disco rígido de su
computadora, en Internet o en CD) o de imprimir el material.

Pero este tipo de programas informáticos presentan además otro importante número
de posibilidades que son las que han hecho que pasen a ser piezas imprescindibles
tanto en nuestra vida personal como en el ámbito laboral.

En concreto, nos permiten editar por completo un texto y hacerlo lo más atractivo
posible. Eso supone, entre otras, el dotarle de una tipografía concreta, un tamaño
de letra determinado así como proceder a utilizar herramientas para resaltar
determinadas palabras o frases. Es decir, nos da la oportunidad de usar recursos
tales como la negrita, la cursiva o el subrayado.

Tampoco hay que olvidarse del conjunto de posibilidades que nos da en cuanto a
alineación del texto, a espaciado entre párrafos, a las sangrías, al color de las letras
e incluso a la inclusión de listas numeradas.

Más herramientas puestas a disposición de los usuarios de los procesadores de


texto son la creación de tablas o la incorporación de elementos tales como cuadros
de texto, hipervínculos, saltos de página, encabezados y pies de página.

Con todo ello, y haciendo empleo también de las diferencias herramientas de diseño
de página se consiguen unos resultados espectaculares y unos documentos muy
atractivos.

Otra opción que brindan los procesadores de texto es la utilización de un corrector


ortográfico (una aplicación que detecta las faltas ortográficas y sugiere las
80
correcciones necesarias) o de un diccionario de sinónimos (que recomienda
palabras alternativas a las escritas sin que se altere el significado del texto).

Los procesadores de texto también permiten intercalar imágenes y distintos tipos de


gráficos dentro del texto, lo que permite crear documentos más avanzados al no
limitarse a las palabras escritas.

Microsoft Word, WordPerfect y OpenOffice.org Writer son algunos de los


procesadores de texto más populares.

Es interesante resaltar el hecho de que, por ejemplo, Word se incluye dentro de un


paquete de programas llamado Microsoft Office que se enmarca en la categoría
ofimática. Con ellos se pueden realizar y trabajar con textos, hojas de cálculo,
presentaciones de diapositivas, bases de datos o correos electrónicos. De ahí que
este tipo de conjuntos sean vitales para las labores administrativas de muchas
empresas.

En los procesadores de texto además del texto van grabados unos códigos de
control que harán que los documentos puedan tener texto de diferentes apariencias
y tamaños, modificar el tipo de papel, los márgenes, etc.

Introducir texto:

El texto introducido por el teclado se muestra en el monitor y se almacena en la


memoria principal.

El procesador ajusta automáticamente la longitud de la línea.

Solo es necesario pulsar Enter cuando se quiere forzar un salto de línea.

Editar texto:

WYSIWYG: ¨what you see is what you get¨ Lo mostrado en pantalla es una
representación muy cercana a lo que se obtiene por impresión.

Navegar por el documento ¨scrolling¨ o usar el comando buscar…

Buscar y reemplazar, insertar, borrar, mover y copiar texto.

81
Dar formato al texto:

Formato a los caracteres: punto (1 punto= 1/72 pulgadas), tipo de fuente o Font
(Serif, Sans-Serif Monospaced).

Formato a los párrafos: Márgenes, sangrías, tabulaciones, interlineado y tipo de


justificación.

Formato al documento: Encabezados y pie de página, estilos, pies de página,


ruptura de palabras, auto corrección, creación de notas.

Otras herramientas:

Numeración y viñetas, esquemas jerarquizados.

Diccionario de sinónimos.

Gestor de referencias.

Correctores ortográficos.

Correctores de estilo y gramática.

Plantillas de documentos.

Herramientas de colaboración en línea.

Herramienta de ayuda.

Diseño de entornos de sitios web:

El diseño de una página Web consiste en una actividad que necesita una
planificación, diseño e implementación. No se trata de desarrollar una aplicación y
ya. Es necesario tener en consideración cuestiones como la navegabilidad,
interactividad con el usuario, estructura de la información e interacción multimedia.
El diseño Web está considerado dentro del diseño multimedial. Dentro del diseño
Web, los expertos sugieren tres etapas a considerar:

1. El diseño visual de la información que se desea mostrar en la página Web. Esta


etapa consta de la distribución del texto, la ubicación de los gráficos, los vínculos a

82
otros documentos, los objetos multimedia que se vayan a incluir. Es necesario que
antes de sentarte a programar en la computadora, se haga un bosquejo en papel
sobre cómo será la página Web. Esto le permitirá tener una perspectiva más amplia
sobre cómo va a editar su página Web.

2. Editar la página Web. Aquí es cuando es necesario elegir algún editor Web, sea
pagado o gratuito. La sugerencia es que si usted no tiene experiencia en este
campo, puede adquirir un software libre con tutoriales en la Web para que paso a
paso le guíen sobre el funcionamiento del mismo. En esta etapa es donde se
pueden establecer los hipervínculos, que son los enlaces que típicamente aparecen
subrayados de azul en las páginas Web y le permiten ingresar a otra ubicación en
una página Web o abrir una nueva página Web. Los puede personalizar de modo
que abran una página relacionada a la suya o abran una página totalmente diferente
o incluso un navegador.

3. Esta última etapa consta de posicionarse en los buscadores. Es necesario aquí


optimizar el contenido y su estructura para poder mejorar la posición que obtenga
en un buscador. Es necesario también pensar en las palabras clave que utilizara.
Un truco que puede hacer es visitar páginas similares para ver que palabras están
utilizando y en que posiciones aparecen en los buscadores.

A continuación se muestra un listado de las aplicaciones para diseñar páginas Web,


con pago y gratuitos:

Herramientas gratuitas para creación y diseño de páginas web:

WYSIWYG Web Builder 6.5.7. Con este programa es fácil crear una página Web sin
necesidad de tener conocimientos de HTML. Es un programa enfocado a usuarios
con poca experiencia en esta clase de desarrollo. El uso de este editor evoca mucho
al Front Page que venía integrado con Microsoft Office, este programa incluye las
herramientas estándar para el diseño y publicación de una página Web personal.
Este programa ofrece la libertad de colocar en la página Web diferentes elementos,
solo es necesario crearlos, tales como texto, imágenes, tablas, enlaces, formularios,
flash e insertarlos en la posición que usted desee con un solo movimiento del

83
Mouse. Los usuarios más avanzados pueden insertar código HTML donde lo
consideren necesario. Puede incluir elementos adicionales como fragmentos de
JavaScript listos para usar. Imágenes roll-over y además colorear las barras de
desplazamiento del navegador Web. Una vez terminada la página, puede publicarla
utilizando el cliente de FTP integrado.

HTMLSpy 1.04. Es una herramienta útil para quien está aprendiendo a utilizar HTML
y quien desee conocer como son creados algunos de los mejores sitios Web en el
mundo. Usted visita páginas Web, recolecta fuentes de HTML y los reutiliza en sus
propias páginas Web. Otros HTML espías tienen la función de validar visualmente
el código HTML. Si la fuente tiene algún error en la primera línea, no regresa un
valor en la posición después de ejecutar el programa. Esto significa que el código
HTML no está bien estructurado y usted puede corregir este código y verificarlo de
nuevo.

GI Web. Uno de los ámbitos más comunes en los que se mueven los usuarios de
Internet, es el de la compra y venta de productos. Pero dicha actividad no sería
posible, sin la creación previa, por parte de cada empresario, de un sitio Web con
una vocación comercial. Pues bien, para llevar a cabo dicho trabajo de la forma más
intuitiva, fue lanzado al mercado GI-WEB. Además, es totalmente compatible con
editores HTML, permite gestionar productos, organizarlos por catálogo, crear
objetos gráficos para asociar a estos productos, admite la inserción de JavaScript y
Flash, etc.

Programas y herramientas de paga para diseño web:

Adobe Flash. Fue conocido como Macromedia Flash, es un programa que trabaja
bajo un ambiente de estudio de animación que se utiliza sobre fotogramas, es
destinado a la producción y desarrollo de contenido interactivo para las diferentes
audiencias alrededor del mundo. Este sistema en la actualizad está desarrollado por
Adobe Systems, utiliza gráficos vectoriales e imágenes raster, sonido y código de
programa, flujo de video y audio bidireccional, por solo nombrar algunas
características. Los archivos de Flash, están guardados con la extensión .swf,

84
pueden aparecer en una página Web para ser vista desde un navegador o pueden
ser reproducidos por un reproductor flash independiente.

Los archivos de flash pueden aparecer muy a menudo como animaciones en


páginas Web y sitios multimedia.

Dreamweaver. Fue creado por Macromedia, aunque en la actualidad lo produce


Adobe Systems, este es el programa más utilizado para programación Web, por sus
funciones, la integración con otras herramientas como el adobe flash y sus recientes
agregaciones a soporte de los estándares Web Consortium. Dreamweaver es editor
de WYSIWYG, por lo tanto permite ocultar código HTML, lo cual facilita al usuario
que no es programador, a crear páginas y sitios Web de una forma sencilla sin
necesidad de tener conocimientos avanzados.

Dreamweaver ha tenido bastante aceptación desde fines de los años 90’s y cuenta
con el 90% de ventas para programas editores HTML. Este es un programa
disponible para Windows y Mac, aunque también es ejecutable en entorno Unix.

Microsoft FrontPage. Esta es una herramienta para construir y editar páginas Web
para Windows. Forma parte del paquete de Microsoft Office, aunque fue creado
desde hace mucho tiempo, algunos consideran que el código HTML que genera
esta aplicación es obsoleto. Un ejemplo de ello es que el programa todavía inserta
la etiqueta frente cuando esto está obsoleto ante el estándar W3C. Este programa
ha dejado de ser producido desde 2006, Microsoft ofrece dos productos alternos
como son Share Point Designer y Expresson Web. Este programa es considerado
el sucesor de Front Page.

Publicación electrónica:

Publicación web, HTML, DHTML, XML, etc.

Libros electrónicos, formato PDF de Adobe.

Soporte LCD, papel electrónico.

85
Edición de texto sin teclado, reconocimiento de voz.

Edición de texto mediante reconocimiento de caracteres (escáner), OCR.

Librerías digitales, digitalización de documentos, publicación de obras sin copyright


o con derechos de autor expirados.

2. Aplicaciones de cálculo numérico (Hojas de cálculo).

Cuyo objetivo es el tratamiento de la información que pueda ser organizada en


tablas, normalmente de tipo numérico, y las operaciones que se pueden realizar en
ellas.

Una hoja de cálculo es un programa o aplicación informática que permite la


manipulación sobre datos números dispuestos en tablas para la operación sobre
cálculos complejos de contabilidad, finanzas y negocios.

La hoja de cálculo es una aplicación de los paquetes de informática tradicionales


que está programada para el manejo de datos numéricos y alfanuméricos con el
propósito de obtener conclusiones informes de contabilidad. Las posibilidades de
este tipo de aplicaciones son inmensas, ya que permite operar con cálculos
complejos, fórmulas, funciones y elaborar gráficos de todo tipo.

Los orígenes de las hojas de cálculo modernas se remontan quizás a los años '60,
cuando artículos en revistas especializadas comenzaron a hacer referencia al
concepto de "hoja de cálculo electrónica". La primera hoja de cálculo fue creada por

86
Dan Bricklin y se llamó VisiCalc.
Actualmente y en su forma más tradicional, las hojas de cálculo se emplean para
hacer bases de datos numéricos, operaciones de cálculos entre celdas, informes y
representaciones en gráfico de torta, barras y otros. Estas funciones no sólo son
muy útiles para la administración y decisión a nivel ejecutivo, sino que también son
fundamentales a la hora de presentar resultados y conclusiones laborales y de
negocios a públicos y clientes.
Por su versatilidad y facilidad de uso a partir de un entrenamiento en el software,
este tipo de programas permiten ahorrar mucho tiempo (de elaboración y resolución
de cálculos extensos y complicados) y dinero (invertido en contadores y
especialistas de cálculos y economía).

Hoy por hoy existen muchos programas que ofrecen esta variedad de servicios. La
más común y popular en el mundo es la de Microsoft Office, de nombre Excel, que
se emplea en pequeñas y grandes oficinas y hasta para llevar las finanzas
familiares. También puede recurrirse a Calc, de OpenOffice.org, Gnumeric de
Gnome Office, Numbers de Apple y varias otras de acuerdo con el sistema operativo
que se use.

Realizan operaciones relacionando los valores presentes en la tabla, como suma


de filas, valor medio de los datos de una fila/columna, promedio, gráficas, etc.

Utilizados en contabilidad y trabajos financieros.

Permiten insertar funciones que realicen combinaciones de operaciones simples.


87
Permiten definir Macros, para ejecutar una serie de operaciones rutinarias de forma
automática.

Permiten importar y exportar datos.

Excel, Keynote, Contaplus, etc.

3. Aplicaciones de almacenamiento de información (Bases de datos).

Son los que permiten manejar bases de datos, las bases de datos están
organizadas en registros, cada registro contendrá uno o varios campos. Utilizadas
para procesar gran cantidad de información.

Clasificación de las bases de datos:

1.-Según su variabilidad:

88
Base de datos estáticas: Son bases de datos únicamente de lectura, utilizadas
primordialmente para almacenar datos históricos que posteriormente se pueden
utilizar para estudiar el comportamiento de un conjunto de datos a través del tiempo,
realizar proyecciones, tomar decisiones y realizar análisis de datos para inteligencia
empresarial.

Bases de datos dinámicas: Son bases de datos donde la información almacenada


se modifica con el tiempo, permitiendo operaciones como actualización, borrado y
edición de datos, además de las operaciones fundamentales de consulta. Un
ejemplo, puede ser la base de datos utilizada en un sistema de información de un
supermercado.

2.-Según su contenido:

Base de datos bibliográficos: Solo contienen un subrogante (representante) de la


fuente primaria, que permite localizarla. Un registro típico de una base de datos
bibliográfica contiene información sobre el autor, fecha de publicación, editorial,
título, edición, de una determinada publicación, etc. Puede contener un resumen o
extracto de la publicación original. Como su nombre lo indica, el contenido son cifras
o números. Por ejemplo, una colección de resultados de análisis de laboratorio,
entre otras.

Base de datos de texto completo: Almacenan las fuentes primarias, como por
ejemplo, todo el contenido de todas las ediciones de una colección de revistas
científicas.

Directorios: Estos directorios se pueden clasificar en dos grandes tipos dependiendo


de si son personales o empresariales.

Los directorios empresariales hay de tres tipos:

Tienen nombre de la empresa y dirección.

Contienen teléfono y los más avanzados contienen correo electrónico.

Contienen datos como facturación o número de empleados además de códigos


nacionales que ayudan a su distinción.

89
Los directorios personales solo hay de un tipo. La búsqueda inversa está prohibida
en los directorios personales (a partir de un número de teléfono saber el titular de la
línea).

Base de datos de información química o biológica: Son bases de datos que


almacenan diferentes tipos de información proveniente de la química, las ciencias
de la vida o médicas. Se pueden considerar en varios subtipos:

Las que almacenan secuencias de nucleótidos o proteínas.

Las bases de datos de rutas metabólicas.

Bases de datos de estructura, comprende los registros de datos experimentales


sobre estructuras 3D de biomoléculas.

Bases de datos clínicas.

Bases de datos bibliográficas (biológicas, químicas, médicas y de otros campos).

2. Modelos de bases de datos:

Además de la clasificación por la función de las bases de datos, estas también se


pueden clasificar de acuerdo a su modelo de administración de datos.

Un modelo de datos es básicamente una "descripción" de algo conocido


como contenedor de datos (algo en donde se guardan los datos), así como de los
métodos para almacenar y recuperar datos de esos contenedores. Los modelos de
datos no son cosas físicas: son abstracciones que permiten la implementación de
un sistema eficiente de base de datos; por lo general se refieren a algoritmos, y
conceptos matemáticos.

Algunos modelos con frecuencia utilizados en las bases de datos:

Bases de datos jerárquicas: En este modelo los datos se organizan en forma de


árbol invertido (algunos dicen raíz), en donde un nodo padre de información puede
tener varios hijos. El nodo que no tiene padres es llamado raíz, y a los nodos que
no tienen hijos se los conoce como hojas.

90
Las bases de datos jerárquicas son especialmente útiles en el caso de aplicaciones
que manejan un gran volumen de información y datos muy compartidos permitiendo
crear estructuras estables y de gran rendimiento.

Una de las principales limitaciones de este modelo es su incapacidad de representar


eficientemente la redundancia de datos.

Base de datos de red: Este es un modelo ligeramente distinto del jerárquico; su


diferencia fundamental es la modificación del concepto de nodo: se permite que un
mismo nodo tenga varios padres (posibilidad no permitida en el modelo jerárquico).

Fue una gran mejora con respecto al modelo jerárquico, ya que ofrecía una solución
eficiente al problema de redundancia de datos; pero, aun así, la dificultad que
significa administrar la información en una base de datos de red ha significado que
sea un modelo utilizado en su mayoría por programadores más que por usuarios
finales.

Base de datos transaccionales: Son bases de datos cuyo único fin es el envío y
recepción de datos a grandes velocidades, estas bases son muy poco comunes y
están dirigidas por lo general al entorno de análisis de calidad, datos de producción
e industrial, es importante entender que su fin único es recolectar y recuperar los
datos a la mayor velocidad posible, por lo tanto la redundancia y duplicación de
información no es un problema como con las demás bases de datos, por lo general
para poderlas aprovechar al máximo permiten algún tipo de conectividad a bases
de datos relacionales.

Un ejemplo habitual de transacción es el traspaso de una cantidad de dinero entre


cuentas bancarias. Normalmente se realiza mediante dos operaciones distintas, una
en la que se debita el saldo de la cuenta origen y otra en la que acreditamos el saldo
de la cuenta destino. Para garantizar la atomicidad del sistema (es decir, para que
no aparezca o desaparezca dinero), las dos operaciones deben ser atómicas, es
decir, el sistema debe garantizar que, bajo cualquier circunstancia (incluso una
caída del sistema), el resultado final es que, o bien se han realizado las dos
operaciones, o bien no se ha realizado ninguna.

91
Base de datos relacionales: Este es el modelo utilizado en la actualidad para
representar problemas reales y administrar datos dinámicamente. Su idea
fundamental es el uso de "relaciones". Estas relaciones podrían considerarse en
forma lógica como conjuntos de datos llamados "tuplas". Pese a que esta es la teoría
de las bases de datos relacionales creadas por Codd, la mayoría de las veces se
conceptualiza de una manera más fácil de imaginar. Esto es pensando en cada
relación como si fuese una tabla que está compuesta por registros (las filas de una
tabla), que representarían las tuplas, y campos (las columnas de una tabla).

En este modelo, el lugar y la forma en que se almacenen los datos no tienen


relevancia (a diferencia de otros modelos como el jerárquico y el de red). Esto tiene
la considerable ventaja de que es más fácil de entender y de utilizar para un usuario
esporádico de la base de datos. La información puede ser recuperada o almacenada
mediante "consultas" que ofrecen una amplia flexibilidad y poder para administrar la
información.

El lenguaje más habitual para construir las consultas a bases de datos relacionales
es SQL, Structured Query Language o Lenguaje Estructurado de Consultas, un
estándar implementado por los principales motores o sistemas de gestión de bases
de datos relacionales.

Durante su diseño, una base de datos relacional pasa por un proceso al que se le
conoce como normalización de una base de datos.

Consulta a base de datos: Una consulta es el método para acceder a la información


en las bases de datos. Con las consultas se puede modificar, borrar, mostrar y
agregar datos en una base de datos, también pueden utilizarse como origen de
registro para formularios. Para esto se utiliza un lenguaje de consulta.

Las consultas a la base de datos se realizan a través de un Lenguaje de


manipulación de datos, el lenguaje de consultas a base de datos más utilizado
es SQL.

Sistema de Gestión de Base de datos distribuida.

92
La base de datos y el software SGBD pueden estar distribuidos en múltiples sitios
conectados por una red. Hay de dos tipos:

1. Distribuidos homogéneos: utilizan el mismo SGBD en múltiples sitios.

2. Distribuidos heterogéneos: Da lugar a los SGBD federados o sistemas multibase


de datos en los que los SGBD participantes tienen cierto grado de autonomía local
y tienen acceso a varias bases de datos autónomas preexistentes almacenados en
los SGBD, muchos de estos emplean una arquitectura cliente-servidor.

Estas surgen debido a la existencia física de organismos descentralizados. Esto les


da la capacidad de unir las bases de datos de cada localidad y acceder así a
distintas universidades, sucursales de tiendas, etc.

FileMaker, Access, SQL, etc.

Principales bases de datos.

93
4.-Aplicaciones de telecomunicaciones y redes (Navegadores, chats,
FTP, correo).

Dentro de estas aplicaciones se encuentran los navegadores, el cual es un software


de aplicación o programa que permite el acceso a la Web, interpretando la
información de distintos tipos de archivos y sitios web para que estos puedan ser
visualizados.

La funcionalidad básica de un navegador web es permitir la visualización de


documentos de texto, posiblemente con recursos multimedia incrustados. Además,
permite visitar páginas web y hacer actividades en ella, es decir, enlazar un sitio con
otro, imprimir, enviar y recibir correo, entre otras funcionalidades más.

Los documentos que se muestran en un navegador pueden estar ubicados en la


computadora donde está el usuario y también pueden estar en cualquier otro
dispositivo conectado en la computadora del usuario o a través de Internet, y que
tenga los recursos necesarios para la transmisión de los documentos
(un software servidor web).

Tales documentos, comúnmente denominados páginas web,


poseen hiperenlaces o hipervínculos que enlazan una porción de texto o una
imagen a otro documento, normalmente relacionado con el texto o la imagen.

El seguimiento de enlaces de una página a otra, ubicada en cualquier computadora


conectada a Internet, se llama navegación, de donde se origina el nombre
navegador.

La función principal del navegador es descargar documentos HTML y mostrarlos


en pantalla. En la actualidad, no solamente descargan este tipo de documentos sino
que muestran con el documento sus imágenes, sonidos e incluso vídeos
en transmisión en diferentes formatos y protocolos. Además, permiten almacenar la
información en el disco o crear marcadores (bookmarks) de las páginas más
visitadas.

94
Algunos de los navegadores web más populares se incluyen en lo que se denomina
una suite de internet o paquete de Internet. Estos paquetes de Internet disponen de
varios programas integrados para leer noticias de Usenet y correo
electrónico mediante los protocolos Network News Transport
Protocol (NNTP), Internet Message Access Protocol (IMAP) y Post Office
Protocol (POP).

Los primeros navegadores web sólo soportaban una versión muy simple de HTML.
El rápido desarrollo de los navegadores web propietarios condujo al desarrollo de
dialectos no estándares de HTML y a problemas de interoperabilidad en la web. Los
más modernos (como Chrome, Amaya, Firefox, Netscape, Opera e Internet
Explorer 9.0) soportan los estándares HTML y XHTML (comenzando con HTML
4.01, los cuales deberían visualizarse de la misma manera en todos ellos).

Los estándares web son un conjunto de recomendaciones dadas por el World Wide
Web Consortium' (W3C) y otras organizaciones internacionales acerca de cómo
crear e interpretar documentos basados en la web. Su objetivo es crear una web
que trabaje mejor para todos, con sitios accesibles a más personas y que funcionen
en cualquier dispositivo de acceso a Internet.

Navegadores de internet más usados en la comunidad cibernética.


95
Gestores de correo electrónico son otro tipo de software de aplicación, en internet
puedes encontrar numerosos servicios de correo electrónico gratuitos para crear tu
propia cuenta. Dependiendo del servicio, tendrás a tu disposición una cantidad de
espacio determinada para almacenar tus e-mails. Además, también existe un límite
en el tamaño máximo de los correos que puedes enviar. Si el correo únicamente
contiene texto, no tendrás problemas pero, si añades otro tipo de archivos, como
por ejemplo fotos, deberás tener en cuenta las restricciones de tamaño.

Algunos de los servicios de e-mail más conocidos son Gmail, Yahoo!


Mail y Outlook, el sucesor del exitoso pero ya extinto Hotmail.

Los servicios de correo electrónico mencionados permiten la gestión web de los


correos, es decir, tendrás que conectarte a la página de tu servicio de e-mail para
poder visualizar o enviar correos.

No obstante, existen una serie de programas instalables en tu ordenador que


permiten la gestión del correo electrónico (incluso de cuentas diferentes) sin
necesidad de acceder al servicio web. Algunos de estos gestores son Mozilla
Thunderbird, Microsoft Outlook, Mail, Eudora, etc.

Para utilizar cualquiera de estos gestores, es necesario llevar a cabo la


configuración de la cuenta de correo. Tienes que indicar al programa a qué servidor
de correo debe acceder y proporcionar tus datos de usuario y contraseña. Este
proceso puede variar ligeramente dependiendo del programa que selecciones.

96
Tipos de software de aplicaciones de correo electrónico.

Por ultimo tenemos el software de aplicación para chat, el cual es uno de los
métodos de comunicación digital surgida con las nuevas tecnologías. Designa una
conversación escrita realizada de manera instantánea mediante el uso de
un software entre dos o más usuarios conectados a la red, generalmente Internet,
ya sea a través de los llamados chats públicos (si cualquier usuario puede entrar) o
privados (cuando la entrada está sujeta a autorización).

El chat sirve para poder comunicarse con grupos de personas las cuales opinan de
diferentes temas y se entretienen incluso con herramientas como el video chat y
enviándose enlaces para ver otras páginas, criticarlas y darles like. Hay maneras de
expresarse a través de la red, como por ejemplo; enviando emoticones que
representan; caras simples, tristes, alegres, sorprendidas, gritando, llorando o
haciendo gestos con partes del rostro. También hay diferentes tipos de chat o
también grupos de discusión etc.

Sus características son:

• Mensajes instantáneos - Permite una interacción fluida mediante texto síncrono.

• Enlaces Web – Permite compartir enlaces de sitios web y noticias.

• Video – Permite compartir y visualizar videos para chatear cara a cara con otras
personas.

• Imágenes – Permite compartir imágenes.

97
• Audio – Permite compartir sonidos.

• Archivos – Permite enviar o recibir archivos con los participantes.

• Discusión – Se puede utilizar en lugar del teléfono para hablar.

• Capacidades móviles – Muchos tipos de chat permiten enviar mensajes


instantáneos desde dispositivos móviles como el teléfono celular.

• Salón de chat – Crear una sala con amigos o compañeros de trabajo.

• Anonimato – Al poder utilizar seudónimos, alias o apodos en vez de datos reales.

• Incluye la foto de la información personal en la ventana de chat.

• Soporta direcciones URL, eméticos, integración de Hotmail, imágenes, etc.

• Todas las sesiones quedan registradas para verlas posteriormente, y pueden


ponerse a disposición de los estudiantes.

• Pueden programarse sesiones periódicas que aparecerán en el calendario.

• Abierto las 24 horas del día todos los días. Internet y la totalidad de sus
aplicaciones están disponibles las 24 horas del día todos los días. Solo un par de
clics separan a la persona del acceso al mundo virtual si tienen el software y el
hardware necesario. Una vez ingresado (conectado) a la red, siempre habrá
personas esperando alguien con quien conversar.

Sus elementos son:

Dentro de los elementos que encontramos dentro de un Chat para que se pueda
llevar a cabo la comunicación, están los siguientes:

• Usuarios – Serán las personas o robots que harán uso del Chat.

• Canales – Donde los usuarios podrán entrar y salir, aunque en algunas se deban
cumplir ciertos requisitos.

• Chats Salas de Charla – Donde todos los usuarios "hablan" entre ellos.

• OPERS – Donde el/los usuarios/ solicitan canales o cualquier tipo de información.

98
• ADM (Administradores) – Estos son los que marcan las pautas y normas a seguir
para el buen funcionamiento del Chat y la conducta de los usuarios.

• IrCOP – Serán las personas que se dedican al mantenimiento del Chat.

• OPER – Son las personas que, ante las necesidades de los usuarios, les ayudan
o suministran cualquier tipo de información respecto, comunicaciones entre canales,
entre usuarios, reservas de canales privados, etc.

Existen varios tipos, entre ellos se encuentran:

• WebChats: Son los chats más fáciles y rápidos de usar, lo único que tienes que
hacer en entrar en la página web, crear un usuario y contraseña, ponerte un nombre
y listo para chatear y conocer gente. No será necesario en estos casos que instales
ningún programa extra en tu ordenador o que descargues ningún software especial.
Además disfruta de las guías de chats para estar bien informado.

• Chats tipo IRC (Internet Relay Chat): Es el origen de los chats tal y como se
conocen hoy en día. Fue creado en 1988.

Permite la interacción entre dos o más personas simultáneamente por medio de un


canal.

Para su funcionamiento es necesario un programa descargable, por el que accedes


a un salón virtual o canal y cada uno de ellos se enfoca a un tópico específico.

Una desventaja es que es más complicado que los chats web ya que en los IRC se
trabaja con scripts o palabras clave para realizar ciertas acciones como listar los
canales de un servidor o unirte a uno de ellos.

• Chats de mensajería instantánea: La mensajería instantánea permite comunicarse


entre dos o más personas en tiempo real, permitiendo enviar y recibir mensajes de
texto, imágenes, audio, etc.

Es la evolución entre los chats en la Web y los IRC, tienen muchas más funciones
que los primeros y son más sencillos que los segundos.

99
Lo único que se necesita es la descarga de un programa que es ejecutado en
segundo plano siempre y permite la comunicación entre el ordenador y el servidor
central.

Algún ejemplo de mensajería instantánea son Windows Live Messenger, Google


Talk, Yahoo! Messenger, AOM o ICQ.

• Multimedia Chats: Estos chats permiten la comunicación por medio escrito pero se
centran más en la comunicación por medio de audio y vídeo. Estos programas son
más útiles pero requieren de más medios, como altavoces, cámara web y micrófono.

• Chats para tiendas y diferentes empresas: Una empresa puede brindar atención
al cliente u ofrecer también todo tipo de información a través de un sistema de chat.
Actualmente muchas empresas de ordenadores brindan un servicio técnico on-line
para resolver cualquier inconveniente que tengan sus compradores con los
productos.

• Chat universitarios-educación on-line: Hoy en día mucha gente realiza cursos en


Internet. Diferentes universidades e institutos desarrollan entonces diferentes
servicios de chat para complementar el intercambio de email. Alumnos y profesores
se encuentran en las salas de chat para aprender e intercambiar opiniones como si
estuvieran en una clase.

• Chats para encontrar parejas: estos chats son perfectos para buscar e identificar
gente que te resulta atractiva e interesante. Puedes verlo como algo similar a una
oferta de agencia matrimonial pero donde tú mismo eres tu propio agente. Lo
mejores es que subas una bonita fotografía y completes tu perfil con sinceridad y de
forma original. Así tendrás más posibilidades de que la persona que buscas te
contacte y quiera conocerte más.

• Chats para buscar amigos: ideal para aquellos que quieren conocer gente y hacer
nuevos amigos para descubrir las posibilidades de nuevas amistades y mucha
diversión.

100
• Chats para adultos: son chats dedicados a aquellas personas que buscan
intercambios más picantes para tener aventuras, realizar contactos eróticos,
sensuales y provocativos.

• Chatbot: es un chat donde por lo menos uno de los usuarios que sostiene la
conversación es un robot.

El videochat no es más que una evolución o mezcla entre la videoconferencia y el


chat tradicional, dotando al usuario de tres modos de comunicación sobre el
mismo canal. Existen igualmente servicios de videochat de multidifusión o
de mensajería instantánea uno a uno. Distintos sitios web ofrecen servicios de
videochat en línea, si bien también existen programas de cómputo especializados
como Paltalk. Así mismo, los programas de mensajería instantánea más famosos,
como Windows Live Messenger o Yahoo! Messenger, también permiten el uso de
audio y vídeo en sus comunicaciones.

Ejemplos de tipos de aplicaciones y páginas web sobre chats.

5.- Aplicaciones de gráficos de diseño y multimedia.

Programas de diseño y dibujo:

Un programa de diseño gráfico es aquel que nos permite retocar o modificar


imágenes, realizar dibujos, y guardarlos después en distintos formatos.

Por "retocar o modificar" entendemos añadir o quitar partes en la imagen,


superponer imágenes unas sobre otras, retocar colores o líneas, cambiar el brillo y
el contraste, cambiar el tamaño, comprimir la imagen para que ocupe menos

101
espacio como archivo (sólo en algunos formatos), guardar la imagen con otro
formato, aplicar filtros que transforman la imagen, recortar una parte de la imagen,
y otra serie de retoques que dependen en ocasiones del programa que utilicemos.

No confundir un programa de diseño gráfico con un visor de imágenes. En el


programa de diseño gráfico abrimos una imagen para retocarla o modificarla. El
visor de imágenes tiene otra función, y es ordenar y visualizar las imágenes de una
forma sencilla, bien sea individualmente o como presentación de diapositivas con
varias imágenes.

Sin embargo la mayoría de visores de imágenes tienen algunas funciones que están
en los programas de diseño gráfico, como son el cambiar el brillo y contraste, aplicar
filtros, etc. Pueden usarse también para cambiar la apariencia de la imagen, y a
veces para operaciones sencillas pueden resultar más simples de manejar.

Programas de diseño gráfico

Algunos de los programas de diseño gráfico más utilizados son:

Photoshop

Es sin duda el programa de diseño gráfico más conocido y el que


debemos tener si nos queremos dedicar bien sea profesionalmente o
por afición al diseño gráfico o a al retoque fotográfico.

Creado por la casa Adobe Systems, Photoshop es el programa más


usado relacionado con el mundo de la fotografía. Sin embargo sus posibilidades son
muy amplias, ya que en cada nueva versión va mejorando y ampliando las opciones
de la anterior.

Como contrapartidas encontramos que no es un programa gratuito. Los programas


de diseño de Adobe Systems suelen ser de pago, sin embargo nos dan la opción
de probarlo de forma gratuita durante 30 días a partir de la descarga. Photoshop
está orientado para una utilización profesional, por lo que puede ser difícil de usar
para alguien que está empezando o que simplemente quiere hacer un pequeño

102
retoque en una imagen. Las posibilidades de Photoshop son muchas, pero sin duda
hay que dedicarle un tiempo para aprender a usarlo en todas sus posibilidades.

GIMP

Es la alternativa a Photoshop, pero en software libre, es decir,


gratuito. Ha sido creado por una amplia comunidad de
desarrolladores que forman el proyecto GNU. En sus sucesivas
versiones GIMP se ha ido ampliando y adquiriendo nuevas funciones.
No llega a ser tan completo como Photoshop, pero es más que suficiente para los
pequeños trabajos del diseñador web de retocar y cambiar las imágenes. Tanto con
Photoshop como con GIMP podemos crear gráficos y logos, cambiar de tamaño,
recortar y modificar fotografías digitales, modificar los colores, combinar imágenes
usando capas, eliminar o alterar elementos no deseados en imágenes o la
conversión de imágenes en distintos formatos.

GIMP también permite crear imágenes animadas sencillas, mediante el empleo de


sucesivas capas que se muestran una tras otra.

Paint.NET

Este es un programa de diseño gráfico, también de


software libre (gratuito), no tan conocido como Photoshop
o GIMP, pero con algunas funciones interesantes para el
diseñador. El programa es un editor gráfico enfocado a
que podamos crear nosotros nuestros propios dibujos
partiendo de cero. Es como el Paint de Windows al que
se le hubiera añadido un programa de retoque
fotográfico. Tiene herramientas para crear nuestros propios dibujos tales como
pinceles, creación de líneas, rectángulos, óvalos, etc., de la misma forma que el
Paint de Windows, y además tiene también una serie de herramientas habituales en
los programas de diseño gráfico, como son los filtros, cambio de tamaño, retoques,
etc. Permite también trabajar la imagen en capas.

103
PhotoScape

Aunque no es un programa de diseño gráfico, sino más


bien un visor de imágenes, tiene varias funciones que
pueden resultar interesantes para el diseño web. El
programa es de software libre (gratuito) y además del
visor de imágenes tiene algunos complementos que
permiten manipular las imágenes.

Tal vez lo más interesante para el diseñador web es la posibilidad de crear imágenes
animadas (gifs animados) de una manera sencilla. Simplemente con introducir la
secuencia de imágenes (fotogramas) que forman la animación, y darles a cada uno
de ellos un tiempo de visualización podemos crear una imagen animada.

También podemos hacer algunas modificaciones en las imágenes tales como


aplicar filtros, ponerles marcos, redondear esquinas, etc. Todo esto de una manera
sencilla en la que visualizamos en cada momento cómo pueden quedar los cambios.

El software de multimedia está conformado por los módulos de soporte para


multimedia del sistema operacional, los drivers o controladores para el control de
los dispositivos (CD-ROM, tarjetas de sonido o video), y el software para el
desarrollo de aplicaciones y proyectos de multimedia.

Al referirnos al desarrollo de aplicaciones y proyectos multimedia, tocamos áreas


como: presentaciones, producción y edición de sonido y video, animación en dos o
tres dimensiones y el manejo de dispositivos MIDI.

El campo de acción de la multimedia se extiende cada vez más; sin embargo, el


mayor número de aplicaciones se ha dado en los siguientes campos:

Distribución de software.

Educación y entrenamiento: cursos, enciclopedias y manuales

Quioscos públicos de información, publicidad y ventas de productos y servicios.

104
Consulta de información digitalizada: documentos, fotos, planos, mapas, directorios
telefónicos, catálogos, etc.|
Videojuegos.
Proyectos de Realidad virtual: diseños arquitectónicos, de máquinas y productos.

Los desarrollos tecnológicos de los últimos años -y de los años por venir- se centran
en los medios masivos de comunicación interactiva. Sus objetivos tratan de resolver
necesidades en diversos campos, de ofrecer alternativas a los medios tradicionales
de difusión de información.

Dentro de las aplicaciones más inmediatas que puede tener la tecnología


interactiva, quizás la más evidente está en el campo de la educación. Las
posibilidades educativas de las técnicas multimedia interactivas son infinitas.

La presentación de material de instrucción, en todas las áreas, ya no en papel


mediante libros y manuales, sino por medio de gráficas, animación, video y sonido,
todo eso combinado con la posibilidad de ejercer control sobre la evolución de los
estudiantes, con la capacidad para obtener retroalimentación por parte de ellos, con
opción de realizar tests y exámenes interactivos, y avanzar al ritmo de cada
estudiante, realmente abren el campo para una nueva era de gran riqueza en el
campo educativo.

105
Ejemplos de material multimedia.

6.- Aplicaciones de gestión empresarial

Son todos aquellos programas utilizados a nivel empresarial, que por su definición
genera acción de emprender algo y por su aplicación persigue fines lucrativo y no
lucrativo. También es un software que permite gestionar todos los procesos de un
negocio o de una empresa en forma integrada. Por lo general está compuesto por
modulo cruzado de los proceso del negocio.
Es una parte muy importante de la vida empresarial, sea una gran empresa o un
proyecto que recién comienza. Además son los pocos programas de gestión que se
adaptan a todos los usos posibles, y en general veremos algunas que sean más
fuertes para un tipo de empresa determinado.

Características

Enfocada en una empresa u organización, donde debe existir coordinación y debe


estar sustentada por la administración.

Todas las áreas de la empresa integran el proceso de gestión de administración,


que transforma los objetivos en resultados.

106
Permiten construir la contabilidad y los movimientos financieros acuerdo a las
normas establecidas en la empresa.

Obtener beneficios que ayudaran a controlar y administrar los bienes de la empresa.

Permiten dar respuesta inmediata y oportuna a las necesidades de registro


presupuestario, patrimonial, contable y administrativo en las organizaciones.

Permite mantener el control de cada departamento, unidad o sección de la empresa.

Clasificación

Son las aplicaciones fabricadas para poder ser utilizadas por un gran número de
usuarios y en diferentes sistemas. Las aplicaciones estándar abarcan tareas muy
diversas del ámbito comercial, empresarial y laboral, pero hay unas cuantas que
han alcanzado máxima difusión: procesador de textos, hoja de cálculo, gestor de
base de datos, gestor de gráficos,… Las aplicaciones estándar se comercializan
soportadas en uno o varios CD que contienen la aplicación grabada y dispuesta
para ser instalada en el ordenador cuando sea preciso.

Software a medida.

Constituido por las aplicaciones específicas que por corresponder a actividades más
especializadas es necesario encargar a los profesionales del software. Se diseña a
petición de un cliente o usuario concreto, para la realización de una tarea propia y
específica. Está constituido por un conjunto de programas diseñados para la
realización de una gran variedad de tareas habituales y dirigidas por tanto a un gran
número de usuarios.

Son las aplicaciones fabricadas para poder ser utilizadas por un gran número de
usuarios y en diferentes sistemas. Las aplicaciones estándar abarcan tareas muy
diversas del ámbito comercial, empresarial y laboral, pero hay unas cuantas que
han alcanzado máxima difusión: procesador de textos, hoja de cálculo, gestor de
base de datos, gestor de gráficos,… Las aplicaciones estándar se comercializan
soportadas en uno o varios CD que contienen la aplicación grabada y dispuesta
para ser instalada en el ordenador cuando sea preciso.

107
Software a medida.

Constituido por las aplicaciones específicas que por corresponder a actividades más
especializadas es necesario encargar a los profesionales del software. Se diseña a
petición de un cliente o usuario concreto, para la realización de una tarea propia y
específica. Está constituido por un conjunto de programas diseñados para a
realización de una gran variedad de tareas habituales y dirigido por tanto a un gran
número de usuarios.

Ejemplos de actividades que se realizan.

Entre las soluciones informáticas más comunes para las empresas, podemos
encontrar múltiples ejemplos de ERP. Del inglés Enterprise Resource
Planning (sistema de planificación de recursos empresariales), un ERP es
un software de gestión empresarial que permite planificar y controlar los procesos y
recursos de negocio de una empresa.

Se trata de conseguir que todos los datos de la compañía estén integrados y


conectados. Por ejemplo, una operación en Valencia se refleja automáticamente en
el departamento administrativo de Barcelona y se notifica a su vez a los almacenes
de stock situados en Polonia. Contar con un ERP facilita enormemente la
trazabilidad de las operaciones y con ello la resolución rápida de problemas. En
108
definitiva, un ERP bien gestionado optimiza los procesos de la empresa, da acceso
a la información a todos los actores que la necesitan y agiliza la respuesta de cara
al cliente.

Es importante tener en cuenta que el concepto de ERP va más allá del software, ya
que debe reflejar los procesos de una empresa y adaptarse a ellos como un traje a
medida para poder funcionar de manera óptima.

Como curiosidad, cabe mencionar que los antecedentes de estos programas están
en la automatización de los procesos de guerra durante la II Guerra Mundial, que
dio origen a las primeras computadoras.

Características del ERP

Las dos características principales que diferencian a los ERP de otros programas
de gestión empresarial es que son modulares y configurables:

Modulares: Los ERP cuentan con diferentes programas o módulos que gestionan
los diferentes departamentos de la empresa, tales como ventas, marketing,
almacenes o recursos humanos. Todos estos módulos comparten información en
torno a una base de datos común que vertebra el funcionamiento del ERP.

Configurables: Los ERP deben poder modificarse para adaptarse a las necesidades
específicas de cada empresa, por ejemplo, a la hora de gestionar el inventario o los
puntos de venta. Por eso es necesario que el ERP se pueda configurar para

109
adaptarse a diferentes organizaciones y procesos, teniendo en cuenta además que
las necesidades de una misma empresa varían a través del tiempo.

Ventajas de instalar un ERP

Antes de valorar la contratación de esta clase de servicio para tu empresa debes


conocer los beneficios de su uso:

Permite rentabilizar procesos, porque planifica los tiempos y las tareas para que tus
trabajadores sean lo más productivos posible.

Son totalmente personalizables, teniendo en cuenta las características de cada


empresa.

Hay soluciones con costes muy bajos basados en el presupuesto total de un


negocio.

Mejora la comunicación interna, creando apoyos entre diferentes departamentos.

Permite controlar operaciones de forma más sencilla.

Reduce los costes de diferentes actividades.

Mejora la eficiencia general de la empresa.

Aspectos a tener en cuenta antes de instalar un ERP

Además de las ventajas, hay que estudiar los posibles inconvenientes o problemas
que pueden surgir durante su uso:

Requiere un tiempo de diseño e instalación: En el caso de los software diseñados


para una empresa concreta, se requiere un periodo de creación e instalación antes
de poder ser utilizado.

Tiene unos costes fijos o periódicos que hay que contemplar.

Necesita ser actualizado.

Algunos necesitan conexión a Internet.

Se requiere un equipo físico para su funcionamiento.

110
Puede generar problemas de privacidad.

Es por ello que para evitar estos y otros inconvenientes hay que escoger de forma
óptima el tipo de servicio que se va a usar en la compañía, basándose en los
diferentes tipos de ERP que hay actualmente en el mercado, las necesidades de la
empresa y prestar siempre atención a qué producto estamos contratando. Para que
puedas utilizar esta información en la toma de decisión, queremos contarte cuáles
son los tipos de ERP más usados.

Tipos y ejemplos de ERP

Existen dos grandes clasificaciones a la hora de hablar de tipos de software ERP:


según su diseño y según su instalación.

Según su diseño: ERP a medida o predefinido.

El software a medida supone crear un sistema de ERP desde 0 para una empresa
en particular. Es una solución más costosa y que exige encontrar a la compañía
adecuada para llevarla a cabo, pero a cambio ofrece la máxima adaptabilidad.

Por el otro lado, las soluciones estándares o modulares son más baratas y rápidas
de implantar. Se contratan en base a módulos o paquetes en función de las
necesidades de cada empresa; existen incluso soluciones prediseñadas para un

111
tipo de empresa muy concreto, por ejemplo bodegas. El software concreto a escoger
estará en función del tamaño de cada empresa:

Empresas grandes: los más comunes son SAP y Microsoft Dynamics.

PYMES: Microsoft Navision, SAGE X3, SAP Business One, A3 ERP.

Para empresas pequeñas y medianas, existen muchas posibilidades para crear un


ERP en la nube o a través de software libre como por ejemplo Open ERP.

Según su instalación: ERP en local o en la nube

La segunda tipología se refiere a la forma en la que va a estar instalado el software.


Algunos programas de este tipo se realizan en local, es decir, que se instalan en el
entramado informático de la propia empresa para que pueda ser utilizado en uno o
varios equipos dentro de la sede del negocio.

En cambio, una solución en la nube supone la ventaja añadida de que se puede


usar desde cualquier lugar donde haya una conexión a Internet, porque está ubicado
en un servidor concreto. Esto significa que su funcionamiento no se reduce
solamente a la sede de la empresa, sino que permite una mayor versatilidad en este
sentido.

¿Cómo escoger una u otra solución de ERP?

Esto va a depender fundamentalmente de las necesidades de tu negocio y también


de tu presupuesto, por eso antes de elegir una u otra opción debes estudiar bien las
opciones que tienes a tu disposición.

112
Muchas empresas se dejan llevar por la importancia de disponer de un ERP en su
línea de negocio y se precipitan en su elección, por eso antes de hacerlo es
importante que te hagas preguntas como estas:

¿Cuáles son mis necesidades concretas?: Si eres una gran empresa o trabajas en
un sector concreto con características muy marcadas, tal vez necesites un software
hecho a medida, pero si estás empezando o tus necesidades son más acotadas,
quizás puedas conformarte con uno prediseñado.

¿Cuál es mi volumen de trabajo?: Esto va a influir en el tipo de producto que elijas,


con más o menos módulos e incluso con una suscripción más amplia que te permita
disfrutar de más recursos.

¿De qué presupuesto dispongo?: Este es un aspecto importante a la hora de pensar


en una u otra solución. Aunque hay servicios de ERP prediseñados que son muy
asequibles, tienes que hacer un estudio de rentabilidad que te permita disfrutar de
la mejor calidad sin salirte del presupuesto.

¿Qué departamentos tiene mi empresa y cómo trabajan?: Dar respuesta a esta


pregunta te ayudará a elegir los módulos que necesitas para tu ERP, así que tienes

113
que valorar tanto los departamentos con los que cuenta ahora como la posibilidad
de añadir módulos en base al crecimiento de tu negocio.

De esta forma, podrás encontrar un ejemplo de ERP que cumpla con todas estas
premisas y te garantice un trabajo rentable y un retorno de la inversión.

114
Hardware

Historia del hardware

Esta máquina electrónica fue desarrollada por John Presper y John William Mauchly
y constituyo las bases de la ENIAC que son las siglas en ingles de Electronic
Numerical Integrador and Computer (Computador e Integrador Numérico
Electrónico), que hizo su aparición en 1946 en la Universidad de Pennsylvania.

La segunda guerra mundial provoco gran interés en el desarrollo de las


computadoras, ya que lo imponían como un gran avance tecnológico.

Tenía grandes dimensiones por lo cual abarcaba un gran espacio además de su


impresionante peso lo cual era de 27 toneladas.

La clasificación del hardware del computador electrónico está dividida en cuatro


generaciones, donde cada una genero un cambio tecnológico muy notable. Estas
son:

1ª generación (1954-1959)

Esta generación se identifica por el hecho que la tecnología electrónica estaba


basada en "tubos de vacío", más conocidos como bulbos electrónicos, del tamaño
de un foco de luz casero. Los sistemas de bulbos podían multiplicar dos números
de diez dígitos en un cuarentavo de segundo.

115
En aquel entonces las computadoras ya
manejaban información alfabética, numérica y
utilizaban el principio de separación entre los
dispositivos de entrada-salida y la computadora
misma.
Las características principales del hardware del
dispositivo de dicha generación son:
1. Tubos al vacío (válvulas electrónicas): los cuales eran utilizados para
modificar las señales eléctricas. Gracias a estas válvulas fue que
revoluciono la manera en que hoy en día utilizamos la electrónica.

2. Ordenador ENIAC: este ordenador era de dimensiones bastante


grandes y llegaba a pesar hasta las
30 toneladas.

3. Alto consumo de energía: Este gran invento requería de un gran


voltaje de los tubos era de 300 volts y la posibilidad de fundirse era
grande.

116
4. Almacenamiento de la información en tambor magnético interior: un
tambor magnético disponía de su interior del ordenador, recogía y
memorizaba los datos y los programas que se le suministraban
mediante tarjetas.

2ª generación (1959-1964)

Esta generación nace con el uso del "transistor", que sustituyó a los bulbos
electrónicos. Entre las ventajas de los transistores a comparación de los bulbos se
encuentran: su menor tamaño, no necesitan tiempo de calentamiento, consumen
menos energía, son más rápidos y confiables.
Características principales de esta época:
1. Memoria principal mejorada constituida por núcleos magnéticos.

2. Instalación de sistemas de teleproceso.


3. Tiempo de operación del rango de microsegundos (realizan 100 000
instrucciones por segundo).
4. Aparece el primer paquete de discos magnéticos movibles como
medio de almacenaje (1962).

117
3ª generación (1964-1971)
En esta época se desarrollan los circuitos integrados (un circuito electrónico
completo sobre una pastilla o también llamada chip de silicio) que constaban de la
agrupación de unos cuantos transistores. Estos estaban hechos de uno de los
elementos más abundantes en la corteza terrestre, el silicio, una sustancia no
metálica que se encuentra en la arena común de las playas y en prácticamente en
todas las rocas y arcilla. Cada pastilla, de menos de 1/8 de pulgada cuadrada,
contiene miles o millones de componentes electrónicos entre transistores, diodos y
resistencias.
Hasta 1970 las computadoras mejoraron dramáticamente en velocidad,
confiabilidad y capacidad de almacenamiento.
En dicha época las computadoras ya no eran tan grandes como antes gracias a que
acomodaban los transistores con un solo circuito integrado y esto los ayudo a
mejorar la escala.
Características de la computadora del hardware de esta época:
1. Menos cableado.

2. Renovación de periféricos.
3. Computadores más pequeños.
4. Teleproceso.
5. Aplicación del chip.

118
4ª generación (1971-1987)
En esta época las personas que intuían en mejorar todavía más su producto. Lo que
se quería crear en ese momento era la reducción a tamaño mini del ordenador. Para
lograr esto decidieron comprimir los circuitos en cada vez un chip más pequeño.

En dicha época llegaron los reconocidos microprocesadores.

5ª generación (comenzó en 1980)


En la década de 1980 se llevó a cabo una revolución en las computadoras y su
diseño como en sus arquitecturas y sus niveles de cache. En 1980 se llevaron a
cabo los primeros avances y por eso se considera el inicio de la quinta generación
en este año.
Se desarrollan las microcomputadoras y cada vez más factibles, o sea,
computadoras personales o también llamadas PC.
En general en esta época se desarrollan las supercomputadoras.
Características de la quinta generación de computadoras:
1. Los ordenadores de la quinta generación de computadoras estarán hechos
con microcircuitos de alta integración que funcionarán con un alto grado de
paralelismo imitando algunas características de las redes neurales con las
que funciona el cerebro humano.

119
2. La quinta generación de computadoras cuenta con computadoras con
inteligencia artificial.
3. Existe una interconexión entre todo tipo de computados, dispositivos y redes
integradas.
4. Integración de datos, imágenes y voz.
5. La quinta generación de computadoras cuenta con ordenadores que utilizan
el lenguaje de la quinta generación:
lenguaje natural.

Origen etimológico

El origen etimológico de la palabra o término hardware que ahora vamos a analizar


en profundidad lo encontramos claramente en el idioma inglés. Está conformado por
la unión de dos vocablos de la lengua anglosajona: hard que puede traducirse como
“duro” y ware que es sinónimo de “cosas”.

Definición actual

Hardware en informática se refiere a toda la parte física tangible de un sistema


informático. Es decir se refiere a todos los objetos o materiales que se pueden tocar
o que aunque no estemos tocando son partes tangibles de nuestro sistema
informático que lo componen. En general se refiere a los componentes electrónicos,
eléctricos, electromecánicos y mecánicos del sistema. Algunos claros ejemplos son:

 Discos.
 Unidades de discos.
 Monitor.

120
 Teclado.
 Impresora.
 Ratón.
 Placas.
 Chips.
 Circuitos integrados.
 Fuentes de alimentación.
 Memorias.
 Lectoras.
 Cables.
 CD-ROM.
 Terminales.
 Fuente de alimentación.
 Microprocesador.
 Zócalo.

Estas partes tangibles se dividen en 2:

1. Internos: está formado por todos


aquellos elementos físicos que están
dentro del dispositivo principal.

2. Externos: son aquellos que están fuera del dispositivo, algunas veces
llamados periféricos.

121
Clasificación del hardware

La clasificación del hardware se divide en 2 categorías: el hardware principal o


básico, lo cual es el conjunto de componentes indispensables o necesarios para
que la computadora funcione; y por otro lado, el hardware complementario, que,
como su nombre indica, es el utilizado para realizar funciones específicas (más allá
de las básicas), no necesarias para el funcionamiento de la computadora.

Básico: es aquel al que la computadora necesita para su funcionamiento en general


como el mouse, el teclado, la pantalla y el CPU los cuales son las bases principales
de este aparato electrónico.

Complementario: es aquel del que la


computadora no necesita para su principal
funcionamiento pero al menos es comodidad
para el usuario como impresora, cámara,
escáner o bocinas.

122
Componentes principales del hardware (descripción)

Tarjeta madre:

La tarjeta madre, es el esqueleto o soporte en el cual se encuentran conectados los


componentes electrónicos del computador. En realidad es una lamina, de color
verde, empleada como soporte y medio de comunicación etre los diversos
componentes que se encuentran sobre ella.

Esta tarjeta tiene como función principal controlar todos los elementos del servidor,
de ella depende que dichos componentes estén bien comunicados unos de otros
para garantizar el funcionamiento del sistema, es por eso que es un dispositivo muy
importante dentro del computador.

Lo fundamental de una tarjeta madre es su calidad, es una unidad que debemos


escoger con mucho cuidado. Una tarjeta de baja
calidad pondría en riesgo al equipo y a su
rendimiento, además puede hacer que el
computador se vuelva inestable, causando
bloqueos repetitivos en el sistema operativo.

Las tarjetas más utilizadas para procesadores son las Intel y las AMD.

123
Fuentes de poder:

Podemos tener una computadora con lo más rápido y potente de todo el mundo,
con una gran cantidad de RAM, procesadores de muchos núcleos y la más completa
de las tarjetas madre, sin embargo, todo ello depende de un pequeño dispositivo
llamado Fuente de alimentación, sin la cual ninguno de estos componentes podría
funcionar.

La fuente de alimentación de una pc es la encargada de suministrar la energía que


todos los componentes y periféricos necesitan para que estos puedan funcionar.
Para algunos usuarios es la parte de componentes del hardware que es más
importante para una pc.

Una fuente de alimentación recibe directamente los 220 voltios de la red eléctrica
que se le administra pero esta los reduce a 3.3, 5 y 12 voltios, que, es lo que
necesitan los componentes internos de una pc para su buen funcionamiento.

¿Cómo hace esto? Pues gracias a los capacitores, resistencias, diodos y


transformadores que residen dentro de nuestra fuente de alimentación.

124
Potencia de una fuente de alimentación:

Lo más importante para nuestra pc en general considerando la fuente de poder es


el saber cuántos watts nos ofrece ya que hay diferentes estilos que nos ofrecen una
cantidad de watts diferente.

A mayor potencia, es decir mayor cantidad de Watts que puede ofrecer la fuente,
mejor, ya que podremos instalar más placas o usar algunas que necesiten de más
potencia.

Por ejemplo, si en nuestra computadora tenemos instaladas placas de video de gran


capacidad, o más de una, además de otros tipos de tarjetas que no son estándar en
su consumo eléctrico, lo mejor será tener montada una fuente de alimentación de
800W o 1000W.

En cambio, si nuestra PC no es sometida a este tipo de carga, incluso si la usamos


para el diseño gráfico, juegos u otras actividades no tan extremas, podemos usar
tranquilamente una fuente de entre 450W y 500W. En este punto, debemos tener
cuidado, ya que a veces, los fabricantes no informan correctamente de la potencia
real que puede entregar el
dispositivo.

Memoria cache:

La palabra procede del francés


cache que significa escondido u
oculto.

En informática, la memoria caché es


la memoria de acceso rápido de una unidad central de procesamiento (CPU), que
guarda temporalmente los datos recientes de los procesados.

125
Disco duro:

El disco duro es el dispositivo del sistema de memoria del PC que usamos para
almacenar todos los programas y archivos ya que es el único capaz de guardar
datos incluso aunque no esté alimentado por corriente eléctrica.

126
CPU

Historia del CPU

Los primeros ordenadores, como el ENIAC, tenían que ser físicamente recableados
para realizar diferentes tareas, lo cual hizo que estas máquinas se denominaran
"ordenadores de programa fijo". Dado que el término "CPU" generalmente se define
como un dispositivo para la ejecución de software (programa informático), los
primeros dispositivos que con razón podríamos llamar CPU vinieron con el
advenimiento del ordenador con programa almacenado.

La idea de un ordenador con programa almacenado ya era una idea que habían
establecido John Presper Eckert y en el ENIAC de John William Mauchly.

El 30 de junio de 1945, antes de que se construyera la ENIAC, el matemático John


von Neumann distribuyó el trabajo llamado First Draft of a Report on the EDVAC
(Primer Borrador de un Reporte sobre el EDVAC).

Fue el boceto de un ordenador de programa almacenado, que se terminó en agosto


de 1949.

EDVAC fue diseñado para realizar un cierto número de instrucciones (u


operaciones) de varios tipos. Significativamente, los programas escritos para el

127
EDVAC se crearon para ser almacenados en la memoria de alta velocidad del
ordenador y no para que los especificara el cableado físico del ordenador. Esto
superó una severa limitación del ENIAC, que era el importante tiempo y esfuerzo
requerido para volver a configurar el equipo para realizar una nueva tarea. Con el
diseño de von Neumann, el programa o software que corría EDVAC podría ser
cambiado simplemente cambiando el contenido de la memoria.

CPU (UCP)

La unidad central de procesamiento o unidad de procesamiento central (conocida


por las siglas CPU, del inglés: central processing unit), es el hardware dentro de un
ordenador, que interpreta las instrucciones de un programa informático mediante la
realización de las operaciones básicas aritméticas, lógicas y de entrada/salida del
sistema.

En pocas palabras se encarga de procesar la información.

El CPU cuenta con 3 subunidades:

1. Unidad de control.

La UC determina el ritmo del proceso de los diferentes datos, coordinando el


desarrollo dichas instrucciones a través de las unidades de memoria y de aritmética
y lógica, de acuerdo con los requerimientos del programa almacenado.

128
La unidad de control es el cerebro del equipo: supervisa el proceso de las demás
unidades de la unidad central del proceso y puede permitir una autonomía a las
demás unidades; esto depende del tipo y marca de computadora.

La UC debe determinar cuál instrucción debe ejecutarse, qué operaciones deben


realizarse y la dirección en donde se encuentran los datos que deben procesarse
en un momento dado. Para esto, cuenta con el auxilio de la unidad de control de
memoria.

En resumen: la unidad de control interpreta instrucciones, determina que éstas se


ejecuten, direcciona y controla la operación de todas las unidades en el sistema de
cómputo.

2. Unidad de aritmética lógica.

Es un circuito digital que calcula operaciones aritméticas (como suma, resta,


multiplicación, etc.) y operaciones lógicas (si, y, o, no), entre valores (generalmente
uno o dos) de los argumentos.

Contiene:

 Circuitos.
 Unidad de control de procesos.
 Registros.
 Unidad de algoritmos.

129
3. Registros.

Para realizar todas estas operaciones, la UC dispone de pequeños espacios de


almacenamiento, denominados registros.

Los registros son circuitos conectados en una serie conectada en cascada.

Aplicaciones:

 Convierte datos en serie y en paralelo.


 Almacenamiento de información (memoria).
 Transmite datos en serie y en paralelo.

Funciones generales del CPU.

1. Localizar y transferir la información.


2. Determinar el tipo de instrucción.
3. Verificar la disponibilidad de los componentes involucrados.
4. Ejecutar la instrucción.
5. Supervisar la operación para una satisfactoria ejecución.

130
Partes del CPU.

Gabinete:

El gabinete de una computadora es uno de los elementos más importantes de la


PC, ya que su principal tarea es la de mantener en su interior los diversos
dispositivos que la componen.

Es importante, debido a que no cualquier gabinete sirve para cualquier


computadora, y esto es porque cada una de las motherboards y sus procesadores
necesitan de requerimientos específicos para un buen funcionamiento.

El gabinete de una PC es una pieza en la que se encuentran materiales como el


plástico y metales como el aluminio, y básicamente es una caja preparada para
colocar en su interior todos los componentes que conforman una PC, es decir
discos rígidos, motherboards, procesadores, memorias, placas etc.

En el mercado podemos encontrar gabinetes destinados para tan diversos usos


como servers, que son construidos con las dimensiones necesarias para ser
ubicados en los llamados racks, generalmente utilizados para grandes procesos
de datos. También podemos encontrar gabinetes HTPC (Home Theater PC),
diseñados para ser utilizados en conjunto con otros componentes de audio y
video, y para lo cual ostentan un aspecto más en concordancia con ese estilo de
componentes.

Dentro de la categoría de computadoras de escritorio, aquí sí podemos


encontrarnos con una amplia variedad de modelos con características que se
adecuan a toda clase de necesidades. Entre los modelos más conocidos, podemos
mencionar el llamado Barebone, que no es otra cosa que un gabinete de PC de muy
reducidas dimensiones, los gabinetes verticales minitower, midtower y tower,

131
esencialmente iguales en cuanto a la colocación de los dispositivos en su interior,
pero difieren en tamaño.

Asimismo, otro tipo de gabinete muy cotizado en el mercado es el denominado


Gamer, el cual, como su nombre lo indica, ofrece particularidades especiales para
los amantes de los juegos, tales como una mejor ventilación y la posibilidad de
utilizar fuentes de alimentación de mayor potencia.

Modding.

Los gabinetes también pueden sufrir modificaciones bastante importantes por parte
de sus propietarios, con el fin de adecuarlos aún más a sus propios requerimientos,
o con el simple hecho de variar su aspecto con motivos de pura estética.

A esta técnica de modificación de gabinetes se le denomina comúnmente


"modding", y alguna de estas modificaciones pueden llegar a convertirse en
verdaderas obras de arte, es más, dentro del ámbito inclusive se desarrollan
importantes congresos y ferias, las cuales pueden llegar a ser muy importantes en
relación a la cantidad de público asistente.

132
Elementos que podremos montar dentro de un gabinete:

- Fuente.

- Motherboard.

- Procesador.

- Placa de Vídeo.

- Placa de Sonido.

- Placa de Red.

- Unidades ópticas lectoras de DVD, Blu-Ray y lectoras de tarjetas.

- Memoria.

- Disco duro (HD).

Batería:

Elemento que permite que cada vez que encendemos la computadora, la


configuración de arranque siempre se encuentre disponible.

Sin esta batería sería imposible mantener con energía a determinados chips de la
placa como el BIOS o el reloj de tiempo real, sin los cuales una computadora no

133
podría funcionar correctamente, ya que con cada arranque deberíamos configurar
estos parámetros nuevamente, algo impensado e imposible en los tiempos que
corren.

Todavía es necesaria para sostener el ritmo del reloj de tiempo real (RTC) de la
misma, elemento sin el cual el almacenamiento de archivos, entre otras tareas, sería
un desastre. Este reloj es básicamente del mismo tipo del que llevamos en la
muñeca, es decir un cristal de cuarzo que marca el tiempo.

Cabe destacar que la batería de la placa base no se encenderá mientras la


computadora se encuentre en funcionamiento, solo entrará en acción cuando la
estemos utilizando.

Disquetera:

Una unidad de disquete o disquetera se utiliza para leer y escribir datos en


disquetes. Pueden ser internas, las cuales están integrados en una carcasa de
ordenador y las unidades externas que tienen su propia carcasa y que están
conectadas al ordenador a través de un cable. El disco de datos correspondiente se

134
llama disquete. Este es un soporte magnético de almacenamiento de datos con la
forma de un disco flexible de plástico recubierto de metal que se encuentra en un
estuche de protección.

Disipador de calor:

Un disipador es un instrumento que se utiliza para bajar la temperatura de algunos


componentes electrónicos.

Su funcionamiento se basa en la ley cero de la termodinámica, transfiriendo el calor


de la parte caliente que se desea disipar al aire. Este proceso se propicia
aumentando la superficie de contacto con el aire permitiendo una eliminación más
rápida del calor excedente.

Tarjetas de red:

Es una clase de tarjeta destinada a ser introducida en la placa madre de una


computadora o se conecta a uno de sus puertos para posibilitar que la máquina se

135
sume a una red y pueda compartir sus recursos (como los documentos, la conexión
a Internet o una impresora).

Funciones:

1. Transmisión y recepción, o lo que es lo mismo, envío y recepción de datos.


2. Accede al conector, que a su vez es el que permite que se pueda lograr el
acceso al cable de red.
3. Lleva a cabo la conversión de serial a paralelo.
4. Petición de escucha que se acomete con la red para, de esta manera,
proceder luego a la mencionada transmisión de la información.
5. Codifica y decodifica las señales de los cables en otras que sean entendibles.
6. Agrupa todo el conjunto de datos almacenados de tal manera que, llegado el
momento, se puedan transportar de una manera entendible y sencilla.
7. Comunicación con la correspondiente memoria o disco duro del ordenador.
8. Realiza el procedimiento conocido por el nombre de buffering. Un término
este con el que se define a la tarea de almacenamiento de información que
realiza dicha tarjeta de red para que luego aquellos datos se puedan
transmitir y traspasar haciendo uso de los correspondientes cables o
sistemas inalámbricos.

Ranuras de expansión:

Las ranuras de expansión son conectores largos y estrechos ubicados dentro del
computador. Una ranura de expansión permite insertar una tarjeta de expansión.

136
Casi todas las computadoras personales excepto las portátiles contienen ranuras
de expansión (internas), lo cual permite agregar más funcionabilidad como memoria,
tarjetas gráficas y soporte para dispositivos especiales.

El propósito de las ranuras de expansión es dar flexibilidad a las computadoras y


permitir actualizaciones de hardware; las ranuras de expansión, por ejemplo, te
permiten instalar en la computadora un nuevo módem, tarjetas de sonido y de video
en una computadora.

Las ranuras de expansión les permiten a los usuarios de computadoras actualizar y


preparar sus computadoras para que cumplan con sus necesidades; sin las ranuras
de expansión, sería difícil mantener actualizada una computadora y forzaría a las
personas a comprar una computadora nueva más a menudo, para deshacerse de
los equipos obsoletos.

Los tipos de ranuras de expansión son:

PCI.

Peripheral Interface Controller operan a 33 o 66 MHz y 64 bits. Este tipo de tarjetas


utilizan tecnología en paralelo. En términos más simples, utiliza una interfaz
audiovisual que permite que el computador pueda manejar más funciones.

PCI-X.

Es la última versión de la tecnología PCI operando a 66 MHz y 64 bits. También


utiliza tecnología en paralelo.

PCI Express.

Con un menor número de canales de datos, pero mucho más rápida que la
tecnología AGP. PCI-Express es más barata de diseñar y construir. Utiliza
tecnología en serie.

AGP.

Fue una ranura diseñada para las tarjetas gráficas. Se utilizó en una placa base
(tarjeta madre) que requerían de alta capacidad de procesamiento para gráficos.

137
AGP Pro.

Utilizada por ordenadores Mac que requieren de una alta capacidad de re-dibujar.
Un buen ejemplo sería un PC que ejecute AutoCAD. Algunas ranuras requieren
hasta 110W de potencia.

Las ranuras AGP Pro tuvieron un menor número de canales de datos, pero mucho
más rápido que la tecnología AGP. Este tipo de ranura era mucho más actualizable
y expandible. También utiliza tecnología en serie.

138
Memoria principal

Memoria primaria (MP), memoria principal, memoria central o memoria interna es la


memoria de la computadora donde se almacenan temporalmente tanto los datos
como los programas que la unidad central de procesamiento (CPU) está
procesando o va a procesar en un determinado momento. Por su función, la MP
debe ser inseparable del microprocesador o CPU, con quien se comunica a través
del bus de datos y el bus de direcciones. El ancho del bus determina la capacidad
que posea el microprocesador para el direccionamiento de direcciones en memoria.

En algunas ocasiones suele llamarse “memoria interna” porque a diferencia de los


dispositivos de memoria secundaria, la MP no puede extraerse tan fácilmente.

Tipos de memoria

 RAM.
 ROM.
 Almacenamiento secundario.

RAM

La memoria RAM (Random Access Memory Module o memoria de acceso aleatorio)


es un tipo de memoria que utilizan los ordenadores para almacenar los datos y
programas a los que necesita tener un rápido acceso.
Se trata de una memoria de tipo volátil, es decir, que se borra cuando apagamos el
ordenador, aunque también hay memorias RAM no volátiles (como por ejemplo las
memorias de tipo flash).
Los datos almacenados en la memoria RAM no sólo se borran cuando apagamos
el ordenador, sino que también deben eliminarse de esta cuando dejamos de
utilizarlos (por ejemplo, cuando cerramos el fichero que contiene estos datos).
Estas memorias tienen unos tiempos de acceso y un ancho de banda mucho más
rápido que el disco duro, por lo que se han convertido en un factor determinante
para la velocidad de un ordenador. Esto quiere decir que, dentro de unos límites, un
ordenador irá más rápido cuanta mayor sea la cantidad de memoria RAM que tenga
instalada, expresada en MegaBytes o GigaBytes.

139
Los chips de memoria suelen ir conectados a unas plaquitas denominadas módulos,
pero no siempre esto ha sido así, ya que hasta los ordenadores del tipo 8086 los
chips de memoria RAM estaban soldados directamente a la placa base.

En cuanto a los tipos de memoria RAM, la clasificación que podemos hacer es la


siguiente:

SDRAM: Las memorias SDRAM (Synchronous Dynamic RAM) son las utilizadas
actualmente (aunque por SDRAM se suele identificar a un tipo concreto de módulos,
en realidad todos los módulos actuales son SDRAM).

Son un tipo de memorias síncronas, es decir, que van a la misma velocidad del
sistema, con unos tiempos de acceso que en los tipos más recientes son inferiores
a los 10ns, llegando a los 5ns en los más rápidos.
Las memorias SDRAM se dividen a su vez en varios tipos:

 SDR: Los módulos SDR (Single Data Rate) son los conocidos normalmente
como SDRAM, aunque, como ya hemos dicho, todas las memorias actuales
son SDRAM. Se trata de módulos del tipo DIMM, de 168 contactos, y con
una velocidad de bus de memoria que va desde los 66MHz a los 133MHz.
Estos módulos realizan un acceso por ciclo de reloj. Este tipo de módulos se
denominan por su frecuencia, es decir, PC66, PC100 o PC133.

 DDR: Módulo DDR. Vemos que tiene una sola muesca de posicionamiento,
situada a la derecha del centro del módulo. Los módulos DDR SDRAM
(Double Data Rate SDRAM) son una evolución de los módulos SDR. Se trata
de módulos del tipo DIMM, de 184 contactos y 64bits, con una velocidad de
bus de memoria de entre 100MHz y 200MHz, pero al realizar dos accesos
por ciclo de reloj las velocidades efectivas de trabajo se sitúan entre los

140
200MHz y los 400MHz. Estas memorias tienen un consumo de entre 0 y 2.5
voltios. Este tipo de módulos se está abandonando, siendo sustituido por los
módulos del tipo DDR2.

 DDR2: Los módulos DDR2 SDRAM son una evolución de los módulos DDR
SDRAM. Se trata de módulos del tipo DIMM, en este caso de 240 contactos
y 64bits. Tienen unas velocidades de bus de memoria real de entre 100MHz
y 266MHz, aunque los primeros no se comercializan. La principal
característica de estos módulos es que son capaces de realizar cuatro
accesos por ciclo de reloj (dos de ida y dos de vuelta), lo que hace que su
velocidad de bus de memoria efectiva sea el resultado de multiplicar su
velocidad de bus de memoria real por 4. El consumo de estas memorias se
sitúa entre los 0 y 1.8 voltios, es decir, casi la mitad que una memoria DDR.

DRAM: Acrónimo de “Dynamic Random Access Memory”, o


simplemente RAM ya que es la original, y por tanto la más lenta.
Usada hasta la época del 386, su velocidad de refresco típica es
de 80 ó 70 nanosegundos (ns), tiempo éste que tarda en vaciarse
para poder dar entrada a la siguiente serie de datos. Por ello, la más rápida es la de
70 ns. Físicamente, aparece en forma de DIMMs o de SIMMs, siendo estos últimos
de 30 contactos.

FPM (Fast Page Mode): A veces llamada DRAM, puesto que evoluciona
directamente de ella. Algo más rápida, tanto por su estructura (el modo de página
rápida) como por ser de 70 ó 60 ns. Es lo que se da en llamar la RAM normal o
estándar. Usada hasta con los primeros Pentium, físicamente aparece como SIMMs
de 30 ó 72 contactos (los de 72 en los Pentium y algunos 486). Para acceder a este
tipo de memoria se debe especificar la fila (página) y seguidamente la columna.
Para los sucesivos accesos de la misma fila sólo es necesario especificar la
columna, quedando la columna seleccionada desde el primer acceso. Esto hace
que el tiempo de acceso en la misma fila (página) sea mucho más rápido. Era el tipo

141
de memoria normal en los ordenadores 386, 486 y los primeros Pentium y llegó a
alcanzar velocidades de hasta 60 ns. Se presentaba en módulos SIMM de 30
contactos (16 bits) para los 386 y 486 y en módulos de 72 contactos (32 bits) para
las últimas placas 486 y las placas para Pentium.

EDO o EDO-RAM: Extended Data Output-RAM. Evoluciona de la FPM. Permite


empezar a introducir nuevos datos mientras los anteriores están saliendo (haciendo
su Output), lo que la hace algo más rápida (un 5%, más o menos).
Mientras que la memoria tipo FPM sólo podía acceder a un solo byte (una
instrucción o valor) de información de cada vez, la memoria EDO permite mover un
bloque completo de memoria a la caché interna del procesador para un acceso más
rápido por parte de éste. La estándar se encontraba con refrescos de 70, 60 ó 50
ns. Se instala sobre todo en SIMMs de 72 contactos, aunque existe en forma de
DIMMs de 168.
La ventaja de la memoria EDO es que mantiene los
datos en la salida hasta el siguiente acceso a
memoria. Esto permite al procesador ocuparse de
otras tareas sin tener que atender a la lenta memoria.
Esto es, el procesador selecciona la posición de memoria, realiza otras tareas y
cuando vuelva a consultar la DRAM los datos en la salida seguirán siendo válidos.
Se presenta en módulos SIMM de 72 contactos (32 bits) y módulos DIMM de 168
contactos (64 bits).

SDRAM: Sincronic-RAM. Es un tipo síncrono de memoria, que, lógicamente, se


sincroniza con el procesador, es decir, el procesador puede obtener información en
cada ciclo de reloj, sin estados de espera, como en el caso de los tipos anteriores.
Sólo se presenta en forma de DIMMs de 168 contactos; es la opción para
ordenadores nuevos. SDRAM funciona de manera totalmente diferente a FPM o
EDO. DRAM, FPM y EDO transmiten los datos mediante señales de control, en la
memoria SDRAM el acceso a los datos esta sincronizado con una señal de reloj
externa.

142
PC-100 DRAM: La especificación para esta memoria se basa sobre todo en el uso
no sólo de chips de memoria de alta calidad, sino también en circuitos impresos de
alta calidad de 6 o 8 capas, en vez de las habituales 4; en cuanto al circuito impreso
este debe cumplir unas tolerancias mínimas de interferencia eléctrica; por último,
los ciclos de memoria también deben cumplir unas especificaciones muy exigentes.
De cara a evitar posibles confusiones, los módulos compatibles con este estándar
deben estar identificados así: PC100-abc-def.

BEDO (burst Extended Data Output): Fue diseñada originalmente para soportar
mayores velocidades de BUS. Al igual que la memoria SDRAM, esta memoria es
capaz de transferir datos al procesador en cada ciclo de reloj, pero no de forma
continuada, como la anterior, sino a ráfagas (bursts), reduciendo, aunque no
suprimiendo totalmente, los tiempos de espera del procesador para escribir o leer
datos de memoria.

RDRAM (Direct Rambus DRAM): Es un tipo de memoria de 64 bits que puede


producir ráfagas de 2ns y puede alcanzar tasas de transferencia de 533MHz, con
picos de 1,6 GB/s. Es el componente ideal para las tarjetas gráficas AGP, evitando
los cuellos de botella en la transferencia entre la tarjeta gráfica y la memoria de
sistema durante el acceso directo a memoria (DIME) para el almacenamiento de
texturas gráficas. Hoy en día la podemos encontrar en las consolas NINTENDO 64.

DDR SDRAM (Double Data Rate SDRAM o SDRAM-II): Funciona a velocidades de


83, 100 y 125MHz, pudiendo doblar estas velocidades en la transferencia de datos
a memoria. En un futuro, esta velocidad puede incluso llegar a triplicarse o
cuadriplicarse, con lo que se adaptaría a los nuevos procesadores. Este tipo de
memoria tiene la ventaja de ser una extensión de la memoria SDRAM, con lo que
facilita su implementación por la mayoría de los fabricantes.

143
SLDRAM: Funcionará a velocidades de 400MHz,
alcanzando en modo doble 800MHz, con transferencias de
800MB/s, llegando a alcanzar 1,6GHz, 3,2GHz en modo
doble, y hasta 4GB/s de transferencia. Se cree que puede
ser la memoria a utilizar en los grandes servidores por la
alta transferencia de datos.
ESDRAM: Este tipo de memoria funciona a 133MHz y alcanza transferencias de
hasta 1,6 GB/s, pudiendo llegar a alcanzar en modo doble, con una velocidad de
150MHz hasta 3,2 GB/s.
La memoria FPM (Fast Page Mode) y la memoria EDO también se utilizan en
tarjetas gráficas, pero existen además otros tipos de memoria DRAM, pero que sólo
de utilizan en tarjetas gráficas, y son los siguientes:

- MDRAM (Multibank DRAM): Es increíblemente rápida, con transferencias de hasta


1 Giga/s, pero su coste también es muy elevado.

- SGRAM (Synchronous Graphic RAM): Ofrece las sorprendentes capacidades de


la memoria SDRAM para las tarjetas gráficas. Es el tipo de memoria más popular
en las nuevas tarjetas gráficas aceleradoras 3D.
- VRAM: Es como la memoria RAM normal, pero puede ser accedida al mismo
tiempo por el monitor y por el procesador de la tarjeta gráfica, para suavizar la
presentación gráfica en pantalla, es decir, se puede leer y escribir en ella al mismo
tiempo.
- WRAM (Window RAM): Permite leer y escribir información de la memoria al mismo
tiempo, como en la VRAM, pero está optimizada para la
presentación de un gran número de colores y para altas
resoluciones de pantalla. Es un poco más económica que la
anterior.

144
SIMM: Siglas de Single In line Memory Module, un tipo de encapsulado consistente
en una pequeña placa de circuito impreso que almacena chips de memoria, y que
se inserta en un zócalo SIMM en la placa madre o en la placa de memoria. Los
SIMMs son más fáciles de instalar que los antiguos chips de memoria individuales,
y a diferencia de ellos son medidos en bytes en lugar de bits.

El primer formato que se hizo popular en los computadores personales tenía 3.5"
de largo y usaba un conector de 32 pins. Un formato más largo de 4.25", que usa
72 contactos y puede almacenar hasta 64 megabytes de RAM es actualmente el
más frecuente.

Un PC usa tanto memoria de nueve bits (ocho bits y un bit de paridad, en 9 chips
de memoria RAM dinámica) como memoria de ocho bits sin paridad. En el primer
caso los ocho primeros son para datos y el noveno es para el chequeo de paridad.

 SIMM de 72 contactos, los más usados en la actualidad. Se fabrican módulos


de 4, 8, 16,32 y 64 Mb.
 SIMM EDO de 72 contactos, muy usados en la actualidad. Existen módulos
de 4, 8, 16,32 y 64 Mb.
 SIMM de 30 contactos, tecnología en desuso, existen adaptadores para
aprovecharlas y usar 4 de estos módulos como uno de 72 contactos. Existen
de 256 Kb, 512 Kb (raros), 1, 2 (raros), 4, 8 y 16 Mb.
 SIPP, totalmente obsoletos desde los 386 (estos ya usaban SIMM
mayoritariamente).
DIMM: Siglas de Dual In line Memory Module, un tipo de encapsulado, consistente
en una pequeña placa de circuito impreso que almacena chips de memoria, que se
inserta en un zócalo DIMM en la placa madre y usa generalmente un conector de
168 contactos.
 DIMMs, más alargados (unos 13 cm), con 168 contactos y en zócalos
generalmente negros. Pueden manejar 64 bits de una vez, por lo que pueden
usarse de 1 en 1 en los Pentium, Pentium II y Pentium III. Existen para voltaje
estándar (5 voltios) o reducido (3.3 V).

145
Memoria caché: Un caché es un sistema especial de almacenamiento de
alta velocidad. Puede ser tanto un área reservada de la memoria principal como un
dispositivo de almacenamiento de alta velocidad independiente. Hay dos tipos de
caché frecuentemente usados en las computadoras personales: memoria caché y
caché de disco. Una memoria caché, llamada también a veces almacenamiento
caché ó RAM caché, es una parte de memoria RAM estática de alta velocidad
(SRAM) más que la lenta y barata RAM dinámica (DRAM) usada como memoria
principal. La memoria caché es efectiva dado que los programas acceden una y otra
vez a los mismos datos o instrucciones. Guardando esta información en SRAM,
la computadora evita acceder a la lenta DRAM.
Cuando un dato es encontrado en el caché, se dice que se ha producido un impacto
(hit), siendo un caché juzgado por su tasa de impactos (hit rate). Los sistemas de
memoria caché usan una tecnología
conocida por caché inteligente en el
cual el sistema puede reconocer cierto
tipo de datos usados frecuentemente.
Las estrategias para determinar qué
información debe de ser puesta en el
caché constituyen uno de los problemas más interesantes en la ciencia de las
computadoras. Algunas memorias caché están construidas en la arquitectura de
los microprocesadores. Por ejemplo, el procesador Pentium II tiene una caché L2
de 512 Kbytes.
El caché de disco trabaja sobre los mismos principios que la memoria caché, pero
en lugar de usar SRAM de alta velocidad, usa la convencional memoria principal.
Los datos más recientes del disco duro a los que se ha accedido (así como los
sectores adyacentes) se almacenan en un buffer de memoria. Cuando
el programa necesita acceder a datos del disco, lo primero que comprueba es la
caché del disco para ver si los datos ya están ahí. La caché de disco puede mejorar
drásticamente el rendimiento de las aplicaciones, dado que acceder a un byte de
datos en RAM puede ser miles de veces más rápido que acceder a un byte del disco
duro.

146
ROM
Una memoria ROM es aquella memoria de almacenamiento que permite sólo la
lectura de la información y no su destrucción, independientemente de la presencia
o no de una fuente de energía que la alimente.
ROM es una sigla en inglés que refiere al término "Read Only Memory" o "Memoria
de Sólo Lectura". Se trata de una memoria de semiconductor que facilita la
conservación de información que puede ser leída pero sobre la cual no se puede
destruir. A diferencia de una memoria RAM, aquellos datos contenidos en una ROM
no son destruidos ni perdidos en caso de que se interrumpa la corriente de
información y por eso se la llama "memoria no volátil".

Con frecuencia, las memorias ROM o de sólo lectura se usaron como principal
medio de almacenamiento de datos en los ordenadores. Por ser una memoria que
protege los datos contenidos en ella, evitando la sobreescritura de éstos, las ROM
se emplearon para almacenar información de
configuración del sistema, programas de arranque o
inicio, soporte físico y otros programas que no precisan
de actualización.
Hoy por hoy las computadoras pueden conservar
algunos de sus programas en ROM, pero la memoria flash se encuentra mucho más
difundida, incluso en teléfonos móviles y dispositivos PDA.

Además de las computadoras, consolas de videojuegos siguen utilizando


programas basados en la memoria ROM, como la Nintendo 64, Super Nintendo o
Game Boy.

Tipos de ROM:
PROM: Las memorias PROM (Programmable Read Only Memory, memoria
programable de solo lectura), fueron desarrolladas a fines de la década de los 70
por una compañía llamada Texas Instruments. Dichas memorias consisten en chips
que comprimen miles de fusibles (o diodos) capaces de "quemarse" mediante un
dispositivo denominado programador ROM, aplicando un alto voltaje (12V) a las

147
cajas de memoria a marcar. Los fusibles quemados corresponden a 0 y los demás
a 1. Por esto la memoria puede ser programada (pueden ser escritos los datos) una
sola vez a través de un dispositivo especial, un programador PROM. Estas
memorias son utilizadas para grabar datos permanentes en cantidades menores a
las ROMs, o cuando los datos deben cambiar en muchos o todos los casos.
Usos de las memorias PROM:

 El uso que se da a esta memoria suele ser de paginador del mapa de memoria
de un microprocesador direccionando a los diferentes dispositivos de entrada
salida y memorias de datos y programa.
 Generador de caracteres.
 Firmware de arranque, aunque esta característica está altamente superada por
las memorias EEPROM y FLASH que tienen una mayor capacidad y son
reprogramables infinidad de veces.

EPROM: Las memorias EPROM (Erasable Programmable Read Only Memory,


memoria programable y borrable de solo lectura), son memorias PROM que se
pueden eliminar. Estos chips disponen de un panel de vidrio que deja entrar los
rayos ultravioleta. Cuando el chip es sometido a rayos ultravioleta de una
determinada longitud de onda, se reconstituyen los fusibles, lo que implica que todos
los bits de memoria vuelven a 1. Por esta razón, este tipo de PROM se denomina
borrable.
EEPROM: Las memorias EEPROM (Electrically Erasable Programmable Read Only
Memory, memoria programable de solo lectura borrable eléctricamente) también
son memorias PROM borrables, pero a diferencia de estas, se pueden borrar
mediante una sencilla corriente eléctrica, es decir, incluso si se encuentran en
posición en el ordenador.

Existe una variante de estas memorias, conocida como memoria


flash (también Flash ROM o Flash EPROM). A diferencia de las memorias
EEPROM clásicas, que utilizan 2 o 3 transistores por cada bit a memorizar, la

148
memoria EPROM Flash utiliza un solo transistor. Además, la memoria EEPROM
puede escribirse y leerse palabra por palabra, mientras que la Flash únicamente
puede borrarse por páginas (el tamaño de las páginas disminuye constantemente).
Por último, la memoria Flash es más densa, lo que implica que pueden producirse
chips que contengan cientos de megabytes. De esta manera, las memorias
EEPROM son preferibles a la hora de tener que memorizar información de
configuración, mientras que la memoria Flash se utiliza para código programable
(programas de IT).

Memoria secundaria

La memoria secundaria, memoria auxiliar, memoria periférica o memoria externa,


también conocida como almacenamiento secundario, es el conjunto de dispositivos
y soportes de almacenamiento de datos que conforman el subsistema
de memoria de la computadora, junto con la memoria primaria o principal.

Puede denominarse periférico de almacenamiento o “memoria periférica”, en


contraposición a la ‘memoria central’, porque en
ocasiones puede considerarse como periférico de
Entrada/Salida.

La memoria secundaria es un tipo de almacenamiento


masivo y permanente (no volátil) con mayor capacidad
para almacenar datos e información que la memoria primaria que es volátil, aunque
la memoria secundaria es de menor velocidad. El proceso de transferencia de datos
a un equipo de cómputo se le llama "procedimiento de lectura". El proceso de
transferencia de datos desde la computadora hacia el almacenamiento se
denomina "procedimiento de escritura".

Características del almacenamiento secundario:


 Capacidad de almacenamiento grande.
 No se pierde información a falta de alimentación.
 Altas velocidades de transferencia de información.
 Mismo formato de almacenamiento que en memoria principal.

149
 Siempre es independiente del CPU y de la memoria primaria. Debido a esto,
los dispositivos de almacenamiento secundario, también son conocidos
como, Dispositivos de Almacenamiento Externo.
Tipos de dispositivos de almacenamiento masivo:
Cinta magnética: La cinta magnética es un tipo de medio o soporte
de almacenamiento de datos que se graba en pistas sobre una banda plástica con
un material magnetizado, generalmente óxido de hierro o algún cromato. El tipo de
información que se puede almacenar en las cintas magnéticas es variado,
como vídeo, audio y datos. Hay diferentes tipos de cintas, tanto en sus medidas
físicas como en su constitución química, así como diferentes formatos de grabación,
especializados en el tipo de información que se quiere grabar.
Las unidades de cinta magnética pueden almacenar más de un billón de bytes de
datos en un solo cartucho.

Los dispositivos informáticos de almacenamiento masivo de


datos de cinta magnética son utilizados principalmente
para respaldo de archivos, y para el proceso de información de
tipo secuencial, como en la elaboración de nóminas de las
grandes organizaciones públicas y privadas. Al almacén donde se guardan estos
dispositivos se lo denomina cintoteca.

Tipos de cintas magnéticas:

 Bobinas abiertas: Inicialmente, las cintas magnéticas para almacenamiento


estaban enrolladas en grandes bobinas (10.5 pulgadas). Éste fue el estándar
por defecto en los grandes computadores de finales de los 80. Las cintas
en cartucho y los casetes estuvieron disponibles tanto a principio como a
mediados de los 70 y fueron frecuentemente usados con pequeños sistemas.

 UNIVAC: La cinta magnética fue el medio usado para la primera grabación


de un ordenador en 1951 en el Eckert-Mauchly UNIVAC I (el primer
ordenador personal). La unidad de cinta (dispositivo de grabación) fue una
delgada cinta de metal de media pulgada (12.7mm) de ancho, consistente en

150
una aleación de bronce y fósforo con niquel-plata (llamado Vicalloy). La
densidad de grabación era de 128 caracteres por pulgada
(0.0198mm/carácter) en 8 pistas a una velocidad lineal de 100 pulgadas por
segundo (2.54 m/s), dando un rendimiento de 12,800 caracteres por
segundo.

 Formatos de IBM: Los ordenadores IBM de los 50 usaban cinta cubierta


de óxido-férrico similar a la usada en la grabación de audio. La tecnología de
IBM pronto se convirtió en el estándar de la industria. Las dimensiones de
una cinta magnética eran 0.5" (12.7 mm) de ancho y enrolladas sobre
bobinas intercambiables de 10.5 pulgadas (267 mm) de diámetro. Diferentes
longitudes de cinta estaban disponibles con 1200', 2400' con una milipulgada
y media de grosor fueron algo estándar.

 Formato DEC: 'LINCtape', y su derivado 'DECtape', fueron variaciones de


esta "cinta redonda". Eran esencialmente medios de almacenamientos
personales. La cinta tenía una anchura de ¾ y ponía en relieve un formato
fijo de pista, a diferencia de la cinta estándar, haciendo factible leer y escribir
bloques repetidamente en una posición. LINCtapes y DECtapes tenían una
capacidad y una tasa de transmisión de datos similar al disquete que las
desplazó, pero sus tiempos de búsqueda eran del orden de 30 segundos a
un minuto.

Discos magnéticos: Un disco magnético está constituido por una superficie metálica
o plástica recubierta por una capa de una sustancia magnética. Los datos se
almacenan mediante pequeños cambios en la imanación, en uno u otro sentido. El
plato o disco puede ser de plástico flexible o puede ser rígido. En el primer caso
tenemos disquetes o discos flexibles (en inglés floppy disk o disquetes) y en el
segundo caso discos rígidos o duros.

Tanto en los discos rígidos como en los flexibles la


información se graba en circunferencias concéntricas,
no notándose visualmente las zonas grabadas. Cada
una de las circunferencias concéntricas grabadas

151
constituye una pista. Así mismo el disco se considera dividido en arcos iguales
denominados sectores, de esta forma cada pista está compuesta de sectores. Los
sectores de las pistas más exteriores son de mayor longitud que las interiores, ahora
bien el número de bits grabados en cada sector es siempre el mismo, con lo que la
densidad de grabación será mayor en las pistas interiores que en las exteriores. Los
sectores comienzan con una cabecera de identificación, indicando su dirección
completa. Un cilindro es un conjunto de pistas, una en cada disco, que son
accesibles simultáneamente por el conjunto de cabezas.

Discos duros: El disco duro es el dispositivo del sistema de memoria del PC que
usamos para almacenar todos los programas y archivos ya que es el único capaz de
guardar datos incluso aunque no esté alimentado por corriente eléctrica. Esto es lo
que lo diferencia de otras memorias de tu equipo, como por ejemplo la RAM, que es
la usada para hacer funcionar los programas ya que estas
pierden la información en caso de falta de energía.

La característica más importante de un disco duro es su


capacidad de almacenaje. Esta se suele medir en
Gigabytes o Terabytes. Cuanto mayor sea, más
canciones, películas, documentos, y programas puede
contener.

Otro dato a tener en cuenta es la velocidad de transferencia. Esta define la cantidad


de información que es capaz de leer o grabar por segundo el dispositivo. Sin embargo
aunque parezca que no esta velocidad no define como se comportara un disco ya
que importa la latencia.

Este número es el tiempo que tarda el disco duro en localizar un dato. Lo ideal sería
una latencia lo más baja posible y una velocidad de transferencia lo más alta posible.
Más sobre esto en especificaciones técnicas disco duro.

152
Tipos de discos duros:

 Magnéticos: También conocidos como discos rígidos. Tienen en su interior


varios discos en los cuales se almacena la información usando campos
magnéticos. Estos giran y un cabezal se encarga de leer y escribir. Su
funcionamiento es muy parecido a los tocadiscos.
 Estado sólido: También conocidos como SSD. En estos no se usan discos
giratorios sino matrices de transistores. Cada transistor se encarga de guardar
una unidad de información. No existen partes móviles, con lo cual el acceso
se realiza de manera más rápida, son más resistentes a golpes, consumen
menos, no hacen ruido, en definitiva son un salto cualitativo importante.
 Según su interfaz: La interfaz es el tipo de conector usado para conectarse a
otros dispositivos. Van desde los antiguos IDE a los nuevos SATA o PCI
Express o los pensados para para SSD como M.2, mSATA y SATA Express.
En la actualidad los PCI Express usado en los SSD son los que más velocidad
pueden darte.
 Según su localización:

o Internos: Como su propio nombre indica se encuentran en el interior de


la caja del PC.
o Externos: Los discos duros externos se conectan al PC a través de una
conexión USB o SATA externa. Son más lentos y sirven para
almacenar la información que no usamos todos los días.

Disquetes: Un disquete es también llamado diskette o disco flexible (floppy disk). Es


un cartucho plástico rectangular para almacenar información. Se trata de una clase
de discos magnéticos, porque emplea una lámina circular de material magnetizable
y flexible donde se almacena la información, encerrada en
una cubierta plástica.
Las dos versiones más conocidas para PC son: la más
antigua de 5 1/4 pulgadas y la de 3 1/2 pulgadas, ambas
prácticamente sin uso en la actualidad porque fueron

153
superadas por memorias USB, discos ópticos, almacenamiento en la nube y discos
duros.

Son llamados discos flexibles, porque contrastan con los discos rígidos. La
información contenida en estos puede perderse o afectarse fácilmente con el
tiempo, el polvo, la humedad, el magnetismo, el calor, etc.

La versión de 5 1/4 podía llegar a almacenar hasta 1,2 MB. La versión 3 1/2
pulgadas almacenaban 1,44 MB en general. Aunque había otras versiones con
diversas capacidades que iban de los 79,6 KB a los 240 MB (SuperDisk).

RAID: Un RAID es un sistema de almacenamiento de datos formado por la unión de


múltiples unidades de disco entre los que se distribuyen o copian los datos.
Dependiendo del modelo que escojamos los beneficios serán, mayor capacidad,
mayor rendimiento, mayor tolerancia frente a fallos, etc.

Por la forma de implementar un RAID en nuestro sistema podemos distinguir


principalmente dos formas, por hardware o por software, aunque también existen
implementaciones híbridas.

 RAID por hardware: Es el que encontramos en servidores y equipos de alto


rendimiento, son sistemas montados gracias a controladoras de discos que
se encargan de gestionar el RAID por si mismas con sus propios
procesadores y memoria de manera que alivian de carga a la CPU. El
sistema es ajeno al RAID y lo detecta como un único disco. Este sistema es
más fiable y más rápido pero también mucho más caro.
 RAID por software: En este caso es el propio sistema quien se encarga de
crear, montar y gestionar el RAID sobre una serie de discos físicos. Ofrece
la solución más barata al ahorrarse el dinero de las controladoras y hoy en
día en el que los equipos son más potentes el rendimiento ya es

154
considerable. Además otra ventaja que tiene es que es mucho más fácil
llevarse el RAID a otros servidores al ser gestionado por el SO.

Tipos de RAID:

RAID 0: En un RAID 0 se distribuyen los datos equitativamente entre uno y más


discos duros. Los discos que lo componen pueden ser de distinto tamaño pero en
ese caso de cada uno solo se utiliza hasta el tamaño del disco más pequeño. El
RAID 0 creado será una partición lógica cuya tamaño total es igual a la suma del
tamaño válido de los discos que lo forman.
La ventaja obvia en un RAID 0 es la velocidad puesto que un dato se encuentra
dividido en varios discos y no es uno solo el encargado de leerlo o escribirlo.

RAID 1: En un RAID 1 el disco con el que se trabaja se va copiando a su vez en el


resto de discos que forman el RAID que actuaran como espejo. Si se estropea dicho
disco automáticamente se puede continuar trabajando con los otros. Por lo tanto en
un RAID 1 el tamaño total no aumenta y será siempre igual al tamaño de nuestro
disco de trabajo como si no existiera dicho RAID.
La ventaja evidente en este caso es de seguridad, se garantiza la integridad de los
datos.

RAID 5: En este tipo de RAID los datos se distribuyen entre todos los discos que
forman el RAID menos en uno que alojará la información de paridad de tal manera
que si nos falla un disco del RAID los datos podrán ser recuperados utilizando esa
información más la que posean el resto de discos que no han fallado.

RAID 01: Los RAID que son combinaciones de los anteriores más sencillos. El
primero es el RAID 01 (0 +1). En este tipo de RAID los datos se distribuyen en un

155
grupo de discos formando un RAID 0 y este conjunto es espejado mediante un RAID
1 en estructuras idénticas.
Con este tipo de RAID tenemos la velocidad del RAID 0 pero con un poco más de
seguridad porque si nos falla el primer RAID 0 con el que trabajaremos podremos
continuar exactamente en el mismo punto en uno de los otros que son un espejo
del primero.

RAID 10: El RAID 10 (1+0) es justo al revés que un RAID 01. En este caso tenemos
que los datos se distribuyen entre discos de diferentes RAID donde a su vez serán
espejados formando un RAID 1. De esta manera tenemos la seguridad de un RAID
1 con la velocidad de un RAID 0. Es por lo tanto un tipo de RAID de los más
utilizados.

RAID 50: Un RAID 50 (0+5) es aquel en el que los datos se distribuyen entre varias
estructuras de RAID 5. Sobre un RAID 10 sería más rápido y casi igual de seguro
dependiendo del número de discos utilizados que en este caso como mínimo
deberían ser 6.

Discos ópticos: Un disco óptico es un dispositivo que sirve


para almacenar datos en forma digital. Consiste en un
disco de forma circular en el cual los datos se guardan en
unos surcos microscópicos, que se van creando durante la
grabación, con un láser específico.

El patrón de codificación bajo el cual se almacena la


información en los discos ópticos se crea en forma de espiral, que va desde el centro
hacia afuera, ocupando el espacio del disco necesario.

Dependiendo del formato, los discos ópticos pueden almacenar y servir para
reproducir diferentes tipos de datos. En base al formato también varía la capacidad
de almacenamiento de los mismos.

Para grabar datos en un disco óptico se usa generalmente un ordenador, con


hardware capacitado para tal fin, denominado grabador o regrabador. Para la

156
reproducción existen diferentes dispositivos, como ordenadores, reproductores para
automóvil o reproductores personales, entre otros.

Discos magnético-óptico: Un disco magneto-óptico es un tipo de disco óptico capaz


de escribir y reescribir los datos sobre sí. Al igual que un CD-RW, puede ser utilizado
tanto para almacenar datos informáticos como pistas de audio. La grabación
magneto-óptica es un sistema combinado que graba la información de forma
magnética bajo la incidencia de un rayo láser, y la reproduce por medios ópticos.

No es posible alterar el contenido de los discos magneto-ópticos por medios


únicamente magnéticos, lo que los hace resistentes a este tipo de campos, a
diferencia de los disquetes. Los fabricantes de este tipo de soportes aseguran que
son capaces de almacenar datos durante 30 años sin distorsiones ni pérdidas.

Las unidades de grabación de discos magneto-ópticos


verifican la información después de escribirla, del
mismo modo que las disqueteras, reintentando la
operación en caso de falla o informando al sistema
operativo si no puede efectuarse. Esto provoca una
demora en la escritura tres veces superior a la lectura,
pero hace que los discos sean sumamente seguros, a
diferencia de los CD-R o DVD-R en los que los datos son escritos sin ninguna
verificación.

Los discos de almacenamiento magneto-óptico suelen ser reconocidos por


el sistema operativo como discos duros, ya que no requieren de un sistema de
ficheros especial y pueden ser formateados en FAT, HPFS, NTFS, etcétera.

Actualmente su uso principal es como sistema de copia de seguridad de rápida


disponibilidad y como unidad NAS para almacenar datos que suelen cambiar poco
y donde mayoritariamente se añaden nuevos ficheros, como una base de datos
documental o las digitalizaciones de catálogos, libros, periódicos y documentos.

DVD: El DVD, del inglés "Digital Versatile Disc" ("Disco Versátil Digital", aunque
conocido en un principio como Digital Video Disc debido a su popular uso en

157
películas), es un formato de almacenamiento óptico que puede ser usado para
guardar datos, incluyendo películas con alta calidad de vídeo y audio. Se asemeja
a los discos compactos en cuanto a sus dimensiones físicas (diámetro de 12 u 8
cm), pero están codificados en un formato distinto y a una densidad mucho mayor.
A diferencia de los CD, todos los DVD deben guardar los datos utilizando un sistema
de archivos denominado UDF.

Un DVD de capa simple puede guardar hasta 4,7 Gb según los fabricantes en base
decimal y aproximadamente 4,377 Gb reales en base binaria o alrededor de siete
veces más que un CD de lectura.

El DVD usa un método de codificación más eficiente en la capa física: los sistemas
de detección y corrección de errores utilizados en el CD. El subcódigo de CD fue
eliminado. Como resultado, el formato DVD es un 47% más eficiente que el CD-
ROM, que usa una tercera capa de corrección de errores.

A diferencia de los discos compactos, donde el sonido (CDDA) se guarda de manera


fundamentalmente distinta que los datos, un DVD correctamente creado siempre
contendrá datos siguiendo los sistemas de archivos UDF e ISO 9660.

Tipos de DVD:

 Según su contenido:
o DVD-Video: Es un formato de video de consumo usado para
almacenar vídeo digital en discos DVD, y es actualmente el formato
de video de consumo dominante en todo el mundo. Los discos que
usan la especificación DVD-Video necesitan de una unidad de DVD y
un decodificador MPEG-2.
o DVD-Audio: También conocido como DVD-A, es un
formato de audio de alta definición en DVD.
o DVD-Data: Todo tipos de datos.
 Según su capacidad de regrabado:

158
o DVD-ROM: Es un disco con la capacidad de ser utilizado para leer o
reproducir datos o información (audio, imágenes, video, texto, etc.), es
decir, puede contener diferentes tipos de contenido como películas
cinematográficas, videojuegos, datos, música, etc.
o DVD-R: Es un tipo de disco óptico donde se puede grabar o escribir
datos con capacidad de almacenamiento de normalmente
4,7 gigabytes (GB), Un DVD-R sólo puede grabarse una única vez.
o DVD-RW: Es un tipo de DVD regrabable o borrable, que permite
grabar y borrar un número determinado de veces. La capacidad
estándar es de 4,7 gigabytes (GB).
o DVD-RAM: Es un formato de disco DVD regrabable aprobado por
el Foro DVD. Lleva a cabo una comprobación de la integridad de los
datos siempre activa tras completar la escritura.
o DVD+R: Es un tipo de disco óptico grabable una sola vez.
o DVD+RW: Es un tipo de disco óptico regrabable con capacidad de
almacenamiento equivalente a un DVD+R, de típicamente
4,7 gigabytes (GB).
o DVD+R DL: Los discos DVD+R DL emplean 2 capas grabables, cada
una con una capacidad cercana a los 4,7 GB.

 Según su número de capas o caras:


o DVD-5: una cara, capa simple. 4.7 GB o 4.38 gibibyte (GiB) - Discos
DVD±R/RW.
o DVD-9: una cara, capa doble. 8.5 GB o 7.92 GiB - Discos DVD+R DL.
o DVD-10: dos caras, capa simple en ambas. 9.4 GB o 8.75 GiB - Discos
DVD±R/RW.
o DVD-14: dos caras, capa doble en una, capa simple en la otra. 13,3
GB o 12,3 GiB.
o DVD-18: dos caras, capa doble en ambas. 17.1 GB o 15.9 GiB - Discos
DVD+R.

159
SuperDisk: El SuperDisk, también conocido como el LS-120 y su posterior variante
el LS-240, es un dispositivo de almacenamiento desarrollado por la división de
almacenamiento de 3M, posteriormente conocida como Imation.

Las unidades SuperDisk son capaces de leer y escribir disquetes de 1440 y 720 KiB
en formato MFM (Modified Frequency Modulation, lo que excluye, por ejemplo, los
discos del Apple Macintosh de doble densidad) además de sus formatos nativos.
Las unidades LS-240 son capaces además de formatear los discos de alta densidad
(HD) a mayores capacidades.

La verdadera capacidad de las unidades de "120 MB" es de 120,375 MiB (6848


cilindros x 36 bloques/cilindro x 512 bytes). Las unidades de "240 MB" tienen una
capacidad de 240,75 MiB.

IOMEGA-ZIP: Es un dispositivo o periférico de almacenamiento, que utiliza discos


Zip como soporte de almacenamiento; dichos soportes son de tipo magnético,
extraíbles o removibles de mediana capacidad, introducido en el mercado por la
empresa Iomega en 1994. La primera versión tenía una capacidad de 100 MB, pero
versiones posteriores lo ampliaron a 250 y 750 MB.

Además de la mayor capacidad, también ofrecían una mayor velocidad de acceso


y de transferencia. El tiempo de búsqueda era de 28 milisegundos y su tasa de
transferencia de 1 megabyte por segundo, comparado con los 62 kilobytes de los
disquetes.

Los interfaces de conexión eran bastante variados. Se podían encontrar modelos


internos con conexión ATA y con conexión SCSI, mientras que los externos

160
disponían de conexión SCSI o por el puerto paralelo, poniéndose a la venta,
posteriormente, unidades con interfaz USB.

IOMEGA JAZ: La unidad Jaz o Iomega Jaz es un sistema extraíble de


almacenamiento masivo, creado por Iomega.

Existen dos versiones de la unidad, la inicial con una capacidad de 1 GB, y una
versión revisada con una capacidad de 2 GB. Usa una variante de la tecnología
del disquete, la unidad Jaz utiliza tecnología de disco duro. Esencialmente consta
de dos platos de disco en un cartucho extraíble, con el motor y las cabezas
magnéticas en la unidad lectograbadora. Al introducirse el cartucho se retiraba la
protección metálica por donde accedían las cabezas y todas las cosas.

Utiliza una interfaz SCSI y se comercializa como unidad interna de 3,5 pulgadas (de
serie viene con un adaptador a 5,25) o como unidad externa (8,0 x 5,33 x
1,5 pulgadas y 907 gramos de peso).

Dispone internamente de una memoria caché de 215 KB para lectura/escritura, los


tiempos de búsqueda son de 10 ms para lectura, 12 ms para escritura y entre 15,5
y 17,5 ms para acceso. La transferencia de datos es:

 Máxima sostenida: 8,7 MB/segundo.


 Normal sostenida: 7,35 MB/segundo.
 Mínima sostenida: 3,4 - 8,7 MB/segundo.
 Modo burst: 20MB/s.

USB: Una memoria USB (de Universal Serial Bus), es un


dispositivo de almacenamiento que utiliza una memoria
flash para guardar información. Se le conoce también
con el nombre de unidad flash USB, lápiz de memoria,
lápiz USB, minidisco duro, unidad de memoria, llave de
memoria, pen drive, entre otros. Los primeros modelos requerían de una batería,
pero los actuales usan la energía eléctrica procedente del puerto USB. Estas

161
memorias son resistentes a los rasguños (externos), al polvo, y algunos hasta al
agua, factores que afectaban a las formas previas de almacenamiento portátil, como
los disquetes, discos compactos y los DVD.

Se pueden encontrar en el mercado fácilmente memorias de 1, 2, 4, 8, 16, 32, 64,


128, 256 y hasta, 512 GiB ó 1 TiB. Las memorias con capacidades más altas pueden
aún estar, por su precio, fuera del rango del “consumidor doméstico”. Esto supone,
como mínimo, el equivalente a 180 CD de 700 MB o 91 000 disquetes de 1440 KiB
aproximadamente.

Los equipos que se pueden conectar a una computadora gracias al USB son
múltiples. Cámaras de fotos, teléfonos móviles, ratones y teclados, pendrives,
reproductores MP4, webcams, tarjetas de vídeo, mini altavoces, impresoras,
grabadoras de DVD, discos duros externos o PDA son sólo algunos ejemplos.

El USB puede clasificarse en cuatro estándares distintos:


 USB 1.0 (baja velocidad): Creado a mitad de los 90, la velocidad máxima a
la que podía mover la información alcanzaba los 1,5 Mbps, una conexión
suficiente para dispositivos como el ratón y el teclado.
 USB 1.1 (velocidad completa): Incrementó la tasa de transferencia hasta los
12 Mbps.
 USB 2.0 (alta velocidad): Es el estándar más extendido y transfiere los datos
a una velocidad de 480 Mbps, aunque su tasa máxima real es de 280 Mbps.
Su cable tiene cuatro líneas: dos para datos y dos para alimentación.
 USB 3.0 (superalta velocidad): Diez veces más rápido que el estándar
anterior, llega a velocidades de 4,8 Gbps. Es compatible con los anteriores e
incluye cinco contactos adicionales. Convive junto con el 2.0.
 USB 3.1: Este estándar surgido hace apenas un año aumenta la velocidad
para la transferencia de datos hasta los 10 Gbps. Además, introduce un
nuevo tipo de conector (el C), que será explicado en las siguientes líneas.

162
Tipos de conectores USB:
 Tipo A: Es el más reconocido por los usuarios. Se trata de un rectángulo
aplanado con conexiones internas. El conector de tipo macho se halla en el
extremo de los cables, mientras que el de tipo hembra es el puerto en sí.
 Tipo B: Los puertos y conectores de esta clase son algo más pequeños
(aunque más anchos) que los anteriores. Generalmente, se encuentran en
dispositivos como impresoras.
 Tipo C: Este conector ha llegado de la mano del USB 3.1 y su principal
característica es el ser reversible, es decir, que no importa del lado por el
cual se inserte, ya que funcionará de las dos maneras.
 MiniUSB: Existen dos modalidades, de 5 y de 8 pines, y suelen encontrarse
en cámaras de fotos, discos duros externos o reproductores de música, entre
otros.
 MicroUSB: Es el más pequeño y plano de todos y está pensado,
básicamente, para los nuevos teléfonos inteligentes, tanto para trasmitir a
través de él información como para, por medio de él, cargar la batería de
estos aparatos.

Iomega REV IDE: Es un sistema de Disco duro removible para pymes y usuarios
solo que requieren de una solución de almacenamiento rápida y fiable para realizar
sus copias seguras. Es utilizado por usuarios de sobremesa que manejan grandes
ficheros y busquen un sistema de almacenamiento portátil asequible y versátil.
Estos lectores leen y graban sobre cartuchos compactos que almacenan 35GB de
datos (hasta 90GB con el software de comprensión incluido) con una vida estimada
en 30 años y capaces de reescribirse más de un millón de veces.

DATA FREECOM USB: Es un disco duro de bolsillo que


puede ser empleado para almacenar información digital de
cualquier tipo. Por otra parte es un dispositivo para el

163
almacenamiento, transporte y uso de certificados digitales y sus llaves privadas
asociadas.

Iomega MicroDrive: Las tarjetas MicroDrive le permiten ampliar la memoria de su


cámara a capacidades hasta ahora no vistas. Esta tarjeta le permitirá una gran
capacidad de memoria. Aunque es la unidad de almacenamiento portátil más
pequeña, lomega Micro Mini USB permite compartir fotos, archivos videos y para
guardar tareas.

Iomega combinará la unidad con un adaptador de tarjeta de PC tipo II plus y el


software Iomega Quik Sync 2 para ofrecer a los clientes una nueva y potente
solución para el almacenamiento extraíble en computadoras portátiles, dispositivos
de mano para el consumidor y cámaras digitales. El Microdrive de 340MB con
adaptador de tarjeta para PC tipo II plus es actualmente compatible con 62 modelos
de computadora portátil de 15 fabricantes, incluidos Dell, Compaq, Toshiba, IBM y
Apple. El disco también es compatible con cualquier cámara digital o PDA equipada
para usar flash compacto tipo II plus.

Memory watch 128MB USB: Esta unidad es una combinación de las unidades de
memoria USB usuales pero dentro de un reloj. Incorpora un cable corto con un
conector USB en el extremo para conectarlo directamente a la PC o a través del
cable de extensión provisto.

Al igual que con otros dispositivos USB, puede conectar esto en segundos a
máquinas con Windows 2000 / XP. Los controladores del dispositivo solo son
necesarios para Windows 98 / ME y Linux. Una vez conectado y el sistema lo ha
detectado, se le saluda con un ícono directo al disco a través
de su computadora de escritorio o Mi PC. Cuando el reloj está
conectado, ve un pequeño LED en el dial del reloj.

Para el transporte de documentos electrónicos, imágenes,


programas y aplicaciones, catálogos de productos, como
backup de seguridad, etc. Conecta el reloj con el cable USB

164
que se suministra a su PC o portátil, carga y descarga información allí de forma
inmediata.
Secure Digital: La memoria Secure Digital (también conocida como SD o Tarjeta
SD) es un tipo de tarjeta de memoria que está específicamente desarrollada para
cumplir con los requisitos de seguridad en el campo de los dispositivos electrónicos
de video y audio. Por lo tanto, incluye un sistema de protección de derechos de
autor que cumple con la norma SDMI (Iniciativa Musical de Secure Digital).

La arquitectura de las tarjetas SD está basada en los circuitos de memoria flash de


tipo NAND (EEPROM).

La memoria SD es de dimensiones reducidas (24,0 x 32,0 x 2,1 mm), equivale al


tamaño de una estampilla postal, y pesa tan sólo 2 gramos.

El acceso a los datos se realiza mediante un conector lateral de 9 clavijas que


alcanza una velocidad de transferencia de 2 Mb/s con la posibilidad de alcanzar
hasta 10 MB/s.
El tiempo de acceso de la memoria SD es de 25µs
aproximadamente para el primer acceso y ciclos de 50
ns para los ciclos subsiguientes.

Las tarjetas SD se utilizan fundamentalmente como


almacenamiento de datos para dispositivos como: cámaras
digitales, videocámaras, PDAs, teléfonos móviles.

Todas las SD soportan el modo MMC con una interfaz serie de cuatro cables (reloj,
entrada serial, salida serial, selección de chip). El modo MMC no proporciona
acceso a las características de encriptación de las tarjetas SD y la documentación
libre de SD no las describe. Esa información es utilizada por los productores de
medios y no es muy utilizada por los consumidores quienes típicamente utilizan las
tarjetas para almacenar datos no protegidos. Existen 3 modos de transferencia
soportados por SD: Modo SPI (entrada separada serial y salida serial), Modo un-bit
SD (separa comandos, canales de datos y un formato propietario de transferencia),
Modo cuatro-bit SD (utiliza terminales extra más algunas terminales reasignadas)

165
para soportar transferencias paralelas de cuatro bits. Las tarjetas de baja velocidad
soportan tasas de transferencia de hasta 400 kbits/s y modo de transferencia un-bit
SD. Las tarjetas de alta velocidad soportan tasas de transferencia de hasta 100
Mbits/s en el modo de cuatro-bit y de hasta 25 Mbits/s en el modo un-bit SD.

Características comunes de las tarjetas SD:

 Alta velocidad de transferencia: 25 Mbytes/s.

 Voltaje de operación: 2’0 V-3’6 V.

 Temperatura de operación: de -25ºC a 85ºC.

 Durabilidad: > 1.000.000 horas.

 Peso: 2 gr.

 Capacidad: 32 MB, 64 MB, 128 MB, 256 MB, 512 MB, 1 GB, 2GB, 4GB.

 Para la escritura y lectura de los datos en la SD se hacen por bloques de


bytes, desde 1 hasta 512 bytes.

 Interruptor de protección de escritura. (Al deslizar el interruptor hacia la parte


inferior de la tarjeta de memoria SD, los datos quedarán protegidos. Al
deslizarlo hacia la parte superior de la tarjeta, la protección de los datos
quedará cancelada).

Además de las tarjetas SD existen las miniSD y microSD. Se pueden utilizar en


ranuras del mismo tamaño que MMC/SD/SDIO con un adaptador. Como las ranuras
SD todavía tienen soporte para las tarjetas MMC, las variantes de MMC más
pequeñas, que han evolucionado por separado, también son compatibles con los
dispositivos que tienen soporte para SD.

166
Periféricos

Se considera periférico al conjunto de dispositivos que sin pertenecer al núcleo


fundamental de la computadora, formado por la unidad central de
procesamiento (CPU) y la memoria central, permitan realizar operaciones de
entrada/salida (E/S) complementarias al proceso de datos que realiza la CPU. Estas
tres unidades básicas en un computador, CPU, memoria central y el subsistema de
E/S, están comunicadas entre sí por tres buses o canales de comunicación:

 Direcciones, para seleccionar la dirección del dato o del periférico al que se


quiere acceder.
 Control, básicamente para seleccionar la operación a realizar sobre el dato
(principalmente lectura, escritura o modificación).
 Datos, por donde circulan los datos.

Clasificación de periféricos

A pesar de que el término periférico implica a menudo el concepto de «adicional


pero no esencial», muchos de ellos son elementos fundamentales para un sistema
informático. El monitor, es prácticamente el único periférico que la gente considera
imprescindible en cualquier computadora personal (no lo fue en los primeros
computadores) pero a pesar de ello, técnicamente no lo es. El ratón o mouse es
posiblemente el ejemplo más claro de este aspecto. A principios de la década de
1990 no todas las computadoras personales incluían este dispositivo. El sistema
operativo MS-DOS, el más común en esa época, tenía una interfaz de línea de
comandos para lo que no era necesario el empleo de un ratón, todo se hacía
mediante comandos de texto. Fue con la popularización de Finder, sistema
operativo de la Macintosh de Apple y la posterior aparición de Windows cuando
el ratón comenzó a ser un elemento imprescindible en cualquier hogar dotado de
una computadora personal. Actualmente existen sistemas operativos con interfaz
de texto que pueden prescindir del ratón como, por ejemplo, MS-Dos. El caso del
teclado es también emblemático, pues en las nuevas computadoras tabletas,

167
sistemas de juego o teléfonos móviles con pantalla táctil, el teclado se emula en la
pantalla. Inclusive en casos de adaptaciones especiales los teclados dejan de ser
el periférico de entrada más utilizado, llegando a desaparecer en algunos casos por
el uso de programas reconocedores de voz.

Los periféricos pueden clasificarse en las siguientes categorías principales:

 Periféricos de entrada: captan y digitalizan los datos de ser necesario,


introducidos por el usuario o por otro dispositivo y los envían al ordenador para
ser procesados.
 Periféricos de salida: son dispositivos que muestran o proyectan información
hacia el exterior del ordenador. La mayoría son para informar, alertar,
comunicar, proyectar o dar al usuario cierta información, de la misma forma se
encargan de convertir los impulsos eléctricos en información legible para el
usuario. Sin embargo, no todos de este tipo de periféricos es información para
el usuario. Un ejemplo: Impresora.
 Periféricos de entrada/salida (E/S): sirven básicamente para la comunicación de
la computadora con el medio externo.
 Periféricos de almacenamiento: son los dispositivos que almacenan datos
e información. La memoria de acceso aleatorio no puede ser considerada un
periférico de almacenamiento, ya que su memoria es volátil y temporal.
Ejemplos: Disco duro, Memoria flash, Cinta magnética, Memoria
portátil, Disquete, Grabadora o lectora de: CD; DVD; Blu-ray; HD-DVD.
 Periféricos de comunicación: permiten la interacción entre dos o más
dispositivos.

Periféricos de entrada

Teclado de computadora:

168
Un teclado de computadora es un periférico, físico o virtual (por ejemplo teclados en
pantalla o teclados táctiles), utilizado para la introducción de órdenes y datos en una
computadora. Tiene su origen en los teletipos y las máquinas de escribir eléctricas,
que se utilizaron como los teclados de los primeros ordenadores y dispositivos de
almacenamiento (grabadoras de cinta de papel y tarjetas perforadas). Aunque
físicamente hay una miríada de formas, se suelen clasificar principalmente por
la distribución del teclado de su zona alfanumérica, pues salvo casos muy
especiales es común a todos los dispositivos y fabricantes (incluso para teclados
árabes y japoneses).

Ratón y panel táctil:

El mouse (del inglés, pronunciado [ˈmaʊs]) o ratón es un periférico de entrada de


uso manual para computadora, utilizado como entrada o control de datos. Se utiliza
con una de las dos manos del usuario y detecta su movimiento relativo en dos
dimensiones por la superficie horizontal en la que se apoya, reflejándose
habitualmente a través de un puntero o flecha en el monitor. Anteriormente, la
información del desplazamiento era transmitida gracias al movimiento de una bola
debajo del ratón, la cual accionaba dos rodillos que correspondían a los ejes X e Y.
Hoy, el puntero reacciona a los movimientos debido a un rayo de luz que se refleja
entre el ratón y la superficie en la que se encuentra. Cabe aclarar que un ratón
óptico apoyado en un espejo o sobre un barnizado por ejemplo es inutilizable, ya
que la luz láser no desempeña su función correcta. La superficie a apoyar el ratón
debe ser opaca, una superficie que no genere un reflejo, es recomendable el uso
de alfombrillas.

169
Micrófono:

Con el micrófono, además de grabar cualquier audio o


sonido mediante alguna aplicación informática,
también permite el uso de sistemas de reconocimiento
del habla o reconocimiento de voz, disponible incluso
en navegadores web para la búsqueda de
información, tanto en computadoras
portátiles o computadoras de escritorio, como en dispositivos móviles.

Escáner:

En informática, un escáner (del inglés: scanner) es un periférico que se utiliza para


convertir, mediante el uso de la luz, imágenes o cualquier otro impreso a formato
digital. Actualmente vienen unificadas con las impresoras formando multifunciones.

Periféricos de salida

170
Los periféricos de salida reciben la información procesada por la CPU y la
reproducen, de modo que sea perceptible por el usuario.

Visuales:

 Monitor de computadora.
 Impresora.
 Led.
 Visualizador.
 Proyector de vídeo.

Auditivos:

 Altavoz.
 Auriculares.
 Tarjeta de sonido.

Táctiles:

 Impresora braille.
 Impresora 3D.

Monitor:

El "monitor de computadora" o "pantalla de computadora" es el dispositivo de salida


que mediante una interfaz muestra los resultados o los gráficos del procesamiento
de una computadora.

171
Impresora:

Una impresora es un periférico de computadora que permite producir una copia


permanente de textos o gráficos de documentos almacenados en formato
electrónico, imprimiendo en papel de lustre los datos en medios físicos,
normalmente en papel o transparencias, utilizando cartuchos de tinta o
tecnología láser. Muchas impresoras son usadas como periféricos, y están
permanentemente unidas a la computadora por un cable. Otras impresoras,
llamadas impresoras de red, tienen una interfaz de red interna (típicamente wireless
o Ethernet), y que puede servir como un dispositivo para imprimir en papel algún
documento para cualquier usuario de la red. Actualmente se comercializan
impresoras multifuncionales, que aparte de sus funciones de impresora funcionan
simultáneamente como fotocopiadora y escáner, siendo este tipo de impresoras las
más recurrentes en el mercado. Cabe destacar que las impresoras multifuncionales
no pertenecen a los periféricos de salida solamente, sino que se las considera como
periféricos de entrada/salida.

Altavoz o parlante:

172
Los altavoces se utilizan para escuchar los sonidos emitidos por la computadora,
tales como música, sonidos de errores, conferencias, etcétera.

Las placas base suelen llevar un altavoz que emite pitidos para indicar posibles
errores o procesos, o para indicar acciones para las personas con discapacidades
visuales, como la activación de bloquear números o bloquear mayúsculas.

Periféricos de entrada/salida

Los periféricos de entrada/salida son los que utiliza la computadora para mandar y
para recibir información. Su función es la de almacenar o guardar, de forma
permanente o virtual, todo aquello que hagamos con la computadora para que
pueda ser utilizado por los usuarios u otros sistemas.

Pantalla táctil o multitáctil:

 Pantalla táctil

Es una pantalla que mediante un toque directo sobre su superficie permite la entrada
de datos y órdenes al dispositivo, y a su vez muestra los resultados introducidos
previamente; actuando como periférico de entrada y salida de datos, así como
emulador de datos interinos erróneos al no tocarse efectivamente. Este contacto
también se puede realizar por medio de un lápiz óptico u otras herramientas
similares. Actualmente hay pantallas táctiles que pueden instalarse sobre una

173
pantalla normal, de cualquier tipo o denominación (LCD, monitores y televisores
CRT, plasma, etc.).

 Multitáctil:

Es el nombre con el que se conoce a una técnica de interacción persona-


computador y al hardware que la aplica. La tecnología multitáctil consiste en una
pantalla táctil o touchpad que reconoce simultáneamente múltiples puntos de
contacto, así como el software asociado a esta que permite interpretar dichas
interacciones simultáneas.

Impresora multifunción:

Una impresora multifunción o dispositivo multifuncional es un periférico que se


conecta a la computadora y que posee las siguientes funciones dentro de un único
bloque físico: Impresora, escáner, fotocopiadora, ampliando o reduciendo el
original, fax (opcionalmente). Lector de memoria para la impresión directa de
fotografías de cámaras digitales. En ocasiones, aunque el fax no esté incorporado,
la impresora multifunción es capaz de controlarlo si se le conecta a un puerto USB.
También, pueden poseer un disco duro (las unidades más grandes utilizadas en
oficinas) para almacenar documentos e imágenes.

174
Periféricos de almacenamiento

Los dispositivos y soportes de almacenamiento guardan los datos que usa la CPU
una vez que han sido eliminados de la memoria principal, porque la memoria se
borra cada vez que se apaga la computadora. Pueden ser internos o portátiles,
como un disco duro, o extraíbles, como un CD o DVD.

 Tarjeta perforada.
 Cinta perforada.
 Cinta magnética.
 Disco magnético.
 Disquete.
 Disco duro.
 Disco duro fijo o interno.
 Disco duro portátil o externo.
 Disco óptico (DO).
 Disco compacto (CD o Compact Disc).
 Disco Versátil Digital (DVD).
 Disco Blu-ray (BD o Blu-ray Disc).
 Disco magneto-óptico.
 Disco Zip (Iomega): 100 MB, tecnología magnética.
 Disquete SuperDisk de 3,5": 128 MB a 640 MB, tecnología magneto-óptica.
 LS-120.
 LS-240.
 Disco Jaz (Iomega): capacidad de 1 GB a 2 GB.

175
 Memoria Flash.
 Memoria USB.
 Tarjetas de memoria.
 Unidad de estado sólido.

Almacenamiento de red

 Almacenamiento en nube.
 Servicio de alojamiento de archivos.
 Dropbox.
 Google Drive.
 OneDrive.
 Almacenamiento de conexión directa (Direct Attached Storage, DAS).
 Almacenamiento conectado en red (Network Attached Storage, NAS).
 Red de área de almacenamiento (Storage Area Network, SAN).

Periféricos de comunicación

Su función es permitir o facilitar la interacción entre dos o más computadoras, o


entre una computadora y otro periférico externo a la computadora. Entre ellos se
encuentran los siguientes:

Tarjetas de red (NIC):

Las placas o tarjetas de interfaz de red (Network Interface Card, NIC) pueden estar
integradas a la placa base o conectadas mediante ranuras de expansión.

Módems: Comunicación inalámbrica:

 Concentradores (hubs).  Bluetooth.


 Conmutadores de red (switches).  Infrarrojos.
 Enrutadores (routers).  Wi-Fi.

176
Firmware

Programa informático que establece la lógica de más bajo nivel.

Un dispositivo de firmware muy común: el control remoto de la televisión.

Memoria de solo lectura que contiene el BIOS de una vieja placa base.

El firmware o soporte lógico inalterable es un programa informático que establece


la lógica de más bajo nivel que controla los circuitos electrónicos de un dispositivo
de cualquier tipo. Está fuertemente integrado con la electrónica del dispositivo, es
el software que tiene directa interacción con el hardware, siendo así el encargado
de controlarlo para ejecutar correctamente las instrucciones externas. De hecho el
firmware es uno de los tres principales pilares del diseño electrónico.

En resumen, un firmware es un software que maneja físicamente al hardware.

El programa BIOS de una computadora es un firmware cuyo propósito es activar


una máquina desde su encendido y preparar el entorno para cargar un sistema
operativo en la memoria RAM y disco duro.

177
Origen del término

El término fue acuñado por Ascher Opler en un artículo de la revista Datamation,


publicado en 1967.Originalmente, se refería al microshiva - contenido en
un almacenamiento de control escribible (una área pequeña especializada de
memoria RAM),que definía e implementaba el conjunto de instrucciones del
computador. Si fuera necesario, el firmware podía ser recargado para especializar
o para modificar las instrucciones que podría ejecutar la Unidad Central de
Procesamiento (CPU). Según el uso original, el firmware contrastaba tanto con el
soporte físico (la CPU en sí misma) como con el software (las instrucciones
normales que se ejecutan en una CPU). El firmware no estaba compuesto
de instrucciones de máquina de la CPU, sino del microcódigo de nivel inferior
implicado en la implementación de las instrucciones de máquina que iría a ejecutar
la CPU. El firmware existía en el límite o frontera entre el hardware y el software,
por ello el término de firmware (que significa ‘software firme, fijo o sólido’).

Posteriormente, el término fue ensanchado para incluir cualquier tipo de


microcódigo, ya fuera en RAM o ROM.

Aún más adelante, el término fue ensanchado otra vez más, en el uso popular, para
denotar cualquier cosa residente en ROM, incluyendo las instrucciones de máquina
del procesador para el BIOS, los cargadores de arranque, o aplicaciones
especializadas.

Firmware hoy en día

El firmware ha evolucionado para significar casi cualquier contenido programable


de un dispositivo de hardware, no solo código de máquina para un procesador, sino
también configuraciones y datos para los circuitos integrados para aplicaciones
específicas (ASIC), dispositivos de lógica programable, etc.

Hasta mediados de los años 1990 el procedimiento típico para actualizar


un firmware a una nueva versión era reemplazar el medio de almacenamiento que

178
contenía el firmware, usualmente un chip de memoria ROM enchufado en
un zócalo. Hoy en día este procedimiento no es habitual ya que los fabricantes han
añadido una nueva funcionalidad que permite grabar las nuevas instrucciones en la
misma memoria, haciendo de la actualización un proceso mucho más cómodo y
dinámico. Aun así el proceso de actualización de un firmware hay que realizarlo con
mucho cuidado, ya que al ser un componente vital cualquier fallo puede dejar al
equipo inservible. Por ejemplo, un fallo de alimentación a mitad del proceso de
actualización evitaría la carga completa del código que gobierna el equipo, quizá
incluso la carga del código que se encarga de actualizar el firmware, así que no
podríamos actualizarlo de nuevo y por lo tanto el equipo dejaría de funcionar.

Periféricos del computador.

La mayoría de los periféricos del computador son de hecho computadores de


propósito especial. Mientras que los dispositivos externos tienen el firmware
almacenado internamente, las modernas tarjetas de los periféricos de
computadores típicamente tienen grandes partes de firmware que es cargado en el
arranque por el sistema huésped, pues esto es más flexible. Dicho hardware por lo
tanto puede no funcionar completamente hasta que el computador huésped le haya
cargado el firmware indispensable, a menudo por medio del driver de dispositivo
específico (o, más exactamente, por medio de un subsistema dentro del paquete
del driver de dispositivo). Los modernos drivers de dispositivo también pueden
exponer una interfaz directa de usuario para la configuración además de las

179
llamadas/interfaces del sistema operativo o de las Interfaces de programación de
aplicaciones (APIs).

Retos de firmware en los PC

En algún sentido, los varios componentes del firmware son tan importantes como el
sistema operativo en un computador. Sin embargo, a diferencia de la mayoría de
los sistemas operativos modernos, el firmware tiene raramente un mecanismo
automático bien desarrollado para actualizarse a sí mismo para corregir los
problemas de funcionalidad que son detectados después de que la unidad es
despachada.

BIOS y firmware

180
El BIOS es bastante fácil de actualizar en un PC moderno; los dispositivos como las
tarjetas de vídeo o los módems confían en el firmware cargado dinámicamente por
un driver de dispositivo y a menudo pueden así ser actualizados transparentemente
a través de los mecanismos de actualización del sistema operativo. En contraste, el
firmware en dispositivos de almacenamiento es raramente actualizado; no están
estandarizados los mecanismos para detectar las versiones del firmware y
actualizarlas. Estos dispositivos, por lo tanto, tienden a tener un índice más alto de
problemas de funcionalidad, comparados con otras partes de un moderno sistema
de computación.

Reproductores de música portátiles:

Algunas compañías usan actualizaciones del firmware para agregar nuevos


formatos de archivos de reproducción de sonido (codecs); el iriver agregó el
formato ogg de esta manera, por ejemplo. Otras características que pueden
cambiar con las actualizaciones del firmware son el GUI e incluso la vida de la
batería. La mayoría de los reproductores de música modernos soportan las
actualizaciones del firmware.

Teléfonos móviles:

181
La mayoría de los teléfonos móviles tienen una capacidad de firmware actualizable
por muchas de las mismas razones que se especificaron anteriormente, pero
algunos incluso pueden ser actualizados para mejorar la recepción o la calidad del
sonido.

Automóviles:

Desde 1996 la mayoría de los


automóviles han empleado una
computadora a bordo y varios
sensores para detectar problemas
mecánicos. Los vehículos modernos
también emplean sistemas controlados
por computador, ABS y sistemas de
control de transmisión operados por computadora. El conductor puede también
recibir información "in-dash" de esta manera mientras conduce, como, por ejemplo,
lecturas en tiempo real de la economía del combustible y de la presión del
neumático. La mayoría del firmware del vehículo puede ser actualizado en un
distribuidor local autorizado.

Definición de IEEE

El glosario estándar de terminología del software del Institute of Electrical and


Electronics Engineers (IEEE), Std 610.12-1990, define el firmware como sigue:

"La combinación de instrucciones de un dispositivo de hardware e


instrucciones y datos de computadora que residen como software de solo
lectura en ese dispositivo".

182
Notas:

(1) Este término es a veces usado para referirse solamente al dispositivo


de hardware o solamente a las instrucciones o datos de computadora, pero
estos significados están desaprobados.

(2) La confusión rodeando este término ha llevado a alguno a sugerir que


éste debe ser totalmente evitado.

Hackeo del firmware

A veces una nueva o modificada versión no oficial de firmware es creada por


terceros para proporcionar nuevas características o para abrir una funcionalidad
oculta. Los ejemplos incluyen Whited00r para iPhone e iPod Touch, Rockbox para
los reproductores de audio digital, CHDK y Magic Lantern, para las cámaras
digitales de Canon, OpenWrt para los enrutadores inalámbricos, el firmware
de región libre para unidades de DVD, que no son de región libre con
el firmware oficial, así como muchos proyectos de homebrew para las consolas de
juego. Estos pueden a menudo abrir funcionalidad computacional en dispositivos
previamente limitados (ej.,ejecutar Doom en iPods). La mayoría de
los hacks de firmware son libres y también de código abierto.

Estos hacks usualmente utilizan la facilidad de actualización del firmware en


muchos dispositivos para instalarse o ejecutarse en ellos. Algunos, sin embargo,
deben recurrir a exploits para funcionar, porque el fabricante ha intentado bloquear
el hardware para evitar que utilicen código no autorizado.

Diferencia entre firmware y drivers

183
El firmware, de igual manera que los drivers o controladores, sirven para lo mismo,
pero difieren en que unos se almacenan en el propio hardware (firmware) y los
drivers lo hacen dentro del propio Sistema Operativo. Por esto, el firmware puede
iniciarse y funcionar por sí mismo y hacer lo que está programado o diseñado
mientras que los controladores deben ser ejecutados por el sistema operativo.

Los tipos de firmware:

BIOS:

Lo primero que se inicia en un ordenador al encenderlo, es la BIOS. Esta, es capaz


de interactuar con todo el hardware y comprobar si hay algún error desconocido y
que esté todo correcto. Después de esto se inicia el sistema operativo que
tengamos instalado. La BIOS, es la principal responsable de manejar los
componentes de hardware de nuestro ordenador y asegurarse de que funcionan
correctamente. Aunque muy necesaria, podemos comprobar lo poco que se
modernizado durante los años ya que esta se ejecuta en 16 bits mientras que
estamos acostumbrados ya a ver que la mayoría de los ordenadores trabajan en 64
bits.

EFI:

EFI, (Extensible Firmware Interface), a veces


también denominado Unified Extensible Firmware
Interface (UEFI), tiene ciertas ventajas sobre
el BIOS. Una de ellas es que ayuda a que nuestro
184
ordenador se inicie utilizando sólo un software de confianza para el fabricante de
nuestro modelo, lo que se conoce como Secure Boot. Esto claramente añade una
seguridad mayor.

Otra de las características más notables es la de incluir una interfaz más amigable
para los usuarios. Esta mejora en la interfaz hacen que podamos configurar y ver
valores como orden de arranque, voltajes de memoria y CPU, estado de los
ventiladores, temperaturas, etc… de forma más cómoda que en las BIOS antiguas.

Diferencia entre Firmware y Software

Estos dos términos suelen confundirse y es razonable ya que estos son


unos “programas” que su función es la de realizar una tarea concreta en nuestro
ordenador.

El software es virtual para que pueda copiarse, cambiarse y también


destruirse. Este se almacena en dispositivos como discos duros y similares. Pero
en el caso del firmware, la memoria se almacena a menudo dónde se encuentra
incrustada o asociada al dispositivo y no puede ser copiada o eliminada. Esto tiene
una razón y es la de evitar cualquiera modificación que pueda hacer que el
dispositivo deje de funcionar y perder su funcionalidad.

Otra diferencia, es la forma que tenemos de actualizarlos, en el caso del software


se actualiza a menudo ya que con cada operación que ejecuta puede hacer un
cambio en él. Por otro lado, el firmware no suele cambiarse demasiado, salvo que
se cambie una configuración. Además, en el caso de este último, las actualizaciones
185
no suelen ser para añadir funcionalidades, sino en corregir fallos y mejorar el
rendimiento o funcionamiento por lo cual tampoco es tan común actualizarlo.

Funciones de un firmware:

Las funciones del firmware son asegurar una óptima ejecución del dispositivo al
iniciarlo, responder a las demandas que el usuario hace a ese dispositivo y crear un
entorno adecuado para que la interacción sea fluida. En resumen, a través del
firmware, el dispositivo recoge la información y pone en marcha las peticiones del
usuario facilitando su manejo.

El ejemplo más común de firmware es la BIOS del ordenador o Sistema Básico de


Entrada y Salida, que se encuentra en la placa base. Este firmware es el que iniciará
el sistema operativo, y es en ese momento, justo antes de que cargue, podemos
acceder a él con una tecla que dependerá del fabricante de la placa. Desde ahí
podremos modificar el disco duro interno o externo, memoria o CD desde el que
queremos arrancar el sistema operativo, configurar algunas opciones básicas, como
fecha y hora. Otro aparato cotidiano en el que circunstancialmente deberemos
actualizar o modificar el firmware en el caso de querer modificar, por ejemplo, los
roles de administrador es el teléfono móvil. Todas las operaciones con firmware
deben realizarse con mucho cuidado, siguiendo las instrucciones, y evitando que
durante el proceso el dispositivo se apague, pues como hemos indicado
anteriormente, puede inutilizarlo.

El fabricante es el que incluye el firmware y el que proporciona las versiones


actualizadas. Pueden encontrarse en su página web pero en dispositivos
conectados a internet como las televisiones inteligentes o móviles, suele llegar un
mensaje avisando de la existencia de una actualización y sólo tendremos que pulsar
el botón de actualizar para instalar la última versión del firmware.

186
Orgware

Definición de orgware

El orgaware se podría decir que es un término moderno y tecnológico que permite


integrar los términos del software y hardware esto quiere decir une los términos de
lo físico con los conocimientos.
Historia del orgware

Frente a la idea tradicional que sugiere que para la incorporación de las TICs a los
procesos de enseñanza-aprendizaje únicamente se deben adoptar medidas para su
presencia y su utilización didáctica (metodologías, formas de diseño o formas de
evaluación).

La realidad es que los aspectos que podríamos considerar como organizativos y


administrativos, son claves para su incorporación. Y son claves,
independientemente de la tecnología a la que nos refiramos, a la tipología de
enseñanza en la que se movilicen (formal, informal o no formal), o del nivel educativo
en el que se inserten. Dobrov (1979) en un trabajo clásico, hablaba que además de
considerar el "hardware" y "software" como elementos constitutivos de los medios,
deberíamos tener en cuenta uno nuevo: el "orgware"; o componente estructural de
un sistema tecnológico, que tiene la misión de asegurar el funcionamiento de los
anteriores, y garantizar la interacción con otros elementos y con otros sistemas de
naturaleza diferente.

Para este autor, todo sistema tecnológico requiere una forma específica de
organización estructural, de manera que sin ella el diseño y el componente
tecnológico, pueden resultar o inútil o perjudicial.

Este autor llega a definirlo como: "... el conjunto de medidas socioeconómicas, de


organización y de gestión que están destinados a asegurar la identificación y la
utilización eficaz de una técnica y de conocimientos científicos-técnicos dados, así
como la capacidad potencial del sistema tecnológico, para adaptarse, desarrollarse
y auto perfeccionarse." (Dobrov, 1979, 632). En función de la importancia concedida

187
a este nuevo componente, Dobrov divide la historia de la tecnología educativa en
pasada, presente y futura. Las cuales las representa gráficamente en la figura nº 1,
donde claramente podemos observar la importancia progresiva que ha ido
adquiriendo este nuevo elemento.

Como señalan Blázquez y Martínez (1995, 447): “La organización de los recursos
tecnológicos en los centros posee… mayor importancia de lo que pudiera parecer.
Muchas veces se frustra su utilización, su inserción y explotación en la intervención
curricular por no contar con esta importante condición”.

Por otra parte, no debemos olvidarnos que las tecnologías, sobre todo las que han
sido consideradas como nuevas, transforman los modos, las formas, los espacios,
los tiempos y las modalidades de interacción de los que participan en la acción
educativa, y por ello requieren respuestas organizativas completamente diferentes
a las que demandaban tecnologías pasadas para incorporase a situaciones donde
existían una coincidencia espacio-temporal entre el profesor y el estudiante, y
además este último por lo general era contemplado como un receptor pasivo de
información, o mejor dicho un depositario de la misma.

188
El orgware también es considerado como un Conocimiento científico en “Estado
organizativo que ha concebido como la “metabolización” (asimilación) de los tres
tipos o niveles tecnológicos en la organización:

-El hardware: Se metaboliza como la maquinaria, equipos, infraestructura, etc.


Que efectivamente utiliza la organización.

- El software: Se metaboliza de dos formas:

En políticas, procesos, procedimientos, estructuras, etc., que efectivamente se


utilizan.

- El mindware: Se metaboliza también en dos formas:


Como el software incorporado al mindware del personal y efectivamente utilizado
por la organización.

Ejemplo: En la administración el orgware método muy importante para las


empresas ya que el software es programas y aplicaciones para el procesamiento de
datos de las empresas; el Hardware, como los equipos que permiten el
funcionamiento de las aplicaciones y el mindware es como “cultura organizacional”:
la forma cómo la gente efectivamente se comporta; sus actitudes, hábitos, valores,
“definiciones de la realidad”, esquemas mentales, y esto puede clasificar
organizaciones en tres tipos fundamentales:

La organización estructural, que es la encargada de asignar tareas,


responsabilidades y competencia de todos los departamentos y es considerada
como estática.
La organización funcional que responde a los principios de cada operación y se
realizan siempre en la misma forma, pues se establece: Las etapas del trabajo, los
puestos de trabajo que la pueden ejecutar, la secuencia y los medios materiales.
La simplificación del trabajo, que no es más que aumentar o mejorar la eficiencia de
ellas.

189
Es el componente estructural de un sistema tecnológico especialmente concebido
para integrar al hombre y sus competencias profesionales asegurar el
funcionamiento del hardware y el software.

Ejemplo: Dado que una computadora es un gripo de partes integradas que tienen el
objetivo común de llevar a cabo las operaciones que indica el programa que se está
ejecutando, entra dentro de la definición de sistema. Organización de los
componentes de un sistema de cómputo. La organización de los elementos básicos
de entrada, proceso y salida que se encuentran en la mayor parte de los sistemas
de cómputo.

Explicación del orgware

Orgware: el eslabón perdido lo que realmente falta es ‘orgware’: el proceso que no


solo entrena a las personas para usar el nuevo sistema sino que también analiza y
se ocupa de las implicaciones organizacionales más allá de los problemas de
instalación. Examina la mentalidad y el comportamiento de las personas, las
antiguas y las nuevas que son necesarias para adaptarse a una forma diferente de
trabajar. Hardware y software sin orgware es la principal causa de fiascos.

190
Entonces ¿Cómo se puede implementar orgware? Si bien los programas
tradicionales de capacitación e implementación analizan como cambiaran los
procesos con la instalación de un nuevo sistema y ayudan a las personas a
adaptarse a ellos, orgware se enfoca en el comportamiento y la mentalidad, y como
estos deben cambiar para adaptarse a los nuevos sistemas.

Tal análisis debe ser seguido por la inclusión de herramientas específicas para
cambiar el comportamiento: simplemente decirles a las personas que adopten este
nuevo comportamiento y esperar que cambien es ingenuo. Ciertos tipos de
comportamiento se asocian con recompensas: dinero, reconocimiento, realización,
sentido de logro y admiración entre iguales, y es importante identificar qué es lo que
mantiene este comportamiento y dejar de recompensarlo.

Esto en pocas palabras, aunque una explicación terriblemente simplista. Pero


puede hacerse. Es pura psicología y debe ser un complemento de los métodos de
entrenamiento tradicionales.

El problema es que la mayoría de los formadores e implementadores de nuevas


soluciones empresariales, ya sean sistemas de gestión de relaciones con los
clientes (CRM) o sistemas más amplios de gestión de recursos empresariales
(ERM), simplemente no están equipados para formar personas de orgware.

Por lo general, no tienen los antecedentes en desarrollo psicológico u organizativo


necesarios. La estrategia que implementan, en el peor de los casos, se caracteriza
por una total indiferencia hacia estos factores psicológicos "suaves" y, en el mejor
de los casos, expresa la esperanza de que el entrenamiento técnico inculcará un
síndrome de atracción fatal para hacer el truco. Y el producto final de su trabajo es
básicamente inestable, una mesa de dos patas en lugar de una de tres patas. Los
lectores que han participado en algún tipo de implementación a gran escala o en
pequeña escala de nuevos procesos comerciales (y software) pueden estar
familiarizados con muchas de estas cosas y sienten que en su caso los "aspectos
de las personas" no fueron ignorados, y que algunos el tipo de proceso de gestión
del cambio se asoció con la implementación de CRM, ERM y otros proyectos
ambiciosos. Tengo dos comentarios que hacer sobre esto.

191
Primero, pueden haber tenido suerte. La realidad es que, en la mayoría de los
casos, las personas no reciben ese tipo de tratamiento y, por lo general, se quedan
atrapadas con el aprendizaje del nuevo sistema, sin un trabajo real sobre la
mentalidad o la gestión del cambio de comportamiento debido a que se quedan
tanto en la idea de seguir con el mismo sistemas y se cierran a nuevas
oportunidades o cambios en este caso a manejar o adentrarse a nuevos sistemas
más actualizados.

En segundo lugar, muchos de los llamados procesos de gestión del cambio utilizan
la palabra "cambio" de una manera bastante generosa. Después de todo, es
atractivo en sí mismo y desencadena sentimientos de seriedad, el final de una
manera y el comienzo de una nueva manera. Pero el cambio sostenible que perdura
y altera el futuro, ya sea el futuro de una persona, una organización o una empresa,
para bien, solo puede ser un cambio de comportamiento o en ocasiones puede
provocar un verdadero cambio muy radical en ciertas personas.

Racionalmente, la mayoría de nosotros entiende que tiene sentido cambiar a un


mejor proceso o sistema o tener una mayor eficiencia. Pero las emociones
involucradas son otra cuestión y no necesariamente siguen un curso racional. Así
que la próxima vez que se le ofrezca la oportunidad de conservar su hardware y
embarcarse en la introducción de un nuevo software que lo llevará al siguiente nivel
de complejidad y posibilidad, debe gritar: ¿dónde está el orgware? Puede ser la
pregunta más importante que hace.

Orgware es un neologismo que se ha creado en apoyo de los conceptos hardware


y software.

La designación orgware, donde ‘’org’’ procede de ‘’organización’’, indica que al


emplear ordenadores no hay que contar solamente con los equipos técnicos
(hardware) y con las instrucciones (software) si no también con la organización. Es
el componente estructural de un sistema tecnológico especialmente concebido para
integrar al hombre y sus competencias profesionales y asegurar el funcionamiento
del hardware y software del sistema así como la interacción de este con otros
elementos y con otros sistemas de naturaleza diferente.

192
Características del orgware:

 Un conjunto de partes. Un sistema tiene más de un elemento. Un volante no


es un sistema, pero es una parte vital de un sistema muy conocido que se
llama automóvil.
 Partes integradas. Debe existir una relación lógica entre las partes de un
sistema. Los sistemas mecánicos y electrónicos, como son las lavadoras y
video juegos, tiene muchos componentes que trabajan juntos. Un sistema de
administración de personal cuenta con procedimientos integrados para
contratar y adiestrar empleados.
 El propósito de logar algún objetivo común. El sistema se diseña para
alcanzar uno o más objetivos. Todos los elementos del sistema deben estar
ligados y controlados de manera que se logre el objetivo del sistema.

El orgware proporciona el marco en el cual el hardware y el software consiguen una


aplicación rentable, ya que los ordenadores no se utilizan libremente y el marguen
de los sucesos que lo rodean. Los ordenadores son tan solo una parte del proceso
de trabajo que tiene que resolver una tarea en cuyo principio y fin está el hombre.
En la resolución de los problemas hay que procesar datos e informaciones diversas.
Y en estos precisamente puede ayudar el ordenador.

El ordenador es solamente un elemento auxiliar para el hombre en la solución de


sus tareas.

Pero en todas partes donde los hombres tienen que resolver tareas conjuntamente,
crean un orden, una organización, que establece quien tiene que realizar y con qué
responsabilidades, competencias y deberes se hace cargo.

Todas las consideraciones y medidas que sirven para desarrollar, implantar una
organización.

Conceptos:

 El "orgware", "software" y "hardware" se refieren a los diferentes aspectos de


la transferencia de tecnología. Con hardware se entiende la tecnología en sí

193
misma y con el software las habilidades, el conocimiento y la capacidad que
acompañan a la transferencia de la tecnología. Orgware se refiere a la
construcción de capacidades de los diferentes actores institucionales
involucrados en el proceso de adaptación de una nueva tecnología.
 Creación de capacidad. Es el proceso mediante el cual individuos y
organizaciones obtienen, mejoran y retienen las habilidades y el
conocimiento necesarios para hacer su trabajo de manera competente.
 La transferencia de tecnología. También llamada transferencia de tecnología
(TOT), es el proceso de transferencia (diseminación) de tecnología desde los
lugares y grupos de su origen a una distribución más amplia entre más
personas y lugares.

194
GLOSARIO

Gprof: Es una herramienta de análisis de


rendimiento para aplicaciones Unix. Utilizó un híbrido de instrumentación y
muestreo y se creó como una versión extendida de la herramienta "prof" más
antigua. A diferencia de prof, gprof es capaz de limitar la recolección e impresión
de gráficos de llamadas.

JML: En español «Lenguaje de Modelaje para Java» es un lenguaje de


especificación para programas Java, que se sirve de pre-
, postcondiciones e invariantes de la lógica de Hoare, siguiendo el paradigma
de diseño por contrato. Las especificaciones se escriben como comentarios
de anotación Java en el código fuente, que por consiguiente puede compilarse con
cualquier compilador de Java.

Diff: Es una utilidad para la comparación de archivos que genera las diferencias
entre dos archivos o los cambios realizados en un archivo determinado
comparándolo con una versión anterior del mismo archivo. Diff expone los cambios
realizados por línea en los archivos de texto. Las implementaciones modernas
también soportan archivos binarios.

Kernels: Se denomina kernel a la parte más importante de un sistema operativo,


parte encargada de acceder a los distintos dispositivos de los que una computadora
dispone organiza a la manera en la que se ejecutan los diversos programas que se
cargan en memoria.

Hipervínculo: Vínculo asociado a un elemento de un documento con hipertexto,


que apunta a un elemento de otro texto u otro elemento multimedia.

Ofimática: Aplicación de la informática a las técnicas y trabajos de oficina.

Navegabilidad: Sistema informático que nos permite encontrar páginas web o


resultados en base a la frase o palabra que hayamos ingresado y estemos
buscando.

195
Macros: Es una serie de instrucciones que se almacenan para que se puedan
ejecutar de manera secuencial mediante una sola llamada u orden de ejecución.
Dicho de otra manera, un macroinstrucción es una instrucción compleja, formada
por otras instrucciones más sencillas. Esto permite la automatización de tareas
repetitivas.

Tuplas: Es un tipo de dato secuencial. Sirve para agrupar, como si fueran un único
valor, varios valores.

Fotograma: Es cada una de las imágenes impresas químicamente en la tira


de celuloide del cinematógrafo o bien en la película fotográfica.

Bus de datos: Un bus de datos es una autopista o canal de transmisión de


información dentro de la computadora que comunica a los componentes de dicho
sistema con el microprocesador.

Bus de direcciones: Se utiliza para direccionar las zonas de memoria y los


dispositivos (que recordemos son tratados como si de posiciones de memoria se
tratasen), de forma que, al escribir una dirección en el bus, cierto dispositivo quede
activado y sea quien reciba-envíe los datos en el ciclo de bus así empezado.

Memoria volátil: La memoria volátil de una computadora, contrario a memoria no


volátil, es aquella memoria cuya información se pierde al interrumpirse el flujo
eléctrico.

Microprocesador: es el circuito integrado central más complejo de un sistema


informático; a modo de ilustración, se le suele llamar por analogía el «cerebro» de
un ordenador. Es el encargado de ejecutar los programas, desde el sistema
operativo hasta las aplicaciones de usuario.

Fichero: Un archivo o fichero informático es un conjunto de bits que son


almacenados en un dispositivo. Un archivo es identificado por un nombre y la
descripción de la carpeta o directorio que lo contiene. A los archivos informáticos se
les llama así porque son los equivalentes digitales de los archivos escritos en
expedientes, tarjetas, libretas, papel o microfichas del entorno de oficina tradicional.

196
BIBLIOGRAFÍA
Harold J. Leavitt, T. L. (NOVEMBER de 1958). Management in the 1980’s.
Obtenido de https://hbr.org/1958/11/management-in-the-1980s
Historia De La Tecnología Informática. (5 de Octubre de 2008). Obtenido de
http://lainformatica.wikidot.com/historia-de-la-tecnologia-informatica
IIEH. (11 de MARZO de 2015). Historia de la tecnología de la información 1: El
origen de la escritura. Obtenido de
http://www.iieh.com/noticias/noticias/noticias/historia-de-la-tecnologia-de-la-
informacion-1-el-origen-de-la-escritura
JOAQUIN. (22 de ENERO de 2013). Historia de la computadora: Eras y
generaciones. Obtenido de http://informaticaxp.net/historia-eras-y-generaciones-
de-la-computadora
Julián Pérez Porto, Ana Gardey. (2014). Tecnología de la información. Obtenido
de https://definicion.de/tecnologia-de-la-informacion/
Ortiz, G. G. (2006). Tecnologías de la información y comunicación. Colección
DGETI.

http://www.monografias.com/trabajos3/tiposram/tiposram.shtml#ixzz56CQmddRu
http://www.monografias.com/trabajos3/tiposram/tiposram.shtml#ixzz56Cwy5t00
https://www.definicionabc.com/tecnologia/memoria-rom.php
http://equiposdecomputobac.blogspot.mx/2012/02/memoria-rom-prom-eprom-y-
eeprom.html
http://electronica-teoriaypractica.com/memoria-prom/
https://sites.google.com/site/elalmacenamiento/cinta-magnetica
https://techlandia.com/unidad-cinta-magnetica-hechos_393321/
http://infoevolucion.blogspot.mx/2009/01/los-discos-magneticos.html
http://www.cavsi.com/preguntasrespuestas/que-es-un-disco-magnetico/
https://www.aboutespanol.com/disco-duro-que-es-3866824
http://www.alegsa.com.ar/Dic/disquete.php
http://acordesinformaticos.blogspot.mx/2014/06/raid-definicion-y-tipos.html
http://www.guiaspracticas.com/dispositivos-de-almacenamiento-de-datos/discos-
opticos

197
https://es.wikipedia.org/wiki/Disco_magneto-%C3%B3ptico
http://infoevolucion.blogspot.mx/2009/02/el-dvd-del-ingles-digital-versatile.html
https://es.wikipedia.org/wiki/DVD-Video
https://es.wikipedia.org/wiki/DVD-ROM
https://es.wikipedia.org/wiki/DVD-RW
https://es.wikipedia.org/wiki/DVD-RAM
https://es.wikipedia.org/wiki/SuperDisk
https://www.xataka.com/otros/especial-tecnologias-derrotadas-iomega-zip
https://es.wikipedia.org/wiki/Unidad_Jaz
http://vualaa.com/definiciones/que-es-una-memoria-usb/
http://www.valortop.com/blog/usb
http://es.ccm.net/contents/402-tarjeta-sd-secure-digital
http://server-die.alc.upv.es/asignaturas/PAEEES/2006-07/Tarjetas%20SD.pdf
http://dle.rae.es/?id=YErlG2H
https://definicion.de/software/
https://es.oxforddictionaries.com/definicion/software
https://en.oxforddictionaries.com/definition/software
http://ipdd-amb22-p2-ym.blogspot.mx/2013/04/1-definicion-origen-evolucion.html
http://www.alegsa.com.ar/Dic/sistema_informatico.php

https://www.ieee.org/searchresults/index.html?cx=006539740418318249752%3Af
2h38l7gvis&cof=FORID%3A11&qp=&ie=UTF-8&oe=UTF-
8&q=sofware#gsc.tab=0&gsc.q=software&gsc.sort=
http://www.cavsi.com/preguntasrespuestas/cual-es-la-historia-del-software/
https://es.wikipedia.org/wiki/Software
https://es.wikipedia.org/wiki/Ingenier%C3%ADa_de_software#Historia

https://es.slideshare.net/MauraPerez001/historia-y-evolucion-del-software-
9165502
http://proyectoova.webcindario.com/software_de_sistema.html

198
http://www.tiposdesoftware.com/tipos-de-software-de-sistema.htm

http://www.monografias.com/trabajos75/sistema-computadoras/sistema-
computadoras2.shtml
https://es.wikipedia.org/wiki/Software
http://www.areatecnologia.com/sistemas-operativos.htm
https://es.wikipedia.org/wiki/Interfaz_gr%C3%A1fica_de_usuario
http://culturacion.com/sistema-operativo-multitarea-cual-es-su-funcion/

http://softwaredesistemaarianaquintana.blogspot.mx/2011/09/sistemas-de-tarea-
unica-y-multitareas.html
https://es.wikipedia.org/wiki/Microsoft_Windows
https://es.wikipedia.org/wiki/Microsoft
https://es.wikipedia.org/wiki/DOS

http://www.maestrosdelweb.com/historia-y-evolucion-del-sistema-operativo-mac-
os/
https://es.wikipedia.org/wiki/Mac_OS
https://es.wikipedia.org/wiki/MacOS
http://es.ccm.net/contents/695-introduccion-a-los-sistemas-unix
https://hipertextual.com/archivo/2014/05/que-es-unix/
https://www.gnu.org/home.es.html
https://es.wikipedia.org/wiki/Controlador_de_dispositivo
http://gersongalvez96.blogspot.mx/2013/08/programas-utilitarios.html
https://es.wikipedia.org/wiki/Directorio

199

Das könnte Ihnen auch gefallen