Beruflich Dokumente
Kultur Dokumente
Taller de Informática y
TICs
Unidad 1: Modulo Introductorio
Ing. Pablo Argañaras, Ing. Gabriel Ruffini, Lic. Noelia Verdún, A.S.
Hector Ruiz, Lic. Patricia Punklett, Lic. Damian Merlo, Mg.
Hector Luis Vivas, Dra. Paola V. Britos
2013
2
3.1.6. Medios de Transmisión.................................................................................................................................................. 31
3.1.6.1. Medios Guiados ................................................................................................................................................................. 31
3.1.6.2. Medios No Guiados .......................................................................................................................................................... 32
3.1.7. Clasificación de Redes por relación funcional ...................................................................................................... 33
3.1.7.1. Redes Punto a Punto ....................................................................................................................................................... 33
3.1.7.2. Redes Cliente-Servidor................................................................................................................................................... 33
3.1.8. Clasificación de Redes por Alcance ........................................................................................................................... 33
3.1.8.1. Redes de Área Personal (PAN).................................................................................................................................... 34
3.1.8.2. Red de Área Local (LAN) ............................................................................................................................................... 34
3.1.8.3. Red de Área Metropolitana (MAN) ........................................................................................................................... 36
3.1.8.4. Red de Área Amplia (WAN).......................................................................................................................................... 36
3.2. Internet........................................................................................................................................................................................... 37
3.2.1. Características ................................................................................................................................................................... 37
3.2.2. Intranet ................................................................................................................................................................................. 38
3.2.3. Extranet ................................................................................................................................................................................ 38
3.2.4. Tendencias de Internet .................................................................................................................................................. 38
3.2.5. Opciones de Conexión a Internet ............................................................................................................................... 39
3.2.5.1. Cable Módem ..................................................................................................................................................................... 39
3.2.5.2. Conexión ADSL .................................................................................................................................................................. 40
3.2.5.3. Acceso Inalámbrico.......................................................................................................................................................... 41
3.2.6. Internet y su uso ............................................................................................................................................................... 42
3.2.7. Historia ................................................................................................................................................................................. 43
3.2.8. Internet y sociedad .......................................................................................................................................................... 44
4. Software de base y de aplicación .................................................................................................................................................. 47
4.1. Software de base ........................................................................................................................................................................ 47
4.2. Software de aplicación ............................................................................................................................................................. 47
4.3. Windows y Linux ........................................................................................................................................................................ 48
4.3.1. Windows .............................................................................................................................................................................. 48
4.3.2. Linux ...................................................................................................................................................................................... 48
4.4. Software de aplicación para Windows y Linux.............................................................................................................. 50
5. Las caras del software libre ............................................................................................................................................................. 52
6. Uso correcto de la PC.......................................................................................................................................................................... 55
6.1. Cuida tus ojos frente a la computadora ............................................................................................................................ 55
6.2. Correctas posturas frente a la Computadora.................................................................................................................. 56
6.3. Ejercicios de estiramiento al trabajar con el PC ............................................................................................................ 59
7. Seguridad de la Informacion ........................................................................................................................................................... 60
7.1. Objetivo .......................................................................................................................................................................................... 60
7.2. Alcance ........................................................................................................................................................................................... 60
7.3. Desarrollo de conceptos .......................................................................................................................................................... 60
7.3.1. Seguridad de la información ........................................................................................................................................ 60
7.3.1.1. ¿Qué es la seguridad de la información? ....................................................................................................... 60
3
7.3.1.2. ¿Por qué es necesaria la seguridad de la información? ......................................................................... 61
7.3.1.3. El esquema de Seguridad de la Información ............................................................................................... 61
7.3.1.4. Administración de riesgos y controles........................................................................................................... 62
7.3.1.5. Vulnerabilidades más conocidas y métodos de protección .................................................................. 63
7.3.1.6. Concientización de usuarios............................................................................................................................... 66
7.3.1.7. Continuidad de las actividades de sistemas ................................................................................................ 67
7.3.2. Legislación........................................................................................................................................................................... 68
7.3.3. Conclusiones....................................................................................................................................................................... 69
7.3.4. Glosario................................................................................................................................................................................. 69
8. Trabajo Práctico ................................................................................................................................................................................... 71
9. Bibliografía ............................................................................................................................................................................................. 72
10. Recursos multimediales ............................................................................................................................................................... 73
4
1. Definición de conceptos generales
1.1. Informática
De acuerdo a Wikipedia (Wikipedia, 2009), el vocablo informática proviene del francés informatique, acuñado
por el Ing. Philippe Dreyfrus en 1962. Es un acrónimo de las palabras information y automatique (información
automática). En lo que hoy día conocemos como informática confluyen muchas de las técnicas, procesos y
máquinas que el hombre ha desarrollado a lo largo de la historia para apoyar y potenciar su capacidad de
memoria, de pensamiento y de comunicación.
En el Diccionario de la Real Academia Española se define informática como: Conjunto de conocimientos
científicos y técnicas que hacen posible el tratamiento automático de la información por medio de ordenadores.
Conceptualmente, se puede entender como aquella disciplina encargada del estudio de métodos, procesos,
técnicas, desarrollos y su utilización en ordenadores (computadores), con el fin de almacenar, procesar y
transmitir información y datos en formato digital, por lo tanto la electrónica juega un papel muy importante en
la informática ya que mediante esta ciencia se puede entender a plenitud el entorno de hardware y software.
La informática es la ciencia aplicada que abarca el estudio y aplicación del tratamiento automático de la
información utilizando dispositivos electrónicos y sistemas computacionales. También está definida como el
procesamiento automático de la información. De acuerdo a lo indicado, los sistemas informáticos deben
realizar las siguientes tres tareas básicas:
Entrada: Captación de la información digital.
Proceso: Tratamiento de la información.
Salida: Transmisión de resultados binarios.
En los inicios del procesado de información, con la informática sólo se facilitaba los trabajos repetitivos y
monótonos del área administrativa, gracias a la automatización de esos procesos, ello trajo como consecuencia
directa una disminución de los costes y un incremento en la producción.
En la informática convergen los fundamentos de las ciencias de la computación, la programación y
metodologías para el desarrollo de software, la arquitectura de computadores, las redes de datos (como
Internet), la inteligencia artificial y ciertas cuestiones relacionadas con la electrónica. Se puede entender por
informática a la unión sinérgica de todo este conjunto de disciplinas.
Esta disciplina se aplica a numerosas y variadas áreas del conocimiento o la actividad humana, como por
ejemplo: gestión de negocios, almacenamiento y consulta de información, monitorización y control de procesos,
industria, robótica, comunicaciones, control de transportes, investigación, desarrollo de juegos, diseño
computarizado, aplicaciones/herramientas multimedia, medicina, biología, física, química, meteorología,
ingeniería, arte, etc. Una de la aplicaciones más importantes de la informática es facilitar información en forma
oportuna y veraz, lo cual, por ejemplo, puede tanto facilitar la toma de decisiones a nivel gerencial (en una
empresa) como permitir el control de procesos críticos.
Actualmente es difícil concebir un área que no use, de alguna forma, el apoyo de la informática. Ésta puede
cubrir un enorme abanico de funciones, que van desde las más simples cuestiones domésticas, hasta cálculos
científicos complejos.
La informática es un amplio campo que incluye los fundamentos teóricos, el diseño, la programación y el uso de
las computadoras (ordenadores). Las computadoras actuales son fruto de la actividad creadora del hombre,
para dar respuesta a necesidades crecientes de la sociedad, en relación con la conservación, procesamiento y
acceso a colosales volúmenes de información. Algunos momentos principales en ese proceso de desarrollo son
los siguientes:
En el siglo XIX, el matemático e inventor británico Charles Babbage, elaboró los principios de la
computadora digital moderna.
En la década de los años 40 del siglo XX, se creó el primer ordenador digital totalmente electrónico.
En la década de los años 1980 se crearon los microordenadores, comúnmente denominados PC
(Computador Personal).
5
En la década de los años 1990 se produjo un desarrollo acelerado de los microprocesadores; se crearon
los primeros microprocesadores Pentium y consecuentemente una nueva generación de
microordenadores.
Actualmente se dice que estamos entrando en una nueva generación (la nanotecnología).
Algunos campos de aplicación son:
Fundamentación matemática: Álgebra de Boole, Matemática discreta, Lógica matemática.
Informática teórica: Algoritmos, Complejidad computacional, Teoría de la computabilidad, Lenguajes
formales, Lenguajes imperativos, Lenguajes declarativos, Semántica denotacional, Teoría de grafos,
Teoría de la información, Teoría de la computación.
Hardware: Sistemas Digitales, Circuitos integrados, Robótica, Máquina analítica.
Software: Programas, Algoritmos, Programación, Programación concurrente, Programación paralela,
Lenguajes de programación, Paradigmas de programación, Ingeniería de software, Modelado del
software, Optimización, Orientación a objetos, Patrones de diseño, Sistemas operativos, Entornos
gráficos de usuario, Compiladores, Software libre y Código abierto.
Software Empresarial: Inteligencia empresarial, Comercio electrónico, Sistemas de información
gerencial, Almacén de datos, Explotación de Información (datamining), Intranet , Backup remoto.
Tratamiento de la información: Adquisición de datos, Tipo de dato abstracto, Estructura de datos, Tipos
de datos, Formato de almacenamiento, Compresión de datos, Bases de datos, Criptografía, Multimedia,
Diseño web, Computación gráfica, Retoque imagen 2D y 3D , Visualización.
Metodologías específicas: Benchmark, Seguridad, Criptografía, Inteligencia artificial, Lingüística
computacional, Modelado y Simulación, Reconocimiento de patrones, Reconocimiento del habla,
Computación de alto rendimiento, Computación en tiempo real, Extracción de la información.
Aplicaciones.
Matemáticas: Álgebra computacional, Análisis numérico, Computación gráfica.
Científicas: Química computacional, Física computacional, Bioinformática, Interacción hombre-
máquina.
1.2. La importancia del uso de las TICs en los distintos ámbitos profesionales
¿Qué es TICs?, las TICs es la Tecnología de la Información y las Comunicaciones, o sea, es el conjunto de
tecnologías aplicadas para el procesamiento electrónico y la transmisión de datos.
Mucho se ha escrito acerca de cómo la Tecnología de la Información y las Comunicaciones (TICs) se encuentran
involucradas en nuestra vida cotidiana, favorecen nuestro desarrollo profesional y proveen valiosas
herramientas para la realización de actividades tanto laborales, académicas o particulares. El presente punto
tiene como objetivo describir estas facilidades desde una visión práctica orientada a las carreras que se dictan
en la UNRN.
6
1.2.2. Carreras pertenecientes a la escuela de Docencia, Humanidades y Estudios Sociales
En las carreras asociadas a esta escuela quizás es donde la relación con las TICs no parezca evidente en una
primera mirada, pero al bajar un poco de nivel se pueden descubrir muchas herramientas útiles que proveen
un adecuado soporte a las actividades que se desarrollan en las mismas, por ejemplo:
Buscadores de contenidos.
Diccionarios digitales.
Digitalizadores y editores multimedia. Equipos de grabación y reproducción de audio y/o video.
Herramientas de traducción de contenidos.
Herramientas para procesar texto, armar publicaciones, presentaciones, afiches comerciales, etc.
Herramientas de diseño gráfico, entre otras.
1.3. Computadora
De acuerdo a Wikipedia (Wikipedia, 2009), una computadora (del latín computare -calcular), también
denominada ordenador o computador, es una máquina electrónica que recibe y procesa datos para
convertirlos en información útil. Una computadora es una colección de circuitos integrados y otros
componentes relacionados que puede ejecutar con gran precisión, rapidez, y de acuerdo a lo indicado por un
usuario o automáticamente por otro programa, una gran variedad de secuencias o rutinas de instrucciones que
son ordenadas, organizadas y sistematizadas en función a una amplia gama de aplicaciones prácticas y
precisamente determinadas, proceso al cual se le ha denominado con el nombre de programación y al que lo
realiza se le llama programador. La computadora, además de la rutina o programa informático, necesita de
datos específicos (a estos datos, en conjunto, se les conoce como "Input" en inglés) que deben ser
suministrados, y que son requeridos al momento de la ejecución, para proporcionar el producto final del
procesamiento de datos, que recibe el nombre de "output". La información puede ser entonces utilizada,
reinterpretada, copiada, transferida, o retransmitida a otra(s) persona(s), computadora(s) o componente(s)
electrónico(s) local o remotamente usando diferentes sistemas de telecomunicación, pudiendo ser grabada,
salvada o almacenada en algún tipo de dispositivo o unidad de almacenamiento
La característica principal que la distingue de otros dispositivos similares, como la calculadora no programable,
es que es una máquina de propósito general, es decir, puede realizar tareas muy diversas, de acuerdo a las
posibilidades que brinde los lenguajes de programación y el hardware.
7
1.3.1. Una visión esquemática
Imaginemos una oficina, antes de la era de la PC (abreviatura de: Personal Computer: computadora personal),
donde hay una persona trabajando en su escritorio y al lado un mueble del tipo fichero que contiene cajones
donde la información está guardada en carpetas.
Podemos hacer una analogía diciendo que la persona (el procesador), es quien trae al área de trabajo (memoria
RAM) desde el fichero (disco rígido) los documentos con los que va a trabajar (los cuales dentro del fichero
están guardados en carpetas). Se despliegan en el escritorio los documentos y la persona opera sobre los
mismos. Una vez que termina los vuelve a guardar en el fichero.
Almacenamiento
Procesamiento
Área de Trabajo
Estas son las operaciones básicas de una computadora. Hay un dispositivo de procesamiento
(microprocesador) que controla el intercambio de información y realiza el procesamiento de los datos. Hay un
espacio de almacenamiento temporario de los datos para operar con los mismos que llamamos “área de
trabajo” (memoria RAM: Random Access Memory). Finalmente un espacio de almacenamiento definitivo de los
datos (disco rígido) que permite guardar los trabajos realizados y el software que nos permite realizarlos.
Sobre la base de esta analogía podemos ver por qué es necesaria la memoria y cuál es la diferencia con el disco
rígido. La diferencia de capacidad entre una memoria y un disco rígido en una PC de escritorio suele ser de 100
a 1 o mayores, lo cual es correcto, un área de trabajo demasiado grande deja de ser manejable así como no sería
manejable que la persona trabaje en un escritorio de 10 metros de largo. Algo parecido ocurre con las
velocidades de acceso, en el caso de un disco se habla de milisegundos y para las memorias de nanosegundos, o
sea, un millón de veces más rápido. Salvando las distancias es mucho más rápido tomar un papel del escritorio
que ir a buscarlo al fichero.
En conclusión: el área de trabajo debe ser un espacio de acceso rápido y capacidad acotada a lo que el
microprocesador pueda manejar. Las 3 variables son fundamentales y deben tener cierto balance entre sí.
Normalmente cuando se quiere mejorar la performance de un ordenador, realizar una ampliación de memoria
suele ser la mejor opción (es lo que más se aprecia en la práctica). El técnico que realice dicho trabajo deberá
conocer hasta qué punto se puede ampliar la misma, sobre la base de las características técnicas del equipo, por
ello es fundamental guardar los manuales y material técnico con que se suele entregar una computadora nueva.
1.3.2. Arquitectura
Aunque las tecnologías empleadas en las computadoras digitales han cambiado mucho desde que aparecieron
los primeros modelos en los años 40, la mayoría todavía utiliza la Arquitectura de von Neumann, publicada a
principios de los años 1940 por John von Neumann, que otros autores atribuyen a John Presper Eckert y John
William Mauchly.
Un típico símbolo esquemático para una ALU: A y B son operandos; R es la salida; F es la entrada de la
unidad de control; D es un estado de la salida
La unidad aritmético lógica o ALU es el dispositivo diseñado y construido para llevar a cabo las
operaciones elementales como las operaciones aritméticas (suma, resta, ...), operaciones lógicas (Y, O,
NO), y operaciones de comparación o relacionales. En esta unidad es en donde se hace todo el trabajo
computacional.
La unidad de control sigue la dirección de las posiciones en memoria que contienen la instrucción que
el computador va a realizar en ese momento; recupera la información poniéndola en la ALU para la
operación que debe desarrollar. Transfiere luego el resultado a ubicaciones apropiadas en la memoria.
Una vez que ocurre lo anterior, la unidad de control va a la siguiente instrucción (normalmente situada
en la siguiente posición, a menos que la instrucción sea una instrucción de salto, informando al
ordenador de que la próxima instrucción estará ubicada en otra posición de la memoria).
Los dispositivos E/S sirven a la computadora para obtener información del mundo exterior y/o
comunicar los resultados generados por el computador al exterior. Hay una gama muy extensa de
dispositivos E/S como teclados, monitores, unidades de disco flexible o cámaras web.
1.4. Hardware
De acuerdo a Wikipedia (Wikipedia, 2013), Hardware corresponde a todas las partes físicas y tangibles de una
computadora: sus componentes eléctricos, electrónicos, electromecánicos y mecánicos; sus cables, gabinetes,
periféricos de todo tipo y cualquier otro elemento físico involucrado; contrariamente al soporte lógico e
intangible que es llamado software. El término proviene del inglés y es definido por la RAE como el "Conjunto
de los componentes que integran la parte material de una computadora". Sin embargo, el término, aunque es lo
más común, no necesariamente se aplica a una computadora tal como se la conoce, así por ejemplo, un robot
también posee hardware (y software).
10
A continuación se presentan los componentes básicos de hardware de una computadora:
1. Monitor
2. Placa base (o placa madre)
3. CPU (o microprocesador)
4. Memoria RAM
5. Tarjeta de expansión
6. Fuente de alimentación
7. Disco óptico
8. Disco duro (o disco rígido)
9. Teclado
10. Mouse
1.4.1. Historia
La evolución del hardware, está dividida en generaciones, donde cada una supone un cambio tecnológico
muy notable. El origen de las primeras es sencillo de establecer, ya que en ellas el hardware fue sufriendo
cambios radicales: Los componentes esenciales que constituyen la electrónica del computador fueron
totalmente reemplazados en las primeras tres generaciones, originando cambios que resultaron
trascendentales. En las últimas décadas es más difícil establecer las nuevas generaciones, ya que los cambios
han sido graduales y existe cierta continuidad en las tecnologías usadas. En principio, se pueden distinguir:
1ª Generación (1945-1956): Electrónica implementada con tubos de vacío. Fueron las primeras
máquinas que desplazaron los componentes electromecánicos (relés).
2ª Generación (1957-1963): Electrónica desarrollada con transistores. La lógica discreta era muy
parecida a la anterior, pero la implementación resultó mucho más pequeña, reduciendo, entre otros
factores, el tamaño de un computador en notable escala.
3ª Generación (1964-hoy): Electrónica basada en circuitos Integrados. Esta tecnología permitió integrar
cientos de transistores y otros componentes electrónicos en un único circuito integrado conformando
una pastilla de silicio. Las computadoras redujeron así considerablemente su costo y tamaño,
incrementándose su capacidad, velocidad y fiabilidad, hasta producir máquinas como las que existen en
la actualidad.
4ª Generación (futuro): Probablemente se originará cuando los circuitos de silicio, integrados a alta
escala, sean reemplazados por un nuevo tipo de tecnología.
La aparición del microprocesador marca un hito de relevancia, y para muchos autores constituye el inicio de la
cuarta generación. A diferencia de los cambios tecnológicos anteriores, su invención no supuso la desaparición
radical de los computadores que no lo utilizaban. Así, aunque el microprocesador 4004 fue lanzado al mercado
en 1971, todavía a comienzo de los 80's había computadores, como el PDP-11/44, con lógica carente de
microprocesador que continuaban exitosamente en el mercado; es decir, en este caso el desplazamiento ha sido
muy gradual.
Otro hito tecnológico usado con frecuencia para definir el inicio de la cuarta generación es la aparición de los
circuitos integrados VLSI, a principios de los ochenta. Al igual que el microprocesador no supuso el cambio
inmediato y la rápida desaparición de los computadores basados en circuitos integrados en más bajas escalas
de integración. Muchos equipos implementados con tecnologías VLSI y MSI aun coexistían exitosamente hasta
bien entrados los 90.
11
otro lado, el "Hardware complementario", que, como su nombre indica, es el utilizado para realizar funciones
específicas (más allá de las básicas), no estrictamente necesarias para el funcionamiento de la computadora.
Las computadoras son aparatos electrónicos capaces de interpretar y ejecutar instrucciones programadas y
almacenadas en su memoria, ellas consisten básicamente en operaciones aritmético-lógicas y de
entrada/salida. Se reciben las entradas (datos), se las procesa y almacena (procesamiento), y finalmente se
producen las salidas (resultados del procesamiento). Por ende todo sistema informático tiene, al menos,
componentes y dispositivos hardware dedicados a alguna de las funciones antedichas; a saber:
1. Procesamiento: Unidad Central de Proceso o CPU
2. Almacenamiento: Memorias
3. Entrada: Periféricos de Entrada (E)
4. Salida: Periféricos de salida (S)
5. Entrada/Salida: Periféricos mixtos (E/S)
Desde un punto de vista básico y general, un dispositivo de entrada es el que provee el medio para permitir el
ingreso de información, datos y programas (lectura); un dispositivo de salida brinda el medio para registrar la
información y datos de salida (escritura); la memoria otorga la capacidad de almacenamiento, temporal o
permanente (almacenamiento); y la CPU provee la capacidad de cálculo y procesamiento de la información
ingresada (transformación).
Un periférico mixto es aquél que puede cumplir funciones tanto de entrada como de salida, el ejemplo más
típico es el disco rígido (ya que en él se lee y se graba información y datos).
A continuación se citan brevemente cada uno de los conceptos:
1. Unidad Central de Proceso
12
La placa madre, también conocida como placa base o con el anglicismo "board", es un gran circuito
impreso sobre el que se suelda el chipset, las ranuras de expansión (slots), los zócalos, conectores,
diversos integrados, etc. Es el soporte fundamental que aloja y comunica a todos los demás
componentes por medio de: Procesador, módulos de memoria RAM, tarjetas gráficas, tarjetas de
expansión, periféricos de entrada y salida. Para comunicar esos componentes, la placa base posee una
serie de buses con los cuales se trasmiten los datos dentro y hacia afuera del sistema.
La tendencia de integración ha hecho que la placa base se convierta en un elemento que incluye también
la mayoría de las funciones básicas (vídeo, audio, red, puertos de varios tipos), funciones que antes se
realizaban con tarjetas de expansión. Aunque ello no excluye la capacidad de instalar otras tarjetas
adicionales específicas, tales como capturadoras de vídeo, tarjetas de adquisición de datos, etc.
Las características fundamentales para identificar un procesador son: su velocidad, que se mide en GHz
(Gigahertz – miles de millones de ciclos por segundo) y la cantidad de núcleos (un procesador de 2
núcleos equivale a 2 procesadores en uno, con lo cual puede realizarse procesamiento dual, mientras un
procesador realiza una tarea, el otro realiza otra diferente).
(ver: http://es.wikipedia.org/wiki/Microprocesador).
2. Memoria RAM
Del inglés Random Access Memory, que significa
literalmente "memoria de acceso aleatorio"; tal término se
refiere a la cualidad de presentar iguales tiempos de acceso
a cualquiera de sus posiciones (ya sea para lectura o para
escritura). Esta característica también es conocida como
"acceso directo".
La RAM es la memoria utilizada en una computadora para el
almacenamiento temporal y de trabajo (no masivo). En la
RAM se almacena temporalmente la información, datos y
programas que la Unidad de Procesamiento (CPU) lee,
procesa y ejecuta. La memoria RAM también es conocida
como la Memoria principal, Central o de Trabajo" de una
computadora; a diferencia de las llamadas memorias auxiliares y de almacenamiento masivo (como
discos duros o cintas magnéticas).
Las memorias RAM son, comúnmente, de características volátiles; lo cual significa que pierden
rápidamente su contenido al interrumpir su alimentación eléctrica.
También son "dinámicas" (DRAM), esto es, que tienen a perder sus datos (por descarga, aún bajo
alimentación eléctrica), por lo cual necesitan un circuito electrónico específico que se encarga de
proveerle un "refresco" (de energía) para mantenerlos.
La memoria RAM de una computadora se provee e instala en los llamados “módulos”. Estos módulos
albergan varios circuitos integrados de memoria DRAM que, conjuntamente, conforman toda la
memoria principal.
Los Módulo de memoria RAM son la presentación más común en
computadoras modernas (computadora personal, servidor), son
tarjetas de circuito impreso que tienen soldados circuitos
integrados de memoria por una o ambas caras, además de otros
elementos como resistencias y condensadores. La tarjeta posee
una serie de contactos metálicos (con un recubrimiento de oro)
que le permiten hacer conexión eléctrica con el bus de memoria
del controlador de memoria en la placa base. Los integrados son
de tipo DRAM, memoria denominada "dinámica", en la cual las celdas de memoria son muy sencillas (un
transistor y un condensador), permitiendo la fabricación de memorias con gran capacidad (algunos
cientos de Megabytes) a un costo relativamente bajo. Las posiciones de memoria o celdas, están
organizadas en matrices y almacenan cada una un bit. Para acceder a ellas se han ideado varios métodos
13
y protocolos cada uno mejorado con el objetivo de acceder a las celdas requeridas de la manera más
veloz posible.
Las características fundamentales para identificar una memoria son: Su capacidad, medida en GB
(Gigabytes – miles de millones de bytes) y la velocidad de acceso.
(ver: http://es.wikipedia.org/wiki/Byte).
3. Periféricos
Se entiende por periférico a las unidades o dispositivos que permiten a la computadora comunicarse
con el exterior, esto es, tanto ingresar como exteriorizar información y datos. Los periféricos son los que
permiten realizar las operaciones conocidas como de entrada/salida (E/S). Aunque son estrictamente
considerados “accesorios” o no esenciales, muchos de ellos son fundamentales para el funcionamiento
adecuado de la computadora moderna; por ejemplo, el teclado, el disco duro y el monitor son elementos
actualmente imprescindibles; pero no lo son un scanner o un plotter. Para ilustrar este punto: en los
años 80, muchas de las primeras computadoras personales no utilizaban disco duro ni mouse (o ratón),
tenían sólo una o dos disqueteras, el teclado y el monitor como únicos periféricos.
3.1. Periféricos de entrada (E)
De esta categoría son aquellos que permiten el ingreso de información, en general desde alguna
fuente externa o por parte del usuario. Los dispositivos de entrada proveen el medio
fundamental para transferir hacia la computadora (más propiamente al procesador)
información desde alguna fuente, sea local o remota. También permiten cumplir la esencial tarea
de leer y cargar en memoria el sistema operativo y las aplicaciones o programas informáticos,
los que a su vez ponen operativa la computadora y hacen posible realizar las más diversas
tareas.
Entre los periféricos de entrada se puede mencionar: teclado, mouse o ratón, escáner, micrófono,
cámara web , lectores ópticos de código de barras, Joystick, lectora de CD o DVD (sólo lectoras),
placas de adquisición/conversión de datos, etc.
Pueden considerarse como imprescindibles para el funcionamiento, al teclado, mouse y algún
tipo de lectora de discos; ya que tan sólo con ellos el hardware puede ponerse operativo para un
usuario. Los otros son bastante accesorios, aunque en la actualidad pueden resultar de tanta
necesidad que son considerados parte esencial de todo el sistema.
Un teclado de computadora es un periférico, físico o virtual (por ejemplo
teclados en pantalla o teclados láser), utilizado para la introducción de
órdenes y datos en una computadora. Tiene su origen en los teletipos y las
máquinas de escribir eléctricas, que se utilizaron como los teclados de los
primeros ordenadores y dispositivos de almacenamiento (grabadoras de
cinta de papel y tarjetas perforadas). Aunque físicamente hay una miríada
de formas, se suelen clasificar principalmente por la distribución de teclado
de su zona alfanumérica, pues salvo casos muy especiales es común a todos
los dispositivos y fabricantes (incluso para teclados árabes y japoneses).
El mouse o ratón es un periférico de computadora de uso manual,
generalmente fabricado en plástico, utilizado como entrada o control de
datos. Se utiliza con una de las dos manos del usuario y detecta su
movimiento relativo en dos dimensiones por la superficie horizontal en la
que se apoya, reflejándose habitualmente a través de un puntero o flecha en
el monitor. Anteriormente, la información del desplazamiento era
transmitida gracias al movimiento de una bola debajo del ratón, la cual
accionaba dos rodillos que correspondían a los ejes X e Y. Hoy, el puntero
reacciona a los movimientos debido a un rayo de luz que se refleja entre el
ratón y la superficie en la que se encuentra. Cabe aclarar que un ratón
óptico apoyado en un espejo por ejemplo es inutilizable, ya que la luz láser
no desempeña su función correcta. La superficie a apoyar el ratón debe ser
opaca, una superficie que no genere un reflejo.
14
Un escáner es un periférico que se utiliza para convertir, mediante el uso de
la luz, imágenes o cualquier otro impreso a formato digital.
Son aquellos dispositivos que pueden operar de ambas formas: tanto de entrada como de salida.
Típicamente, se puede mencionar como periféricos mixtos o de Entrada/Salida a: discos rígidos,
disquetes, unidades de cinta magnética, lecto-grabadoras de CD/DVD, discos ZIP, etc. También
entran en este rango, con sutil diferencia, otras unidades, tales como: Memoria flash, tarjetas de
red, módems, placas de captura/salida de vídeo, etc.
15
Si bien, puede ponerse al pendrive o Memoria flash o Memoria USB en la categoría de
memorias, normalmente se las utiliza como dispositivos de almacenamiento masivo; y ellos son
todos de categoría Entrada/Salida.
Los dispositivos de almacenamiento masivo también son conocidos como "Memorias
Secundarias o Auxiliares". Entre ellos, sin duda, el disco duro ocupa un lugar especial, ya que es
el de mayor importancia en la actualidad, en él se aloja el sistema operativo, todas las
aplicaciones, utilitarios, etc. que utiliza el usuario; además de tener la suficiente capacidad para
albergar información y datos en grandes volúmenes por tiempo prácticamente indefinido. Los
servidores Web, de correo electrónico y de redes con bases de datos, utilizan discos rígidos de
grandes capacidades y con una tecnología que les permite trabajar a altas velocidades.
La Pantalla táctil (no el monitor clásico) es un dispositivo que se considera mixto, ya que además
de mostrar información y datos (salida) puede actuar como un dispositivo de entrada,
reemplazando, por ejemplo, algunas funciones del mouse y/o teclado.
El hardware gráfico lo constituyen básicamente las tarjetas de video que actualmente poseen su
propia memoria y Unidad de Procesamiento, llamada unidad de procesamiento gráfico (o GPU,
siglas en inglés de Graphics Processing Unit). El objetivo básico de la GPU es realizar
exclusivamente procesamiento gráfico, liberando al procesador principal (CPU) de esa costosa
tarea (en tiempo) para que pueda así efectuar otras funciones más eficientemente. Antes de las
tarjetas de video con aceleradores, era el procesador principal el encargado de construir la
imagen mientras la sección de video (sea tarjeta o de la placa base) era simplemente un
traductor de las señales binarias a las señales requeridas por el monitor; y buena parte de la
memoria principal (RAM) de la computadora también era utilizada para estos fines.
1.5. Software
Software, palabra proveniente del inglés (literalmente: partes blandas o suaves), que en nuestro idioma no
posee una traducción adecuada al contexto, aunque no es estrictamente lo mismo, suele sustituirse por
expresiones tales como programas (informáticos) o aplicaciones (informáticas).
La palabra software se refiere al equipamiento lógico o soporte lógico de una computadora, y comprende el
conjunto de los componentes lógicos necesarios para hacer posible la realización de una tarea específica, en
contraposición a los componentes físicos del sistema (hardware).
Tales componentes lógicos incluyen, entre otros, aplicaciones informáticas tales como procesador de textos,
planillas de cálculo, diseñador de presentación, administración (simple) de datos que permite al usuario
realizar todas las tareas concernientes a edición de textos, cálculos, presentaciones de diapositivas y registros
de información ordenada; software de sistema, tal como un sistema operativo, el que, básicamente, permite al
resto de los programas funcionar adecuadamente, facilitando la interacción con los componentes físicos y el
resto de las aplicaciones, también provee una interfaz ante el usuario.
Software es lo que se denomina producto en la Ingeniería de Software (rama particular de la Informática que
se dedica a producción de productos, ella a su vez esta divida en varias disciplinas).
Una definición más formal de software, dada IEEE (The Institute of Electrical and Electronics Engineers) en su
estándar 729 de 1993 es la siguiente: “Es el conjunto de los programas de cómputo, procedimientos, reglas,
documentación y datos asociados que forman parte de las operaciones de un sistema de computación.”
Bajo esta definición, el concepto de software va más allá de los programas de cómputo en sus distintos estados:
código fuente, binario o ejecutable; también su documentación, datos a procesar e información de usuario es
parte del software: es decir, abarca todo lo intangible, todo lo "no físico" relacionado.
En Ciencias de la Computación y en Ingeniería de Software, el software es toda la información procesada por los
sistemas informáticos: programas y datos. El concepto de leer diferentes secuencias de instrucciones desde la
memoria de un dispositivo para controlar los cálculos fue introducido por Charles Babbage como parte de su
máquina diferencial. La teoría que forma la base de la mayor parte del software moderno fue propuesta por vez
primera por Alan Turing en su ensayo de 1936, "Los números computables", con una aplicación al problema de
decisión.
16
1.5.1. Clasificación del software
Si bien esta distinción es, en cierto modo, arbitraria, y a veces confusa, a los fines prácticos se puede
clasificar al software en tres grandes tipos:
Software de sistema o de base: Su objetivo es desvincular adecuadamente al usuario y al
programador de los detalles del computador en particular que se use, aislándolo especialmente del
procesamiento referido a las características internas de: memoria, discos, puertos y dispositivos de
comunicaciones, impresoras, pantallas, teclados, etc. El software de sistema le procura al usuario y
programador adecuadas interfaces de alto nivel, herramientas y utilidades de apoyo que permiten su
mantenimiento. Incluye entre otros:
Sistemas operativos,
Controladores de dispositivo,
Herramientas de diagnóstico,
Herramientas de Corrección y Optimización,
Servidores, y
Utilidades.
Software de aplicación: Aquel que permite a los usuarios llevar a cabo una o varias tareas específicas,
en cualquier campo de actividad susceptible de ser automatizado o asistido, con especial énfasis en los
negocios. Incluye entre otros:
Aplicaciones de Sistema de control y automatización industrial,
Aplicaciones ofimáticas,
Software educativo,
Software empresarial,
Bases de datos,
Telecomunicaciones (p.ej. internet y toda su estructura lógica),
Videojuegos,
Software médico,
Software de Cálculo Numérico,
Software de Diseño Asistido (CAD), y
Software de Control Numérico (CAM).
18
Voz sobre IP:
Skype,
WengoPhone NG,
NetMeeting,
Etc.
P2P:
Napster,
eMule,
Shareaza,
Gnutella,
BitTorrent,
Ares Galaxy,
Etc.
Lenguajes de programación:
Assembler,
Fortran,
C,
HTML/XHTML,
JavaScript,
Etc.
En la figura de arriba, observamos una estructura de datos como se guardarían en una base, y, en la parte
superior, operaciones que se pueden realizar sobre los mismos.
Vemos también el concepto de “campo” que en leguaje coloquial puede explicarse como el “titulo” del dato, el
concepto que explica qué se guarda en esa columna. Por el contrario el “registro” es el conjunto de datos
guardados en cada campo, que suele representar a una entidad concreta, en este caso, por ejemplo podrían ser
estudiantes.
En la parte inferior podemos observar operaciones avanzadas que surgen de la manipulación de los datos,
como la elaboración de reportes, tableros (reportes dinámicos, que realizan mediciones, usualmente en
pantallas, y representan información visualizada en tiempo real), estadísticas y minería (extracción de patrones
de comportamiento de variables representativas que surgen del análisis profundo de los datos – ver:
http://es.wikipedia.org/wiki/Miner%C3%ADa_de_datos o también http://msdn.microsoft.com/es-
es/library/ms174949.aspx).
Algunos de los análisis estadísticos que pueden realizarse sobre los datos son:
20
Estadística Descriptiva
Análisis de Población.
Comportamiento de Variables.
Estadística Inferencial
Tendencias.
Funciones probabilísticas.
Ver: http://es.wikipedia.org/wiki/Estad%C3%ADstica
21
2. Información digital
La información vertida en este apartado corresponde Clara López Guzmán en La información digital.
22
En el mercado existen diferentes marcas de software enfocado al OCR, por ejemplo OmniPage Pro. Es
recomendable hacer pruebas antes de iniciar un largo proceso del OCR, esto evitará exhaustivas y largas
correcciones posteriores. Frecuentemente algunas letras son intercambiadas por otras, sobre todo al procesar
tipografías cursivas, por ejemplo, una e puede ser tomada por una c, o una l por 1. Aunque no hay muchas
pruebas que hacer cuando se trata de manuscritos de siglos atrás, en dicho caso, la opción será la captura del
texto o preservar el documento sólo como imagen, que es la tercera forma de obtener un texto digital.
1-bit blanco y negro. Cada punto puede ser blanco o negro. La calidad visual es
deficiente, la imagen es austera y las líneas pueden aparecer irregulares.
8-bit escala de grises. Cada punto puede estar dentro de 256 posibles tonos de gris. Da
una clara y buena imagen, es funcional para la mayoría de las imágenes que no tienen
colores.
8-bit color. Cada punto puede ser de uno de 256 colores. Da una imagen poco real en las
fotografías ya deja un aspecto granuloso pero funciona bien con dibujos e imágenes,
sobre todo para el Web.
24-bit color. Cada punto puede ser de uno de los 16.8 millones de colores. Este tipo de
digitalización es la de mayor calidad. Da una imagen realista y perfecta para fotografías,
el precio es un tamaño grande del archivo.
23
2.3.2. Resolución
La apariencia de una imagen digitalizada también depende de la resolución. La resolución es el número de
pixeles por unidad linear, medida en dpi (puntos por pulgada). Por ejemplo, un fax maneja una resolución de
200 dpi en dirección horizontal y 100 dpi en dirección vertical. Otro ejemplo son las impresoras láser, que en su
versión original manejaban 300 dpi en ambas direcciones. En la digitalización de imágenes la decisión de los
dpi regularmente se rige por consideraciones prácticas. Mientras más grande es el número de dpi, mayor
información tendrá un archivo y el detalle de la imagen será más fino.
Para desplegar imágenes en pantalla no es recomendable una resolución mayor a 100 dpi (una pantalla de 24
líneas por 80 caracteres, maneja una resolución de 80x60 dpi), sin embargo, si la imagen está pensada para
impresiones en papel o ampliaciones en pantalla será conveniente tener una resolución mayor (al menos 300
dpi), de igual manera, si son documentos valiosos que serán preservados de manera digital, como manuscritos
o ejemplares únicos no debe escatimarse en la calidad del documento y puede optarse por archivar una copia
de alta resolución y hacer otra, a menor resolución, para fines de difusión en el Web o cualquier otro servicio
que tenga como salida la pantalla de la computadora. Las imágenes de la figura & están digitalizadas a diferente
resolución, podemos observar una clara diferencia entre la calidad de una y la otra.
La siguiente tabla, es el resultado de una prueba realizada sobre una imagen escaneada a 24 bits, con cuatro
diferentes resoluciones y dos tipos de almacenamiento, sin compresión y con compresión, TIFF y JPEG,
respectivamente (formatos que se describen más adelante). Esta tabla nos muestra la importancia de elegir una
resolución adecuada, ya que el tamaño varía fuertemente de una resolución a otra.
DPI
_ 100 200 400 600
TIFF 1.93 Mbytes 7.81 Mbytes 31.3 Mbytes 70.3 Mbytes
JPEG 114 Kbytes 230 Kbytes 660 Kbytes 1.2 Mbytes
Tamaño de imágenes a diferente resolución
No olvidemos que el tamaño de una imagen repercute en su velocidad de recuperación y en su espacio de
almacenamiento, que bien no puede ser crítico en una imagen pero sí lo es cuando hablamos de cientos o miles
de ellas. De aquí, que es fundamental una seria valoración de la calidad que deberá tener el documento que
almacenaremos, según su uso: consulta, difusión o preservación.
24
TIFF es el formato estándar sin compresión más utilizado, su propósito es describir y almacenar datos
ricos de imágenes escaneadas. La riqueza de los datos es especialmente requerida para aprovechar las
capacidades de los escáneres y de otros dispositivos de manejo de imágenes. Describe imágenes blanco
y negro, en escala de grises, paleta de colores y colores completos (full-color). Es portable, no está
restringido por sistema operativo, compiladores o procesadores.
Para guardar archivos de imágenes existen formatos que incluyen compresión, por ejemplo: GIF y JPEG.
La compresión hace una selección y reacomodo de los datos almacenados de una imagen no
comprimida, de tal manera que se reduce el tamaño del archivo pero la imagen, en apariencia al ojo
humano, no se modifica notablemente. GIF ofrece una compresión moderada en 8-bit a color o grises,
mientras que JPEG ofrece una excelente compresión tanto en imágenes 8-bit como en 24-bit color.
GIF (Graphics Interchange Format) utiliza un método conocido como lossless compression
(compresión de poca pérdida) y fue muy utilizado hasta 1995.
JPEG (Joint Photographic Experts Group) proviene de un grupo de estándares de técnicas conocidas
como lossy compression (compresión con pérdidas).
Las imágenes de tono continuo, son comprimidas más frecuentemente con un método lossy, con este método la
imagen no puede ser recuperada exactamente igual a la original cuando se extrae de la versión comprimida. En
los casos en que la representación debe ser exactamente igual a la original se debe utilizar un método lossless.
Debe considerarse que en muchos casos es menos costoso almacenar imágenes que intentar reconstruirlas. El
almacenamiento de imágenes de documentos históricos deberá hacerse preferentemente con un método
lossless.
La siguiente tabla muestra el tamaño de los archivos de una misma imagen digitalizada con diferente número
de bits y almacenada en diferentes formatos, comprimida y sin comprimir. Este cuadro es el resultado de una
serie de pruebas realizadas con la portada a color de un libro de 18.5 cm de ancho por 23 cm de alto (7x9 plg).
El equipo utilizado fue un escáner Hewllet Packard modelo ScanJet 6100C. Para la conversión de imágenes TIFF
a JPEG o GIF, se utilizó Photoshop Versión 5.0.
Resulta interesante observar la drástica disminución en el tamaño del archivo de una imagen almacenada sin
compresión y comprimida. Asimismo, hay una diferencia significativa entre un método de compresión y otro.
No hay una regla única en la digitalización de imágenes. En algunos casos es importante la calidad, por
cuestiones de preservación del documento, y no escatimaremos en el tamaño del archivo para contar con los
parámetros óptimos de digitalización. En otros casos tendremos que encontrar un buen balance entre el
número de bits de digitalización, la resolución y el tipo de compresión para obtener una imagen digital de
calidad aceptable para fines sólo de difusión.
25
de calidad están determinados por el tamaño y la frecuencia de las muestras, así como del software y hardware
utilizado para la grabación.
Es importante recordar que los límites de la sensibilidad humana al sonido se sitúan entre los 20 Hz y los 20
kHz (1 kHz equivale a 1,000 vibraciones por segundo). Para tener una referencia, el sonido que se oye en un
radio portátil de AM llega a 9kHz como máximo. La frecuencia de muestreo y la frecuencia de un sonido no
están directamente relacionadas. Debido a razones técnicas, la frecuencia de muestreo siempre es el doble de la
frecuencia de un sonido en particular. Esta es la razón por la cual la frecuencia de muestreo utilizada para
grabar un CD de audio estándar (44.1 KHz) supera ligeramente el límite superior de la capacidad humana de
audición (20 KHz). En una tarjeta de sonido con límite de frecuencia de muestreo de 12 KHz se traduce en una
frecuencia de 6 Khz en sonidos reales.
En una grabación de 8 bits de resolución, el sonido es salvado en cualquier instante en particular como un valor
situado en una escala que va de 0 a 255. En cambio, en una grabación de 16 bits, el sonido es registrado como
un valor entre 0 y 65,536 niveles. Un oído medio puede distinguir la diferencia entre las grabaciones de audio a
8 bits y las de 16 bits. Las grabaciones a 8 bits albergan ruidos. Los realizados a 16 bits, en estéreo y a una
frecuencia de 44.1 kHz presentan una grabación de mayor definición y claridad.
El principal problema del audio en una biblioteca digital es el tamaño de los archivos, a mayor calidad mayor
espacio, e incluso con características pobres de calidad los archivos son grandes de cualquier manera.
Asimismo, los recursos internos del equipo que reproduce el sonido se ven sometidos a un pesado
procesamiento. El audio de una pequeña conferencia que pudiéramos grabar y que formara parte del acervo de
información requeriría de más espacio que una enciclopedia. Por ejemplo, el tamaño de los archivos de un
minuto de grabación 8-bit estéreo, a diferentes frecuencias de muestreo es:
11.025 kHz 1.25 Mb
22.050 kHz 2.52 Mb
44.1 kHz 5.04 Mb
48 kHz 5.49 Mb
Y el tamaño aproximado de un minuto de grabación a 16-bit:
11.025 kHz 2.52 Mb
22.050 kHz 5.04 Mb
44.1 kHz 10.08 Mb
48 kHz 10.98 Mb
La memoria y el espacio en disco aumentan de manera lineal con el incremento de la frecuencia.
27
3. Redes de datos e Internet
3.1. Comunicación de Datos
3.1.1. Introducción
La evolución de la tecnología de comunicaciones es muy importante para nuestra vida y para nuestras
posibilidades laborales: cualquier ámbito de trabajo informático hoy tiene comunicaciones, redes,
computadoras remotas que se consultan y utilizan. Esto nos lleva a la necesidad de estudiar como un
componente esencial de la disciplina informática, algunos aspectos de las comunicaciones.
En este punto podemos preguntarnos ¿Qué sentido puede tener comunicar computadoras? La respuesta resulta
inmediata, poder comunicarlas significa poder utilizar sus recursos a distancia.
La interconexión de computadoras incrementa la eficiencia en los trabajos de grupo al permitir una fluida
comunicación entre miembros de la organización ubicados en diferentes puntos.
De repente la computadora que está en la mejor Universidad de Estados Unidos es “alcanzable” y utilizable
desde nuestra modesta PC del Laboratorio de la Universidad. Al mismo tiempo los “usuarios” distantes pueden
comunicarse, cooperar y compartir recursos y trabajo, empleando sus computadoras conectadas.
Aunque en principio no lo parezca, poder comunicar computadoras es lo que nos permite ver en tiempo real,
sobre nuestra computadora un recital de los Rolling Stones que está sucediendo en otro extremo del planeta.
28
3.1.3. Componentes Básicos de una Red de Computadoras
Conceptualmente una red responde a un esquema general como el de la siguiente figura:
Subsistemas de Comunicaciones
Las computadoras locales (clientes): pueden ser muy diferentes y disponer de recursos propios.
Servidores: computadoras administradoras que provee de los servicios de la red a las computadoras
locales (clientes).
Medios de Transmisión: puede estar soportado por diferentes medios de transmisión de datos (cables
de cobre, fibra óptica, aire, etc.) y permite vincular las computadoras locales (clientes) por diferentes
tecnologías de transmisión.
Protocolos: naturalmente para poder comunicar coherentemente las computadoras de una red es
necesario establecer protocolos aceptados por todos (y esto implica hardware y software). Se deduce
que el sistema operativo de los clientes deben proveer dichos protocolos. Básicamente, un protocolo es
un acuerdo entre las partes que se comunican sobre cómo va a proceder la comunicación, definiendo
qué, cómo y cuándo se comunica. La comunicación exitosa entre computadoras de una red requiere la
interacción de gran cantidad de protocolos diferentes. Un grupo de protocolos interrelacionados que
son necesarios para realizar una función de comunicación se denomina suite de protocolos. Estos
protocolos se implementan en el software y hardware que está cargado en el sistema operativo de cada
computador y dispositivo de red.
Un mensaje enviado desde un origen hasta su destino puede tomar una ruta compuesta simplemente por un
cable que conecta dos computadoras u otra tan compleja como una red que abarca el mundo y utilice cientos
de componentes físicos de red. Esta infraestructura de red es la plataforma por la cual se producen las
comunicaciones.
Los dispositivos de red y los medios de transmisión son los elementos físicos o hardware de la red.
31
Par trenzado UTP – Cable Coaxial – Fibra Óptica
Cables de Cobre: Las transmisiones sobre cables de cobre requieren enviar señales eléctricas entre un
transmisor y un receptor desde los extremos del cable, y normalmente se trata de un medio de bajo
costo y muy adecuado para distancias relativamente cortas.
El cable de cobre más utilizado en el campo de las comunicaciones y la interconexión de computadoras
es el par trenzado no protegido UTP, (Unshielded Twisted Pair) comúnmente denominado “cable de red
UTP” del cual existen diferentes tipos. Las aplicaciones principales en las que se hace uso de cables de
red UTP son:
o El tramo de cable existente entre la Tarjeta de Red de la computadora y el dispositivo de red
instalado por el proveedor de servicio de Internet.
o Cableado estructurado de redes de área local en oficinas y edificios, en este caso se emplea UTP
Categoría 5 o Categoría 6 para transmisión de datos. Consiguiendo velocidades de 100 y 1000
Mbps.
Cable coaxial: se compone de un hilo conductor, llamado núcleo, y un mallado externo separados por
un aislante. Tiene mejor blindaje que el par trenzado, así que puede abarcar distancias mas largas a
mayores velocidades. Actualmente es utilizado por las compañías de TV cable para brindar el servicio
de TV y el servicio de Internet también.
Fibra óptica: ha sido un salto tecnológico muy importante (aunque a un costo mayor). Sucede que la
fibra óptica trasmite señales de luz, a una velocidad mucho mayor y con mucha menos posibilidad de
interferencia que un cable de cobre o coaxial. Actualmente todos los enlaces telefónicos importantes
han reemplazado el cableado convencional por la fibra óptica.
32
3.1.7. Clasificación de Redes por relación funcional
3.1.7.1. Redes Punto a Punto
En este tipo de red cada computadora o dispositivo tiene funciones y tareas equivalentes. Cada usuario es
responsable de sus propios recursos y datos decidiendo que desea compartir y que no. Debido a esto no hay
una administración o punto central de control en la red. Las computadoras y dispositivos de red se encuentran
conectados directamente entre sí.
En general este tipo de redes funcionan mejor en entornos pequeños de computadoras. Las computadoras
puede compartir archivos entre si, enviar mensajes, e imprimir documentos en una impresora compartida.
Algunas desventajas de esta clase de redes:
Se dificulta determinar quién controla los recursos, debido a que no existe una administración
centralizada dedicada.
Cada usuario debe utilizar medidas de seguridad individuales para la protección de los datos, dado que
no existe seguridad centralizada.
A medida que aumenta la cantidad de computadoras, resulta más difícil manejar la información.
33
Distancia entre Procesadores ubicados en el mismo Ejemplo correspondiente a
procesadores
10 km Ciudad Red de Área Metropolitana (MAN)
Viedma
100 km País Red de Área Amplia (WAN)
Argentina
1000 km Continente Red de Área Amplia (WAN)
América
10000 km Planeta Red de Área Amplia (WAN)
La Internet
100000 km Sistema Tierra-Luna Red de Área Amplia (WAN)
Una vez conectados a la red, los clientes inalámbricos pueden acceder a los recursos de la red como si
estuvieran conectados a la red a través de un medio cableado.
Un punto de acceso AP (Access Point) conecta a los clientes inalámbricos a la LAN cableada.
35
Routers inalámbricos
Las LAN separadas por una distancia geográfica están conectadas por una red que se conoce como Red de Área Extensa (WAN)
36
Ejemplos de redes WANs :
red RedIRIS, es la red española para Interconexión de los Recursos Informáticos de las universidades y
centros de investigación
La Internet es una red WAN
3.2. Internet
3.2.1. Características
Las redes de área local trajeron muchos beneficios sin embargo la mayoría de los usuarios necesitan
comunicarse con un recurso u otra red, fuera de la organización local.
Los ejemplos de este tipo de comunicación incluyen:
enviar un correo electrónico a un amigo en otro país,
acceder a noticias o productos de un sitio Web,
obtener un archivo de la computadora de un vecino,
mensajería instantánea con un pariente de otra ciudad, y
seguimiento de la actividad de un equipo deportivo favorito a través del teléfono celular.
Por lo cual se necesitaba un conjunto global de redes interconectadas que cubra estas necesidades de
comunicación humanas. Algunas de estas redes interconectadas pertenecen a grandes organizaciones públicas
o privadas, como agencias gubernamentales o empresas industriales, y están reservadas para su uso exclusivo.
La Internet es el conjunto de redes interconectadas mas ampliamente utilizada y a la que accede el público en
general.
Como se mencionó anteriormente Internet se encuentra dentro de la clasificación de red de área amplia.
Internet es una red de redes y está formada por un conjunto descentralizado de redes de datos interconectadas
en todo el mundo. Internet utilizan la suite de protocolos llamada TCP/IP mediante la cual garantiza que las
redes físicas heterogéneas que la componen funcionen como una red lógica única, de alcance mundial.
En la actualidad Internet se compone por la interconexión de redes que pertenecen a los Proveedores de
servicios de Internet ISP (Internet Service Provider). Estas redes ISP se conectan entre sí para proporcionar
acceso a millones de usuarios en todo el mundo.
37
3.2.2. Intranet
Una intranet es una red privada que se limita en alcance a una sola organización o entidad, donde la tecnología
de Internet se usa como arquitectura elemental.
Las organizaciones en general no desean que su información y servicios confidenciales se hagan públicos en
Internet, con este fin construyen servidores web para crear su intranet privada. El prefijo "intra" significa
"dentro", por lo tanto una intranet es una red dentro de alguna frontera de una organización. Las intranets usan
la misma tecnología usada por Internet, los mismos protocolos, servidores web y clientes web. La principal
característica de una intranet es que no permiten el acceso público a servidores privados.
Las intranets pueden coexistir con otra tecnología de red de área local.
La seguridad en una intranet es un factor importante y complicado de implementar, ya que se trata de brindar
seguridad restringiendo el acceso a las personas no autorizadas.
Para que se utiliza una Intranet
Medio de difusión de información interna a nivel de grupo de trabajo, consiguiendo que los empleados
estén informados con novedades y datos de la organización.
También es habitual su uso en universidades y otros centros de formación, ya que facilita la consulta de
diferentes tipos de información y el seguimiento de la materia del curso.
Repositorio de documentos y archivos, añadiéndoles un buscador y una organización adecuada, se puede
conseguir una consulta rápida y eficaz.
Las Intranet también deberían cumplir unos requisitos de accesibilidad web permitiendo su uso a la mayor
parte de las personas, independientemente de sus limitaciones físicas o las derivadas de su entorno.
Acceso a las bases de datos de la empresa.
Publicación de documentos y archivos internos: informes, listas de precios, publicaciones y manuales, etc.
Creación de aplicaciones y publicación de software de trabajo en equipo.
3.2.3. Extranet
Una extranet es una intranet a la que pueden acceder parcialmente prsonas autorizadas ajenas a la
organización o empresa propietaria de la intranet.
Mientras que una intranet reside detrás de un cortafuego (firewall) y solo es accesible por las personas que
forman parte de la organización propietaria de la intranet, una extranet proporciona diferentes niveles de
acceso a personas que se encuentran en el exterior de la organización. Esos usuarios pueden acceder a la
extranet solo si poseen un nombre de usuario y una contraseña con los que identificarse. La identidad del
usuario determina que partes de la extranet puede visualizar. Además para acceder a una extranet se suelen
emplear medios de comunicación seguros, como Secure Socket Layer (SSL) y Virtual Private Network (VPN).
Las extranets se están convirtiendo en un medio muy usado por empresas que colaboran para compartir
información entre ellas. Se emplean como medio de comunicación de una empresa con sus clientes,
proveedores o socios. Las extranets son la base del comercio electrónico entre empresas (Business to Business,
B2B).
38
Usuarios móviles
Con el aumento en la cantidad de trabajadores móviles y en el uso de dispositivos de mano, necesariamente
estamos demandando más conectividad móvil a las redes de datos. Esta demanda crea un mercado para
servicios inalámbricos que tienen mayor flexibilidad, cobertura y seguridad.
39
Conexión a Internet por cable modem
40
3.2.5.3. Acceso Inalámbrico
Anteriormente una de las limitaciones del acceso inalámbrico era la necesidad de encontrarse dentro del
alcance de la cobertura de transmisión de un router inalámbrico o un módem inalámbrico que tuviera una
conexión fija a Internet. Los siguientes desarrollos en las tecnologías inalámbricas de banda ancha cambiaron
esta situación:
WiFi municipal: muchas ciudades han comenzado a establecer redes inalámbricas municipales. Algunas de
estas redes proporcionan acceso a Internet de alta velocidad de manera gratuita o por un precio marcadamente
menor que el de otros servicios de banda ancha. Para conectarse a una red WiFi municipal, el suscriptor
normalmente necesita un módem inalámbrico que tenga una antena direccional de mayor alcance que los
dispositivos de red inalámbricos convencionales.
WiMAX: la interoperabilidad mundial para el acceso por microondas (WiMAX, Worldwide Interoperability for
Microwave Access) es una nueva tecnología estándar que se está comenzado a utilizar. WiMAX proporciona un
servicio de banda ancha de alta velocidad con acceso inalámbrico y brinda una amplia cobertura. WiMAX
funciona de manera similar a WiFi, pero a velocidades más elevadas, a través de distancias más extensas y para
una mayor cantidad de usuarios. Utiliza una red de torres de WiMAX que son similares a las torres de telefonía
celular. Para tener acceso a la red WiMAX, los abonados deben contratar los servicios de un ISP que tenga una
torre WiMAX en un radio de cobertura que alcance su ubicación.
Internet satelital:
Normalmente es utilizada por usuarios rurales que no tienen acceso a los servicios de cable y ADSL. Una antena
satelital proporciona comunicaciones de datos de dos vías (subida y bajada). Para tener acceso a los servicios
de Internet satelital, los abonados necesitan una antena satelital, dos módems (uplink o enlace de carga y
downlink o enlace de descarga) y cables coaxiales entre la antena y el módem. Por lo general es un servicio más
costoso que las opciones de ADSL o cable módem o alternativas inalámbricas.
42
Árabe; 4,10 Portugués; 4,00
Ingles; 29,40
Aleman; 4,20
Francés| 4.70
Japonés; 6,40
Español; 8,50
Chino; 18,90
Referencias:
100.000.000+
5.000.000 - 100.000.000
2.000.000 - 5.000.000
1.000.000 - 2.000.000
500.000 - 1.000.000
200.000 - 500.000
50.000 - 200.000
10.000 - 50.000
0 - 10.000
3.2.7. Historia
A continuación se presenta una breve reseña histórica de Internet:
En el mes de julio de 1961 Leonard Kleinrock publicó desde el MIT el primer documento sobre la teoría
de conmutación de paquetes. Kleinrock convenció a Lawrence Roberts de la factibilidad teórica de las
comunicaciones vía paquetes en lugar de circuitos, lo cual resultó ser un gran avance en el camino hacia
el trabajo informático en red. El otro paso fundamental fue hacer dialogar a los ordenadores entre sí.
Para explorar este terreno, en 1965, Roberts conectó una computadora TX2 en Massachusetts con un Q-
32 en California a través de una línea telefónica conmutada de baja velocidad, creando así la primera
(aunque reducida) red de computadoras de área amplia jamás construida.
43
1969. La primera red interconectada nace el 21 de noviembre de 1969, cuando se crea el
primer enlace entre las universidades de UCLA y Stanford por medio de la línea telefónica
conmutada, y gracias a los trabajos y estudios anteriores de varios científicos y organizaciones
desde 1959. El mito de que ARPANET, la primera red, se construyó simplemente para
sobrevivir a ataques nucleares sigue siendo muy popular. Sin embargo, este no fue el único
motivo. Si bien es cierto que ARPANET fue diseñada para sobrevivir a fallos en la red, la
verdadera razón para ello era que los nodos de conmutación eran poco fiables, tal y como se
atestigua en la siguiente cita: A raíz de un estudio de RAND, se extendió el falso rumor de que
ARPANET fue diseñada para resistir un ataque nuclear. Esto nunca fue cierto, solamente un
estudio de RAND, no relacionado con ARPANET, consideraba la guerra nuclear en la transmisión
segura de comunicaciones de voz. Sin embargo, trabajos posteriores enfatizaron la robustez y
capacidad de supervivencia de grandes porciones de las redes subyacentes. (Internet Society, A
Brief History of the Internet)
1972. Se realizó la Primera demostración pública de ARPANET, una nueva red de comunicaciones
financiada por la DARPA que funcionaba de forma distribuida sobre la red telefónica conmutada. El
éxito de ésta nueva arquitectura sirvió para que, en 1973, la DARPA iniciara un programa de
investigación sobre posibles técnicas para interconectar redes (orientadas al tráfico de paquetes) de
distintas clases. Para este fin, desarrollaron nuevos protocolos de comunicaciones que permitiesen este
intercambio de información de forma "transparente" para las computadoras conectadas. De la filosofía
del proyecto surgió el nombre de "Internet", que se aplicó al sistema de redes interconectadas mediante
los protocolos TCP e IP.
1983. El 1 de enero, ARPANET cambió el protocolo NCP por TCP/IP. Ese mismo año, se creó el IAB con
el fin de estandarizar el protocolo TCP/IP y de proporcionar recursos de investigación a Internet. Por
otra parte, se centró la función de asignación de identificadores en la IANA que, más tarde, delegó parte
de sus funciones en el Internet registry que, a su vez, proporciona servicios a los DNS.
1986. La NSF comenzó el desarrollo de NSFNET que se convirtió en la principal Red en árbol de
Internet, complementada después con las redes NSINET y ESNET, todas ellas en Estados Unidos.
Paralelamente, otras redes troncales en Europa, tanto públicas como comerciales, junto con las
americanas formaban el esqueleto básico ("backbone") de Internet.
1989. Con la integración de los protocolos OSI en la arquitectura de Internet, se inició la tendencia
actual de permitir no sólo la interconexión de redes de estructuras dispares, sino también la de facilitar
el uso de distintos protocolos de comunicaciones. En el CERN de Ginebra, un grupo de físicos
encabezado por Tim Berners-Lee creó el lenguaje HTML, basado en el SGML. En 1990 el mismo equipo
construyó el primer cliente Web, llamado WorldWideWeb (WWW), y el primer servidor web.
2006. El 3 de enero, Internet alcanzó los mil cien millones de usuarios. Se prevé que en 10 años, la
cantidad de navegantes de la Red aumentará a 2.000 millones.
45
Globalización y junto con la llamada desmaterialización de la economía ha dado lugar al nacimiento de una
Nueva Economía caracterizada por la utilización de la red en todos los procesos de incremento de valor de la
empresa. Se ha convertido en el medio más mensurable y de más alto crecimiento en la historia. Actualmente
existen muchas empresas que obtienen dinero de la publicidad en Internet. Además, existen mucha ventajas
que la publicidad interactiva ofrece tanto para el usuario como para los anunciantes
Es extremadamente difícil, si no imposible, establecer control centralizado y global de la Internet. Algunos
gobiernos, de naciones tales como Irán, Arabia Saudita, Cuba, Corea del Norte y la República Popular de China,
restringen el que personas de sus países puedan ver ciertos contenidos de Internet, políticos y religiosos,
considerados contrarios a sus criterios. La censura se hace, a veces, mediante filtros controlados por el
gobierno, apoyados en leyes o motivos culturales, castigando la propagación de estos contenidos. Sin embargo,
muchos usuarios de Internet pueden burlar estos filtros, pues la mayoría del contenido de Internet está
disponible en todo el mundo, sin importar donde se esté, siempre y cuando se tengan la habilidad y los medios
técnicos necesarios.
Otra posibilidad, como en el caso de China, es que este tipo de medidas se combine con la autocensura de las
propias empresas proveedoras de servicios de Internet, como Yahoo, Microsoft o Google, para así ajustarse a las
demandas del gobierno del país receptor.
Internet incluye aproximadamente 5000 redes en todo el mundo y más de 100 protocolos distintos basados en
TCP/IP, que se configura como el protocolo de la red. Los servicios disponibles en la red mundial de PC, han
avanzado mucho gracias a las nuevas tecnologías de transmisión de alta velocidad, como DSL y Wireless, se ha
logrado unir a las personas con videoconferencia, ver imágenes por satélite (ver tu casa desde el cielo),
observar el mundo por webcams, hacer llamadas telefónicas gratuitas, o disfrutar de un juego multijugador en
3D, un buen libro PDF, o álbumes y películas para descargar.
El método de acceso a Internet vigente hace algunos años, la telefonía básica, ha venido siendo sustituida
gradualmente por conexiones más veloces y estables, entre ellas el ADSL, Cable Módems, o el RDSI. También
han aparecido formas de acceso a través de la red eléctrica, e incluso por satélite (generalmente, sólo para
descarga, aunque existe la posibilidad de doble vía, utilizando el protócolo DVB-RS).
Internet también está disponible en muchos lugares públicos tales como bibliotecas, hoteles o cibercafés y
hasta en shoppings. Una nueva forma de acceder sin necesidad de un puesto fijo son las redes inalámbricas, hoy
presentes en aeropuertos, subterráneos, universidades o poblaciones enteras.
46
4. Software de base y de aplicación
4.1. Software de base
El software de base o de sistema (Wikipedia, 2009), consiste en un software que sirve para controlar e
interactuar con el sistema, proporcionando control sobre el hardware y dando soporte a otros programas; en
contraposición del llamado software de aplicación. Ejemplos de software del sistema son sistema operativo,
sistema operativo de red, compiladores, antivirus, bibliotecas como por ejemplo OpenGL. El software de base
realiza tareas como la transferencia de datos entre la memoria RAM y los dispositivos de almacenamiento
(disco rígido, unidades de discos ópticos, etc), o bien puede realizar la operación de renderizado de texto en
una pantalla.
El software de base puede clasificarse en sistema operativo, controladores de dispositivos y programas
utilitarios. Un sistema operativo crea una interfaz entre el usuario y el sistema de hardware, mientras que otros
software de sistema refinan o permite mejorar la interacción con el hardware de las computadoras.
Algunas clases de software de base son:
Cargadores de programas,
Sistemas operativos (y sus componentes, muchos de los cuales pueden considerarse como software de
sistema),
Controladores de dispositivos,
Herramientas de programación: compiladores, ensambladores, etc.,
Programas utilitarios,
Entorno de escritorio / Interfaz gráfica de usuario,
Línea de comandos,
BIOS, y
Bootloaders (Gestor de arranque).
Si el software de sistema se almacena en una memoria no volátil tal como circuitos integrados, usualmente se lo
denomina firmware.
47
4.3. Windows y Linux
La información vertida en esta sección fue obtenida de Wikipedia (Wikipedia, 2009) y de Ciberaula (Ciberaula ,
2009)
4.3.1. Windows
4.3.2. Linux
Recepción y uso
En la LinuxWorld Conference and Expo celebrada en Londres, Ubuntu fue premiada con el «Reader Award» por
la mejor distribución Linux del 2005.
Una de las múltiples distribuciones Linux que usa Google en escritorio es una derivada de Ubuntu a la que
denominaron Goobuntu (no confundir con Gobuntu).
En agosto de 2006 una encuesta de 14.535 lectores de DesktopLinux.com le adjudicó a Ubuntu el 29.2% de las
instalaciones de Linux en computadoras de escritorio. Dicha encuesta se repitió en 2007 con 38.500
participantes y con Ubuntu como la distribución más popular con una cuota de uso del 30.3%.
Jamie Hyneman, co-presentador de la serie de televisión Mythbusters (Cazadores de mitos), ha optado por
Linux, específicamente con el ejemplo de Ubuntu, como alternativa al software propietario, citando el software
inflado como un obstáculo importante en los sistemas operativos propietarios.
También ha recibido buenas críticas en publicaciones online y escritas, y ha ganado el premio Bossie
de InfoWorld, en 2007, por «Best Open Source Client OS».
En 2007, el Ministerio de Educación y Ciencia de la República de Macedonia desplegó más de 180.000 equipos
de escritorio con Ubuntu preinstalado para su uso en las aulas, y animó a cada estudiante del país a usar
computadoras con Ubuntu.
Ubuntu también recibió evaluaciones negativas como por ejemplo, a principios de 2008, cuando la
revista PCWorld criticó la falta de un gestor de efectos de escritorio integrado, aunque esto no les impidió
nombrar a Ubuntu como la «mejor distribución Linux disponible a día de hoy».
En octubre de 2008, Wikipedia migró sus servidores a Ubuntu Server.
En enero de 2009, el periódico New York Times informó que Ubuntu tenía unos 10 millones de usuarios y en
junio del mismo año se podía leer en ZDNet: «A nivel mundial, hay 13 millones de usuarios activos de Ubuntu,
distribución la cual su uso crece a un ritmo mayor que cualquiera otra.»
La policía francesa, desde 2009, está en proceso de instalar Ubuntu en 90.000 estaciones de trabajo,
demostrando un 70% de ahorro en el presupuesto de TI sin tener que reducir su capacidad.
En abril de 2010, Chris Kenyon, vicepresidente de Canonical Ltd. estimó que había 12 millones de usuarios de
Ubuntu.
Después del lanzamiento de Ubuntu 10.04, el sitio oficial del fabricante de computadoras Dell, menciona diez
puntos a favor de Ubuntu y sus usos. Destaca puntos como «social desde el principio»,«rápido inicio del
sistema», «simple y elegante», «diseñado para la internet», «Ubuntu es seguro», entre otros puntos. Dell ofrece
equipos netbooks y notebooks con Ubuntu pre-instalado desde el año 2007 hasta la actualidad.
Empresas como System y ZaReason ofrecen Ubuntu 10.10 pre-instalado en computadores de escritorio,
servidores, notebooks, y netbooks.
49
4.4. Software de aplicación para Windows y Linux
A continuación se presenta una tabla, obtenida de Ciberaula en La Tabla de equivalencias software análogo a
Windows en Linux, en la que se indican el tipo de software de aplicación y su equivalencia entre Windows y
Linux (solo se mencionan algunos software):
REDES Y CONECTIVIDAD WINDOWS LINUX
50
REDES Y CONECTIVIDAD WINDOWS LINUX
Visualizador de PDF Adobe Acrobat Reader, … Acrobat Reader para Linux., Xpdf, …
Creador de PDF Adobe Acrobat Distiller, … Adobe Acrobat Distiller para Linux,
PStill, …
Cryptografía y Cifrado PGP, GnuPG + Windows Privacy GnuPG + GPA, KGpg, PGP, ….
Tools, …
Encriptación de volumenes de disco EFS, PGP-Disk, BestCrypt, Private Loop-aes, CFS, TCFS, BestCrypt, CryptFS,
Disk Light …
Virtual CD VirtualDrive, VirtualCD, Daemon Virtual CD Kernel Modul, …
Tools, ...
Reconocimento de Texto (OCR) Recognita, FineReader, OmniPage, ClaraOcr, Gocr, ...
…
Traductores (cyrillic) Promt, Socrat, … Ksocrat, …
Trabjando con el Escaner En el CD del scanner Xsane, Kooka, Xvscan, …
Antivirus AVG AntiVirus, NAV, Dr. Web, Dr. Web for Linux, Trend ServerProtect
TrendMicro, F-Prot, Kaspersky, ... for Linux, …
Reconocimiento de texto por voz MS text to speech, … KDE Voice Plugins, Festival, Emacspeak,
…
MULTIMEDIA (Sonido)
Reproductores Música / mp3 / ogg s Winamp, … XMMS (X multimedia system), Noatun,
Zinf. (former Freeamp), Winamp para
Linux, ...
Programas para “quemar” CD Nero, Roxio Easy CD Creator, ... K3b, XCDRoast, KOnCd, , ...
51
5. Las caras del software libre
En el movimiento Open Source también hay muchas caras; algunas nos suenan más que otras, pero todas han
aportado su granito de arena a los muchos proyectos de código abierto que existen en la actualidad. A
continuación repasamos 15 de estos rostros que, a nuestro entender, han hecho posible que el software libre
sea cada día más importante.
Richard Stallman
Hablar de software libre es hablar de Richard Stallman, programador norteamericano
que fundó la Free Software Foundation (1985). En el MIT hizo sus pinitos como hacker. A
Stallman le debemos el proyecto GNU (1995) y la licencia GPL (1989), además del
compilador GCC (1985). En la actualidad se dedica a realizar conferencias por todo el
mundo promulgando los beneficios del software libre y cada poco tiempo suelta alguna
declaración polémica en la prensa.
Linus Torvalds
Otro nombre sinónimo de software libre. Linus Torvalds, el creador de Linux (1991), el
proyecto de más envergadura y que se ha convertido en la principal alternativa de código
abierto a los todopoderosos Windows y Mac OS X. Este finlandés se inspiró en Minix (1987)
para crear una versión de UNIX para ordenadores personales, más asequibles para el gran
público. A Torvalds le debemos el Kernel de Linux que entró a formar parte del proyecto
GNU y la fundación Linux International. Actualmente, se encarga de coordinar el
proyecto.
Dennis Ritchie
Aunque directamente no forma parte del movimiento open source, Dennis Ritchie estuvo
implicado en el diseño y desarrollo de UNIX, origen de Minix y posteriormente de Linux.
También desarrolló el lenguaje C.
Andrew S. Tanenbaum
Para entender el origen de Linux también tenemos que recordar a Andrew S.
Tanenbaum, responsable de Minix (1987), una versión gratuita y reducida de UNIX. De su
proyecto Linus Torvalds tomó la idea para crear el kernel de Linux.
Marc Ewing
En 1992 fundó la compañía de software Red Hat, responsable de una de las principales
distribuciones Linux y de otros desarrollos igual de importantes. Red Hat es una de las
empresas de software libre más importantes presente en la bolsa.
Ian Murdock
Si hablamos de Red Hat tenemos que hablar también de Debian. El alemán Ian Murdock
escribió el manifiesto Debian (1993), del que surge el proyecto de crear la que hoy en día
es una de las más importantes distribuciones Linux. Además, fue el primer líder del
proyecto.
52
Matthias Ettrich
No es tan conocido como Stallman y Torvalds, pero a él le debemos el editor LyX (1995) y
el proyecto KDE (1996), uno de los principales entornos gráficos de Escritorio para Linux
que también utilizan las versiones abiertas de BSD.
Miguel de Icaza
Y si hablamos de KDE, cómo no hablar de GNOME, el otro principal entorno gráfico y que
fue creado por el proyecto homónimo en 1997, fundado entre otros por el mexicano
Miguel de Icaza. A Miguel de Icaza le debemos también el administrador de archivos
Midnight Commander, la hoja de cálculo Gnumeric, Bonobo y la plataforma Mono, una
alternativa libre a .NET de Microsoft. En los últimos tiempos ha sido mal visto por parte de
la comunidad open source debido a que trabaja en Microsoft y apoya iniciativas polémicas
como el estándar de Microsoft Office Open XML.
Mark Shuttleworth
Es uno de los nombres más conocidos en el panorama open source por fundar Canonical
(2004) y financiar el proyecto Ubuntu (2004), la distribución más popular para recién
llegados a Linux. Al sudafricano Shuttleworth le debemos la popularización de Linux
gracias a la promoción, a pesar de algunas polémicas.
Brian Behlendorf
Este californiano es el padre de Apache (1995), el servidor HTTP más popular, de código
abierto y que cuenta con su propia licencia libre. Además de haber fundado la Apache
Software Foundation y de promover el software libre, Brian Behlendorf forma parte de la
Mozilla Foundation, la fundación responsable de Firefox, entre otros.
Michael Widenius
Michael Widenius es autor de MySQL (1995), una importante base de datos de código
abierto. En la actualidad desarrolla MariaDB, un fork de MySQL, en su propia empresa,
Monty Program AB.
Rasmus Lerdorf
Este programador es responsable del lenguaje de programación PHP (1995), presente en
infinidad de páginas web. También contribuyó a Apache y mSQL, y en la actualidad trabaja
en WePay y realiza conferencias sobre open source por todo el mundo.
53
Tim O'Reilly
Tim O'Reilly es un teórico, impulsor del software libre y que acuñó el concepto de Web 2.0.
A Tim O'Reilly le debemos también el lenguaje Perl, que ayudó a desarrollar, así como
O'Reilly Media, la editorial más importante en la difusión y publicación sobre tecnología e
informática.
Lawrence Lessig
Por último, citamos a Lawrence Lessig, responsable de la iniciativa Creative Commons. Para
ello, este abogado y catedrático de Derecho estadounidense creó una fundación con el
mismo nombre que se encarga de difundir y dar soporte sobre esta alternativa a la licencia
Copyright inspirada, a su vez en GPL.
54
6. Uso correcto de la PC
6.1. Cuida tus ojos frente a la computadora
Si trabajas frente la computadora, entonces debes saber la pesada carga que esto significa para tus ojos. Pasar
demasiado tiempo mirando la pantalla puede traerte algunos problemas relacionados, como dolor de cabeza u
ojos rojos, lo que a su vez puede ocasionar desconcentración, estrés entre otras cosas.
55
6.2. Correctas posturas frente a la Computadora
En estos momentos el uso de la computadora es fundamental para el trabajo diario. Pasamos horas frente a él
para entregar informes, realizar compras, mandar correos, chatear, postear en nuestro blog, etc. Pero nunca
tomamos atención de cómo es nuestra postura corporal cuando hacemos esto y sólo prestamos importancia
cuando sentimos fuertes dolores a las espalda, muñecas, hombros y otros. Es por esto que dejo como referencia
las siguientes imágenes que les servirán de guía para tomar una buena postura al momento de ocupar la
computadora.
Correctas posturas frente al Computador – Postura de manos
56
Correctas posturas frente al Computador – Recomendaciones del asiento
57
Un resumen general de las posturas en la PC:
Si usas notebook/ netbook, debes evitar estas posturas por periodos prolongados:
58
6.3. Ejercicios de estiramiento al trabajar con el PC
¿Sientes dolores en el cuello, espalda, piernas y otros lugares al trabajar en el PC? Yo si, es por eso que sigo
estos ejercicios de estiramiento para no sufrir malestares musculares por pasar muchas horas frente a la
computadora.
Lo más importante para estirarte es soltar los músculos, dejar de pensar en trabajo y hacer los movimientos sin
sentir dolor.
Además podrás complementar estos ejercicios con las indicaciones que te presentamos anteriormente en
las correctas posturas frente a la computadora, y así evitarás cualquier tipo de dolencia física.
Fuente: www.reparaciondepc.cl
59
7. Seguridad de la Informacion
7.1. Objetivo
Lograr comprender el alcance de las actividades relacionadas con el manejo de la información, teniendo en
cuenta los riesgos de su administración, la confidencialidad de la misma, y la relación con la legislación vigente
en la República Argentina.
7.2. Alcance
Se desarrollan conceptos tales como:
Seguridad de la información.
Administración de riesgos y controles.
Vulnerabilidades más conocidas y métodos de protección.
Introducción a los controles y las buenas prácticas de trabajo.
Concientización de usuarios.
Continuidad de las actividades de sistemas.
Legislación: ley de delitos informáticos, implicancias, correo electrónico y otras aplicaciones
prácticas,
Ley de habeas Data,
Firma Digital.
60
La Seguridad de la Información se define como la preservación de las siguientes características:
CONFIDENCIALIDAD: garantiza que la información sea accesible sólo a aquellas personas autorizadas a
tener acceso a ella.
INTEGRIDAD: salvaguarda la exactitud y totalidad de la información y los métodos de procesamiento.
DISPONIBILIDAD: garantiza que los usuarios autorizados tengan acceso a la información y a los
recursos relacionados con ella, toda vez que se requiera.
La seguridad de la información se logra implementando un conjunto adecuado de controles, que abarcan
políticas, normas, procedimientos, y una organización dedicada a fomentar y administrar los controles
definidos.
61
7.3.1.4. Administración de riesgos y controles
Las organizaciones exitosas requieren una apreciación y un entendimiento básico de los riesgos y limitaciones
de TI a todos los niveles dentro de la organización con el fin de obtener una efectiva dirección y controles
adecuados. La administración (El MANAGEMENT de la organización) debe decidir cuál es la inversión
razonable en seguridad y en control en TI y cómo lograr un balance entre riesgos e inversiones en control en un
ambiente de TI frecuentemente impredecible. Mientras la seguridad y los controles en los sistemas de
información ayudan a administrar los riesgos, no los eliminan.
Adicionalmente, el exacto nivel de riesgo nunca puede ser conocido ya que siempre existe un grado de
incertidumbre.
Finalmente, la Administración debe decidir el nivel de riesgo que está dispuesta a aceptar. Juzgar cual puede ser
el nivel tolerable, particularmente cuando se tiene en cuenta contra el costo, puede ser una decisión difícil para
la Administración. Por esta razón, la Administración necesita un marco de referencia de las prácticas
generalmente aceptadas de control y seguridad de TI para compararlos contra el ambiente de TI existente y
planeado.
Control
Se define como las políticas, procedimientos, prácticas y estructuras organizacionales diseñadas para
garantizar razonablemente que los objetivos del negocio o la organización serán alcanzados y que eventos no
deseables serán prevenidos o detectados y corregidos.
Se presentan en esta instancia algunos conceptos o definiciones que se utilizan en adelante:
Efectividad
Se refiere a que la información relevante sea pertinente para el proceso del negocio, así como a que su
entrega sea oportuna, correcta, consistente y de manera utilizable.
Eficiencia
Se refiere a la provisión de información a través de la utilización óptima (más productiva y económica)
de recursos.
Cumplimiento
Se refiere al cumplimiento de aquellas leyes, regulaciones y acuerdos contractuales a los que el proceso
de negocios está sujeto, por ejemplo, criterios de negocio impuestos externamente.
Confiabilidad de la Información
Se refiere a la provisión de información apropiada para la administración con el fin de operar la entidad
y para ejercer sus responsabilidades de reportes financieros y de cumplimiento.
Mientras que los recursos con que cuenta la organización para el cumplimiento de sus objetivos son:
Datos
Son objetos en su más amplio sentido, (por ejemplo, externos e internos), estructurados y no
estructurados, gráficos, sonido, etc.
Sistemas de Aplicación
Se entiende como sistemas de aplicación la suma de procedimientos manuales y programados.
Tecnología
La tecnología está compuesta por hardware, sistemas operativos, sistemas de administración de bases
de datos, redes, multimedia, etc.
Instalaciones
Recursos para alojar y dar soporte a los sistemas de información.
Personal
62
Habilidades del personal, conocimiento, sensibilización productividad para planear, organizar, adquirir,
entregar y monitorear servicios de sistemas de información.
Con el fin de asegurar que los requerimientos de negocio para la información son satisfechos, deben
definirse, implementarse y monitorearse medidas de control adecuadas para estos recursos.
Aplicaciones maliciosas1
Malware
Malware (del inglés malicious software, también llamado badware, software malicioso o software
malintencionado) es un software que tiene como objetivo infiltrarse en el sistema y dañar la computadora sin el
conocimiento de su dueño, con finalidades muy diversas, ya que en esta categoría encontramos desde un
troyano a un spyware.
Esta expresión es un término general muy utilizado por profesionales de la computación para definir una
variedad de software o programas de códigos hostiles e intrusivos. Muchos usuarios de computadores no están
aún familiarizados con este término y otros incluso nunca lo han utilizado. Sin embargo la expresión "virus
informático" es más utilizada en el lenguaje cotidiano y a menudo en los medios de comunicación para describir
todos los tipos de malware. Se debe considerar que el ataque a la vulnerabilidad por malware, puede ser a una
aplicación, una computadora, un sistema operativo o una red.
Virus
Un virus informático es un malware que tiene por objeto alterar el normal funcionamiento de la computadora,
sin el permiso o el conocimiento del usuario. Los virus, habitualmente, reemplazan archivos ejecutables por
otros infectados con el código de este. Los virus pueden destruir, de manera intencionada, los datos
almacenados en un ordenador, aunque también existen otros más "benignos", que solo se caracterizan por ser
molestos.
Los virus informáticos tienen, básicamente, la función de propagarse a través de un software, no se replican a sí
mismos porque no tienen esa facultad como el gusano informático, son muy nocivos y algunos contienen
además una carga dañina (payload) con distintos objetivos, desde una simple broma hasta realizar daños
importantes en los sistemas, o bloquear las redes informáticas generando tráfico inútil.
El funcionamiento de un virus informático es conceptualmente simple. Se ejecuta un programa que está
infectado, en la mayoría de las ocasiones, por desconocimiento del usuario. El código del virus queda residente
(alojado) en la memoria RAM de la computadora, aun cuando el programa que lo contenía haya terminado de
ejecutarse. El virus toma entonces el control de los servicios básicos del sistema operativo, infectando, de
manera posterior, archivos ejecutables que sean llamados para su ejecución. Finalmente se añade el código del
virus al del programa infectado y se graba en el disco rígido, con lo cual el proceso de replicado se completa.
Cookies
Los cookies son archivos en los que almacena información sobre un usuario de Internet en su propio
ordenador, y se suelen emplear para asignar a los visitantes de un sitio de Internet un número de identificación
individual para su reconocimiento subsiguiente. La existencia de los cookies y su uso generalmente no están
ocultos al usuario, quien puede desactivar el acceso a la información de los cookies; sin embargo, dado que un
sitio Web puede emplear un identificador cookie para construir un perfil de un usuario y que dicho usuario éste
no conoce la información que se añade a este perfil, se puede considerar al software que transmite información
de las cookies, sin que el usuario consienta la respectiva transferencia, una forma de spyware. Por ejemplo, una
página con motor de búsqueda puede asignar un número de identificación individual al usuario la primera vez
que visita la página, y puede almacenar todos sus términos de búsqueda en una base de datos con su número de
identificación como clave en todas sus próximas visitas (hasta que el cookie expira o se borra). Estos datos
pueden ser empleados para seleccionar los anuncios publicitarios que se mostrarán al usuario, o pueden ser
transmitidos (legal o ilegalmente) a otros sitios u organizaciones.
Troyano
En informática, se denomina troyano (o caballo de Troya, traducción literal del inglés Trojan horse aunque no
tan utilizada) a un programa malicioso capaz de alojarse en computadoras y permitir el acceso a usuarios
externos, a través de una red local o de Internet, con el fin de recabar información o controlar remotamente a la
máquina anfitriona.
Un troyano no es en sí un virus, aun cuando teóricamente pueda ser distribuido y funcionar como tal. La
diferencia fundamental entre un troyano y un virus consiste en su finalidad. Un "troyano" es una herramienta
de administración remota que se ejecuta de manera oculta en el sistema, normalmente bajo una apariencia
inocua. Al contrario un virus, que es un huésped destructivo, el troyano no necesariamente provoca daños
porque no es su objetivo.
Suele ser un programa alojado dentro de una aplicación, una imagen, un archivo de música u otro elemento de
apariencia inocente, que se instala en el sistema al ejecutar el archivo que lo contiene.
64
La mejor defensa contra los troyanos es no ejecutar nada de lo cual se desconozca el origen y mantener
software antivirus actualizado y dotado de buena heurística; es recomendable también instalar algún software
anti troyano, de los cuales existen versiones gratis aunque muchos de ellos constituyen a su vez un troyano.
Otra solución bastante eficaz contra los troyanos es tener instalado un Firewall.
Otra manera de detectarlos es inspeccionando frecuentemente la lista de procesos activos en memoria en busca
de elementos extraños, vigilar accesos a disco innecesarios, etc.
Pharming
Pharming es la explotación de una vulnerabilidad en el software de los servidores DNS (Domain Name System)
o en el de los equipos de los propios usuarios, que permite a un atacante redirigir un nombre de dominio
(domain name) a otra máquina distinta. De esta forma, un usuario que introduzca un determinado nombre de
dominio que haya sido redirigido, accederá en su explorador de internet a la página web que el atacante haya
especificado para ese nombre de dominio.
Phishing
Un ejemplo de phishing que ocurre frecuentemente es un correo electrónico, supuestamente enviado por un
banco, que asusta a los receptores, amenazándoles con perder el dinero de su cuenta si no acceden a una web y
confirman sus datos bancarios. Lo que ocurre es que la web es falsa y los datos que se introducen en ella pasan
directamente a manos de los ladrones.
También se ha detectado el uso del mismo método con mensajes de voz, en donde una máquina avisa de que el
banco ha congelado su cuenta y debe llamar a un teléfono gratuito. Este término es llamado "phishing"
telefónico y también se utilizan los mensajes SMS de los teléfonos móviles.
Spam
Se llama spam, correo basura o sms basura a los mensajes no solicitados, habitualmente de tipo publicitario,
enviados en grandes cantidades (incluso masivas) que perjudican de alguna o varias maneras al receptor. La
acción de enviar dichos mensajes se denomina spamming.
Aunque se puede hacer por distintas vías, la más utilizada entre el público en general es la basada en el correo
electrónico.
Otras tecnologías de Internet que han sido objeto de correo basura incluyen grupos de noticias, usenet, motores
de búsqueda, wikis, foros, blogs, también a través de popups y todo tipo de imágenes y textos en la web.
El correo basura también puede tener como objetivo los teléfonos móviles (a través de mensajes de texto) y los
sistemas de mensajería instantánea
.
Herramientas de protección2
Antivirus
Los antivirus nacieron como una herramienta simple cuyo objetivo fuera detectar y eliminar virus informáticos,
durante la década de 1980.
Con el transcurso del tiempo, la aparición de sistemas operativos más avanzados e Internet, los antivirus han
evolucionado hacia programas más avanzados que no sólo buscan detectar un Virus informáticos, sino
bloquearlo para prevenir una infección por los mismos, así como actualmente ya son capaces de reconocer
otros tipos de malware, como spyware, rootkits, etc.
El funcionamiento de un antivirus varía de uno a otro, aunque su comportamiento normal se basa en contar con
una lista de virus conocidos y su formas de reconocerlos (las llamadas firmas o vacunas), y analizar contra esa
lista los archivos almacenados o transmitidos desde y hacia un ordenador.
Firewall
Un Firewall (en alguna bibliografia se usa el termino español Cortafuegos) es una parte de un sistema o una red
que está diseñado para bloquear el acceso no autorizado, permitiendo al mismo tiempo comunicaciones
autorizadas. Se trata de un dispositivo o conjunto de dispositivos configurados para permitir, limitar, cifrar,
descifrar, el tráfico entre los diferentes ámbitos sobre la base de un conjunto de normas y otros criterios.
Los Firewall pueden ser implementados en hardware o software, o una combinación de ambos. Los Firewall se
utilizan con frecuencia para evitar que los usuarios de Internet no autorizados tengan acceso a redes privadas
conectadas a Internet, especialmente intranets. Todos los mensajes que entren o salgan de la intranet pasan a
través del Firewall, que examina cada mensaje y bloquea aquellos que no cumplen los criterios de seguridad
especificados. También es frecuente conectar al Firewall a una tercera red, llamada zona desmilitarizada o
DMZ, en la que se ubican los servidores de la organización que deben permanecer accesibles desde la red
exterior. Un Firewall correctamente configurado añade una protección necesaria a la red, pero que en ningún
caso debe considerarse suficiente. La seguridad informática abarca más ámbitos y más niveles de trabajo y
protección.
66
La concientización de usuarios es una forma de garantizar que los usuarios están al corriente de las amenazas e
incumbencias en materia de seguridad de la información, y estén capacitados para respaldar la política de
seguridad en el transcurso de sus tareas normales.
67
sistemas, y que se verá afectado por la estrategia del organismo y podrán definirse procedimientos alternativos
que deben ser posibles y se deben encuadrar en el marco de la ley.
Finalmente, las posibles consecuencias de no tener un plan pueden ser:
Pérdida de funcionalidad de los organismos
Pérdida de imagen
Atmósfera de crisis durante el período de recuperación
Inconvenientes para el personal para desarrollar sus tareas
Desperdicio de esfuerzos y recursos
Oportunidad de cometer errores y abusos
Potencial peligro de no poder recobrar datos, aplicaciones
Costo y esfuerzo de re-trabajo
7.3.2. Legislación
La legislación de la República Argentina define las siguientes leyes relacionadas con la seguridad de la
información:
Ley 11.723 sobre Propiedad Intelectual, sus modificatorias (principalmente, la Ley 25.036) y
reglamentaciones relacionadas.
Ley 24.776 sobre Secretos Comerciales.
Ley 25.326 sobre Protección de los Datos Personales (Ley de Habeas Data) y reglamentación del
artículo 43 de la Constitución Nacional, y demás decretos y disposiciones relacionadas.
Ley Nº 25.506 de Firma Digital
Ley 26388, reforma del código Penal en materia de delitos informáticos, para que finalmente se
contemplen aspectos relacionados con Internet y nuevas tecnologías.
3
Se puede encontrar referencias a la ley en el sitio de Dirección Nacional de Protección de Datos Personales, dependiente del ministerio
de Justicia y Derechos Humanos de la Nación Argentina - http://www.jus.gov.ar/dnpdpnew
68
Los datos de una persona, de alguna forma, hablan por ella, en forma descriptiva. Por esto es que la información
de las personas es importante y que la misma debería ser regulada por el dueño o propietario de esa
información.
Se hace necesario definir también el concepto de cuándo un dato es sensible, ya que estos tendrán un
tratamiento especial de acuerdo a su naturaleza. Los datos sensibles son aquellos que revelan origen racial y
étnico, opiniones políticas, convicciones religiosas, filosóficas, morales, afiliaciones sindicales, políticas, a
organizaciones sin fines de lucro, o información referente a salud, vida sexual, gustos personales. Por ejemplo:
miembros de un club, iglesia, sindicato, partido político, salud, circunstancias laborales o sociales, y referentes
al patrimonio. En referencia al patrimonio y de acuerdo a las leyes y a fallos que se han producido en la
legislación Argentina, se pueden considerar o no como datos sensibles a los datos crediticios.
El entender que la información de una persona es una posesión de la misma tal como su propio cuerpo, es un
aspecto social y cultural. La concientización de las personas, organismos del estado y de las empresas que
administran información sobre personas es un proceso lento que se debe implantar en la sociedad en forma de
educación a todos los niveles de la misma.
Delitos informáticos
La Ley 26388, reforma del código Penal en materia de delitos informáticos, para que se contemplen aspectos
relacionados con Internet y nuevas tecnologías.
En el año 2006 se desató la polémica sobre la violación de correos electrónicos de varios periodistas y jueces.
En el mismo año la Cámara de Diputados aprueba un proyecto de ley. Durante 2007 el proyecto es tratado en el
Senado y mejorado. El miércoles 4 de junio de 2008, Diputados aprueba la ley.
En realidad la ley es una reforma al Código Penal, no es una ley de delitos informáticos porque no se crean
nuevos delitos sino que se modifican los existentes.
Se presenta la necesidad de definir nuevos términos de acuerdo a la significación de conceptos empleados en el
código:
El término “documento” comprende toda representación de actos o hechos, con independencia del
soporte utilizado para su fijación, almacenamiento, archivo o transmisión.
Los términos “firma” y “suscripción” comprenden la firma digital, la creación de una firma digital o
firmar digitalmente.
Los términos “instrumento privado” y “certificado” comprenden el documento digital firmado
digitalmente.
7.3.3. Conclusiones
Se desea remarcar la importancia del manejo de los términos desarrollados en este módulo debido a que
durante el desarrollo de sus tareas profesionales seguramente será usuario de las tecnologías de la
información. La tecnología amplía el espectro de tareas y da ventajas competitivas a los procesos de trabajo y a
las personas que la utilizan y nadie pone en duda sus beneficios. Pero también debe ser aceptado que el uso de
la tecnología se verá afectado por los riesgos inherentes de la misma, de lo cual se advierte que el conocimiento
de los riesgos y los controles que puedan disminuirlos, sean de interés para las personas que utilicen esa
tecnología.
7.3.4. Glosario
Activos informáticos: Son activos informáticos todos aquellos recursos de información, recursos de
software, recursos físicos y servicios que son propiedad (o están bajo la tutela de) de la organización
objeto del análisis o uno de sus proveedores.
Amenazas: Son sucesos ambientales o acciones humanas que podrían ocurrir y producir daños en la
integridad, confidencialidad o disponibilidad de los activos informáticos.
69
La información y la infraestructura tecnológica pudiera ser un objetivo para una variedad de amenazas.
Entre ellas, fraude informático, espionaje, sabotaje, vandalismo, fallas de hardware o software,
interrupción de energía, y desastres naturales.
Riesgo: Es la resultante de considerar el potencial impacto que una falla de seguridad tendrá en la
prestación de los servicios de la organización y la probabilidad de ocurrencia de dicha falla tomando en
cuenta las amenazas y la capacidad de dichas amenazas para explotar las vulnerabilidades existentes.
Usuario Final: Es todo el personal de la organización y/o terceros que haga uso de las aplicaciones o
sistemas y de la información con el objeto de poder cumplir con sus tareas.
Vulnerabilidad: Es cualquier componente de un activo informático susceptible de ser atacado o
utilizado por una amenaza para producir un daño la integridad, confidencialidad o disponibilidad de los
activos informáticos.
70
8. Trabajo Práctico
De acuerdo a lo leído en esta unidad responda a las siguientes preguntas:
1. ¿De qué manera cree que la informática puede potenciar su desarrollo profesional?
2. Mencione las partes básicas del hardware de una computadora y explique brevemente su función.
Indique si se trata de un dispositivo de Entrada, Salida o Entrada/Salida.
3. ¿En qué se diferencia la memoria del disco rígido siendo que ambos pueden almacenar información?
4. ¿Qué es un microprocesador o CPU? ¿Qué función cumple?
5. Revise un folleto o página de internet donde aparecen las características de las computadoras que se
venden. Consulte o averigüe lo que no entiende.
6. ¿Qué entiende por Sistema Operativo?
7. ¿Qué software de sistema conoce? Defina Driver o Controlador de Dispositivo.
8. ¿Para qué cree que sirve conectar computadoras en red?
9. Definición de software libre.
10. Definición de software propietario.
11. ¿Cómo influye el crecimiento del software libre en la revolución de software dada en la actualidad?
12. ¿Qué es el copyright y el copyleft? ¿Qué características tienen? ¿Dónde se aplican?
13. ¿Cuál es su reflexión acerca del copyright y copyleft?
14. Mencione las ventajas y desventajas del software libre.
15. Mencione las ventajas y desventajas del software propietario.
16. Diferencie Internet, Intranet y Extranet.
17. Plantee situaciones (lugares) con distintos tipos de conexiones.
18. Busque información sobre conectividad en Argentina, por ejemplo número de usuarios, distribución de
conectividad en el país.
19. ¿Alguna vez fue hackeado o le ingreso algún intruso (virus) en su computadora? Si su respuesta es sí
¿Cuál cree que fue su punto vulnerable? ¿Hasta dónde le afecto el ataque?, si su respuesta es no ¿Qué es
lo que hizo/hace para estar seguro?
Recomendación: No vaya a un examen si, al menos, no conoce las respuestas a las preguntas de arriba.
71
9. Bibliografía
Ciberaula. La Tabla de equivalencias software análogo a Windows en Linux. 2009.
http://linux.ciberaula.com/tabla.php. Último acceso Julio 2009.
Culebro Juárez, Montserrat; Gómez Herrera, Wendy Guadalupe y Torres Sanchez, Susana. 2006.
Software libre vs software propietario. Ventajas y desventajas.
http://bakara.files.wordpress.com/2007/04/softwarelibrevssoftwarepropietario.pdf. Ultimo acceso
Julio 2009.
López Guzmán Clara. 2000. La información digital. http://www.bibliodgsca.unam.mx/
tesis/tes7cllg/sec_16.htm. Ultimo acceso Julio 2009.
Luján Mora, S. 2002. Programación de aplicaciones web: historia, principios básicos y clientes web –
Editorial Club Universitario, San Vicente (Alicante) España.
Metzner-Szigeth, A. 2006. El movimiento y la matriz" – Internet y transformación socio-cultural. En:
Revista Iberoamericana de Ciencia, Tecnología, Sociedad e Innovación (CTS+I), No. 7.
Poder Ejecutivo Nacional. 1993. Ley de Propiedad Intelectual (ley 11723).
http://www.mincyt.gov.ar/11723.htm. Ultimo acceso Julio 2009.
Tanenbaum, A. 2002. Computer Networks 4th Edition.
Tanenbaum, A. 2003. Redes de Computadoras 3ra.Edición
Stallings, W. 2001. Comunicaciones y Redes de Computadoras. 6ta edición.
Wikipedia. 2009. Ultimo acceso Julio 2009.
o Computadora: http://es.wikipedia.org/wiki/Computadora.
o Definición de informática: http://es.wikipedia.org/wiki/Informatica.
o Internet: http://es.wikipedia.org/wiki/Internet
o Hardware: http://es.wikipedia.org/wiki/Hardware.
o Linux: http://es.wikipedia.org/wiki/GNU/Linux.
o Software: http://es.wikipedia.org/wiki/Software.
o Software de base: http://es.wikipedia.org/wiki/Software_de_sistema
o Ubuntu Linux: http://es.wikipedia.org/wiki/Ubuntu_(distribuci%C3%B3n _Linux).
Zanoni, L. 2008. El Imperio Digital - El nuevo paradigma de la comunicación 2.0.
72
10. Recursos multimediales
A continuación se presentan recursos multimediales relacionados con la unidad.
73