Beruflich Dokumente
Kultur Dokumente
INFORMATICA
Introducción
Consideramos a la informática como la ciencia que se ocupa del tratamiento de la
información. Y entendemos por “tratamiento de la información” todas las operaciones que
podemos realizar con la información, desde su obtención hasta su difusión, pasando por el
almacenamiento, su organización, la conversión de sus formatos, su transmisión y su rápida
recuperación, así como su permanente actualización. De tal manera que son diversas las
operaciones que realizamos con la información. En resumen, estas pueden ser:
- Almacenamiento
- Organización
- Conversión
- Transferencia
- Reproducción
- Recuperación
- Actualización
- Representación
Ha sido necesario crear una ciencia especial cuyo objeto de estudio sea la información por
sí misma, debido la importancia capital que tiene en el desarrollo de la especie humana. La
importancia última que tiene la información puede resumirse en el hecho de que solo ella
nos permite tomar decisiones, y nada hay más importante en la vida que el saber tomar
decisiones adecuadas, para lo cual es imprescindible tener información. Para tomar buenas
decisiones debemos contar con información de calidad, es decir que sea:
- Confiable
- Segura
- Oportuna
- Actualizada
- Completa
- Entendible
- Manejable
Por otra parte este tratamiento de la información, omnipresente en todas las actividades
humanas, lo podemos realizar nosotros directamente o con la ayuda de determinados
instrumentos y máquinas, especialmente computadoras.
La manera de realizar el tratamiento de la información ha evolucionado a lo largo del tiempo.
Actualmente podemos distinguir tres tipos de tratamiento:
- Tratamiento manual: Uso que realizamos directamente las personas. A menudo
utilizamos herramientas simples como cuadernos, agendas, directorios, tarjeteros,
archivadores, etc. El empleo de señales luminosas y banderas son también ejemplos
de “tratamiento” de la información ya que transmiten información. Consideremos
también las señales de tránsito.
- Tratamiento mecánico: hoy se realiza con ciertos dispositivos eléctricos como agendas
electrónicas, aunque en épocas recientes se empleaban numerosos aparatos como
archivadores automáticos, clasificadoras de tarjetas, máquinas de escribir, etc.
- Tratamiento automático: se realiza con computadoras, y debido a su gran capacidad
ha surgido una ciencia que se ocupa del tratamiento de la información por
computadora, es decir, la información automatizada: la informática.
Inf o r m á t i c a M é d i c a I 1
Inf o r m á t i c a M é d i c a I
La INFORMÁTICA es la ciencia que busca la máxima eficiencia en el tratamiento de la
información mediante el empleo de computadoras. Su nombre deriva de la fusión de los
términos “información” y “automática”. Cada actividad humana utiliza un determinado tipo de
información y necesita tratarla de manera específica:
- Un comerciante trabaja con productos, precios, clientes...
- Un arquitecto manipula fórmulas, planos, espacios geométricos, etc.
- Un abogado trabaja con textos y documentos diversos
- Un ejecutivo prepara exposiciones, cuadros, gráficos
- Un publicista manipula imágenes, videos, sonidos, etc.
- Una secretaria prepara correspondencias, cartas, faxes, citas, mensajes, etc.
En cada caso la informática busca el sistema de información que facilite el trabajo de estas
personas en particular. La informática debe concentrarse en resolver los problemas y las
necesidades de cada tipo de profesional respecto del manejo de su información.
Los sistemas informáticos de los que se ocupa la Informática están integrados por el
conjunto de máquinas, programas informáticos y técnicas de trabajo que se utilizan para
procesar unos datos concretos. Recordemos que la información adquiere diversos formatos
y tiene distinta representación. Por ello la informática se vuelve cada vez más compleja y
amplia, ya que debe abordar aspectos muy diversos, tanto de la naturaleza misma de la
información como del uso específico que determinadas personas harán de ella. Veamos
ahora parte por parte algunos de estos elementos básicos de la informática.
Por tanto, las computadoras no son unos aparatos simples, están integrados por un conjunto
de dispositivos que trabajan de manera sincronizada. El conjunto de elementos físicos que
integran un COMPUTADOR se denomina HARDWARE.
Inf o r m á t i c a M é d i c a I 2
Inf o r m á t i c a M é d i c a I
Características de las computadoras. Las computadoras son máquinas automáticas que
realizan un tratamiento de la información (cálculo, copia, ordenación...) siguiendo las
instrucciones de unos programas y sin necesidad de una continua intervención humana.
Entre sus características podemos destacar:
La UNIDAD CENTRAL DE PROCESO (CPU) almacena y ejecuta los programas que se les
introduce en la memoria y controla el funcionamiento general del COMPUTADOR. Su
potencia viene determinada por los siguientes factores:
- La capacidad de memoria.
- La rapidez en procesar datos.
- La rapidez con que se comunica internamente y con los demás componentes
- Los periféricos que puede controlar.
- El sistema operativo que emplee
Inf o r m á t i c a M é d i c a I 3
Inf o r m á t i c a M é d i c a I
- Memoria RAM. Es una memoria volátil donde se sitúan los programas y los datos con
los que es trabaja. Según su ubicación distinguimos entre memoria convencional, alta y
extendida
- Memoria de configuración. También usa una memoria volátil pero conserva su
contenido alimentada por una batería. Almacena parámetros de configuración, la hora y
la fecha.
La memoria nos la podemos imaginar como una gran parrilla de celdas ordenadas
donde cada carácter almacenado, transformado en byte, ocupa una de estas celdas.
Estas celdas se llaman registros de memoria y tienen un número de orden que
constituye se dirección.
La capacidad de memoria de un COMPUTADOR ve determinada por los registros que
tiene, es decir, por los bytes que puede almacenar. Para medirla se utilizan las
unidades:
- Kilobytes = 1.024 bytes (se consideran 1.000 bytes)
- Megabytes = 1.000 Kbytes
- Gigabytes = 1.000 Mbytes = 1.000.000 Kbytes
- Terabytes = 1.000 Gbytes = 1.000.000 Mbytes .
- Unidad central de proceso (Central Processing Unit, CPU) incorpora la Unidad
Aritmético-Lógica (UAL) y está integrada generalmente por un microprocesador y es la
que ejecuta los programas y controla el funcionamiento de todo el sistema.
Las principales cualidades de una Unidad Central han de ser la fiabilidad y la rapidez.
Esta última dependerá de los bits que pueda procesar el microprocesador
simultáneamente en sus registros y de la frecuencia del su reloj interno. Las
computadoras actuales pueden trabajar a una frecuencia superior a 3 Ghz
- Controlador de periféricos. Es el encargado de controlar el funcionamiento de los
periféricos que están conectados a la Unidad Central del COMPUTADOR: teclado,
pantalla, impresora, módems, periféricos de almacenamiento.
Los periféricos se conectan a la Unidad Central por unos lugares que ésta tiene
preparados al efecto y que se denominan puertos, conectores, ranuras de expansión:
- Los bus son las líneas a través de las cuales es comunican entre sí los elementos
internos de la Unidad Central. Se distinguen tres tipos de bus:
- Bus de datos: disponen de 8, 16 o 32 hilos en paralelo a través de los cuales
transportan los caracteres que integran los programas y los datos.
- Bus de direcciones: transportan números que representan a direcciones de
memoria. Acostumbran a tener 20 o 32 hilos.
- Bus de control: transportan señales de control.
Inf o r m á t i c a M é d i c a I 4
Inf o r m á t i c a M é d i c a I
- El TECLADO (keyboard) Es el principal periférico de entrada de información al
COMPUTADOR. Acostumbra a tener un eco de pantalla, todo y que los caracteres son
almacenados provisionalmente en un buffer de teclado y no entren directamente a la
memoria. Suele tener 102 teclas.
Muchos escaners disponen de la función OCR, que les permite comportarse como un lector
de caracteres ópticos.
- El LECTOR DE BARRAS interpreta los códigos de barras con los que se codifican
determinadas informaciones. Los códigos de barras son muy utilizados en el comercio para
identificar los productos y facilitar después su distribución y venta ya que los lectores de
barras ahorran el trabajo de teclear precios y códigos en el COMPUTADOR cuando se
despachan los productos.
Hay programas que permiten realizar la edición y el montaje de un vídeo a través del
COMPUTADOR, que se encarga de controlar los diversos aparatos videográficos
(magnetoscopios, cámaras) y sonoros (equipos musicales) que intervienen en el proceso y
también facilita la generación de textos y efectos especiales.
Inf o r m á t i c a M é d i c a I 5
Inf o r m á t i c a M é d i c a I
- La PANTALLA TÁCTIL.- Es una pantalla, que mediante un contacto táctil sobre su
superficie, permite la entrada de datos y órdenes al COMPUTADOR. Este contacto también
se puede realizar con lápiz y otras herramientas. Actualmente hay pantallas táctiles que
pueden instalarse sobre una pantalla normal.
b) Los periféricos de salida (otput devices) presentan al usuario los resultados que obtiene
el COMPUTADOR al procesar información. Los más usuales son:
Las prestaciones gráficas de las pantallas de las computadoras han evolucionado mucho en
los últimos años:
- Los primeros sistemas gráficos CGA (Color Graphics Adapter) tenían poca definición:
320 * 200 pixels y trabajaban con un máximo de 4 colores.
- Más tarde los sistemas VGA ofrecieron 640 * 480 pixels con 16 colores.
- Actualmente tenemos los sistemas super VGA con resoluciones mínimas de 1024 *
768 pixels y que utilizan desde 256 a millones de colores.
Las pantallas de calidad tienen sistemas de protección contra los reflejos, la electricidad
estática y las radiaciones electromagnéticas. Todo y así, no es conveniente trabajar mucho
tiempo con la vista concentrada en la pantalla.
Inf o r m á t i c a M é d i c a I 6
Inf o r m á t i c a M é d i c a I
- DE BOLA O MARGARITA: Su matriz es una bola o margarita que contiene todos los
caracteres imprimibles; son lentas y no permiten reproducir gráficos, pero
proporcionan un escrito de calidad.
- DE AGUJAS: Sólo disponen de una matriz de agujas donde se forman los caracteres
a medida que se han de imprimir, son más rápidas pero la escritura es de menos
calidad. .
Inf o r m á t i c a M é d i c a I 7
Inf o r m á t i c a M é d i c a I
- Las UNIDADES DE DISCO FLEXIBLE (floppy disk) son unos dispositivos de lectura y
escritura de información que trabajan con unos discos transportables elaborados con un
plástico flexible recubierto por una sustancia magnética. Tienen un acceso directo a la
información que se almacena en las dos caras, pero antes de utilizarlos es necesario
realizar una operación de formateo que proporcione una estructura al disco. Desde su
aparición se han usado discos flexibles de diferentes tamaños: 8’’, 5 1/4’’, 31/2’’ que subsisten
hasta hoy, aunque han ido variando su capacidad desde los 360 Kb iniciales para pasar a
los 720 Kb y terminar en los 1.4 Mb actuales.
- Las UNIDADES DE DISCO FIJO O DISCO DURO (hard disk) son unos dispositivos de
lectura y escritura de información que operan con unos discos magnéticos rígidos situados
en su interior. Igual que los discos flexibles tienen un acceso directo a la información y se
necesita realizar un formateo antes de usarlos. Son más rápidos y fiables que los discos
flexibles y pueden almacenar más de 100 Gb. Algunas unidades de disco duro removibles
pueden ser transportadas fácilmente de un COMPUTADOR a otro ya que no están “fijas” y
se conectan y desconectan como cualquier otro dispositivo.
- Las UNIDADES DE CD-ROM o DVD son dispositivos que leen la información almacenada
sobre discos ópticos de plástico con una superficie interna sensible que se “quema”.
Los CD-ROM, unos discos similares a los compact-disc que se utilizan en audio y que
mediante la tecnología láser pueden contener gran cantidad de información (más de 600M).
Las unidades de CD-ROM convencionales sólo pueden leer la información que tienen los
CD-ROM; no pueden escribir más datos ni borrar su contenido. No obstante también hay
unidades grabadoras que permiten la grabación (una única vez) de discos CD-ROM.
Los lectores DVD (Digital Video Disk) además de leer los discos convencionales de CD-
ROM y audio, pueden leer los nuevos discos DVD de 17 G.
- Las memorias USB.- Pequeños dispositivos que pueden almacenar hasta 5 Gb. y caben
en la palma de la mano. Se usan también con aplicaciones adicionales que permiten oír
música en MP3 y otros formatos.
Inf o r m á t i c a M é d i c a I 8
Inf o r m á t i c a M é d i c a I
Las principales cualidades de un módem han de ser la fiabilidad y la velocidad de la
transmisión. Actualmente hay módems con velocidades de 56’6 Kbits por segundo.
Para poder trabajar con los entornos gráficos de la red Internet es necesario disponer de un
módem que trabaje a una velocidad de 14.400 o superior. La velocidad de las transmisiones
depende en gran medida de las características de la línea telefónica. Las líneas de fibra
óptica proporcionan la máxima velocidad de transmisión.
- Conexiones tipo USB, que además de permitir la conexión de los periféricos con el
COMPUTADOR en marcha, los configuran automáticamente.
- Las ranuras de expansión: son unos zócalos que se encuentran en la placa base y
permiten la introducción de las tarjetas que han de controlar a los periféricos. Las hay
de diverso tipo: AGP para la tarjeta gráfica, PCI (de 32 bits), ISA (de 16 bits)...
EL SOFTWARE
A) Los lenguajes de programación. Son los lenguajes que se utilizan para escribir
programas, es decir, para programar. Podemos distinguir tres tipos:
Inf o r m á t i c a M é d i c a I 9
Inf o r m á t i c a M é d i c a I
a) Lenguajes de nivel máquina: Sólo usan signos 0 y 1. Resulta muy lento y
complicado programar con ellos.
b) Lenguajes ensambladores (assembler): más fáciles que los anteriores ya que usan
códigos nemotécnicos.
Como las computadoras sólo entienden el lenguaje máquina, cuando se programa con
ensambladores o lenguajes de alto nivel es necesario usar programas traductores que
traduzcan el programa acabado a lenguaje máquina.
Inf o r m á t i c a M é d i c a I 10
Inf o r m á t i c a M é d i c a I
B) Los sistemas operativos son un conjunto de programas informáticos que se encargan
de la comunicación entre la CPU y sus periféricos (teclado, pantalla, unidades de disco...) y
nos permiten controlar el COMPUTADOR. Este control se realiza mediante una serie de
comandos que ordenan acciones como: ver el contenido de un disco, borrar la pantalla,
copiar discos, etc. El Sistema Operativo se ocupa de controlar y administrar los diversos
recursos del computador: memoria, puertos, comunicaciones, etc. Según el número de
terminales del COMPUTADOR distinguimos:
Los sistemas operativos que se han utilizado más en las computadoras personales han sido:
Inf o r m á t i c a M é d i c a I 11
Inf o r m á t i c a M é d i c a I
- LINUX. Sistema operativo gratuito, que se va extendiendo lentamente.
- Gráficos geométricos
- Dibujos artísticos.
- Gráficos estadísticos: diagramas de barras, histogramas, diagramas de sectores,
pictogramas...
- Edición de fotografías
Inf o r m á t i c a M é d i c a I 12
Inf o r m á t i c a M é d i c a I
- Planillas de pago
- Diseño gráfico y arquitectura
- Fabricación asistida
- Educación
- Gestión de centros educativos
- Gestión de consultorios médicos
- Gestión de Centros y Postas Médicas
- Historias clínicas electrónicas
- Juegos
Perantivirus: http://www.perantivirus.com/historia/index.htm
Inf o r m á t i c a M é d i c a I 13
Inf o r m á t i c a M é d i c a I
LAS GENERACIONES DE COMPUTADORAS
Aunque caras y de uso limitado, las computadoras fueron aceptadas rápidamente por las
compañías privadas y el gobierno. A la mitad de los años 50, IBM y Remington Rand, que
habían comprado la compañía de Eckert y Mauchly, se consolidaban como líderes en la
fabricación de computadoras. Sus clientes incluían a las empresas Sylvania, General
Electric, y el gobierno federal. La IBM 650 entró en servicio por primera vez en Boston a
fines de 1954. Siendo una máquina relativamente barata para aquella época, tuvo gran
aceptación, y dio a la IBM liderazgo en la producción de computadoras en 1955. Desde
1956, la IBM ha sido el fabricante de computadoras más grande del mundo.
Inf o r m á t i c a M é d i c a I 14
Inf o r m á t i c a M é d i c a I
Características Principales
Principales Equipos
ENIAC. La más famosa de las primeras computadoras, contenía más de 18.000 tubos
de vacío. Fabricada para aplicaciones balísticas del Ejército de EU.
Inf o r m á t i c a M é d i c a I 15
Inf o r m á t i c a M é d i c a I
computadoras tenían que ser reprogramadas mediante cambios en el alambrado. Esto
fue un gran avance.
UNIVAC I Primera computadora creada por una firma comercial pertenecientes a John
W. Mauchly y J. Prespert Eckert.
En 1947, tres científicos de los laboratorios Bell, John Bardeen, William Shockley y Walter
Brattain, ganaron el premio Nóbel al inventar y desarrollar el transistor, que era más rápido,
confiable y 200 veces más pequeño que un bulbo o tubo electrónico, y requería menos
electricidad. El transistor hizo posible una nueva generación de computadoras, más rápidas,
pequeñas y con menores necesidades de ventilación. Las computadoras de la segunda
generación también utilizaban redes de núcleos magnéticos en lugar de tambores giratorios
para el almacenamiento primario. Estos núcleos contenían pequeños anillos de material
magnético, enlazados entre sí, en los cuales podían almacenarse datos e instrucciones.
Características Principales
Inf o r m á t i c a M é d i c a I 16
Inf o r m á t i c a M é d i c a I
Avances del equipo físico: se consolidan las memorias de ferrita. Aparecen los
canales de E/S.
Avances del equipo lógico: aparecen los lenguajes de alto nivel (FORTRAN, COBOL,
ALGOL, PL1). Se impone el procesamiento tipo batch o por lotes: ejecución automática
y secuencial de los programas de usuario, uno a uno.
UNIVAC 1107, BURROUGH D-805, PDP-5 de DEC, y las científicas IBM 7070, 7090, 7094.
Con la introducción del modelo 360, IBM capturó el 70% del mercado, dejando a RCA,
General Electric y Xerox fuera del campo de las computadoras grandes. Sin embargo, la
estandarización del modelo 360 permitió el crecimiento de los fabricantes de dispositivos de
almacenamiento, cuyos periféricos eran compatibles con las series de IBM.
Para evitar competir directamente con la IBM, Digital Equipment Corporation (DEC) redirigió
sus esfuerzos hacia computadoras pequeñas. Mucho menos costosas de comprar y operar
que las computadoras grandes, las mini computadoras se desarrollaron durante la segunda
generación y se extendió su uso entre 1960 y 1970. En 1960, DEC introdujo la primera mini
computadora, la PDP-1 y en 1969 tenía ya una línea de exitosas mini computadoras.
Inf o r m á t i c a M é d i c a I 17
Inf o r m á t i c a M é d i c a I
La multiprogramación
Para corregir esta situación John Kemeny y Thomas Kurtz, profesores de la Dartmouth
College, decidieron llevar más lejos algunos conceptos de tiempo compartido que se habían
desarrollado en el Instituto Tecnológico de Massachussetts (MIT). Tiempo compartido es un
término que se emplea para describir un sistema de proceso que cuenta con varias
estaciones independientes, de baja velocidad (relativamente), en líneas susceptibles de
utilizarse en forma simultánea. Cada una de las estaciones proporciona al usuario acceso
directo al computador central. Kemeny y Kurtz desarrollaron programas especiales que
permitían al procesador conmutar entre las distintas estaciones de estudiantes y llevar a
cabo una parte del trabajo en el segmento de tiempo asignado a cada una, hasta finalizar el
trabajo. La intención era dar al estudiante la ilusión de que nadie más estaba utilizando la
computadora.
Inf o r m á t i c a M é d i c a I 18
Inf o r m á t i c a M é d i c a I
El BASIC
Para mejorar el ambiente de cómputo interactivo que estaban creando, los profesores
desarrollaron un lenguaje de programación fácil de aprender por parte de los estudiantes
universitarios de todas las carreras. El objeto era que todos los estudiantes tuvieran un
incentivo para utilizar con cierta frecuencia las estaciones de tiempo compartido. Este
lenguaje – el BASIC – que representa las iniciales en inglés de “código simbólico de
instrucciones de aplicación general para principiantes” fue todo un éxito en Dartmouth en
ambos aspectos. Dartmouth utilizaba una computadora General Electric y el sistema BASIC
de tiempo compartido se implantó en este equipo con la ayuda de ingenieros de GE, a
resultas del éxito del sistema de Dartmouth, General Electric y otros fabricantes ofrecieron
instalaciones de tiempo compartido y el uso del lenguaje BASIC a sus clientes en todo
Estados Unidos.
El Unix y el Lenguaje C
En 1969 se desarrollan en los laboratorios de AT&T Bell lo que sería el primer sistema
operativo, el Unix. Antes de esto se requería que cada programador escribiera sus archivos
en un tipo de formato que por lo general no era compatible con el de otro programador.
Además, los programadores debían de preocuparse de tareas rutinarias como abrir
archivos, cerrarlos, las colas de impresión, etc. Con la creación del sistema operativo esos
pasos son encargados a la computadora misma, dando como resultado más tiempo al
programador para ocuparse de los problemas reales. El Unix fue desarrollado en su mayor
parte por Ken Thompson en una computadora DEC PDP-7, en un lenguaje también recién
creado, el lenguaje C.
El lenguaje C tiene la ventaja sobre los otros leguajes de programación, que es de muy bajo
nivel, al punto en que se pueden escribir programas con la misma rapidez y potencia que los
programas escritos en lenguaje ensamblador. Sin embargo, cada tipo de computadora tiene
un tipo de lenguaje ensamblador diferente, debido a que el lenguaje C es un lenguaje de alto
nivel (no tan alto como los otros), los programas escritos en C pueden se transportados a
otros computadores con un mínimo de cambios en sus estructuras básicas.
El Microprocesador
En 1969 Víctor Poor y Harry Pyle, otro joven ingeniero de la Datapoint, desarrollaron un
modelo de pastilla microprocesadora. Dado que Datapoint Corporation no fabricaba
componentes electrónicos, Poor llevó su modelo de “pastilla procesadora” a dos fabricantes
Inf o r m á t i c a M é d i c a I 19
Inf o r m á t i c a M é d i c a I
de componentes, Texas Instruments e Intel Corporation, con la esperanza de que fabricaran
la pastilla para Datapoint. Estas reuniones no produjeron decisiones inmediatas, pero los
fabricantes de componentes estaban en libertad de utilizar el concepto de pastilla
microprocesadora y lo hicieron.
A finales de 1969, un ingeniero de Intel llamado Marcian “Ted” Hoff presentó sus ideas para
el diseño de un microprocesador a los representantes de una compañía de calculadoras
japonesas. En este tiempo las calculadoras se construían a partir de pastillas de circuitos
especializadas que podían realizar únicamente una función. Pero la pastilla nueva de Hoff
podía programarse para llevar a cabo varias funciones de cálculo especializadas. El cliente
japonés aceptó las ideas de diseño y se empezó a trabajar con la disposición interna de los
componentes de la pastilla. Este primer microprocesador, el Intel 4004, podía ejecutar
únicamente algunas instrucciones, y sólo podía manipular cantidades diminutas de datos en
un momento dado; pero para el otoño de 1971 Intel había producido una pastilla más
poderosa, el 8008 y Texas Instruments entregaba ya un microprocesador. En 1974 Intel
produjo un tercer microprocesador, el 8080 y quedaron establecidas las bases para el
desarrollo de una computadora personal (PC).
Características Principales
Avances del equipo lógico: nuevos lenguajes de alto nivel (BASIC, PASCAL); gran
avance en el Sistema Operativo; aparece la multiprogramación.
Principales Equipos
Inf o r m á t i c a M é d i c a I 20
Inf o r m á t i c a M é d i c a I
Inf o r m á t i c a M é d i c a I 21
Inf o r m á t i c a M é d i c a I
realmente una “calculadora visible” y su nombre es la asociación abreviada de esas
palabras. La idea de este programa surgió de Dan Bricklin, que en esa época era estudiante
de la Harvard Business School. Bricklin estaba utilizando las columnas e hileras de unas
hojas de papel de contabilidad para analizar problemas de planeación financiera. Pero se
requerían cálculos interminables cada vez que se hacía una suposición financiera diferente.
Bricklin pensó que si se sustituían las hojas de papel por un “pizarrón electrónico” y “gises
electrónicos”, la computadora podría encargarse de manipular los números. Bricklin le pidió
a un programador amigo suyo llamado Bob Frankston que le ayudara a convertir su idea en
un producto comercial. Frankston agregó varias funciones más y escribió el primer
programa para la Apple II. VisiCalc se convirtió en un enorme éxito y fue responsable por sí
solo de la venta de miles de Apple, muchas computadoras Apple II fueron vendidas con el
propósito exclusivo de ejecutar VisiCalc. A medida que aparecía una nueva computadora,
aparecía un nuevo programa clónico de VisiCalc por ejemplo, SuperCalc para las
computadoras CP/M, Lotus 1-2-3 para IBM, y Excel para Macintosh.
IBM introduce su primera PC basada en el Intel 8088. Microsoft negocia con IBM para
proporcionar el sistema operativo, PC DOS 1.0. Se ha informado que el código original de
DOS fue comprado por Microsoft a un programador de Seattle por US$75.000. En 1982
Lotus 1-2-3 reemplaza a VisiCalc y se convierte rápidamente en una de las aplicaciones
más exitosas. Apple intenta penetrar el mercado empresarial con la Lisa, pero la arquitectura
cerrada (poca habilidad de añadir productos de otros fabricantes) dificulta su aceptación.
Inf o r m á t i c a M é d i c a I 22
Inf o r m á t i c a M é d i c a I
Cronología de las Computadoras Personales
1983: IBM debuta su IBM PC XT con un disco duro de 10MB. Compaq produce un sistema
compatible con la PC, pero transportable. Kaypro ofrece un sistema similar, con el
CRT integrado, pero basado en CP/M. Microsoft Word 1.0 llega al mercado con poca
espectacularidad, pero demostrando el interés de Microsoft en el software de
aplicaciones.
1984: IBM introduce la IBM PC AT, un sistema basado en el Intel 80286 con varias
innovaciones, incluyendo un bus de expansión de 16 bits, un disco duro de 20 MB, y
512 K de RAM. Apple abandona la Lisa en favor de su nueva línea de computadoras
personales, la popular Macintosh.
1985: Aparecen Microsoft Windows 1.0, Windows 2.03 y GEM de Digital Research,
demostrando así que el mundo de la PC se ha dado cuenta de que las aplicaciones
gráficas estilo Mac, como Aldus PageMaker, son muy superiores a las de DOS.
1988: OS/2 1.1 añade una interfaz gráfica, llamada Administrador de Presentaciones, al
sistema operativo de 16 bits de IBM.
1990: La avalancha de interfases gráficas continua con la salida de Windows 3.0. Dieciocho
meses después, Microsoft saca al mercado de Windows 3.1. Miles de aplicaciones
comienzan a emigrar de DOS a Windows.
1991: Microsoft e IBM rompen sus relaciones comerciales y crean dudas sobre el futuro de
OS/2. IBM continua apoyando el OS/2 y produce las versiones 2.0 y 2.1. Los
acontecimientos de estos últimos años son frecuentes y cuantiosos. Las innovaciones
a nivel de CPU son numerosas, pero el futuro de la computación personal se esta
decidiendo por la arquitectura CISC (Computadora de Juego de Instrucciones
Complejo) o RISC (Computadora de Juego de Instruciones Reducido).
Las líneas de batalla se dividen entre el chip PowerPC (creado por una colaboración
de IBM, Apple y Motorola), el Alpha chip de Digital Equipment, el Pentium de Intel (y
los chips clónicos de varios fabricantes).
Inf o r m á t i c a M é d i c a I 23
Inf o r m á t i c a M é d i c a I
donde habrá ganadores y perdedores en todos los aspectos de la tecnología. Lo que
si se sabe es que la industria de la computación seguir ampliando sus limites a una
velocidad vertiginosa que no da señales de aminorar.
Características Principales
Avances del equipo físico: más integración de las memorias; los discos duros tienen
más capacidad; aparecen los coprocesadores para el tratamiento en punto flotante
FPU y los gestores de memoria o MMU.
Avances del equipo lógico: se normaliza el uso de la memoria virtual; los S.O.
permiten la multitarea y el multiproceso; se producen avances en los lenguajes de alto
nivel.
1ª fase (1971 - 74): microprocesador de 4 bits, como el Intel 4004 con 2,300 TRT's
y LSI.
2ª fase (1974 - 76): microprocesador de 8 bits, como el 8080 de Intel con 5,000
TRT's, el 6800 de Motorola con 6,000 TRT's, o el Z80 de Zilog.
3ª fase (1976 - 80): microprocesador de 16 bits, como el 8086 de Intel con 29,000
TRT's, el Z8000 de Zilog o el 68000 de Motorola.
4ª fase (1980 - 87): microprocesador de 32 bits, como el 80286 con 134,000
TRT's, el 80386 con 275,000 TRT's de Intel, o el 68020 y el 68030 de Motorola.
Época actual
En esta época las computadoras han inundado prácticamente cada rincón del planeta, a tal
punto que no se puede pensar hoy en día en una oficina, escuela o institución moderna sin
hacer una relación a la informática y las computadoras. Los grandes empresarios de la
computación, IBM, Microsoft, Intel, etc., han logrado lo que se propusieron: hacer que las
computadoras personales estén en los hogares de cientos de personas.
La red internacional de datos, Internet ha hecho posible que cada ciudadano de este planeta
tenga cualquier tipo de información al alcance de su mano con solo tener acceso a una
computadora personal.
En tan solo 25 años, desde 1973 hasta 1998 los sistemas computacionales han tenido una
rapidez vertiginosa, reduciendo grandemente el tamaño de los equipos y aumentando su
capacidad de producción y rapidez. ¿Qué nos depara el futuro? Eso, aún está por verse.
Inf o r m á t i c a M é d i c a I 24
Inf o r m á t i c a M é d i c a I
LOS MICROPROCESADORES
La historia del microprocesador 4004 es la historia del primer microprocesador; sin embargo,
como parte de la evolución de la familia Intel y su mercado de consumo, en 1978 llegó al
mercado el primer ordenador personal de IBM, el cual contaba con un procesador 4004 de
Integrated Electronics, que eventualmente cambiaría su nombre a Intel, 640KB de RAM,
monitor Hércules ámbar y disco duro de 5 MB.
8080
8086/8088
Contaba con puertos de E/S de 64K a 8 bits o 32k a 16 bits y interrupciones vectorizadas
fijas. La mayoría de las instrucciones únicamente podían acceder una ubicación de
memoria, por lo cual un operando tenía que ser un registro y el resultado era almacenado en
uno de los operandos.
También tenía cuatro registros de segmentos que podían ser manipulados desde los
registros de índice. Los registros de segmento permitían a la UCP accesar un megabyte de
memoria en un modo inusual; en vez de proveer los bytes faltantes, como en la mayoría de
los procesadores segmentados, el 8086 corría 4 bits hacía la izquierda el registro de
segmento y lo agregaba a la dirección. Como resultado los segmentos se traslapaban, lo
que la mayoría de las personas consideran ser un mal diseño. Aún cuando esto fue
ampliamente aceptado e inclusive útil para el lenguaje ensamblador, donde el control de
segmentos es total, esto causaba confusión en lenguajes que tienen uso intensivo de
apuntadores, tales como C. Esto hacía compleja la representación eficiente de apuntadores,
y hizo posible tener dos apuntadores con diferente valor apuntando a la misma ubicación de
memoria. Aún peor, este esquema hizo muy complejo expandir el espacio de
Inf o r m á t i c a M é d i c a I 25
Inf o r m á t i c a M é d i c a I
direccionamiento a más de un megabyte, haciendo necesario cambiarlo, situación que llegó
hasta el 80286. El microprocesador 8086 original tenía una velocidad de 4.77 MHz y
eventualmente llegó a los 10 MHz.
La primera computadora personal comercialmente exitosa fue creada por IBM en 1981. En
su interior había un microprocesador Intel 8088. Las prestaciones de este circuito resultan
avanzadas para el momento, con 8 bits trabajando a 4,77 MHz, aunque bastante razonables
para una época en la que el microprocesador de moda era el Z80 de Zilog, el motor de
aquellos entrañables Spectrum que hicieron furor en esos tiempos, gracias sobre todo a
juegos increíbles, con más gracia y arte que muchos actuales. El 8088 era una versión de 8
bits y prestaciones reducidas del 8086.
80186 / 80188
Una de las pocas computadoras que utilizaron este microprocesador fue la Siemens PC-D.
80286
Inf o r m á t i c a M é d i c a I 26
Inf o r m á t i c a M é d i c a I
datos. Otras características incluyen todas las características del juego de instrucciones del
80186, así como la extensión del espacio direccionable a 16 MB, utilizando 24 bits.
El 80286 contiene 134,000 transistores dentro de la pastilla, un incremento del 360% con
respecto al 8086. Externamente llegó al mercado en varios encapsulamientos como el
PLCC, PGA y LLC.
80386
Estos chips ya son más modernos, aunque del Neolítico informático. Su ventaja es que son
de 32 bits; o mejor dicho, el 386 es de 32 bits; el 386 SX es de 32 bits internamente, pero de
16 en el bus externo, lo que le hace hasta un 25% más lento que el original, conocido como
DX. Lo curioso es que el original, el 386, sea el más potente. La versión SX fue sacada al
mercado por Intel siguiendo una táctica comercial típica en esta empresa: dejar adelantos
tecnológicos en reserva, manteniendo los precios altos, mientras se sacan versiones
reducidas (las "SX") a precios más bajos. La cuestión es que ambos pueden usar software
de 32 bits, aunque si lo que quiere usar en Windows 95 ni se le ocurra pensar en un 386
Suponiendo que tenga suficiente memoria RAM, disco, etc., prepárese para esperar horas
para cualquier tontería. Su ámbito natural es DOS y Windows 3.x, donde pueden manejar
aplicaciones bastante profesionales como Microsoft Word sin demasiados problemas, e
incluso navegar por Internet de forma razonablemente rápida. Si lo que quiere es multitarea
y software de 32 bits en un 386, piense en los sistemas operativos OS/2 o alguna variación
de Unix.
80486
En 1989 aparecen los 80486 para dar una mejora a la serie anterior,
con una velocidad de 25 – 100 Mhz, y de aquí se produjeron
algunas ramificaciones de acuerdo a su arquitectura así:
486 SX, DX, DX2 y DX4 La historia se repite, aunque esta vez entra
en el campo del absurdo de la mano de la mercadotecnia "Intel
Inside". El 486 es el original, y su nombre completo es 80486 DX; consiste en: un corazón
386 actualizado, depurado y afinado; un coprocesador matemático para punto flotante
integrado; una memoria caché de 8 Kb en el DX original de Intel). Es de notar que la puesta
a punto del núcleo 386 y sobre todo la memoria caché lo hacen mucho más rápido, casi el
doble, que un 386 a su misma velocidad de reloj (mismos MHz); aunque también falta tomar
en cuenta que este es el primer microprocesador en trabajar a velocidad real de reloj, esto
es porque las familias anteriores funcionaban únicamente cada tercer ciclo, es decir, que si
el sistema contaba con un reloj de 66 MHz, el procesador trabajaba únicamente a 33 MHz.
Inf o r m á t i c a M é d i c a I 27
Inf o r m á t i c a M é d i c a I
silicio. La teoría dice que si lo haces y lo vendes más barato, sacas dinero de alguna forma.
Lo dicho, alucinante. 486 DX2: o el "2x1": un 486 "completo" que va internamente el doble
de rápido que externamente (eso es, al doble de MHz). Así un 486 DX2-66 va a 66 MHz en
su interior y a 33 MHz en sus comunicaciones con la placa (memoria, caché secundaria...).
Buena idea, Intel. 486 DX4: o cómo hacer que 3x1=4. El mismo truco que antes, pero
multiplicando por 3 en vez de por 2 (DX4-100 significa 33x3=99 ã más o menos, 100). Que
por qué no se llama DX3? El 4 es más bonito y grande... En este terreno Cyrix y AMD
hicieron de todo, desde micros "light" que eran 386 potenciados (por ejemplo, con sólo 1 Kb
de caché en vez de 8) hasta chips muy buenos como el AMD DX4-120 (40 MHz por 3), que
rinde casi como un Pentium 75, o incluso uno a 133 MHz (33 MHz por 4 y 16 Kb de caché¡¡).
Por cierto, tanto "por" acaba por generar un cuello de botella, ya que hacer pasar 100 ã ±33
MHz por un hueco para 33 es complicado, lo que hace que más que "x3" acabe siendo algo
así como "x2.75" (que tampoco está mal). Además, genera calor, por lo que debe usarse un
disipador de cobre y un ventilador sobre el chip. En un 486 se puede hacer de todo, sobre
todo si supera los 66 MHz y tenemos suficiente RAM.
80486 DX, 80486 DX/2, 80486 DX/4, entre otros, estos presentaban un avance a gran
escala para las nuevas tecnologías con una velocidad de 50, 66 y 100 Mhz,
respectivamente.
Los 80486 SX, representaban la tecnología más lenta de la familia con una velocidad de 25
Mhz, sin caché o coprocesador matemático.
Pentium
Y a medida que transcurre el tiempo nuevas tecnologías nacen dejando atrás las antiguas
generaciones a pasos de gigante dejándolas en la historia. Por delante vendrían una larga
serie de procesadores Pentium, que serían enumerados como II, III y IV.
Inf o r m á t i c a M é d i c a I 28
Inf o r m á t i c a M é d i c a I
Pentium II
Este fue el primer microprocesador optimizado para aplicaciones a 32 bits que incorporaba
el conjunto de instrucciones MMX y hereda la tecnología de ejecución dinámica del Pro,
permitiendo al procesador predecir las próximas instrucciones, acelerando el flujo de trabajo.
Analiza las instrucciones del programa y las reorganiza de tal forma que sean ejecutadas lo
mas rápido posible.
Este microprocesador cuenta con 32Kb de memoria caché de nivel 1, 16KB para datos y
16KB para instrucciones, y 512 KB de memoria caché de nivel 2. La memoria caché de nivel
2 funciona a la mitad de la velocidad del procesador, sin embargo el hecho de que resida en
la misma placa del microprocesador y no en la tarjeta madre mejora el desempeño. Esta
situación fue mejorada hasta la liberación del Celeron A y el Pentium III.
El Klamath original funcionaba con una velocidad de transporte frontal de 66MHz y operaba
a 233MHz llegando hasta los 300MHz.
En 1998 Intel mejoró el diseño y liberó Deschutes, que utilizaba tecnología de 0.25 micrones
permitiendo una velocidad de transporte de datos de 100MHz logrando velocidades de
procesador que iban desde los 333MHz hasta los 450MHz.
Celeron
En la siguiente edición del Celeron, el Celeron 300A Intel corrigió estos errores liberando la
velocidad de transporte frontal de datos e incorporando 128KB de memoria caché de nivel 2
en la misma pieza del microprocesador, lo que significa que funciona a la misma velocidad
de reloj que el procesador, lo que redundó en que un Celeron podía operar aún mejor que
un Pentium II con 512KB de memoria caché.
Con estas características, el Celeron se hizo famoso en los círculos de entusiastas que
alteraban el reloj para obtener un mayor rendimiento, también conocido como sobrerrelojeo
u overclocking.
Inf o r m á t i c a M é d i c a I 29
Inf o r m á t i c a M é d i c a I
Los Celeron originales utilizaban la ranura 1, pero eventualmente Intel comenzó a fabricarlos
para formatos de Arreglos en Malla Plástica de Postes o formato PPGA por las siglas de su
nombre en inglés Plastic Pin Grid Array, también conocido como zócalo 370.
Esta nueva interfaz permitió reducir los costos de fabricación además de que permitió una
conversión más económica y sencilla para los fabricantes de tarjetas madre con zócalo 7. El
Celeron original funcionaba de los 233 a los 433MHz, mientras que el de zócalo 370
funciona desde los 300MHz y más.
Pentium III
Otra novedad importante es la posibilidad de utilizar las nuevas instrucciones junto con las
actuales MMX y las operaciones con la FPU sin verse penalizado por ello. Hay que tener en
cuenta que tanto en los procesadores de Intel anteriores como en los de AMD actuales a
excepción del Athlon, combinar la utilización de instrucciones MMX junto con operaciones en
coma flotante es prácticamente imposible debido al retardo que supone pasar de un modo a
otro, con lo que los programadores se ven obligados a escoger entre uno u otro.
Es importante recalcar que todas estas nuevas características no sirven para nada si el
software no las contempla, al igual que ocurría con las instrucciones 3DNow o con las ya
hoy en día estándar MMX.
También es importante saber que las 3DNow, al llegar bastante tiempo en el mercado, están
ya soportadas por múltiples programas, sobre todo juegos, entre otras cosas gracias al
soporte por parte de Microsoft en sus DirectX.
Inf o r m á t i c a M é d i c a I 30
Inf o r m á t i c a M é d i c a I
La velocidad a la que se comunica con el bus (la placa base) es de 100 Mhz.
Incorpora 9,5 millones de transistores.
Pueden cachear hasta 4 Gb.
Los modelos actuales todavía están fabricados con tecnología de 0,25 micras.
Pentium IV
En abril de 2003, Intel colocó en el mercado nuevas variantes, entre los 2,4 y 3,0 GHz, cuya
principal diferencia era que todos ellos incluían la tecnología Hyper-Threading y el FSB era
de 800 MHz. Supuestamente esto era para competir con la línea Hammer de AMD, pero de
momento solo la serie Opteron salió al mercado, la cual no estaba destinada entonces a
competir con los Pentium 4. Por otro lado, los AMD Athlon XP, a pesar de su FSB
aumentado de 333 a 400 MHz y las velocidades más altas no pudieron alcanzar a los
nuevos Pentium 4 de 3,0 y 3,2 GHz. La versión final de los Northwood, de 3,4 GHz, fue
introducida a principios de 2004.
En septiembre de 2003, Intel anunció el “Extreme Edition” del Pentium 4, apenas sobre una
semana antes del lanzamiento del Athlon 64, y el Athlon 64 FX. El diseño era idéntico al
Pentium 4 (hasta el punto de que funcionaría en las mismas placas madre), pero se
diferenciaba por tener 2 MB adicionales de Memoria caché L3. Intel sostuvo que la Extreme
Edition estaba dirigida a los jugadores de videojuegos, pero algunos tomaron esta nueva
versión como un intento de desviar la atención del lanzamiento del AMD Athlon 64.
Inf o r m á t i c a M é d i c a I 31
Inf o r m á t i c a M é d i c a I
DESDE EL 8086 HASTA EL PENTIUM IV: LA HISTORIA
Tanto Intel como Microsoft deben gran parte de lo que son a su alianza inicial con IBM. Los
primeros PCs que llegaron al mercado destacaban por sus procesadores fabricados por Intel
y el sistema operativo desarrollado por Microsoft, ¿quien iba a decirle al gigante azul que su
apuesta por dos jóvenes empresas iba a desembocar en la creación de sendos imperios que
marcarían el rumbo de la sociedad del conocimiento?
Para Intel, todo empezó en los meses de junio de 1978 y de 1979. Fechas en las que
respectivamente, hacían su aparición los microprocesadores 8086 y 8088, que conformarían
el "motor" sobre el que rodaban los denominados IBM PC, precursores de los actuales
computadores y que fueron todo un éxito de ventas a pesar de su coste "prohibitivo" en
aquellos momentos.
El éxito fue tal, que Intel fue nombrada por la revista "Fortune" como
uno de los mejores negocios de los años setenta. De los dos
procesadores, el más potente era el 8086, con un bus de 16 bits
(por fin), velocidades de reloj de 5, 8 y 10 MHz, 29000 transistores
usando la tecnología de 3 micras y hasta un máximo de 1 Mega de
memoria direccionable. El rendimiento se había vuelto a multiplicar
por 10 con respecto a su antecesor, lo que suponía un auténtico
avance en lo que al mundo de la informática se refiere. En cuanto al procesador 8088, era
exactamente igual a éste, salvo la diferencia de que poseía un bus de 8 bits en lugar de uno
de 16, siendo más barato y obteniendo mejor respaldo en el mercado.
Inf o r m á t i c a M é d i c a I 32
Inf o r m á t i c a M é d i c a I
de direccionar 4 Gigas de memoria, tamaño que todavía no se ha superado por otro
procesador de Intel dedicado al mercado doméstico.
En 1988, Intel desarrollaba un poco tarde un sistema sencillo de actualizar los antiguos 286
gracias a la aparición del 80386SX, que sacrificaba el bus de datos para dejarlo en uno de
16 bits, pero a menor coste.
Estos procesadores irrumpieron con la explosión del entorno gráfico Windows, desarrollado
por Microsoft unos años antes, pero que no había tenido la suficiente aceptación por parte
de los usuarios. También había habido algunos entornos que no habían funcionado mal del
todo, como por ejemplo el Gem 3, pero no es hasta este momento cuando este tipo de
entornos de trabajo se popularizan, facilitando la tarea de enfrentarse a un ordenador, que
por aquel entonces sólo conocíamos unos pocos. Windows vino a ser un soplo de aire
fresco para la industria, pues permitió que personas de cualquier condición pudiera manejar
un ordenador con unos requerimientos mínimos de informática.
Y si esto parecía la revolución, no tuvimos que esperar mucho para
que el 10 de abril de 1989 apareciera el Intel 80486DX, de nuevo con
tecnología de 32 bits y como novedades principales, la incorporación
del caché de nivel 1 (L1) en el propio chip, lo que aceleraba
enormemente la transferencia de datos de este caché al procesador,
así como la aparición del coprocesador matemático, también
integrado en el procesador, dejando por tanto de ser una opción
como lo era en los anteriores 80386. Dos cambios que unido al hecho
de que por primera vez se sobrepasaban el millón de transistores usando la tecnología de
una micra (aunque en la versión de este procesador que iba a 50 MHz se usó ya la
tecnología .8 micras), hacía posible la aparición de programas de calidad sorprendente,
entre los que los juegos ocupan un lugar destacado. Se había pasado de unos
computadores en los que prácticamente cualquier tarea compleja requería del intérprete de
comandos de MS-DOS para poder ser realizada, a otros en los que con mover el cursor y
pinchar en la opción deseada simplificaba en buena medida las tareas más comunes. Por su
parte, Intel volvió a realizar, por última vez hasta el momento, una versión de este
procesador dos años después. Se trataba del 80486SX, idéntico a su hermano mayor salvo
que no disponía del famoso coprocesador matemático incorporado, lo que suponía una
reducción del coste para aquellas personas que desearan introducirse en el segmento sin
necesidad de pagar una suma elevada.
Sin embargo, y por primera vez Intel se sentía acosado por nuevos
competidores que aprovechaban el crecimiento del mercado para
introducir procesadores más económicos y con una potencia
semejante. Una firma veterana, AMD, se valió de un acuerdo
firmado con Intel para lanzar "clónicos" de los populares 386 y 486 a
precios más económicos. Esto era posible debido al acuerdo de
intercambio de licencias y tecnología que ambas firmas firmaron a
principios de los 80 y que les permitía convivir en buena lid en un
mercado que no era tan feroz como el actual y donde las ventas,
aunque importantes, eran limitadas a determinados mercados.
Con la llegada de los procesadores 386 y posteriormente la familia 486, el mercado de
computadores de sobremesa se disparó y se inició la entrada del ordenador al hogar lo que
supuso multiplicar por decenas las ventas que hasta en ese momento realizaban los
fabricantes.
Uno de los grandes éxitos de AMD fue el procesador Am486 que conseguía una velocidad,
tanto en bus como en procesador, de 40 Mhz. Intel se quedo anclado en sus dos versiones
con bus de 25 y 33 Mhz para sus modelos de 50 y 66 Mhz respectivamente, una "velocidad
inferior" a la conseguida por su competidor. AMD disfrutó siempre de esta ventaja, su bus
Inf o r m á t i c a M é d i c a I 33
Inf o r m á t i c a M é d i c a I
de datos ha sido mucho tiempo más rápido, y los entendidos
sabían que la potencia del procesador no sólo se basa en la
velocidad del micro.
Llega el Pentium
Con el nuevo procesador, Intel sacudió el mercado. En sus
anuncios iniciales la compañía afirmaba que esta nueva
gama de procesadores multiplicaría de forma general por
cinco los rendimientos medios de los 80486. La prensa de
todo el mundo auguraba un gran futuro para el nuevo
procesador que fue inicialmente conocido como 586 y
después P5, hasta que se desvelo su nombre definitivo.
Estos procesadores pasarán a la historia por ser los
primeros a los que Intel no los bautizó con un número, y sí
con una palabra. Esto era debido a que otras compañías
dedicadas a la producción de procesadores estaban utilizando los mismos nombres puesto
que no se podía registrar una cadena de ellos como marca, y por lo tanto, eran de dominio
público. De modo que a Intel no le quedó más remedio que ponerle una palabra a su familia
de procesadores, que además, con el paso del tiempo, se popularizó en los Estados Unidos
de tal forma, que era identificada con velocidad y potencia en numerosos cómics y
programas de televisión. Estos procesadores que partían de una velocidad inicial de 60
MHz, llegaron hasta los 200 MHz, algo que nadie había sido capaz de augurar unos años
antes.
Con una arquitectura real de 32 bits, se usaba de nuevo la tecnología de .8 micras, con lo
que se lograba realizar más unidades en menos espacio. Los resultados no se hicieron
esperar, y las compañías empezaron aunque de forma tímida a lanzar programas y juegos
exclusivamente para el Pentium, hasta el punto que en este momento quien no posea un
procesador de este tipo, está seriamente atrasado y no puede trabajar con garantías con los
programas que actualmente hay en el mercado. Algo que ha venido a demostrar la aparición
del nuevo sistema operativo de Microsoft Windows 95, que aunque funciona en equipos
dotados de un procesador 486, lo hace sin sacar el máximo partido de sus funciones.
Para detener la competencia de AMD, Intel protegió con patentes todo el procesador. De
repente AMD se quedó sin un procesador que hiciera frente a la demanda de los Pentium y
renovó sus 486 hasta multiplicarlos por 4, aunque el mercado quería Pentiums y no
"trasnochados" 486.
La respuesta fue el K-5. Un procesador que llegó meses más tarde
al mercado y que además presentaba algunos fallos importantes
en su núcleo. A la desesperada, AMD engañó a algunos usuarios
con un nombre de procesador que incluía una velocidad que no era
la real. En esta época de 1992-1996, Pentium ganó una
popularidad desbordante, Internet surgía y el márketing (y el
rendimiento) de Intel hundía a AMD.
Inf o r m á t i c a M é d i c a I 34
Inf o r m á t i c a M é d i c a I
Inf o r m á t i c a M é d i c a I 35
Inf o r m á t i c a M é d i c a I
que es posible dar una nueva vuelta de tuerca a la arquitectura x86, presentando una nueva
generación de este tipo de procesadores que ha acompañado siempre a los PC.
REDES Y COMUNICACIONES
Introducción
Este tema está dirigido a usuarios de computadores sin conocimientos previos en redes y
comunicaciones. No es una introducción exhaustiva a las redes de computadores, sin
embargo aporta una base suficiente sobre los conceptos generales y tecnologías comunes a
la mayoría de redes y comunicaciones.
Inf o r m á t i c a M é d i c a I 36
Inf o r m á t i c a M é d i c a I
La compartición de carga. Consiste en distribuir el trabajo que supone el proceso de
datos entre varios computadores (por ejemplo, en un banco, en hora punta, el
ordenador central se puede encontrar saturado y puede pedir a otro que le ayude,
distribuyendo así la carga de trabajo entre varios computadores).
Estas necesidades han conducido al gran desarrollo de las redes de comunicaciones.
Veremos cómo es posible conectar computadores y terminales. Un terminal puede ser
"tonto" o inteligente. El primero consiste en un monitor y un teclado, y el segundo es un
ordenador completo, es decir, se diferencian en que el terminal inteligente posee capacidad
de proceso
de información de forma autónoma. Las redes se distinguen primeramente por la distancia
existente entre sus terminales, clasificándose en:
Como medio físico o canal de comunicación se usan el aire o cables (par trenzado, coaxial y
fibra óptica). No se puede hablar de uno mejor que otro, sino de cuál es el más adecuado a
cada necesidad y dependerá de las prestaciones, coste, fiabilidad de instalación y capacidad
de integración con otros sistemas. Se diferencian también por la velocidad de transmisión.
Esta se mide en bits por segundo frecuentemente confundida con baudios. El baudio es una
unidad de velocidad de señalización, o de modulación, igual al número de condiciones
discretas o símbolos que se suceden en la línea, por segundo. La velocidad de transmisión
en baudios coincide con la velocidad de transmisión en bit/s, sólo si cada símbolo
representa un bit. Un baudio es el inverso del intervalo del pulso más corto de señalización
medido en segundos. Un modem que transmite bits a una velocidad de 2400 bit/s, mediante
un sistema de modulación cuaternario por modulación de fase, transmite 1200 símbolos por
segundo, y por lo tanto la velocidad de modulación es de 1200 baudios. Un sistema que no
emplee bit de parada ni de arranque tiene una velocidad de transmisión en bit/s igual a la
velocidad de modulación en baudios. Un sistema de transmisión de 5 bit, con un pulso de
arranque de 13.5 ms y un pulso de parada de 19 ms, con una duración total par el carácter
de 100 ms, tiene una velocidad de señalización o modulación de:
1/(13.5*10-3) = 74 baudios
5/(100*10-3) = 50 bit/s
El intercambio de información entre los distintos dispositivos tiene que estar regido por unos
PROTOCOLOS, o lenguajes de diálogo que lo regulen. Consisten en un conjunto de normas
comunes para establecer la comunicación tanto para el receptor como para el emisor.
Desde el comienzo de la industria informática, cada fabricante intentaba idear una serie de
procedimientos, con los cuales podía controlar la información y así monopolizar el mercado
de las ventas de los distintos elementos que componen la informática. Con el paso del
tiempo esta industria se ha extendido tanto, que surgió la necesidad de compatibilizar los
procedimientos de la información. Actualmente existen asociaciones de fabricantes de
computadores, y organizaciones internacionales como por ejemplo ISO, que establecen
unas recomendaciones sobre los procedimientos normalizados de comunicación, que van a
Inf o r m á t i c a M é d i c a I 37
Inf o r m á t i c a M é d i c a I
gobernar ese intercambio de información. Un protocolo es pues, un conjunto de
procedimientos normalizados o estandarizados que gobiernan el intercambio de
comunicaciones, acuerdos o convenios que se adoptan para poder establecer una
comunicación correcta; afectan a las frecuencias de las señales, reconocimiento de la
conexión, código de recepción y emisión, control de errores, control de la sincronía, inicio de
las operaciones, establecimiento de los caminos por lo que irán los mensajes, asegurar que
los datos han sido recibidos, etc.
Una red de computadores es una colección de equipos que pueden almacenar y manipular
datos electrónicos, interconectados de forma que sus usuarios pueden almacenar, recuperar
y compartir información con los demás. Las máquinas conectadas pueden ser
microcomputadores, minicomputadores, grandes computadores, terminales, impresoras,
dispositivos de almacenamiento, entre otros. En una red de computadores se puede
almacenar cualquier información, incluyendo textos, imágenes, mensajes de voz e imágenes
visuales como por ejemplo fotos. Las redes aportan beneficios, los más habituales son:
Una red de computadores permite a los usuarios compartir instantáneamente y sin esfuerzo
la información. Por ejemplo, un editor de libros, escritores, asociaciones de editores y
artistas pueden necesitar trabajar conjuntamente en una publicación. Mediante una red
pueden compartir los mismos archivos electrónicos, cada uno desde su ordenador y
transferir y copiar archivos. Estos pueden añadir material simultáneamente a los archivos, o
eliminar partes, sin interrumpir el trabajo de los demás. Las ventajas son evidentes.
Si se opta por un entorno de red abierto, esto añade otra dimensión a las capacidades de
compartir información inherente a la red. Esto permite trabajar con el equipamiento que más
satisfaga a las necesidades del usuario. Por ejemplo en una red abierta a los estándares
internacionales, pueden estar trabajando unos usuarios bajo Windows de PCs, mientras que
otros lo pueden estar haciendo simultáneamente bajo UNIX®, en estaciones de trabajo o
desde otros PCs.
Una razón muy importante para disponer de una red de área local es el compartir
equipamiento, lo cual implica grandes beneficios. Por ejemplo, en una red de veinte
microcomputadores, se puede disponer de una impresora láser en color, para todo el
conjunto, por lo que el ahorro sería considerable frente a la opción de que los veinte equipos
no estuvieran conectados en red, e incluso dado el coste de este tipo de impresoras sería
económicamente inviable el que cada usuario tuviera una de estas impresoras. Lo mismo
que se ha visto en el caso previo, de la impresora de alta calidad, se puede concluir de otros
dispositivos, como por ejemplo un grabador de DVD, un escaner de alta velocidad o un
sistema de fax. En una situación de red se puede compartir cada uno de estos equipos,
mientras que aisladamente sería improbable el que dispusiera cada usuario de ellos.
Una de las ventajas más claras de una red, es la posibilidad de usar la potencia de un
equipo de la red, distinto al que estamos trabajando. Por ejemplo si se han de realizar
Inf o r m á t i c a M é d i c a I 38
Inf o r m á t i c a M é d i c a I
cálculos matemáticos o de ingeniería complicados, se podrá acceder desde un punto de red,
al equipo de dicho entorno que tenga potencia y rapidez suficiente para realizar estos
trabajos en un tiempo razonable.
Mediante las redes de área geográficas, se pueden interconectar redes de área local a
escala mundial. De esta forma se puede transferir información, prácticamente de forma
instantánea, a cualquier lugar.
¿Cómo se transfieren los datos en una red?, para transferir señales entre computadores se
necesitan: un medio de transmisión para portar las señales y dispositivos para enviar y
recibir las señales.
Una vez que se tiene un medio de transmisión, se necesitan los dispositivos que propaguen
y reciban las señales a través del medio elegido. Estos pueden ser, adaptadores de red,
repetidores, concentradores, transmisores diversos y receptores.
Inf o r m á t i c a M é d i c a I 39
Inf o r m á t i c a M é d i c a I
Adaptadores de red
Se fabrican de diversas formas, la más habitual es una placa de circuito impreso que
se instala directamente en un zócalo de expansión. Otros están diseñados para
microcomputadores portátiles, por lo que consisten en un dispositivo pequeño, que se
conecta a la salida de impresora o a una ranura PCMCIA. Estos adaptadores se
fabrican en diversas versiones, de forma que se puedan conectar a cualquier tipo de
medio guiado. También se pueden conectar a
dispositivos que puedan transmitir mediante
medios no guiados
Repetidores y Hubs
Puentes (Bridges)
Pasarelas (Gateways)
Se usan para conectar una LAN a otra red que utilice otros protocolos. Se emplean
para conexión entre diferentes redes locales, o entre locales y ampliadas (WAN).
Concentradores
Transmisores de microondas
Inf o r m á t i c a M é d i c a I 40
Inf o r m á t i c a M é d i c a I
Transmisores infrarrojos y láser
Son análogos a los de microondas. También usan la atmósfera como medio, sin
embargo sólo son válidos para distancias cortas, ya que la humedad, niebla,
obstáculos y otros fenómenos ambientales pueden causar problemas de transmisión.
Las redes de área personal (WPAN) como tecnología de tercera generación, significan un
impulso al proceso de convergencia entre las industrias informática y de comunicaciones.
Desde el momento en que los teléfonos móviles se empiecen a utilizar masivamente como
computadores se producirá una reestructuración del mercado. Los sectores de GPS,
telefonía móvil, computadores y en general procesadores, dejarán de ser independientes.
Estas redes trabajan en una banda de frecuencias de microondas, que no necesita licencia,
2.4 GHz. Las interferencias constituyen un problema en la tecnología radio en general que
se manifiesta activamente en VLAN y también en distancias cortas o WPAN por cuanto
trabaja en la banda sin licencia IMS de 2.4 GHz, como la iluminación de estadios y los
hornos de microondas tanto dornésticos como industriales. En particular. es de gran
relevancia la problemática ligada al efecto de las interferencias en sistemas de radio
producidas por los hornos de microondas.
Cualquier utilización de sistemas de radio en estas bandas se debe basar, por tanto, en
acuerdos adhoc con la industria de las comunicaciones. Un aspecto clave del tema de las
interferencias en este contexto viene dado por el hecho de que magnetrones y hornos de
microondas se diseñan para que funcionen en la región del diagrama de Rieke, donde tiene
lugar la intersección de todas las líneas de frecuencia. Un ejemplo es el consorcio Bluetooth,
que es un grupo de interés especial y promotor que agrupa a fabricantes en estos campos.
Bluetooth es una tecnología desarrollada por Ericsson, que se aplica a todos los dispositivos
que conforman el escenario inalámbrico, para usuarios: computadores portátiles, teléfonos y
dispositivos de mano, como por ejemplo PDA (asistentes digitales personales). El usuario,
en el futuro, ya no utilizará un teléfono, un ordenador portátil o alguno de los dispositivos
presentes en el mercado, sino un equipo comunicador.
Inf o r m á t i c a M é d i c a I 41
Inf o r m á t i c a M é d i c a I
BLUETOOTH
La tecnología Bluetooth se elabora en un chip que se integra en los diferentes equipos que
conforman el entorno inalámbrico actual, como computadores portátiles, periféricos (ratón,
impresoras...), PDA (Personal Digital Assistants) o teléfonos móviles, así como el futuro, en el que se
contemplan, además de estos equipos clásicos del ámbito de la comunicación y la informática, otros
del ámbito de la domótica. Se tiene así lo que se conoce como productos Bluetooth.
El punto clave del chip es el transceptor, que ha de ser de muy pequeño tamaño (para no aumentar
las dimensiones del chip y poder integrarlo con facilidad en los productos) y de muy baja potencia.
Otra parte del chip es el circuito integrado de radiofrecuencia. Este circuito integrado tiene capacidad
de autorregulación, lo que confiere un factor de ahorro de potencia, característica que es
consustancial a las tecnologías inalámbricas en distancias cortas. En concreto, en el chip Bluetooth el
consumo es menor del 3% de la potencia que consume un teléfono móvil.
Bluetooth utiliza "spread spectrum", en concreto frequency hopping (salto de frecuencia). Estos
sistemas de salto de frecuencia dividen la banda de frecuencia en varios canales de salto (hopping).
En el transcurso de una conexión se produce una transición brusca o salto de los transceptores de
radio de un canal a otro de modo pseudoaleatorio. En sistemas FH, el ancho de banda instantáneo
es relativamente reducido, si bien, hablando en términos generales, la dispersión o spread se obtiene
a lo largo de la banda de frecuencias completa. Esto da lugar a transceptores de banda estrecha y de
coste reducido que se pueden considerar óptimos en ley relativo a inmunidad frente a perturbaciones.
Para soslayar este factor se dispone de programas de corrección de errores cuya misión es el
restablecimiento de los bits de error.
Los enlaces en la capa de banda base de la pila de protocolos en Bluetooth, es decir, los posibles
enlaces físicos son SC() ("Synchronous Connection Oriented") para voz y ACL ("Asynchronous
Connectionless Link") para paquetes de datos. Los paquetes ACL se utilizan únicamente para
información en forma de datos, mientras que SCO utiliza paquetes que contiene solamente audio o
bien una combinación de audio y datos. Los paquetes en Bluetooth son de formato fijo: contienen un
campo de código de acceso con el que se identifica el paquete, una cabecera dedicada a información
de control y un campo de carga alternativo.
Bluetooth funciona en una topología de varias picorredes (redes de corto alcance) con las que se
pueden obtener conexiones punto a punto y punto a multipunto. De momento, se ha conseguido
Inf o r m á t i c a M é d i c a I 42
Inf o r m á t i c a M é d i c a I
crear y enlazar de forma ad-hoc hasta 10 picorredes, donde todos los equipos que se encuentran en
una misma picorred aparecen sincronizados.
El concepto de picorred es clave en Bluetooth: se define como la red formada por dos o más
unidades o equipos que compraten un canal. Una unidad controla el tráfico y las otras funcionan
como elementos subordinados. Las picorredes pueden, a su vez, enlazarse siguiendo una
arquitectura tipica del escenario inalámbrico que se utiliza habitualmente para generar flujos de
comunicación mutua entre equipos inalámbricos y que normalmente se crea de forma espontánea sin
necesitar un punto de acceso como parte integrante de la red. Un grupo de picorredes enlazadas
constituye una red de dispersión. El ancho de banda asociado a Bluetooth, que es de un Mbps,
puede llegar a extenderse hasta incluso más de seis Mbps con una topología de 10 picorredes
enlazadas. El enlace de radio físico entre las diferentes unidades que forman una picorred se realiza
mediante los protocolos que conforman las capas de banda base y de enlace.
Modems
Una variante es la conocida como ADSL, (Asymmetrical Digital Subscriber Line), útil para el
acceso a Internet, pues permite la transmisión de información con una velocidad de hasta 8
Mbps, y es interoperativa con el sistema RDSI. Algunas variantes recientes transmiten con
velocidad de hasta 20 Gigas.
DSL asimétrico (ADSL), en el que las velocidades de transmisión son distintas según
el sentido.
DSL simétrico (SDSL), en el que las velocidades en ambos sentidos son análogas
DSL de elevada relación de bits, (HDSL) es como el simétrico, pero con más
velocidad (HDSL2)
DSL de muy elevada relación de bits, (VDSL) es análogo a ADSL; pero al velocidad
está en función de la red. Se alcanzan velocidades de hasta 60 Mbit/s
Los principales fabricantes de circuitos integrados para estos dispositivos son: Alcatel
Microelectronics, STMicroelectronics, Analog Devices Inc, Lucent Technologies Inc,
Globespan Technologies Inc, Virata Corp. y ARM Holding Plc.
Inf o r m á t i c a M é d i c a I 43
Inf o r m á t i c a M é d i c a I
Por topología de una red se entiende la forma en la que se conectan electrónicamente los
puntos de dicha red. Las topologías existentes son tres: bus, árbol y estrella. Se han de
tener en cuenta una serie de factores al seleccionar como más adecuada una topología, se
describen
seguidamente:
A) Topología en BUS
Análisis comparativo
Ventajas
- El medio de transmisión es totalmente pasivo
- Es sencillo conectar nuevos dispositivos
- Se puede utilizar toda la capacidad de transmisión disponible
- Es fácil de instalar
Inconvenientes
- El interfaz con el medio de transmisión ha de hacerse con dispositivos inteligentes
- A veces los mensajes interfieren entre sí
- El sistema no reparte equitativamente los recursos
- La longitud del medio de transmisión no supera habitualmente los dos kilómetros
Inf o r m á t i c a M é d i c a I 44
Inf o r m á t i c a M é d i c a I
B) Topología en Anillo
Las estaciones se conectan formando un anillo. Ningún nodo controla totalmente el acceso a
la red.
Análisis comparativo
Ventajas
Inconvenientes
C) Topología en Estrella
Inf o r m á t i c a M é d i c a I 45
Inf o r m á t i c a M é d i c a I
•Respuesta. Es bastante buena para una carga moderada del sistema. Afecta mucho la
potencia del nodo central.
Análisis comparativo
Ventajas
Inconvenientes
Al hablar de "hardware" de red no hay más remedio que hablar de las implementaciones que
existen en el mercado de ciertas normas creadas por el IEEE (Institute of Electrical and
Electronics Engineers). Cada una de estas normas engloba toda una serie de características
entre las que destacan la topología, velocidad de transferencia y tipos de cable. Para no
entrar en temas excesivamente técnicos se describen dos: Ethernet y Token Ring.
TOKEN RING: Es la red IBM por excelencia. Cuenta con versiones de 4 y 16 Mbit/s lo
que la hacía hasta hace poco tiempo una de las más rápidas. Por su velocidad y
soporte de grandes distancias, es la más utilizada en redes grandes. Utiliza topología
en anillo aunque en realidad el cable se hace en estrella. Ideal para conectividad con
Inf o r m á t i c a M é d i c a I 46
Inf o r m á t i c a M é d i c a I
IBM. No se recomienda para redes muy pequeñas ya que su coste es alto con
respecto a las otras dos.
Vistos los diversos niveles OSI, se puede concluir que hay una complejidad elevada en las
tareas de control de las comunicaciones en una red. El programa que realiza esta tarea se
denomina sistema operativo de red, y ha de cumplir ciertos requerimientos:
Multitarea: Para atender las peticiones de muchos usuarios a la vez deben ser
capaces de realizar varias tareas simultáneamente. De esta forma pueden realizar
una lectura en disco al mismo tiempo que reciben otra petición a través de la red o
imprimen un texto enviado por una estación de trabajo.
Direccionamiento: Deben ser capaces de controlar grandes capacidades de disco,
ya que éstos van a ser utilizados por más de un usuario. Para controlar gran
capacidad de disco duro, necesitaran gran cantidad de memoria que deben
direccionar.
Control de acceso: Si desea que los datos de todos los usuarios no dañados por
error de una de ellos, el sistema operativo de red deberá incorporar un sistema que
permita a los usuarios acceder sólo a los datos imprescindibles para su trabajo en la
red.
Seguridad de datos: El disco duro de un servidor de archivos almacena muchos
datos, muchos más que el de un PC aislado. Preservarlos justifica tener un sistema
de seguridad que evite que un fallo de los componentes cause su perdida. Por ello
los sistemas operativos de red tienen sistema de tolerancia de fallos que funcionan
de forma automática y transparente para los usuarios.
Interface de usuario: Los usuarios deben seguir teniendo en su pantalla la misma
apariencia que les ofrecía el entorno local. El acceso a los periféricos de la red debe
ser transparente y de la misma forma que si estuviera conectado en su estación.
Sólo con ello se conseguirá facilidad de uso en la red.
En el mercado existen diversos sistemas operativos para red:
♦ NETWARE (de Novell) dispone de diversas modalidades, hace unos años era
el más difundido.
♦ VINES (de Banyan) dirigido a entorno más amplios. Utiliza en los servidores
el sistema operativo UNIX y de ahí le viene su compatibilidad casi total.
♦ Windows, se están imponiendo como S.O. de red, dado que tienen entornos
fáciles de manejar, aunque como todos los productos Microsoft, son poco
fiables.
♦ Linux está alcanzando gran difusión, siendo el S.O. más seguro. La gran
mayoría de servidores de Internet operan bajo él.
Inf o r m á t i c a M é d i c a I 47
Inf o r m á t i c a M é d i c a I
INTERNET
Origen
Hace unos 45 años, la RAND Corporation, la primera fábrica de ideas de la América de la
guerra fría, se enfrentó a un extraño problema estratégico. ¿Cómo se podrían comunicar
con éxito las autoridades norteamericanas tras una guerra nuclear? La América post nuclear
necesitaría una red de comando y control enlazada de ciudad a ciudad, estado a estado,
base a base. Pero sin importar cómo esa red estuviera de protegida, sus líneas y equipos
siempre serían vulnerables al impacto de bombas atómicas. Un ataque nuclear reduciría
cualquier red imaginable a pedazos. ¿Cómo sería controlada esa red? Cualquier autoridad
central, cualquier núcleo de red centralizado sería un objetivo obvio e inmediato para un
misil enemigo. El centro de la red sería el primer lugar a derribar. La RAND le dio muchas
vueltas a este difícil asunto en secreto militar y llegó a una solución atrevida. La propuesta
de la RAND se hizo pública en 1964. En primer lugar, la red “no tendría autoridad central”.
Además, sería “diseñada desde el principio para operar incluso hecha pedazos”. Los
principios eran simples. Se asumiría que una red era poco fiable en cualquier momento. Se
diseñaría para trascender su propia falta de eficacia. Todos los nodos en la red serían
iguales entre sí, cada nodo con autoridad para crear, pasar y recibir mensajes. Los
mensajes se dividirían en paquetes, cada paquete dirigido por separado. Cada paquete
saldría de un nodo fuente específico y terminaría en un nodo destino.
Cada paquete recorrería la red según unos principios particulares. La ruta que tome cada
paquete no tendría importancia. Solo contarían los resultados finales. Básicamente, el
paquete sería lanzado como una patata de un nodo a otro, más o menos en dirección a su
destino, hasta acabar en el lugar adecuado. Si grandes porciones de la red fueran
destruidas eso simplemente no importaría; los paquetes permanecerían en la red en los
nodos que hubieran sobrevivido.
Este sistema de envío tan arbitrario podría parecer "ineficiente" en el sentido usual del
término (especialmente comparado con, por ejemplo, el sistema telefónico). Durante los 60,
este intrigante concepto de red de conmutación de paquetes descentralizada y a prueba de
bombas caminó sin rumbo entre el RAND, el MIT (Masachussets Institute of Technology) y
UCLA (University of California in Los Angeles).
El Laboratorio Nacional de Física (National Physical Laboratory) de Gran Bretaña preparó la
primera red de prueba basada en estos principios en 1968. Poco después, la Agencia de
Proyectos de Investigación Avanzada del Pentágono (ARPA) decidió financiar un proyecto
más ambicioso y de mayor envergadura en los Estados Unidos. Los nodos de la red iban a
ser supercomputadores de alta velocidad (o lo que se llamara así en aquel momento). Eran
máquinas poco usuales y de mucho valor y que estaban necesitadas de un buen entramado
de red para proyectos nacionales de investigación y desarrollo.
En el otoño de 1969 el primero de esos nodos fue instalado en UCLA. En Diciembre de ese
año había cuatro nodos en la pequeña red, que se llamó ARPANET después de que fuera
promocionada por el Pentágono. Los cuatro computadores podían transferir información
sobre líneas dedicadas de alta velocidad. Incluso podían ser programados remotamente
desde otros nodos. Gracias a ARPANET, científicos e investigadores podían compartir las
facilidades de otros computadores en la distancia.
Era un servicio muy útil ya que el tiempo de proceso de los computadores en los 70 era algo
muy codiciado. En 1971 había quince nodos en ARPANET; en 1972, treinta y siete. Todo iba
perfecto. En su segundo año de operatividad, sin embargo, algo extraño se hizo patente.
Los usuarios de ARPANET habían convertido la red en una oficina de correos electrónica de
alta velocidad subvencionada federalmente. La mayor parte del tráfico de ARPANET no era
el proceso de datos a largas distancias. En vez de eso, lo que se movía por allí eran noticias
y mensajes personales. Los investigadores estaban usando ARPANET para colaborar en
proyectos, intercambiar notas sobre sus trabajos y, eventualmente, chismorrear. La gente
Inf o r m á t i c a M é d i c a I 48
Inf o r m á t i c a M é d i c a I
tenía sus propias cuentas personales en los computadores de ARPANET y sus direcciones
personales de correo electrónico. No es que sólo utilizaran ARPANET para la comunicación
de persona a persona, pero había mucho entusiasmo por esta posibilidad -mucho más que
por la computación a larga distancia. Eso no pasó mucho antes del invento de las listas de
distribución, una técnica de emisión de información por ARPANET mediante la cual un
mismo mensaje se podía enviar automáticamente a una gran cantidad de subscriptores.
Es interesante que una de las primeras listas de distribución masivas se llamara "Amantes
de la Ciencia Ficción" (SF- LOVERS). Discutir sobre ciencia ficción en la red no tenía nada
que ver con el trabajo y eso enfadaba a muchos los administradores del sistema ARPANET,
pero eso no impediría que la cosa siguiera. Durante los 70, ARPANET creció.
Su estructura descentralizada facilitó la expansión. Contrariamente a las redes standard de
las empresas, la red de ARPA se podía acomodar a diferentes tipos de computador. En
tanto en cuanto una máquina individual pudiese hablar el lenguaje de conmutación de
paquetes de la nueva y anárquica red, su marca, contenidos e incluso su propietario eran
irrelevantes.
El estándar de comunicaciones de ARPA era conocido como NCP, "Network Contro
Protocol", pero según pasaba el tiempo y la técnica avanzaba, el NCP fue superado por un
stándar de más alto nivel y más sofisticado conocido como TCP/IP. El TCP o "Trasmision
Control Protocol," convierte los mensajes en un caudal de paquetes en el computador fuente
y los reordena en el computador destino. El IP, o "Internet Protocol", maneja las direcciones
comprobando que los paquetes caminan por múltiples nodos e incluso por múltiples redes
con múltiples estándards -no sólo ARPA fue pionera en el stándar NCP, sino también
Ethernet, FDDI y X.25. En 1977, TCP/IP se usaba en otras redes para conectarse a
ARPANET. ARPANET estuvo controlada muy estrictamente hasta al menos 1983, cuando
su parte militar se desmembró de ella formando la red MILNET. Pero el TCP/IP las unía a
todas. Y ARPANET, aunque iba creciendo, se convirtió en un cada vez más pequeño barrio
en medio de la vasta galaxia de otras máquinas conectadas. Según avanzaban los 70 y 80,
distintos grupos sociales se encontraban en posesión de potentes computadores. Era muy
fácil conectar esas máquinas a la creciente red de redes. Conforme el uso del TCP/IP se
hacía más común, redes enteras caían abrazadas y adheridas a Internet. Siendo el software
llamado TCP/IP de dominio público y la tecnología básica descentralizada y anárquica por
propia naturaleza, era muy difícil parar a la gente e impedir que se conectara. De hecho,
nadie quería impedir a nadie la conexión a esta compleja ramificación de redes que llegó a
conocerse como "Internet". Conectarse a Internet costaba al contribuyente muy poco o nada
desde que cada nodo era independiente y tenía que arreglárselas con la financiación y los
requerimientos técnicos.
Cuantos más, mejor. Como la red telefónica, la red de computadores era cada vez más
valiosa según abarcaba grandes extensiones de terreno, gente y recursos. Un fax solo es
útil si "alguien más" tiene un fax. Mientras tanto no es más que una curiosidad. ARPANET,
también, fue una curiosidad durante un tiempo. Después la red de computadores se
convirtió en una necesidad importante. En 1984 la Fundación Nacional para la Ciencia
(National Science Foundation - NSF) entró en escena a través de su Oficina de
Computación Científica Avanzada (Office of Advanced Scientific Computing). La nueva
NSFNET supuso un paso muy importante en los avances técnicos conectando nuevas, más
rápidas y potentes supercomputadoras a través de enlaces más amplios, rápidos,
actualizados y expandidos según pasaban los años, 1986, 1988 y 1990. Otras agencias
gubernamentales también se unieron: NASA, los Institutos Nacionales de la Salud (National
Institutes of Health), el Departamento de Energía (Departament of Energy), cada uno
manteniendo cierto poderío digital en la confederación Internet.
Los nodos de esta creciente red de redes se dividían en subdivisiones básicas. Los
computadores extranjeros y unos pocos americanos eligieron ser denominados según su
localización geográfica. Los otros fueron agrupados en los seis "dominios" básicos de
Inf o r m á t i c a M é d i c a I 49
Inf o r m á t i c a M é d i c a I
Internet: gov, mil, edu, com, org y net. (Estas abreviaturas tan sosas pertenecen al estándar
de los protocolos TCP/IP). Gov, Mil y Edu definen al gobierno, militares e instituciones
educativas, las cuales fueron, por supuesto, las pioneras de la ARPANET que comenzó
como un experimento de alta tecnología en seguridad nacional. Com, sin embargo, definía a
instituciones "comerciales", que enseguida entraron a la red como toros de rodeo rodeadas
por una nube de entusiastas "orgs" sin ánimo de lucro. (Los computadores tipo "net" servían
como pasarelas entre redes).
La red ARPANET propiamente dicha expiró en 1989 como víctima feliz de su éxito
abrumador. Sus usuarios apenas se dieron cuenta, pero las funciones de ARPANET no solo
continuaron sino que mejoraron firmemente. El uso del estándar TCP/IP para redes es ahora
algo global. En 1971, hace 21 años, sólo había cuatro nodos en la red ARPANET. Hoy
existen decenas de miles en Internet esparcidos por más de cien países y muchos más que
se conectan cada día. Millones de personas ya usan y dependen de esta gigantesca madre-
de-todas-las-redes. Internet es especialmente popular entre los científicos, académicos y es
probablemente su instrumento más importante desde finales del siglo XX. Las posibilidades
que ofrece, tan potentes y sofisticadas, de acceso a datos específicos y a la comunicación
personal ha elevado la marcha de la investigación científica enormemente y el desarrollo de
las ideas ha dado un nuevo giro al poder compartir el conocimiento en línea. Su primer fruto
fue el proyecto del genoma humano.
El índice de crecimiento de Internet a comienzos de los 90 fue espectacular, casi feroz. Se
extendió más rápidamente que los teléfonos móviles y que el fax. En 1995 Internet crecía a
un ritmo del 25% mensual. El número de computadores con conexión directa al TCP/IP se
ha estado doblando anualmente desde 1990. Internet se desplazó rápidamente de su origen
militar y científico a las escuelas de enseñanza básica e institutos, al mismo tiempo que a
bibliotecas públicas y luego a todo el sector comercial. ¿Por qué la gente quiere estar "en
Internet"? Una de las principales razones es simplemente la libertad. Internet es un raro
ejemplo de anarquía verdadera, moderna y funcional. No existe "Internet, S.A." No hay
censores oficiales, ni jefes, ni junta directiva, ni accionistas, no hay leyes ni reglas. Todo lo
que hay es libertad.
En principio, cualquier nodo puede hablar de igual a igual a otros nodos siempre que
obedezcan las leyes del protocolo TCP/IP, leyes que no son políticas sino estrictamente
técnicas. (Ha existido controversia sobre el uso comercial de Internet, pero esta situación
está cambiando según los negocios proporcionan sus propios enlaces y conexiones).
Internet también es una ganga. Internet en conjunto, a diferencia del sistema telefónico, no
cuesta dinero según las distancias. Y a diferencia también de la mayoría de las redes
comerciales, no se cobra por tiempo de conexión. De hecho, "Internet" de por sí, que ni
siquiera existe como una entidad, no cobra "nada" por nada. Cada grupo de gente que
accede a Internet es responsable de su propia máquina y de su propio trozo de línea. La
"anarquía" de Internet puede parecer extraña o incluso poco natural, pero tiene cierta
profundidad y sentido. Es como la "anarquía" del idioma: nadie alquila el idioma y nadie lo
posee, este solo fluye, se transforma y evoluciona libremente entre las personas.
Depende de uno aprender a hablar correctamente y usar el idioma para lo que quieras.
Aunque mucha gente se gana la vida usando, explotando y enseñando inglés, francés y
otros idiomas, el idioma como institución es una propiedad pública, un bien común. Mucho
de eso ocurre con Internet. ¿Mejoraría el castellano si "Castellano S.A." tuviera un consejo
de administración con su director o ejecutivo al frente, un presidente y una asamblea?
Probablemente existirían muchas menos palabras en el idioma, y muchas menos nuevas
ideas. La gente en Internet siente que se trata de una institución que se resiste a la
institucionalización. El interés pertenece a todos y a nadie. A pesar de esto, hay quién tiene
intereses en Internet.
Los negociantes quieren que Internet tenga una base financiera. Los gobernantes la quieren
más regulada. Los académicos la quieren para fines de investigación. Los militares para la
Inf o r m á t i c a M é d i c a I 50
Inf o r m á t i c a M é d i c a I
seguridad. Y así muchos más. Todas estas fuentes de conflicto permanecen en torpe
equilibrio, e Internet, hasta ahora, se mantiene en próspera anarquía. Antes, las líneas de
alta velocidad de la NSFnet eran conocidas como la "espina dorsal de Internet" (Internet
Backbone), y sus propietarios podían señorearse con el resto de Internet; pero hoy existen
"espinas dorsales" en Canadá, Japón y Europa, e incluso algunas privadas para el tráfico
comercial. Hoy, incluso computadores domésticos privados pueden convertirse en nodos de
Internet. Se pueden llevar bajo el brazo. Pronto, quizás, en la muñeca. Pero, ¿Qué se “hace”
en Internet? Básicamente, cinco cosas: búsqueda de información, correspondencia, grupos
de discusión (chat), computación a larga distancia y transferencia de archivos. El correo de
Internet es el correo electrónico (e-mail), mucho más rápido que el correo postal y no tienes
que pagar por él (al menos directamente) y es a escala global. Por correo electrónico se
pueden mandar archivos de todo tipo: documentos, imágenes, sonidos, videos, etc. Se está
trabajando en nuevas formas de correo electrónico.
Los grupos de discusión, o "newsgroups", son un mundo aparte. Este mundo de debate y
argumentaciones se conoce como "USENET". USENET es de hecho diferente a Internet.
USENET es como una multitud ondulante de gente chismosa y con ganas de información
que se mueve por Internet en busca de barbacoas de patio trasero. USENET no es tanto
una red física como un conjunto de convenciones. En cualquier caso, ahora existen 2.500
grupos de discusión separados en USENET y sus mensajes generan unos 7 millones de
palabras al día. Naturalmente se habla mucho sobre computadores en USENET, pero la
variedad de temas sobre los que se habla es enorme, creciendo estos continuamente.
En USENET se distribuyen varias publicaciones electrónicas gratuitas de manera periódica.
Estos grupos y el correo electrónico están disponibles fácilmente, incluso fuera del corazón
de Internet. Se puede acceder a ellos a través de las líneas de teléfono normales, desde
otras redes como BITnet, UUCP y Fidonet. Los últimos servicios de Internet, computación a
larga distancia y trasferencia de archivos, requieren de conexión directa usando TCP/IP. La
computación a larga distancia fue algo pensado para ARPANET y aún se usa mucho, al
menos por algunos. Los programadores pueden mantener sus cuentas abiertas en
poderosos super-computadores y ejecutar allí sus programas o crear otros nuevos. Los
científicos pueden usar potentes computadores desde otros continentes.
Las bibliotecas ofrecen sus catálogos electrónicos para que se busque en ellos
gratuitamente. Enormes catálogos en CD-ROM están disponibles a través de este servicio.
Y existe mucho software gratuito al mismo tiempo. La tranferencia de archivos permite a los
usuarios acceder a máquinas remotas y tomar de ellas programas o textos. Muchos
computadores de Internet - unos dos mil o más - permiten que se acceda a ellos de manera
anónima y que la gente use sus archivos de manera gratuita. Esto no es algo trivial, ya que
libros enteros se pueden transferir en cuestión de minutos. Hoy existen millones de archivos
públicos disponibles a quién los quiera utilizar (y otros millones disponibles a gente con
autorización).
La transferencia de archivos por Internet se está convirtiendo en una nueva forma de
publicación, en la que el lector copia electrónicamente el texto que desee en la cantidad que
quiera y de forma gratuita. Nuevos programas de Internet, como "ARES", "EMULE" y
"KAZAA" se han desarrollado para catalogar y explorar esa cantidad de material. Esta
Internet sin cabeza, anárquica y con millones de tentáculos se está extendiendo como el pan
de molde. Cada computador con la potencia suficiente es una espora potencial de Internet y
hoy los computadores se venden a menos de 500 dólares y están disponibles en todo el
mundo. La red ARPA, diseñada para asegurar el control de una sociedad desolada después
de un holocausto nuclear, ha sido sobrepasada por su hija mutante, Internet, que está a
fuera de control a conciencia y se expande exponencialemente por la aldea global de la post
guerra fría.
Inf o r m á t i c a M é d i c a I 51
Inf o r m á t i c a M é d i c a I
La expansión
La expansión de Internet en los 90 se parece a la que sufrió la informática personal en los
70, aunque esta es más rápida y más importante. Más importante, quizás, porque da a los
computadores personales una imagen de algo barato, de fácil acceso y con posibilidades de
almacenaje a una escala realmente planetaria. El futuro de Internet pasa por ser más grande
y con velocidades exponencialmente mayores. La comercialización de Internet es un tema
candente hoy día, donde se promete cualquier tipo de comercialización salvaje de la
información. El gobierno federal, agradecido por este éxito inesperado, aún tiene mucho que
decir en esto. La NREN (National Research and Educational Network - Red Nacional de
Educación e Investigación), fue aprobada en el otoño de 1991 como un proyecto a cinco
años y con un presupuesto de dos billones de dólares para que la red troncal de Internet
fuera actualizada. NREN será unas 50 veces más rápida que la red más rápida de hoy día
permitiendo la transferencia de la Enciclopedia Británica en un segundo. Las redes de
computadores permitirán gráficos animados en 3-D, enlaces de radio y teléfonos móviles a
computadores portátiles, fax, voz y televisión de alta definición. ¡Un circo global multimedia!
O al menos así se espera - y se planea. La Internet real del futuro debe soportar pocos
parecidos con los planes de hoy. Prever las cosas nunca ha tenido mucho que ver con el
rápido desarrollo de Internet. Después de todo, Internet se parece muy poco a aquellos
sombríos planes del RAND para el post-holocausto. Esto resulta ser una sutil y feliz ironía.
¿Cómo se accede a Internet? Bien -- si no se tiene un computador y un modem, hay que
hacerse con uno. El computador puede actuar como una terminal y se puede usar una línea
de teléfonos ordinaria para conectarse a una máquina enganchada a Internet. Simplemente
esto puede hacer que se tenga acceso a los grupos de discusión y a una dirección de correo
electrónico propia. Merece la pena tener estos servicios -- aunque sólo con el correo y las
noticias no se está del todo "en Internet". Si está ud. en un campus, la universidad puede
que tenga "acceso directo" a líneas TCP/IP de Internet de alta velocidad. Hágase con una
cuenta de Internet en un computador del campus y será capaz de utilizar los servicios de
computación remota y la transferencia de archivos. Algunas ciudades como Cleveland
proporcionan acceso gratuito a la red. Las empresas tienen cada vez más posibilidades de
acceso y están deseando vender esos accesos a sus clientes. La cuota estándar es de unos
40 dólares al mes -más o menos como el servicio de TV por cable. Según avancen los 90,
encontrar acceso a Internet será mucho más fácil y barato. Su facilidad de uso también
mejorará del salvaje interface UNIX del TCP/IP a otros muchos más intuitivos y cómodos
para el usuario, eso es una buena noticia. Aprender Internet ahora, o al menos aprender
sobre Internet, es para entendidos.
Cuando cambiemos de siglo la "cultura de redes", tal como la "cultura de los computadores"
antes de esta se verá forzada a introducirse en el ámbito de su vida.
Irc
Inf o r m á t i c a M é d i c a I 52
Inf o r m á t i c a M é d i c a I
en 1989 Okarinen convenció a varios amigos en otras universidades Finlandesas y Suecas
para que instalaran el programa servidor de IRC en sus computadores, que estaban
conectados a la red Finlandesa, inspirada en la americana American BITNET. Después de
que otras universidades finlandesas empezaran a usar IRC, estas siglas empezaron a
extenderse ampliamente. Jeff Trim, de la Universidad de Denver y David Bleckman y Todd
Ferguson, de la de Oregon State prepararon los primeros servidores IRC fuera de
Escandinavia. Estaban conectados a los servidores originales y los usuarios de Denver y
Oregon State podían chatear con usuarios de Finlandia y Suecia. El IRC empezó a crecer
rápidamente y a ser cada vez más global. En agosto de 1990, la red de servidores IRC, que
había crecido de 1 a 38 en dos años, se dividió en varias redes. Un mes más tarde, el
número había crecido a 117, 86 de los cuales enviaban sus estadísticas de uso a Okarinen.
En las estadísticas de esos servidores había tan solo 41 usuarios. En Enero de 1991
desarrollaba la guerra del Golfo y muchos usuarios alrededor del mundo conectaban sus
computadores para obtener las últimas noticias desde Kuwait. Los kuwaitíes que tenían PCs
eran capaces de remitir diariamente las atrocidades ocurridas bajo la ocupación Iraquí.
Debido al uso del IRC por los Kuwaitíes durante la guerra del Golfo, el número de usuarios
del IRC alcanzó la cima de 300. En marzo de 1991, había por primera vez más servidores
norteamericanos (69) que de otro país (66). El uso del IRC creció explosivamente entre la
guerra del Golfo y el mes de octubre de 1995 donde se producían más de 15.000 visitas a
los servidores de IRC. En abril de 1997, se producían alrededor de 30.000 visitas al mes. El
uso del IRC ha crecido enormemente en los últimos años, pero no tanto como el uso del
WWW o el correo electrónico. El IRC viene a ser una tecnología de especialistas en manos
de usuarios que saben leer y escribir. Al igual que INTERNET y la mayoría de su tecnología,
el protocolo y código fuente del IRC no tiene Copyright. Esto ha hecho posible a mucha
gente verse envuelta en su desarrollo.
Fuente: "History of the Internet, WWW, IRC, and MUDs" by Robin Hamman
http://www.socio.demon.co.uk/history.html
Referencia: Para una revisión más exhaustiva de Internet consultar:
http://www.infase.es/FORMACION/INTERNET/contenido.html
Inf o r m á t i c a M é d i c a I 53
Inf o r m á t i c a M é d i c a I
El CORREO ELECTRONICO
Historia
Con la llegada de las computadoras personales, la idea de una red cambió totalmente. Cada
día más empresas instalaban LANs (Local Area Network) o redes locales de PCs, o
INTRANET, que a su vez tenían la posibilidad de conectarse a otras LAN, directamente o
mediante una conexión remota. Así surge inevitablemente una gran red mundial llamada la
INTERNET.
La INTRANET y el e-mail.
Figura 1
El e-mail comenzó cuando se vislumbró la posibilidad de que varias personas que trabajan
juntas en una empresa con una LAN o INTRANET, pudieran comunicarse e intercambiar
ideas, proyectos y documentos desde su PC, sin desplazarse ni salir de su oficina. Se le
llama INTRANET a la red local que se comunica empleando el protocolo TCP/IP. Esta idea
se implementó como se muestra en la figura 1, pero luego se vislumbró la posibilidad de que
un usuario pudiera acceder al sistema en forma remota, es decir, sin estar conectado
directamente a la LAN, sino por medio de una línea telefónica y un MODEM, como se
muestra abajo.
Inf o r m á t i c a M é d i c a I 54
Inf o r m á t i c a M é d i c a I
El siguiente paso en la expansión fue conectar varias LAN para que intercambiaran los
mensajes dirigidos a sus usuarios, Figura 3. Esta implementación incluye una dificultad
adicional porque cada servidor de correo debe conocer a sus usuarios locales (conectados a
su red) y a los remotos (los de la otra red). Por esto se hizo necesaria la introducción de las
direcciones de correo con dominios.
Cuando el servidor está conectado a una, y sólo a una LAN, el problema de la dirección de
destino es muy simple, cada dirección debe identificar de forma unívoca a cada usuario. Con
una LAN esta restricción es fácil de implementar, pero cuando se trata de varias LANs
interconectadas, el asunto ya pasa a ser un problema mayor; así se introducen los dominios,
que representan al servidor al que pertenece el usuario y que tienen la forma de una
dirección válida, es decir sin espacios en blanco ni caracteres prohibidos. Para diferenciar el
nombre del usuario de su dominio se adoptó el caracter "@" que significa "en" (at) entonces
la dirección bruno@servidor.a se puede leer como "Bruno en el servidor A"
Inf o r m á t i c a M é d i c a I 55
Inf o r m á t i c a M é d i c a I
SMTP vs X.400
Como solución a este caos de variedades de correos totalmente incompatible, surgieron dos
soluciones, dos estándares. Aunque parezca contradictorio, el primer estándar es el que se
implementó de facto en la INTERNET y se publicó en 1982 bajo la forma de la RFC 821 y
RFC 822, (la primera de ellas define el protocolo y la segunda el formato del mensaje) y se
denominó SMTP (Simple Mail Transfer Protocol), el protocolo simple de transferencia de
correo, y, como su nombre lo indica, la intención de la gente que hizo el estándar era
conservar la simplicidad. Un par de años más tarde, y quizá demasiado tarde, llegó el
estándar oficial de la CCITT para el manejo de mensajes en INTERNET y se llamó X.400.
Este estándar nunca llegó a imponerse en la INTERNET debido a su complejidad, lo poco
flexible de las direcciones y a que llegó muy tarde. El hecho es que el estándar de
INTERNET para la transferencia de correo es el SMTP que se usa aún hoy ampliamente en
toda la red, con algunas excepciones. Debido a su formato de transferencia, el SMTP no
soporta los caracteres extendidos que son imprescindibles en idiomas como el francés y el
alemán. En particular los gobiernos de Francia y Canadá impulsaron el X.400 como
estándar ya que se adaptaban mucho mejor a sus necesidades, ahora estos dos países son
los únicos que soportan estos protocolos y debido a esto se necesitó la creación de
pasarelas de conversión de un sistema al otro.
Inf o r m á t i c a M é d i c a I 56
Inf o r m á t i c a M é d i c a I
EL CORREO POP
Estos protocolos funcionan muy bien cuando los destinatarios están permanentemente
conectados a la INTERNET, como en la figura 4, pero unos años después de la publicación
de los estándares se hizo más común el correo POP para usuarios domésticos que desde
su casa se conectaban, mediante un MODEM, esporádicamente a la INTERNET. Estos
usuarios tienen un contrato con un ISP que está siempre conectado a la red y, al llegar un
correo para un usuario, el mail-server del ISP lo guarda hasta que el usuario se conecte y lo
solicite. Esta situación se ilustra en la siguiente imagen.
EL CORREO WEB
La última versión y la más popular del correo electrónico es el correo web, que se utiliza
mediante páginas web especialmente diseñadas para tal propósito. Este correo le permite a
sus usuarios poder acceder directamente a su casilla de correo y ver su correspondencia sin
tener que descargarlo a la PC desde la que acceden. Así, todo su correo puede permanecer
en el ISP siempre. Esto obliga a los ISP a limitar la capacidad de las casillas de correo. Hoy
los correos web conceden desde 2 Mb. hasta 250 Mb. Aunque siempre es posible comprar
espacio adicional. Los correos web se han hecho muy populares en todo el mundo debido a
que son gratuitos y ofrecen una amplia gama de servicios adicionales, tales como
mensajería instantánea, chat, listas de interés, grupos, etc. Los más conocidos en nuestro
medio son Hotmail, Yahoo, Latinmail, etc. El acceso al servidor de correo desde la Internet
impuso la necesidad de crear otro protocolo que sirviera para ese propósito. Así surgió el
IMAP o Internet Mail Access Protocol, o protocolo de acceso al correo por Internet. Todo
esto quiere decir que los servidores de correo electrónico deben poder manejar los
protocolos SMTP, IMAP y POP, para cada una de sus distintas actividades. La siguiente
imagen nos da una idea del entorno que sugiere el correo web.
Inf o r m á t i c a M é d i c a I 57
Inf o r m á t i c a M é d i c a I
Los avances de la tecnología han hecho que las diferencias entre un tipo y otro, en muchos
aspectos, queden reducidas a simples sutilezas. Sin embargo es conveniente tener presente
que existen diferencias sustanciales entre uno y otro, y que puede resultar interesante
tenerlas presentes a la hora de decidirse por uno u otro tipo de servicio. Para llegar a un
cabal entendimiento de cómo funcionan cada uno de ellos, haremos una comparación entre
ambos, en diversos aspectos.
a) Software necesario
Se emplea mediante páginas web. Esto quiere decir Se requiere un programa especial en la PC que
que se necesita un explorador web como Internet maneje correo electrónico. Por ejemplo, el Outlook
Explorer, Netscape, Copérnico, Opera, etc. Express que viene con Windows, o cualquier otro
similar.
Alcances y disponibilidad
Al ser empleado a través de la Internet, el correo El correo POP está disponible en la PC, pero
web está disponible en cualquier lugar del mundo. muchos de estos correos también pueden ser
Solo basta con abrir una página web y llamar a su abiertos a través de la Internet como cualquier otro
servicio de correo: Hotmail, Yahoo, Gmail, etc. correo web. Además muchos correos web brindan la
facilidad de poder acceder a su correo POP si les
proporcionan los datos necesarios.
c) Velocidad.
La velocidad del correo web es la misma que tiene La velocidad del correo POP al momento de
Internet, o sea, la combinación de la PC, la red y el interactuar es la misma que tiene la PC. Algunas
servidor. Para cada acción que realizamos se acciones abren ventanas distintas, pero lo hacen a la
necesita abrir una nueva página web completa. velocidad de Windows. Tan solo en el envío y
recepción del correo depende de la velocidad de la
red.
Inf o r m á t i c a M é d i c a I 58
Inf o r m á t i c a M é d i c a I
b) Almacenamiento.
c) Seguridad
Dependemos del manejo del ISP. Nuestra Además de la contraseña de nuestra cuenta de
contraseña de acceso es la única seguridad con correo, también es posible activar la contraseña para
que contamos. el inicio de sesión con el programa de correo, como
Outlook Express, por ejemplo. También podemos
Hay varias formas de abrir el correo web. activar la contraseña de nuestra cuenta de Windows
XP. Pero las herramientas más importantes de
Recordemos el caso reciente de una famosa seguridad son la FIRMA DIGITAL y el
artista cuyo contenido completo de correo web ENCRIPTAMIENTO, que son dos funciones
fue publicado en Internet gracias a que ella disponibles desde la mayoría de programas de
misma proporcionó, sin darse cuenta, el nombre gestión de correo electrónico.
de su mascota, que era la contraseña de su
correo.
d) Versatilidad.
No tenemos mayores opciones que - Podemos emplearlo simultáneamente con otros programas
las que nos ofrece la página web en de la PC, tales como Word, Excel, etc. y combinar los
la que se gestiona el correo. datos para pasarlos de un lugar a otro.
- Podemos emplear programas adicionales como utilitarios y
herramientas para el correo electrónico: revisión
ortográfica, filtros antispam, antivirus activo, diseños de
correo, libreta de direcciones, mensajería instantánea,
editores especiales, etc.
Recomendaciones
Como todas las cosas, el uso del correo electrónico corre el riesgo de ser empleado de una
manera inconveniente, tanto para la propia persona como para el sistema en su conjunto. A
través de la experiencia, algunas recomendaciones pueden ser útiles para optimizar el uso
del correo electrónico.
Inf o r m á t i c a M é d i c a I 59
Inf o r m á t i c a M é d i c a I
- Para las comunicaciones personales y familiares
- Para las comunicaciones laborales y profesionales
- Para suscripciones y registros de Internet
A menudo las personas eligen un servidor solo porque es el más conocido y nada más. Pero
lo cierto es que hay muchísimos servidores de correo que ofrecen diversas ventajas. Unas
cuantas cosas que podríamos considerar a la hora de elegir un servidor son:
Uno de los peores usos que se le da al correo es el reenvío de cadenas que llegan en toda
clase de formatos, especialmente ahora como presentaciones de Power Point. Existen una
variedad grande de tipos pero al final acaban siempre solicitando al incauto que reenvíe el
correo a todos sus contactos. Los más usuales son de contenido religioso que aseguran una
serie de milagros si se sigue la cadena o una serie de maldiciones si no se la sigue. Los hay
que invitan a formar cadenas de oración por todo el mundo o simplemente alegrarle la vida a
alguien con un mensaje de paz y amor. ¿Se han preguntado porqué alguien se toma tantas
molestias para producir estas presentaciones? Generalmente detrás de todas ellas están los
recolectores de direcciones de correo que luego venden para llenarnos de publicidad. Nunca
reenvíe este tipo de correos. Simplemente elimínelos.
Inf o r m á t i c a M é d i c a I 60
Inf o r m á t i c a M é d i c a I
Conceptos básicos sobre seguridad informática
Desde el momento que nos conectamos a Internet, nuestro equipo se encuentra vulnerable
a diversos tipos de ataques, desde virus, hasta intrusiones. Durante las próximas semanas,
vamos a realizar un repaso de los peligros que acechan en la Red. En esta primera entrega
os ofrecemos una visión general para despejar dudas.
Para reducir al mínimo los riesgos, lo primero es conocer a lo que nos enfrentamos, y como
funciona. El siguiente paso sería configurar correctamente nuestro ordenador e instalar los
programas de seguridad pertinentes.
Los daños en nuestro PC pueden ser muy diferentes dependiendo del virus o del ataque.
Algunos sólo muestran un mensaje de vez en cuando, realizan una determinada aplicación,
o eliminan datos importantes del disco duro. También hay peligros no visibles a simple vista,
que incluyen el envío de información privada, como: los programas instalados, los datos
personales del usuario o sus números de tarjetas de crédito.
Otros de los riesgos que no podemos pasar por alto, es el uso de nuestro ordenador,
conexión, y dirección IP, para realizar accesos a terceros ordenadores o efectuar
operaciones ilegales, Este daño, aunque aparentemente leve, puede llegar a ocasionarnos
problemas judiciales.
Aunque parezca una tontería, nuestro primer error es dar por sentado que al no tener
enemigos aparentes, nadie nos va a hacer nada. En la mayoría de los casos, tanto la
infección, como la vulnerabilidad de nuestros sistemas, es debida a dejadez o a ciertos
actos involuntarios difíciles de controlar, como navegar por una página web infectada.
Dentro de la Red hay muchos peligros que nos acechan, en casi todos los casos, el modo
de infección o transmisión se reduce a dos vías: la navegación y el correo electrónico.
Ambos caminos son utilizados por "piratas informáticos" (crackers) para cometer sus delitos.
Pero, ¿qué tipo de herramientas y aplicaciones de software usan estos delincuentes
cibernéticos?
Virus
Lo único que tienen en común todos es que han de pasar desapercibidos el mayor tiempo
posible para poder cumplir su trabajo. Una vez infectado un PC, el virus no tiene por que
cumplir su misión al momento, algunos esperan una fecha, evento o acción del sistema para
llevar a fin su objetivo.
Inf o r m á t i c a M é d i c a I 61
Inf o r m á t i c a M é d i c a I
Se llaman de esta forma, por su analogía con los virus biológicos del ser humano. Al igual
que estos, los informáticos tienen un ciclo de vida, que va desde que "nacen", hasta que
"mueren". Creación, gestación, reproducción, activación, descubrimiento, asimilación, y
eliminación. Además, existen varias técnicas que permiten a un virus ocultarse en el sistema
y no ser detectado por el antivirus: ocultación, protección antivirus, camuflaje y evasión.
Hackers y crackers
El término cracker fue creado en 1985 por los propios hackers, para defenderse de la
utilización incorrecta del calificativo que les distinguía del resto de profesionales
informáticos.
Gusanos
A diferencia de la mayoría de virus, los gusanos se propagan por sí mismos, sin modificar u
ocultarse bajo otros programas. No destruyen información de forma directa, pero algunos
pueden contener dentro de sí, propiedades características de los virus.
El mayor efecto de los gusanos es su capacidad para saturar, e incluso bloquear por exceso
de tráfico los sitios web, aunque estos se encuentren protegidos por un antivirus actualizado.
Melissa tuvo el dudoso honor de ser el primero de su especie, al menos con distribución
masiva, aunque algunos lo consideran un macro virus. Esta especie de gusano, que fue el
precursor de una nueva era de infecciones, estaba diseñado para ser enviado a los 50
primeros destinatarios de la lista de contactos de Microsoft Outlook.
Troyanos
Es un programa potencialmente peligroso que se oculta dentro de otro para evitar ser
detectado, e instalarse de forma permanente en nuestro sistema.
Este tipo de software no suele realizar acciones destructivas por sí mismo, pero entre
muchas otras funciones, tienen la capacidad de capturar datos, generalmente contraseñas e
información privada, enviándolos a otro sitio.
Inf o r m á t i c a M é d i c a I 62
Inf o r m á t i c a M é d i c a I
Otra de sus funciones es dejar indefenso nuestro sistema, abriendo brechas en la seguridad,
de esta forma se puede tomar el control total de forma remota, como si realmente se
estuviera trabajando delante de nuestra pantalla.
Hoax y Joke
Si se recibe un hoax, no hay que hacer caso de sus advertencias e instrucciones, lo más
aconsejable es borrarlo sin prestarle la más mínima atención y no reenviarlo a otras
personas.
Por otro lado, un joke tampoco es un virus. Simplemente es un programa inofensivo que
simula las acciones de un virus informático en nuestro ordenador. Su objetivo no es atacar,
sino gastar una broma a los usuarios, haciéndoles creer que están infectados y que se están
poniendo de manifiesto sus efectos. Aunque su actividad llega a ser molesta, no producen
realmente efectos dañinos.
Bombas lógicas
Macro virus
Las macros son microprogramas asociados a un fichero, que sirven para automatizar
complejos conjuntos de operaciones. Al ser programas, las macros pueden ser infectadas.
Cuando se abre un fichero que contenga un virus de este tipo, las macros se cargarán de
forma automática, produciéndose la infección. La mayoría de las aplicaciones que utilizan
macros cuentan con una protección antivirus y de seguridad específica, pero muchos macro
virus las sortean fácilmente. Sin embargo, no todos los programas o herramientas con
macros pueden ser afectadas por estas infecciones.
Después del pequeño repaso a los tipos de programas y códigos que pueden infectar
nuestro PC, habría que hablar del resto de "quebraderos de cabeza" que puede transportar
un correo electrónico, como el spam o el spyware.
Inf o r m á t i c a M é d i c a I 63
Inf o r m á t i c a M é d i c a I
Spam
El correo basura es molesto y roba recursos del sistema. Su distribución causa la perdida de
ancho de banda en la Red, y multiplica el riesgo de infección por virus.
Las personas o empresas que envían este tipo de emails, construyen sus listas usando
varias fuentes. Normalmente, utilizan programas que recogen direcciones de correo desde
Usenet, o recopilan las mismas de otras listas de distribución.
Spyware
Los programas espía se instala en un ordenador sin el conocimiento del usuario, para
recopilar información del mismo o de su ordenador, enviándola posteriormente al que
controla dicha aplicación.
Al igual que el correo basura, el software publicitario, usa los recursos de nuestro sistema,
haciendo que sea este el que pague el coste asociado de su funcionamiento. Además,
utiliza el ancho de banda, tanto para enviar la información recopilada, como para descargar
los banners publicitarios que nos mostrará.
Referencia: Para mayor información y seguir un curso completo sobre distintos campos de la
web ingresar a la página: www.aulaclic.com
Inf o r m á t i c a M é d i c a I 64
Inf o r m á t i c a M é d i c a I
Correo basura y spyware: amenaza para navegantes
Por ello, la mejor forma de evitar estas situaciones es una correcta navegación y uso de
Internet, así como de todas las posibilidades y servicios que nos brinda.
Estos códigos maliciosos utilizan el correo para camuflarse, la mayoría de las veces en
envíos que llevan el nombre de algún integrante de nuestra libreta de direcciones o
mediante un mensaje atractivo que invita a que abramos un archivo adjunto.
En los clientes de correo, como Outlook, que poseen la función de una vista previa de los
mails, es recomendable desactivar esta función. Otra de las soluciones
para evitar al máximo la intrusión de virus, es usar programas con los
que podamos consultar el correo directamente en el servidor, sin
necesidad de descargarnos el mensaje a nuestro ordenador.
Por lo general, este tipo de correo trae un enlace o las instrucciones para borrarte de su lista
de distribución. En empresas serias, este método suele ser efectivo para quitarse de las
mismas, no sucede lo mismo con las sociedades o particulares que buscan tener acceso a
datos confidenciales del usuario.
Una de las formas de limitar al máximo el spam es hacer uso de las capacidades de los
clientes de correo, con los que podemos filtrar estos mensajes por una gran cantidad de
criterios. Actualmente también existen programas que nos ayudaran a realizar esta labor de
filtrado.
Otro de los sistemas antispam es utilizar dos cuentas de correo, una, para las
comunicaciones menos confidenciales, y la otra, la buena, exclusivamente para uso laboral
o privado. Eso sí, aunque apliquemos estos trucos, no es seguro al 100% quedar libre del
correo basura.
Inf o r m á t i c a M é d i c a I 65
Inf o r m á t i c a M é d i c a I
Estos programas (spyware, adware, etc.) son usados para recopilar información privada y
confidencial de los usuarios que navegan por Internet. Lo normal, es que su instalación pase
desapercibida. Se distribuyen por correo electrónico, en forma de archivo adjunto, o desde
una página Web.
Ninguno de nosotros estamos exentos de sufrir cualquiera de las amenazas que esconde la
Red. Por hacer una analogía, es como un catarro o una gripe, por muchas vitaminas y
vacunas que tomemos, todos podemos cogerlo, aunque los riesgos son menores en
aquellos que toman precauciones. Partiendo de esta base, lo único que podemos hacer es
dar unos consejos prácticos para la navegación en Internet.
Los pop-ups son ventanas emergentes con contenido publicitario que se manifiestan al
entrar en algunas páginas de Internet. En la mayoría de los casos no son peligrosos, sin
embargo puede suceder que alguno nos pida la instalación de un programa determinado,
momento clave para que cualquier empresa o particular introduzca un software espía en
nuestro ordenador.
Para evitar estos molestos programas, ante cualquier ventana flotante que se nos muestre,
lo primero que debemos hacer es leer el contenido de la misma. Si surge alguna, lo mejor es
cerrarla.
Algunas veces, podemos encontrarnos que aunque cerremos el pop-up, éste sigue
abriéndose indefinidamente, invitándonos a aceptar su contenido. En estos casos, lo que
debemos hacer es cerrar la página sobre la que emerge esta ventana. Si esto tampoco
funciona, disponemos de la opción “Eliminar la tarea” desde el “Administrador de Tareas” del
sistema operativo.
Inf o r m á t i c a M é d i c a I 66
Inf o r m á t i c a M é d i c a I
En algunos casos, esta información es usada para crear listas globales de correo, que
pueden ser usadas posteriormente por otras personas o empresas para hacer spam. Debido
a ello, la única medida que podemos tomar, es manejar dos cuentas de correo, una para el
registro y la otra para el uso privado.
Hay muchos métodos para conseguir los datos personales de registro. Quizás, el más
generalizado sea el que se apoya en programas que capturan todo este tipo de información,
los llamados sniffers. Este software se pone en medio de las comunicaciones entre el cliente
y el servidor, recogiendo una copia de los datos proporcionados, y reenviándola a una
tercera persona o empresa.
Para evitar a los sniffers, la única solución sería registrarse únicamente en páginas seguras,
donde las comunicaciones entre usuario y servidor son cifradas.
Tarjetas de crédito
Existen muchas páginas en Internet que requieren para el disfrute de sus contenidos el pago
de una cuota mensual o la verificación de la mayoría de edad del usuario. En algunas de
ellas, el sistema de introducción de datos se realiza sin usar mecanismos de pago seguros.
Muchos crackers (piratas informáticos) monitorizan estas webs con sniffers para conseguir
dicha información.
El único sistema eficaz para eludir estas aplicaciones de espionaje es realizar todo tipo de
transacciones desde sitios seguros, o usando cualquier otro método de pago.
Inf o r m á t i c a M é d i c a I 67