Sie sind auf Seite 1von 55

http://www.tirantonline.

com

Documento TOL719.601

Doctrina
Título: Principios de Derecho de Internet
Autores: Javier de Andres Blasco
Fecha: /11/2005

Número epígrafe: 1
Título epígrafe: ¿Que es Internet?

TEXTO:

¿Qué es internet?

En 1984 se publicó la novela Neuromante de William Gibson. Resulta curioso que, en el año en el
que George Orwell situó la trama de su Gran Hermano, viera la luz una obra que también intentaba
adivinar un futuro sobrecogedor. Este descarnado relato refiere, en una visión futurista y fantástica, el
modo de vida en una sociedad totalmente invadida por los ordenadores y las redes que los unen. En
ella aparece por primera vez el término cyberspace para describir un espacio virtual, no físico,
determinado por la interconexión de personas a través de redes telemáticas (la telemática es la
disciplina que asocia las telecomunicaciones con los recursos de la informática).

Desde entonces, términos cómo cibernética, cibernauta, etc. vienen conformando un lenguaje para
definir los nuevos conceptos relacionados con el ciberespacio. Y dentro de este ciberespacio, el
protagonista principal, el catalizador de todas sus funciones no es otro que Internet, definido por el
FNC (Federal Networking Council) de los Estados Unidos mediante la siguiente resolución de 24 de
octubre de 1995: Entendemos por Internet un sistema global de información que: está relacionado
lógicamente por un único espacio global de direcciones basado en el protocolo IP o en sus
extensiones; es capaz de soportar comunicaciones usando el conjunto de protocolos TCP/IP o sus
extensiones y/o otros protocolos compatibles con IP; proporciona, usa o hace accesible, de manera
pública o privada, servicios de alto nivel en capas de comunicaciones y otras infraestructuras
relacionadas

También podríamos decir que Internet es una red que une ordenadores de todo el mundo y que
permite el acceso a cualquiera de ellos, con la posibilidad de obtener e intercambiar información de
manera muy sencilla.

En cualquier caso, la resolución del FNC de 1995 con la definición de Internet significó la
consolidación de un concepto cuyo embrión había surgido muchos años antes. Fue en los primeros
años de la década de 1990 cuando Internet comenzó a convertirse en un medio de masas. Sin
embargo, cuando en 1984 surge el término ciberespacio, ya se había establecido en Estados Unidos
una compleja arquitectura de comunicaciones informáticas.

No obstante, si se quiere empezar el estudio del ciberespacio por sus cimientos, tendremos que
remontarnos bastante más atrás, cuando la simple pretensión de comunicar ordenadores entre sí
constituía un reto tecnológico de alcance.

I. El precedente arpanet

En 1958, como parte de la respuesta al lanzamiento del primer satélite soviético, el Sputnik, el
Departamento de Defensa de los Estados Unidos fundó ARPA (Advanced Research Projects

1 / 55
Agency) con objeto de potenciar la investigación científica.

Uno de los sectores destacados de esta investigación fue el relacionado con las redes de ordenadores,
para lo cual ARPA proporcionó fondos a varios departamentos de informática de universidades
norteamericanas (Michigan, MIT, etc.), así como a algunas corporaciones privadas (Rand
Corporation). Habían quedado atrás los grandes hitos en la construcción de ordenadores (Mark1,
ENIAC...), se afianzaba la arquitectura de Von Newman (Unidad Central de Proceso, con sus
unidades aritmético-lógica y de control, Unidades de Entrada/Salida y Memoria Principal y Auxiliar)
y, basados en ella, funcionaban grandes ordenadores en instituciones, universidades y grandes
empresas. El siguiente paso natural en este desarrollo tecnológico consistía en la conexión de unos
ordenadores con otros.

En este contexto comenzaban a publicarse algunas ideas en las que después se basarían los
fundamentos teóricos de las redes. Entre ellas cabe mencionar las siguientes:

En 1961, Leonard Kleinrock, investigador del MIT (Massachusetts Institute of Technology), había
publicado sus primeros estudios acerca del concepto de conmutación de paquetes, que proponía
dividir la información en trozos o paquetes para su envío a través de un mismo circuito, en vez de
conmutar los propios circuitos.

En 1962, J. C. R. Licklider y Wesley Clark, también del MIT, habían aportado su concepto teórico
Galactic Network (Red Galáctica) que proponía una red interconectada globalmente a través de la
cual cada uno podría acceder desde cualquier lugar a datos y programas.

En 1963, Paul Baran, del grupo RAND, había publicado un artículo interno (On-line Man Computer
Communication) para el Departamento de Defensa sobre transmisión segura de voz sobre redes de
conmutación de paquetes.

En 1965, Lawrence Roberts y Thomas Merrill habían conectado, por vez primera, dos ordenadores
mediante una línea telefónica de baja velocidad. Con este experimento se pudo comprobar que era
factible el intercambio de datos entre dos ordenadores, pero también que la conmutación de circuitos
que entonces se utilizaba en la red telefónica no era la más adecuada para esta tarea.

El objetivo que perseguía ARPA era disponer de información estratégica contenida en diferentes
ordenadores muy distantes entre sí, para lo cual era indispensable la conexión entre ellos. Para
conseguirlo se creó el proyecto Arpanet que pretendía establecer una red experimental con algunos
ordenadores situados en lugares diferentes. Se contrató a Lawrence Roberts con el encargo de
redactar un documento que recogiera las bases para el desarrollo del proyecto.

Durante mucho tiempo se ha mantenido la idea de que el proyecto Arpanet pretendía crear una red
que uniera los centros de investigación dedicados a la defensa, siendo capaz de mantener su
funcionamiento ante un hipotético ataque nuclear (probablemente como consecuencia del artículo de
Paul Baran, antes citado, en el que se hacía referencia a la guerra atómica). Sin embargo, recientes
publicaciones aseguran que fue la necesidad de compartir los costosísimos ordenadores de entonces
lo que motivó este proyecto. En cualquier caso, está claro que lo patrocinó ARPA y que la
pertenencia de este órgano al Departamento de Defensa de los Estados Unidos situó el proyecto en el
ámbito militar. La verdad es que en aquellos momentos, más que alcanzar un objetivo claro, se
intentaba empezar un camino que permitiera no quedar atrás en el desarrollo tecnológico. Con
aquella incertidumbre inicial comenzó un viaje que acabaría siendo de largo recorrido. Nunca se va
tan lejos como cuando no se sabe adónde se va, había dicho Oliver Cromwell.

Lawrence Roberts presentó su Plan para Arpanet en el Simposium de la ACM (Association for
Computer Machinery) de octubre de 1967, celebrado en Gatlinberg, Tennessee.

Simultáneamente, centros de investigación como el británico NPL (National Physical Laboratory), la


Rand Corporation o las universidades de Michigan y de San Luis en Missouri, profundizaban en la
investigación sobre la conmutación de paquetes llegando por separado a las mismas conclusiones.

2 / 55
Wesley Clark, desde esta última universidad, proponía utilizar ordenadores dedicados especialmente
a las comunicaciones, independientes de los ordenadores que contenían la información. Esta idea fue
decisiva en lo que acabó siendo el modelo de comunicación de datos.

A mediados de 1968, el trabajo de las organizaciones e investigadores financiados por ARPA


cristalizó en la elaboración de las especificaciones definitivas de la estructura completa de Arpanet.
Tomando ésta como base, distintas organizaciones comenzaron a desarrollar ideas para conseguir un
diseño de arquitectura de comunicaciones capaz de materializar el proyecto.

En diciembre de 1968, después de evaluar una gran cantidad de soluciones técnicas, Lawrence
Roberts eligió la propuesta de la pequeña empresa de consultoría BBN (Bolt, Beranek and Newman),
reflejada en el BBN Technical Report 1763 encabezado por Robert Kahn y Severo Orstein. Hay que
destacar la falta de interés en Arpanet de muchas de las grandes compañías de ordenadores (p.e.
IBM), llegando a dudar de su viabilidad. Dirigida por Frank Heart, BBN tenía a su disposición un
millón de dólares (de 1968) y poco menos de un año para convertir la teoría en un sistema
completamente funcional.

Mientras tanto, Roberts diseñaba la topología junto con Howard Frank, y su equipo de la Network
Analysis Corporation se ocupaba del tema económico y llegaba a acuerdos con instituciones
educativas y centros de investigación para que implementaran en sus sistemas los nuevos protocolos
y aplicaciones que permitieran a los usuarios el acceso a la red. No obstante, tuvo problemas iniciales
debido a que los centros de proceso eran reacios a permitir a otras organizaciones el acceso a sus
recursos. A pesar de todo, su amigo Leonard Kleinrock le abrió las puertas de UCLA (Universidad
de California en Los Angeles) donde Vinton Cerf, Charlie Kline, Steve Croker, Jon B. Postel y sus
colaboradores implantaron la solución desarrollada por BBN, constituyéndose de esta forma el
primer nodo de Arpanet. Esto ocurría en septiembre de 1969.

En la elección de UCLA como primer nodo de Arpanet fue decisivo el desarrollo que Leonard
Kleinrock había hecho sobre la conmutación de paquetes. Los miembros del equipo que implantó la
solución acabarían siendo nombres ilustres de la historia de Internet.

Se terminó ese mismo año con la suma de tres nodos más, unidos mediante líneas de 56 kilobits por
segundo. Fueron los siguientes:

- Stanford Research Institute en Menlo Park (en octubre)

- Universidad de California en Santa Barbara (UCSB) (en noviembre)

- Universidad de Utah en Salt Lake City (en diciembre)

Tras la conexión de los cuatro primeros ordenadores de Arpanet, comenzó un intenso trabajo de
desarrollo y aplicación del nuevo concepto a proyectos científicos que comprendían tanto el estudio
de la red misma como sus usos y aplicaciones en otros campos, lo que dio lugar a un sensible
aumento del número de ordenadores conectados. Esto hizo necesario un sistema de comunicaciones
para dar solidez a la nueva situación que consistió en el protocolo NCP (Network Control Protocol),
desarrollado por el NWG (Network Working Group), bajo la dirección de Steve Crocker y del que
Vinton Cerf era programador destacado. Se culminaron sus especificaciones en diciembre de 1970.

Este hito fue el punto de partida que permitió a los usuarios comenzar a desarrollar aplicaciones
prácticas que se plasmaron en multitud de formas, de la misma manera que la invención de la
máquina de vapor permitió desde mover barcos y trenes a ser el motor de las factorías textiles.

1. Modelo de comunicación

La evolución en el campo de la telefonía había proporcionado la conmutación de circuitos mediante


la cual se establecía el camino físico de la comunicación telefónica de forma automática. La
utilización de las líneas telefónicas para el transporte de datos necesitó del módem para convertir la

3 / 55
señal digital que salía del ordenador en la señal analógica que viajaba por la línea. En este contexto
avanzó la investigación sobre la conmutación de paquetes que troceaba la información a transmitir en
bloques o paquetes, los identificaba y los enviaba a la red por distintos caminos en función del
tráfico, de la distancia, etc. para recomponerlos en el punto de destino. Los términos paquete y
conmutación de paquetes aparecen por primera vez en 1966 acuñados por Donald Davies, del NPL
(National Physical Laboratory) británico.

El modelo de comunicación de Arpanet establecía que las funciones relacionadas con la conmutación
de paquetes se realizaran de forma totalmente independiente de los ordenadores que contenían los
datos (host), mediante una red de miniordenadores dedicados exclusivamente a esta tarea, separando
así por primera vez, desde el punto de vista conceptual, los procesos relacionados con las
aplicaciones de los relacionados con las comunicaciones.

Esto permitiría definir una programación común para todos los ordenadores de comunicaciones, con
independencia de la variedad de tipos de host existentes en aquel momento. El ordenador de
comunicaciones fue llamado IMP (Interface Message Processor) y fueron IMPs, fabricados por
Honeywell y programados por BBN, los que unieron ordenadores tan distintos como los de las cuatro
universidades pioneras de Arpanet que, por supuesto, tenían sistemas operativos absolutamente
incompatibles.

Ésta era la situación:

- UCLA, con un ordenador Sigma 7 de SDS (Scientific Data System) con sistema operativo
Sigma Executive.

- Stanford Research Institute, con un SDS 49 y sistema operativo Genie.

- Universidad de California en Santa Bárbara, con un IBM 360/75 y sistema operativo OS/MVT.

- Universidad de Utah, con un PDP-10 de DEC (Digital Equipment Corporation) y sistema


operativo Tenex.

En un principio, el funcionamiento de la red se apoyaba en un esquema muy sencillo. Los IMPs


(ordenadores de comunicaciones) dividían los mensajes que recibían de los host (ordenadores de
datos) en bloques de unos 100 caracteres. A cada uno de los bloques le añadían una cabecera que
contenía la dirección del destinatario, el remite y un campo para la detección de errores.

Cuando se quería establecer una comunicación entre dos host, normalmente había que pasar por
varios IMPs. Al no haber un punto centralizado de control, cada IMP estaba obligado a mantener
actualizada una tabla con las direcciones del resto de los IMPs a la que aplicaba un algoritmo de
encaminamiento para obtener el camino más corto entre los host. Cuando el paquete llegaba a su
destino se enviaba un acuse de recibo al transmisor (conocido en los programas de comunicaciones
como ACK, de acknowledgment). Si el acuse no era recibido en un tiempo determinado se reenviaba
el mensaje automáticamente.

Los IMPs se programaban para ser autosuficientes. Si detectaban algún tipo de fallo en su software
solicitaban una copia de su IMP vecino y en caso de no poder recuperar el fallo se desconectaban
automáticamente de la red para evitar provocar problemas en ella.

Haciendo un parangón con un ejemplo al margen de la aridez de la técnica, imaginemos que el


Acueducto de Segovia es un mensaje que queremos enviar a Madrid. Trocearemos el monumento en
grupos de piedras a los que daremos un número, y además apuntaremos los números de los grupos
contiguos formando una serie numerada que nos permita la reconstrucción en el destino. Después
cargaremos las piedras en camiones que partirán hacia Madrid. Como la caravana será muy larga,
unos camiones irán por Navacerrada, otros por Los Leones y quizá otros intentarán el viaje por las

4 / 55
carreteras comarcales de la sierra. Dependiendo de la densidad del tráfico encontrado, unos llegarán
antes que otros y algunos es posible que cambien la ruta sobre la marcha. Una vez que todos lleguen
a Madrid, se recompondrá la obra.

Para entender la relevancia de la utilización de la conmutación de paquetes en el uso de la red vamos


a plantear la siguiente analogía con otras redes de comunicaciones tales como la red ferroviaria y la
red de carreteras. La conmutación de circuitos es como la red ferroviaria, es mucho más eficiente,
pero presenta el problema de que hace uso exclusivo de la vía de comunicación (una vez que hay un
tren en la vía no puede haber más; asimismo, una vez que una comunicación ocupa un canal, no
puede haber otra hasta que se libere la actual), y además fuerza al uso de una única vía de
comunicación; si el tren se ralentiza por alguna causa, su efecto trasciende a todo el tren y un corte de
la vía interrumpirá completamente la comunicación. La conmutación de paquetes es como la red de
carreteras, permite que múltiples comunicaciones compartan la misma vía (la carretera), permite que
los componentes de una comunicación puedan viajar en paralelo por varias vías, y permite hacer
frente a la rotura de las vías establecidas mediante el uso de caminos alternativos. Hay que mencionar
que el uso del modelo de conmutación de paquetes obliga a construir sistemas más complejos, puesto
que hay que tratar con temas tales como la llegada en desorden de los componentes de la
comunicación o la pérdida parcial de los mismos, pero tal complejidad queda justificada por las
ventajas que hemos mencionado anteriormente.

2. Desarrollo y primeros usos

Dejando de lado la posible utilidad militar del proyecto, parece evidente que una de las motivaciones
principales para el desarrollo de Arpanet fue la posibilidad de compartir recursos costosos. Era
mucho más económico conectar ordenadores que duplicarlos en cada sitio en el que fueran
necesarios. Por otra parte, al componente militar del inicio se habían incorporado los aspectos
universitario, económico y de investigación que giraban en torno a los proyectos del Pentágono.

Se conectaron el personal de ARPA, de BBN (las instalaciones de esta empresa formaron el quinto
nodo de Arpanet) y de algunos centros relacionados con la enseñanza y la investigación. La
velocidad de transmisión que daban los 56 kilobits por segundo era suficiente para el número de
nodos conectados. Se analizó el comportamiento del transporte de los datos y la interoperabilidad de
las aplicaciones.

Es necesario reseñar aquí que ya en estos tiempos existía un incipiente mecanismo de generación de
nuevas propuestas técnicas. Creados por Steve Crocker, los Request for Comments (RFC) serán el
mecanismo de creación de nuevos estándares y, por tanto, el cimiento básico de la futura Internet.

La utilización cada vez más extendida del protocolo NCP (Network Control Protocol) y el creciente
interés que despertaba este fenómeno derivó en aplicaciones que permitieron un uso cada vez más
generalizado de Arpanet. Las principales de estas aplicaciones fueron las siguientes:
A. Terminal Virtual. Telnet
Permitía que un equipo situado en un lugar determinado se convirtiera en terminal del ordenador al
que se quería acceder, con independencia del lugar en que se encontrara cada uno de ellos. Con esta
aplicación, a través de la red, una persona podía conectarse desde el terminal de su puesto de trabajo
con los grandes ordenadores de centros como los referidos anteriormente.
B. Transferencia de ficheros. FTP
El File Transfer Protocol (FTP) establecía la comunicación necesaria para transferir ficheros de un
ordenador a otro. Además disponía de funciones de replicación, capacidad de proceso y
direccionamiento de los datos trasladados.
C. Correo electrónico. E-mail
Ray Tomlinson, de la BBN, escribió un programa de correo electrónico (e-mail). Esto hizo posible el
envío de mensajes y documentos entre una punta y otra del globo de manera rápida, económica y
eficaz. Aparte de otras utilidades ayudó en el intercambio de experiencias que facilitaron de forma
decisiva el avance tecnológico.

Por su importancia determinante y la popularidad que adquirieron, estas tres aplicaciones fueron

5 / 55
denominadas The Big Three (el gran trío).

También hay que mencionar que en aquellos tiempos ya se vislumbraban aplicaciones que hoy
pueden parecer modernas. En 1970, Norman Abrahamson, Franklin Kuo y su equipo de la
Universidad de Hawai habían desarrollado la red de paquetes vía radio, denominada Aloha, que se
conectaría con Arpanet en 1972. Después de los cables, se añadía un nuevo espacio para la
transmisión de datos por la red.

Esto nos recuerda la ocasión en la que le preguntaron a Albert Einstein por el funcionamiento de
algunos de los que, en su día, fueron nuevos ingenios de comunicación. Respondió así: Verá, el
telégrafo alámbrico es una especie de gato muy largo. Se le tira de la cola en Nueva York y la cabeza
maúlla en los Angeles. ¿Comprende? La radio opera de la misma forma: se envían señales aquí y se
reciben allá. La única diferencia es que no hay gato.

Arpanet fue un crisol para el desarrollo de aplicaciones de comunicaciones, que no habían podido
tomar cuerpo debido a la inexistencia de una tecnología capaz de sustentarlas. Se comenzó a
experimentar en la telefonía a través de una red de conmutación de paquetes (precursora de la
telefonía por Internet), en la posibilidad de compartir ficheros y discos entre ordenadores remotos, en
programas de búsqueda que examinaban la información de la red y la indexaban, y en toda una serie
de utilidades que significarían la base de importantes desarrollos posteriores. El exponente más claro
acerca del pensamiento sobre aplicaciones para redes, antes incluso de que existieran éstas, podría ser
el artículo de Vannevar Bush As we may think.

No obstante, a juicio de Lawrence Roberts y de Robert Kahn, era necesario potenciar la presencia de
la red para conseguir que su campo de utilización creciera en la mayor medida posible. El proyecto
inicial estaba dando paso a un espectro mucho más amplio, en donde cabían gran variedad de usos.

Los días 24 y 25 de octubre de 1972 se celebró en el Washington Hilton la International Conference


on Computer Communications donde Roberts y Kahn hicieron una presentación espectacular de
Arpanet. Durante la conferencia el NWG se convirtió en el INWG (International Network Working
Group) con participación del Laboratorio Nacional de Física británico y de los franceses del proyecto
Cyclades (red de paquetes). Después de la conferencia el crecimiento de Arpanet experimentó una
subida del 67%.

En 1973 se establecían las primeras conexiones internacionales con el University College de Londres
y con la Fundación Real del Radar de Noruega.

II. El concepto internet (El protocolo TCP)

La construcción de Arpanet atrajo una gran atención sobre el mundo de las comunicaciones entre
ordenadores. La apertura de nuevos campos de trabajo planteó nuevos escenarios que obligaban a
revisar en profundidad los fundamentos básicos sobre los que la red se había creado.

El escenario a partir del cual se diseñó la primera Arpanet consistía en un mundo con unos pocos
ordenadores (cada uno perteneciente a una organización diferente), costosos y escasos, conectados
mediante una tecnología de comunicaciones concreta (líneas telefónicas dedicadas). Sin embargo,
estas condiciones variaron sensiblemente. Entre ellas podemos mencionar:

- El progresivo abaratamiento de los ordenadores enunciado en la ley de Moore. Gordon Moore,


uno de los fundadores de la empresa Intel, dijo en 1965 (sólo 4 años después de la utilización de los
primeros circuitos integrados) que cada 18 meses se duplicaría el número de componentes en un
circuito impreso. En términos económicos se podría decir que la cantidad de potencia de cálculo que
se puede adquirir con una cantidad determinada de dinero se duplica cada 18 meses. Ello propició
que cada vez más organizaciones se plantearan adquirir un ordenador y las que ya lo tenían se
plantearan tener más de uno.

- La aparición de nuevos medios físicos de comunicaciones. Se empezaba a disponer de

6 / 55
alternativas de conexión que no se limitaban a las líneas telefónicas. Podemos reseñar la aparición de
las tecnologías de redes de paquetes de radio y las de redes basadas en acceso compartido del medio
(tanto con cable de cobre como con fibra óptica).

- La aparición de las redes de área local. Con la posibilidad, antes mencionada, de poder tener
varios ordenadores en una misma organización, se planteó la necesidad de conectarlos entre ellos.
Robert Metcalfe, basándose en la red Aloha anteriormente reseñada, escribió los fundamentos de
Ethernet, paradigma de las redes de área local, en las instalaciones de Xerox de California. La
aparición de esta tecnología supuso un cambio fundamental en el panorama de los centros de proceso
de datos. Permitía, entre otras cosas, compartir recursos sin perder eficacia. Su implantación en
universidades, organizaciones del gobierno, etc., propició que en muchos casos se pretendiera que
todos o una gran parte de los ordenadores estuvieran conectados a Arpanet y no solamente alguno de
ellos, como había sido habitual hasta entonces.

Así pues el escenario que hemos descrito al principio fue derivando en una situación en la que los
individuos de la red eran, no ordenadores, sino redes de ordenadores, y los medios de conexión eran
ahora de múltiples tipos y, además, podían ir incrementándose con el paso del tiempo.

Esta nueva situación sacó a relucir ciertos problemas del diseño primario de la red: Arpanet era una
red diseñada para interconectar ordenadores y no para interconectar redes de ordenadores. Además,
convenía tener un marco extensible que permitiera que Arpanet fuera adaptándose, sin
modificaciones sustanciales, a la aparición de nuevas tecnologías de comunicaciones, más allá de las
que la sustentaban en aquel momento.

Todo ello acabó por originar un replanteamiento en el diseño del modelo de conexión de ordenadores
para responder a las nuevas exigencias hechas a un sistema que, habiendo respondido a los requisitos
iniciales, necesitaba evolucionar rápidamente.

El trabajo de Robert Kahn y Vinton Cerf volvió a ser definitivo en la evolución de Arpanet. Kahn
conocía perfectamente la arquitectura de la red y sus nodos, Cerf había participado activamente en el
diseño de los protocolos (fue muy importante su colaboración en el NCP) y tenía conocimientos
sobre la construcción de interfaces con los sistemas operativos entonces existentes. Juntos idearon un
protocolo de comunicaciones que daría respuesta a los problemas planteados. Después de un estudio
inicial establecieron las siguientes bases:

- Cada red distinta debería poder mantener su propio funcionamiento sin demanda de cambio
alguno.

- Las comunicaciones deberían ser establecidas según el concepto best-effort (lo mejor posible)
contemplando el reenvío ante fallos.

- La interconexión se haría mediante cajas negras, las que posteriormente serían conocidas como
gateways (pasarelas) y routers (encaminadores).

- No habría ningún control global a nivel de operaciones.

Establecieron un principio básico: los host no necesitaban conocer el funcionamiento de las redes
sobre las que fueran a viajar sus paquetes y las redes debían utilizarse sin introducir ningún cambio
en el comportamiento de los host.

Consideraron que deberían quedar resueltas las siguientes cuestiones:

- Algoritmos de encaminamiento para evitar la pérdida de paquetes.

- Provisión de pipelining (tuberías) de host a host para encaminar múltiples paquetes.

- Funciones de pasarela para permitir redirigir los paquetes adecuadamente.

7 / 55
- Controles checksums extremo a extremo, reensamblaje de paquetes y detección de duplicados.

- Direccionamiento global.

- Técnicas de control de flujo host a host.

- Interacción con varios sistemas operativos.

El direccionamiento se componía de dos partes: una que identificaba la red y otra el host dentro de la
red. La primera encaminaba los datos a la red de destino y ya dentro de ella, la segunda identificaba
el host.

Todo ello, lo concretaron en el Transmision Control Protocol (TCP) que presentaron en 1973, en una
reunión del INWG celebrada en la Universidad de Sussex, en Brighton, Inglaterra. El documento
definitivo A Protocol for Packet Network Internetworking se publicó en la revista del IEEE (Institute
of Electrical and Electronics Engineers): Transaction on Communications, de mayo de 1974.

En este documento aparecen las ideas relacionadas con los términos Internetworking Arquitecture,
Internetting, etc. que darían lugar al concepto Internet definido como una red que debía permitir la
unión de redes ya existentes que pudieran conservar su propia identidad y en la que fuera posible la
conexión a través de cualquier tecnología de comunicaciones.

El desarrollo de este protocolo significó un avance definitivo en la evolución de Arpanet y aunque en


aquel momento Internet no era más que un concepto, ya se perfilaba como el camino a seguir.
1. Normalización y sistemas abiertos
Uno de los pilares fundamentales de la amplia adopción del trabajo de Arpanet, más que la mera
bondad técnica, fue la filosofía de establecimiento de estándares, basada en la idea de interconexión
de sistemas abiertos. Hasta este momento, era bastante habitual que las soluciones de interconexión
de ordenadores fueran de las llamadas propietarias; esto significaba que sólo podían ser
proporcionadas por un fabricante determinado, que los estándares en los que se basaban no eran de
dominio publico (sino propiedad registrada del fabricante) y, por lo general, eran incompatibles con
los sistemas de interconexión de otros fabricantes. La filosofía de sistemas abiertos propugnaba el
establecimiento de unos estándares de interconexión de ordenadores mediante una organización de
estándares de modo que todos los fabricantes las tuvieran accesibles y pudieran construir sus
herramientas de conectividad acordes con las especificaciones de los mismos. Esto último
garantizaba que dispositivos y programas de comunicaciones adquiridos a distintos fabricantes
interoperaran entre sí sin ningún problema.

La cuestión de la normalización ya fue abordada por la Organización Internacional de Estándares


(ISO). En 1976 El CCITT (Consultative Committee on International Telephone and Telegraphy) hoy
ITU (International Telecommunication Union) aprobó la primera versión de la norma X.25 que
definía aspectos fundamentales de la conmutación de paquetes y significaba una clara alternativa a
las comunicaciones existentes hasta entonces constituyéndose en el modelo a seguir. La norma X.25
era parte de un marco más general, conocido como OSI (Open Systems Interconnection), cuya
intención era erigirse en estándar global de comunicaciones de la ISO (International Standards
Organization), siendo durante algún tiempo el referente de estandarización para todas las
organizaciones gubernamentales.

Por desgracia, el modelo de establecimiento de estándares en ISO, basado fundamentalmente en la


consecución de un consenso más o menos amplio, con la sobrecarga burocrática que esto implicaba,
provocó la aparición de estándares sumamente complejos, frecuentemente interferidos por cuestiones
políticas o de índole no técnica o demasiado anticuados cuando veían la luz.

En la comunidad de Arpanet, el mecanismo de estandarización estaba basado en los ya referidos


Request for Comments (RFCs), un mecanismo de especificación de nuevos estándares, creado por
Steve Crocker, basado en la elaboración de documentos (no necesariamente por parte de un comité u

8 / 55
organización, sino también de particulares), que eran expuestos a la comunidad de la red, la cual
llevaba a cabo una serie de pruebas de validez y viabilidad del contenido de las ideas expuestas en
los mismos. Cuando un RFC tenía consistencia suficiente para pasar este filtro (que implicaba
incluso el desarrollo de dos implementaciones distintas de las ideas propuestas en el documento) eran
adoptados como estándares de la red. La existencia de un estándar para una función determinada no
excluía la presentación de nuevos estándares para la misma. Constituyeron un vehículo fundamental
para la discusión de las ideas y para la difusión de los hechos más relevantes.

Con el tiempo, el modelo de establecimiento de estándares de Arpanet se mostró mucho más ágil y
efectivo que el de ISO y fue determinante en el hecho de que el protocolo preferido para la
comunicación a nivel global, incluso por las organizaciones gubernamentales, fuera TCP
convirtiéndose en estándar de facto, quedando X.25 como estándar de iure.

Todo esto tuvo una influencia determinante en Arpanet ya que el protocolo TCP fue el elegido para
las nuevas redes de área local que se extendían de forma imparable. Este protocolo, habiendo sido
financiado con fondos gubernamentales, era de libre distribución, lo que se aprovechó en la oferta
para sustituir a los protocolos propietarios.

En 1978, el protocolo había pasado cuatro revisiones y se consideraba suficientemente probado. Sin
embargo, la incorporación continua de redes de distinta naturaleza estaba demandando un protocolo
más capaz. En ese momento, Danny Cohen del Instituto de Ciencias de la Información de UCLA,
convenció a Vinton Cerf de la conveniencia de dividir el antiguo TCP en dos partes: la nueva
dimensión del TCP que debería residir en los host, y el nuevo IP (Internet Protocol) que residiría
tanto en los host como en los nodos de comunicaciones. La parte IP sería obligatoria (en host y
nodos) y la parte TCP, opcional, en función de la necesidad que de ella tuvieran las aplicaciones.

En julio de 1979, ante un aumento considerable de la actividad, se creó un comité informal para
intentar normalizar la evolución técnica de los protocolos. Se le denominó ICCB (Internet
Configuration Control Board).

En 1981 se publicó, como un nuevo RFC (el 941), la especificación definitiva del protocolo TCP/IP.
Rápidamente comenzaron los planes para desplegar de forma efectiva la nueva tecnología. Se llegó a
acuerdos que establecían que IP versión 4 sería el protocolo común para toda la Arpanet e incluso se
fijó una fecha para efectuar el cambio: el 1 de enero de 1983.

El protocolo TCP/IP se había consolidado como una plataforma abierta y estándar para las
comunicaciones. Sin embargo, los distintos sistemas operativos de los ordenadores constituían una
barrera que impedía la compatibilidad de los sistemas informáticos, lo que hacía difícil su
interoperabilidad. Además, esta situación generaba una clara dependencia del fabricante ya que el
crecimiento y/o la optimización del sistema estaban supeditados al equipamiento existente. Esto
dejaba poco lugar para la elección a no ser que se llevara a cabo una renovación total.

Con objeto de evitar estos problemas, ARPA financió el desarrollo de un sistema operativo que no
estuviera sujeto a la propiedad de ningún fabricante. Así apareció la versión 4.2 BSD (Berkeley
Software Distribution) del sistema operativo Unix de la Universidad de California en Berkeley, que
se convirtió en el más popular dentro del entorno de I+D (Investigación y Desarrollo), ya que al ser
financiado con fondos públicos podía ser utilizado de forma gratuita por investigadores y alumnos
universitarios, y a precio de coste de distribución si los fines eran comerciales.

Este hecho, entre otros, afianzó la utilización de los sistemas abiertos, tomando este nombre aquellos
sistemas que no obligaban a adoptar un determinado tipo de producto, admitiendo todos los que
pudieran cumplir con ciertos requisitos de compatibilidad.

El otro Unix (el de ATT), también era de libre distribución, por lo que la plataforma Unix se
consolidó como el paradigma de los sistemas abiertos en lo que a sistemas operativos se refiere.

Como en otras ocasiones la normalización se conseguía por la vía de hecho y el sistema operativo

9 / 55
Unix y el protocolo de comunicaciones TCP/IP fueron referentes esenciales en la compatibilidad y en
la definición de estándares. Así fue como Unix y TCP/IP se convirtieron en el puntal de la filosofía
de sistemas abiertos, después de la escasa acogida del estándar OSI/X.25. Ésta filosofía es hoy una
cuestión fundamental en la industria de la informática y de las redes de ordenadores.

III. De arpanet a internet

La red Arpanet fue incorporando distintas mejoras hasta convertirse en una herramienta mucho más
capaz de lo que inicialmente estaba previsto. Durante un tiempo coexistieron la red Arpanet y el
concepto Internet utilizándose los dos términos, de manera indistinta, para hacer referencia a La Red,
hasta que llegó un momento en el que Arpanet dejó de existir como tal.

1. Cambio de protocolos (de NCP a TCP/IP)

DARPA (Defense Advanced Research Projects Agency) -a la antigua ARPA la habían añadido la D
de Defense (después de este cambio se volvió a llamar ARPA y, posteriormente, otra vez DARPA
que es como se la conoce actualmente)- impuso a todos los ordenadores conectados a Arpanet la
utilización del protocolo TCP/IP en lugar del antiguo NCP. Tal y cómo se había previsto, el cambio
se materializó el 1 de enero de 1983.

Coincidiendo con el paso generalizado al nuevo protocolo, se tomó la decisión de separar la parte
militar, a la que se llamó Milnet, de Arpanet. Quedaban así dos secciones claramente separadas. La
Arpanet resultante quedó vertebrada definitivamente con el protocolo de comunicaciones TCP/IP
pasando a definirse como un conjunto múltiple de redes que podían emplear distintas tecnologías
pero que debían compartir como nexo de unión el protocolo de red IP, correspondiente a la parte de
red del protocolo de comunicaciones TCP/IP.

Aunque la red se siguió llamando Arpanet hasta 1990, año de su desaparición como tal, el concepto
aplicado era ya el de Internet. En muchos casos, se toma como referencia el cambio de protocolo y la
división en dos secciones anteriormente citadas para utilizar a todos los efectos el término Internet.

A finales de 1983, se llevó a cabo una redefinición de los mecanismos de coordinación. Se disolvió el
ICCB y en su lugar se crearon una serie de grupos de trabajo, cada uno de los cuales enfocado a un
aspecto particular de la tecnología. Para coordinar su acción se creó el IAB (Internet Activities
Board), formado por los presidentes de cada uno de los grupos. Cabe destacar que tanto los
presidentes de los grupos como el presidente del nuevo organismo (Dave Clark), eran antiguos
miembros del ICCB.
2. Transición
Las innumerables ventajas que ofreció la utilización del protocolo TCP/IP y la propia evolución
técnica en el entorno de la red sentaron las bases que permitirían resistir las sucesivas explosiones de
crecimiento que aparecerían posteriormente. Por establecer una comparación, ¿habrían podido las
carreteras del año 1900 soportar la aparición de millones de coches súbitamente? En el caso de
Internet, los cimientos puestos en aquellos momentos permitieron su crecimiento espectacular.

Por otra parte se había establecido una cierta cultura cibernética en un ambiente político y
sociológico marcado por los condicionantes de la época. William Gibson, con su Neuromante, no
sólo acuñó el término ciberespacio, inició también el movimiento ciberpunk, y la tecnología de la
información comenzó a ser un tema tratado con mucha mayor profusión.

Desde 1983 hasta 1990 se fue consolidando una situación en la que intervinieron los avances
tecnológicos, regulados por ciertos órganos de normalización que se fueron revelando absolutamente
necesarios, y también una utilización creciente, tanto en el número de usuarios como en los campos
de aplicación. Cuando el sector comercial fue consciente de esta realidad se inició una transición
hacia lo que Internet ha llegado a ser en la actualidad.

Esta transición tuvo su base en la consolidación que tomó cuerpo en dos ideas fundamentales:

10 / 55
a) el apoyo a los fabricantes para que pudieran comercializar sus propias soluciones basadas en el
protocolo TCP/IP (consolidación comercial)

b) un trabajo intenso, decidido y solidario por parte de la llamada comunidad Internet para incorporar
nuevas prestaciones y herramientas para la gestión de la propia red (consolidación técnica).

3. Consolidación comercial

En 1985, tras detectar la falta de información acerca de esta tecnología, Dan Lynch en cooperación
con el IAB, convocó unas jornadas para que todos los fabricantes de ordenadores conocieran el
funcionamiento del protocolo TCP/IP, cómo se usaba y las cuestiones abiertas que aún presentaba.
Estas jornadas significaron un hito en la evolución de la red ya que permitieron a los fabricantes
percibir una idea muy clara de su funcionamiento y del potencial que encerraba su desarrollo.

Este primer encuentro dio lugar, en los dos años posteriores, a un gran número de conferencias,
congresos, tutoriales, etc., que potenciaron enormemente el diseño y desarrollo de soluciones
comerciales de interconexión de redes basadas en TCP/IP.

La culminación de todo este intercambio fue la convocatoria, en septiembre de 1988, del primer
congreso sobre interoperabilidad (Interop trade show), en el cual, 50 compañías mostraron sus
productos bajo la atenta mirada de más de 5000 ingenieros de potenciales clientes para comprobar si
todo funcionaba tal y como se anunciaba.

Al hilo de esta situación, los sistemas abiertos basados en Unix y TCP/IP estaban eliminando la
dependencia de los sistemas propietarios de las grandes marcas. Los protocolos SNA de IBM, Decnet
de Digital y XNS de Xerox conseguían unos rendimientos magníficos pero no lograban imponerse
como estándar. Mientras tanto, el menos ambicioso TCP/IP seguía avanzando.

La apertura de la red y sus nuevas prestaciones ofrecían buenas expectativas pero los sistemas
además de abiertos debían ser más compatibles. Al año siguiente se celebrarían dos congresos más
sobre interoperabilidad donde se sentarían las bases de la compatibilidad con TCP/IP como gran
protagonista.

4. Consolidación técnica

Los foros comerciales habían servido para que los fabricantes tomaran conciencia de las
posibilidades de la red y para que observaran los últimos avances tecnológicos. Al mismo tiempo,
habían permitido que los investigadores pudieran plantearse cuestiones y problemas que, de otro
modo, no se habrían suscitado. Poco antes de las jornadas de Dan Lynch e inmediatamente después,
surgieron propuestas que llevarían a la consolidación técnica de la red, tanto en lo que toca a la
gestión de la red misma como a lo relacionado con las aplicaciones de usuario. Además, la
incorporación al panorama de las redes de la NSF (National Science Foundation) aportó medios y
cobertura para su total afianzamiento.

En 1984, Paul Mockapetris publicó dos RFCs (882 y 883) que contenían las especificaciones del
DNS (Domain Name System). Para acceder a un ordenador de la red era preciso conocer su dirección
IP que es el número que identifica cada máquina en el ámbito del protocolo TCP/IP, una especie de
Documento Nacional de Identidad de cada ordenador conectado. El sistema DNS de Mockapetris
asignaba un nombre alfanumérico a cada dirección IP y establecía un esquema distribuido de
nombres. Con él se facilitó la operación de acceso (es más fácil recordar un nemotécnico que un
número) y sobre todo, se avanzó de forma decisiva en la organización técnica de la red.

Ese mismo año, la NSF (National Science Foundation) mostró su gran interés por las redes con la
propuesta de un troncal (camino físico que soportaba la tecnología que estamos describiendo) para
unir los grandes centros de computación de EEUU. Esta idea cristalizó, dos años más tarde, con la
puesta en marcha de NSFNET, troncal de alcance nacional y con enlaces de 56 kilobits por segundo.

11 / 55
En 1986, DARPA pasó el control de Arpanet a NSF, dirigida entonces por Sthepen Wolff.

Aparecieron las especificaciones del NNTP (Network News Transfer Protocol) para la transmisión
de las noticias (news) de la red USENET sobre protocolo TCP/IP. La red USENET (Users Network)
constituía un foro donde se podía opinar sobre diferentes temas de discusión y los abonados recibían
información constante sobre artículos, conferencias, etc. En 1987 se comenzó a comercializar el
acceso a USENET, así como a la red UUCP (Unix to Unix CoPy) que unía máquinas que tenían Unix
como sistema operativo. Ambas, que ya venían funcionando con anterioridad, estaban estrechamente
ligadas a la red y gran parte del tráfico que generaban era soportado por ella.

En 1988, la NSF elevó la velocidad de conexión troncal NSFNET de 56 kilobits por segundo a 1,5
megabits por segundo utilizando enlaces del tipo T1 (enlaces cuya tecnología permitía un mayor
tráfico). Con ello se preparaba el camino para la utilización masiva de la red.

Se consolidaron Unix y TCP/IP como herramientas definitivas de los sistemas abiertos.

Por otra parte, la compatibilidad que debía facilitar la interoperabilidad se seguía estudiando en
diversos foros. La NBS (National Bureau of Standards) publicó el GOSIP (Government OSI Profile),
directiva que definía el conjunto de protocolos que debían soportar los ordenadores adquiridos por
todos los organismos públicos. Se adoptó el modelo OSI (Open System Interconnection), ya referido
en el apartado correspondiente a los sistemas abiertos, y se planteó la migración hacia él de las
arquitecturas basadas en TCP/IP al que se había considerado como una solución transitoria.

El modelo OSI se compone de siete niveles que definen con exactitud y precisión todos los estados y
fases de las comunicaciones. Muy estructurado y elaborado, ha llegado a ser un gran modelo teórico
y una excelente referencia en muchos desarrollos aunque su complejidad lo ha hecho poco aplicable.

La migración propuesta no se llevó a cabo ya que, después de la polémica desatada en los medios
relacionados con la red, la reacción fulminante de la comunidad Internet hizo que se siguiera
apostando por algo menos ambicioso pero más práctico, el protocolo TCP/IP, que de esta forma
quedaba consolidado definitivamente como el programa de comunicaciones de Internet.

Los eventos técnicos descritos establecieron una sólida plataforma sobre la que se apoyaría un uso
generalizado y cada vez más eficiente de la red. Sin embargo, la consolidación definitiva de Internet
no se gestaría hasta 1988, cuando se abrió su uso a otras entidades y a particulares. Hasta ese año la
red había sido utilizada, fundamentalmente, por organismos relacionados de alguna manera con la
Administración norteamericana.

Dos años más tarde, en 1990, cumplidos con creces todos sus objetivos y agotado su proyecto,
desaparece Arpanet como concepto. Al mismo tiempo, Internet, heredera universal de Arpanet,
queda definida como la red de redes. Es curioso que la idea de las redes de ordenadores, habiendo
nacido en plena guerra fría en un proyecto militar que, entre otras cosas, pretendía salvaguardar la
información estratégica geográficamente dispersa, acabara alcanzando su auge poco después de la
caída del muro de Berlín (1989).
IV. Internet: la explosión
No había pasado un año desde la desaparición de Arpanet cuando se produjo el fenómeno de
hipercrecimiento de Internet. Hasta ese momento, la evolución de la red había mantenido una
progresión firme pero gradual, habiéndose convertido en un entorno de trabajo sumamente atractivo
con características tales como alcance global, buenas herramientas de colaboración y difusión de
información, una cierta fiabilidad, etc. El incremento en el número de conexiones había sido
constante, con algunos picos en determinados momentos, pero paulatino. Sin embargo, llegó un
momento en el que todo fue diferente.

Ahora la red Arpanet y el concepto Internet eran la misma cosa, se habían consolidado los
procedimientos, se había salido del ámbito restringido anterior y se percibía un claro uso comercial.

12 / 55
En poco tiempo se produciría un importante cambio de orientación en el uso de la red cuyas
consecuencias tendrían un gran impacto en todos y cada uno de sus aspectos (técnicos, organizativos,
sociales, etc.).

1. Crecimiento exponencial

Aparte de las causas anteriormente reseñadas, hubo varios factores que sirvieron de soporte a este
crecimiento. Entre ellos, cabe destacar los siguientes:

- La política de puertas abiertas que permitió la libre conexión de todo tipo de organizaciones
(académicas, comerciales, etc.), y poco después, también de particulares.

- La facilidad que daba el protocolo TCP/IP para la interconexión de redes junto con la aparición
de proveedores de servicios regionales que proliferaron por todas partes. Estos facilitaron la conexión
a la red de todo tipo de entidades sin tener que tratar directamente con los órganos de coordinación
de Internet.

- La absorción de otras redes de propósitos específicos (y tamaño considerable), tales como


CSNET, BITNET, etc. atraídas por la generalidad y alcance global de la nueva red.

- La incorporación de los usuarios particulares. Hasta este momento el acceso a la red sólo podía
llevarse a cabo desde los centros conectados directamente a Internet. Con la aparición de los ISP
(Internet Service Provider), la posibilidad de conectarse a la red desde casa (mediante el teléfono
convencional) se convirtió en una realidad, y con ésta, el acceso del público a la red. La
incorporación de los particulares comenzaba a ser imparable.

Con el cambio de las reglas del juego, se vio la necesidad de trabajar rápidamente sobre los aspectos
de uso, organización y logística de la nueva red que se vislumbraba.

La NSF publicó su Acceptable Use Policy en la que se propugnaba que la red troncal de entonces se
dedicara a educación e investigación y se crearan otros troncales para fines comerciales. Poco
después empezarían a funcionar las redes IP troncales AlterNet y PSInet.

Dentro de la IAB (Internet Activities Board) se crearon la IETF (Internet Engineering Task Force) y
la IRTF (Internet Research Task Force) en un intento de coordinación de los desarrollos aplicativos y
de investigación. Con el paso del tiempo se constituirían en organismos clave en la evolución de
Internet. Integradas por voluntarios, llevaban a cabo un importante trabajo teórico de definición de
las nuevas aplicaciones y extensiones de la red así como un importante trabajo práctico de
experimentación y revisión de las nuevas ideas que propiciaba que sólo aquellas que fueran factibles
y útiles se convirtieran en estándar.

En abril de 1991, el NIST (National Institute of Standards) publicó la versión 2 del GOSIP
(Government OSI Profile). Sin embargo, la extensión de Internet era tan grande que nadie se tomó en
serio la recomendada migración al protocolo OSI. En 1994 el propio NIST recomendó la utilización
de TCP/IP. Existen varias causas que podrían explicar el fracaso del modelo OSI a pesar de ser una
creación de organismos de normalización. Quizá una de las más importantes consista en que mientras
en TCP/IP las normas se incorporan después de ser publicadas en los RFCs (Request for Comments)
y tras haber demostrado su utilidad, en OSI, por el contrario, constituyen un magma teórico de difícil
implantación comercial.

En diciembre del mismo año se convirtió en ley el proyecto High-Performance Computing Act of
1991 patrocinado por el entonces senador Al Gore. Como consecuencia se puso en marcha la red
NREN (National Research and Education Network) significando un recurso de gran importancia para
el mundo de la investigación.

En Europa comenzó la comercialización de Eunet, que hasta ese momento proporcionaba servicios
UUCP, convirtiéndose en el mayor suministrador de servicios de red IP. En septiembre de 1992 se

13 / 55
completó el troncal pan-europeo, resultado de la iniciativa EBONE independiente de la financiación
gubernamental.

En enero de 1992 el CNRI (Corporation for National Research Initiatives) creó la ISOC (Internet
SOCiety) de la que Vinton Cerf fue presidente hasta 1995, ocupándose de todos los temas
relacionados con la difusión de Internet.
2. Los problemas de la red
Este proceso de repentino crecimiento no fue un fenómeno que la red pudiera acomodar fácilmente y
empezaron a producirse multitud de conflictos y problemas que se reflejaron de manera dispar en los
diferentes aspectos de la red (técnicos, organizativos y sociales). Vamos a examinar los más
relevantes:
A. Manejabilidad y gestión
Los métodos utilizados para operar con la red primitiva ya no eran aplicables para una red tan
grande. Mientras la red consistía en un reducido número de ordenadores y enlaces de datos, la
gestión de la misma no planteó demasiados problemas. Sin embargo, cuando la red inició su
vertiginoso crecimiento y adoptó la filosofía de interconexión de redes, comenzó a vislumbrarse que
la gestión de semejante entidad ya no era asumible mediante los procedimientos ad hoc utilizados
hasta entonces, ya que estos eran difícilmente escalables. La red había pasado de ser un primitivo
entramado de ordenadores y enlaces de datos a convertirse en una compleja agrupación de entidades
independientes con múltiples interrelaciones entre ellas, y con este volumen no era capaz de aguantar
tasas de fallo elevadas y no podía adaptarse de forma dinámica y transparente a fallos de nodos y/o
líneas de comunicaciones.
B. Ancho de banda
El ancho de banda mide la capacidad de transporte de la información a través de las redes. Es algo así
como la cantidad de carriles que tiene una autopista. A pesar de las generosas previsiones que habían
soportado anteriores crecimientos, se estaba saturando la capacidad de los enlaces de interconexión.
Esta saturación se hizo mucho más grave en los enlaces troncales, que eran los que interconectaban
gran parte de las redes entre sí.
C. Recursos
Cuando la red comprendía una pequeña cantidad de ordenadores, era muy fácil saber donde se
encontraba el recurso que se necesitaba. Sin embargo, la incorporación de tantos equipos y la
ausencia de cualquier condición centralizadora (cada cual podía añadir nuevos ordenadores sin dar
cuentas a nadie), motivó la paradoja de que la red estaba llena de recursos valiosos pero encontrarlos
suponía una tarea sumamente difícil. Se echaba en falta herramientas de búsqueda y clasificación de
la información.
D. Seguridad
El uso masivo de Internet propició usos indebidos, violación de la privacidad, abusos, espionaje e
incluso acciones encaminadas a la destrucción premeditada de recursos. La maraña ingobernable en
la que se empezaba a constituir la red, unida a su potencia, dio origen a la proliferación de incidentes.
Algunas referencias son las siguientes:

- Internet Worm - El 2 de noviembre de 1988, un programa creado por Robert Morris que
aprovechaba una vulnerabilidad en el sistema de correo electrónico, dejó fuera de servicio a 6.000 de
los 60.000 ordenadores conectados a Internet. La disfunción se transmitía de unos ordenadores a
otros. Durante días reinó la confusión creándose tal pánico que hubo sitios que desconectaron su
enlace durante varios días.

- Cookoo's egg - En 1989, Clifford Stoll, uno de los técnicos que atajaron el Internet Worm,
describió en un libro la caza de unos piratas informáticos alemanes que se infiltraron en numerosas
instalaciones del gobierno de los EEUU. El motivo de la intrusión era el espionaje.

- Spam - El 12 de abril de 1994, la firma de abogados Canter & Siegel llevó a cabo un envío
indiscriminado de mensajes publicitarios a través del servicio de news. Muchos usuarios de Internet
reaccionaron atacando al ordenador del que procedía el envío con una cantidad enorme de respuestas,
lo que acabó por provocar su parada.

- En 1995, Vladimir Levin, de San Petesburgo, aprovechó Internet para robar millones de dólares

14 / 55
a la banca a través de una agencia del Citibank.

- CancelBot - En octubre de 1996, un programa denominado cancelbot eliminó unos 25.000


mensajes del sistema de news mundial. Se cree que el borrado era selectivo y orientado a borrar los
mensajes referidos a una serie de temas concretos.

- El 26 de abril de 1999, el virus CIH (más conocido como Chernobyl) afectó a miles de
máquinas siendo el primero en atacar el hardware y dando origen a importantes problemas en la
BIOS. Se localizó al autor, un joven estudiante taiwanés llamado Chen Ing-hau. No se conoce que
haya sido castigado.

- Durante 1999, los virus Melissa y I love you, y el gusano Bubble Boy fueron especialmente
dañinos ocasionando graves problemas en ordenadores de todo el mundo.

- En mayo de 2002 el gusano Klez infectó un gran número de sistemas de todo tipo.

- A destacar, el caso del famoso hacker Kevin Mitnick, encarcelado desde 1995 hasta 1999 por
fraude informático y telefónico. Se produjeron manifestaciones y pronunciamientos en su defensa. El
propio Mitnick colaboró contra el virus I love you.

- Recientemente (2004), los gusanos Blaster y Sasser han causado graves problemas en todo el
mundo.

Algunos de los creadores de virus más famosos han recibido, como consecuencia de sus inventos,
interesantes ofertas de trabajo.

E. Diseño inicial

El diseño inicial de Arpanet cumplió perfectamente los objetivos perseguidos. Sin embargo, no era
un diseño pensado para soportar el océano de redes navegables que acabaría siendo Internet. La
proliferación de usos provocó que algunas de las decisiones iniciales de diseño y sus protocolos,
perfectamente razonables en el momento de la concepción, se revelaran problemáticas en el
momento de la explosión. A continuación destacamos algunos de los problemas más importantes:

Agotamiento del espacio de direcciones.- A causa del crecimiento exponencial, el esquema de


direccionamiento de la red, previsto para exceder cualquier expectativa, se vio rápidamente
desbordado. La situación era análoga a la necesidad de cambiar el sistema de matrícula de los
automóviles, debido a que el esquema de numeración de las mismas estaba a punto de agotarse en
algunas provincias.

Problemas de adaptación a las redes de alta velocidad.- El diseño del protocolo provocaba un uso
ineficiente del ancho de banda en enlaces de datos de muy alta velocidad (ATM, Gigabit Ethernet,
etc.).

Baja calidad del servicio en algunas aplicaciones.- Con la implantación de servicios de telefonía,
audio y vídeo por Internet se puso de manifiesto que el diseño inicial no era el apropiado para estas
aplicaciones. Cuando se produce congestión en la red, todos los servicios que proporciona la misma
se ven afectados por igual. Esto puede no ser relevante para el correo electrónico, que en el peor de
los casos se vería retardado unos minutos o unas horas a lo sumo, pero un retraso de minutos en un
canal de audio o en una emisión de video (ambos en tiempo real)en tiempo real o en una
videoconferencia no sería aceptable.
3. Búsqueda de soluciones
La nueva situación obligó al replanteamiento de muchos conceptos. La envergadura de los problemas
suscitados planteó la necesidad de responder con proyectos imaginativos y esto fue lo que se hizo. El
gran espíritu de creación y colaboración de la comunidad Internet acabó por ofrecer las soluciones
requeridas, si bien, en algunos casos el conflicto aún persiste.

15 / 55
Repasemos los puntos del apartado anterior y veamos cuales fueron las soluciones sintetizadas para
dar respuesta a los problemas mencionados en los mismos:

A. Manejabilidad y gestión

Era preciso que la red mostrara, a la hora de funcionar, un comportamiento casi orgánico, es decir,
que fuera capaz de regularse a sí misma, que tuviera un medio de notificación de problemas, que
dispusiera de mecanismos que la permitieran hacer frente a situaciones de fallo parcial sin
intervención humana. En definitiva, se la estaba demandando una readaptación tecnológica de sí
misma.

Progresivamente, se fueron definiendo e implementando protocolos y herramientas que permitieron


abandonar la gestión manual de muchas de las operaciones en favor de una gestión completamente
autónoma y automática.

Entre estas herramientas cabe destacar los protocolos de encaminamiento y de gestión de red que
mejoraron de forma notable la gestión de Internet.

Protocolos de encaminamiento.- Sirven para calcular y mantener los caminos óptimos de acceso entre
unos nodos y otros, así como para proveer rutas alternativas en caso de fallo en los enlaces de los
datos. Entre estos protocolos podemos mencionar el RIP (Routing Information Protocol).

Protocolos de gestión de red.- Dado que el número de personas encargadas de gestionar la red no
pudo crecer en la misma proporción que el número de redes y ordenadores conectados a la misma, se
hizo evidente que era necesario delegar en la propia red parte del trabajo de control de sus elementos
y de la gestión de alertas y problemas. Para ello se especificaron e implementaron protocolos tales
como el SNMP (Simple Network Management Protocol).

B. Ancho de banda

El incremento constante del número de usuarios de la red ha requerido repetidos incrementos en el


ancho de banda de los enlaces. Las diversas redes troncales han visto aumentada su capacidad de
forma permanente para garantizar una mínima calidad del servicio.

Sin embargo, el problema de la congestión no se puede arreglar sólo con la sucesiva ampliación de
los enlaces troncales. El diseño inicial de arquitectura de la red y su gigantesco tamaño actual no
permiten todo el margen de maniobra necesario. No obstante, tecnologías como ADSL (Asymmetric
Digital Subscriber Line) están proporcionando vías de una gran capacidad. La aplicación de nuevas
tecnologías (utilización a gran escala de fibra óptica) y nuevos experimentos (aprovechamiento de la
red eléctrica para la transmisión de datos), así como nuevas ideas y diseños (proyecto Internet 2)
están dando respuesta a un problema que no obstante, aún persiste en muchas zonas geográficas.
C. Recursos
En un primer momento se tuvo que recurrir a la creación de catálogos para poder realizar consultas
en publicaciones especializadas, sin embargo, no tardó en surgir la idea de usar la misma red para
catalogar e indexar de forma automática los fondos disponibles. Aparecieron así los primeros
programas de indexación, las primeras herramientas de publicación y, acto seguido, una panoplia de
aplicaciones que significaron una revolución en las prestaciones de Internet. Quizá haya sido en este
campo, con la World Wide Web a la cabeza, donde la respuesta a los problemas planteados se haya
mostrado más contundente. Los buscadores actuales, aún estando lejos de ofrecer una solución
óptima, están consiguiendo una mejora notable en la gestión de recursos y contenidos.
D. Seguridad
Como respuesta a los problemas de seguridad detectados y en el interés de que una red insegura
limitaría de forma decisiva su utilización, se crearon varias organizaciones de alerta que se
encargaban de avisar de la existencia de posibles fallos en los sistemas, así como de las acciones a
tomar para remediarlos.

La más representativa es el CERT (Computer Emergency Response Team), creada por DARPA

16 / 55
inmediatamente después del caso del Internet Worm. Después de este incidente comenzaron a
desarrollarse mecanismos para poder garantizar un uso seguro de la red. Entre ellos podemos citar la
aparición de los cortafuegos (firewalls), que son dispositivos orientados a filtrar el tráfico para evitar
intrusiones, el interés por el uso del cifrado para el establecimiento seguro de comunicaciones y la
autentificación, método para evitar la suplantación de identidades (firma electrónica).

No obstante, los problemas de seguridad han seguido aumentando en proporción al crecimiento de


Internet siendo actualmente uno de sus aspectos más controvertidos.
E. El diseño de la red
La mayoría de los problemas a resolver respecto al diseño de la red giraban en torno al
funcionamiento del protocolo TCP/IP. Sin duda, la falta de espacio para las nuevas incorporaciones
era el más acuciante llegando un momento en el que se temía por la disponibilidad de direcciones de
red (direcciones IP).

En junio de 1992 se celebró en Kobe, Japón, el primer congreso de la ISOC (Internet SOCiety). En
paralelo, se reunió la IAB (Internet Activities Board) para dar una solución al problema, ya que el
número de 32 bits del diseño inicial del protocolo TCP/IP se quedaba pequeño.

Se trabajó en diferentes propuestas donde no faltaba la vieja rivalidad entre los protocolos OSI y
TCP/IP. En el análisis que se hizo sobre la previsión de incremento de Internet se llegó a una
hipótesis de partida por la que todo ser humano podía disponer de un ordenador y todos los
ordenadores del mundo podían estar conectados, y además cada ser humano podía tener aparatos que
al incorporar procesadores (coche, electrodomésticos, etc.) también eran considerados como
elementos potenciales de conexión. Haciendo una extrapolación de la población para el año 2020
resultaba un número de un billón de posibles conexiones. Para dar un margen de seguridad amplio se
fijó como objetivo del nuevo protocolo un número de mil billones de direcciones conectadas a un
billón de redes. Después de múltiples propuestas y algunos compromisos se decidió seguir la vía
llamada IP en IP que proponía dividir el nivel IP en dos subniveles, uno global y otro para dominios
reducidos.

En 1992, Steve Deering propuso el SIP (Simple IP) por el que se aumentaba el campo de direcciones
a 64 bits. En 1993, el SIP se convertía en el SIPP (Simple IP Plus) mejorando la estrategia de
encaminamiento y permitiendo el soporte de dispositivos móviles. En 1994 se decidió utilizar el SIPP
como base del nuevo IP aumentando el campo de direcciones hasta 128 bits quedando cubiertas con
creces las previsiones realizadas y denominándose al nuevo protocolo IP versión 6 o más
comúnmente IPv6 (también se le conoce como New Generation).

A pesar de que se observa cierto retraso en su aplicación este protocolo debe eliminar
definitivamente el problema de la escasez de direcciones para conectarse a Internet pero además debe
constituirse en la plataforma de un avance tecnológico definitivo en el campo de las comunicaciones,
indispensable en la consolidación definitiva de Internet.
V. Los servicios de internet
Ya lo dijo Louis Pasteur, las ciencias aplicadas no existen, lo que existen son aplicaciones de las
ciencias. Las aplicaciones de Internet han crecido considerablemente en cantidad y calidad. Ha
llegado un momento en el que un enorme número de hosts están conectados y todos ellos tienen
información que ofrecer. Se trata de encontrar lo que se busca y, una vez encontrado, visualizarlo de
forma clara y fácil.

The Big Three, es decir Telnet, FTP y E-mail, fueron aplicaciones pioneras en conseguir que la red
sirviera para mucho más de lo requerido en un principio. Con ellas empezamos el detalle de los
servicios que se consideran más importantes.

1. Telnet: Terminal Virtual

Hace unos años, los grandes ordenadores (host) solían tener varios terminales (pantallas con teclado
para escribir órdenes y ver los resultados) conectados por medio de cables a la unidad central. Esto
permitía que varias personas pudieran trabajar a la vez en el mismo ordenador. Sin embargo, no

17 / 55
permitía que estas personas pudieran trabajar desde otro lugar, ni que personas ajenas a la entidad en
la que se encontraba el host pudieran utilizar sus programas.

Si, por ejemplo, en una universidad se desarrollaba un complejo programa que realizaba cálculos
complejos, los investigadores de esa universidad sólo tenían que acercarse a un terminal para poder
ejecutar el programa. Sin embargo, los investigadores de otras universidades que quisieran utilizar el
mismo programa sólo tenían dos opciones: o su universidad compraba un host y desarrollaban el
mismo programa, o se desplazaban a la universidad que disponía del programa para trabajar allí. Esto
tenía el agravante de tener que preparar los datos en papel o fichas, llevarlos a otra ciudad, meterlos
en el ordenador, esperar turno, coger los resultados en papel y regresar al lugar de origen para
estudiarlos.

Cuando se conectaron los ordenadores entre sí, la pregunta fue inmediata: ¿por qué no se desarrolla
un programa que ofrezca acceso remoto a una cuenta de usuario en otra máquina?

Este programa, llamado telnet, ofrecía al usuario la misma pantalla que si encendiera uno de los
terminales propios del host al que se conectaba, emulando ser un terminal local. Ahora ya no tenía
que viajar el usuario, sólo viajaban los datos.

La conexión de un ordenador (por ejemplo, un PC) a otro ordenador (normalmente un host) hace que
el PC se convierta en terminal tonto del host destino, es decir, un terminal sin autonomía propia.
Desde el PC (como terminal) se puede acceder a la información pública (datos o programas)
contenida en el host destino, pero se habrá perdido la capacidad operativa propia (como PC). Es
decir, no es que el PC deje de funcionar como tal, sino que el programa telnet no utiliza
prácticamente nada del PC, sólo el teclado y una ventana en la pantalla.

Para poder operar en un host es necesario poseer una cuenta de usuario en él (con la contraseña
correspondiente) y conocer su dirección completa. También es necesario conocer los comandos de su
sistema operativo puesto que, a todos los efectos, estamos trabajando en el host, no en nuestra
máquina.

El desarrollo de la WWW está haciendo que telnet se utilice cada vez menos, siendo su uso residual
en entornos de búsqueda especializada para acceso a bases de datos que todavía no están en formato
de página Web.

2. FTP: Transferencia de ficheros

FTP (File Transfer Protocol) permite la transferencia de ficheros entre ordenadores. En un principio
ofrecía conversiones de formatos de un fabricante a otro, aunque no disponía de un interfaz con el
usuario excesivamente amistoso. Afortunadamente, las aplicaciones actuales de ftp sí ofrecen un
interfaz gráfico, así como la posibilidad de reanudar una transferencia de ficheros desde donde se
interrumpió y la transferencia de directorios completos (con todo lo que contengan, incluso otros
directorios).

Facilita que un usuario se conecte a un servidor remoto y, después de identificarse, obtenga listados
de los directorios en los que posea permisos de lectura y transfiera al ordenador local los ficheros que
desee. Todos los sistemas que disponen de un servidor FTP tienen establecidos permisos que indican
qué ficheros son accesibles y cuáles no. Existen dos formas de trabajo:
A. Transferencia anónima
Cualquiera puede entrar y transferir información. La identificación del usuario siempre es
anonymous y su contraseña, la dirección de correo electrónico del usuario. Los ficheros a los que
tiene acceso suelen ser documentos que personas o entidades quieren hacer públicos, software de
libre distribución o actualizaciones o parches de productos comerciales.
B. Transferencia identificada
El cliente tiene que estar dado de alta en el servidor (por medio de una cuenta de usuario) y necesita
una contraseña privada para poder acceder a los ficheros. Ejemplo de esto puede ser la información
que una empresa pone a disposición de sus clientes, a los que les proporciona una clave para que sólo

18 / 55
ellos puedan acceder a dicha información.

El interfaz de usuario varía en función de la propia aplicación y sistema operativo, aunque los que
trabajan en modo gráfico son muy parecidos. La tendencia actual es que el servicio de transferencia
de ficheros se integre en los navegadores, mostrando los directorios y las listas de ficheros de modo
similar a como lo hace el Administrador de Ficheros de Windows.

3. E-Mail: Correo Electrónico

Desde hace mucho tiempo se ha considerado la aplicación de correo electrónico como la más popular
y útil dentro y fuera de Internet. Permite el envío de mensajes desde un ordenador a otro en cualquier
parte del mundo. Aunque el correo electrónico fue diseñado para el envío de mensajes, también
permitía que dentro del mensaje se incluyera el contenido de un fichero. Este sistema planteaba
algunos problemas cuando dichos ficheros no eran de texto ASCII (American Standard Code for
Information Interchange). Para solucionarlo, se ideó un método por el que los ficheros se
encapsulaban dentro de una especie de 'coraza' numérica, adjuntándose esta 'cápsula' al mensaje.

Esto hizo que se pudieran enviar documentos, imágenes y cualquier otro tipo de ficheros adjuntos de
forma económica y flexible. Su implantación masiva ha constituido una nueva forma de
comunicación a todos los niveles.

Al igual que necesitamos conocer la dirección postal de la persona a la que queremos enviar una
carta, para enviar los mensajes de correo electrónico es preciso conocer la dirección e-mail del
destinatario, que se compone siempre de un identificador de usuario seguido del signo tipográfico '@'
(arroba) y de la dirección de localización (nombre por dominios de la máquina en la que se encuentra
su buzón). Por ejemplo: nombre.apellido@entidad.es.

A diferencia de otras aplicaciones, el e-mail no precisa tener el PC encendido para recibir un correo
ya que quien lo recibe inicialmente es el servidor, el cual lo deposita en el buzón del destinatario (el
buzón está en el propio servidor). Cuando el programa de correo se conecta desde el ordenador del
usuario al servidor accede a los mensajes existentes en el buzón, los recoge y, normalmente, los borra
del buzón.

La máxima interoperabilidad entre los sistemas conectados se obtiene utilizando dos tipos de
protocolo: el SMTP (Simple Mail Transfer Protocol) que afecta al envío de mensajes por el usuario y
al intercambio de información entre servidores y, por otra parte, el POP3 (Post Office Protocol,
versión 3) o bien el IMAP (Internet Message Access Protocol) para lo referente a la recepción por
parte del usuario de su correo residente en su servidor.

4. Grupos de discusión: News

El término news en el mundo de las redes no se refiere exactamente a acontecimientos actuales o


noticias sino a discusiones, debates, artículos y conferencias en determinados grupos de interés.
Existen miles de grupos de discusión, desde ciencias naturales hasta recetas de cocina, pasando por
anuncios de becas, derecho tributario, etc.

Al acercarnos a las news, lo normal es que algunos de los grupos existentes sean de nuestro interés,
pero no todos. Para evitar pérdidas de tiempo inútiles, al conectarnos a un servidor de news (un
ordenador que presta ese servicio), le indicamos nuestra predilección por medio de suscripciones.
Gracias a este sencillo método, sólo recibimos los artículos de los grupos que nos interesan.

El modo de funcionamiento es muy sencillo: un artículo (en la jerga se llama post) destinado a un
grupo de discusión específico se envía al ordenador que dispone del servicio, donde se recibe y
almacena en el grupo correspondiente durante un periodo limitado de tiempo (entre dos días y dos
semanas), donde puede ser accedido por todos sus suscriptores en el momento que ellos decidan.

La forma de nombrar los grupos es totalmente jerárquica, separando los temas por puntos. Siguiendo

19 / 55
este criterio soc.culture.spain se refiere a un grupo de discusión social, en la categoría general de
culture (cultura), centrada en Spain (España), es decir, sobre España y su cultura, historia, usos y
costumbres.

La filosofía que ha sustentado desde el principio a los usuarios de news es da tanto como recibas, lo
que hace que sea muy parecido a una tormenta de cerebros.

El protocolo estándar de Internet para distribución, consulta y recuperación de noticias es el NNTP


(Network News Transfer Protocol) y la red que une a todas las máquinas que tienen este servicio se
llama USENET (Users Network).
5. La integración en un medio común: WWW (World Wide Web)
La WWW ha sido determinante en la apertura de Internet a todos los rincones de la sociedad, ya que
ha conseguido aglutinar los mecanismos necesarios para obtener de la red sus recursos más
importantes. Las primeras herramientas facilitaron el acceso y la búsqueda de información, pero no
estaban integradas y, aunque potentes, no eran de un uso fácil. Con la WWW se hizo posible solicitar
a la red documentos que contuvieran, a su vez, referencias a todos los documentos de Internet que
respondieran a unos criterios de búsqueda determinados.

Fue desarrollada por Tim Berners-Lee, en principio para un uso personal, en el CERN (Conseil
Europeen pour la Recherche Nucleaire). El CERN, que tiene su sede cerca de Ginebra (en la frontera
franco-suiza), está compuesto por personas pertenecientes a centros de investigación de varios países
que trabajan en proyectos comunes. En estos casos, poder disponer de la información actualizada es
fundamental, y esto no era fácil de conseguir. Para mejorar la situación Berners-Lee escribió el
programa Enquire, que permitía añadir al final de cada documento una lista de referencias desde las
cuales se podía enlazar con los documentos relacionados. Lo que en un principio abarcó un pequeño
dominio en el CERN, creció fuera de sus límites y se optimizó. Primero fue llamado Web (telaraña),
luego pasó a ser Wide Web (gran telaraña) y finalmente alcanzó el ámbito mundial, llegando a ser
World Wide Web.

Los datos contenidos en un ordenador que se quieran poner a disposición de la WWW deben
organizarse en un conjunto de documentos relacionados formando un ente sistematizado de
información. Cada una de estos documentos recibe el nombre de página Web.

La idea de que cualquier cosa puede enlazar con cualquier otra la define la WWW apoyándose en
tres conceptos fundamentales, que son:

- Un lenguaje a base de etiquetas (HTML)

- Un protocolo de comunicaciones (HTTP)

- Un sistema de localización de recursos (URL)


A. HTML (HyperText Markup Language)
Es el lenguaje habitual utilizado para mostrar información en Internet. HTML es un subconjunto del
SGML (Standard Generalized Markup Language), utilizado en edición electrónica. Su facilidad de
hipertexto permite que una palabra cualquiera contenida en un texto pueda considerarse clave y
convertirse en un enlace que encamina a otro texto con ella relacionada. Esta técnica, que ya existía
para la operación en un ordenador, Berners-Lee la modificó para que funcionara en una red de
ordenadores y la optimizó incorporando prestaciones multimedia.
B. HTTP (HyperText Transfer Protocol)
Es un protocolo de transferencia de información que permite la comunicación directa y única entre el
navegador de un ordenador y el ordenador de la red al que se quiere acceder. Se establece una
conexión independiente por cada elemento de la página web que se desea ver (imágenes, texto y
marcos que, a su vez, son nuevas páginas web).

Para que todos los documentos, localizados en múltiples ordenadores sean accesibles, la red debe
compartir un espacio de nombres y direcciones común, lo que se logra a través del servicio de
directorio DNS (Domain Name System) con el que se puede localizar la dirección IP (número de

20 / 55
identificación de cada máquina conectada) a partir de nombres fáciles de recordar.

C. URL (Uniform Resource Locator)

Es la dirección que está asociada con la dirección IP (Internet Protocol) a través del servicio de
directorio DNS (Domain Name System). Consta de cuatro partes diferenciadas:

modo_de_acceso://identificación_del_host/ruta/fichero. El modo_de_acceso especifica el protocolo


empleado para ofrecer el servicio, que puede ser:

ftp: transferencia de ficheros; file: fichero local; http: transferencia de páginas web; https:
transferencia de páginas web seguras (cifradas); mailto: dirección de correo electrónico; news: news;
telnet: terminal virtual; etc.

La identificación_del_host consiste en la dirección completa del sitio (site) al que queremos ir. Se
estructura por dominios (host.sub-dominio.dominio).

El host normalmente indica el tipo de servicio empleado. Algunos valores frecuentes son:

www World Wide Web. Acceso a páginas web

ftp File Transfer Protocol. Transferencia de ficheros

irc Internet Relay Chat. Comunicación interactiva entre usuarios

El subdominio identifica la organización que ofrece el servicio y que estará registrada en InterNIC
(Network Information Centers), organismo encargado de registrar los nombres.

El dominio responde a la clasificación de la IAB (Internet Activities Board) para designar a las
diferentes redes.

La ruta detalla el nombre del directorio y/o subdirectorios donde está la información específica.

El fichero es el nombre de la página que queremos visualizar.

Por ejemplo, la dirección URL de la página web del Senado en donde se encuentra el índice de la
historia del mismo es:

http://www.senado.es/historia/index.html

En ella identificamos los conceptos antes descritos:

modo_de_acceso http

identificación_del_host www.senado.es

host www

subdominio senado

dominio es

ruta /historia

fichero index.html
6. Búsqueda en Internet: Archie, Gopher y WAIS
Son herramientas de búsqueda que han proporcionado facilidades muy importantes en la evolución

21 / 55
de Internet. Sin embargo, en el momento actual su escaso uso está quedando restringido a los
entornos de la enseñanza y de la investigación siendo sustituidas por los nuevos buscadores que,
mediante diversas técnicas, ayudan en la búsqueda de los datos partiendo del mínimo imprescindible.
A. Archie
Desarrollado en la Universidad McGill de Montreal, permite localizar ficheros mediante índices y
obtenerlos por ftp. Su fin primordial es crear un índice de los ficheros que se encuentran disponibles
en ordenadores con servicio de ftp anónimo. Para conseguir su objetivo, los servidores Archie se
conectan periódicamente a los servidores ftp anónimos y cargan los nombres de los ficheros públicos
que allí se encuentran. Todos estos nombres de ficheros pasan a formar parte de una base de datos a
la que puede acceder cualquier usuario de Internet. En la actualidad, este servicio está integrado en el
navegador.
B. Gopher
El término gopher proviene de un pequeño roedor de la familia de los geómidos que viven en galerías
y madrigueras subterráneas. Es la mascota de la Universidad de Minnesota, donde tuvo lugar su
desarrollo. Como el roedor, el servicio Gopher se abre paso entre la información existente hasta
llegar a su objetivo. Permite buscar documentos (no sólo archivos) sin conocer exactamente su
localización física. Ofrece listas de recursos a las que se tiene acceso y proporciona ayudas diversas.
Es un claro precedente de los navegadores (en algunos textos a los navegadores se los llama ratones)
y lleva integradas las funciones de FTP y Telnet.
C. WAIS (Wide Area Information Servers)
Desarrollado, entre otros, por la empresa Thinking Machines. Es una herramienta que permite
encontrar documentos indexados en bases de datos mediante una clave de búsqueda y el nombre de
la base de datos seleccionada. Permite acceder a bases de datos que se encuentran en servidores
distribuidos. La información se recupera con independencia del formato con que se halle almacenada.
WAIS devolverá una lista de todos los documentos encontrados que guardan relación con la palabra
de búsqueda indicada ordenados por orden de aparición.

La diferencia principal entre Gopher y WAIS es que, para Gopher, un dato puede ser un menú, un
documento, un índice o una conexión telnet y, para WAIS, cualquier cosa es un índice y cualquier
cosa referenciada desde el índice es un documento

7. Buscadores actuales

Dada la cantidad de información disponible en Internet, intentar encontrar algo sin ayuda es como
buscar una aguja en un pajar. Estos buscadores son una evolución de Archie, Gopher y sobre todo de
WAIS, pues indexan documentos que, a su vez, sirven de índices gracias a sus enlaces a otros
documentos, ayudándonos a encontrar la información que buscamos a través del enredo que supone
la actual telaraña mundial. Constituyen en el océano de Internet una ayuda fundamental en la
navegación, una especie de Linceo de nuestros tiempos (entre los argonautas, Linceo tenía la vista
tan penetrante que veía a través de las murallas, descubría los escollos escondidos bajo las aguas y
distinguía perfectamente los objetos a tres leguas de distancia...).

Podría considerarse a Yahoo! como el primer buscador de Internet. Sus creadores fueron David Filo
y Jerry Jang que, cuando estaban desarrollando su tesis doctoral en la Universidad de Stanford,
concibieron para su uso personal una guía que les facilitara el acceso a información en Internet. El
desarrollo de la idea les llevó a dedicarse por entero a este proyecto, que acabó siendo una base de
datos que permitía localizar, identificar y editar información residente en la red. En 1995 llegaron a
un acuerdo con Marc Andreessen para mover sus ficheros desde la red de Stanford a los ordenadores
de Netscape, desde donde experimentaron una gran difusión.

A raíz de aquel éxito aparecieron otros muchos buscadores, como Altavista, Excite, Lycos, etc.
Actualmente Google es uno de los más eficaces, habiéndose convertido en el buscador por
excelencia.

Estos buscadores y otros que aparecen continuamente se han ido perfeccionando y han llegado a
constituirse en herramientas de una potencia considerable. Ya no se limitan a la simple acción de
buscar sino que facilitan la conexión a innumerables servicios. En algunos casos han sido comprados,

22 / 55
absorbidos o fusionados a grandes empresas informáticas y de telecomunicaciones como parte
fundamental de un nuevo concepto, el de portal de entrada a Internet, que engloba toda una serie de
posibilidades de utilización de la Red, desde las más sofisticadas a las más cotidianas.
8. Difusión en Internet: Listas de distribución, Audio, Vídeo, Música
A. Listas de distribución
Una lista de distribución permite desarrollar un foro abierto de discusión sobre determinados temas
en los que toman parte los usuarios interesados. Para participar en el debate es necesario suscribirse
en las listas elegidas enviando una comunicación por correo electrónico. Una vez en la lista, el
usuario podrá enviar sus opiniones y recibir las del resto de los componentes utilizando el correo
electrónico como medio de transmisión. Conceptualmente son idénticas a los grupos de discusión
(news), con la única diferencia de que, en éstos, las comunicaciones se efectúan a través de un
servidor de news que hace de tablón de anuncios donde se ponen los mensajes, mientras que, en las
listas de distribución todas las comunicaciones se realizan por correo electrónico.

Normalmente las listas están controladas por un moderador que coordina y hace respetar las normas
de conducta.

B. Audio

Si disponemos de un ordenador multimedia (con tarjeta de sonido y altavoces), podremos oír sonidos
y música a través de Internet. La innovación en este campo vino de la mano de la empresa
RealAudio, que diseñó un producto con el que se dividía el fichero de sonido en trozos que se podían
enviar secuencialmente. Mientras se van escuchando los primeros trozos que llegaron, otros se van
incorporando al final de la cola. Mientras haya trozos de sonido en la cola, habrá sonido que oír.

Una aplicación inmediata fue la retransmisión por la red del sonido de una emisora de radio. La única
diferencia entre enviar un fichero de sonido y una emisión de radio es que, para esta última, los
trozos de sonido no se terminan nunca. En el momento en el que nos conectamos a una emisión de
radio por Internet, comenzamos a recibir los trozos de sonido generados a partir del momento de la
conexión. Todo este proceso produce cierto retardo, que se aprecia claramente accediendo a la página
web de una emisora que utilice este método y sintonizando simultáneamente su emisión en un
receptor de radio tradicional.
C. Vídeo
La transmisión de vídeo era un paso natural a partir del audio. Vino de la mano de la misma empresa,
RealAudio, y el producto se llamó RealVideo.

La idea es la misma que para el sonido, sólo que en vez de un micrófono se debe disponer de una
cámara. Se digitalizan y graban las imágenes una a una y se envían junto con el sonido vía HTTP.
Sin embargo, el vídeo precisa el envío de mucha más información que el sonido (baste ver que lo
incluye), lo que se traduce en saltos entre las imágenes de un segundo o más. Sólo con muy buenas
conexiones a Internet y en condiciones óptimas se consigue una transmisión de vídeo razonablemente
continua (diez fotogramas por segundo -recordemos que las primeras películas se rodaban a dieciséis
fotogramas por segundo-) aunque con un tamaño de imagen de sólo 4 x 5 cm. Estas dos aplicaciones
se integraron en un solo producto llamado RealPlayer. Con el tiempo aparecieron otros productos
(QuickTime, WindowsMedia) con resultados similares.

En una red de área local es mucho mejor que un solo ordenador traiga los fotogramas de Internet y
luego los redistribuya por el resto. Esta distribución a gran escala y hacia el exterior es una de las
formas actuales de emisión de información en vídeo en lo que se conoce como multicasting o
broadcasting.
D. Música
La música a través de Internet está en un momento decisivo gracias al formato mp3 que permite una
eficaz compresión de audio dando la posibilidad de escuchar los registros con una calidad muy
aceptable. Existe una gran preocupación en las casas discográficas ya que pueden perder una gran
parte del control que han venido ejerciendo en este campo, además del problema que puede surgir
con los derechos de autor. No obstante, algunos autores y grupos musicales trabajan ya
exclusivamente en este medio.

23 / 55
E. Comunicación interactiva: Chat, Reuniones, Telefonía, Videoconferencia
Las listas de distribución y los grupos de discusión (news) son aplicaciones asíncronas, es decir, los
ordenadores que se comunican no necesitan estar encendidos al mismo tiempo. Lo que uno escribe se
distribuye a los demás en un tablón o por correo y los demás lo leen cuando quieren o pueden.

Sin embargo, las aplicaciones que incluyen la comunicación interactiva, son síncronas, y por lo tanto,
los ordenadores que se comunican deben estar conectados simultáneamente.

a. Discusión interactiva, charla o chat

Los mensajes de cada uno aparecen inmediatamente en las pantallas de los demás. De no ser así, no
habría interactividad. Normalmente, la pantalla se divide en dos partes, en una de ellas aparece lo que
se escribe y en la otra lo que se recibe. Utiliza el protocolo IRC (Internet Relay Chat).

b. Reuniones o Conferencias

El paso siguiente a la charla interactiva consiste en disponer de una pizarra común en la que todos
pueden escribir, dibujar o incorporar cualquier objeto susceptible de ser añadido a una aplicación de
usuario final (tratamiento de textos, hoja de cálculo, etc.). Uno de los participantes en la reunión abre
un programa de dibujo para mostrar algo que ha hecho. El programa de conferencia avisa a los
homólogos de los demás participantes y cada uno de ellos abre un programa de dibujo (no
necesariamente el mismo). A partir de ese momento, cualquier imagen o texto que se genere en
cualquiera de los programas de dibujo se reproducirá casi al instante en todos los demás.

c. Telefonía

Se puede hablar por teléfono a través de la red y además están surgiendo diversos productos que
amplían las prestaciones telefónicas habituales. Como en el caso del chat, la telefonía necesita que las
máquinas dialogantes estén conectadas al mismo tiempo. Se requieren las correspondientes tarjetas
de sonido, micrófonos y altavoces, y es recomendable que los ordenadores (principalmente los
módems) estén en la misma gama de potencia. La primera empresa que ofreció este servicio fue
Vocaltec con el Iphone.

La ventaja sustancial de utilizar este método es que, como la conexión a Internet se efectúa con
tarifas de llamada metropolitana, se pueden establecer conversaciones con personas de cualquier
lugar del mundo a coste de llamada local. Este tipo de servicio se conoce como telefonía IP.
d. Videoconferencia
La videoconferencia a través de Internet puede enmarcarse en el apartado de la telefonía con
transmisión de vídeo incluido. Además de las tarjetas multimedia, los altavoces y el micrófono, se
precisa una pequeña cámara de vídeo que normalmente se sitúa encima o a un lado de la pantalla
para enfocarnos la cara. De este modo podemos ver a la persona con la que estamos hablando.

Cuando se hace entre ordenadores conectados a una red de área local, se utilizan programas que
reservan para ello una parte del ancho de banda de la red. Cuando se hace entre edificios distantes, se
tiende a recurrir a la RDSI (Red Digital de Servicios Integrados) para conseguir un nivel máximo de
eficacia.

Cuando se hace entre entidades distanciadas físicamente se suelen dedicar salas y equipos especiales,
realizándose la conexión mediante líneas punto a punto o, como mínimo, mediante una línea RDSI.
9. Mundos virtuales
Una de las novedades más llamativas de Internet es la posibilidad de acceder a sitios Web que
permiten realizar una visita virtual. El servidor pone a disposición del visitante un archivo con un
modelo de lo que quiere representar. Este modelo contiene la forma y el aspecto de la superficie de
todos los objetos que están incluidos en él. Se transfiere al ordenador del usuario y éste, con un
programa capaz de interpretar y mostrar dicho modelo, puede moverse por él y girarlo a voluntad
para verlo desde cualquier ángulo. Este programa visualizador de mundos virtuales se puede integrar
en el navegador.

24 / 55
El lenguaje con el que se describe el mundo virtual se llama VRML (Virtual Reality Markup
Language). La visualización del mundo virtual sin saltos ni parpadeos requiere una gran potencia de
cálculo, lo que dificulta su proliferación. Además, la dificultad de realizar un modelo complejo
provoca que los pocos que hay sean modelos bastante sencillos. En general, se suelen representar
simples habitaciones o salas para separar por temas lo que se quiere mostrar.

10. Navegadores

Finalmente, como el servicio más actual y completo, está el relativo a los navegadores. Las últimas
versiones comerciales de los más destacados tienen vocación de integrar en un solo producto gran
parte de las facilidades que han aparecido en la relación descrita anteriormente.

Un navegador es un programa que permite el acceso y manejo de la información disponible en


Internet a través de un sistema amigable y eficaz. Actualmente, integra desde productos con
funciones de correo electrónico hasta los mismos buscadores de información. Ha pasado de ser un
elemento importante del entorno, a constituirse en el elemento fundamental de la WWW, no
entendiéndose hoy día la conexión a Internet sin el auxilio de esta herramienta.

El concepto de navegador va unido al nombre de Marc Andreessen, creador de Mosaic y después de


Netscape Navigator. Durante sus estudios en la Universidad de Illinois pudo utilizar la conexión a
Internet allí existente. En 1992 se incorporó a la empresa NCSA, donde trabajaba en el proceso de
imágenes con conexiones a Internet que permitían un fácil acceso a cualquier parte del mundo.
Estaba al tanto de los desarrollos de hipertexto llevados a cabo por Berners-Lee en el CERN. Se le
ocurrió entonces la idea de combinar el interfaz gráfico de los ordenadores personales con la
conexión a Internet para evitar a los usuarios no expertos la necesidad de aprender el complicado
manejo de comandos de las aplicaciones.

En aquel momento existían en Internet unos treinta servidores que soportaban el lenguaje HTML
(HyperText Markup Language) y se trataba de que el invento sirviera para todos ellos. Lo llamó
Mosaic (mosaico) y el primer desarrollo lo realizó en lenguaje C. La conjunción del navegador
Mosaic con la filosofía World Wide Web sería definitiva para la utilización masiva de Internet, ya
que eliminaba el requerimiento de disponer de conocimientos especializados para el acceso y
operación en la red. Una vez terminado lo puso en Internet a disposición de todo el mundo. El éxito
fue espectacular.

Estableció contacto con Jim Clark, fundador de Silicon Graphics y ambos llegaron a un acuerdo para,
a partir de Mosaic, desarrollar un producto comercial. Nacía así la empresa Netscape y su producto
Netscape Navigator. Siguiendo la técnica utilizada por otras empresas, el producto salió al mercado
sin estar lo suficientemente acabado, como hubiera requerido la ingeniería clásica, pero su rápida
utilización por un gran número de usuarios permitió depurarlo y convertirlo en un producto
excelente.

El ejemplo fue seguido por la empresa Microsoft con su producto Explorer que acabaría
consiguiendo una preponderancia absoluta en este campo.
VI. DNS. Sistema de nombres por dominios
La definición que hace de Internet el FNC (Federal Network Council) de los Estados Unidos,
expresada al principio de este capítulo, comienza diciendo lo siguiente: Entendemos por Internet un
sistema global de información que está relacionado lógicamente por un único espacio global de
direcciones [...]. Se refieren estas direcciones al conjunto de caracteres que identifican de forma
universal e inequívoca a un ordenador que ofrece información en la red (un site). La nominación de
direcciones IP (Internet Protocol) y nombres de red URL (Uniform Resource Locator) de un entorno
determinado no debe colisionar con otras direcciones o nombres de la red, al igual que no puede
haber dos números de teléfono idénticos.

Inicialmente las conexiones se realizaban sólo con la dirección IP del destino. Ante la dificultad de
recordar direcciones del tipo 195.134.74.16, se consideró la posibilidad de utilizar nombres

25 / 55
simbólicos que se tradujeran a su correspondiente dirección IP. Para coordinar todas estas
equivalencias entre nombres para los humanos y nombres para las máquinas se creó el sistema DNS
que permite, de forma automática, la conversión de nombres por dominios a direcciones IP utilizando
tablas de conversión. Para compaginar la autonomía de nombres dentro de una red con la necesidad
de evitar la redundancia se estableció una estructura jerárquica de la siguiente forma:
nombre_local.sub-dominio.dominio.dominio_genérico

El número de dominios es variable aunque en el ejemplo se hayan puesto dos. Debe haber al menos
uno y en grandes entidades, como las universidades, es fácil encontrarse con cuatro o cinco
subdominios.

La tarea de traducción la llevan a cabo los llamados servidores DNS. Los tipos de servidores DNS
posibles son:

- DNS primario: contiene toda la información de nombres correspondientes a un dominio


específico. Su base de datos es mantenida y actualizada por el administrador local.

- DNS secundario: contiene una copia completa del DNS primario. Su base de datos se actualiza
transfiriendo los datos desde el DNS primario.

- DNS caché: contiene información aprendida de otros servidores. Sirve para reducir el tráfico de
consultas almacenando temporalmente las direcciones más utilizadas.

Es necesario que cada nombre por dominios esté proporcionado por dos servidores DNS. Es muy
conveniente que estos servidores estén en máquinas diferentes, incluso en redes diferentes, aunque no
es necesario.

El direccionamiento IP se organizó en islas denominadas Sistemas Autónomos (un Sistema


Autónomo es un conjunto independiente de redes, con un direccionamiento y política de
encaminamiento comunes, que se conecta a Internet por medio de otros dos Sistemas Autónomos
como mínimo). Toda la Internet está formada por un mosaico de Sistemas Autónomos, unidos por
encaminadores para las máquinas (routers), siendo los servidores DNS los encaminadores para los
humanos hacia los servicios (web, ftp, correo...) de cada isla.
1. Dominios genéricos originales
Los dominios genéricos o dominios de primer nivel fueron asignados por el IAB (Internet Activity
Board) para clasificar las máquinas conectadas a Internet en función del organismo que las soportaba.

Los siete dominios genéricos creados fueron los siguientes:

com Entidades comerciales

edu Universidades y centros equivalentes homologados

gov Instituciones gubernamentales civiles

mil Instituciones gubernamentales militares

net Organizaciones que conforman recursos de La Red

org Organizaciones sin ánimo de lucro

int Organizaciones establecidas por tratados internacionales y bases de datos internacionales que
sustenten funciones de Internet

Hay también un dominio genérico arpa, que se utilizó durante la transición de las tablas de hosts de
Arpanet al DNS. Todos los ordenadores de Arpanet se encontraban bajo.arpa y así eran fáciles de
localizar. En la actualidad, los ordenadores que estaban bajo arpa se han repartido en otros dominios

26 / 55
y.arpa sólo se utiliza en la resolución inversa de nombres (averiguar el nombre por dominios a partir
de la dirección IP). Al principio, la OTAN también tuvo su dominio, nato, pero se integró dentro del
dominio int.

Como se ha visto, Arpanet fue un proyecto de investigación estadounidense para el Departamento de


Defensa de Estados Unidos, razón por la que no se contempló la posibilidad de que pudiera llegar a
ser una red de ámbito mundial. En el origen, la división de dominios parecía adecuada. Pero cuando
se internacionalizó la red, los gestores del espacio de nombres se vieron en un serio compromiso,
decidiendo adoptar la resolución ISO 3166 de la Oficina de Estandarización Internacional, ya
existente. Esta norma establece una lista oficial de abreviaturas de dos letras para cada país del
mundo; abreviaturas que conforman los dominios territoriales de primer nivel de los países. Algunos
de estos dominios territoriales son: es España; fr Francia; us Estados Unidos; etc.
2. Asignación de nombres bajo los dominios genéricos originales
La máxima autoridad en la asignación de nombres de dominios y direcciones IP ha sido la IANA
(Internet Assigned Number Authority) que después ha dado el relevo a la ICANN (Internet
Corporation for Assigned Names and Numbers) con el fin de coordinar los nuevos protocolos y la
gestión de los servidores raíz de Internet. En su seno se ha creado un grupo llamado DNSO (Domain
Names Supporting Organization) que hace recomendaciones en la gestión del sistema de dominios,
en el aumento de éstos y en la forma de resolver las disputas que se produzcan. También se ha creado
el grupo PSO (Protocol Supporting Organization) para el establecimiento de estándares.

La empresa Network Solutions, Inc. que ha ostentado la exclusividad en la asignación de nombres


bajo los dominios com, net y org gracias a un contrato con el gobierno de los Estados Unidos, ha
dejado de hacerlo al haber entrado el plan piloto de pruebas del nuevo sistema compartido de
registro. Empresas como Register.com, American Online y France Telecom fueron de las primeras
en incorporarse al nuevo sistema.

Actualmente el CORE (Internet Council of Registrars) ofrece licencias a diversas empresas para que
actúen en libre competencia. Las empresas registradoras no ostentarán la exclusividad de ningún
dominio genérico ni de ninguna zona geográfica. Es decir, cualquiera puede solicitar un nombre de
dominio a cualquier registrador del mundo, evitando así acuerdos entre registradores que impongan
condiciones abusivas a los clientes.
VII. Seguridad
Las características del proyecto inicial de Internet implicaban una cierta dificultad para que
accedieran a ella usuarios no autorizados. Internet iba a ser una red esencialmente académica y
existía un cierto grado de confianza en que todo el mundo se iba a comportar de un modo
razonablemente ético. Sin embargo, su evolución posterior la ha convertido en un magma
ingobernable donde el encaminamiento se hace pasando de unos ordenadores a otros y de unas redes
a otras, siendo muy difícil controlar todas las puertas. La aparición del virus gusano (worm)
constituyó el primer aviso, bloqueando toda la red. Posteriormente, la irrupción del comercio
electrónico ha terminado por constatar las deficiencias existentes y la necesidad de dotar de nuevas
funcionalidades a un sistema que debe ser fundamentalmente seguro para responder a las
expectativas en él depositadas.

Cuando una red privada se conecta a Internet es posible que no toda la información en ella contenida
quiera ponerse a disposición de todo el mundo. Y seguramente se querrá que la información
disponible no sea manipulada ni destruida. El problema es que una vez en Internet cualquier usuario
dispone de un acceso mínimo a través del cual puede intentar realizar operaciones indebidas. Y
desgraciadamente hay muchos usuarios dispuestos a romper la seguridad de los sistemas. Muchos de
ellos lo intentan simplemente por deporte pero otros lo hacen con la intención de obtener algún tipo
de ventaja. Entre los más conocidos destacan los hackers que normalmente se limitan a dejar una
señal de su hazaña en los sistemas invadidos y los más dañinos crackers que destrozan todo lo que
pueden. Resulta curioso que la idea de Internet naciera de un proyecto de ARPA relacionado con el
Departamento de Defensa de EEUU y ahora ese mismo organismo sea uno de los blancos favoritos
de hackers y crackers.

1. Niveles de seguridad

27 / 55
Ante todo, debe quedar clara la siguiente definición: Un sistema completamente seguro es aquel que
se encuentra sin conexión a la red, apagado, desenchufado y metido dentro de una caja fuerte
inexpugnable cuya combinación sólo conoce una persona que se murió el año pasado.

En el Libro Naranja del Departamento de Defensa (DoD) de EE.UU. se describen los requisitos de
seguridad que debe cumplir un sistema, proporcionando una serie de criterios para evaluar el nivel en
el que se encuentran. Esta especificación, que data de 1985 se ha tomado como estándar.

Veamos a continuación la definición de estos niveles en orden de menor a mayor seguridad:

Nivel D1 - Protección mínima

No hay ningún tipo de seguridad. No se identifica a la persona que está al teclado, no hay control de
acceso a la información del disco ni a la propia máquina.

Nivel C1 - Protección de Seguridad Discrecional

Seguridad típica de un sistema Unix. Hay cierto control de acceso a la máquina (suele estar en la Sala
de Ordenadores) y los usuarios se deben identificar a sí mismos por medio de un usuario y una
contraseña, combinación con la que se definen los permisos de acceso de dicho usuario a ficheros y
directorios. Sin embargo, el superusuario (root) tiene poderes plenipotenciarios y puede comprometer
la seguridad del sistema sin dejar rastro de su actuación. Además, varias de las tareas de
administración de un sistema sólo pueden ser efectuadas por el superusuario, con lo que en el caso de
que más de una persona conozca la contraseña de superusuario (es lo más habitual), no se puede
establecer quién hizo algo en particular.

Nivel C2 - Protección de Acceso Controlado

Además de las restricciones del Nivel C1, el nivel C2 posibilita que muchas tareas administrativas
puedan ser llevadas a cabo sin la intervención del superusuario. Los accesos a ficheros se controlan
por medio de permisos y con autorizaciones por niveles de seguridad. Se mantiene una auditoría, es
decir, se escriben en un fichero de registro todos y cada uno de los eventos que ocurran en el sistema.
Y para que no haya equívocos respecto a quién ha hecho algo, dicha auditoría exige autentificaciones
adicionales de cada usuario.

Nivel B1 - Protección de Seguridad Clasificada

Se establece seguridad multinivel para los usuarios (además de las restricciones del Nivel C2). Esto
significa, por ejemplo, que el propietario de un fichero no puede dar, aunque quiera, permisos de
acceso a alguien de un nivel inferior.

Nivel B2 - Protección Estructurada

Cada objeto (discos, cintas, terminales) debe ser clasificado para determinar quién puede acceder a él
y qué cosas puede hacer.

Nivel B3 - Dominios de Seguridad

Refuerza los dominios de seguridad con instalaciones de hardware. Es decir, circuitos que evitan
accesos no autorizados desde dominios diferentes al que protegen. Este nivel precisa que el terminal
del usuario esté conectado a través de un camino seguro (cables blindados que no puedan ser
interferidos, ni pinchados, ni cambiados de sitio, ni conectados a otro terminal).

Nivel A1 - Diseño Verificado

Incluye un riguroso proceso de diseño, control y verificación. Se deben especificar en cada nivel

28 / 55
todos los componentes de niveles inferiores, el diseño debe ser verificable matemáticamente y se
debe realizar un análisis para evitar cualquier tipo de manipulación de máquinas y programas.

2. Primera línea de defensa

La primera y más elemental defensa frente al intrusismo es tener una contraseña diferente del
identificador de usuario, a ser posible con letras mayúsculas y minúsculas entremezcladas con
números y signos de puntuación (puntos, comas y subrayados) y que no esté en ningún diccionario.
En las redes corporativas, las mayoría de los ataques suelen proceder de usuarios de la propia red,
que son los que pueden obtener algún beneficio por su acción, pero en las redes de empresas
importantes o de entidades gubernamentales cobran especial relevancia los ataques desde el exterior,
aunque sólo sea por la cantidad de posibles intrusos. Para evitar este tipo de accesos no deseados se
instalan los cortafuegos o firewalls.

Básicamente, consisten en un equipo (con esa única función) que se pone entre la red privada e
Internet para que todo el tráfico pase por él. De esta manera puede controlar el paso de tramas
(paquetes con instrucciones o datos) en ambos sentidos para detectar y restringir el paso a las no
autorizadas. La correcta configuración, el control de las puertas falsas (accesos que no pasan por el
cortafuegos), la diligencia del administrador del sistema y la discreción del personal relacionado son
tan importantes como el propio cortafuegos.
3. Defensa de la información estática
Las amenazas pueden ser sufridas por el hardware, por el software o por los datos. Los requisitos de
protección son los siguientes:

Confidencialidad.- Exige que la información de un sistema de ordenadores sea accesible solamente a


grupos autorizados. El simple revelado de la existencia de un objeto a usuarios no autorizados afecta
a su confidencialidad.

Integridad.- Exige que los elementos de un sistema de ordenadores puedan ser modificados sólo por
grupos autorizados.

Disponibilidad.- Exige que los elementos de un sistema de ordenadores estén disponibles de forma
continua a grupos autorizados.

Los ataques con virus tipo gusano o el bombardeo de correo (mail bombing) tienen como objetivo
inutilizar los equipos sobresaturándolos de trabajo. Este tipo de ataque no se puede prever, aunque
tampoco suele ser duradero ni provocar pérdidas importantes (salvo las de operatividad). Sin
embargo, los hackers y crackers tienen una metodología de ataque potencialmente mucho más
peligrosa, puesto que entran dentro de la máquina y, si consiguen el acceso a una cuenta de usuario
con muchos privilegios, hacen lo que quieren en toda la red local a la que pertenece dicha máquina, e
incluso fuera de ella.
4. Defensa de la información en movimiento
Además de los ataques a la información almacenada existen amenazas que puede sufrir la
información que se está transmitiendo de un lugar a otro. En este caso el peligro viene en primer
lugar de intrusos llamados sniffers (husmeadores).

Hay cuatro categorías de amenazas a la integridad de la información durante la transmisión de un


sitio a otro:

Interrupción (amenaza a la disponibilidad).- Destrucción de un mensaje o inutilización de un


elemento de la red

Intercepción (amenaza a la confidencialidad).- Acceso y lectura de un mensaje

Modificación (amenaza a la integridad).- Acceso y falsificación de un mensaje

Invención (amenaza a la integridad).- Generación y envío de un mensaje falso

29 / 55
La defensa contra la interrupción depende de las entidades que transportan los mensajes a través de
Internet, pero para las otras tres amenazas (defensa de la privacidad) los usuarios pueden tener una
participación activa, cifrando la información y/o firmando el mensaje. De este modo se consigue
garantizar cuatro aspectos fundamentales del mensaje:

Integridad No puede ser alterado sin ser detectado

Confidencialidad Sólo el destinatario puede leerlo

Autentificación Sólo el remitente pudo escribirlo

No repudio Sólo el remitente pudo enviarlo

Para proteger la información en movimiento se utilizan el cifrado y la firma electrónica.

El cifrado o encriptación es la aplicación práctica de la criptografía. Consiste, básicamente, en la


deformación de los datos con la aplicación de un método matemático, pudiendo recuperarlos en su
forma original mediante el descifrado. Actualmente se tiende a utilizar los cifrados de clave pública
que utilizan una doble clave asimétrica: una clave para cifrar y otra distinta para descifrar. Las dos
claves tienen una relación matemática basada en la factorización en números primos y su fuerza
reside en la dificultad de hallar dos números primos cuyo producto dé un tercero, preestablecido,
muy grande. Cada usuario tiene dos claves: una pública, que da a conocer, y otra privada, que sólo él
conoce.

Con el cifrado se oculta totalmente el contenido del mensaje y con la firma electrónica se asegura la
identidad del remitente y la no modificación del mensaje. Para generar la firma se utilizan partes
aleatorias del texto junto con las identificaciones del remitente y del destinatario. La firma no impide
que se modifique el mensaje, pero avisa al destinatario de ello. Con lo visto, tenemos garantizado que
el mensaje es bueno y que ha sido enviado desde donde debe pero, para estar seguros de que la clave
ha sido utilizada realmente por la persona o entidad que dice poseerla, necesitamos que una tercera
parte, en la que confíen las otras dos, certifique que cada uno es quien dice ser. Esta tercera parte se
llama Autoridad de Certificación. Cualquier entidad puede ser una Autoridad de Certificación, pero
es necesario que sea reconocida por otras homólogas para que sus clientes puedan intercambiar
correo seguro con ellas. El modo en que esta Autoridad garantiza la identidad de su cliente es
incorporando su propia firma al mensaje.

5. Comercio electrónico

El comercio electrónico ocupa un espacio en el ámbito de Internet donde la seguridad es


imprescindible para su normal funcionamiento. Hasta hace muy poco existían dos estándares de
seguridad de pago electrónico: el STT (Secure Transaction Technology) de VISA y el SEPP (Secure
Electronic Payment Protocol) de Mastercard. Sin embargo, todavía existen reticencias por parte de
los clientes, propiciadas por la facilidad con la que se pueden obtener números de tarjetas de crédito,
falsificarlos, generarlos y no poder garantizar ni la identidad del comprador ni que el vendedor no
vaya a hacer un uso indebido del número de tarjeta del comprador.

Con vistas al imponente mercado potencial de Internet en el futuro, estas dos empresas se han unido
para desarrollar el SET (Secure Electronic Transaction) con el apoyo y asistencia de GTE, IBM,
Verisign, Netscape, SAIC, Terisa y Microsoft.

El SET es un protocolo de pago electrónico extremadamente complejo que garantiza la seguridad de


una transacción de pago electrónica entre las partes implicadas en todas sus fases, empleando dos
tipos de cifrado. El de clave simétrica, con el algoritmo DES, se emplea para cifrar los datos
(asegurando su confidencialidad). Y el de clave asimétrica, con el algoritmo RSA, que se usa por
partida doble: Por un lado, para garantizar la integridad de los datos (cifra la clave simétrica con la
que se encriptaron los datos y garantiza que estos no han sido modificados) y la autenticidad de los

30 / 55
participantes. Por otro, para garantizar el secreto del cliente. Con este sistema se firman dos
mensajes: uno para el banco y otro para el vendedor.

La autenticidad del cliente está avalada por la entidad financiera que emitió la tarjeta que usa para
transacciones electrónicas (generalmente un banco). La del comerciante por la entidad financiera con
la que firma contratos de adhesión para la aceptación de las diferentes tarjetas de crédito emitidas por
dicha entidad (otro banco) en nombre del propietario de la marca, como VISA o Mastercard (esto es
lo mismo que las pegatinas que se ven a la entrada de muchos comercios, con las que se nos indican
las tarjetas que aceptan). Por último, las entidades financieras que avalan a clientes y comerciantes
(los bancos) deben estar avaladas a su vez por Asociaciones de Emisores (las propias VISA o
Mastercard) o por alguna Autoridad de Certificación que las agrupe y las autentifique.
VIII. La internet del siglo XXI
En 1958 se fundó ARPA; en 1969 se estableció la primera red ARPANET; en 1974 se publicó el
protocolo de comunicaciones TCP y se utilizó por vez primera el término Internet; en 1978 el
protocolo TCP se convirtió en TCP/IP; en 1983 se produjo el cambio global de TCP a TCP/IP y se
consolidó Internet tal y como hoy la conocemos; en 1991 apareció la WWW (World Wide Web); en
1995 el FNC definió formalmente Internet, el número de ordenadores conectados sobrepasó los 4
millones, y Compuserve, America OnLine y Prodigy ofrecieron acceso comercial a la red; en 1999 se
puso en marcha la Internet 2. Los últimos años del siglo pasado estuvieron marcados por una carrera
desenfrenada hacia la implantación masiva de Internet. El número de ordenadores conectados
aumentaba en una progresión exponencial, continuamente surgían nuevas empresas que ofrecían todo
tipo de productos y servicios, y el ciudadano acabó viendo la Red como algo cotidiano. La WWW se
convirtió en la aplicación principal y una gran parte de instituciones, organismos y empresas de todo
tipo pusieron su información en una página web. Si no estás en la Red no existes, decían los
enunciados más agresivos del marketing.

En este contexto, Internet se extendió de forma imparable en la sociedad occidental. En los países
menos desarrollados también se inició un despliegue importante de las nuevas tecnologías, y con ello
la Internet acabó imponiéndose como un medio universal. Este término tan técnico ya no se limitaba
a un concepto relacionado con la informática y las telecomunicaciones, había sobrepasado todas las
barreras y comenzaba a considerarse como una revolución. Quizá los aspectos que más hayan
ayudado a calificarlo de esa manera hayan sido los relacionados con el carácter global de su
estructura, pero también han sido relevantes la capacidad integradora de sus servicios y la facilidad
de su manejo, que ha permitido su utilización a una gran parte de la población.

En estas circunstancias se crearon grandes expectativas en todo lo relacionado con la Red. Se


hicieron cálculos que pronosticaban un desarrollo tecnológico aun más rápido que el ya existente en
los años anteriores (que ya fue rapidísimo), se hicieron proyecciones cuyos resultados indicaban que
la Red entraría en los hogares hasta convertirse en un electrodoméstico más, se anunció el fin de los
problemas con el ancho de banda, se aseguró que estaría sobre los pupitres de los colegios, en los
bancos de los talleres, en el automóvil, en el vestido, en las prótesis médicas, etc. De forma destacada
se crearon expectativas en el comercio electrónico y en las redes de telecomunicaciones. Y todo ello
generó un movimiento frenético en el que todo el mundo quiso coger un tren que iba más cargado de
opciones de futuro que de realidades. El éxito comercial de muchas iniciativas desencadenó el
fenómeno de la llamada nueva economía que también supuso una cierta revolución, influyendo en los
ambientes financieros con apuestas muy arriesgadas.

Es cierto que una gran parte de estas perspectivas se vienen cumpliendo, aunque no con la velocidad
prevista, y los servicios que ofrece la Red se están extendiendo en la sociedad como una mancha de
aceite. Sin embargo, el camino seguido en este principio de siglo no ha continuado exactamente la
trayectoria dibujada en los últimos años del siglo pasado. Muchas de las expectativas de negocio no
se han cumplido y el pinchazo de la burbuja económica ha terminado por traer la desconfianza a un
sector que se ha desinflado en buena medida y con ello ha ralentizado un desarrollo que se suponía
mucho más activo. Han aparecido obstáculos que ya no son los problemas técnicos que surgieron en
los años de la explosión, ya referidos. Asuntos como la desconfianza en el comercio electrónico, la
caída de la publicidad en las páginas web, los ataques continuos de los hackers (obligando con ello a
grandes desembolsos en seguridad), la dificultad en encontrar la información buscada en una maraña

31 / 55
inextricable, etc., han contribuido a que los agudos visionarios del cambio sociológico impuesto por
la técnica se hayan equivocado una vez más (¿desde cuándo estamos escuchando lo de la oficina sin
papeles?).

Con estos precedentes, si queremos hablar de la Internet del siglo XXI, evidentemente debemos
contemplar la evolución tecnológica pero, además, habrá que considerar otros asuntos que
trascienden la tecnología, tales como la sociología, la política, la economía, el comercio, etc. La Red,
sin dejar de ser cosa de técnicos, debe ser también cosa de humanistas. Han quedado muy atrás los
tiempos en los que los técnicos de la llamada comunidad Internet formaban un ente solidario e
ilusionado con el desarrollo de una idea apasionante. Actualmente, Internet es un concepto mucho
más complejo del que recoge la definición oficial del FNC (Federal Networking Council) de los
Estados Unidos, ya reseñada al principio de este capítulo.

Si tenemos en cuenta la evolución técnica podemos deducir que las prestaciones siguen creciendo a
buen ritmo, que no dejan de aparecer nuevos productos y que muchos de ellos se están
perfeccionando continuamente. Visto desde el ángulo sociológico se puede decir que la Internet de
este siglo acabará infiltrándose en todos los poros de la sociedad, en una revolución tan silenciosa
como implacable que cambiará de manera trascendental una gran cantidad de usos y costumbres
desde hace mucho tiempo establecidos.

1. El plano técnico

Empezando por el plano técnico hablaremos, por su especial relevancia, de ancho de banda, portales,
buscadores, seguridad, correo electrónico, protocolos de comunicaciones (IPv6), nombres de
dominio (DNS), multimedia e Internet2.

A. Ancho de banda

El crecimiento espectacular de usuarios que sufrió Internet en el momento de su explosión dio origen
a un grave problema: la incapacidad de las líneas telefónicas para soportar tanto tráfico. Este hecho
se vio agravado por el creciente volumen de los contenidos con la incorporación de gráficos e
imágenes, mucho más extensos en bytes que el texto simple que viajaba inicialmente. La respuesta a
este problema ha sido distinta en los diferentes países, dependiendo de la capacidad de mejora de las
infraestructuras y de la apuesta tecnológica realizada en cada uno de ellos. No obstante, en estos
momentos ya existe una oferta comercial considerable para disponer de un ancho de banda suficiente
(cable, RDSI, ADSL...) y la consolidación de los diferentes sistemas que actualmente están en
desarrollo (GPRS, UMTS, etc.) acabarán por proporcionar una red de infopistas capaz de minimizar
la congestión del tráfico de datos, aunque con las comunicaciones pasará como con la memoria de los
ordenadores: da igual lo que haya, siempre acaban por llenarse. Conviene destacar aquí la importante
oferta de servicios ADSL en nuestro país, generada por una dura competencia comercial. Y también
la incipiente aplicación de la tecnología UMTS (Universidad Mobile Telecommunications System)
que aportará enormes posibilidades a la conexión desde cualquier lugar a través de teléfonos y
tarjetas de tercera generación. El problema más difícil de solucionar será cómo llegan estas infopistas
a todos los rincones, geográficos y sociales, teniendo en cuenta que actualmente, en muchos casos, ni
siquiera llegan los caminos más elementales.

A todo esto hay que añadir que las autopistas actuales son de cobre y fibra óptica, pero la presión
comercial o la investigación aeroespacial pueden hacer que se desarrolle el ancho de banda que
soportan los satélites (actualmente muy bajo para comunicaciones multimedia masivas), permitiendo
crear una red paralela por el cielo para formar un conjunto de atajos entre infopistas terrestres o una
serie de trampolines hacia las redes que se podrán implantar en aviones o más allá de la atmósfera
(ya se han realizado pruebas de correo electrónico desde una estación espacial).

Por otra parte, ahora que la plena conectividad empieza a ser habitual, la mirada de los proveedores
de Internet se está volviendo hacia la calidad del servicio. La filosofía del 'mejor esfuerzo posible'
actualmente seguida en casi todas las comunicaciones a través de Internet ya no es suficiente, al igual
que ya no es suficiente la corrección del contenido de un documento, ahora también es necesaria la

32 / 55
calidad en la presentación. De hecho la utilización de la red para muchas aplicaciones se está viendo
coartada no por el ancho de banda sino por la calidad del servicio. El protocolo MPLS (MultiProtocol
Label Switching) permite garantizar la calidad del servicio tanto en ancho de banda como en tiempo
de respuesta de la red, pasando por las comunicaciones cifradas entre extremos (extranet sobre Red
Privada Virtual).

B. Portales

Algunos de los primitivos buscadores se transformaron en portales añadiendo una gran cantidad de
servicios a la búsqueda de información que ofrecían inicialmente (p.e. Yahoo!). Posteriormente, el
término portal se ha utilizado para definir una página web que permite el acceso a un conjunto de
información variada desde un único punto de entrada. Los portales se han convertido en grandes
índices donde aparecen los diferentes capítulos suministradores de datos y referencias. Aparte de
agrupar asuntos dispersos han contribuido a centrar las búsquedas y han proporcionado un cierto
orden en la maraña de los contenidos. Existen fórmulas para proporcionar contenidos especializados
en función de unas preferencias marcadas por el usuario. El portal puede convertirse en la forma
básica y estándar para acceder a la información estructurada en Internet. De hecho, las páginas web
con una cierta extensión se vienen llamando portales. La World Wide Web se consolidará como el
barco para navegar por el inmenso océano de la información y el lenguaje XML (Extensible Markup
Language) tendrá cada vez más protagonismo, mejorando algunas de las funcionalidades aportadas
hasta ahora por el HTML.

Con toda seguridad el perfeccionamiento y especialización de los portales les consolidarán como uno
de los servicios fundamentales de la Red, aunque su forma actual puede sufrir variaciones, tanto en la
forma y en el diseño como en los medios e instrumentos de recepción (televisión, teléfono móvil,
etc.).
C. Buscadores
Uno de los problemas de los portales es la gran cantidad de información no deseada que aparece
alrededor de los mismos. Las ventanas adicionales (pop-up) cargadas de propaganda en banners
(gráficos animados) que surgen súbitamente sin el consentimiento del usuario atosigan al internauta
que intenta zafarse de la persecución sin mucho éxito. Navegadores como Mozilla y buscadores
como Google han aportado soluciones al respecto. Quizá sea la razón del auge de buscadores como el
propio Google o WiseNut, que ofrecen la información de forma simple y espartana con el mínimo de
accesorios distorsionantes. La propia Microsoft ha tomado conciencia de este problema, en la última
versión de su sistema operativo Windox XP (Service Pact 2). No obstante, es un camino al que le
queda un largo recorrido. La búsqueda en Internet no está bien resuelta. Los conceptos de ruido, con
una gran cantidad de datos difícilmente acotables, y de silencio con una clara falta de eficacia en la
búsqueda, siguen presentes en la actualidad.

Por otra parte existe una gran falta de rigor en muchos de los documentos que aparecen en la Red,
siendo muy difícil determinar la fiabilidad de los mismos. Cualquiera puede pontificar sobre un tema,
ingeniárselas para que aparezca en lugar preeminente en los buscadores y engañar a los no expertos
en la materia (p.e. un artículo sobre Ghandi que puede parecer magnífico a los ojos de un estudiante
y estar plagado de inexactitudes). Incluso el encaminamiento descarado hacia determinadas
proposiciones (p.e. la dirección whitehouse.com corresponde a un sitio de contenido pornográfico, la
de la Casa Blanca es whitehouse.gov)

No obstante, los avances en este campo no dejan de producirse. Ahora los navegadores disponen de
un botón 'Ir a' que muestra sitios relacionados de alguna manera con la página que se está
visualizando (la relación está definida en la propia página). También disponen del uso de palabras
clave: se escriben algunas palabras que identifiquen el nombre de algo o alguien que tenga una
página web (no su contenido) y, accediendo a una base de datos de 'palabras clave' (keywords) se
muestra la página web que mejor se ajusta a la descripción dada.

Otra novedad consiste en incorporar a los buscadores la posibilidad de examinar el contenido


semántico. Este contenido no está necesariamente orientado a la visualización con un navegador,
también se puede emplear para la automatización, integración y reutilización de datos entre

33 / 55
diferentes máquinas. Los significados estarían proporcionados por metadatos. Consecuencias de este
enfoque podrían ser: avances significativos en la calidad de las traducciones y en la identificación de
palabras y contenidos en el reconocimiento de voz (lo cual llevaría a la interacción persona-máquina
mediante la voz) y mejora de la clasificación automática e interrelación de la información contenida
en bases de datos de diferentes países (por la facilidad de poder traducir los significados).

En cualquier caso, la investigación que se está llevando a cabo en este campo empieza a proporcionar
la forma de conseguir una búsqueda eficaz y éste será uno de los retos del futuro.
D. Seguridad
De nada sirve disponer de los mejores servicios si estos no son seguros. La necesidad de una
seguridad en la Red no se planteó hasta bien avanzado su desarrollo. En los primeros momentos no
se concebía que alguien pudiera atacar a una herramienta considerada como ejemplo de colaboración
y solidaridad. Los primeros hackers eran programadores que, como algunos estudiantes del MIT
(Massachussets Institute of Technology), accedían sin permiso a los grandes ordenadores,
sencillamente para aprovechar su potencia de cálculo y con un afán más curioso que dañino. Sin
embargo, con las primeras aplicaciones comerciales se detectó rápidamente que la potencia de
Internet en manos deshonestas podía resultar muy peligrosa.

Actualmente, la seguridad es uno de los capítulos más costosos de los sistemas informáticos de
cualquier organización y prescindir de ella supone un problema seguro, y la Red es un vehículo ideal
para los asaltantes a la integridad de cualquier sistema. No sólo está en peligro la información
estática almacenada en los discos de los sistemas, protegida por cortafuegos, etc. La información
dinámica, la que viaja, puede ser muy vulnerable si no se toman las medidas necesarias (cifrado,
firma electrónica, etc.).

El problema fundamental es que los hackers, crackers y demás atacantes han pasado de ser caballeros
solitarios a integrarse en ejércitos perfectamente organizados capaces de concebir toda clase de
gérmenes dañinos para la salud de la información, con una técnica que parece apuntar más a un
trabajo bien remunerado que a la ocurrencia de un internauta joven, travieso e inquieto (perfil
tradicional de un creador de virus). Las formas de los ataques son variadas aunque predominan las
que utilizan el correo electrónico, donde el spam (envío masivo de correo no solicitado) está
adquiriendo un desgraciado protagonismo. O las irrupciones del tipo buffer overflow que permiten
ejecutar programas de ordenador de un usuario sin que éste pueda hacer nada por evitarlo. Los
últimos virus detectados (blaster, sasser, etc.) ya nos simples ficheros sino tramas TCP mucho más
difíciles de combatir. Los programas antivirus tienen verdaderas dificultades para estar actualizados,
dada la frecuencia con la que aparecen nuevos elementos cada vez más poderosos y más capaces de
llevar a cabo contagios masivos. El esfuerzo investigador incluye métodos heurísticos para hacer
frente al spam, verdadero azote del correo electrónico. Sin embargo, resulta difícil aumentar la
seguridad manteniendo todas las funcionalidades.

El uso generalizado de la firma digital con su correspondiente certificado será empleado por todos
aquellos proveedores de servicios personales por Internet (bancos, administración...) para asegurarse
de quién accede a sus servicios, no permitiendo el acceso a los que no deseen identificarse. Esto
cortará de raíz los ataques basados en la posibilidad de ocultarse tras una dirección IP que no le
pertenece (spoofing).

Sin duda alguna, la seguridad es uno de los temas clave en la Internet del siglo XXI, por ello se están
haciendo importantes esfuerzos técnicos, sin olvidar que en una gran parte de los casos los problemas
más serios están producidos por el propio personal de la organización atacada.

Al margen de la técnica también aquí se mantiene el eterno debate entre seguridad y libertad. La
comunidad internauta ha sido siempre muy sensible ante cualquier regulación, del tipo que sea, de
Internet. Asuntos como los intentos de Estados Unidos con su Communications Decency Act de
1996, que acabó derogada, o la Combating Terrorism Act de 2001 (CTA) que no llegó a ser
aprobada, pero que incluía numerosos recortes a la privacidad de los ciudadanos, debido a los
atentados contra las Torres Gemelas; la sospecha de vigilancia por parte de los servicios secretos de
varios países bajo el nombre de Echelon o la Ley 34/2002, de 11 de julio, de Servicios de la Sociedad

34 / 55
de la Información (LSSICE) en nuestro país, pueden servir de ejemplo para expresar las dificultades
que entraña cualquier tipo de decisión en este sentido.

E. Correo electrónico

El correo electrónico se ha consolidado como uno de los servicios más útiles y utilizados de Internet.
La fórmula del llamado correo web que permite acceder a un buzón de correo personal desde
cualquier parte del mundo y desde cualquier ordenador disponible ha añadido versatilidad a una
herramienta que ya estaba considerada como una de las más atractivas. Su uso es tan generalizado
que las empresas empiezan a poner cortapisas a su utilización para asuntos particulares de los
empleados. Quizá su mayor problema sea el de la seguridad, no tanto por la falta de recursos técnicos
como por el uso no precavido del usuario, que no sólo puede poner en peligro su propio ordenador
sino todo el sistema de una organización. En ocasiones, el correo electrónico ha sido el medio
transmisor de un virus que ha acabado afectando gravemente a un sistema informático entero
provocando serios problemas. El cifrado de los mensajes y la firma electrónica, que ahora se utilizan
en transacciones económicas y administrativas, se utilizarán cada vez más, protegiendo y certificando
la autoría del remitente.

Podrá venir asociado como cliente de otras aplicaciones que le complementen, tales como los
directorios estándares universales basados en LDAP (Lightweight Directory Access Protocol) que
permiten la obtención de las direcciones de correo corporativas de instituciones y empresas.

Aunque la forma tradicional del correo electrónico está muy arraigada están surgiendo fórmulas
alternativas, como la llamada mensajería instantánea, que permite enviar y recibir mensajes a un
grupo de usuarios definido y regulado por ellos mismos a través de un portal de propósito general. La
detección de presencia, comunidades de usuarios, etc., son conceptos desarrollados en relación con
esta modalidad.

Lo que parece claro es que, en cualquiera de sus formas, el correo electrónico seguirá siendo una de
las herramientas esenciales de Internet.
F. Protocolos de comunicaciones (IPv6)
Se ha podido ver en páginas anteriores la importancia que han tenido (no podía ser de otra manera)
los protocolos de comunicaciones en Internet. En la gran disputa de protocolos, entre el académico
modelo OSI y el pragmático TCP/IP, ganó el segundo con toda claridad. Sin embargo hay que
reconocer que al modelo vencedor le faltaban una serie de virtudes necesarias para abordar el futuro
de Internet con una cierta solvencia. Por ello se continuó su desarrollo hasta concretarse en las
especificaciones de lo que se llamó IP versión 6 o más comúnmente IPv6.

Este modelo incorpora una serie de mejoras fundamentales (prestaciones, solidez, etc.) pero sobre
todo está preparado para soportar el crecimiento que pueda sufrir Internet. Sin embargo, su
implantación no está siendo tan rápida como se pensaba. El viejo TCP/IP está aguantando el paso del
tiempo demostrando que constituye una plataforma más eficaz de lo que sus detractores habían
anunciado ya que las nuevas soluciones de comunicaciones siguen apoyándose en él. En cualquier
caso parece claro que el IPv6 establece una indudable opción de futuro y la apuesta por este sistema
hará que se consolide y se estandarice la fórmula IP (Internet Protocol).

Por otra parte, la llamada Internet móvil está ocupando una buena parte del desarrollo tecnológico.
Términos como WAP (Wireless Application Protocol), GPRS (General Packet Radio Service),
UMTS (Universal Mobile Telecommunications System), etc., referidos a las comunicaciones y otros
como teléfono móvil, PDA (Personal Digital Assistant), etc., en relación con el equipo que permitirá
la conexión a Internet desde cualquier sitio, están en estos momentos en todo su apogeo, como lo
demuestra la efervescencia entre los desarrolladores de killerapplications (aplicaciones desarrolladas
muy rápidamente para llenar un vacío -de mercado y, a veces, también legal- y quedarse sin
competencia gracias a haber sido los primeros en aparecer).

Por último, hay que señalar las tecnologías basadas en radio, tales como LMDS (Local Multipoint
Distribution Service), y con ellas, el auge de las redes ciudadanas basadas en redes inalámbricas (con

35 / 55
alcance de hasta 300 metros) que siguen los estándares IEEE 802.11. En este último caso, al utilizar
partes del espectro de radio que están exentas de regulación, han permitido la creación (sobre todo en
áreas metropolitanas) de redes formadas a partir de la unión de múltiples mini-redes basadas en esta
tecnología y cuya principal fuerza está en la ausencia de trabas burocráticas para su despliegue y en
los esfuerzos tecnológicos de las propias comunidades que las sustentan para aumentar su cobertura.

G. Nombres de dominio (DNS)

El sistema de nombres por dominios, universalmente conocido por sus siglas en inglés DNS (Domain
Name System), ha venido siendo uno de los más controvertidos objetos de debate en el entorno de
Internet. Nadie discute que cada elemento conectado a la Red debe tener un identificador único, una
especie de documento nacional de identidad y tampoco se han vertido muchas críticas sobre la
fórmula elegida (nombre_local. subdominio. dominio.dominio_genérico). El problema viene a la
hora de decidir quién y cómo se asignan los diferentes nombres. Y como en otros aspectos de la Red,
las dificultades surgen con la mundialización de un proyecto que nació en los Estados Unidos en un
marco determinado y sujeto a un modus operandi particular. En el apartado correspondiente a este
asunto, visto anteriormente, se describe cómo los dominios genéricos originales se han revelado
insuficientes para mantener un sistema que ha crecido de forma exponencial.

Actualmente se está llevando a cabo la ampliación de dominios genéricos de primer nivel, aunque
más lentamente de lo previsto. Hay dos tipos de dominios genéricos de primer nivel. Corresponden al
primer tipo: .biz, .info, .name y .pro, que son dominios previsiblemente extensos (muchos posibles
propietarios) sin patrocinio (entiéndase esto como que se rige por políticas de la comunidad global
Internet directamente a través de la gestión del ICANN), por lo que se deben comprar a alguna
entidad registradora. Por otro lado: .aero, .coop, y .museum son dominios especializados y
relativamente restringidos, cuyas políticas se basan en las de su propia comunidad. En este caso, el
patrocinador se encarga de gestionar dichas políticas, decidiendo si lo hace de forma altruista u
obtiene los recursos de su gremio.

Por otra parte, se encuentran las llamadas Keywords (ya referidas en el apartado de los buscadores),
que son direcciones que no necesitan www, barras ni puntos de terminación. Las Keywords permiten
cualquier letra, símbolos, espacios en blanco y signos de puntuación. Este sistema actúa como
complemento de los nombres de dominio tradicionales, puesto que para adquirir una es necesario
poseer previamente un dominio. Funcionan en todos los idiomas y permiten incorporar caracteres
especiales tales como ñ, ç, @, signos de puntuación, espacios, etc.

Aunque se va avanzando en acuerdos y compromisos, la falta de una normativa mundial para la Red
hará que el control de los nombres de dominio siga siendo un asunto controvertido que incluso puede
sobrepasar el ámbito tecnológico como lo demuestra el debate surgido con la propuesta de definir el
dominio .cat para Cataluña.
H. Multimedia
Inmediatamente después de conseguir acceder a textos y enviarlos a través de la Red se tuvo la
necesidad de incorporar otros objetos a este tratamiento. Primero los gráficos y después el audio y el
vídeo han inundado los contenidos de Internet. Esta irrupción ha motivado serios problemas en la
eficacia de la transmisión, ya que la ocupación de estos elementos es inmensamente superior a la de
los textos, habiendo sido uno de los factores fundamentales en la congestión de las líneas y por lo
tanto lo que ha determinado la necesidad de aumento tan considerable del ancho de banda.

Se puede decir que en estos momentos la Red es esencialmente multimedia. Al tipo de información
que tradicionalmente ha estado en la Red hay que añadir fotografías de todo tipo, periódicos, libros,
revistas, animaciones, música, videos, emisiones de radio y televisión, y un compendio de elementos
que incorporan todo tipo de objetos. Además, las propias utilidades y herramientas son gráficas y la
publicidad se muestra a través de los banners. Incluso el diseño de las páginas web se ha visto
invadido por una gran profusión de elementos gráficos que han hecho de muchas de ellas modelos
barrocos que, más que elegancia, han añadido confusión y lentitud en el acceso. La tendencia actual

36 / 55
incluye más fondo y menos forma buscando un cierto equilibrio que aconsejan las llamadas reglas de
usabilidad en las que, además, se recomienda diseñar pensando en las personas discapacitadas a las
que los gráficos merman su posibilidad de acceso a la información.

No obstante, aquello de que una imagen vale más que mil palabras ha tenido una gran aceptación en
la Red y al internauta le resulta mucho más fácil pinchar o cliquear para acceder a una información
que leer unas líneas de instrucciones.

Respecto a los contenidos, una gran parte del tráfico que circula por la Red está compuesto por
música y vídeo. Respecto a la música, el ejemplo de Napster ha resultado paradigmático. Ha puesto a
disposición del internauta un gran número de obras musicales sin coste alguno (en formato mp3), con
la ingeniosa particularidad de repartirlas entre los ordenadores personales de los propios usuarios,
estableciendo la fórmula peer to peer, que configura a dichos ordenadores como clientes y servidores
de música al mismo tiempo. El éxito de este experimento ha afectado en buena medida a la industria
discográfica mundial. Este hecho constituye otra prueba de la problemática regulación de la Red.

Los cada vez más eficientes factores de compresión y el creciente ancho de banda permitirán el
acceso a música y películas en mucho menos tiempo y con mejor calidad.

Y no nos olvidemos de la WebTV. En el caso de la televisión, permite una interacción en tiempo real
con los programas que se están emitiendo, no sólo realizando votaciones, o eligiendo variantes en
una película, sino opinando en un programa viéndosele (al opinante) por medio de una webcam. Si la
calidad de imagen es suficiente, la televisión vía web podría potenciarse a expensas de la televisión
vía cable (aunque, paradójicamente, para poder ofrecer la misma calidad de imagen, probablemente
tenga que emplear la fibra óptica instalada para la emisión de la televisión vía cable). En definitiva el
componente multimedia irá implícito en cualquier desarrollo de la Red.

I. Internet 2

Los primeros nodos de Internet se instalaron en prestigiosas universidades norteamericanas. Después,


la evolución producida ha hecho que el ámbito universitario se haya convertido en un usuario más de
la Red, con sus ventajas e inconvenientes. Para eliminar los inconvenientes y reivindicando la idea
primigenia de Internet, la universidad y el mundo científico han intentado disponer de su propia red.

La importancia del asunto quedó reflejada en el proyecto que en octubre de 1996 iniciaron treinta y
cuatro universidades de Estados Unidos para unir sus respectivas Intranets. Lo denominaron Internet
2. Las velocidades de operación de los troncales se situaron en 2500 megabits por segundo. Cada uno
de los participantes aportó medio millón de dólares y el gobierno estadounidense volvió a
involucrarse en este campo colaborando con cien millones de dólares, a partir de 1998, en el proyecto
que denominaron NGII (Next Generation Internet Initiative) para ofrecer a América la Internet 2, de
manera que las principales universidades y laboratorios de investigación y desarrollo puedan
comunicarse a una velocidad mil veces superior a su predecesora. Además de la velocidad, Internet 2
introduce equipos de comunicaciones más potentes, tecnología de fibra óptica, utilización del
protocolo IPv6 con sus nuevas funcionalidades, el empleo de técnicas multidifusión (multicast) para
servir información a múltiples destinatarios consumiendo el mínimo ancho de banda posible e
incluso propone un cambio en la arquitectura de la red con la utilización de los GigaPoP (Point of
Presence) que contemplan las conexiones a nivel de redes troncales, regionales, urbanas y de campus.

En estos momentos la pretensión fundamental de Internet2 es explorar las aplicaciones potenciales de


la red en situaciones ideales de disponibilidad de ancho de banda y calidad de servicio, tales como las
que serán habituales en un futuro a corto y medio plazo, siendo las más evidentes la transmisión de
multimedia (teleeducación, telemedicina, contenidos a la carta, etc.), la computación distribuida, la
realidad virtual entre puntos remotos, etc., así como ensayar nuevas arquitecturas capaces de
gestionar tráficos inimaginables hasta ahora.

2. El ámbito sociológico

37 / 55
Respecto al ámbito sociológico, por su importancia e influencia hablaremos de los siguientes
campos: documentación, educación, investigación, comercio electrónico, ocio, trabajo, participación,
burocracia y domótica.

A. Documentación

La información contenida en los millones de ordenadores conectados a Internet es tan rica y variada
que sería difícil señalar algún tema sin reflejo en la Red. Lo cual no quiere decir que sea fácil
encontrar exactamente lo que se busca. Se podría decir que Internet constituye una enorme biblioteca
con el mayor número posible de publicaciones de todo tipo pero sin orden ni concierto. De poco sirve
buscar un asunto si, después de acotar al máximo, el buscador nos va a devolver cientos de
ocurrencias, de las cuales ninguna nos ofrece lo que de verdad buscamos.

No obstante, la investigación en curso debe ofrecer soluciones cada vez más capaces y ya en estos
momentos la pericia en la búsqueda permite la obtención de datos con resultados excelentes. Las
enciclopedias en multitud de volúmenes, las extensas colecciones de videos, etc., se podrán consultar
en línea bajo demanda, con sus datos concretos y actualizados y sin que ocupen un espacio
importante en hogares y almacenes.

La documentación electrónica puede comenzar a tener la consideración de fiable (como lo es sobre


papel) por el uso generalizado de la firma digital y las marcas de tiempo, que permiten tener la
certeza de la autoría y momento de escritura de cada documento. Se podrá desarrollar documentación
entre cualquier conjunto de personas conectadas a Internet, pudiendo ver las anotaciones de cada uno
a los documentos, incluso en tiempo real.

Uno de los retos actuales de la Red está en conseguir que su infraestructura proporcione una especie
de enciclopedia universal que aglutine todos los documentos existentes (escritos, sonoros, visuales o
de cualquier otro tipo que se invente y pueda digitalizarse), con autoría firmada digitalmente, acceso
restringido donde se requiera, acceso con coste apropiado para cubrir los derechos de autor y el orden
suficiente para que las búsquedas sean eficaces.
B. Educación
La utilización de las nuevas tecnologías en el ámbito educativo es un hecho evidente. Quizá el
problema fundamental hasta estos momentos haya sido la falta de preparación del profesorado, aparte
del presupuestario para la necesaria dotación de equipos y líneas de comunicaciones. Sin embargo, la
superación de estas dificultades deberá permitir que Internet sea algo consustancial con la educación,
siendo una fuente esencial para la documentación del alumno y por lo tanto para su formación. Es
cierto que habrá que enseñar a discernir la información útil de la vacua o de la dañina y ahí el
profesor será el actor principal.

Asimismo los cursos interactivos y la enseñanza a distancia son técnicas habituales en la Red,
adoptadas por diferentes organismos, desde academias a universidades (la Universidad Oberta de
Cataluña fue pionera en impartir clases de forma virtual). La videoconferencia permite a un profesor
impartir clases desde un lugar distinto al que ocupan los alumnos.

En cualquier caso, parece claro que el ordenador personal (o sus formas alternativas) se convertirá
cada vez más en compañero de papel y lápiz entre los útiles de los estudiantes, y que Internet
proporcionará los materiales necesarios para ayudar a conseguir una buena formación. El actual
desafío consiste en llegar con Internet a todas las escuelas (también a las rurales) y a todos los
alumnos (también a los discapacitados) con unas buenas prestaciones.
C. Investigación
Ya en sus inicios Internet se reveló como una herramienta de ayuda inestimable para la investigación.
El acceso a documentación de todo tipo y la posibilidad de compartir experiencias en tiempo real ha
permitido aunar esfuerzos y avanzar mucho más rápidamente en el campo de los nuevos
descubrimientos. Es destacable su importancia en el campo de la medicina donde las comunicaciones
modernas están permitiendo intervenciones a distancia, impensables hace tan sólo unos años.
Experiencias como los estudios sobre el mapa del genoma humano pueden servir de ejemplo para
ilustrar la ayuda que pueden prestar los ordenadores y también, de cómo la información sobre un

38 / 55
descubrimiento se puede poner accesible para todo el mundo, con la importancia que esto tiene para
la comunidad científica.

Siguiendo el ejemplo iniciado por SETI (Search for Extraterrestrial Intelligence), en el que se ofrece
un salvapantallas que realiza multitud de cálculos sobre un segmento de información recogida en el
radiotelescopio de Arecibo (Puerto Rico) en busca de patrones de regularidad para identificar una
posible comunicación extraterrestre, varias universidades han lanzado sus propios salvapantallas para
repartir el esfuerzo de procesar cantidades ingentes de información en la investigación de temas tales
como el cáncer y el Alzheimer entre millones de equipos repartidos por Internet. Se ha elegido la
fórmula del salvapantallas para aprovechar el ordenador cuando el usuario no está trabajando. En
todos los campos de la investigación serán muy aprovechables los nuevos desarrollos de la Red.

D. Comercio electrónico

Desde que en septiembre de 1988 se celebrara el primer congreso sobre interoperabilidad (Interop
trade show), el comercio ha estado muy atento a la evolución de Internet. En los últimos años, el
comercio electrónico ha sido uno de los factores destacados de la llamada nueva economía. Las
previsiones iniciales no han respondido a las expectativas creadas y los consumidores han sido
reacios a incorporarse a esta nueva forma de adquisición de productos. Sólo en países con una larga
tradición en compra por catálogo, entre los que destaca Estados Unidos, han aceptado el comercio
electrónico sin reticencias. Aún existe una falta de confianza del usuario en una práctica novedosa de
la que no se siente seguro. Se muestra sin problemas una tarjeta de crédito en un restaurante, aunque
el camarero tarde diez minutos en devolverla, pero se duda en teclear su número en una página web.
Además, las tiendas on line deben mejorar su eficacia para demostrar las ventajas respecto al
comercio tradicional.

No obstante, la rapidez, la disponibilidad de horario, el cifrado de la información, la firma


electrónica, la posibilidad de uso desde distintos tipos de terminales (ordenador personal, PDA,
teléfono móvil, etc.), y la garantía que aportan los nuevos sistemas de seguridad, harán que el
comercio electrónico acabe imponiéndose como una forma natural de mercadería. El volumen de
negocio que supone es de tal importancia que se llevarán a cabo los proyectos necesarios para su total
desarrollo. Así lo ha entendido la INTA (International Trademark Association) que protege y
promociona a miles de firmas comerciales de unos 125 países.
E. Ocio
El ocio no es asunto baladí en el mundo de Internet. Es considerable la cantidad de tiempo que los
internautas pasan navegando en actitud lúdica. No se pueden ignorar los datos estadísticos que
muestran el destacado lugar que ocupan las páginas web dedicadas al ocio en el escalafón de
preferencias (la pornografía aparece de forma preeminente). La música, los vídeos, las películas, etc.,
van a ser accesibles con mucha mayor calidad (ya hemos visto el ejemplo de Napster). Los juegos en
red están creando verdaderos adeptos entre el público juvenil. El hardware especializado (tarjetas
aceleradoras; guantes que detectan el movimiento; gafas para tener una visión tridimensional;
mandos; pedales y sillas con motores que les dotan de movilidad propia, etc.) está consiguiendo que
los efectos especiales de los juegos presenten un aspecto muy atractivo convirtiéndose en verdaderos
precursores de la interacción en realidad virtual. Por otra parte, Internet está facilitando la relación
con las formas de ocio más tradicionales, desde la compra de entradas para el cine hasta la
posibilidad de seguir acontecimientos deportivos pasando por la contratación de un viaje de
vacaciones. Si tenemos en cuenta el tiempo que se pasa ante la pantalla de un ordenador podremos
observar que el ocio consume una parte importante.
F. Trabajo
Se ha venido considerando la Red como un instrumento de ayuda en un gran número de tareas, desde
la elaboración de una tesis doctoral hasta los asuntos más sencillos de la vida cotidiana. No obstante,
hasta hace poco, la utilización de Internet ha tenido un cierto carácter puntual. La búsqueda de una
información determinada, la compra de un producto, la gestión de un asunto, etc. Quizá el
entretenimiento se haya constituido como la parte más regular de su uso.

Sin embargo, esta tendencia está cambiando y cada vez más, Internet se utiliza como una herramienta
de trabajo. Son ya muchos los trabajadores que necesitan estar conectados continuamente a la Red

39 / 55
para el desarrollo de su jornada laboral y cada vez son más los puestos de trabajo que contemplan la
conexión a Internet como algo implícito en su perfil. El teletrabajo es una forma de empleo que
aumenta constantemente. Estos hechos requerirán de la Red un fortalecimiento en su infraestructura
capaz de responder a los requisitos de fiabilidad, velocidad, seguridad, etc., indispensables para las
exigencias del mundo laboral.

G. Participación

Los foros de opinión de las páginas web se han convertido en un elemento sugestivo de participación
ciudadana. Se ofrecen opciones diversas, desde comentarios sobre la propia página hasta cualquier
tema de discusión. Por lo general, el rigor, el respeto y la altura del debate distan aún de lo que sería
deseable. No obstante, cada vez aparecen menos zafiedades, aumentando el número de
intervenciones de interés. Otros instrumentos como el chat aunque muy utilizados, están quedando
para una comunicación más coloquial.

Por otra parte, la interactividad ofrece a los internautas la posibilidad de participar en consultas de
todo tipo. Desde hace tiempo se viene discutiendo sobre la llamada democracia electrónica, concepto
de definición imprecisa y, a pesar de sus más ardientes defensores, no parece que de próxima
aplicación. Sin embargo, el debate está abierto y seguramente las posibilidades que da la Red serán
aprovechadas para que el internauta (por el momento, internauta y ciudadano no son lo mismo)
pueda participar en la política de una forma más directa.
H. Burocracia
La aplicación de las nuevas tecnologías en la Administración Pública está permitiendo un avance
espectacular en el tratamiento de la información de un gran número de áreas. Los programas
informáticos vienen ayudando desde hace tiempo en la gestión de los servicios. Sin embargo ha sido,
esencialmente, una actividad de carácter interno, de mejora de los procedimientos. Lo que aporta
Internet es la posibilidad de que el ciudadano pueda resolver asuntos administrativos desde su
domicilio. La declaración de la renta es un buen ejemplo. Muchas instituciones (desde ministerios
hasta ayuntamientos) están haciendo un gran esfuerzo para ofrecer el mayor número de servicios por
Internet. En muchos casos ya se pueden obtener documentos por vía telemática, desde certificados de
empadronamiento hasta datos relativos a la vida laboral. El portal del Ministerio de Administraciones
Públicas (www.administracion.es) intenta ser un ejemplo de ventanilla única para una gran cantidad
de asuntos. Cada vez más, la presencia física ante ventanillas o mostradores para entregar papeles
rellenos con datos que otra persona tendrá que introducir en una base de datos se verá sustituido por
la entrega de los documentos en formato electrónico. La firma digital permitirá la identificación
precisa. Aunque en un gran número de casos falta mucho para que estos desarrollos respondan a las
expectativas creadas, la relación de la Administración con el administrado se verá beneficiada en
gran medida gracias a la Red.
I. Domótica
Internet surgió para conectar grandes ordenadores. Después se conectaron redes de ordenadores más
pequeños y, a partir de la explosión, el ordenador personal acabó siendo el terminal de la Red por
excelencia. Más adelante, se han conectado los ordenadores portátiles (laptops), los PDA's, la
televisión, y los teléfonos móviles. Cada uno de estos nuevos terminales necesita una dirección IP
para identificarse. ¿Qué porcentaje de hogares en el mundo dispone de un ordenador? Es difícil
saberlo, pero podría estar en torno al 25%. Sin embargo, más del 95% tiene una televisión. ¿Qué
porcentaje de la población mundial dispone de un teléfono móvil?

Estas preguntas se hicieron (entre otras muchas) los proponentes de las especificaciones del
protocolo de comunicaciones IPv6, visto anteriormente. Para calcular el número de direcciones IP
necesarias para evitar los problemas, que por causa de su crecimiento ya había sufrido Internet,
pensaron en la posibilidad de conectar a la Red cualquier tipo de elemento susceptible de incorporar
un chip, desde un microondas hasta una bicicleta. Y en función de este dato dimensionaron la
capacidad de numeración del nuevo protocolo.

La domótica o aplicación de las nuevas tecnologías en el hogar permitirá que muchos de sus
elementos estén conectados a Internet. Cada vez más electrodomésticos llevan incorporados
microprocesadores para darles mayor versatilidad a su funcionamiento. El siguiente paso es la

40 / 55
conexión de estos a sus fábricas por medio de Internet para que se puedan actualizar los programas
automáticamente, pudiendo de este modo corregirse errores de programación, dar nuevos servicios o
mejorar los existentes.

¿Por qué no íbamos a poder programar o poner en marcha la calefacción, el aire acondicionado, o el
grabador de DVD desde nuestro trabajo o desde nuestro portátil por medio de un navegador y una
conexión a Internet? Es probable que, al igual que la informática está impregnando paulatinamente la
mayoría de nuestras actividades y objetos que nos rodean, Internet los irá interconectando e
integrando en el ciberespacio.

Casas del tipo de la que Bill Gates nos decía que se estaba construyendo, en su libro Camino al
futuro, aparecen ya en los anuncios de las inmobiliarias.
3. Consideraciones finales
Las conclusiones del informe de la Comisión Especial sobre Redes Informáticas del Senado
comienzan con el siguiente párrafo: La Red es un espacio de encuentro e intercambio en libertad, sin
fronteras ni límites, abierto y universal, en el que se va a desarrollar la sociedad del siglo XXI. Es la
plaza pública -el ágora- de la comunidad global. Acertada definición, a nuestro juicio.

El problema está en cómo se sustanciará este concepto. No es fácil determinar en estos momentos
cuáles serán ni cuándo se producirán los hechos determinantes en la evolución de la Internet del siglo
XXI. Teniendo en cuenta la velocidad a la que se vienen produciendo los cambios, es imposible
deducir los elementos futuros de esta progresión. Se ignora cuánta tecnología, lista para ser usada,
está esperando salir a la luz en el momento comercial más oportuno. Se conoce la técnica pero
existen interrogantes sobre cómo asimilarán las distintas culturas y sociedades este profundo cambio
tecnológico.

Sin embargo hay hechos evidentes. La Red ha constituido una infraestructura mundial de
telecomunicaciones como nunca había existido. En sus nodos se alberga una biblioteca gigantesca
con volúmenes sobre prácticamente todas las disciplinas. El modo de acceso a la información es muy
sencillo. Cada vez se utiliza para más tareas cotidianas (lectura del periódico, banca electrónica,
compras, turismo y viajes, etc.), y desde más sitios (oficina, hogar, cibercafés, teléfono móvil, etc.)
Hasta la fecha, Internet ha sido esencialmente estática, pero el hecho de que cada equipo tenga una
dirección IP fija aunque se mueva geográficamente, unido al uso de Redes Privadas Virtuales y
direccionamiento con protocolo IPv6, permitirá que un equipo móvil (portátil, agenda personal,
teléfono móvil) pueda tener plena conectividad a Internet y a la red interna de su organización de
forma transparente y segura, desde cualquier sitio en el que se pueda conectar a una red o tenga
cobertura para su teléfono móvil (o cualquier otro dispositivo que se emplee para realizar la
conexión). La presión social y la competencia harán que el coste económico de su uso disminuya. No
podemos olvidar que también puede aprovecharse para acciones delictivas, algunas muy peligrosas
como el ciberterrorismo, y que cualquier intento de regulación será contestado. Estos y otros datos
avalan la realidad en la que se ha convertido Internet, con 40 millones de servidores conectados y
500 millones de usuarios, que permite pensar globalmente y actuar localmente, que no tiene vuelta
atrás y que instalada en la aldea global de McLuhan camina decidida hacia la Telépolis de Javier
Echeverría (en su libro Los señores del aire este autor dibuja una nueva organización a escala
planetaria a la que ha denominado Telépolis).

En lo cotidiano se producen cambios continuos. Unos que se publicitan y otros imperceptibles. Se


debate sobre regularización, legislación, control, etc. Los grupos de poder toman posiciones. La
veterana comunidad Internet empieza a sentir nostalgia del carácter solidario de los pioneros que
tanto ayudó a la definición de estándares (a pesar de las dificultades, el lenguaje XML o el sistema
operativo Linux seguirán ganando adeptos). Estamos en una situación en la que hay mucho por
decidir siendo difícil el consenso. En definitiva, tenemos que acabar acostumbrándonos a una
situación nueva, cambiante e incierta en la que las soluciones deben ser globales pero con una
aplicación adaptada a cada entorno. La aldea global de hoy tiene barrios marginales y calles muy
empinadas, y las nuevas tecnologías pueden ayudar de forma determinante en su plan de urbanismo.
Internet, como la poesía, es un arma cargada de futuro en la que lo único que permanece es el
cambio.

41 / 55
BIBLIOGRAFÍA:
Bibliografía
Muchas de las cuestiones abordadas en el presente trabajo son objeto de tratamiento más
pormenorizado en la obra: J. de ANDRÉS BLASCO 1999, Internet, Madrid: Cuadernos del Senado.

Además, puede consultarse:

A. ANDERBERG, History of the Internet and Web. Disponible en


http://www.dsu.edu/~anderbea/history/

V. BUSH 1945, As we may think, The Atlantic Monthly. Disponible en


http://www.umass.edu/Webreportgs/aswemaythink.html

J. L CEBRIÁN 1998, La red. Madrid: Taurus.

V. G. CERF e.a., All about the Internet: A Brief History of the Internet. Internet Society (ISOC).
Disponible en http://www.isoc.org/internet-history/brief.html

D. E. COMER 1991, Internetworking with TCP/IP Vol. I, Principles, Protocols and Architecture,
Upper Saddle River, N. J.: Prentice-Hall.

J. ECHEVERRÍA EZPONDA 1999, Los Señores del aire: Telépolis y el Tercer Entorno, Barcelona:
Destino.

C. ESEBBAG BENCHIMOL y J. MARTÍNEZ VALERO 1995, Guía práctica para usuarios de


Internet, Madrid: Anaya Multimedia.

S. FEIT 1996, TCP/IP: Architecture, Protocols and Implementation with IPv6 and IP Security. Nueva
York: MacGraw-Hill.

M. HAUBEN y R. HAUBEN, Netizens: On The History and Impact of Usenet and the Internet.
Disponible en http://www.columbia.edu/~hauben/netbook/

M. HAUBEN, Behind the Net: The Untold History of Arpanet and Computer Science. Disponible en
http://www.columbia.edu/~rh120/ch106.x07

R. HAUBEN, The Birth and Development of the Arpanet. Disponible en


http://www.columbia.edu/~rh120/ch106.x07

E. KROL 1995, The Whole Internet, Sebastopol, California: O'Reilly Associates.

B. PARRA PÉREZ 1996, Internet en España. Madrid: Anaya Multimedia.

M. A. PIKE, e.a.: 1995, La Biblia de Internet, Madrid: Anaya Multimedia, 1995.

G. SARTORI 1998, Homo Videns. Madrid: Taurus.

W. STALLINGS 1997, Sistemas Operativos, Upper Saddle River, N.J.: Prentice-Hall.

A. S. TANNENBAUM 1989, Computer Networks, Upper Saddle River, N.J.: Prentice-Hall.

R. H. ZAKON, Hobbes' Internet Timeline v3.3. The Mitre Corporation. Disponible en


http://info.isoc.org/guest/zakon/Internet/History/HIT.html

ABREVIATURAS:

42 / 55
Glosario

Acceso básico RDSI

Conexión digital a Internet consistente en dos canales de datos de 64 kilobits por segundo (Kbps)
cada uno y un canal de control de 16 Kbps.

Ancho de banda

Cantidad de información enviada por unidad de tiempo a través de un canal de comunicación. Se


suele medir en baudios o bps.

Applet

Aplicación realizada en Java para ser ejecutada en el sistema cliente.

Archie

Sistema de búsqueda de ficheros localizados en servidores de ftp anónimo.

ASCII: American Standard Code for Information Interchange (Código Estándar Americano para el
Intercambio de Información)

Conjunto de códigos para representar caracteres. El ASCII original, de 7 bits, consta de 128 (= 27)
caracteres diferentes universalmente aceptados. El ASCII extendido, de 8 bits, consta de 256 (= 28)
caracteres para incorporar letras específicas de cada idioma (como la ñ).

Baudio

Cantidad de información transmitida por segundo. Según el modo de transmisión mide bits por
segundo o pares de bits por segundo. Debido a la falta de acuerdo sobre el número de bits por
segundo que se consideraba, esta medida cayó en desuso, utilizándose casi exclusivamente la medida
en bits por segundo (bps).

BBS: Bulletin Board System (Tablón Electrónico de Anuncios)

Sistema que permite discusiones, cargar y descargar archivos y hacer anuncios sin necesidad de que
la gente esté conectada simultáneamente. Hay cientos de miles por todo el mundo, la mayoría muy
pequeñas (con un PC y una línea telefónica es suficiente).

bit: Binary digIT (Dígito binario)

Unidad mínima de información (Sí-no, cierto-falso, 1-0).

bps: Bits Per Second (Bits Por Segundo)

Unidad habitual en la medición de la velocidad de transferencia de información. Nos da el número de


bits que se transfieren en un segundo a través de cualquier medio de transmisión. Se suelen utilizar
los múltiplos Kbps (1.000 bps), Mbps (1.000.000 de bps) y Gbps (1.000.000.000 de bps).

NOTA: En este caso, los múltiplos Kilo y Mega son 103 y 106, respectivamente, en vez de 210
(=1024) y 220 (=1048576) (lo habitual en informática) puesto que no estamos calculando en base 2
(combinaciones posibles de bits transmitidos), sino en base 10 (bits transmitidos).

43 / 55
Byte

En general, conjunto de ocho bits aunque, dependiendo de la arquitectura de la máquina, puede tener
seis, siete, ocho o nueve bits. Para evitar equívocos y dejar claro que se está hablando de conjuntos
de ocho bits, también se le denomina octeto. Estos ocho bits nos dan 28 (= 256) combinaciones
posibles.
C

Lenguaje de programación de alto nivel (cercano al lenguaje humano) caracterizado por tener un
conjunto de instrucciones muy reducido (sólo 35), lo que hace que los programas escritos en C sean
muy fácilmente portables de un sistema a otro.

Caché

Almacenamiento temporal de acceso rápido. En un navegador, consiste en almacenar la página leída


en el disco duro, de modo que la siguiente vez que se desee ver la misma página, se puede leer del
disco en vez de tener que volverla a traer desde su ubicación en Internet. Como resultado, se
visualiza con mucha mayor rapidez.

CERN: Conseil Europeen de Recherche Nucleaire (Consejo Europeo de Investigación Nuclear)

Laboratorio científico europeo con un acelerador de partículas. Allí trabajaba Tim Berners-Lee, que
fue el director del proyecto por el que se creó la Web en 1990.

CGI: Common Gateway Interface (Interfaz de Pasarela Común)

Sistema que permite ejecutar programas en un servidor Web a petición de un usuario conectado a
Internet. Se suelen utilizar para manejo de formularios y cuestionarios y acceso a bases de datos
desde páginas HTML.

Ciberespacio

El mundo de la máquina. Término acuñado por William Gibson en su novela Neuromante


(cyberspace). Se refiere a todo lo real o virtual que nos podemos encontrar estando conectados a la
Red. Independientemente de las consideraciones fantasiosas, filosóficas o trascendentales, el
ciberespacio no deja de ser un montón de cables por los que circula información que representa
textos (sean textos planos, etiquetas HTML, enlaces o datos), imágenes (únicas, formando una
secuencia de vídeo o formando parte de un mundo virtual) o sonido.

Cibernauta

Persona que navega por el ciberespacio. En inglés también son denominados netizens, neologismo
que se podría traducir, libremente, por ciuredanos.

Clave

Ver Contraseña.

Cliente

Programa o máquina que pide servicios (como ftp o páginas Web) a una máquina que proporcione
dichos servicios (servidor).

Comando

Informáticamente, un comando (mala traducción del inglés command) es una orden que se le da al

44 / 55
ordenador para que haga algo. Los comandos también se denominan órdenes o mandatos.

Comunidad Internet

Se refiere al conjunto de todos los cibernautas y personas cuyo trabajo tiene como medio o como fin
el desarrollo de Internet.

Contraseña

También denominada clave o password, es una cadena de caracteres que se emplea para la
verificación de un usuario. Para que una contraseña sea razonablemente segura debe contener al
menos ocho caracteres, letras mayúsculas y minúsculas, números y algún signo de puntuación (todo
mezclado) y no estar en ningún diccionario.

Cookies (Galletas)

Mecanismo utilizado por los servidores de páginas web para mejorar el servicio a los clientes. Para
ello dejan en el ordenador del cliente un fichero con información de sus preferencias (como el
idioma) para que, la siguiente vez que se conecte al sitio, el propio navegador se encargue de enviar
la cookie al servidor, ajustándose éste a las preferencias del cliente.

Correo electrónico

Ver e-mail.

Cortafuegos

Ver firewall.

Cracker (Rompedor)

Persona que se dedica a entrar en sistemas de ordenadores de forma no autorizada e ilegal para
conseguir información o inhabilitarlos con fines destructivos. No confundir con hacker.

Dirección IP

Representación numérica de la dirección de un ordenador. En su versión 4 (IPv4), consta de cuatro


cifras de ocho bits (0-255) separadas por puntos, lo que permite numerar a casi 4300 millones de
ordenadores en Internet. Aunque parezca increíble, es un número insuficiente, así que se ha
establecido una nueva norma: IPv6.

DNS: Domain Name System (Sistema de Nombres por Dominios)

Sistema de identificación de ordenadores, traduciendo su Nombre por Dominios por su dirección IP.

e-mail: Electronic MAIL (Correo Electrónico)

Programa que sirve para enviar y recibir mensajes a/desde cualquier máquina del mundo que esté
conectada a la Red. Está orientado al envío de mensajes en modo texto (ASCII), lo cual origina un
pequeño problema. En Internet hay conectadas una gran diversidad de máquinas: PC's, Macintosh,
máquinas Unix y VMS, entre otras. Todas entienden perfectamente las letras del alfabeto inglés, pero
casi todas están en desacuerdo respecto al código con el que representan los demás caracteres. Lo que
para una puede ser una a acentuada (á), para otros puede ser algo como _.

45 / 55
Un texto escrito en perfecto castellano puede parecer un criptograma en otra máquina. Es
recomendable hacer lo siguiente:

* Si se van a enviar mensajes a otras personas que trabajen desde Windows, lo más probable es no
tener ningún problema, pero puede ser conveniente enviarse un mensaje que contenga todos los
caracteres susceptibles de ser alterados: á, é, í, ó, ú, ñ y cualquier otro que no sea del alfabeto inglés
para comprobarlo.

* En cualquier otro caso, no poner ninguna tilde (los que se comunican habitualmente por e-mail lo
tienen asumido) o poner la comilla simple (a la derecha del cero) antes de la vocal acentuada (criterio
de la escritura fonética). La ñ se suele sustituir por ~ (Pulsando la tecla Alt -a la izquierda de la barra
espaciadora- y tecleando 126 en el teclado numérico), por ny (grafía catalana), por gn (grafía
francesa) o por n~ o nn (menos habitual).

Enlace

Referencia a otra parte de la página actual, a otra página en el mismo servidor o a cualquier fichero
de cualquier servidor de la Red. Viene del inglés link y también se le llama vínculo, liga, hiperliga o
hiperenlace (estos dos últimos por herencia de los hipertextos).

Ethernet

Tecnología de Red de Área Local que utiliza el protocolo IEEE 802.3. Utiliza un ancho de banda de
10 Megabits por segundo. Es la tecnología mas extendida por todo el mundo.
F

FAQ: Frequently Asked Questions (Preguntas Usualmente Formuladas)

Documentos que contienen las preguntas (¡y sus respuestas!) más habituales sobre cualquier tema
(generalmente informático). Especialmente orientado a los recién llegados a un área del
conocimiento, se escribe de un modo similar a un diálogo socrático, plasmando la pregunta tal como
se nos plantea en la mente y contestándola inmediatamente.

Firewall (Cortafuegos)

Máquina o programa ubicado entre una red local (que se desea proteger) e Internet para controlar
todo el tráfico de información que pasa a través de él. Salvo permisos explícitos, deniega el paso a
todo (para evitar olvidos).

Freeware (Software gratuito y/o de libre distribución)

El autor puede entregar sólo el programa ejecutable (gratuitamente) o indicar que se distribuye bajo
la licencia pública GNU, entregando también el código.

FTP: File Transfer Protocol (Protocolo de Transferencia de Ficheros)

Protocolo que sirve para enviar ficheros de cualquier tamaño de una máquina a otra.

FTP anónimo

Servidor de ftp que permite el acceso público a sus ficheros.


G

GIF: Graphic Interchange Format (Formato de Intercambio Gráfico)

Formato gráfico desarrollado por Compuserve en 1987 (GIF87a) que permitía a las imágenes 256

46 / 55
colores. Se convirtió en el estándar de Internet. Tras una revisión del estándar en 1989 (GIF89a) y
algunos problemas de derechos de autor, Compuserve lanza el GIF24, un nuevo estándar basado en
PNG, de libre distribución.

GIF animado

Fichero gráfico en el que se han incluido varias imágenes, de modo que se pueden visualizar una tras
otra de forma continua, produciendo una salida animada.

Giga o G

También tiene dos acepciones, como Kilo. En el sentido habitual y para anchos de banda, un giga son
mil millones (1 Giga = 1.000.000.000 = 109 unidades) y en el sentido informático es el número de
combinaciones posibles de treinta elementos binarios, obteniendo 230 = 1.024 M = 1.048.756 K =
1.073.741.824 unidades. De este modo, 1 Gigabyte = 1 GB = 1024 MB.

GNU: GNU's Not Unix (GNU No es Unix)

Proyecto de la Free Software Foundation (Fundación para el Software Libre) por el que se
proporciona a todo el que lo desee una ingente cantidad de software de libre distribución,
permitiendo su uso y modificación siempre y cuando no se venda, tal y como se describe en la
Licencia Pública GNU (GNU Public License). Se mantienen a base de aportaciones (económicas e
informáticas) desinteresadas, siendo su producto más visible el sistema operativo Linux con todas sus
aplicaciones.

Gopher

Es una versión mejorada del ftp, al que se han añadido una serie de facilidades muy similares a las
que tiene el Administrador de Archivos de Windows para buscar ficheros por los directorios.

GPRS

General Packet Radio Service. Estándar en comunicaciones inalámbricas que alcanza velocidad de
hasta 115 kps. Utilizable para voz y datos con una eficacia mucho mayor que en el caso de GSM.

GSM

Global System for Motile Communications. Sistema de comunicación telefónica digital para
dispositivos móviles. Utilizable para voz y transmisión de datos pero con muy poco eficacia ya que
su ancho de banda solo alcanza 9,6 Kpps.
H

Hacker

Persona con amplios conocimientos sobre redes de ordenadores y protocolos de comunicación que
dedica gran cantidad de tiempo a intentar entrar a redes privadas sin permiso para comprobar su nivel
de seguridad. Cuando lo consigue, deja un mensaje al administrador con el fallo de seguridad
encontrado para que lo corrija. Pasado un tiempo prudencial, suele anunciar su hazaña a los demás.
No debe ser confundido con los crackers, cuyas intenciones no son tan buenas.

Hipertexto

Texto en el que algunas palabras hacen referencia a otra parte del texto o a otro texto diferente. Se
puede ir al texto referenciado escribiendo la palabra en algún lugar destinado al efecto o pinchando
con el ratón sobre ellas.

Home page

47 / 55
Ver Página inicial.

Host (Anfitrión)

Máquina que ofrece servicios tales como http, ftp y correo.

HTML: HyperText Markup Language (Lenguaje de Etiquetas de HiperTexto)

Conjunto de etiquetas muy sencillas de utilizar con las que le indicamos a una máquina cliente de
páginas Web la manera en la que tiene que construir la página. Estas etiquetas sirven para indicar que
un documento tiene el formato de hipertexto, la manera en la que se formatea el texto (atributos del
texto, listas, tablas), las imágenes que se deben cargar y la ubicación de otra página Web en los
enlaces, entre otras cosas.

HTTP: HyperText Transfer Protocol (Protocolo de Transferencia de HiperTexto)

Este protocolo de comunicaciones se utiliza para enviar las páginas Web. Minimiza la cantidad de
información transmitida de un ordenador a otro gracias al HTML.

HTTPs: HyperText Transfer Protocol secure

Protocolo idéntico a HTTP, con la salvedad de que todas las comunicaciones van cifradas con una
clave de 128 bits para comunicaciones dentro de EE.UU. y 40 bits para las demás.
I

Interfaz

Métodos u objetos que sirven como elementos de interacción entre la máquina y el usuario. Proviene
del inglés interface.

Internet: INTERconnected NETworks (Redes Interconectadas)

Red de redes de ordenadores que cubre todo el planeta.

IPv6: Internet Protocol, version 6

Especificación de direcciones IP que reemplaza a IPv4. Con IPv6, además de bastante información
útil para navegar por Internet, se incluyen direcciones de 128 bits, que da un total de 3,4 x 1038
posibles direcciones. Esto supone que casi cualquier objeto del Universo puede tener una dirección
IP.

ISDN: Integrated Services Digital Network (Red Digital de Servicios Integrados)

Nombre con el que se conoce en casi todo el mundo lo que en España se conoce como RDSI.
Coincide con ésta en el acceso básico, pero el acceso primario ya es distinto.
J

Java

Lenguaje de programación orientado a objetos desarrollado por Sun Microsystems. Este lenguaje se
ha hecho para ser utilizado en Internet. Su característica principal es la multiplataforma, es decir, el
mismo programa puede ejecutarse sobre cualquier máquina (no es necesario hacer versiones para
MS-DOS, AIX, Linux, Mac, etc.).

Javascript

48 / 55
Lenguaje desarrollado por Netscape para dotar de mayor funcionalidad al HTML. Permite programar
diversas acciones dentro de una página Web en respuesta a acciones del usuario (como mover el
ratón por determinada zona de la página). El nombre proviene de un intercambio comercial: Netscape
proporcionaba a Sun soporte para distribuir su lenguaje de programación Java y Sun permitía a
Netscape incluir la palabra Java en el nombre de su lenguaje de funcionalidades. Es el único parecido
entre ellos.

JPEG o JPG

Formato gráfico de color real desarrollado por la Joint Photographic Experts Group.
K

Kilo o K

Representa dos factores de magnitud distintos. El primero es el habitual en la vida cotidiana (1 Kilo =
1.000 = 10 x 10 x 10 = 103 unidades), también empleado para indicar el ancho de banda de las líneas
de transmisión (en bits por segundo). El segundo significado es exclusivamente informático y se
refiere al número de combinaciones posibles de diez unidades de información (como bits o bytes), es
decir, 210 = 1024 combinaciones. Así, 1 Kbit=1Kb=1024 bits y 1 Kbyte=1KB=1024 bytes.
L

LAN: Local Area Network (Red de Área Local)

Red corporativa o privada que une entre sí los ordenadores de una entidad, normalmente dentro de un
edificio.

Licencia Pública GNU

Ver GNU.

Linux

Sistema operativo cuyo núcleo fue programado por el finlandés Linus Torvalds. Lo puso a
disposición de la Comunidad Internet bajo la Licencia Pública GNU, con lo que creció y mejoró de
forma espectacular gracias a las colaboraciones desinteresadas de decenas de miles de personas. Con
unas prestaciones, una interfaz de usuario y de programación similares a Unix, su fiabilidad está lo
suficientemente contrastada como para que gran cantidad de páginas web estén servidas desde
máquinas con Linux. Su nombre deriva de la contracción de Linus y Unix.

Lynx

Navegador en modo texto (sin gráficos) desarrollado en la Universidad de Kansas. Es de dominio


público para usos no comerciales. Funciona en Unix, Linux y VMS.
M

Macintosh

Modelo de ordenador de la casa Apple Computer.

Mail (Correo)

Nombre con el que se suele designar a un mensaje enviado por correo electrónico.

MAN: Metropolitan Area Network (Red de Área Metropolitana)

Red que une ordenadores de una entidad distribuidos por varios edificios, pero dentro de una ciudad.

49 / 55
Mega o M

También tiene dos acepciones, como Kilo. En el sentido habitual y para anchos de banda, un mega es
un millón (1 Mega = 1.000.000 = 106 unidades) y en el informático es el número de combinaciones
posibles de veinte elementos binarios, obteniendo 220 = 1.024 K = 1.048.756 unidades. Así, 1
Megabyte = 1MB = 1024KB.

Mirror (Espejo)

Nombre con el que se designa en Internet a un recurso (generalmente ftp) que contiene una copia
idéntica de los contenidos de otro.

Módem: MOdulador-DEModulador

Dispositivo que, conectado a un ordenador, permite que se comunique con otro a través de línea
telefónica. El módem es a los ordenadores lo que el teléfono a las personas.

Mosaic

Sencillo navegador desarrollado en la NCSA (National Center for Supercomputing Applications) de


la Universidad de Illinois. Fue el primer navegador.

Motor de Búsqueda

Útil herramienta que realiza búsquedas en sus propias bases de datos desde el ordenador cliente.

MS-DOS: MicroSoft-Disk Operating System (Sistema Operativo de Disco - Microsoft)

Sistema operativo creado por Bill Gates a partir de otro, el CP/M. Es monousuario y monotarea (sólo
una persona puede trabajar en el ordenador y haciendo una sola cosa cada vez).
N

Navegador

Programa cliente que es capaz de reconocer las etiquetas HTML y visualizar las páginas Web en un
entorno gráfico.

Navegar

Nombre que se le da al hecho de ir pasando de una página Web a otra a través de los enlaces o de
usar alguno de los múltiples servicios que nos ofrece la Red. En inglés, además de navigate, también
se utiliza el término surfing.

News (Grupos de Discusión)

Tablón de anuncios electrónico que permite a los usuarios participar en grupos de discusión. Hay
miles grupos diferentes.

Nodo

Cualquier ordenador conectado a una red.

Nombre por dominios

Cada máquina tiene un nombre único en el mundo. Los dominios se ponen con un criterio similar al
de los números telefónicos (indicativo de país, indicativo de provincia, número). El nombre por
dominios consta de varias palabras separadas por puntos.

50 / 55
P

Página inicial o Página de inicio

También llamada página principal, viene del inglés home page y es la primera página que aparece
cuando se accede a un servidor de páginas web. Desde esta página se suele poder explorar todo el
sitio.

Página Web

Fichero que contiene texto en formato HTML, es decir, texto normal, imágenes (fijas, animadas o
secuencias de vídeo), sonidos y enlaces a otras páginas. Se le llama página porque se lee y visualiza
de una sola vez.

Paquete IP

Conjunto de datos mínimo que viaja de un punto a otro de Internet.

Password

Ver Contraseña.

PC: Personal Computer (Ordenador Personal)

Tipo de ordenador creado en 1981 por IBM. Para dotarle de un sistema operativo contactó con la
empresa Digital, pero ante la falta de interés de ésta se lo encargó a una empresa que había hecho una
versión del CP/M (un sistema operativo de 8 bits para microprocesadores): Microsoft.

PERL: Practical Extraction and Report Language (Lenguaje para Informes y Extracciones Prácticas)

Potentísimo lenguaje para tratamiento de textos, ficheros y procesos. Tiene la estructura del lenguaje
C, pero con las funcionalidades de los comandos Unix awk y sed de Unix. Es un lenguaje habitual en
la creación de los programas CGI.

POP: Post Office Protocol (Protocolo de Oficina de Correos)

Protocolo utilizado para recibir correo electrónico en nuestro ordenador.

PPP: Point to Point Protocol (Protocolo Punto a Punto)

Protocolo de comunicaciones evolucionado de SLIP empleado en la conexión con módem con líneas
serie (los bits van uno detrás de otro) de la RTB.

Protocolo de comunicaciones

Conjunto de palabras y comandos que se utilizan para que dos máquinas sepan enviarse información.

Proveedor de Internet o Proveedor de Servicio

Empresa que proporciona acceso a Internet a usuarios particulares o empresas. Suele cobrar una
tarifa plana (fija) mensual o anual.

Proxy

Programa que hace las funciones de navegador comunitario, es decir, recoge las peticiones de todos
los navegadores de una red privada y efectúa dichas peticiones a los sitios correspondientes. Al traer
una página solicitada por primera vez, la almacena en su caché antes de entregarla a quien la solicitó.

51 / 55
De esta manera, todas las peticiones posteriores a la misma página son servidas con la copia que se
encuentra en el proxy hasta que ésta se actualice en el sitio del que procedió. El proxy también se
puede emplear en sentido contrario, es decir, para entregar páginas de nuestro sitio a clientes
externos.
R

RDSI: Red Digital de Servicios Integrados

Red digital que nos ofrece (en su acceso básico) dos canales de 64 Kbps para datos y un canal de 16
Kbps para control. La velocidad del acceso primario ya depende del lado del Atlántico en el que se
viva: En Europa se nos ofrecen 2.048 Mbps y en América 1.544 Mbps. A efectos de una conexión
doméstica a Internet, permite una conexión sostenida a 64 Kilobits por segundo como mínimo. A
efectos prácticos, duplica la velocidad de un módem de 33600 bits por segundo.

RFC: Request For Comments (Petición De Comentarios)

Publicación (electrónica) en la que se propone un nuevo estándar en Internet. Se descarta o se acepta


tras un periodo de discusión.

Router (Encaminador)

Dispositivo que permite la conexión de una red con otra, encaminando la información hacia la red a
la que va destinada.

RTB: Red de Telefonía Básica

Los cables y aparatos que nos permiten hablar desde un teléfono fijo.
S

Search Engine

Ver Motor de Búsqueda.

Servidor

Programas u ordenador con programas capaces de ofrecer a clientes determinados servicios, tales
como correo electrónico (e-mail), transferencia de ficheros (ftp) o páginas Web (http).

SGML: Standard Generalized Markup Language (Lenguaje estándar de etiquetas generalizadas)

Conjunto de etiquetas utilizadas en edición electrónica para especificar a un programa de


composición de textos la manera en que debe formatear un texto escrito en ASCII. El HTML es un
subconjunto de las etiquetas de SGML.

Shareware (Software compartido)

Método de distribución de programas muy difundido en Internet. Consiste en proporcionar un


programa para que sea examinado durante un periodo de evaluación, generalmente entre uno y dos
meses. El programa puede tener las funcionalidades limitadas o completas, pudiendo dejar de
funcionar al cabo del tiempo de prueba.

Sistema Operativo

Conjunto básico de programas que permiten la ejecución de los programas de aplicación en un


ordenador y ofrecen un interfaz para que el usuario interactúe con la máquina. Se podría decir que
tiene en la máquina las funciones del hipotálamo en el cuerpo humano.

52 / 55
Sitio

Lugar de Internet identificado por una dirección URL. Viene del inglés site.

SLIP: Serial Line Internet Protocol (Protocolo de Internet para Líneas Serie)

Protocolo de comunicaciones para envío de paquetes IP a través de una línea serie (una línea
telefónica).

Smileys (Emoticones)

Gestos del lenguaje corporal que se emplean para humanizar los comunicados electrónicos. Símbolos
como:-), que denota alegría, se pueden ver girando la cabeza un cuarto de vuelta hacia la izquierda.

Spam

Correo electrónico no solicitado que envía de forma masiva e indiscriminatoria


T

T1

Conexión con un ancho de banda de 1,5 Mbps

T3

Conexión con un ancho de banda de 45 Mbps

TCP/IP: Transmission Control Protocol / Internet Protocol (Protocolo de Control de Transmisión /


Protocolo de Internet)

Conjunto de protocolos utilizados en Internet de forma generalizada para el envío de información de


unos ordenadores a otros.

Telnet

Conexión virtual de un ordenador a otro. Hace que el ordenador que ejecuta el telnet se comporte
como un terminal del conectado.

Tera o T

También tiene dos acepciones, como Kilo. En el sentido habitual y para anchos de banda, un tera es
un billón (1 Tera = 1.000.000.000.000 = 1012 unidades) y en el informático es el número de
combinaciones posibles de cuarenta elementos, obteniendo 240 = 1.024 G = 1.048.756 Megas. Así, 1
Terabyte = 1TB = 1024GB.

Terminal

Dispositivo que consta de un teclado y una pantalla para enviar órdenes al ordenador al que está
conectado y recibir los resultados.

Texto ASCII

Texto que sólo contiene caracteres ASCII de 7 bits. Es decir, texto que sólo contiene las letras del
alfabeto inglés.
U

UMTS

53 / 55
Universal Mobile Telecommunication System. Tecnología de comunicaciones de tercera generación
que proporciona un ancho de banda de 2 Mbps. Además de voz y datos permite la recepción de audio
y video en dispositivos móviles a través de sistemas basados en satélites de comunicaciones.

Unicode

Codificación universal de caracteres. Cada carácter se identifica con dos octetos, es decir, 16 bits,
que dan un total de 216 = 65536 posibilidades distintas. Los primeros 128 caracteres son los mismos
que los del ASCII de 7 bits. Entre los demás están incluidos todos los caracteres del latín, griego,
cirílico, armenio, hebreo, arábigo, devanagari, bengalí, gurmuki, gujarti, oriya, tamil, telugu,
kannada, malayo, tailandés, lao, georgiano, tibetano, kana japonés, hangul coreano moderno y un
conjunto unificado de ideogramas chino/japonés/coreano. Y todavía quedan 18.000 caracteres sin
asignar para futuras expansiones.

Unix

Sistema operativo multiusuario (varias personas pueden trabajar a la vez en el mismo ordenador) y
multitarea (realiza varias tareas simultáneamente). Fue desarrollado en C por Ken Thompson con la
colaboración de Rudd Canaday, Doug McIllroy, Joe Ossanna y Dennis Ritchie en un ordenador DEC
PDP-7 desechado de los Laboratorios Bell durante 1969. Se introdujo en 1974 en las universidades
con fines educacionales y al poco tiempo estuvo disponible para uso comercial. El éxito de este
sistema se debe a su extraordinaria versatilidad (se emplea en todo el rango de ordenadores, desde
PCs a los más grandes), a su robustez y a su fiabilidad. Su nombre deriva de un proyecto llamado
Multics, por el que se pretendía que todo el mundo tuviera en su casa un terminal para poder acceder
a un gran ordenador central y utilizar sus programas.

URL: Uniform Resources Locator (Localizador Uniforme de Recursos)

Nombre completo del documento al que se quiere acceder (máquina en la que se encuentra,
directorios hasta el fichero y nombre del fichero) y el protocolo con el que se quiere acceder a él. Si,
por ejemplo, se quiere acceder a la página inicial de una entidad cualquiera, se indica el protocolo
con el que se quiere acceder a ella (para páginas Web, el protocolo es HTTP) y el nombre por
dominios de la máquina en la que se encuentra dicha página, resultando que la dirección URL es algo
así como http://nombre.subdominio.dominio. Si, por el contrario, se quiere acceder a un fichero que
se encuentra en el directorio docs (por ejemplo) para transferirlo a nuestro ordenador, habría que
poner ftp://nombre.subdominio.dominio/docs/fichero.

Usenet

Red de servidores de news.


V

VMS: Virtual Machine System (Sistema de Máquina Virtual)

Sistema operativo propietario de DEC (Digital Equipment Corporation). El que sea propietario
significa que sólo se emplea en los ordenadores de la marca.

VRML: Virtual Reality Modelling Language (Lenguaje de Modelado de Realidad Virtual)

Lenguaje de creación de mundos virtuales con el que se genera un modelo tridimensional de un


objeto (generalmente habitaciones o salas de edificios) que se puede visualizar en el cliente con un
programa adecuado.
W

WAN: Wide Area Network (Red de Área Extensa)

54 / 55
Red que une ordenadores de una entidad o corporación nacional o multinacional. Estos ordenadores
pueden estar repartidos por varios países.

WWW: World Wide Web (Telaraña mundial)

Maravilloso invento creado por un equipo de científicos en el CERN. También conocida como Web
o W3 (para abreviar), define una serie de normas para tratar la Red como un monumental sistema de
información distribuido, accesible en modo hipertexto. Estas normas son: el lenguaje HTML, el
protocolo HTTP y el URL. Los documentos a los que se accede son las páginas Web que conocemos.

55 / 55

Das könnte Ihnen auch gefallen