Sie sind auf Seite 1von 3

Estado del arte

Congestión

El problema de la congestión se da cuando varios usuarios acceden al mismo tiempo a los recursos
(ancho de banda, buffers y colas), esto provoca excesivo trafico en los enrutadores de la red. Cuando
un enrutador no puede trasmitir, almacena paquetes en la cola para trasmitirlos en una próxima
oportunidad. La cola tiene un tamaño limitado, si superan ese límite los datos de la cola, el paquete
será descartado. Lo que se busca generalmente es controlar el trafico de la red, para mejorar la
calidad de servicio (Lar & Liao, 2013).

Cuando existe un colapso congestivo la transferencia de paquetes se retrasan y se descartan, por lo


cual, existen varios protocolos/ aplicaciones que realizan el trabajo de retrasmitir datos. Los
recursos de la red son difíciles de utilizar en su totalidad (Lar & Liao, 2013), es por ello, que se ve
como un problema para la investigación, por ser un tema abierto que se va modernizando
constantemente, sin embargo, se ha hecho el mejor esfuerzo para mitigar la congestión, para
ofrecer un mejor servicio al usuario final.

Mecanismos del control de congestión

TCP tiene como función controlar la congestión, sus mecanismos se basan en los siguientes
algoritmos:

 Arranque lento
 Evitación de la congestión
 Recuperación rápida

La congestión es un problema que ocurre en las redes compartidas cuando varios usuarios
compiten por acceder a los mismos recursos (ancho de banda, buffers y colas). Se trata de
controlar la entrada de tráfico en una red, para evitar el colapso congestivo al intentar evitar la
suscripción excesiva de cualquiera de las capacidades de procesamiento o enlace de los nodos
intermedios y las redes y tomar medidas para reducir los recursos, como reducir la velocidad de
envío de paquetes.

La congestión ocurre cuando hay demasiado tráfico en los enrutadores de red que tienen
capacidad de cola. Si un enrutador no puede transmitir paquetes en una instancia determinada,
almacena paquetes en la cola y espera la próxima oportunidad de transmitir. La cola tiene un
tamaño limitado, si los datos de la cola exceden el límite, el paquete será descartado.

Si se produce congestión, las transferencias de paquetes se retrasan y se descartan, debido a esto,


algunos protocolos / aplicaciones intentan retransmitir datos. Los usuarios intentan retransmitir
los datos o solicitar los mismos datos una y otra vez. En este caso, la proporción de datos válidos
está disminuyendo y al final se produce el colapso de la congestión y los recursos de red son
difíciles de usar. Por lo tanto, necesitamos controlar esta congestión para mejorar la calidad de
servicio de la red.

a. Internet está diseñado para ser autónomo.

si. Internet es muy grande y sigue expandiéndose.

C. Sin control centralizado.

re. No hay forma de controlar el comportamiento de cada usuario.

mi. Es difícil determinar cuántos usuarios / aplicaciones comparten exactamente la red.

F. Es difícil determinar exactamente la fuente de la congestión.

sol. Es difícil determinar exactamente la capacidad de las redes.

h. Es difícil determinar cuántas redes están congestionadas exactamente.

yo. Es difícil determinar por qué los paquetes se pierden exactamente.

Esta es la razón por la que sigue siendo un problema crítico para los investigadores. Sin embargo,
se han realizado varios esfuerzos en los últimos veinte años para resolver este problema de red
que he recopilado y presentado en la siguiente sección.

colapso de congestión

reordenamiento

inalámbrico
alta velocidad

The dramatic expansion of link capacity in current data center network causes remarkable
challenges to the design of new transport layer protocol, that is, how to converge as fast as possible
to help data flow effectively utilize the high bandwidth. Meanwhile, the new protocol should be
friendly to the traditional TCP because the non-cooperating applications with old TCP versions are
widely existing. Therefore, it is important to achieve a trade-off between the aggressiveness and
TCP-friendliness in protocol design. In this paper, we first empirically study why the existing typical
data center TCP variants naturally fail to guarantee both fast convergence and TCP friendliness.
Then, we design FFC, a transport protocol that makes independent decisions and self-adjustment
through retrieving the two-dimensional congestion notification from the RTT and ECN. The results
of simulation experiments and real implementations show that the fast convergence of FFC leads to
the lower flow completion time compared with DX and DCTCP. Meanwhile, when coexisting with
the traditional TCP, FFC also presents a moderate competitiveness, while introducing trivial
deployment overhead only at the end hosts.

Das könnte Ihnen auch gefallen