Sie sind auf Seite 1von 43

Kapitel 4: Netzwerkzugriff

Das OSI-Modell unterteilt die verschiedenen Funktionen eines Datennetzes in Schichten. Dies unterstützt auch die Verständigung
zwischen Fachexperten. Jede Schicht arbeitet mit den darüber und darunter liegenden Schichten für die Datenübertragung
zusammen. Zwei Schichten des OSI-Modells sind so eng miteinander verflochten, dass sie im TCP/IP-Modell einer Schicht
entsprechen. Bei diesen beiden Schichten handelt es sich um die Sicherungs- und die Bitübertragungsschicht.

Beim sendenden Gerät besteht die Aufgabe der Sicherungsschicht darin, die Daten zur Übertragung vorzubereiten und zu steuern,
wie die Daten an das physische Medium übergeben werden. Die Bitübertragungsschicht steuert dann, wie die Daten durch
Kodierung in binären Ziffern auf das physische Medium platziert und als Signale übertragen werden.

Auf der Empfängerseite nimmt die Bitübertragungsschicht die Signale auf dem Verbindungsmedium entgegen. Nach dem
Dekodieren des Signals zurück in Daten überträgt die Bitübertragungsschicht den Frame zur Verarbeitung an die
Sicherungsschicht.

Dieses Kapitel beginnt mit den allgemeinen Funktionen der Bitübertragungsschicht und den Standards und Protokollen, die bei der
Übertragung von Daten über die lokalen Medien angewendet werden. Es werden auch die Funktionen der Sicherungsschicht und
der ihr zugeordneten Protokolle erläutert.


Verbindungstypen

Ob für eine Verbindung zu einem lokalen Drucker in der Wohnung oder zu einer Website in einem anderen Land – bevor die
Netzwerkkommunikation stattfinden kann, muss eine physische Verbindung zu einem lokalen Netzwerk hergestellt werden. Eine
physische Verbindung kann eine Verbindung über Kabel oder eine Wireless-Verbindung über Funkwellen sein.

Die Art der verwendeten physischen Verbindung hängt von der Konfiguration des Netzwerks ab. In vielen Büros haben die
Mitarbeiter zum Beispiel Desktop- oder Laptop-Computer, die physisch über Kabel an einem gemeinsamen Switch angeschlossen
sind. Diese Art der Installation ist ein kabelgebundenes Netzwerk. Daten werden über ein Kabel übertragen.

Neben kabelgebundenen Verbindungen bieten einige Unternehmen auch Wireless-Verbindungen für Laptops, Tablets und
Smartphones. Bei Wireless-Geräten werden die Daten mittels Funkwellen übertragen. Der Einsatz von Wireless-Verbindungen
wird immer häufiger, da Einzelpersonen und Unternehmen gleichermaßen die Vorteile dieser Dienste erkennen. Um Wireless-
Funktionen anzubieten, müssen Geräte auf einem Wireless-Netzwerk mit einem Wireless-Access-Point (AP) verbunden sein.

Switches und Wireless-Access-Points sind häufig zwei getrennte Geräte innerhalb eines Netzwerkes. Allerdings gibt es auch
Geräte, die sowohl kabelgebundene als auch Wireless-Verbindungen bieten. In vielen Heimnetzwerken benutzt man z. B.
integrierte Service-Router (ISR), wie in Abbildung 1 dargestellt. ISRs bieten einen Switch mit mehreren Ports, um mehrere Geräte
mit dem lokalen Netzwerk (LAN) unter Verwendung von Kabeln zu verbinden, wie in Abbildung 2 gezeigt. Außerdem gehört zu
vielen ISRs auch ein AP, der die Verbindung zu Wireless-Geräten ermöglicht.

Netzwerkkarten

Netzwerkkarten (NICs) verbinden ein Gerät mit dem Netzwerk. Ethernet-Netzwerkkarten werden für eine Kabelverbindung
verwendet (siehe Abbildung 1), während WLAN-Netzwerkkarten (Wireless-Local-Area-Network) für den Wireless-Zugang
verwendet werden. Ein Endgerät kann mit einer oder beiden Arten von Netzwerkkarten ausgestattet sein. Ein Netzwerkdrucker
kann beispielsweise nur eine Ethernet-Netzwerkkarte besitzen und muss deshalb über ein Ethernet-Kabel an das Netzwerk
angeschlossen werden. Andere Geräte wie Tablets und Smartphones besitzen nur eine WLAN-Netzwerkkarte und müssen folglich
eine Wireless-Netzwerkverbindung verwenden.

Nicht alle Verbindungen sind in Bezug auf das Leistungsniveau der jeweiligen Netzwerkanbindung als gleichwertig anzusehen.

Zum Beispiel kommt es bei einem Wireless-Gerät zu Leistungseinbußen aufgrund seiner Entfernung zum nächsten Wireless-
Access-Point. Je weiter das Gerät vom Access-Point entfernt ist, desto schwächer wird das empfangene Wireless-Signal. Dies
kann eine geringere Datenübertragungsrate oder den Ausfall der WLAN-Verbindung bedeuten. Abbildung 2 zeigt, dass ein
Wireless-Reichweitenverstärker verwendet werden kann, um das Funksignal für andere Teile des Heimnetzwerks zu verstärken,
die zu weit vom Wireless-Access-Point entfernt liegen. Alternativ kann eine Kabelverbindung verwendet werden, bei der sich die
Entfernung nicht auf die Leistung auswirkt.

Alle Wireless-Geräte teilen sich den Zugriff auf die Funkverbindung zum Wireless-Access-Point. Dies bedeutet, dass die
Netzwerkleistung sinkt, wenn mehrere Wireless-Geräte gleichzeitig auf das Netzwerk zugreifen. Ein kabelgebundenes Gerät teilt
den Zugriff auf das Netzwerk nicht mit anderen Geräten. Jedes kabelgebundene Gerät verfügt mit seinem Ethernet-Kabel über
einen separaten Kommunikationskanal. Dies ist für einige Anwendungen, wie Online-Gaming, Video-Streaming und
Videokonferenzen, bedeutsam, da sie eine höhere dedizierte Datenübertragungsrate als andere Anwendungen benötigen.

In den nächsten Abschnitten werden Sie mehr über die verwendeten Verbindungen der Bitübertragungsschicht erfahren und wie
diese Verbindungen den Datentransport beeinflussen.

4.1 Die Bitübertragungsschicht

Die OSI-Bitübertragungsschicht stellt die Funktionen bereit, um die Bits, die einen Frame der Sicherungsschicht bilden, über das
Netzwerkmedium zu transportieren. Diese Schicht übernimmt einen vollständigen Frame von der Sicherungsschicht und kodiert ihn
als eine Reihe von Signalen, die über das lokale Medium übertragen werden. Die kodierten Bits eines Frames werden entweder
von einem Endgerät oder einer aktiven Netzwerkkomponente empfangen.

Der Prozess, den die Daten von einem Quellknoten zu einem Zielknoten durchlaufen, gestaltet sich wie folgt:

• Die Benutzerdaten werden durch die Transportschicht segmentiert, von der Vermittlungsschicht in Pakete verpackt und von
der Sicherungsschicht weiter in Frames gekapselt.

• Die Bitübertragungsschicht kodiert die Frames und erzeugt die elektrischen, optischen oder Funkwellensignale.

• Diese Signale werden dann nacheinander über das Medium gesendet.

• Die Bitübertragungsschicht am Zielknoten empfängt die einzelnen Signale des Mediums, konvertiert diese wieder in Bits und
übergibt die Bits an die Sicherungsschicht als einen vollständigen Frame.
Medien der Bitübertragungsschicht

Es gibt drei Grundformen von Netzwerkmedien. Die Bitübertragungsschicht konvertiert und gruppiert Bits für jede Art von Medien:

• Kupferkabel: Die Signale entsprechen Mustern elektrischer Impulse.

• Glasfaserkabel: Die Signale entsprechen Lichtmustern.

• Wireless: Die Signale entsprechen Mustern von Mikrowellen.

Die Abbildung zeigt Signalbeispiele für Kupfer- und Glasfaserkabel sowie Wireless.

Um die Interoperabilität der Bitübertragungsschicht zu gewährleisten, werden alle Aspekte dieser Funktionen durch
Standardisierungsorganisationen geregelt.

Standards der Bitübertragungsschicht

Die Protokolle und Operationen der oberen OSI-Schichten werden in Software ausgeführt, entwickelt von Software-Ingenieuren
und Informatikern. Die Dienste und Protokolle der TCP/IP-Protokollfamilie werden von der Internet Engineering Task Force (IETF)
definiert.

Die Bitübertragungsschicht besteht aus elektronischen Schaltkreisen, Medien und Anschlüssen, die von Ingenieuren entwickelt
wurden. Daher wurden die Standards für diese Hardware von den jeweiligen Elektro- und Kommunikationstechnik-Organisationen
definiert.

Es gibt viele verschiedene internationale und nationale Organisationen, staatliche Aufsichtsbehörden und private Unternehmen, die
an dem Entwurf und der Weiterentwicklung der Bitübertragungsschicht-Standards beteiligt sind. So werden zum Beispiel die
Hardware der Bitübertragungsschicht, die Medien, die Kodierung und Signalisierungsstandards von folgenden Organisationen
definiert und überwacht:
• International Organization for Standardization (ISO)

• Telecommunications Industry Association/Electronic Industries Association (TIA/EIA)

• International Telecommunication Union (ITU)

• American National Standards Institute (ANSI)

• Institute of Electrical and Electronics Engineers (IEEE)

• Nationale Telekommunikationsregulierungsbehörden, einschließlich der Federal Communication Commission (FCC) in den


USA und der European Telecommunications Standards Institute (ETSI)

Neben diesen gibt es oft regionale Verkabelungsstandard-Gruppen wie CSA (Canadian Standards Association), CENELEC
(Europäisches Komitee für elektrotechnische Normung) und JSA/JIS (Japanese Standards Association), die lokale Vorgaben
entwickeln.

Funktionen

Die Bitübertragungsschicht-Standards betreffen drei Funktionsbereiche:

Physische Komponenten

Die physischen Komponenten umfassen die Hardware, Medien und andere Steckverbinder, welche Bits in Form von Signalen
übertragen und weiterleiten. Hardwarekomponenten wie Netzwerkkarten, Schnittstellen und Steckverbinder, Kabelmaterialien und
Kabelkonstruktionen sind alle in Standards der Bitübertragungsschicht festgelegt. Die verschiedenen Anschlüsse und Schnittstellen
auf einem Cisco 1941-Router sind Beispiele von physischen Komponenten mit spezifischen Steckverbindern und Pinbelegungen,
die auf Standards beruhen.

Kodierung

Kodierung oder Leitungskodierung ist ein Verfahren zur Umwandlung eines Stroms von Datenbits in einen vordefinierten Code.
Codes sind Gruppierungen von Bits in ein vorhersagbares Muster, das sowohl vom Sender als auch vom Empfänger erkannt wird.
Bei Netzwerken entspricht die Kodierung einem Muster aus Bits, die Spannung oder Strom, repräsentieren, also eine Folge von
0ern und 1ern.

Bei der Manchester-Kodierung wird eine 0 als Übergang von hoher Spannung auf eine niedrige und eine 1 als Übergang von
niedriger auf hohe Spannung dargestellt. Ein Beispiel der Manchester-Kodierung wird in Abbildung 1 veranschaulicht. Der
Übergang erfolgt an der Mitte jeder Bit-Periode. Diese Art der Kodierung wird beim 10-bit/s-Ethernet verwendet. Schnellere
Datenraten benötigen eine komplexere Kodierung.

Signalisierung

Die Bitübertragungsschicht muss elektrische, optische oder Wireless-Signale generieren, die „1“ und „0“ auf dem Medium
darstellen. Das Verfahren zur Darstellung der Bits wird als Signalisierungsmethode bezeichnet. Die Bitübertragungsschicht-
Standards müssen definieren, welche Art von Signal für „1“ steht und welche Art von Signal eine „0“ repräsentiert. Dies kann
einfach eine Änderung des Pegels eines elektrischen Signals oder eines optischen Impulses sein. Zum Beispiel könnte ein langer
Impuls als 1 dargestellt werden, während ein kurzer Impuls eine 0 ist.

Dies ist ähnlich dem Morsecode für die Kommunikation. Der Morsecode ist ein weiteres Signalisierungsverfahren, das eine Reihe
von Ein-Aus-Tönen, Licht oder Klicks verwendet, um Text über Telefonleitungen oder zwischen Schiffen auf See zu senden.

Es gibt viele Möglichkeiten der Signalübertragung. Eine gängige Methode verwendet Modulationstechniken. Modulation ist der
Prozess, durch den die Charakteristik einer Welle (das Signal) eine andere Welle (den Träger) ändert.

Die tatsächlichen Signale, welche die Bits auf dem Medium darstellen, werden durch das benutzte Signalisierungsverfahren
bestimmt.

Abbildung 2 veranschaulicht, wie die AM- und FM-Techniken für die Signalübertragung verwendet werden.
Datenübertragungsrate

Verschiedene physische Medien unterstützen die Übertragung von Bits mit unterschiedlichen Raten. Die Datenübertragung wird in
der Regel durch die Datenübertratungsrate sowie die tatsächliche Datenübertragungsrate angegeben.

Die Datenübertragungsrate drückt die Kapazität eines Mediums zur Übertragung von Daten aus. Die digitale
Datenübertragungsrate ist ein Maß dafür, wie viele Informationen in einer bestimmten Zeit von einem Ort an einen anderen
übertragen werden können. Die Datenübertragungsrate wird in der Regel in Kilobit pro Sekunde (Kbit/s), Megabit pro Sekunde
(Mbit/s) oder Gigabit pro Sekunde (Gbit/s) gemessen. Die Datenübertragungsrate wird oft für die Geschwindigkeit gehalten, mit der
Bits übertragen werden, was jedoch nicht korrekt ist. Beispiel: Sowohl im Ethernet mit 10 Mbit/s als auch mit 100 Mbit/s werden die
Bits mit der für Elektronen charakteristischen Ausbreitungsgeschwindigkeit, die in beiden Fällen gleich ist, gesendet. Der
Unterschied besteht in der Anzahl von Bits, die pro Sekunde übertragen werden.

Das Zusammenspiel verschiedener Faktoren bestimmt die tatsächliche Datenübertragungsrate in einem Netzwerk: -
- Die Eigenschaften des physischen Mediums -
- Die Technologien, die für die Signalisierung und Erfassung von Netzwerksignalen gewählt werden

Physische Medieneigenschaften, aktuelle Technologien und die Gesetze der Physik spielen bei der Bestimmung der verfügbaren
Datenübertragungsrate eine Rolle. Die Tabelle zeigt die am häufigsten verwendeten Maßeinheiten für die Datenübertragungsrate.
Tatsächliche Datenübertragungsrate

Die tatsächliche Datenübertragungsrate ist das Maß für die Übertragung von Bits über das Medium über einen bestimmten
Zeitraum.

Aufgrund einer Reihe von Faktoren stimmt die tatsächliche Datenübertragungsrate in der Regel nicht mit der angegebenen
Datenübertragungsrate der Bitübertragungsschicht überein. Viele Faktoren beeinflussen die tatsächliche Datenübertragungsrate.
Dazu gehören:

• Die Menge des Datenverkehrs

• Die Art des Datenverkehrs

• Die Latenzzeit, die erzeugt wird durch die Anzahl von Netzwerkgeräten, die sich zwischen Quelle und Ziel befinden

Die Latenzzeit bezieht sich auf die Verzögerungszeit für Daten, die von einem bestimmten Punkt zu einem anderen übertragen
werden.

In einem Internet oder Netzwerk mit mehreren Segmenten kann die tatsächliche Datenübertragungsrate nicht schneller sein als die
langsamste Verbindung auf dem Weg von der Quelle zum Ziel. Selbst wenn alle oder die meisten der Segmente eine hohe
Datenübertragungsrate aufweisen, ist ein einzelnes Segment im Pfad mit einer niedrigen tatsächlichen Datenübertragungsrate
ausreichend, um einen Engpass für die tatsächliche Datenübertragungsrate des gesamten Netzwerks zu bilden.

Es gibt viele Online-Geschwindigkeitstests, die die tatsächliche Datenübertragungsrate einer Internetverbindung messen. Die
Abbildung zeigt Beispiele von Ergebnissen eines Geschwindigkeitstest.

Es gibt eine dritte Messung für die Übertragung von Nutzdaten, bekannt als Goodput. Goodput ist die Messung der nutzbaren
Daten, die über einen bestimmten Zeitraum übertragen werden. Goodput gibt die tatsächliche Datenübertragungsrate abzüglich
Overhead für das Einrichten von Sitzungen, Bestätigungen und Kapselung an.

Arten physischer Medien

Die Bitübertragungsschicht erzeugt die Darstellung und Gruppierungen von Bits als Spannungen, Funkfrequenzen oder
Lichtimpulse. Verschiedene Standardisierungs-Organisationen haben zur Definition der physikalischen, elektrischen und
mechanischen Eigenschaften der Medien beigetragen. Diese Spezifikationen garantieren, dass Kabel und Anschlüsse für
verschiedene Sicherungsschichtimplementierungen erwartungsgemäß funktionieren.

Ein Beispiel: Standards für Kupfermedien sind definiert für:

• die Art der verwendeten Kupferverkabelung

• die Datenübertragungsrate der Kommunikation

• die verwendeten Anschlusstypen

• Pinbelegung und Farbcodes der Medienverbindungen

• die maximale Länge der Medien


Die Abbildung zeigt verschiedene Arten von Schnittstellen und Ports eines 1941-Routers.
4.2 Netzwerkmedien
Eigenschaften von Kupferkabeln

Netzwerke verwenden Kupfermedien, da diese kostengünstig und leicht zu installieren sind sowie einen geringen elektrischen
Widerstand haben. Allerdings besitzen Kupfermedien Einschränkungen, wenn es um Übertragungsdistanzen und Störanfälligkeit
der Signale geht.

Daten werden auf Kupferkabeln als elektrische Impulse übertragen. Die Netzwerk-Schnittstelle des Ziels empfängt ein Signal, das
erfolgreich dekodiert wird und mit dem gesendeten Signal übereinstimmt. Je länger das Signal jedoch unterwegs ist, desto
schlechter wird es. Dies wird als Signaldämpfung bezeichnet. Aus diesem Grund gelten für alle Kupfermedien strenge
standardisierte Entfernungsbeschränkungen.

Die Zeitsteuerung und die Spannungswerte der elektrischen Impulse sind darüber hinaus anfällig für Störungen aus zwei Quellen:

• Elektromagnetische Interferenz (EMI) oder Hochfrequenzstörung (RFI) – EMI- und RFI-Signale können Datensignale,
die über Kupfermedien übertragen werden, verfälschen und beschädigen. Zu den möglichen Quellen für EMI und RFI
gehören Radiowellen und elektromagnetische Geräte wie Leuchtstofflampen oder Elektromotoren, wie in der Abbildung
dargestellt.

• Übersprechen – Übersprechen ist eine Störung, die dadurch verursacht wird, dass das elektrische oder magnetische Feld
eines Signals auf einer Ader das Signal der benachbarten Ader stört. In Telefonleitungen kann das Übersprechen dazu
führen, dass man Teile eines anderen Gesprächs einer benachbarten Leitung hört. Wenn ein elektrischer Strom durch eine
Ader fließt, entsteht ein kleines, kreisförmiges Magnetfeld um diese Ader, das von einer benachbarten Ader aufgenommen
werden kann.

Starten Sie die Animation in der Abbildung, um zu sehen, wie die Datenübertragung durch Störungen beeinträchtigt werden kann.

Um die negativen Auswirkungen von EMI und RFI einzudämmen, werden einige Arten von Kupferkabeln mit metallischer
Abschirmung versehen. Diese erfordern eine korrekte Erdung.

Um die negativen Auswirkungen von Übersprechen einzudämmen, werden bei einigen Arten von Kupferkabeln
zusammengehörende Aderpaare miteinander verdrillt. Dies verhindert das Übersprechen.

Die Anfälligkeit von Kupferkabeln für elektronisches Rauschen kann ebenfalls begrenzt werden durch:

- Die Auswahl des Kabeltyps oder der Kategorie, die am besten zu einer bestimmten Netzwerkumgebung passen.
- Die Planung einer Kabelinfrastruktur, um bekannte und potenzielle Störquellen in der Gebäudestruktur zu umgehen.
- Verkabelungstechniken, die den richtigen Umgang und Abschluss der Kabel betreffen.
Kupfermedien

Es gibt drei Haupttypen von Kupfermedien, die bei der Vernetzung verwendet werden:

• Unshielded-Twisted Pair (UTP)

• Shielded-Twisted Pair (STP)

• Koaxial

Diese Kabel werden verwendet, um Knoten in einem LAN und aktive Netzwerkkomponenten wie Switches, Router und Wireless-
Access-Points miteinander zu verbinden. Jede Art der Verbindung und die eingesetzten Geräte stellen Anforderungen an die
Verkabelung, die durch Standards der Bitübertragungsschicht festgelegt sind.

Unterschiedliche Standards der Bitübertragungsschicht bestimmen die Nutzung verschiedener Steckverbinder. Diese Standards
spezifizieren die mechanischen Abmessungen der Steckverbinder und die zulässigen elektrischen Eigenschaften jedes Typs.
Netzwerkmedien verwenden modulare Buchsen und Stecker, um eine einfache Verbindung und Trennung zu ermöglichen. Ebenso
kann ein einziger Steckverbindertyp für mehrere Verbindungsarten verwendet werden. Zum Beispiel wird der RJ-45-Steckverbinder
in LANs mit einem bestimmten Kabeltyp eingesetzt, in einigen WANs aber mit einem ganz anderen Medientyp.

UTP-Kabel

Unshielded-Twisted-Pair-Kabel (UTP) ist das häufigste Netzwerk-Medium. UTP-Kabel mit RJ-45-Steckverbindern werden für die
Verbindung von Netzwerk-Hosts mit Zwischennetzwerkgeräten wie Switches und Router eingesetzt.
In LANs besteht das UTP-Kabel aus vier Paaren farbkodierter Adern, die miteinander verdrillt sind und sich in einer flexiblen
Kunststoffhülle befinden, die vor kleineren Beschädigungen schützt. Die Verdrillung der Adern schützt vor Signalstörungen. Wie in
der Abbildung zu sehen ist, identifizieren die Farbcodes die einzelnen Paare und Adern und helfen beim Auflegen der Adernpaare.

STP-Kabel

Shielded-Twisted Pair (STP) bietet einen besseren Schutz vor Störungen als UTP-Verkabelung. Verglichen mit UTP-Kabeln ist ein
STP-Kabel jedoch deutlich teurer und schwieriger zu installieren. Wie UTP-Kabel verwendet auch STP einen RJ-45-
Steckverbinder.

STP-Kabel kombinieren die Techniken der Abschirmung gegen EMI und RFI mit dem Verdrillen der Adern gegen das
Übersprechen. Um eine vollständige Abschirmung zu erzielen, werden STP-Kabel mit speziellen geschirmten STP-
Steckverbindern abgeschlossen. Wenn das Kabel nicht richtig geerdet ist, kann der Schirm wie eine Antenne unerwünschte
Signale aufnehmen. Das dargestellte STP-Kabel verwendet vier Aderpaare, jedes in einer Folienabschirmung, die dann insgesamt
von einem Metallgeflecht oder einer Folie umgeben sind.
Koaxialkabel

Das Koaxialkabel, abgekürzt Koax, leitet seinen Namen von der Tatsache ab, dass zwei Leiter um die gleiche Achse angeordnet
sind. Wie in der Abbildung gezeigt, besteht ein Koaxialkabel aus:

• Einem Kupferleiter, um die elektronischen Signale zu übertragen.

• Einer Schicht flexibler Plastikisolierung, die einen Kupferleiter umgibt.

• Über dem Isoliermaterial befindet sich ein Drahtgeflecht aus Kupfer oder eine Metallfolie, die als zweite Ader in der Leitung
und als Abschirmung für den inneren Leiter dient. Diese zweite Schicht oder Abschirmung reduziert auch den Einfluss der
äußeren elektromagnetischen Störungen.

• Das gesamte Kabel ist mit einem Kabelmantel umgeben, um es vor kleineren Beschädigungen zu schützen.

Es werden verschiedene Arten von Steckverbindern bei Koaxialkabeln verwendet.

Obwohl UTP-Kabel in modernen Ethernet-Installationen im Wesentlichen die Koaxialkabel ersetzt haben, wird das Koaxial-Kabel-
Design in folgenden Szenarien eingesetzt:

• Wireless-Installationen: Koaxialkabel verbinden Antennen mit Wireless-Geräten. Das Koaxialkabel überträgt Hochfrequenz-
(HF)-Energie zwischen den Antennen und der Funktechnik.

• Kabel-Internet-Installationen: Kabeldienstanbieter stellen ihren Kunden Internetverbindungen bereit, indem sie Teile des
Koaxialkabels und die Verstärkerelemente durch Glasfaserkabel ersetzen. Jedoch erfolgt die Verkabelung innerhalb des
Kundenstandorts weiterhin über Koaxialkabel.
Sicherheit bei Kupfermedien

Alle drei Arten von Kupfermedien sind anfällig für Feuer und elektrische Störungen.

Brandgefahr besteht, da Kabelisolierung und Umhüllungen entzündlich sind oder bei Erhitzung/Brand giftige Dämpfe erzeugen.
Baubehörden oder Organisationen können damit verbundene Sicherheitsstandards für die Verkabelung und die
Hardwareinstallationen festlegen.

Elektrische Gefahren können entstehen, wenn Kupferdrähte Strom in unerwünschter Weise leiten. Dies kann für Personal und
Sachgegenstände eine elektrische Gefährdung darstellen. Zum Beispiel könnte ein defektes Netzwerkgerät Strom auf das
Gehäuse anderer Netzwerkgeräte leiten. Darüber hinaus könnte die Netzwerkverkabelung unerwünschte Spannungen erzeugen,
wenn sie Geräte verbindet, die Stromversorgungen mit unterschiedlichem Erdungspotential haben. Solche Situationen entstehen,
wenn die Kupferverkabelung zur Verbindung von Netzwerken in verschiedenen Gebäuden oder auf verschiedenen Etagen mit
unterschiedlicher Stromversorgung verwendet wird. Schließlich kann Kupferverkabelung Spannungen durch Blitzschlag auf
Netzwerkgeräte weiterleiten.

Das Ergebnis unerwünschter Spannungen und Ströme sind Schäden an Netzwerkgeräten und verbundenen Computern sowie
Verletzungen von Personen. Es ist wichtig, dass die Kupferverkabelung sachgerecht und nach den einschlägigen Spezifikationen
und Bauvorschriften installiert ist, um potenzielle Gefahren- und Schadenssituationen zu vermeiden.

Die Abbildung zeigt korrekte Verkabelungspraktiken, um mögliche Brandgefahr und elektrische Gefahren zu vermeiden.

Aktivitat – Merkmale von Kupfermedien


Eigenschaften der UTP-Verkabelung

Eine Unshielded-Twisted-Pair-Verkabelung (UTP) besteht aus vier Kupfer-Adernpaaren, die miteinander verdrillt sind. Sowohl jede
Ader als auch alle vier Adernpaare sind mit Kunststoff ummantelt. Die geringe Dimensionierung bietet Vorteile bei der Installation.

Beim UTP-Kabel erfolgt keine Abschirmung gegen mögliche EMI- und RFI-Störungen. Stattdessen haben die Kabelentwickler
entdeckt, dass sie die negativen Auswirkungen des Übersprechens wie folgt begrenzen können:

• Aufhebungseffekt: Entwickler fassen dazu Aderpaare in einem Stromkreis zusammen. Wenn zwei Adern in einem
Stromkreis dicht nebeneinander angeordnet werden, weisen die Magnetfelder eine genau entgegengesetzte Richtung auf.
Daher heben sich die beiden Magnetfelder gegenseitig auf und löschen gleichzeitig jedes EMI- und RFI-Signal von
außerhalb.

• Variation des Drallschritts pro Aderpaar: Um den Aufhebungseffekt von Aderpaaren weiter zu erhöhen, variieren die
Entwickler den Drallschritt jedes Aderpaares in einem Kabel. UTP-Kabel müssen genauen Spezifikationen im Hinblick auf
den Drallschritt oder Umflechtungen pro Meter Kabel entsprechen. Wie Sie in der Abbildung sehen, ist das orange/orange-
weiße Kabelpaar weniger verdrillt als das blau/blau-weiße Kabelpaar. Jedes Kabelpaar einer Farbe weist einen
unterschiedlichen Drallschritt auf.

UTP-Kabel stützen sich ausschließlich auf den von den verdrillten Aderpaaren verursachten Auslöschungseffekt, um die
Signalverschlechterung zu begrenzen und bieten eine effektive Abschirmung für Kabelpaare innerhalb des Netzwerkmediums.

Standards der UTP-Verkabelung

Die UTP-Verkabelung entspricht den von der TIA/EIA gemeinsam festgelegten Standards. Insbesondere fordert TIA/EIA-568 die
Einhaltung der kommerziellen Verkabelungsstandards für LAN-Installationen. Es ist der am häufigsten eingesetzte Standard in
LAN-Umgebungen. Einige der festgelegten Elemente sind:

• Kabeltypen

• Kabellängen

• Steckverbinder

• Kabelabschluss

• Prüfverfahren für Kabel

Die elektrischen Eigenschaften der Kupferkabel definiert das Institute of Electrical and Electronics Engineers (IEEE). Das IEEE teilt
die UTP-Verkabelung nach Leistung ein. Die Kabel werden in Kategorien eingeteilt, basierend auf ihrer Fähigkeit zur Handhabung
höherer Datenübertragungsraten. Zum Beispiel wird ein Kabel der Kategorie 5 (Cat5) häufig in 100BASE-TX FastEthernet-
Installationen eingesetzt. Weitere Kategorien sind: „Enhanced“ Kategorie-5-Kabel (Cat5e), Kategorie 6 (Cat6) und Kategorie 6a.

Kabel höherer Kategorien sind so konzipiert und aufgebaut, dass sie höhere Datenraten übertragen. Für die neuen
GigabitEthernet-Technologien erfüllt Cat5e die Mindestanforderungen. Cat6 ist der empfohlene Typ für Neuinstallationen.

Klicken Sie auf jede Kabelkategorie in der Abbildung, um mehr über deren Eigenschaften zu erfahren.

Einige Hersteller fertigen Kabel, welche die Spezifikationen der TIA/EIA Kategorie 6a übertreffen. Sie bezeichnen diesen Typ als
Kategorie 7.
UTP-Steckverbinder

UTP-Kabel werden in der Regel mit einem RJ-45-Steckverbinder angeschlossen. Dieser Steckverbinder wird für eine Reihe von
Spezifikationen der Bitübertragungsschicht verwendet. Eine davon ist Ethernet. Der Standard TIA/EIA-568 beschreibt die
Zuordnung der Aderpaar-Farbcodes zu den entsprechenden Pins (Pinouts) für Ethernet-Kabel.

Wie Abbildung 1 zeigt, ist der RJ-45-Steckverbinder als männliche Komponente am Ende des Kabels gecrimpt. Die Buchse stellt
das weibliche Gegenstück in einem Netzwerkgerät, einer Wand- oder Schrankdose oder einem Verteilerfeld dar.

Beim Terminieren einer Kupferverkabelung besteht die Möglichkeit das Signalverluste auftreten und Signalrauschen in den
Kommunikationsstrom eingebracht wird. Jedes Kabel, das nicht ordnungsgemäß terminiert ist, stellt eine potentielle Quelle für
Leistungseinbußen auf der Bitübertragungsschicht dar. Es ist wichtig, dass jede Terminierung von Kupfermedien eine hohe
Qualität aufweist, um eine optimale Leistung der aktuellen und zukünftigen Netzwerktechnologien zu gewährleisten.

Abbildung 2 zeigt ein Beispiel für ein schlecht terminiertes und ein gut terminiertes UTP-Kabel.
Arten von UTP-Kabeln

Unterschiedliche Situationen erfordern UTP-Kabel, die verschiedenen Verkabelungskonventionen entsprechen. Dies bedeutet,
dass die einzelnen Kabeladern in unterschiedlicher Reihenfolge an verschiedene Pins des RJ-45-Steckverbinders angeschlossen
werden müssen.

Die folgenden Kabeltypen sind die wichtigsten, für die spezifische Verkabelungskonventionen gelten:

• Ethernet-Patch-Kabel: Der gebräuchlichste Netzwerkkabeltyp. Er wird normalerweise verwendet, um einen Host mit einem
Switch und einen Switch mit einem Router zu verbinden.

• Ethernet-Crossover-Kabel: Dieses Kabel wird verwendet, um gleiche Geräte miteinander zu verbinden. Zum Beispiel, um
einen Switch mit einem Switch, einen Host mit einem Host oder einen Router mit einen Router zu koppeln.

• Rollover: Ein Kabel speziell für Cisco Geräte, um die Verbindung von einer Workstation zu einem Router- oder Switch-
Konsolen-Port herzustellen.

Die Abbildung zeigt den UTP-Kabeltyp, die geltenden Standards und die typische Anwendung. Sie zeigt auch die einzelnen
Aderpaare gemäß den TIA-568A- und TIA-568B-Standards.

Die falsche Verwendung eines Crossover- oder Patch-Kabels zwischen Geräten beschädigt diese zwar nicht, ermöglicht aber
keinerlei Verbindung und Kommunikation zwischen den Geräten. Dies ist ein häufiger Fehler im Labor. Die Überprüfung, ob die
Geräteverbindungen korrekt sind, sollte die erste Maßnahme der Fehlersuche sein, wenn keine Verbindung besteht.
Testen von UTP-Kabeln

Nach der Installation wird ein UTP-Kabel-Tester eingesetzt (siehe Abbildung), um die folgenden Parameter zu prüfen:

• Verkabelungsschema

• Kabellänge

• Signalverlust durch Dämpfung

• Übersprechen (Crosstalk)

Es wird empfohlen, gründlich zu prüfen, ob alle UTP-Installationsanforderungen erfüllt sind.


Eigenschaften der Glasfaserverkabelung

Das Glasfasernetz ermöglicht die Übertragung von Daten über größere Entfernungen und mit höherer Datenübertragungsrate als
andere Netzwerkmedien. Im Gegensatz zu Kupferkabeln können Glasfaserkabel Signale mit geringer Dämpfung übertragen und
sind unempfindlich gegenüber EMI und RFI. Das Glasfasernetz wird häufig verwendet, um Netzwerkgeräte zu verbinden.

Glasfaser ist ein flexibler, aber extrem dünner transparenter Faden aus sehr reinem Glas, nicht viel dicker als ein menschliches
Haar. Bits werden auf der Faser als Lichtimpulse kodiert. Das Glasfaserkabel dient als Wellen- oder Lichtleiter, um Licht zwischen
den beiden Kabelenden mit minimalem Signalverlust zu übertragen.

Als Analogie stellen Sie sich eine leere Papierhandtuchrolle vor, die auf der Innenseite verspiegelt ist. Sie ist tausend Meter lang,
und um Morsesignale mit Lichtgeschwindigkeit zu senden, wird ein kleiner Laser-Pointer verwendet. Ein Glasfaserkabel funktioniert
ähnlich, außer dass es einen kleineren Durchmesser hat und mit ausgeklügelten Lichttechnologien arbeitet.

Für Glasfaserverkabelungen gibt es vier Verwendungsarten:

• Unternehmensnetzwerke: Glasfaser wird für die Backbone-Verkabelung eingesetzt und verbindet aktive
Netzwerkkomponenten miteinander.

• Fiber-to-the-Home (FTTH): Wird genutzt, um stetig verfügbare Breitbanddienste für Heimnetzwerke und kleine
Unternehmen zu bieten.

• Langstreckennetze: Werden von Service-Providern verwendet, um Länder und Städte zu verbinden.

• Unterseekabel: Werden verwendet, um zuverlässige Hochgeschwindigkeits- und Hochleistungslösungen zu bieten, die raue
Unterwasserbedingungen über transozeanische Entfernungen aushalten. Klicken Sie hier, um eine telegeografische Karte
anzuzeigen, die den Standort von Unterseekabeln darstellt.

Unser Schwerpunkt dieses Kurses ist die Verwendung von Glasfasern in Unternehmen.

Glasfaserkabel-Design

Glasfasern bestehen aus zwei Arten von Glas (Kern und Mantel) und einem äußeren Schutzschirm (Ummantelung). Klicken Sie
auf die einzelnen Komponenten in der Abbildung, um weitere Informationen anzuzeigen.

Obwohl Glasfasern sehr dünn und anfällig gegenüber starken Biegungen sind, macht das besondere Material von Kern und Mantel
die Kabel sehr widerstandsfähig. Glasfasern sind robust und sie werden unter widrigen Umgebungsbedingungen bei Netzwerken
auf der ganzen Welt eingesetzt.
Arten von Glasfaser-Medien

Die Darstellung der Bitströme auf dem Medium erfolgt durch Lichtimpulse. Diese werden erzeugt von:

• Lasern

• Leuchtdioden (LEDs)

Elektronische Halbleiter, so genannte Photodioden, fangen die Lichtimpulse auf und wandeln sie in Spannungen um. Das über
Glasfaserkabel übertragene Laserlicht kann das menschliche Auge schädigen. Es ist zu vermeiden in das Ende einer aktiven
optischen Glasfaser zu schauen.

Glasfaserkabel lassen sich grob in zwei Typen einteilen:

• Singlemode-Faser (SMF): Besteht aus einem sehr kleinen Kern und verwendet teure Laser-Technologie, um einen
einzelnen Lichtstrahl zu senden, wie in Abbildung 1 gezeigt. Gängig für Datenübertragungen über große Entfernungen von
Hunderten von Kilometern, die z. B. für Langstrecken-Telefonie und Kabel-TV-Anwendungen erforderlich sind.

• Multimode-Faser (MMF): Besteht aus einem größeren Kern und nutzt LEDs, um Lichtimpulse zu senden. Präziser
ausgedrückt: das Licht einer LED tritt in verschiedenen Winkeln in die Multimode-Faser ein, wie in Abbildung 2 gezeigt.
Gängig in LANs, da sie durch kostengünstige LEDs mit Strom versorgt werden können. Sie liefern Datenübertragungsraten
bis zu 10 Gbit/s über Streckenlängen von bis zu 550 Metern.

Eine der dargestellten Unterschiede zwischen Multimode- und Singlemode-Faser ist die Größe der Dispersion. Dispersion
beschreibt die zeitliche Ausdehnung eines Lichtimpulses. Je größer die Dispersion ist, desto größer ist der Verlust an Signalstärke.
Glasfaser-Steckverbinder

Ein Glasfaser-Steckverbinder bildet den Abschluss einer optischen Faser. Eine Vielzahl von Glasfaser-Steckverbindern steht zur
Verfügung. Die wichtigsten Unterschiede zwischen den Steckverbinderarten sind die Abmessungen und die Methoden der
Kopplung. Unternehmen entscheiden sich für die Steckverbinderarten, die am besten für ihre Systeme geeignet sind.

Klicken Sie auf die verschiedenen Steckverbinder in der Abbildung, um mehr über die gängigsten Arten von Glasfaser-
Steckverbindern zu erfahren.

Da Licht über Glasfaser nur in einer Richtung geleitet werden kann, benötigt der Vollduplex-Betrieb zwei Fasern. Folglich bestehen
Glasfaser-Patchkabel aus zwei gebündelten Glasfaserkabeln, die mit einem Paar von standardmäßigen Einzelfaser-
Steckverbindern abgeschlossen werden. Bei einigen Fasersteckverbindern können die Sende- und Empfangsfasern in einem
einzigen Steckverbinder aufgenommen werden, der als Duplex-Steckverbinder bezeichnet wird, wie in dem Duplex Multimode LC-
Steckverbinder in Abbildung 1 gezeigt.

Für die Verbindung von aktiven Netzwerkkomponenten sind Glasfaser-Patchkabel erforderlich. Abbildung 2 zeigt verschiedene
gebräuchliche Patchkabel: Durch die Verwendung von Farbe wird zwischen Single-Mode- und Multimode-Patchkabeln
unterschieden. Eine gelbe Ummantelung ist für Single-Mode-Glasfaserkabel und eine orangefarbige (oder blaugrüne) für
Multimode-Glasfaserkabel.

Glasfaserkabel sollten mit einer kleinen Plastikkappe geschützt werden, wenn sie unbenutzt sind.
Testen von Glasfaserkabeln

Abschluss und Spleißen einer Glasfaserverkabelung erfordert eine spezielle Ausbildung und Ausrüstung. Ein falscher Abschluss
von Glasfasermedien führt zu einer verminderten Signalreichweite oder einem vollständigen Ausfall der Übertragung.

Drei typische Arten von Glasfaser-Spleiß und -Abschlussfehlern sind:

• Ausrichtungsfehler: Die faseroptischen Medien sind bei der Verbindung nicht genau aufeinander ausgerichtet.

• Fehlerhafte Übergänge: Die Medien berühren sich an der Spleiß- oder Verbindungsstelle nicht vollständig.

• Fehlerhafte Faserenden: Die Medienenden sind nicht gut poliert oder der Anschluss ist verschmutzt.

Ein schneller und einfacher Test kann mit einer Taschenlampe durchgeführt werden, indem man in ein Ende der Faser
hineinleuchtet und das andere Ende beobachtet. Wenn Licht sichtbar ist, leitet die Faser Licht. Obwohl dies nichts über die
Leistung aussagt, ist es eine schnelle und kostengünstige Möglichkeit, einen Faserbruch zu erkennen.

Ein Optical Time Domain Reflectometer (OTDR) (siehe Abbildung) wird genutzt, um jedes Glasfaserkabel-Segment zu prüfen.
Dieses Gerät speist einen Testlichtimpuls in das Kabel ein und misst die Rückstreuung und Reflexion des Lichts als eine Funktion
der Zeit. Das OTDR berechnet die ungefähre Entfernung des Kabels bis zur Stelle, an der der Fehler erkannt wurde.
Glasfaser versus Kupfer

Der Gebrauch von Glasfaserkabeln bietet im Vergleich zu Kupferkabeln viele Vorteile. Die Abbildung zeigt einige dieser
Unterschiede.

Da die in Glasfaser-Medien verwendeten Fasern keine elektrischen Leiter sind, erweisen sich die Medien immun gegen
elektromagnetische Störungen und unerwünschte elektrische Ströme durch Erdungsprobleme. Glasfasern sind dünn, haben einen
relativ geringen Signalverlust und können über viel größere Entfernungen als Kupfermedien ohne Signalregeneration betrieben
werden. Einige Spezifikationen der Bitübertragungsschicht für Glasfaser erlauben Entfernungen von mehreren Kilometern.

Derzeit wird in den meisten Unternehmensumgebungen Glasfaser vor allem als Backbone-Verkabelung für Punkt-zu-Punkt-
Verbindungen mit hohem Datenaufkommen und für die Verbindung von Gebäuden eingesetzt. Da Glasfaser nicht elektrisch leitend
ist und einen niedrigen Signalverlust hat, ist es für diese Zwecke gut geeignet.
Eigenschaften von Wireless-Medien

Wireless-Medien übertragen elektromagnetische Signale durch Radio- oder Mikrowellenfrequenzen.

Wireless-Medien bieten die besten Mobilitätsoptionen aller Medien, und die Zahl der Wireless-Geräte steigt. Durch die
zunehmenden Datenübertragungsraten, gewinnt Wireless auch in Unternehmensnetzwerken schnell an Popularität.

Die Abbildung zeigt verschiedene Wireless-Symbole.

Allerdings hat Wireless einige Problembereiche:

• Abdeckungsbereich: Wireless-Datenkommunikationstechnologien arbeiten gut in offenen Umgebungen. Jedoch begrenzen


bestimmte Baumaterialien in Gebäuden und die lokale Umgebung die effektive Reichweite.

• Interferenz: Wireless ist störanfällig und kann durch normale Haushaltsgeräte wie schnurlose Telefone, einige Arten von
Leuchtstofflampen, Mikrowellenherde und andere Wireless-Kommunikation beeinträchtigt werden.

• Sicherheit: Wireless-Kommunikation erfordert keinen Zugriff auf ein physisches Medium. Daher können Geräte und
Benutzer, die keine Berechtigung für das physische Netzwerk besitzen, Zugriff erhalten. Netzwerksicherheit ist ein wichtiger
Bestandteil der Wireless-Netzwerkadministration.

• Gemeinsam genutztes Medium: WLANs arbeiten im Halbduplex-Modus. Dies bedeutet, dass immer nur ein Gerät senden
oder empfangen kann. Das Wireless-Medium wird unter allen Wireless-Benutzern aufgeteilt. Je mehr Benutzer gleichzeitig
auf das WLAN zugreifen müssen, desto weniger Bandbreite bleibt für jeden Benutzer. Halbduplex wird später in diesem
Kapitel behandelt.

Obwohl die Popularität von Wireless bei Desktop-Verbindungen steigt, bleiben Kupfer und Glasfaser die beliebtesten Medien der
Bitübertragungsschicht für Netzwerkeinrichtungen.

Wireless-Standards

Die IEEE- und Telekommunikationsindustrie-Standards für die Wireless-Datenkommunikation decken sowohl die Datenverbindung
als auch die Bitübertragungsschichten ab. Klicken Sie auf die einzelnen Standards in der Abbildung, um weitere Informationen zu
erhalten.

Hinweis: Andere Wireless-Technologien wie Mobilfunk- und Satellitenkommunikation können ebenfalls


Datennetzwerkverbindungen bieten. Allerdings sprengen diese Wireless-Technologien den Rahmen dieses Kapitels.

In jedem dieser Standards werden Spezifikationen der Bitübertragungsschicht auf folgende Bereiche angewendet:

• Kodierung von Daten in Funksignale

• Frequenz und Sendeleistung der Übertragung

• Signalempfangs- und Dekodierungs-Anforderungen

• Antennendesign und -konstruktion

Wi-Fi ist eine Marke der Wi-Fi Alliance. Wi-Fi wird für zertifizierte Produkte vergeben, die in die Klasse der WLAN-Geräte gehören
und auf den IEEE 802.11-Standards basieren. WLAN(Wi-Fi) verwendet ein konfliktbasiertes Protokoll, das als Carrier Sense
Multiple Access/Collision Avoidance (CSMA/CA) bekannt ist.
Wireless LAN

Im Allgemeinen erlaubt die Umsetzung der Wireless-Datenkommunikation den Geräten, sich kabellos mit einem LAN zu verbinden.
Ein Wireless-LAN erfordert generell folgende Netzwerkgeräte:

• Wireless Access Point (AP): Nimmt die Wireless-Signale von Endgeräten auf und verbindet diese über ein Kupferkabel mit
der bestehenden Netzwerkinfrastruktur, wie z. B. dem Ethernet. Wireless-Router von Privatanwendern und kleinen
Unternehmen integrieren die Funktionen eines Routers, eines Switches und eines Access-Points in einem Gerät. In der
Abbildung ist ein Wireless-Router für Privatanwender dargestellt.

• Wireless-Netzwerkadapter: Bieten die Möglichkeit der Wireless-Kommunikation für jeden Netzwerk-Host.

Im Zuge der Weiterentwicklung der Technologie ist eine Anzahl von WLAN-Ethernet-basierten Standards entstanden. Beim Kauf
von Wireless-Geräten muss auf die Kompatibilität und Interoperabilität geachtet werden.

Die Vorteile der Wireless-Kommunikationstechnologien, vor allem das Potential der Einsparungen gegenüber einer teuren
Gebäudeverkabelung und die Annehmlichkeiten durch die mobile Anbindung von Endgeräten, sind offensichtlich.
Netzwerkadministratoren müssen strenge Sicherheitsrichtlinien und Prozesse entwickeln und anwenden, um WLANs vor
unbefugtem Zugriff zu schützen und den Netzwerkbetrieb abzusichern.

4.3 Die Sicherungsschicht

Die Sicherungsschicht des OSI-Modells (Schicht 2), wie in Abbildung 1 gezeigt, ist zuständig für:

• Zugriff der oberen Schichten auf das Medium

• Akzeptieren von Paketen der Schicht 3 und Verpacken in Frames

• Vorbereiten von Netzwerkdaten für das physische Netzwerk

• Steuern, wie Daten über das Medium gesendet und empfangen werden

• Austausch von Frames zwischen Knoten über ein physisches Netzwerkmedium, zum Beispiel UTP oder Glasfaser

• Empfang und Weiterleitung von Paketen an ein Protokoll einer höheren Schicht

• Ausführung der Fehlererkennung

Auf Schicht 2 werden Netzwerkgeräte, die mit einem gemeinsamen Medium verbunden sind, als Knoten bezeichnet. Knoten bilden
Frames und leiten sie weiter. Wie die Abbildung 2 zeigt, ist die OSI-Sicherungsschicht für den Austausch von Ethernet-Frames
zwischen Quell- und Zielknoten über ein physisches Netzwerkmedium verantwortlich.

Die Sicherungsschicht regelt den Übergang zum verwendeten Medium für jedes einzelne Datenpaket, das ihr von den höheren
Kommunikationsprozessen übergeben worden ist. Die Sicherungsschicht empfängt Pakete eines Protokolls der höheren Schicht
und leitet Pakete an sie weiter, in diesem Fall an IPv4 oder an IPv6. Dieses Protokoll der höheren Schicht muss nicht wissen,
welches Medium für die Kommunikation verwendet wird.
Teilschichten der Sicherungsschicht

Die Sicherungsschicht ist in zwei Teilschichten unterteilt:

• Logical Link Control (LLC) – Diese obere Teilschicht kommuniziert mit der Vermittlungsschicht. Sie fügt Informationen in
den Frame ein, die erkennt, welches Vermittlungsschichtprotokoll für den Frame benutzt wird. Diese Informationen
ermöglichen es, dass mehrere Layer-3-Protokolle, wie IPv4 und IPv6, dieselbe Netzwerkschnittstelle und -medien benutzen.

• Media Access Control (MAC) – Die untere Teilschicht definiert die Medienzugriffsverfahren, die durch Hardware erfolgen.
Sie sorgt für die Adressierung und den Zugriff der Sicherungsschicht auf verschiedene Netzwerktechnologien.

Die Abbildung zeigt die Trennung der Sicherungsschicht in die LLC- und MAC-Teilschichten. Die LLC kommuniziert mit der
Vermittlungsschicht, während die MAC-Teilschicht die Verbindung zu verschiedenen Netzwerk-Zugangstechnologien herstellt. Die
MAC-Teilschicht arbeitet z. B. mit Ethernet-Technologie zusammen, um Frames über Kupfer- oder Glasfaserkabel zu senden und
zu empfangen. Die MAC-Teilschicht kommuniziert auch mit Wireless-Technologien wie Wi-Fi und Bluetooth, um Wireless-Frames
zu senden und zu empfangen.
Media Access Control

Layer-2-Protokolle definieren, wie ein Paket in einen Frame gekapselt wird und wie das gekapselte Paket an das jeweilige Medium
übertragen wird. Die für das Übertragen von Frames auf Medien verwendete Technik wird als Media-Access-Control-Methode
bezeichnet.

Wenn Pakete vom Quell-Host zum Ziel-Host übertragen werden, durchqueren sie in der Regel verschiedene physische Netzwerke.
Diese physischen Netzwerke beruhen auf verschiedenen Arten von Medien wie Kupferkabeln, Glasfasern oder WLAN, auf denen
Signale elektromagnetisch, per Radio- und Mikrowellenfrequenzen und über Satellitenverbindungen übertragen werden.

Ohne die Sicherungsschicht müssten Vermittlungsschichtprotokolle für jede Medienart, die entlang eines Übertragungspfads
auftritt, gesonderte Vorkehrungen treffen. Außerdem müsste das IP für jede neu entwickelte Netzwerktechnologie oder jedes neue
Medium angepasst werden. Dieser Prozess würde Innovationen und Entwicklung von Protokollen und Netzwerkmedien behindern.
Hierin liegt ein wesentlicher Grund für die Verwendung eines mehrschichtigen Ansatzes der Vernetzung.

Die Animation in der Abbildung zeigt ein Beispiel dafür, wie ein PC in Paris mit einem Laptop in Japan verbunden ist. Obwohl die
zwei Hosts ausschließlich über IP kommunizieren, ist es wahrscheinlich, dass zahlreiche Sicherungsschichtprotokolle verwendet
werden, um die IP-Pakete über verschiedene Typen von LANs und WANs zu transportieren. Jeder Übergang an einem Router
kann ein anderes Sicherungsschichtprotokoll für den Transport auf einem neuen Medium erfordern.

Zugriff auf Medien

Im Verlauf einer einzigen Kommunikation können unterschiedliche Medienzugriffskontrollverfahren erforderlich sein. Jede der
Netzwerkumgebungen, die ein Paket von einem lokalen Host zu einem Remote-Host durchläuft, kann unterschiedliche
Eigenschaften aufweisen. Beispielsweise kann ein Ethernet-LAN aus vielen Hosts bestehen, die gleichzeitig auf das Medium
zugreifen wollen. Serielle Verbindungen bestehen aus einer direkten Verbindung zwischen nur zwei Geräten.

Router-Schnittstellen kapseln das Paket in entsprechende Frames und verwenden ein geeignetes Medienzugriffssteuerverfahren
für die Verbindung. In jedem Austausch von Vermittlungsschichtpaketen kann es zahlreiche Übergänge von verschiedenen
Sicherungsschichten und Medien geben.

Bei jedem Hop entlang des Pfades nimmt der Router Folgendes vor:

• Empfängt einen Frame von einem Medium


• Entpackt den Frame

• Kapselt das Paket wieder in einem neuen Frame

• Leitet den neuen Frame passend zum Medium auf das Segment im physischen Netz weiter

Der Router in der Abbildung verfügt über ein Ethernet-Interface zum Anschluss an das LAN und über eine serielle Schnittstelle zur
Verbindung mit dem WAN. Da der Router Frames verarbeitet, verwendet er die Sicherungsschichtdienste, um den Frame von
einem Medium zu erhalten, die Layer-3-PDU zu entpacken, die PDU in einen neuen Frame zu kapseln und den Frame auf das
Medium des nächsten Links im Netzwerk zu übertragen.
Sicherungsschicht-Standards

Anders als die Protokolle der höheren Schichten der TCP/IP-Protokollfamilie, werden Sicherungsschichtprotokolle in der Regel
nicht durch Request for Comments (RFCs) definiert. Obwohl die Internet Engineering Task Force (IETF) die Funktionsprotokolle
und -dienste für die TCP/IP-Protokollfamilie der oberen Schichten festlegt, definiert die IETF nicht die Funktionen und den Betrieb
der Netzwerkzugangsschicht dieses Modells.

Organisationen, die offene Standards und Protokolle der Netzwerkzugangsschicht festlegen, sind:

• Institute of Electrical and Electronics Engineers (IEEE)


• International Telecommunication Union (ITU)
• International Organization for Standardization (ISO)
• American National Standards Institute (ANSI)

4.4 Steuerung des Medienzugriffs

Die Platzierung der Daten-Frames auf dem Medium wird durch die MAC-Teilschicht gesteuert.

Media Access Control ist das Äquivalent zu Verkehrsregeln, die das Auffahren von Kraftfahrzeugen auf eine Autobahn steuern.
Das Äquivalent einer fehlenden Medienzugriffssteuerung wäre, wenn Fahrzeuge den Verkehr ignorieren und ohne Rücksicht auf
andere Fahrzeuge auf die Autobahn auffahren. Allerdings sind nicht alle Straßen und Auffahrten gleich. Der Verkehr wird durch
Reißverschlussverfahren, ein Stopp-Schild oder eine Ampel geregelt. Ein Fahrer befolgt für jede Art von Auffahrt eine andere
Regel. .
In gleicher Weise gibt es verschiedene Möglichkeiten der Regulierung, wie Frames auf Medien platziert werden. Die Protokolle der
Sicherungsschicht definieren diese Regeln für den Zugang zu den verschiedenen Medien. Die Techniken der
Medienzugriffssteuerung bestimmen, ob und wie die Knoten das Medium teilen.

Die heute verwendeten Verfahren der Medienzugriffssteuerung sind abhängig von:


Topologie – Wie die Verbindungen zwischen den Knoten der Sicherungsschicht angeordnet sind. .
Gemeinsame Mediennutzung – Wie die Knoten das Medium gemeinsam nutzen. Die gemeinsame Nutzung des Mediums kann
über Punkt-zu-Punkt-Verbindungen erfolgen, wie sie bei WAN-Verbindungen üblich sind, oder über zwischen Knoten geteilte
Verbindungen wie in LAN-Netzwerken.
Physische und logische Topologien

Die Topologie eines Netzes ist die Anordnung bzw. die Beziehung der Netzwerkgeräte und deren Verbindungen untereinander.
LAN- und WAN-Topologien können auf zwei Arten betrachtet werden:
Physische Topologie – Bezieht sich auf die physische Anordnung und zeigt, wie Endgeräte und aktive Netzwerkkomponenten wie
Router, Switches und Wireless-Access-Points miteinander verbunden sind. Physische Topologien sind in der Regel Punkt-zu-
Punkt- oder Sterntopologien. Siehe Abbildung 1.
Logische Topologie – Bezieht sich auf die Art, wie ein Netzwerk Frames von einem Knoten zum nächsten überträgt. Diese
Anordnung besteht aus virtuellen Verbindungen zwischen den Knoten eines Netzwerks. Diese logischen Signalwege werden durch
Protokolle der Sicherungsschicht definiert. Die logische Topologie von Punkt-zu-Punkt-Verbindungen ist relativ einfach, während
gemeinsam genutzte Medien unterschiedliche Zugriffsmethoden bieten. Siehe Abbildung 2.
Die Sicherungsschicht „sieht“ die logische Topologie eines Netzes bei der Steuerung des Datenzugriffs auf die Medien. Es ist die
logische Topologie, die den Typ des Netzwerk-Framings und der Medienzugriffskontrolle beeinflusst.
Gängige physische WAN-Topologien

WANs sind häufig durch die folgenden physischen Topologien miteinander verbunden:

• Punkt-zu-Punkt – Dies ist die einfachste Topologie, die aus einer dauerhaften Verbindung zwischen zwei Endpunkten
besteht. Aus diesem Grund handelt es sich um eine sehr beliebte WAN-Topologie.

• Hub-and-Spoke – Eine WAN-Version der Stern-Topologie, in der ein zentraler Standort Zweigstellen durch Punkt-zu-Punkt-
Verbindungen miteinander verknüpft.

• Mesh (Vermaschung) – Diese Topologie bietet eine hohe Verfügbarkeit, erfordert aber, dass jedes Endsystem mit jedem
anderen System verbunden wird. Daher entstehen erhebliche Verwaltungs- und Anschaffungskosten. Jeder Link ist im
Wesentlichen eine Punkt-zu-Punkt-Verbindung zu einem anderen Knoten.

Die drei üblichen physischen WAN-Topologien sind in der Abbildung dargestellt.

Ein Hybrid ist eine Variante oder eine Kombination der oben genannten Topologien. Zum Beispiel ist eine teilweise Vermaschung
eine Topologie, bei der mehrere, aber nicht alle Endgeräte verbunden sind.

Physische Punkt-zu-Punkt-Topologie

Eine physische Punkt-zu-Punkt-Topologie verbindet zwei Knoten direkt, wie in der Abbildung dargestellt.

Bei dieser Anordnung teilen zwei Knoten das Medium nicht mit anderen Hosts. Darüber hinaus muss ein Knoten nie darüber
entscheiden, ob ein eingehender Frame für ihn oder einen anderen Knoten bestimmt ist. Daher fallen die logischen Protokolle der
Sicherungsschicht sehr einfach aus, da alle Frames auf dem Medium nur die zwei Knoten betreffen. Die Frames werden von dem
Knoten an einem Ende auf dem Medium platziert und von dem Knoten am anderen Ende der Punkt-zu-Punkt-Verbindung vom
Medium genommen.
Logische Punkt-zu-Punkt-Topologie

Die kommunizierenden Endknoten in einem Punkt-zu-Punkt-Netzwerk können physisch über mehrere aktive
Netzwerkkomponenten verbunden sein. Allerdings beeinflusst die Verwendung von physischen Geräten im Netzwerk nicht die
logische Topologie.

Wie in Abbildung 1 gezeigt, können Quell- und Zielknoten über eine gewisse Entfernung hinweg indirekt miteinander verbunden
sein. In einigen Fällen bildet die logische Verbindung zwischen den Knoten eine so genannte virtuelle Verbindung. Eine virtuelle
Verbindung ist eine logische Verbindung, die in einem Netzwerk zwischen zwei Netzwerkgeräten hergestellt wird. Die beiden
Knoten an jedem Ende der virtuellen Verbindung tauschen die Frames miteinander aus. Dies geschieht auch, wenn die Frames
über aktive Netzwerkkomponenten geleitet werden (siehe Abbildung 2). Virtuelle Verbindungen sind wichtige logische
Kommunikationskonstrukte, die von einigen Schicht 2-Technologien verwendet werden.

Das vom Protokoll der Sicherungsschicht verwendete Medienzugriffsverfahren wird von der logischen Punkt-zu-Punkt-Topologie
und nicht von der physischen Topologie bestimmt. Dies bedeutet, dass die logische Punkt-zu-Punkt-Verbindung zwischen zwei
Knoten nicht notwendigerweise zwischen zwei physischen Knoten an jedem Ende einer physischen Verbindung sein muss.

Logische Verbindung

Logische Punkt-zu-Punkt-Topologie
Physische LAN-Topologien

Die physische Topologie definiert, wie die Endsysteme physisch miteinander verbunden sind. In LANs, bei denen das Medium
gemeinsam genutzt wird, können Endgeräte über die folgenden physischen Topologien miteinander verbunden werden:

• Stern – Alle Endgeräte sind mit einer zentralen aktiven Netzwerkkomponente verbunden. Frühere Stern-Topologien
verbanden Endgeräte mit Hilfe von Ethernet-Hubs. Heute verwenden Stern-Topologien jedoch Ethernet-Switches. Die Stern-
Topologie ist einfach zu installieren, sehr skalierbar (einfaches Hinzufügen und Entfernen von Endgeräten) und ermöglicht
eine leichte Fehlerbehebung.

• Erweiterte Sterntopologie – In einem Ethernet-Netz mit erweiterter Sterntopologie werden zusätzliche Ethernet-Switches
mit anderen Sterntopologien verbunden. Eine erweiterte Sterntopologie ist ein Beispiel für eine Hybrid-Topologie.

• Bus – Alle Endsysteme sind miteinander in Reihe verknüpft und an jedem Ende abgeschlossen. Aktive
Netzwerkkomponenten wie Switches sind zur Verbindung nicht erforderlich. Bus-Topologien mit Koaxialkabeln wurden in
älteren Ethernet-Netzwerken verwendet, weil sie preiswert und einfach zu installieren waren.

• Ring – Die Endsysteme sind mit ihren jeweiligen Nachbarn verbunden, sodass ein Ring entsteht. Im Gegensatz zur Bus-
Topologie ist für den Ring kein Abschluss erforderlich. Ring-Topologien waren Bestandteil von Fiber Distributed Data
Interface (FDDI)-Netzwerken und Token-Ring-Netzwerken.

Die Abbildung zeigt, wie Endgeräte in LANs miteinander verbunden werden. Es ist in Netzwerkgrafiken geläufig, dass eine gerade
Linie ein Ethernet-LAN mit einem einfachen Stern und einem erweiterten Stern darstellt.

Physische Topologien
Halb- und Vollduplex

Duplex-Kommunikationen bezeichnen die Richtung der Datenübertragung zwischen zwei Geräten. Halbduplex-Kommunikationen
beschränken den Austausch von Daten auf eine Richtung, während Vollduplex das gleichzeitige Senden und Empfangen von
Daten erlaubt.

• Halbduplex-Kommunikation – Beide Geräte können auf Medien übertragen und empfangen, jedoch nicht gleichzeitig. Der
Halbduplex-Modus wird in älteren Bus-Topologien und für Ethernet-Hubs verwendet. WLAN arbeitet ebenfalls in Halbduplex.
Halbduplex beschränkt das Senden und Empfangen auf dem freigegebenen Medium auf jeweils ein Gerät und wird mit
konfliktbasierten Zugriffsmethoden verwendet. Abbildung 1 zeigt eine Halbduplex-Kommunikation.

• Vollduplex-Kommunikation – Beide Geräte können gleichzeitig auf dem Medium senden und empfangen. Die
Sicherungsschicht stellt sicher, dass das Medium jederzeit beiden Knoten für die Übertragung zur Verfügung steht. Ethernet-
Switches arbeiten standardmäßig im Vollduplex-Modus, können jedoch bei der Verbindung mit einem Gerät wie einem
Ethernet-Hub im Halbduplex-Modus arbeiten. Abbildung 2 zeigt eine Vollduplex-Kommunikation.

Es ist wichtig, dass zwei verbundene Schnittstellen, wie die Netzwerkkarte eines Hosts und eine Schnittstelle auf einem Ethernet-
Switch, im selben Duplexmodus arbeiten. Andernfalls gibt es eine Duplex-Diskrepanz, die zu Ineffizienz und längeren Latenzzeiten
der Verbindung führt.

Halbduplexkommunikation

Vollduplexkommunikation
Media-Access-Control-Methoden

Bei einigen Netzwerktopologien teilen sich mehrere Knoten ein gemeinsames Medium. Diese werden als Multi-Access-Netzwerke
bezeichnet. Ethernet-LANs und WLANs sind Beispiele für ein Multi-Access-Netzwerk. Bei diesem Modell kann es vorkommen,
dass mehrere Geräte gleichzeitig auf demselben Netzwerkmedium versuchen, Daten zu senden und zu empfangen.

Einige Multi-Access-Netzwerke benötigen Regeln, die festlegen, wie Geräte die physischen Medien verwenden. Grundsätzlich
existieren zwei Zugriffskontrollverfahren für gemeinsam genutzte Medien:

• Konfliktbasierter Zugriff – Alle Knoten, die in Halbduplex arbeiten, konkurrieren um die Verwendung des Mediums, aber
nur ein Gerät kann jeweils senden. Es gibt jedoch einen Prozess, wenn mehrere Geräte gleichzeitig Daten übertragen.
Ethernet-LANs, die Hubs und WLANs verwenden, sind Beispiele dieser Art der Zugriffskontrolle. Abbildung 1 zeigt einen
konfliktbasierten Zugriff.

• Kontrollierter Zugriff – Jeder Knoten besitzt eine Zeitspanne, um das Medium zu verwenden. Diese deterministischen Arten
von Netzwerken sind ineffizient, da ein Gerät warten muss, bis es auf das Medium zugreifen kann. Ältere Token-Ring-LANs
sind ein Beispiel für diese Art der Zugriffskontrolle. Abbildung 2 zeigt einen kontrollierten Zugriff.

Standardmäßig arbeiten Ethernet-Switches im Vollduplex-Modus. Dies ermöglicht dem Switch und dem in Vollduplex
angeschlossenen Gerät, gleichzeitig zu senden und zu empfangen.
Konfliktbasierter Zugriff – CSMA/CD

WLANs, Ethernet-LANs mit Hubs und ältere Ethernet-Bus-Netzwerke sind Beispiele für Netzwerke mit konfliktbasiertem Zugriff. All
diese Netzwerke arbeiten im Halbduplex-Modus. Dies erfordert einen Prozess, der regelt, wann ein Gerät senden kann und was
geschieht, wenn mehrere Geräte gleichzeitig senden.

Der Carrier Sense Multiple Access/Collision Detection (CSMA/CD)-Prozess wird in Halbduplex-Ethernet-LANs verwendet.
Abbildung 1 zeigt ein Ethernet-LAN mit einem Hub. Der CSMA-Prozess läuft folgendermaßen ab:

1. PC1 hat ein Ethernet-Frame, um an PC3 zu senden.

2. Die Netzwerkkarte von PC1 muss ermitteln, ob auf dem Medium eine Übertragung stattfindet. Wenn es kein Trägersignal er-
kennt, d. h. keine Übertragungen von einem anderen Gerät empfängt, nimmt es an, dass das Netzwerk zum Senden verfügbar ist.

3. Die Netzwerkkarte von PC1 sendet das Ethernet-Frame, wie in Abbildung 1 gezeigt.

4. Der Ethernet-Hub empfängt den Frame. Ein Ethernet-Hub wird auch als Multiport-Repeater bezeichnet. Sämtliche Bits, die auf
einem eingehenden Port empfangen werden, werden regeneriert und an alle anderen Ports gesendet, wie in Abbildung 2 gezeigt.

5. Wenn ein anderes Gerät, z. B. PC2, etwas übertragen möchte, aber derzeit einen Frame empfängt, muss es warten, bis der Port
frei ist.

6. Alle Geräte, die mit dem Hub verbunden sind, erhalten den Frame. Da der Frame eine Zieladresse der Sicherungsschicht für
PC3 hat, wird nur dieses Gerät im gesamten Frame Daten akzeptieren und kopieren. Die Netzwerkkarten aller anderen Geräte
ignorieren den Frame, wie in Abbildung 3 gezeigt.
Wenn zwei Geräte gleichzeitig senden, kommt es zur Kollision. Beide Geräte verfügen über die Fähigkeit zum Erkennen einer
Kollision im Netzwerk. Dies wird Collision Detection (CD) genannt Dabei vergleicht die Netzwerkkarte die übermittelten Daten mit
den empfangenen Daten, oder erkennt, dass die Signalamplitude auf den Medien höher als normal ist. Die gesendeten Daten
beider Geräte werden beschädigt und müssen erneut übertragen werden.
Konfliktbasierter Zugriff – CSMA/CA

Eine weitere Form von CSMA, die von IEEE 802.11-WLANs verwendet wird, ist Carrier Sense Multiple Access/Collision Avoidance
(CSMA/CA). CMSA/CA verwendet eine ähnliche Methode wie CSMA/CD, um festzustellen, ob die Medien frei sind. CMSA/CA
verwendet zudem weitere Verfahren. CMSA/CA erkennt zwar keine Kollisionen, versucht jedoch, diese zu vermeiden, indem es vor
der Übertragung wartet. Jedes Gerät, das Daten überträgt, bezieht den erforderlichen Zeitraum für die Übertragung mit ein. Alle
anderen Wireless-Geräte erhalten diese Informationen und wissen, wie lange die Medien nicht verfügbar sind, wie in der Abbildung
gezeigt. Nachdem ein Wireless-Gerät einen 802.11-Frame sendet, gibt der Empfänger eine Bestätigung aus, damit der Absender
weiß, dass der Frame angekommen ist.

Konfliktbasierte Systeme wie Ethernet-LAN, das Hubs verwendet, oder WLAN, haben bei starker Mediennutzung Probleme mit der
Skalierung. Wichtig: Ethernet-LANs, die Switches verwenden, stellen keine konkurrenzbasierten Systeme dar. Die beteiligten
Netzwerkkarten von Switch und Host arbeiten im Vollduplex-Modus.

Der Frame

Die Sicherungsschicht bereitet ein Paket für den Transport über die lokalen Medien vor, indem sie es zur Frame-Erstellung mit
einem Header und einem Trailer kapselt. Die Beschreibung eines Frames ist ein Schlüsselelement jedes
Sicherungsschichtprotokolls. Obwohl viele unterschiedliche Sicherungsschichtprotokolle existieren, die die Frames der
Sicherungsschicht beschreiben, besteht jeder Frame-Typ aus drei Hauptteilen:

• Header
• Daten
• Trailer

Alle Sicherungsschichtprotokolle kapseln die Layer-3-PDU im Datenfeld des Frames. Die Struktur des Frames und der Felder im
Header und Trailer variieren jedoch in Abhängigkeit vom Protokoll.

Es gibt keine einzige Frame-Struktur, welche die Anforderungen des Datentransports über alle Medienarten erfüllt. Abhängig von
der Umgebung variiert die erforderliche Menge an Kontrollinformationen im Frame, um die Anforderungen der Zugriffssteuerung
und der logischen Topologie zu erfüllen.
Wie in der Abbildung gezeigt, erfordert eine instabile Umgebung eine verstärkte Kontrolle.

Frame-Felder

Framing teilt den Datenstrom in Gruppierungen verschiedener Felder, die in Header und Trailer Steuerinformationen beinhalten.
Dieses Format gibt den physischen Signalen eine Struktur, die von Knoten empfangen und entschlüsselt werden kann.

Wie der Abbildung zu entnehmen, enthalten Frames allgemeine Feldtypen:

• Indikator-Flags für Start und Stopp – Werden verwendet, um den Anfang und das Ende eines Frames zu erkennen.
• Adressierung – Gibt den Quell- und Zielknoten auf dem Medium an.
• Typ – Identifiziert das Protokoll von Schicht 3 im Datenfeld.
• Kontrolle – Identifiziert spezielle Flusskontrolldienste wie Quality of Service (QoS). QoS wird verwendet, um bestimmten
Nachrichtentypen Weiterleitungspriorität zu geben. Die Frames der Sicherungsschicht, die VoIP-Pakete (Voice over IP)
übertragen, haben normalerweise Priorität, da sie verzögerungsempfindlich sind.
• Daten – Enthält die Nutzdaten des Frames (d. h. Paket-Header, Segment-Header und die Daten).
• Fehlererkennung – Diese Frame-Felder werden für die Fehlererkennung verwendet und befinden sich nach den Daten im
Trailer.

Nicht alle Protokolle nutzen diese Felder. Die Standards für ein bestimmtes Sicherungsschichtprotokoll definieren das eigentliche
Frame-Format.

Sicherungsschichtprotokolle fügen dem Frame einen Trailer am Ende hinzu. Der Trailer ist für die Fehlererkennung bestimmt.
Dieser Vorgang der Fehlererkennung wird durch Einfügen einer logischen oder mathematischen Prüfsumme der Bits, die den
Frame-Inhalt bilden, erreicht. Eine Fehlererkennung wird der Sicherungsschicht hinzugefügt, weil die Signale auf dem Medium
Störungen, Verzerrungen oder Verlusten ausgesetzt sein könnten, welche die Bit-Werte der Signale wesentlich verändern.

Ein übertragender Knoten erstellt eine logische Zusammenfassung der Inhalte des Frames, was als CRC-Prüfsumme bezeichnet
wird. Der Wert repräsentiert den Inhalt des Frames und wird in das Frame-Prüfsummen-Feld (Frame Check Sequence, FCS)
eingetragen. Der Empfänger-Knoten kann an der FCS im Trailer erkennen, ob Übertragungsfehler aufgetreten sind.
Layer-2-Adresse

Die Sicherungsschicht bietet eine Adressierung, die beim Transport eines Frames über ein gemeinsam genutztes, lokales Medium
verwendet wird. Geräteadressen werden auf dieser Schicht als physische Adressen bezeichnet. Die Adressierung der
Sicherungsschicht ist im Frame-Header enthalten und identifiziert den Zielknoten des Frames im lokalen Netzwerk. Der Frame-
Header enthält auch die Quelladresse des Frames.

Anders als logische Adressen in Schicht 3, die hierarchisch geordnet sind, geben physische Adressen keine Auskunft darüber, in
welchem Netzwerk sich das Gerät befindet. Stattdessen ist die physische Adresse für das bestimmte Gerät eindeutig. Wenn das
Gerät Teil eines anderen Netzwerks oder Subnetzes wird, arbeitet es weiterhin mit der gleichen physischen Adresse auf Schicht 2.

Die Abbildungen 1 bis 3 veranschaulichen die Funktion von Adressen der Schichten 2 und 3. Während das IP-Paket vom Host zum
Router, vom Router zum Router und schließlich vom Router zum Host übertragen wird, wird das IP-Paket an jedem Punkt entlang
der Reise in einen neuen Frame der Sicherungsschicht eingekapselt. Jeder Frame der Sicherungsschicht enthält die Quell-
Sicherungsschichtadresse der Netzwerkkarte, die den Frame sendet, und die Ziel-Sicherungsschichtadresse der Netzwerkkarte,
die den Frame empfängt.

Eine Adresse, die gerätespezifisch und nicht-hierarchisch ist, kann nicht dazu verwendet werden, ein Gerät auf großen Netzwerken
oder im Internet zu lokalisieren. Das wäre wie der Versuch, ein bestimmtes Haus weltweit über die Hausnummer und den
Straßennamen zu finden. Die physische Adresse kann jedoch dazu verwendet werden, ein Gerät in einem begrenzten Bereich zu
lokalisieren. Aus diesem Grund wird die Adresse der Sicherungsschicht nur für die lokale Zustellung verwendet. Adressen auf
dieser Schicht haben außerhalb des lokalen Netzwerks keinerlei Bedeutung. Ein Vergleich zur Schicht 3 macht deutlich, dass der
Paket-Header vom Quell-Host zum Ziel-Host unverändert übertragen wird, unabhängig von der Anzahl der Hops entlang des
Weges.

Wenn die Daten über ein anderes Netzwerksegment übertragen werden müssen, ist eine aktive Netzwerkkomponente –
beispielsweise ein Router – notwendig. Der Router muss den Frame auf Grund der physischen Adresse annehmen und den Frame
entpacken, um die hierarchische Adresse oder IP-Adresse zu prüfen. Anhand der IP-Adresse ist der Router in der Lage, die
Netzwerkadresse des Zielgeräts und den besten Pfad dorthin zu ermitteln. Wenn er weiß, wohin das Paket weiterzuleiten ist,
erstellt er einen neuen Frame für das Paket. Dieser neue Frame wird an das nächste Netzwerksegment in Richtung des Ziels
gesendet.
LAN- und WAN-Frames

In einem TCP/IP-Netzwerk arbeiten alle Protokolle der OSI-Schicht 2 mit IP auf der OSI-Schicht 3 zusammen. Jedoch hängt das
verwendete Layer-2-Protokoll von der logischen Topologie und den physischen Medien ab.

Jedes Protokoll führt eine Medienzugriffssteuerung für logische Schicht 2-Topologien aus. Dies bedeutet, dass mehrere
verschiedene Netzwerkgeräte als Knoten auf der Sicherungsschicht arbeiten können, wenn diese Protokolle eingesetzt werden.
Diese Geräte beinhalten Netzwerkkarten auf Computern sowie Schnittstellen auf Routern und Layer-2-Switches.

Das Protokoll der Schicht 2 einer bestimmten Netzwerktopologie wird durch die Technologie bestimmt, die diese Topologie
implementiert. Die Technologie wird wiederum durch die Größe des Netzwerks festgelegt - in Bezug auf die Anzahl der Hosts und
den geografischen Bereich – und durch die Dienste, die über das Netzwerk abgewickelt werden.

Ein LAN verwendet in der Regel eine Technologie mit hoher Datenübertragungsrate, die sich für eine große Anzahl von Hosts
eignet. Der relativ kleine geografische Bereich eines LANs (ein einzelnes oder mehrere Gebäude) und seine hohe Anzahl von
Benutzern machen diese Technologie preiswert.

Eine Technologie mit hoher Datenübertragungsrate ist jedoch in der Regel für WANs, die große geografische Gebiete (z. B. Städte
oder mehrere Städte) abdecken, nicht preiswert. Die Kosten für physische Verbindungen über lange Distanzen und die verwendete
Technologie, um die Signale über diese Strecken zu übertragen, führen in der Regel zu einer geringeren
Datenübertragungskapazität.

Der Unterschied in der Datenübertragungsrate führt normalerweise zum Einsatz unterschiedlicher Protokolle für LANs und WANs.

Zu den Protokollen der Sicherungsschicht zählen:

• Ethernet
• 802.11 Wireless
• Point-to-Point Protocol (PPP)
• HDLC
• Frame Relay

+ 4.5 Klassenaktivität – Verlinkt!