Informatiker Systemintegration
PDF erstellt mit Hilfe des OpenSource-Werkzeugs mwlib. Fr weitere Informationen siehe http://code.pediapress.com/ PDF generated at: Mon, 11 Jul 2011 08:34:05 UTC
Inhalt
Artikel
Hardware
Small Computer System Interface Universal Serial Bus Serial ATA 1 1 7 28 36 36 37 45 46 46 49 49 52 70 75 75 80 80 84 87 92 92 123 123
Sicherheit
Integritt (Informationssicherheit) Datensicherung Vertraulichkeit
Subnetze - Subnetting
Subnetz
Protokolle
Protokoll (IP) Spanning Tree Protocol Simple Mail Transfer Protocol
Referenzen
Quelle(n) und Bearbeiter des/der Artikel(s) Quelle(n), Lizenz(en) und Autor(en) des Bildes 127 129
Artikellizenzen
Lizenz 132
Hardware
Small Computer System Interface
Das Small Computer System Interface (SCSI, gesprochen [skzi][1] ) ist ursprnglich als eine standardisierte parallele Schnittstelle fr die Verbindung und Datenbertragung zwischen Peripheriegerten und dem Computer-Bus entstanden. Im Vergleich zu ATA/ATAPI ist ein wesentliches Merkmal der historischen parallelen Schnittstelle von SCSI die Mglichkeit, mehr als zwei Gerte anschlieen zu knnen. Seit dem SCSI-3 Standard ist SCSI jedoch als Protokoll definiert, das sich verschiedener Transportmechanismen bedienen kann. So gibt es heute z.B. unter Verwendung der gleichen Kabel wie bei Serial ATA (SATA) das Serial Attached SCSI (SAS). Die von Alan Shugart nach seinem Ausstieg aus Shugart Associates gegrndete Firma Shugart Technology fhrte SCSI 1979 unter der Bezeichnung SASI (Shugart Associates System Interface) ein. Nachdem sich 1981 andere Unternehmen insbesondere NCR dafr entschieden hatten, SASI zu untersttzen, wurde SASI in SCSI umbenannt. NCR initiierte auch den im folgenden Jahr beginnenden Standardisierungsprozess, und 1986 wurde die SCSI-Spezifikation als X3.131-1986 von der ANSI standardisiert. Seitdem hat sich SCSI zum Industriestandard entwickelt, der in beinahe jedem Computer-System verwendet werden konnte (es gibt sogar SCSI-Implementationen fr den Commodore-64-Heimcomputer).
Verwendung
Um an einen Computer SCSI-Gerte anschlieen zu knnen, wird ein SCSI-Host-Bus-Adapter (kurz HBA) bentigt, der den Datentransfer auf dem SCSI-Bus kontrolliert. Das anzuschlieende SCSI-Gert besitzt einen SCSI-Controller, um die Daten ber den Bus zu bertragen und mit dem Host-Bus-Adapter zu kommunizieren. Der SCSI-Host-Bus-Adapter kann auf der Hauptplatine integriert sein, wird aber in der Regel als Steckkarte nachgerstet. SCSI wird meist zur Anbindung von Festplatten und Bandlaufwerken genutzt, wird jedoch auch mit einer Reihe von weiteren Gerten verwendet, wie zum Beispiel Scannern und optischen Laufwerken. Der SCSI-Standard ist gerteunabhngig ausgelegt, so dass theoretisch jedes Peripheriegert SCSI benutzen kann. Vereinzelt werden SCSI und VHDCI- (vonVery High Density Cable Interconnect, eine miniaturisierte Bauform) Steckverbinder auch in der industriellen Steuerungstechnik und an Ein-/Ausgabeports von Gerten zur analogen und digitalen Datenerfassung und -ausgabe verwendet, zum Beispiel an PXI-Baugruppen.
SCSI-1 (1986)
Der ursprngliche von SASI (Shugart Associates Systems Interface) abgeleitete und von der ANSI herausgegebene Standard von 1986. SCSI-1, auch Narrow SCSI genannt, bietet einen Bus mit 8-Bit-Breite und Parittsprfung, der asynchron mit 3,5MB/s oder synchron mit 5MB/s luft, die maximale Kabellnge betrgt dabei 6Meter (das konkurrierende ATA-Interface war damals auf 1,5m beschrnkt). Eine Variation des SCSI-1-Standards (Differential-SCSI) verwendete eine auf differentiellen Signalpegeln basierende bertragungstechnik und ermglichte so eine Kabellnge von 25m. Zur Unterscheidung gegenber der modernen Low-Voltage-Differential-Schnittstelle (LVD) nennt man die alte Technik heute High-Voltage-Differential (HVD). HVD war teuer, elektrisch nicht kompatibel und wurde vor allem im professionellen Umfeld bis hin zum Aufbau
SCSI-2 (1989)
Dieser Standard wurde 1989 verabschiedet und bildete die Basis fr die Varianten Fast SCSI und Wide SCSI. Fast SCSI (8 Bit, F) verdoppelte den Bustakt, was eine Transferrate von bis zu 10MB/s bedeutete. Wegen des hohen Bustaktes durfte die Verkabelung nur noch hchstens 3Meter lang sein. Weil Fast SCSI dieselben Kabel wie SCSI-1 verwendete, verbreitete es sich sehr schnell. Vorhandene Installation waren problemlos Gert fr Gert aufrstbar, der Mischbetrieb war mglich. Einen anderen Weg ging man mit Wide SCSI: Hier wurde der Bustakt (und damit die erlaubte Kabellnge) beibehalten, aber die Busbreite auf 16 Bit verdoppelt. Das fhrte ebenfalls zu 10MB/s, allerdings waren neue, 68-polige Kabel ntig. Reines Wide SCSI hatte keine Marktbedeutung. SCSI-2 spezifizierte auerdem eine 32-bit-Version von Wide SCSI, die zwei 16-bit-Kabel pro Bus verwendete. Auch diese Technik wurde von SCSI-Gerteherstellern grtenteils ignoriert, und daher mit SCSI-3 wieder abgeschafft. Um auf 20MB/s zu kommen, kombinierte man Fast SCSI (hoher Bustakt) und Wide SCSI (doppelte Busbreite) miteinander. Diese Variante war sehr verbreitet und wird oft Fast Wide SCSI genannt. Wenn heute von Wide SCSI gesprochen wird, ist praktisch immer Fast Wide gemeint, da reines Wide keine Bedeutung hat.
Ultra-SCSI (1992)
Ultra SCSI wurde 1992 als Teil der umfassenden SCSI-3-Norm eingefhrt. Die Busgeschwindigkeit wurde erneut verdoppelt auf 20MB/s fr schmale (8Bit, U) Systeme und 40MB/s fr die Wide-Variante (16Bit, UW). Die maximale Kabellnge blieb bei 3m, was SCSI den unverdienten Ruf einbrachte, sehr empfindlich auf Kabellnge und Umweltbedingungen zu reagieren (meist waren minderwertige Kabel, Stecker und Terminatoren an diesen Problemen schuld). Grere Kabellngen waren weiterhin mit HVD-Gerten mglich (z.B. Adaptec 2944 UW differential controller).
SCSI-3 (1993)
SCSI-3 ist erstmalig ein Bndel von eigenstndigen Normdokumenten, das auch Protokolle fr alternative Transfertechniken wie IEEE-1394 (Apples FireWire-Standard) und Fibre-Channel enthlt. Enthalten ist auch VHDCI (von Very High Density Cable Interconnect), ein 68poliges Stecksystem mit 0,8mm pitch, welches auch unter der Marke CHAMP[2] auftritt.
Dieser Standard wurde 1997 eingefhrt, und brachte einen neuen Bus mit niedrigem Signalpegel mit sich (Low Voltage Differential, LVD). Daher wird Ultra-2 auch manchmal als LVD SCSI bezeichnet. Die herkmmliche bertragungstechnik wird im Gegensatz dazu als SE SCSI (Single Ended SCSI) bezeichnet. Durch die LVD-Technik wurde es mglich, die Kabellnge auf 12Meter zu erhhen, bei wesentlich besserer Rauschimmunitt. Gleichzeitig wurde die Transferrate auf 40MB/s (narrow, 8Bit, U2) beziehungsweise 80MB/s (wide, 16Bit, U2W) gesteigert. Ultra-2 SCSI hatte nur ein kurzes Leben, da es bald von Ultra-3 (Ultra-160) SCSI abgelst wurde.
Ultra-160 (1999)
Diese Version wurde gegen Ende 1999 eingefhrt und wird von einigen Herstellern auch als Ultra-3 SCSI bezeichnet, abgekrzt U160 oder U3. Prinzipiell handelte es sich um eine Verbesserung des Ultra-2-Standards, indem die Transferrate durch Einfhrung des Doppelflankentakts (Double-Edge-Clock) auf nun 160MB/s verdoppelt wurde. Bei diesem Verfahren wird sowohl bei der ansteigenden wie bei der abfallenden Flanke des Taktsignals ein Datenwort bertragen. Ultra-160 SCSI bietet auerdem neue Funktionen wie eine Zyklische Redundanzprfung (ZRP, engl. CRC) und Domain-Validierung. Bei letzterem werden bei der Initialisierung des Busses Testdaten an die Gerte und von denen zurck geschickt. Sollten Fehler auftreten, wird die Geschwindigkeit solange verringert, bis die bertragung fehlerfrei funktioniert. Ab Ultra-160 SCSI gab es nur noch 16Bit breite Busse.
Ultra-320 (2002)
Ultra-320 ist ein Ultra-160 mit einer auf 320MB/s verdoppelten Transferrate und stellt den Abschluss der Entwicklung der parallelen SCSI-Datenbertragung dar. Die Entwicklung von Ultra-640 (Fast-320) htte die Geschwindigkeit noch einmal auf 640MB/s verdoppelt, wird aber nicht mehr weiterverfolgt. Statt dessen setzt die Industrie auf Serial Attached SCSI (SAS).
SCA
SCA (Single Connector Attachment) ist kein eigenstndiger SCSI-Standard, sondern ein 80-poliger Anschluss, der hufig bei Hotplug-Wechselrahmen verwendet wird. Dieses Anschlussformat gibt es sowohl fr das SE-, LVD-, als auch fr das HVD-bertragungsformat. Im Gegensatz zu den anderen SCSI-Anschlssen beinhaltet SCA auch die Stromversorgung (+5 und +12 Volt) sowie die Steuerleitungen fr die SCSI-ID und die LED Anzeigen.
Small Computer System Interface HVD-SCSI-Gerte (einschlielich der Abschlusswiderstnde) sind prinzipiell nicht vertrglich mit SE- oder LVD-SCSI-Gerten.
Installation
Jedes SCSI-Gert (einschlielich des Host-Bus-Adapters) muss mit einer eindeutigen ID-Nummer konfiguriert werden. Dem Host-Bus-Adapter bzw. Controller wurde die ID=7 generell zugeordnet. So werden die einzelnen Gerte auf dem SCSI-Bus eindeutig identifiziert und die Prioritt der Gerte festgelegt. Die Prioritt der IDs lautet in absteigender Reihenfolge 6 bis 0 und dann 15 bis 8. Eventuell bestehen Einschrnkungen seitens BIOS oder Betriebssystem bei der Vergabe der ID-Nummern. Jedes Gert mit Ein SCSI-Terminator, hier in einer ID hat darunter zustzlich mindestens eine LUN (Logical Unit Centronics-Ausfhrung Number) konfiguriert. Mit SCAM (SCSI Configured Automatically) gab es Bemhungen, diese mitunter aufwendige Konfiguration zu vereinfachen. So ermglicht SCAM eine weitgehend automatische Konfiguration. Fr neu angeschlossene Gerte muss zum Beispiel nicht mehr manuell eine SCSI-ID eingegeben werden; SCAM erledigt das selbstttig. Jedoch hat SCAM niemals praktische Bedeutung erlangt. Jeder SCSI-Strang muss mit genau zwei Terminatoren abgeschlossen werden an jedem physikalischen Leitungsende einen. Meist bieten die Host-Bus-Adapter die Mglichkeit, eine Seite des Busses zu terminieren, so dass in der Regel nur ein Steckterminator erforderlich ist. Es gibt sowohl aktive als auch passive Terminatoren, wobei dem aktiven Typ der Vorzug gegeben werden sollte (auf LVD-Bussen ist er zwingend notwendig). Unsachgeme Terminierung ist eines der hufigsten Probleme bei SCSI-Installationen. Es ist mglich, aus einem Wide-Bus einen schmalen zu machen, wenn die Wide-Gerte direkt hinter dem Host-Bus-Adapter angeschlossen sind und die Schmalband-Gerte am Ende des Busses. Dazu wird ein Kabel bentigt, das den weiten Teil des Busses terminiert und den schmalen durchschleift. Man spricht auch von High-9-Terminierung. Spezielle Kommandos erlauben es dem Host-Bus-Adapter festzustellen, welche Breite der Bus zu einem Gert hat.
Weitere Entwicklungen
In der Vergangenheit war SCSI auf allen Arten von Computern weit verbreitet. Fr Hochleistungs-Workstations, Server und High-End-Peripherie gilt das auch heute noch. Desktop-Computer und Notebooks nutzen allerdings berwiegend die langsamere ATA- bzw. (seit etwa 2004) Serial ATA-Schnittstelle fr ihre Laufwerke und USB (USB nutzt SCSI-hnliche Kommandos fr einige Operationen) fr andere Gerte, da diese Schnittstellen, obwohl sie weniger allgemein verwendbar sind, in der Implementierung weniger kosten. Die ursprnglichen SCSI-Standards spezifizierten die physikalischen Eigenschaften der Busse und die elektrische Signalisierung sowie einen Befehlssatz, der die unterschiedlichen Kommandos definierte, die die SCSI-Gerte ausfhren konnten. Dieser Befehlssatz ist auch unabhngig vom SCSI-Bus sehr ntzlich, da er ausgereift ist und es eine groe Zahl von damit vertrauten Benutzern und Entwicklern gibt. Daher tauchen Teile des SCSI-Befehlssatzes auch in anderen Standards wie ATAPI, Fibre Channel, Serial Storage Architecture, InfiniBand, iSCSI, USB, IEEE 1394 und Serial Attached SCSI auf. Einige Beobachter erwarten, dass der iSCSI-Standard, eine Einbettung von SCSI-3 ber TCP/IP, auf lange Sicht Fibre Channel ersetzen wird, da gegenwrtig die mit Ethernet erreichten Datenraten schneller anwachsen als die mit Fibre Channel oder anderen Anschlusstechnologien erreichbaren Raten. iSCSI kann daher sowohl den Low-Cost- als auch den High-End-Markt mit einer kostengnstigen Lsung bedienen. iSCSI behlt die grundlegenden
Small Computer System Interface SCSI-Paradigmen, vor allem den Befehlssatz, fast unverndert bei.
5 510
8 8
5 510
6 1225
8 8
10
16
1,53
16
10
10
1,53
50-polig
Fast Wide SCSI 20 (SCSI-2) Ultra SCSI (SCSI-3) Ultra Wide SCSI (SCSI-3) Ultra2 SCSI Ultra2 Wide SCSI Ultra-160 SCSI Ultra-320 SCSI Serial Attached SCSI iSCSI 20
16
10
16
68-polig
20
58
50-polig
40
16
20
58
68-polig
40 80
8 16
40 40
8 16
50-polig 68-polig
160 320 375 (Single-Channel) / 750 (Dual-Channel) nur durch das IP-Netzwerk begrenzt
16 16 (Seriell)
40 80 - seriell -
12 12 25
16 16 16.384
nicht zutreffend
nicht zutreffend
nicht zutreffend
nicht zutreffend
Es stehen zwar 16 Adressen zur Verfgung, durch die geringe zulssige Kabellnge und den spezifizierten Mindestabstand zwischen zwei Gerten ist jedoch nur eine entsprechend kleinere Anzahl Gerte anschliebar.
VHDCI-Stecker
SCSI-Gerte
EISA-SCSI Host-Bus-Adapter
SCSI-Festplatte
SCSI-CD-Brenner
SCSI-Detailfotos
SCA-Adapter
Einzelnachweise
[1] " SCSI (http:/ / www. bartleby. com/ 61/ 56/ S0175650. html)." American Heritage Dictionary [2] Marke von Tyco Electronics
Weblinks
SCSI-Spezifikationen (http://www.t10.org/) (englisch) SCSI-Belegungen, -Kabel und -Adapter auf hardware-bastelkiste.de (http://www.hardware-bastelkiste.de/ index.html?scsi.html)
berblick
USB ist ein serieller Bus, d.h. die einzelnen Bits eines Datenpaketes werden nacheinander bertragen. Die Datenbertragung erfolgt symmetrisch ber zwei verdrillte Leitungen, die eine bertrgt das Datensignal, die andere das dazu invertierte Signal. Der Signalempfnger bildet die Differenzspannung beider Signale; der Spannungsunterschied zwischen 1- und 0-Pegeln ist dadurch doppelt so gro, eingestrahlte Strungen werden weitgehend eliminiert. Das erhht die bertragungssicherheit, unterdrckt Gleichtaktstrungen und verbessert damit die elektromagnetische Vertrglichkeit. Zwei weitere Leitungen dienen zur Stromversorgung der angeschlossenen Gerte. Durch die Verwendung von nur vier Adern in einer Leitung knnen diese dnner und billiger ausgefhrt werden als bei parallelen Schnittstellen. Eine hohe Datenbertragungsrate ist mit relativ geringem Aufwand zu erreichen, da nicht mehrere Signale mit identischem elektrischen und zeitlichen Verhalten bertragen werden mssen.
Die Bus-Spezifikation sieht einen zentralen Host-Controller (Master) Altes USB-Logo, das nicht mehr verwendet vor, der die Koordination der angeschlossenen Peripherie-Gerte (den werden soll sog. Slave-Clients) bernimmt. Daran knnen theoretisch bis zu 127 verschiedene Gerte angeschlossen werden. An einem USB-Port kann immer nur ein USB-Gert angeschlossen werden. Sollen an einem Host mehrere Gerte angeschlossen werden, muss deshalb ein Verteiler (Hub) fr deren Kopplung sorgen. Durch den Einsatz von Hubs entstehen Baumstrukturen, die alle im Host-Controller enden.
USB-2.0-PCI-Erweiterungskarte
Als einer der ersten Chipstze untersttzte 1996 der ursprnglich fr den Pentium Pro entwickelte und spter fr den Pentium II verwendete 440FX das USB-Protokoll, was vor Einfhrung der ATX-Mainboards jedoch kaum bis gar nicht beworben wurde. Die Hauptursache dafr drfte zum einen in der mangelhaften beziehungsweise fehlenden Untersttzung von USB durch die damals verbreiteten Betriebssysteme Windows 95 und Windows NT 4.0 gelegen haben, zum anderen waren in der Anfangszeit auch kaum USB-Gerte verfgbar. Dieser zhe Start brachte ihm den Spitznamen Useless Serial Bus ein. Ende 1998 folgte die berarbeitete Spezifikation USB1.1, die in erster Linie Fehler und Unklarheiten in der 1.0-Spezifikation behob und den Interrupt Out Transfer hinzufgte. Die Geschwindigkeit erhhte sich nicht. USB1.x war deshalb keine Konkurrenz zu Apples FireWire-Standard (IEEE 1394), der von Anfang an (1995) eine Datenrate von bis zu 400Mbit/s hatte und im April 2003 auf bis zu 800Mbit/s beschleunigt wurde. Dennoch setzte Apple die Schnittstelle in der Revision USB 1.1 mit der Entwicklung des iMac ein. Mit diesem beginnend, ersetzte Apple damit den hauseigenen ADB.
Universal Serial Bus Im Jahr 2000 wurde USB2.0 spezifiziert, was vor allem eine weitere Datenrate von 480Mbit/s hinzufgte und so den Anschluss von Festplatten oder Videogerten ermglichte. Produkte dafr erschienen jedoch erst ab 2002 am Markt. 2008 wurden die neuen Spezifikationen fr USB3.0 SuperSpeed vorgestellt, die Datentransferraten von mindestens 4,8Gbit/s erreichen. Mit dieser Spezifikation werden auch neue Stecker, Kabel und Buchsen eingefhrt, die grtenteils mit den alten kompatibel sein sollen.[2]
Stromversorgung
Zu beachten ist, dass pro Anschluss lediglich maximal 500mA (High Power) oder 100mA (Low Power) bei 5 Volt als Stromversorgung am USB-Port zugesichert werden mssen. Externe 3,5"-Festplatten lassen sich nicht ohne externe Stromquelle anschlieen, da diese 12 V als Betriebsspannung bentigen und damit durch das Umwandeln der zur Verfgung stehenden Spannung auf die notwendige Betriebsspannung zustzlicher Strombedarf entstnde und der durchschnittliche Gesamtenergiebedarf whrend des Betriebs daher weit ber die spezifizierten 500mA hinausgehen (blicherweise 800 bis ber 1000mA) wrde. Externe 2,5"-Festplatten haben Anlaufstrme von 600 mA bis 1100 mA, im Betrieb begngen sie sich mit 250 mA bis 400 mA (Stand: 2010). Die kurzzeitige berlastung des USB-Ports wird von fast allen Gerten geduldet, nur wenige Gerte (meist Festplattenrecorder) haben mit besonders stromhungrigen Festplatten Probleme. Die frher hufig zu findenden Doppel-USB-Anschlsse (die laut USB-Spezifikation nicht zulssig sind) oder zustzliche Betriebsspannungseingnge an Festplatten sind verschwunden (Stand: 2010). Externe 1,8"-Festplatten liegen mit Anlaufstrmen um die 400 mA und Betriebsstrmen um die 150 mA weit innerhalb der USB-Spezifikation und bereiten nie Probleme. Mit USB3.0, dessen Spezifikation 2008 vorgestellt wurde und das seit 2010 erhltlich ist, wird auch die Stromversorgung auf 900mA erhht. Damit ist die Stromversorgung vieler, aber nicht aller, im Handel erhltlichen externen 2,5"-Festplatten unter Einhaltung der USB-Spezifikationen gesichert. In der EU-Initiative fr einheitliche Mobiltelefon-Lade/Netzgerte,[3] [4] welche sich im Wesentlichen an die 2009 in Version 1.1 erschienene USB Battery Charging Specification[5] anlehnt, ist auch ein USB Lademodus mit einem Ladestrom zwischen 500 und 1500 mA spezifiziert; dieser Lademodus wird mittels Kennung (EU-Spezifiziert) in der Datenleitung aktiviert.
bertragungstechnik/Spezifikation
Die verschiedenen Host-Controller
Die USB-Controller-Chips in den PCs halten sich an einen von drei etablierten Standards. Diese unterscheiden sich in ihrer Leistungsfhigkeit und der Implementierung von bestimmten Funktionen. Fr ein USB-Gert sind die verwendeten Controller (fast) vollstndig transparent, allerdings ist es fr den Benutzer des PC mitunter wichtig, feststellen zu knnen, welche Art Chip der Rechner verwendet, um den korrekten Treiber auswhlen zu knnen. Universal Host Controller Interface (UHCI) wurde im November 1995 von Intel spezifiziert. Die aktuelle Version des Dokuments trgt die Revisionsnummer 1.1. UHCI-Chips bieten Untersttzung fr USB-Gerte mit 1,5 oder 12Mbit/s Datenrate im Low- oder Full-Speed-Modus. Sie werden ausschlielich von den Herstellern Intel und VIA Technologies gebaut. Open Host Controller Interface (OHCI) ist eine Spezifikation, die gemeinsam von Compaq, Microsoft und National Semiconductor entwickelt wurde. Version 1.0 des Standards wurde im Dezember 1995 verffentlicht, die aktuelle Fassung trgt die Versionsnummer 1.0a und stammt von September 1999. Ein OHCI-Controller hat prinzipiell die gleichen Fhigkeiten wie seine UHCI-Pendants, erledigt aber mehr Aufgaben in Hardware und ist dadurch marginal schneller als ein UHCI-Controller. Dieser Unterschied bewegt sich meistens in Bereichen, die
Universal Serial Bus gerade noch messbar sind, daher kann man ihn in der Benutzung vernachlssigen; Gerteentwickler mssen es jedoch bercksichtigen. Bei USB-Controllern auf Hauptplatinen mit Chipstzen, die nicht von Intel oder VIA stammen, und auf USB-PCI-Steckkarten mit Nicht-VIA-Chipstzen handelt es sich mit hoher Wahrscheinlichkeit um OHCI-Controller. Das Enhanced Host Controller Interface (EHCI) stellt USB-2.0-Funktionen bereit. Es wickelt dabei nur die bertragungen im High-Speed-Modus (480Mbit/s) ab. Wenn man USB-1.1-Gerte an einen Port mit EHCI-Chip steckt, reicht der EHCI-Controller den Datenverkehr an einen hinter ihm liegenden UHCI- oder OHCI-Controller weiter (alle Controller sind typischerweise auf demselben Chip). Wenn kein EHCI-Treiber verfgbar ist, werden High-Speed-Gerte ebenfalls an den USB-1.1-Controller durchgereicht und arbeiten dann soweit mglich mit langsamerer Geschwindigkeit.
10
Gerteklassen
Damit nicht fr jedes Gert ein eigener Treiber ntig ist, definiert der USB-Standard verschiedene Gerteklassen, die sich durch generische Treiber steuern lassen. Auf diese Weise sind USB-Tastaturen, -Muse, USB-Massenspeicher, Kommunikations- (Communications Device Class, kurz: CDC) und andere Gerte mit ihren grundlegenden Funktionen sofort verwendbar, ohne dass zuvor die Installation eines spezifischen Treibers notwendig ist. Herstellerspezifische Erweiterungen (die dann einen eigenen Treiber erfordern) sind mglich. Die Information, zu welchen Gerteklassen sich ein Gert zhlt, kann im Device-Deskriptor (wenn das Gert nur einer Klasse angehrt) oder in einem Interface-Deskriptor (bei Gerten, die zu mehreren Klassen gehren) untergebracht werden.
11
USB-Gerteklassen[7]
Klasse 00h 01h 02h 03h 05h 06h 07h 08h 09h 0Ah 0Bh 0Dh 0Eh 0Fh DCh E0h EFh FEh FFh Verwendung Gert Interface Beides Interface Interface Interface Interface Interface Gert Interface Interface Interface Interface Interface Beides Interface Beides Interface Beides Beschreibung Composite Device Audio Beispiele Die Klasse wird auf Ebene der Interface-Deskriptoren definiert Lautsprecher, Mikrofon, Soundkarte, MIDI
Kommunikation und CDC-Steuerung Modem, Netzwerkkarte, Wi-Fi-Adapter HID PID Bilder Drucker Massenspeicher USB-Hub CDC-Daten Chipkarte Content Security Video Personal Healthcare Diagnosegert kabelloser Controller Diverses softwarespezifisch herstellerspezifisch Tastatur, Maus, Joystick etc. Physikalisches Feedback, etwa fr Force-Feedback-Joysticks Digitalkamera Laserdrucker, Tintenstrahldrucker USB-Stick, Memory-Card-Lesegert, MP3-Player Full-Speed Hub, High-Speed Hub diese Klasse wird zusammen mit Klasse 02h verwendet Chipkarten-Lesegert Finger-Print-Reader Webcam Pulsuhr USB-Compliance-Testgert Bluetooth-Adapter, Microsoft RNDIS ActiveSync-Gert IrDA-Brcke der Hersteller liefert einen Treiber mit
bertragungsmodi
Der USB bietet den angeschlossenen Gerten verschiedene bertragungsmodi an, die diese fr jeden einzelnen Endpunkt festlegen knnen. Endpunkte USB-Gerte verfgen ber eine Anzahl von durchnummerierten Endpunkten, gewissermaen Unteradressen des Gertes. Die Endpunkte sind in den Gerten hardwareseitig vorhanden und werden von der USB SIE (Serial Interface Engine) bedient. ber diese Endpunkte knnen voneinander unabhngige Datenstrme laufen. Gerte mit mehreren getrennten Funktionen (z.B. Webcams, die Video und Audio bertragen) haben mehrere Endpunkte. Die bertragungen von und zu den Endpunkten erfolgen meist unidirektional, fr bidirektionale bertragungen ist deshalb ein IN- und ein OUT-Endpunkt erforderlich (IN und OUT beziehen sich jeweils auf die Sicht des Hostcontrollers). Eine Ausnahme davon sind Endpunkte, die den sogenannten Control Transfer Mode verwenden. In jedem USB-Gert muss ein Endpunkt mit Adresse 0 vorhanden sein, ber den die Erkennung und Konfiguration des Gertes luft, darber hinaus kann er auch noch weitere Funktionen bernehmen. Endpunkt 0 verwendet immer den Control Transfer Mode. Ein USB-Gert darf maximal 31 Endpunkte haben: Den Control-Endpunkt (der eigentlich zwei Endpunkte zusammenfasst) und je 15 In- und 15 Out-Endpunkte. Low-Speed-Gerte sind auf Endpunkt 0 plus maximal zwei weitere Endpunkte im Interrupt Transfer Mode mit maximal 8 Bytes pro Transfer beschrnkt.
Universal Serial Bus Isochroner Transfer Der isochrone Transfer ist fr Daten geeignet, die eine garantierte Datenrate bentigen. Diese Transferart steht fr Full-Speed- und High-Speed-Gerte zur Verfgung. Definiert das sogenannte Alternate Setting einen Endpunkt mit isochronem Transfer, so reserviert der Host-Controller-Treiber die erforderliche Datenrate. Steht diese Datenrate nicht zur Verfgung, so schlgt die Aktivierung des genannten Alternate Settings fehl, und es kann mit diesem Gert keine isochrone Kommunikation aufgebaut werden. Die erforderliche Datenrate ergibt sich aus dem Produkt des Abfrageintervalls und der Gre des Datenpuffers. Full-Speed-Gerte knnen jede ms bis zu 1023Bytes je isochronem Endpunkt bertragen (1023kbyte/s), High-Speed-Gerte knnen bis zu drei bertragungen je Micro-Frame (125s) mit bis zu 1024kbytes ausfhren (24Mbyte/s). Stehen in einem Gert mehrere isochrone Endpunkte zur Verfgung, erhht sich die Datenrate entsprechend. Die bertragung ist mit einer Prfnummer (CRC16) gesichert, wird aber bei einem bertragungsfehler durch die Hardware nicht wiederholt. Der Empfnger kann erkennen, ob die Daten korrekt bertragen wurden. Isochrone bertragungen werden zum Beispiel von der USB-Audio-Class benutzt, die bei externen USB-Soundkarten Verwendung findet. Interrupt-Transfer Interrupt-Transfers dienen zur bertragung von kleinen Datenmengen, die zu nicht genau bestimmbaren Zeitpunkten verfgbar sind. Im Endpoint Descriptor teilt das Gert mit, in welchen maximalen Zeitabstnden es nach neuen Daten gefragt werden mchte. Das kleinstmgliche Abfrageintervall betrgt bei Low-Speed 10ms, bei Full-Speed 1ms und bei High-Speed bis zu drei Abfragen in 125s. Bei Low-Speed knnen pro Abfrage bis zu 8Byte, bei Full-Speed bis zu 64Byte und bei High-Speed bis zu 1024Byte bertragen werden. Daraus ergeben sich maximale Datenraten von 800byte/s bei Low-Speed, 64kbyte/s bei Full-Speed und bis zu 24Mbyte/s bei High-Speed. Die Daten sind mit einer Prfnummer (CRC16) gesichert und werden bei bertragungsfehlern bis zu dreimal durch die Hardware wiederholt. Gerte der HID-Klasse (Human Interface Device), zum Beispiel Tastaturen, Muse und Joysticks, bertragen die Daten ber den Interrupt-Transfer. Bulk-Transfer Bulk-Transfers sind fr groe Datenmengen gedacht, die jedoch nicht zeitkritisch sind. Diese Transfers sind niedrig priorisiert und werden vom Controller durchgefhrt, wenn alle isochronen und Interrupt-Transfers abgeschlossen sind und noch Datenrate brig ist. Bulk-Transfers sind durch eine Prfnummer (CRC16) gesichert und werden durch die Hardware bis zu dreimal wiederholt. Low-Speed-Gerte knnen diese Transferart nicht benutzen. Full-Speed-Gerte benutzen Puffer-Gren von 8, 16, 32 oder 64Bytes. High-Speed-Gerte verwenden immer einen 512Byte groen Puffer. Control-Transfer Control-Transfers sind eine besondere Art von Datentransfers, die einen Endpunkt erfordern, der sowohl In- als auch Out-Operationen durchfhren kann. Control-Transfers werden generell in beide Richtungen besttigt, so dass Sender und Empfnger immer sicher sein knnen, dass die Daten auch angekommen sind. Daher wird der Endpunkt 0 im Control-Transfer-Modus verwendet. Control-Transfers sind zum Beispiel nach dem Detektieren des USB-Gerts und zum Austausch der ersten Kommunikation elementar wichtig.
12
USB-Maus fr Notebooks
13
USB On-the-go
Durch USB On-the-go (OTG) knnen entsprechend ausgerstete Gerte miteinander kommunizieren, indem eines der beiden eine eingeschrnkte Host-Funktionalitt bernimmt. Dadurch kann auf einen Computer, der die Host-Funktion bernimmt, verzichtet werden. Mgliche Einsatzgebiete sind beispielsweise die Verbindung von Digitalkamera und Drucker oder der Austausch von Musikdateien zwischen zwei MP3-Spielern. Gekennzeichnet werden USB-OTG-Produkte durch das USB-Logo mit zustzlichem grnem Pfeil auf der Unterseite und weiem On-The-Go-Schriftzug. Die USB-OTG-Spezifikation wurde am 18.Dezember 2001 verabschiedet. OTG-Gerte sind zum Beispiel die seit November 2007 erhltlichen Telefone Nokia 6500c, Nokia N810 und auch das fr Mai 2011 angekndigte Samsung Galaxy S II[8] , aber auch einige externe Festplatten zum direkten Anschluss an Digitalkameras.
Logo fr USB-HighSpeed-OTG-Gerte
Logo fr USB-OTG-Gerte
Wireless USB
Momentan besetzen zwei Initiativen den Begriff Wireless USB. Die ltere der beiden wurde von dem Unternehmen Cypress initiiert, mittlerweile ist Atmel als zweiter Chiphersteller auf den Zug aufgesprungen. Das Cypress-WirelessUSB-System ist eigentlich kein drahtloses USB, sondern eine Technik, um drahtlose Endgerte zu bauen, die dann ber einen am USB angeschlossenen Empfnger/Sender (Transceiver) mit dem Computer verbunden sind. Logo fr die zertifizierten Gerte aus dem Dazu wird eine bertragungstechnik im lizenzfreien 2,4-GHz-Band Intel-Wireless-USB-Projekt benutzt, die Datenrate betrgt bis zu 62,5kbit/s (neuere Chips von Cypress erreichen 1Mbit/s) und ist damit fr Eingabegerte vllig ausreichend, fr andere Anwendungen aber oft zu knapp bemessen. Das zweite Wireless-USB-Projekt wird von der USB-IF vorangetrieben und ist wesentlich anspruchsvoller, neben Intel ist auch NEC dabei, entsprechende Chips zu entwickeln. Ziel ist es, eine Technik zu schaffen, mit der die vollen 480Mbit/s des High-Speed-bertragungsmodus drahtlos bertragen werden knnen. Dabei ist eine kurze Reichweite unter 10m vorgesehen; die bertragung soll auf einer Ultrabreitband-Technik basieren. Am 16.Januar 2008 gab die Bundesnetzagentur fr die Ultrabreitband-Technik Frequenzbereiche frei.[9] Der dabei fr USB vorgesehene Bereich von 6 bis 8,5GHz ist jedoch nicht so breit wie von USB-IF spezifiziert, so dass Gerte aus anderen Lndern eventuell in Deutschland nicht verwendet werden drfen.[10]
14
Datenraten
USB erlaubt es einem Gert, Daten mit 1,5Mbit/s, 12Mbit/s oder mit 480Mbit/s zu bertragen. Diese Raten basieren auf dem Systemtakt der jeweiligen USB-Geschwindigkeit und stellen die physikalische Datenbertragungsrate dar. Die Toleranzen werden fr USB2.0-Gerte und fr die lteren USB-1.0-/1.1-Gerte getrennt Logo fr USB-LowSpeed- oder behandelt. Der tatschliche Datendurchsatz liegt durch -FullSpeed-zertifizierte Gerte Protokoll-Overhead darunter. Im USB-Standard ist eine maximale theoretische Datenlast bei High-Speed unter idealen Bedingungen von 49.152.000Byte/s (Isochronous Mode)[11] beziehungsweise 53.248.000Byte/s (Bulk-Mode)[12] angegeben. Dazu kommt die Verwaltung der Gerte, so dass bei aktuellen Systemen eine nutzbare Datenrate in der Grenordnung von 320Mbit/s (40MB/s) bleibt. Bei lteren Systemen wurde diese durch eine unzureichende Anbindung des USB-Chips an den Systembus zustzlich reduziert.
Geschwindigkeit Toleranz USB 3.0 Toleranz USB 2.0 0,75kbit/s 6kbit/s 240kbit/s Toleranz USB 1.0/1.1 22,5kbit/s 30kbit/s
Low-Speed, 1,5Mbit/s (187,5KB/s) Full-Speed, 12Mbit/s (1,5MB/s) High-Speed, 480Mbit/s (60MB/s) Super-Speed, 5Gbit/s (625MB/s)
Wird die Schnittstelle eines Gerts mit USB2.0 angegeben, heit das nicht unbedingt, dass dieses Gert auch die hohe Datenrate von 480Mbit/s anbietet. Standpunkt der Anbieter ist dabei, dass ein USB-2.0-kompatibles Gert grundstzlich jede der drei Geschwindigkeiten benutzen kann und die 2.0-Kompatibilitt in erster Linie bedeutet, dass die neueste Fassung der Spezifikation eingehalten wird. 480Mbit/s drfen also nur erwartet werden, wenn ein Gert mit dem Logo Certified USB Hi-Speed ausgezeichnet ist.
Die Kommunikation bei USB wird vom Hostcontroller gesteuert, der heutzutage in der Regel auf dem Motherboard eines Computers verbaut ist. Nur dieser kann Daten von einem Gert lesen oder zu einem Gert senden. Ein Gert darf nur dann Daten zum Hostcontroller senden, wenn es von diesem abgefragt wird. Bei zeitkritischen Datenstrmen, wie etwa bei Mausbewegungen, muss der Hostcontroller von sich aus hufig genug beim Gert anfragen (Polling), ob es Daten senden will, um ein Ruckeln zu verhindern. Eine direkte Kommunikation zwischen USB-Gerten ist gem dem USB-Standard eigentlich nicht mglich; das wurde erst durch die Erweiterung USB On-the-go eingeschrnkt ermglicht (die Gerte knnen hier wahlweise Host oder Endgert sein, ein echter bidirektionaler Austausch ist aber trotzdem nicht mglich). Der FireWire-Standard, der fr hnliche Einsatzzwecke wie USB geschaffen wurde und mit diesem in Konkurrenz steht, bietet im Gegensatz dazu die Mglichkeit einer Peer-to-Peer-Kommunikation zwischen Gerten, ohne dass die Steuerung durch einen Host erforderlich ist. Somit ist mit FireWire etwa der Aufbau eines Netzwerks mglich.
15
USB 3.0
Im November 2008 stellte das USB Implementers Forum, dem unter anderem die Unternehmen HP, Microsoft und Intel angehren, die Spezifikation fr USB 3.0 vor. Es sollen Datenraten von bis zu 5Gbit/s (625MB/s) im SuperSpeed-Modus erreicht werden.[13] [14] Die hheren Datenraten werden durch eine bertragungstechnik hnlich PCI-Express beziehungsweise Serial ATA ermglicht, die allerdings zustzlich zum bisherigen Datenleitungspaar (D+/D-) im Kabel noch zwei weitere Aderpaare erfordert (plus einen weiteren Masseanschluss). Da in den Steckern somit fnf weitere Kontakte erforderlich sind, wurden mit USB 3.0 neue Steckverbinder und Kabel eingefhrt.
SSTX mit SSTX+ verdrillt GND SSRX+ Masse Datenbertragung vom Gert zum Host
Diese neuen Verbinder vom Typ A sind mit den bisherigen abwrtskompatibel. Bisherige USB-Gerte lassen sich auch weiterhin mit USB3.0-, neue 3.0-Gerte auch an alten 2.0- beziehungsweise 1.0/1.1-Hosts betreiben. Eine Ausnahme stellen B-, Mini-B-, Micro-B- und Mini-A-Verbinder dar. Durch die hier notwendigen Anbauten lassen sich zwar alte Stecker in neuen Buchsen (also nach USB 3.0 spezifizierte Gerte mit Kabeln fr USB 2.0/1.1/1.0 natrlich dann "nur" im USB-2.0/1.1/1.0-Modus und nicht im USB-3.0-Modus), nicht jedoch neue Stecker in alten Buchsen verwenden. Dafr sind dann Adapter erforderlich (die aber nur bei Nichtvorhandensein bisheriger USB-2.0/1.1/1.0-Kabel notwendig werden). Mit dem Linux-Kernel Version 2.6.31 ist Linux das erste Betriebssystem, das USB3.0 untersttzt.[15] Weitere Besonderheiten: Die bei den bisherigen USB-Standards bliche Reihumabfrage der Gerte (Polling) entfllt. Durch solche Abfragen knnen Gerte in verschiedene Stromsparmodi (U0 bis U3) geschaltet werden. Mglich wird das durch zustzliche Befehle. Statt 100 stehen nun 150 mA Stromstrke pro Gert zur Verfgung. Auf Anforderung knnen statt bisher 500 nun 900mA bereitgestellt werden. Zu Hubs siehe USB 3.0 und Hubs ltere Treiber sollen weiterverwendbar bleiben. Neuere Versionen sind aber unter Umstnden vorteilhaft, etwa um die neuen Stromsparmodi zu nutzen. Fr einen spteren Zeitpunkt ist auch eine Erweiterung des Standards mit Lichtwellenleitern geplant. Anders als noch bei USB2.0 drfen sich Gerte nur USB-3.0-kompatibel nennen, wenn sie tatschlich die schnellstmgliche Geschwindigkeit (hier Super-Speed-Modus) anbieten.[16]
16
Hardware
USB-Stecker und -Kabel
USB-Stecker Die Stecker eines USB-Kabels vertauschungssicher gestaltet. sind verpolungsund
In Richtung des Hostcontrollers (Upstream) werden flache Stecker (Typ A DIN IEC 61076-3-107) verwendet. Zum angeschlossenen Gert hin (Downstream) werden die Kabel entweder fix montiert oder ber annhernd quadratische Steckverbinder (Typ B DIN IEC 61076-3-108) angeschlossen (vereinzelt und nicht standardkonform auch mit Typ A-Steckverbindern). Entsprechend den USB 1.02.0 Standards besitzen USB Typ A- und Typ B-Verbinder vier Leitungen plus Schirm. Beide Steckverbinder sollen in einer der drei Farben grau, natur (elfenbeinfarben/wei) oder schwarz ausgefhrt werden. Mit USB 3.0 kommen neue Varianten der Typ A- und Typ B-Verbinder auf den Markt (siehe unten). Seit einiger Zeit sind auch Stecker und Buchsen vom Typ A und B mit Rndelschrauben erhltlich, die ein Herausrutschen verhindern. Allerdings muss das empfangende Gert dies auch untersttzen. Verschiedene Hersteller brachten mechanisch inkompatible Ausfhrungen von USB-Verbindern heraus, die sich jedoch elektrisch nicht von USB 1.x oder 2.0 unterschieden. So etwa waren einige IBM Thinkpads mit einem sog. UltraPort ausgestattet, APC fhrt USB an ihren USVs ber 10-polige Modular-Buchsen (10P10C/RJ50), die Microsoft Xbox benutzt ebenfalls proprietre USB-Verbinder oder Apple fhrt USB beim iPod Shuffle ber einen Klinkenstecker, der gleichzeitig als Audioverbinder dient. Diese nicht standardisierten Varianten haben jedoch bisher keine weitere Verbreitung erlangt.
USB-Stecker Typ A
USB-Stecker Typ A; deutlich zu erkennen sind die voreilenden ueren Pins fr die Versorgungsspannung
Fr den industriellen Einsatz gibt es mehrere nicht vom USB-Konsortium standardisierte USB-5-V(olt)-, USB-12V-, USB-19-V- und USB-24-V-Varianten mit deutlich hheren Strombelastbarkeiten von bis zu 6A (3A pro Kontakt) ber insgesamt vier zustzliche Leitungen, die um 1999 im Rahmen der PoweredUSBund PlusPower-Spezifikationen von Firmen wie IBM, Microsoft, NCR und Berg/FCI definiert wurden und zum Teil lizenzpflichtig sind. Diese Varianten werden insbesondere bei POS-Anwendungen von verschiedenen Herstellern eingesetzt. Die Steckverbinder fhren dabei neben dem USB-Typ-A-Stecker eine unabhngige hochstromfhige vierpolige Spannungsversorgung. Diese Stecker sind nicht rechteckig, USB-Stecker Typ B sondern mehr quadratisch (wie zwei Stecker in einem gemeinsamen Gehuse, der USB-Teil selbst entspricht mechanisch und elektrisch unverndert USB Typ A). Mittels einer mechanischen Kodierung wird
17
verhindert, dass zum Beispiel USB-12-V-Stecker versehentlich in USB-24-V-Buchsen gesteckt werden knnen. Eine mechanische Arretierung der Stecker in den Buchsen ist ebenfalls vorgesehen. Zustzlich wird fr diese Stecker eine Farbkodierung empfohlen, naturfarben (z.T. auch gelb) fr 5V (30W), blaugrn (Pantone Teal 3262C) fr 12V (72W), rot (Pantone Red 032C) fr 24/25V (144W) und seltener violett fr 19V. Kommt keine Farbkodierung zum Einsatz, sollen die Stecker fr alle Spannungen grer 5V schwarz ausgefhrt werden, wohingegen grau als alternative Farbe fr 5V in Frage kommt. Fr die B-Seite ist kein spezieller Stecker definiert, es gibt jedoch verschiedene Empfehlungen, teilweise mit unterschiedlichen HotPlug-Fhigkeiten. Die Bezeichnung fr diese industriellen USB-Varianten lautet Retail USB, PoweredUSB, USB PlusPower oder USB +Power.[17] Micro- und Mini-USB Insbesondere fr Gerte mit geringerem Platzangebot (z.B. digitale Kameras, Mobiltelefone, MP3-Player und andere mobile Gerte) existieren auch verschiedene kompaktere USB-Steckverbinder. Im USB-2.0-Standard verankert sind dabei lediglich fnfpolige Mini- und Micro-Varianten (plus Schirm) (z.T. auf dem Foto in der Mitte abgebildet), die gegenber den normalen USB-Steckverbindern ber einen zustzlichen ID-Pin verfgen: Zunchst wurde im Jahr 2000 ein trapezfrmiger Mini-B-Steckverbinder fr die Downstream-Seite definiert, der in der Farbe Schwarz ausgefhrt werden sollte. Bei zuknftigen Gerten sollen Gertehersteller jedoch auf die Micro-USB-Verbinder (siehe unten) ausweichen.[18] Auch Mini-A- (in weier Farbe) und Mini-AB-Steckverbinder (in Grau) waren fr eine gewisse Zeit Teil des Standards und sollten insbesondere in Verbindung mit USB On-the-Go (OTG) eine Rolle spielen, wurden jedoch im Mai 2007 offiziell zurckgezogen.[19]
Verschiedene USB-Stecker; von links nach rechts: Typ A, Typ B, Typ Mini-B 5-polig (Standard), Typ Miniatur-B 4-polig (Mitsumi), Typ Miniatur-B 4-polig (Aiptek)
Im Januar 2007 wurden mit der Standarderweiterung Micro-USB fr USB 2.0 noch kleinere Steckverbinder vorgestellt, die eine besonders kompakte Bauform der Gerte ermglichen. Die USB-Stecker mit Ferritkerndrossel als Micro-USB-Spezifikation kann USB On-the-Go (OTG) untersttzen, Mantelwellenfilter was Verkabelung und Kommunikation auch ohne PC als Host ermglicht.[20] Micro-USB-Steckverbinder sollen bei neueren Gerten in naher Zukunft den Mini-Verbinder komplett ersetzen, lediglich der relativ weit verbreitete Mini-B-Verbinder wird derzeit noch geduldet. Die Micro-USB-Verbinder sind elektrisch gleichwertig, mechanisch allerdings nicht steckkompatibel, dafr jedoch dank der im Standard geforderten Edelstahlkrampe deutlich stabiler ausgefhrt. Gem USB-2.0-Standard gibt es drei Varianten, die genau wie bei Mini-USB
18
allesamt fnfpolig ausgefhrt sind: Micro-A (rechteckige Bauform, fr die Host-Seite, Farbe Wei), Micro-AB (rechteckige Bauform, fr USB-On-the-Go-Gerte, Farbe Grau) und Micro-B (Trapez-Bauform, fr die Gerteseite, Farbe Schwarz). Die Open Mobile Terminal Platform OMTP hat Micro-USB 2007 als Standardverbinder fr den Datentransfer und die Energieversorgung von Mobilfunkgerten bernommen, in China mssen Mobiltelefone seitdem mit dieser Schnittstelle ausgestattet werden, um eine Zulassung zu bekommen.[21] Mit USB 3.0 kommen neue Varianten der Micro-A-, AB- und -B-Steckverbinder auf den Markt (siehe unten).
MicroUSB als
Standard-Mobiltelefon-Ladestecker Daneben gibt es noch eine ganze Reihe proprietrer, das heit gerteherstellerspezifische Miniaturbauformen der Steckverbinder (siehe auch Bild), die zwar in der Regel elektrisch mit USB2.0 kompatibel sind, jedoch nur ber z.T. schwer erhltliche Adapterkabel mit USB-Komponenten gem dem USB-Standard verbunden werden knnen. Flschlicherweise werden jedoch auch diese Steckverbinder hufig als Mini-USB bezeichnet, was immer wieder zu Missverstndnissen fhrt und vermieden werden sollte. Nicht zuletzt deshalb soll der Micro-USB-Standard hier den Wildwuchs beenden. Verbreitet sind unterschiedlichste Ausfhrungen mit vier Pins (insbesondere Varianten von Mitsumi, Aiptek, Hirose) sowie eine groe Zahl von Varianten mit acht Pins (darunter mehrere USB-Buchse des Typs A inkompatible Varianten, die sich bei Digitalkameras in begrenztem Rahmen auch ber Herstellergrenzen hinweg verbreitet haben), elf Pins (ExtUSB fr HTC-Mobiltelefone; kompatibel zu Mini-USB), zwlf Pins (fr verschiedene Olympus-Digitalkameras) und 14 Pins (zwei Varianten fr verschiedene Fuji-Finepix-Digitalkameras und als Nokias Pop-Port fr manche Mobiltelefone), die auch noch andere, nicht-USB-spezifische Signale im gleichen Konnektor vereinen.[22]
Im Rahmen des im Jahr 2008 verabschiedeten USB-3.0-Standards wurden weitere sechs Steckverbindertypen mit zustzlichen Kontakten definiert: Diese unterteilen sich in je drei Steckverbinder, die als weitestgehend rckwrtskompatible Erweiterungen der bisherigen Typ A- und Typ B-Steckverbinder angesehen werden knnen (genannt: USB 3.0 Standard-A, USB 3.0 Standard-B und USB 3.0 Powered-B) sowie drei kleinere Verbinder, die sich an die bisherigen Micro-USB-Verbinder anlehnen (genannt: USB 3.0 Micro-A, USB 3.0 Micro-AB und USB 3.0 Micro-B). Zur eindeutigen Kennzeichnung werden die bisherigen Steckverbinder nun als USB 2.0 Standard-A, USB 2.0 Standard-B, USB 2.0 Micro-A, USB 2.0 Micro-AB und USB 2.0 Micro-B bezeichnet. Zur besseren Unterscheidung sollen die USB-3.0-Standard-A-Verbinder in der Farbe Blau (Pantone 300C) ausgefhrt und gegebenenfalls mit einem doppelten S-Symbol gekennzeichnet werden.
19
Stecker A
Steckerabmessungen
passende Buchsen A
Mini-B
Mini-B
Stecker A
Micro-A
Micro-AB
Micro-B
Micro-B Micro-AB
Verbreitet haben sich weiterhin 14-, 15- und 22-polige Varianten von Stiftleisten im Rasterma 2,54 Millimeter auf PC-Mainboards, ebenso wie Doppel-USB-Verbinder mit 24 oder 25 Polen im Rasterma 2,54mm. Gab es zunchst mehrere zueinander inkompatible Belegungsvarianten, hat sich im Zuge neuerer
Universal Serial Bus Mainboard-Spezifikationen von Intel inzwischen eine bestimmte 25-polige Belegung etabliert, die auch mit uDOC-Flashmodulen kompatibel ist. USB-Kabel In einem USB-Kabel werden vier Adern bentigt. Zwei Adern bertragen dabei die Daten, die anderen beiden versorgen das angeschlossene Gert mit einer Spannung von 5V. Der USB-Spezifikation entsprechende Gerte drfen bis zu 100mA oder 500mA aus dem Bus beziehen, abhngig davon, wie viel der Port liefern kann, an den sie angeschlossen werden. Gerte mit einer Leistung von bis zu 2,5W knnen also ber den Bus versorgt werden. Je nach Kabellnge muss der Querschnitt der beiden Stromversorgungsadern angepasst sein, um den zulssigen Spannungsabfall einzuhalten; auch daher sind Verlngerungsleitungen nicht standardgem. Die Kabel mssen je nach Geschwindigkeit unterschiedlich abgeschirmt werden. Kabel, die lediglich der Spezifikation low speed entsprechen, drfen ber keinen B-Stecker verfgen, sondern mssen fix am Gert montiert sein oder einen herstellerspezifischen Stecker verwenden. Sie sind weniger stark abgeschirmt, kommen ohne verdrillte Adern aus und sind dadurch flexibler als Full/High-Speed Kabel. Sie sind daher gut fr zum Beispiel Muse und Tastaturen geeignet. Die geringe Abschirmung des Kabels kann zu Problemen bei Gerten mit hheren Geschwindigkeiten fhren. Die Lngen von Full-/High-Speed- und Low-Speed-Kabeln vom Hub zum Gert sind auf fnf beziehungsweise drei Meter begrenzt. Lngere Strecken kann man berwinden, indem USB-Hubs zwischengeschaltet werden. Sogenannte USB-Repeaterkabel entsprechen in ihren Funktionen einem Bus-Powered Hub (s.u.) mit einem einzigen Downstream-Port und einem fest angeschlossenen Kabel am Upstream-Port. Da die elektrischen Auswirkungen dieser Kabel im USB-Bus denen eines Bus-Powered-USB-Hubs mit fnf Meter Kabel entsprechen, sollten bei ihrer Verwendung zustzlich die Beschrnkungen beim Verschachteln von USB-Hubs beachtet werden. USB arbeitet mit einem Wellenwiderstand von 90 , direkte
20
Verbindungskabel sollten daher auch in diesem Wellenwiderstandswert ausgefhrt sein. Fr die berbrckung von Lngen ber 30 Metern werden USB-Line-Extender angeboten. Diese bestehen aus zwei Komponenten: Einem Base-Modul, das an den Computer angeschlossen wird, und einem Remote-Modul fr den Anschluss des USB-Gertes. Zur Distanzberbrckung zwischen diesen beiden Komponenten werden meist Ethernetkabel oder Lichtleiter eingesetzt. Da sich diese Line-Extender jedoch immer auf bestimmte, nicht vom Standard vorgeschriebene Verhaltensdetails der angeschlossenen Gerte verlassen und zudem bei langen Kabelstrecken die Signallaufzeit zu Protokollverletzungen fhrt, ist der Einsatz dieser Gerte oft mit Problemen verbunden. Eine andere Mglichkeit, USB-Gerte weiter entfernt vom Rechner anzuschlieen, sind Lsungen, die einen remote host verwenden, also einen USB-Hostcontroller, der auerhalb des PCs liegt. Dabei geschieht die Kommunikation
Universal Serial Bus zwischen PC und Hostcontroller zum Beispiel ber Ethernet. Das Ethernet ersetzt dabei den lokalen Bus, an dem sonst der Hostcontroller angeschlossen wre. Auf dem PC muss also nur ein entsprechender Treiber installiert werden, der die Kommunikation mit dem Hostcontroller bernimmt. Alle Treiber fr die USB-Gerte erkennen dann keinen Unterschied zu einem lokal angeschlossenen Gert. Ein Beispiel fr ein solches Gert ist der USB-Server von Keyspan. Farbkodierung und Pinouts Der USB-Standard legt neben der Belegung der Schnittstelle auch die Namen der einzelnen Stecker-Pins und die Aderfarbe fest. Die Nummer eines Stecker-Pins kann in den oben angefhrten Schemazeichnungen abgelesen werden.
21
USB-Ministecker Typ A und B. Nicht mastabsgetreu, mit Pinnummern, Draufsicht. Es gibt noch Mini-AB-Buchsen, die sich automatisch umschalten. Mini-AB-Buchsen und Mini-A-Stecker sind aus der Spezifikation entfernt worden.
Kabelbelegung USB-Standardstecker
22
Standardstecker
Pin 1 2 3 4 Name VCC DD+ GND Farbe Rot Wei Grn Beschreibung +5V Data Data +
Schwarz Masse
Ministecker/Microstecker
Pin 1 2 3 4 Name VCC DD+ ID Farbe Rot Wei Grn keine +5V Data Data + erlaubt Unterscheidung von Micro-A- und Micro-B-Stecker Typ A: Masse Typ B: nicht verbunden 5 GND Schwarz Masse Beschreibung
USB-Hubs
Allgemeines Ein USB-Hub ist ein USB-Gert, das das USB-Signal an mehrere Ports verteilt. Handelsblich sind USB-Hubs mit bis zu sieben Downstream-Ports. Hubs knnen ihren Strom aus dem Bus selbst beziehen (als Bus-Powered oder passiver Hub bezeichnet) oder ber eine eigene Stromversorgung verfgen (als Self-Powered oder aktiver Hub bezeichnet). Die meisten Self-Powered-Hubs werden ber ein Steckernetzteil mit Strom versorgt. Manche Monitore haben auch einen 4-Port-USB-Hub mit eigener Stromversorgung USB-Hub eingebaut, der ber die Stromversorgung des Monitors (selfpowered, Netzteilbuchse rechts) mitgespeist wird. Self-Powered-Hubs haben den Vorteil, dass jedes an sie angeschlossene Gert bis zu 500mA Strom beziehen kann. Bei Bus-Powered-Hubs drfen der Hub und alle an ihn angeschlossenen Gerte gemeinsam maximal 500mA beziehen. Hybride Self- und Bus-Powered-Hubs sind mglich der Hub ist dann Self-Powered, wenn ein Netzteil an ihn angeschlossen ist, und ansonsten Bus-Powered. Manchmal werden Bus-Powered-Hubs auch als passiv und Self-Powered-Hubs als aktiv bezeichnet; technisch ist das jedoch falsch. Bei der Verschachtelung von Hubs werden die Grenzen durch die maximal 127 mglichen USB-Gerte pro root-hub und durch die
23
Signallaufzeit festgelegt jeder Hub erhht die Laufzeit, die Verschachtelungstiefe ist auf maximal fnf (Hub-)Ebenen unterhalb des Hostcontrollers beziehungsweise des Root-Hubs begrenzt. Die maximale Distanz zwischen zwei mit USB verbundenen Gerten liegt wegen der Beschrnkung von 5m pro USB-Kabel bei 30m sechs Kabel mit je fnf Meter Lnge und dazwischen fnf Hubs.
USB 2.0 und Hubs Low-, Full- und High-Speed-Gerte lassen sich an einem USB-2.0-Host fast beliebig mischen, ohne dass Geschwindigkeitsnachteile entstehen. Hubs nach dem USB-1.x-Standard knnen an USB-2.0-Hosts verwendet werden. Gerte, die direkt oder indirekt an einen solchen Hub angeschlossen werden, knnen allerdings lediglich die Geschwindigkeit Full Speed erreichen, also 12Mbit/s. Ein USB-2.0-Host und ein USB-2.0-Hub kommunizieren immer mit High Speed, selbst wenn an dem Hub Lowoder Full-Speed-Gerte angeschlossen sind. Es ist Aufgabe des Hubs, die Daten dieser Gerte in das High-Speed-Protokoll zu verpacken, dazu hat er einen oder mehrere sogenannte Transaction Translators eingebaut. Die Anzahl der Transaction Translators bestimmt, wie viele langsame Gerte an einen USB-2.0-Hub angeschlossen werden knnen, ohne sich gegenseitig auszubremsen. Wird diese Zahl berschritten, so bricht die Datenrate aller an diesen Host angeschlossenen Low-Speed- und Full-Speed-Gerte auf Geschwindigkeiten deutlich unter denen eines USB-1.1-Hosts ein; der Durchsatz von High-Speed-Gerten am selben Hub bleibt jedoch unbeeinflusst. An der Spezifikation des Stromverbrauchs hat sich bei USB 2.0 im Vergleich zu USB 1.1 nichts gendert. USB 3.0 und Hubs Unter USB 3.0 gibt es ein neues Hub-Konzept. Hubs bestehen aus zwei Unter-Hubs. Der eine ist speziell fr den neuen Super-Speed-Modus zustndig, der andere fr die bisherigen Geschwindigkeitsmodi (Low-Speed, Full-Speed, High-Speed). Erst an den Ports werden beide Teile zusammengefhrt. Im Dezember 2009 hat das Unternehmen VIA die ersten Chips fr USB-3.0-Hubs vorgestellt. Der VL810 genannte Chip ist mit allen Geschwindigkeitsmodi kompatibel.[24]
USB-Card-Bus
Der Cardbus-Standard[25] (PC Card Standard 5.0) wurde ursprnglich fr PCMCIA-Karten als Datenspeichermedium entwickelt, unterscheidet sich aber vom eigentlichen PCMCIA-Standard durch eine vllig andere Architektur. Es sind auch Steckkarten mit CardBus-Controller am Markt erhltlich, die USB in CardBus umsetzen, so dass USB-Stecker beispielsweise auch an Mobilgerten ohne integrierte USB-Schnittstelle verwendet werden knnen sie
Universal Serial Bus sind aber auf den 32 Bit breiten CardBus beschrnkt. Ein Nachrsten bei Computern mit 16-Bit-Bus ist daher nicht mglich.[26] CardBus wurde vom neueren und leistungsfhigeren ExpressCard-Standard abgelst.
24
Software-Architektur
Alle USB-Transaktionen werden durch die USB-Software auf dem Host-Computer realisiert. Das geschieht durch den jeweiligen USB-Gertetreiber, der mit seinem Gert kommunizieren will. Der USB-Bustreiber ist die Schnittstelle zwischen dem USB-Gertetreiber und dem USB-Host-Controller.
USB-Gertetreiber
Die Aufgabe des USB-Gertetreibers (USB device driver) ist die Erzeugung von Anfragen (Requests) an den USB-Bustreiber. Fr eine Anfrage werden I/O-Request-Packets (IRP) verwendet. Diese IRPs initiieren einen Transfer von oder zu USB-Gerten (z.B. Interrupt-Transfer der Tastatur durch Erzeugung eines entsprechenden IRP auslsen).
USB-Bustreiber
Der USB-Bustreiber (USB-Driver) kennt die spezifischen Kommunikationseigenschaften der einzelnen USB-Gerte, zum Beispiel die Datenmenge pro Frame oder Abstnde zwischen den periodischen Zugriffen. Er erkennt diese Eigenschaften beim Analysieren der Gerte-Deskriptoren whrend der Konfigurationsphase. Wenn der USB-Bustreiber ein IRP von einem USB-Gertetreiber erhlt, erzeugt er entsprechend diesem Request einzelne Transaktionen, die innerhalb des bertragungsrahmens (Frame) von einer Millisekunde ausfhrbar sind.
USB-Host-Controller-Treiber
Der Universal-Serial-Bus-Host-Controller-Treiber (host controller driver) organisiert die zeitliche Abfolge der einzelnen Transaktionen (Scheduling). Dazu baut er eine Folge von Transaktionslisten auf. Jede dieser Listen besteht aus den noch nicht abgearbeiteten Transaktionen in Richtung eines Gertes, das am Bus angeschlossen ist. Sie definiert die Reihenfolge der Transaktionen innerhalb des 1-ms-Zeitrahmens. Der USB-Bustreiber kann eine einzelne Anfrage fr einen Datentransfer in mehrere Transaktionen zerlegen. Das Scheduling hngt von einer Reihe von Einflussfaktoren wie Transferart, Gerteeigenschaften und Busbelastung ab. Der USB-Host-Controller-Treiber lst die Transaktionen dann ber den Root-Hub aus. Dieser setzt der Reihe nach alle Transaktionen um, die in der aktuellen Liste enthalten sind.
Untersttzung in Betriebssystemen
Amiga OS3.x untersttzt standardmig kein USB. Lediglich mit Hard- und Software anderer Anbieter (Poseidon, Sirion, Anaiis) ist eine Anbindung von USB-1.1- und USB-2.0-Gerten mglich (mit breiter Untersttzung verschiedenster Gerteklassen bei Poseidon). Bei Poseidon kann in Zusammenarbeit mit einer Flash-Rom-Karte sogar von USB-Massenspeichern gebootet werden. Ab Amiga OS4 wird, je nach Hardware, USB 1.1 und 2.0 untersttzt (kein USB 2.0 Highspeed, da der EHCI-Treiber noch fehlt). Unter AmigaOS 4 Classic kann jedoch alternativ auch Poseidon eingesetzt werden. AROS enthlt seit August 2009 eine quelloffene Portierung von Poseidon, der die alte Implementierung ersetzt. Es untersttzt OHCI/UHCI (USB 1.1) und EHCI (USB 2.0 Highspeed) sowie die meisten der in Poseidon fr AmigaOS vorhandenen Gertetreiber. Der Stack liegt (teilweise) im Kernel und es kann damit von USB-Massenspeichern gebootet werden. Atari MiNT untersttzt standardmig kein USB, es sind jedoch fr MiNT verschiedene Treiber in Entwicklung, die Add-on-Karten (wie z.B. EtherNAT, eine Kombination aus USB- und Ethernet Erweiterung fr den Atari Falcon) untersttzen. eComStation als Nachfolger von OS/2 bringt ebenfalls Untersttzung fr USB 2.0 mit.
Universal Serial Bus Der Linux-Kernel untersttzt seit Version 2.2 USB-Controller. Seit der Kernelversion 2.4 sind Treiber fr UHCI-, OHCI- und EHCI-Controller sowie Untersttzung fr gngige USB-Endgerte integriert. Die Untersttzung fr EHCI-Controller in der Kernelversion 2.4 gilt jedoch als fehleranfllig und luft erst seit Version 2.6 stabil. Weiterhin existieren sogenannte Gadget-Treiber, damit kann ein Linux-basiertes System, das an einem USB-Host angeschlossen wird, selbst als USB-Gert erscheinen, zum Beispiel als Massenspeicher, Netzwerkkarte oder serielle Schnittstelle. Seit der Version 2.6.31 wird auch USB 3.0 vom Linux-Kernel untersttzt.[27] Mac OS untersttzt USB 1.1 ab Mac OS 8.1. Mit der Zeit wurde der Umfang an Gerten, die mit Klassentreibern untersttzt werden, deutlich erweitert; seit Mac OS 8.5 werden die meisten blichen Gerteklassen untersttzt. Mac OS X untersttzt in allen Versionen USB 1.1 und ab Version 10.2.8 auch USB 2.0. Microsoft DOS und kompatible untersttzen USB standardmig nicht. USB-Tastaturen und USB-Massenspeicher sind ber die Legacy-Emulation vieler moderner PC-BIOSe dennoch verwendbar, aber meist nicht Hotplug-fhig. Auch USB-"Muse" funktionieren meist mit fr PS/2-Muse gedachten Treibern, wenn der Legacy-Mode aktiviert ist. Fr Free-DOS gibt es den "motto hairu" Treiber, der USB 2.0 zur Verfgung stellt. Andere Hersteller bieten Spezialtreiber an, die aber viel konventionellen Speicher belegen und deshalb mit vielen DOS-Programmen nicht kompatibel sind. Microsoft Windows 95 hat ab OEM Service Release 2.1 eine rudimentre Untersttzung von USB 1.0, die jedoch als fehleranfllig gilt. Microsoft Windows 98 untersttzt USB 1.0, ab Windows 98 SE auch USB 1.1. USB 2.0 ist nur mit Treibern von Chipsatzherstellern mglich. Microsoft Windows Me untersttzt USB 1.1. und verfgt als einziges System der 9x-Serie ber einen generischen Gertetreiber fr Massenspeicher. USB 2.0 ist nur mit Treibern von Chipsatzherstellern mglich. Im Gegensatz zu Windows 98 und 95 ist nach der Installation gertespezifischer USB-Treiber kein Neustart erforderlich. Microsoft Windows NT 4.0 hat keinerlei USB-Untersttzung, von anderen Herstellern sind jedoch Systemerweiterungen dafr erhltlich. Gertehersteller testen ihre Produkte selten mit derartigen Erweiterungen, deshalb gelten diese Systemerweiterungen nur fr Spezialflle als tauglich. Microsoft Windows 2000 (SP4), Microsoft Windows XP (ab SP1), Microsoft Windows Server 2003, Microsoft Windows Vista, Microsoft Windows Server 2008, Microsoft Windows 7 und Microsoft Windows Server 2008 R2 untersttzen USB 1.1 und USB 2.0. und untersttzen generisch von Anfang an Massenspeicher. Der USB-Hostcontroller wird allerdings manchmal fehlerhaft erkannt, die meisten Hersteller raten dazu, die Treiber des Chipsatzherstellers zu installieren. MorphOS wird mit dem Poseidon-USB-Stack ausgeliefert mit voller Untersttzung von UHCI, OHCI und EHCI. NetBSD, FreeBSD und OpenBSD untersttzen UHCI, OHCI und EHCI sowie gngige Endgerte. NetBSD war 1998 das erste freie Betriebssystem mit USB-Untersttzung. OS/2 Warp4 untersttzt erst ber den Aufrstpack Warp 4.51 Convenience Pak 1 (vom Dezember 2000) USB 1.1. Dieser ist kostenpflichtig. Treiber-Aktualisierungen auf USB 2.0 sind ebenfalls verfgbar. Palm OS untersttzt ab Version 3.2 USB als Kommunikationsplattform fr HotSync, ab Palm OS 5 knnen (teilweise mit Zusatzprogrammen) auch Modemfunktionen ber USB genutzt werden. Bestimmte PDAs (u. a. Sony Cli) knnen mit der USB-Schnittstelle einen Massenspeicher emulieren. QNX untersttzt ab der Version 6 UHCI, OHCI und EHCI, mit separat erhltlichen Treibern ist USB-Support auch in QNX4 nachrstbar. Die mitgelieferten Treiber beschrnken sich auf den HID-Bootmode, einige RS232und Ethernet-Adapter sowie Massenspeicher. Bei Betriebssystemen ohne USB-Untersttzung kann das BIOS nach Aktivieren von USB Legacy Support (engl. etwa USB-Untersttzung fr Altlasten) in seinen Einstellungen Abhilfe schaffen, dadurch erscheinen USB-Eingabegerte wie "Muse" und Tastaturen dem Betriebssystem gegenber als PS/2-Gerte. Je nach BIOS wird meist genau ein USB-Laufwerk (wie USB-Stick, USB-Kartenleser, USB-Festplatte, USB-Floppy) eingebunden. USB-CD/DVD-Laufwerke werden nur dann eingebunden, wenn von ihnen gebootet wird.
25
26
Kurioses
Eine Gruppe evangelikaler Christen in Brasilien soll seinen Anhngern die Nutzung von USB verbieten. Das typische Symbol wrde an den Dreizack des Teufels erinnern.[28] Inzwischen sind auch ausgefallene Gerte auf den Markt gekommen, wie beispielsweise USB-Heizplatten, mit denen etwa eine Kaffeetasse ber die USB-Schnittstelle warmgehalten werden kann. Eine weitere Erfindung ist ein USB-Raketenwerfer, der auf Befehl kleine Schaumstoffraketen abfeuert. Daneben gibt es auch mehr oder weniger sinnvolle Hardware, wie USB-Lampen fr "Dreizack des Teufels" ? Notebooks, um die Tastatur zu beleuchten, USB-Tastatur-Staubsauger, USB-Ventilatoren oder beheizbare USB-Handschuhe bzw. -Pantoffeln. Des Weiteren ist ein Trend zu beobachten, USB als standardisierte Spanungsquelle einzusetzen. Namhafte Mobiltelefonhersteller haben sich darauf geeinigt, Micro-USB als Standard-Gertebuchse fr den Ladekontakt einzusetzen.[29] Der USB-Standard sieht vor, dass sich Gerte zunchst im Low-Power (100mA) Mode am Bus anmelden und erst mit Erlaubnis des Host in den High-Power Mode (500mA) umschalten. Die meisten der vorgenannten Spielzeuge verwenden den USB-Anschluss jedoch nur als Spanungsquelle und verstoen gegen den USB-Standard, indem sie ohne Erlaubnis des Hosts mehr als 100mA Strom beziehen. Das knnte im Extremfall den USB-Anschluss des Hosts beschdigen oder das Energiemanagement des Rechners durcheinanderbringen, was zu instabilem Verhalten fhren kann. Ajay Bhatt wurde aus der Gruppe der Entwickler des USB-Standards besonders hervorgehoben, als er in dem Werbespot Ajay Bhatt - The Real USB Rock Star! [30] des Unternehmens Intel als Rockstar portrtiert wurde.[31]
Einzelnachweise
[1] DVI-Ausgang per USB nachrsten. (http:/ / www. heise. de/ newsticker/ meldung/ DVI-Ausgang-per-USB-nachruesten-135535. html) Im: heise online. 5. Juni 2007. [2] Sven Hesse: USB 3.0 kommt 2009 mit 4,8 Gbit/s angerast. (http:/ / www. allround-pc. com/ news/ hardware/ 2008/ november/ usb-30-kommt-2009-mit-48-gbits-angerast) In: Allround-PC.com. 21. November 2008. [3] Industrie stellt einheitliches Handyladegert vor http:/ / derstandard. at/ 1296696631540/ Universell-Industrie-stellt-einheitliches-Handyladegeraet-vor derstandard.at Abgerufen am 08. Februar 2011 [4] Stecker rein! Ein Ladegert fr alle. (http:/ / www. onechargerforall. eu/ de/ ) [5] Approved Class Specification Documents Battery Charging http:/ / www. usb. org/ developers/ devclass_docs Engl. [6] USB-Spezifikation 2.0 Seite 153 [7] USB Class Codes (http:/ / www. usb. org/ developers/ defined_class). usb.org. 17. November 2009 (englisch). [8] Samsung Galaxy S II bei samsungmobile.com (http:/ / galaxys2. samsungmobile. com/ html/ specification. html) [9] Bundesnetzagentur (Hrsg.): Allgemeinzuteilung von Frequenzen fr die Nutzung durch Anwendungen geringer Leistung der Ultra-Wideband (UWB) Technologie. (http:/ / www. bundesnetzagentur. de/ cae/ servlet/ contentblob/ 38210/ publicationFile/ 6675/ UltraWidebandVfg1AendrgVfg17_2008pdf. pdf) 2010. [10] Matthias Kremp: Kappt die Kabel lieber noch nicht. (http:/ / www. spiegel. de/ netzwelt/ tech/ 0,1518,529416,00. html) In: Spiegel Online. 18. Januar 2008. [11] USB-Spezifikation 2.0 Seite 46 [12] USB Spezifikation 2.0 Seite 55 [13] Von USB 1.0 bis USB 3.0: Der Siegeszug des Universal Serial Bus. (http:/ / www. player. de/ 2009/ 09/ 25/ von-usb-1-0-bis-usb-3-0-der-siegeszug-des-universal-serial-bus/ ) In: player.de. 25. September 2009. [14] USB 3.0 ist fertig. (http:/ / www. itespresso. de/ 2008/ 11/ 18/ usb-30-ist-fertig-pcpro/ ) In: PC Professionell. 18. November 2008. [15] Anika Kehrer: Linux untersttzt USB 3.0. (http:/ / www. linux-community. de/ Internal/ Nachrichten/ Kernel-2. 6. 31-wird-Support-fuer-USB-3. 0-bringen) In: Linux Community. 8. Juni 2009. [16] Benjamin Benz: Pfeilschnell Die dritte USB-Generation liefert Transferraten von 300 MByte/s. In: ct. Nr.22, 2008, S.212. [17] PowerdUSB.org (http:/ / www. usbpluspower. org) (englisch [18] Mobile phones to adopt new, smaller USB connector. (http:/ / www. usb. org/ press/ pressroom/ 2007_01_04_usbif. pdf) In: USB Implementers Forum. 4. Januar 2007 (englisch, PDF). [19] Mini-A und Mini-AB-Verbinder zurckgezogen. (http:/ / www. usb. org/ developers/ Deprecation_Announcement_052507. pdf) Mai 2007 (Presseerklrung des USB-IF), PDF.
27
Literatur
Hans-Joachim Kelm: USB 2.0. Franzis, Poing 2006, ISBN 3-7723-7965-6. Jan Axelson: USB Complete. Everything You Need to Develop Custom USB Peripherals. Lakeview Research, Madison 2009, ISBN 978-1931448086. Bernhard Redemann: Steuern und Messen mit USB, Hard- und Softwareentwicklung mit dem FT232, 245 und 2232. Eigenverlag, Berlin 2006, ISBN 3-00-017884-8.
Weblinks
Der Universal Serial Bus im Detail(Spezifikationen, Technik (http://chaosradio.ccc.de/cre086.html) USB verstndlich erklrt (http://www.sprut.de/electronic/interfaces/usb/usb.htm) Tipps zur Nutzung von USB (http://www.usb-infos.de) USB und seine Kabel (http://www.hardware-bastelkiste.de/usb.html) Linux USB (http://www.linux-usb.org) Technische Dokumentation, USB-ID-Listen, Kompatibilittsfragen zu USB1.x und 2.0 (englisch) USB 3.0-Geschwindigkeit getestet (http://www.tweakpc.de/hardware/infos/sonst/usb_30/s01.php)
Serial ATA
28
Serial ATA
Serial ATA (SATA, auch S-ATA/Serial Advanced Technology Attachment) ist eine hauptschlich fr den Datenaustausch zwischen Prozessor und Festplatte entwickelte Verbindungsmglichkeit.
Geschichte
Serial ATA wurde im Jahr 2000 von Intel aus dem lteren ATA-Standard entwickelt. Dabei wurde entschieden, von einem parallelen Busdesign zu einer bit-seriellen Punkt-zu-Punkt-Verbindung berzugehen, das heit, die Daten werden seriell bertragen (Bit fr Bit) und nicht, wie bei den alten ATA-Standards, in 16-Bit-Wrtern. Gegenber seinem Vorgnger besitzt SATA drei weitere Hauptvorteile: hhere Datentransferrate, vereinfachte Kabelfhrung und die Fhigkeit zum Austausch von Datentrgern im laufenden Betrieb (Hot-Plug). Seit der Einfhrung von Serial ATA wird der ltere ATA-Standard umgangssprachlich hufig als Parallel ATA (PATA) bezeichnet, um Verwechslungen zu vermeiden. Auf neueren Hauptplatinen findet man zu den blichen (P)ATA-Steckpltzen zustzlich zwei bis zehn SATA-Anschlsse. SATA nutzt auf der Link-Layer-Schicht (Kabel) eine Punkt-zu-Punkt Verbindung. Jedes Gert hat also seinen eigenen Anschluss. Serial ATA ist nicht auf Festplatten beschrnkt, mittlerweile gibt es zum Beispiel auch SATA-Bandlaufwerke, DVD-Laufwerke und -Brenner, Speicherkartenlesegerte sowie eine externe Schnittstelle (siehe Abschnitt eSATA), womit SATA einen konkurrierenden Standard zu USB und Firewire darstellt.
Serial-ATA-Logo
Datenbertragungsraten
Bei parallelen Bussen wird es bei hheren bertragungsraten immer schwieriger, den Datenfluss auf allen Leitungen synchron zu halten bzw. das bersprechen zwischen den einzelnen Leitungen in den Griff SATA-Anschluss auf einem Mainboard zu bekommen. Der beim ATA-Bus (IDE-Bus) nicht spezifizierte Busabschluss und die massebezogenen Signale schrnken zudem die verwendbare Kabellnge stark ein. Serial ATA nutzt das LVDS (Low voltage differential signaling) fr die Signalgebung, hnlich der seit langem bei SCSI bewhrten LVD-Technik. Die erste Serial-ATA-Generation ist mit einer bertragungsrate von 150 Megabytes pro Sekunde spezifiziert und damit nur unwesentlich schneller als die aktuell schnellste parallele ATA-Schnittstelle (ATA/133). Die aktuelle Version Serial ATA Revision 2 verdoppelt den Durchsatz auf 300MB/s. Im Jahr 2007 ist eine Serial-ATA-Version mit 600MB/s verffentlicht worden.
Serial ATA
29
Die nutzbare Transferrate liegt wegen der 8B/10B-Kodierung bei nur 80 % der realen Bitrate auf dem Kabel. Ein Daten-Byte entspricht also 10 Transfer-Bits, die Datenrate in Byte betrgt somit genau 1/10 der Transferrate in Bit. Eine Transferrate von 1,5 Gbit/s ergibt also eine Brutto-Datenrate von 187 MByte/s (1 Byte = 8 Bit) und eine nutzbare Netto-Datenrate von 150MByte/s.
Bei den meisten Einzelplatz-PCs ist es in der Praxis fr die Geschwindigkeit derzeit irrelevant, ob die interne Festplatte mit (P)ATA- oder SATA-Schnittstelle ausgerstet sind, da die Geschwindigkeit von der Mechanik der Festplatten begrenzt wird und nicht von der Datenrate der Schnittstelle das gilt allerdings nicht fr SSD-Festplatten. Ebenso gilt das fr den Vergleich zwischen Festplatten mit SATA-150- und SATA-300-Anschluss. Bei zwei schnellen Festplatten 100 MB/s beim sequentiellen Lesen und Schreiben sind keine Seltenheit mehr kann es aber bereits zu Engpssen kommen, bei (P)ATA unvermeidlich, wenn diese am selben Kabel hngen, aber auch bei SATA-150, wenn der Controller nicht Transfers ber beide Ports gleichzeitig abwickeln kann. Wichtiger als die Busgeschwindigkeit ist in den meisten Fllen dennoch die Leistungsfhigkeit der Festplatte, die anhand von Zugriffszeit, Latenz (Drehwartezeit) und Datenrate beim sequenziellen Lesen und Schreiben festgestellt werden kann. Es gibt auch so genannte Hybridfestplatten. Diese haben, zustzlich zu den Magnetscheiben einen Flashspeicher. Dieser ist beim wahlfreien Lesen im Verhltnis zu herkmmlichen Festplatten erheblich schneller. Dafr sind Schreibvorgnge auf Flash-Speicher meist erheblich langsamer als bei normalen Festplatten und fhren zudem zur Abnutzung der Flash-Zellen. Bei SSD-Festplatten ist eine SATA-Schnittstelle (vorteilhafterweise SATA-600) notwendig, um die Leistung der Festplatte voll ausnutzen zu knnen, da hier heute schon Datenraten bis zu 500 MB/s mglich sind.
Technik
Datenbus
Whrend beim ATA-Standard 16 parallele Datenleitungen zum Einsatz kamen, wird bei SATA nur eine einzelne Datenleitung (fr jede Richtung) verwendet. Um bei ATA eine bertragungsrate von 100MB/s zu erreichen, war aufgrund der 16 Signalleitungen, der 16-Bit-Rahmen und der Double Data Rate nur ein Takt von 25MHz ntig das vereinfachte den Entwurf der elektronischen Bauteile, da die maximale Schaltzeit bei 20ns (50MHz) lag. Die synchrone Abtastung der 16 parallelen Bits stellte jedoch zunehmend eine Herausforderung dar: Je hher die Taktrate, desto schwieriger ist der Zeitpunkt auszumachen, an dem alle Bits zugleich stabil anliegen. Ungenauigkeiten beim Crimpen der parallelen Stecker verstrken diesen Effekt.
Serial ATA Bei SATA wird dagegen pro Richtung nur ein Leitungspaar fr den Datentransport und eines fr Besttigungspakete vom Empfnger verwendet. Dabei kommt eine 8b/10b-Kodierung zum Einsatz und es wird pro Takt jeweils nur 1 Bit bertragen. Dadurch wird bei einer Datenrate von 150MB/s ein Takt von 1500MHz bentigt die Zeit fr den Datenempfang und die Quittierung betrgt damit gerade einmal 0,667ns. Die Schaltzeit liegt damit im Bereich von 0,273ns also wesentlich niedriger als die 10ns bei ATA.[1]
30
Datenkabel
Pin 1 2 3 4 5 6 7 Masse A+ (Senderichtung) A (Senderichtung) Masse B (Empfangsrichtung) B+ (Empfangsrichtung) Masse Verdrehsicherung Funktion
Aus physikalischer Sicht sind die verwendeten Kabel die grte nderung zu (P)ATA. Die Daten werden mittels eines leichten, flexiblen Kabels durch sieben Leiter mit flachen, acht Millimeter breiten Steckern auf jeder Seite bertragen. Das Kabel kann bis zu einem Meter lang sein, eSATA-Kabel bis zu zwei Meter und xSATA bis zu 8 Meter. Im Vergleich zu dem kurzen (45cm) 40- oder 80-adrigen bertragungskabel des parallelen ATA wird dadurch die Konstruktion von Komplettsystemen vereinfacht, da die Luftzirkulation innerhalb des Gehuses nicht durch breite Kabel behindert wird. Das Konzept von Master/Slave-Beziehungen zwischen den Gerten wie beim P-ATA-Standard wurde abgeschafft. Serial ATA hat nur ein Gert pro Kabel, daher sind auch keine Jumper-Einstellungen an den Gerten ntig. Die Stecker sind kodiert, dadurch knnen die Kabel nicht verkehrt aufgesteckt werden. Ein Kritikpunkt am SATA-Stecker war die fehlende Verriegelung; das wurde mit Erscheinen der zweiten Revision korrigiert. Unabhngig von der Revision knnen jedoch die gleichen Kabel verwendet werden.
Serial ATA
31
Stromkabel
Pin 1 2 3 4 5 6 7 8 9 Bezeichnung V33 V33 V33pc GND GND GND V5pc V5 V5 3,3 V 3,3 V 3,3 V pre-charge Masse Masse Masse 5 V pre-charge 5V 5V Masse Staggered Spin-up / Activity LED Masse 12 V pre-charge 12 V 12 V Funktion
15-poliger SATA-Stromstecker.
Der Standard sieht fr SATA-Festplatten auch fr die Spannungsversorgung spezielle Stecker vor. Sie sind ebenfalls flach, aber breiter als das SATA-Datenkabel. Anders als bei IDE-Festplatten werden fr 2,5-Notebook- und 3,5-Festplatten die gleichen Stecker verwendet. Auf 15 Pins verteilt werden 3,3V, 5V und 12V auf je drei nebeneinander liegenden Pins angelegt und ber fnf Masse-Pins zurckgefhrt. Zugunsten der Kompatibilitt mit lteren Netzteilen, die keine 3,3 V-Strnge fr den Anschluss von Festplatten bereitstellen, nutzen 3,5-SATA-Festplatten zunchst nur 5 V und 12 V. 2,5-Platten verzichten blicherweise auf die Nutzung von 12 V, oft auch auf 3,3 V. Beim Hotplugging ist es erforderlich, Spannungseinbrche des Netzteils durch eine pltzliche hohe Stromaufnahme des neu angeschlossenen Gertes zu verhindern. Die Buchse ist so konstruiert, dass zuerst Pin 4 und 12 den Massekontakt herstellen. Anschlieend findet zum strombegrenzten Pre-Charge der Elektronik zusammen mit den restlichen Masseleitungen je ein Pin pro Versorgungsspannung (3, 7, 13) Kontakt. Erst dann schlieen die restlichen Pins, und die Platte geht in Betrieb. Pin 11 des SATA-Stromsteckers kommt eine Doppelrolle zu. ber ihn kann von der Platte ein Staggered Spin-up gefordert werden (Eingang) und die Platte kann ber ihn eine LED zur Anzeige von Plattenaktivitt ansteuern (Ausgang). Er ist nicht dafr ausgelegt, eine LED direkt zu betreiben. Beim Anschluss an gewhnliche Netzteile liegt Pin 11 im Stecker an Masse. Dann luft die angeschlossene Platte beim Einschalten des Netzteils an. Eine LED kann dann nicht angesteuert werden. In SATA-Backplanes wird Pin 11 nicht oder nur hochohmig beschaltet. Dann
Serial ATA luft eine Platte mit Staggered-Spin-up-Feature erst dann an, wenn der Host-Controller es anfordert. Anschlieend kann die Platte ber denselben Pin und einen Verstrker in der Backplane eine LED ansteuern. Der Anlaufstrom von Festplatten ist erheblich hher als der Betriebsstrom. Indem der Controller die einzelnen Platten nacheinander anlaufen lsst, kann der Einschaltstrom von greren Plattenarrays begrenzt werden. Das erlaubt eine effizientere Dimensionierung des Netzteils.
32
Serial-ATA-Kabel
Serial ATA einer). Diese Auswahl bzw. Umschaltung kann durch nicht-spezifizierte Mechanismen erfolgen. xSATA: Mit xSATA knnen die Laufwerke weiter entfernt (maximal acht Meter, wie bei Serial Attached SCSI) vom Rechner platziert sein als mit eSATA. Dazu bentigt man allerdings andere Kabel und Steckverbinder. Diese Fhigkeiten sind nicht auf SATA 3.0Gbit/s-Festplatten beschrnkt, sie knnen auch von SATA-Festplatten der ersten Generation angeboten werden.[3] External Serial ATA (eSATA) SATA wurde fr den Anschluss von Gerten innerhalb eines Rechners geschaffen. Deswegen verfgen die Kabel und Stecker nicht ber die ntige Abschirmung gegen elektromagnetische Strungen und die Stecker nicht ber eine ausreichende mechanische Belastbarkeit fr den Betrieb auerhalb eines (abgeschirmten) Gehuses. Sehr bald kam der Wunsch auf, zum Beispiel auch externe Festplatten mittels des schnellen SATA anschlieen zu knnen und so wurden mit SATA Revision 2 auch Kabel und Stecker fr den externen Betrieb standardisiert: External Serial ATA, kurz eSATA.
SATA- und eSATA-Stecker im Vergleich
33
eSATA definiert abgeschirmte Kabel mit bis zu zwei Metern Lnge und neue Stecker/Buchsen mit folgenden Eigenschaften: Neue, inkompatible, Stecker/Buchsengeometrie ohne die L-Form der SATA-Stecker/Buchsen, was verhindern soll, dass versehentlich Kabel fr den internen Betrieb extern verwendet werden. Stecker und Buchse sind wie die Kabel geschirmt, um elektromagnetische Strungen zu verhindern. Die Kontakte liegen tiefer in den Stecker/Buchsen, damit die Abschirmung sicher Kontakt hat und statische Aufladung abflieen kann, bevor sich die Signalkontakte berhren. Die Buchsen haben kleine Federn, um die mechanische Stabilitt zu verbessern und versehentliches Herausziehen zu verhindern. Stecker und Buchsen sollen mindestens 5000 Steckzyklen berstehen (SATA: min. 50).
Durch Verschrfung der elektrischen Anforderungen (leichte Erhhung des Spannungslevels beim Sender, erhhte Empfindlichkeit des Empfngerbausteins) soll die sichere bertragung ber zwei Meter erreicht werden. Eine Stromversorgung des externen Gertes ber das eSATA-Kabel ist nicht mglich. Inzwischen sind eSATA-Slotbleche erhltlich, deren Kabel auf die SATA-Buchsen der Hauptplatinen passen, die Abschirmung ist ber das PC-Gehuse gegeben. Damit kann jede Hauptplatine auf eSATA nachgerstet werden. Jedoch bleibt die maximal erlaubte Kabellnge bei solchen Adaptern auf einen Meter (inklusive der Kabel vom Mainboard zum Slotblech) beschrnkt, da die internen Anschlsse nicht die elektrischen Anforderungen fr eSATA erfllen. Es sind bereits eSATA-Sticks am Markt, welche die hohen Datenraten von eSATA im Vergleich zu USB-Massenspeichern auch mobil zu nutze machen. Zurzeit wird an einer Standardisierung von Power-over-eSATA[4] oder auch kurz eSATAp gearbeitet. Diese soll das Manko der fehlenden Stromversorgung fr Kleinverbraucher (z.B. Speichersticks) gegenber USB beheben. Die Steckverbindungen sollen mit denen von eSATA kompatibel sein und auch Datenraten bis 3 Gbit/s erlauben.
Serial ATA External Power over Serial ATA (eSATAp) Der eSATAp-Standard sollte bis Mitte 2008 standardisiert worden sein, was aber bis heute (Stand Ende Oktober 2010) noch nicht geschehen ist.[5] Mittlerweile sind eSATAp-Gerte (Memory Sticks) auf dem Markt, deren Stecker USB-kompatibel und gleichzeitig eSATA-kompatibel sind. Die eSATA-Nutzung bentigt aber zustzlich eine Stromversorgung (z.B. Power over USB). Auch entsprechende Karten mit eSATAp-Steckpltzen werden angeboten. Mit Power eSATA versucht der Hardwarehersteller MSI das Problem der fehlenden Stromversorgung zu lsen. Bei diesem modifizierten eSATA-Anschluss wurde ein Teil der USB-Technik zur Stromversorgung in den eSATA-Anschluss verbaut[6] .
34
mini-SATA (mSATA)
mSATA wurde im September 2009 von Samsung und der JEDEC spezifiziert und verkleinert den Anschluss noch weiter. Physikalisch handelt es sich um einen Mini PCI Express Anschluss, allerdings werden die Leitungen elektrisch wie SATA-Kabel angesteuert. Dabei verwendet mSATA entweder die erste (1.5 Gbit/s) oder zweite (3.0 Gbit/s) Revision der SATA-Spezifikation zur bertragung der Signale.[9] Die SSD Form Factor Working Group (bemht sich um die Spezifikation von Hot-Plug-tauglichen Speichermedien) erwhnt den mSATA-Standard bisher zumindest nicht.[10] Zu den ersten Produkten mit mSATA-Speicher gehren einige Notebooks von Dell und Lenovo und das MacBook Air der Serie 2010 von Apple, wobei das MacBook Air ein vom Standard abweichendes Format der SSD verbaut hat. Bedingt durch die relativ spte Standardisierung sind auch viele Produkte auf dem Markt, die eigene zu mSATA-inkompatible Schnittstellen und Formfaktoren verwenden. Ein Beispiel fr eine Intel mSATA: Intel Solid-State Drive 310 Series
Serial ATA
35
Kompatibilitt
Grundstzlich ist es mglich, modernere SATA-Revision-2-Festplatten an vorhandene SATA-Schnittstellen anzuschlieen und umgekehrt. Sie laufen dann aber ohne die speziellen Fhigkeiten der SATA-Revision-2-Festplatten. Auch knnen SATA-I-Datenkabel ohne Schnappverschluss angesteckt werden. Bei einigen solcher Kombinationen, insbesondere beim Betrieb an RAID-Controllern, kann es zu Fehlern bei der Datenbertragung kommen. Viele aktuelle Festplattenmodelle lassen sich daher per Jumper oder Software[11] auf den langsameren bertragungsmodus umkonfigurieren. SATA-Gerte lassen sich ber ein SCSI/ATA Translation Layer (SATL) auch an Serial Attached SCSI (SAS) nutzen, jedoch nicht umgekehrt.
Adapter fr den Anschluss einer Festplatte mit paralleler Schnittstelle (IDE) an SATA-Ports
Es gibt Adapter zur Umwandlung der IDE-Signale in SATA und umgekehrt. Einigen Tests zufolge soll der Datendurchsatz um wenige Prozent sinken. Um manchen DOS-Programmen zum Beispiel Symantec Norton Ghost direkten Zugriff auf die Daten auf einer SATA-Festplatte zu erlauben, ist das Einstellen des Kompatibilittsmodus im BIOS-Setup erforderlich.
Einzelnachweise
[1] Serial ATA A Comparison with Ultra ATA Technology. (http:/ / www. sata-io. org/ documents/ serialata - a comparison with ultra ata technology. pdf) The Serial ATA International Organization (SATA-IO), 2002, S. 3, abgerufen am 12.Oktober 2010 (PDF, englisch). [2] SATA Naming Guidelines. (http:/ / www. sata-io. org/ developers/ naming_guidelines. asp) The Serial ATA International Organization (SATA-IO), abgerufen am 12.Oktober 2010 (englisch). [3] SATA 3Gb/s Feature of the Month. (http:/ / web. archive. org/ web/ 20080111123930/ http:/ / www. sata-io. org/ 3g. asp) The Serial ATA International Organization (SATA-IO), archiviert vom Original (http:/ / www. sata-io. org/ 3g. asp) am 11.Januar 2008, abgerufen am 12.Oktober 2010 (englisch). [4] Robert Tischer: Power-eSATA (eSATAp) an jedem USB/eSATA Anschluss. (http:/ / www. notebookjournal. de/ news/ power-esata--esatap--an-jedem-usb-esata-anschluss-1386) In: notebookjournal.de. 15.Mai 2009, abgerufen am 12.Oktober 2010. [5] In-process - Power Over eSATA. (http:/ / www. sata-io. org/ documents/ SATA_Brochure_English_09. 2008_final. pdf) The Serial ATA International Organization (SATA-IO), 2008, abgerufen am 12.Oktober 2010 (PDF, englisch, Info zu eSATAp). [6] Wolfgang Andermahr: MSI setzt eSATA-Anschluss unter Strom. (http:/ / www. computerbase. de/ news/ hardware/ mainboards/ 2009/ mai/ msi_esata-anschluss_strom/ ) In: ComputerBase. 14.Mai 2009, abgerufen am 12.Oktober 2010. [7] SATA-IO Releases SATA Revision 3.0 Specification. (http:/ / www. sata-io. org/ documents/ SATA-Revision-3. 0-Press-Release-FINAL-052609. pdf) The Serial ATA International Organization (SATA-IO), 27.Mai 2009, abgerufen am 12.Oktober 2010 (englisch, Pressemitteilungen zur Finalen Spezifikation der Serial ATA Revision 3.0). [8] Seagate Ships World's Fastest Desktop Hard Drive. First Drive to Feature Serial ATA 6Gbit/Second Technology. (http:/ / www. seagate. com/ ww/ v/ index. jsp?locale=en-US& name=null& vgnextoid=d190ff72f68c3210VgnVCM1000001a48090aRCRD) Seagate, 21.September 2009, abgerufen am 12.Oktober 2010 (englisch, Pressemitteilung zur weltweit ersten SATA 6Gb/s-Festplatte). [9] [IDF] mSATA fr kleine Festplatten. (http:/ / www. tomshardware. de/ mSATA-mini-SATA-SATA-IO-Toshiba-IDF,news-243483. html) 22.September 2009, abgerufen am 8.Januar 2011. [10] Solid_State_Drive mit PCI-Express-3.0-Schnittstelle. (http:/ / www. heise. de/ ct/ meldung/ Solid-State-Disks-mit-PCI-Express-3-0-Schnittstelle-1126837. html) 28.Oktober 2010, abgerufen am 23.Januar 2011. [11] Install Guide. (http:/ / downloadcenter. samsung. com/ content/ UM/ 200704/ 20070419200104171_3. 5_Install_Gudie_Eng_200704. pdf) In: samsung.com.
36
Sicherheit
Integritt (Informationssicherheit)
Integritt ist auf dem Gebiet der Informationssicherheit ein Schutzziel, das besagt, dass Daten ber einen bestimmten Zeitraum vollstndig und unverndert sein sollen. Eine Vernderung knnte absichtlich, unabsichtlich oder durch einen technischen Fehler auftreten. Integritt umfasst also Betriebssicherheit (Schutz vor bertragungsfehlern) und Angriffssicherheit (Schutz vor vorstzlicher Vernderung). Die Integritt von Daten ist gewhrleistet, wenn die Daten wie vom Absender beabsichtigt, das heit vollstndig und unverndert, an den Empfnger bertragen worden sind. Beispielsweise ist bei Daten in einer Datenbank (Empfnger) die Integritt gewahrt, wenn die Daten denen entsprechen, die ursprnglich in einer Eingabe (Absender) eingegeben wurden.
Umsetzung
Die Vernderung von Daten kann bei einer typischen elektronischen Datenbertragung prinzipbedingt nicht verhindert werden. Technische Manahmen zur Sicherstellung der Integritt zielen daher darauf ab, korrupte Daten als solche erkennen zu knnen und ggf. eine erneute Datenbertragung durchzufhren. Eine Mglichkeit der technischen Umsetzung zum Schutz vor bertragungsfehlern ist eine Prfsumme, die mitbertragen wird und erkennen lsst, ob die Daten verndert wurden. Diese schtzt allerdings nicht vor absichtlicher Vernderung. Mit einem Message Authentication Code knnen sowohl bertragungsfehler als auch Manipulationen erkannt werden. Die genannten Verfahren schtzen wiederum nicht vor Totalverlust einer Nachricht, ungewollter Duplikation oder einer vernderten Reihenfolge mehrerer Nachrichten. Diese knnen durch Manahmen wie Quittierungsmeldungen oder Sequenznummern sichergestellt werden.
Weblinks
IT-Grundschutz-Kataloge: Glossar [1] (Bundesamt fr Sicherheit in der Informationstechnik)
Referenzen
[1] https:/ / www. bsi. bund. de/ cln_174/ DE/ Themen/ weitereThemen/ ITGrundschutzKataloge/ Inhalt/ Glossar/ glossar_node. html
Datensicherung
37
Datensicherung
Datensicherung (engl.: Backup [bkp]) bezeichnet das Kopieren von Daten in der Absicht, diese im Fall eines Datenverlustes zurckkopieren zu knnen. Die auf dem Speichermedium gesicherten Daten werden als Sicherungskopie, engl. Backup, bezeichnet. Die Wiederherstellung der Originaldaten aus einer Sicherungskopie bezeichnet man als Datenwiederherstellung, Datenrcksicherung oder Restore.
verbrannter Laptop
Umsetzung
Die Aufbewahrung von Datensicherungen sollte rtlich entfernt von der EDV-Anlage und in einer sicheren Umgebung erfolgen. Fr Privatpersonen bieten sich externe Festplatten mit Firewire, eSATA oder USB-Anschluss an. Diese lassen sich unkompliziert an das zu sichernde System anschlieen und wieder von diesem trennen und ermglichen so zumindest eine entfernte Aufbewahrung. Auch netzwerkbasierende Festplatten sind einfach anzuschlieen und zu entfernen und damit sinnvolle Sicherungen mglich. Fr kleinere Unternehmen eignen sich z.B. Bankschliefcher zur Datentrgeraufbewahrung. Allerdings kann in der Regel nicht zu jeder Zeit darauf zugegriffen werden, da der Zugang zu den Datentrgern nur whrend der ffnungszeiten der Bank mglich ist. Eine Alternative dazu stellt Online Backup dar: die Datensicherung erfolgt auer Haus, meist in einem Rechenzentrum, und es kann jederzeit darauf zugegriffen werden. In diesem Fall ist aber darauf zu achten, dass der Datentransfer in gesicherter Art und Weise erfolgt. Fr grere Unternehmen knnen sich speziell gesicherte Safes oder Rumlichkeiten (sog. Zellen) zur feuersicheren Unterbringung der Bandbibliothek lohnen. Auch knnen die gesicherten Daten auf mehrere Standorte oder Rechenzentren verteilt werden.
kompakte Netzwerk-Festplatte
Datensicherung
38
Gesetzeslage
Die Pflicht zur Datensicherung in Betrieben ergibt sich unter anderem aus den gesetzlichen Vorschriften ber eine ordnungsgeme, nachvollziehbare, revisionssichere Buchfhrung (HGB). Von der kurzzeitigen Aufbewahrung (begrenzt auf einen Tag bis drei oder auch sechs Monate) unterscheidet sich die lngerfristige Datenarchivierung, die anderen Gesetzmigkeiten unterliegt. Die Grundstze zur Archivierung und Nachprfbarkeit digitaler Datenbestnde ist in Deutschland seit Januar 2002 fr Unternehmen verbindlich in den Grundstzen zum Datenzugriff und zur Prfbarkeit digitaler Unterlagen (GDPdU), herausgegeben vom Bundesfinanzministerium, zusammengefasst.
Dokumentation
Bei der Datensicherung ist es sehr wichtig, eine gute Dokumentation zu fhren, da von ihr der Erfolg und die Geschwindigkeit des Backups sowie der Wiederherstellung abhngen knnen. Die Dokumentation sollte umfassen: Ablauf der Datensicherung Aufbau der Archivierung zu treffende (Sofort-)Manahmen Kompetenzen (der Mitarbeiter und Dienstleister) Prioritten fr besonders zeitkritische Daten und Systeme Fr eine bessere bersichtlichkeit ist die Dokumentation fr Sicherung und Wiederherstellung jeweils getrennt in einem Sicherungs- bzw. Wiederherstellungsplan festzulegen.
Sicherungsarten
Je nach Vernderungsintensitt der zu sichernden Daten knnen beim konkreten Sicherungsvorgang bestimmte Sicherungsarten eingesetzt werden. Einzelne Sicherungsvorgnge knnen in Volldatensicherung, differenzieller und inkrementeller Sicherung unterschieden werden. Differenzielle und inkrementelle Sicherung setzen mindestens eine erfolgte Volldatensicherung voraus. Beim normalen Backup werden bestimmte Dateien und/oder Verzeichnisse (Ordner) ausgewhlt, deren Inhalt gesichert werden soll. Es besteht auch die Mglichkeit, nur bestimmte Dateiformate zu sichern. Daneben lassen sich auch ganze Datentrger oder Partitionen daraus als Abbild sichern. In allen Fllen ist es mglich, auch lediglich nur Teile aus einem vollstndigen Sicherungssatz wiederherzustellen. Man unterscheidet: Komplett- oder Vollsicherung, in den Programmen auch als Normale Sicherung bezeichnet: Hierbei werden die jeweils zu sichernden Daten (ein komplettes Laufwerk, eine Partition, bestimmte Verzeichnisse und/oder bestimmte Dateien, bestimmte Dateiformate) komplett auf das Sicherungsmedium bertragen und als gesichert markiert. Bei der Abbildsicherung (Image-Sicherung) wird der komplette Datentrger (meist die Festplatte, aber auch USB-Massenspeicher, optische Medien oder bei einigen Programmen auch Datentrger im Netzwerk) oder eine Partition durch ein 1:1 Abbild gesichert. So werden beispielsweise nicht nur die Nutzdaten, sondern das ganze Dateisystem, inklusive Betriebssystem und Benutzereinstellungen, gespeichert. Der Vorteil dieser Sicherung besteht darin, dass bei einem Totalausfall des Computers das Image auf den Datentrger zurckgesichert wird und dadurch der vorherige Zustand voll wieder hergestellt ist. Bei der Wiederherstellung wird entweder das ganze Dateisystem in seiner Originalstruktur wiederhergestellt (in diesem Fall ist kein Dateisystemtreiber erforderlich, sondern lediglich ein Gertetreiber fr den Datentrgerzugriff), oder ein besonderer Treiber liest regulr das Dateisystem und extrahiert nur die gewnschten Verzeichnisse und Dateien aus der Sicherung, um diese als normale Verzeichnisse und Dateien in das aktuelle Dateisystem zu integrieren bzw. die aktuellen mit den lteren gesicherten zu berschreiben. Seit einigen Jahren sind auch
Datensicherung Programme auf dem Markt, die solche Sicherungen ebenfalls inkrementell anlegen knnen. Differenzielle Sicherung: Bei diesem Verfahren werden alle Daten, die seit der letzten Komplettsicherung gendert wurden oder neu hinzugekommen sind, gespeichert. Es wird also immer wieder auf der letzten Komplettsicherung aufgesetzt. Man spart gegenber einer neuen Vollsicherung Speicherplatz und Zeit. Inkrementelle Sicherung: Bei dieser Sicherung werden immer nur die Dateien gespeichert, die seit der letzten inkrementellen Sicherung, oder beim ersten Mal seit der letzten Komplettsicherung, gendert wurden oder neu hinzugekommen sind. Es wird also immer auf der letzten inkrementellen Sicherung aufgesetzt. Dieses Verfahren hat den Nachteil, dass bei einer Wiederherstellung die Daten in der Regel aus mehreren Teilen wieder zusammengesucht werden mssen.
39
Sonderfall Privatnutzer
Fr Privatanwender hngt die Art der sinnvollsten Datensicherung stark von der zu Verfgung stehenden Hardware, dem vorhandenen Fachwissen und nicht zuletzt von der persnlichen Einstellung zu den zu sichernden Daten und deren Sicherung ab. Mit ausreichendem Engagement lassen sich schon mit einfachen Mitteln Backups erstellen und die Sicherheit auf industrielles Niveau ausbauen. Auf dem Softwaremarkt stehen sowohl kommerzielle als auch Freeware-Programme zur Verfgung. Zu den bekanntesten kommerziellen Angeboten gehren die Programme True Image der Firma Acronis, DriveImage XML von Runtime Software, Carbon Copy Cloner fr Mac OS X der Firma Bombich Software und im Freeware-Bereich knnen TrayBackup, Cobian oder Areca als Beispiele genannt werden aber auch simple Tools wie robocopy von Microsoft oder rsync und die darauf basierende Backup-Lsung rsnapshot unter UNIX. Ab Mac OS X 10.5 (Leopard) ist mit Time Machine eine automatisierte Backup-Lsung fr Backups auf externe Festplatten (USB/FireWire oder Netzwerklaufwerke) in das Betriebssystem integriert.
Beispiel
Sinnvoll ist eine Sicherung auf einer separaten Festplatte. Eine externe Festplatte kann nach der Datensicherung getrennt vom Computer an einem sicheren Ort aufbewahrt werden. Bei einer internen Festplatte ist wenigstens darauf zu achten, dass eventuelle Viren und Schadprogramme whrend des regulren Betriebs keinen Schreibzugriff auf das Sicherungsmedium haben. Festplatten mit sehr groem Speichervermgen werden immer preiswerter. Auch auf einem USB-Speicher-Stick oder auf DVD/DVD-RW sind Sicherungen praktikabel. Brenner in Notebooks und Desktop-PCs gehren seit langem zur blichen Grundausstattung und die Leermedien sind gnstig. Die einfachste Mglichkeit, ohne Software und mit nur wenig Hintergrundwissen ein recht gutes Backup zu erstellen, ist die Anlage von mindestens zwei Sicherungen im regelmigen Abstand auf physikalisch unabhngigen Datentrgern. So kann das Grovater-Vater-Sohn-Prinzip nachgebildet werden. Mit drei oder mehr Medien lsst sich dieses Prinzip dahingehend ausbauen, kleinschrittige nderungen rckgngig machen zu knnen oder weiter zurckliegende Versionen vorzuhalten. Mit anderen Medien lsst sich die Geschwindigkeit und Kapazitt steigern. Sind die Daten auf der ursprnglichen Festplatte entsprechend sortiert, kann die Sicherung aktueller oder besonders wichtiger Daten in krzeren Zeitabstnden erfolgen (z. B. tglich) als die der brigen Bestnde.
Geschichte
In den 1990er Jahren versuchte Iomega, die Zip-Disketten mit fr damalige Verhltnisse vergleichsweise hohen Kapazitten von 100, spter 250 Megabyte im Bereich Backup-Lsungen zu positionieren. Magnetbnder haben im privaten Bereich beraus niedrige Verbreitung und sind den Festplatten an Geschwindigkeit und vor allem bei den Kosten pro Speicherplatz mittlerweile unterlegen. Im Energieverbrauch sowie in der Haltbarkeit sind sie jedoch berlegen, was sie im Firmeneinsatz noch bestehen lsst. Festplatten bieten mittlerweile mit groen Kapazitten und relativ stabilen Gertepreisen eine attraktive Alternative zu Wechselmedien. Auch Flash-Speicher haben praktikable Kapazitten erreicht und eignen sich daher als Sicherungsmedien.
Datensicherung
40
Echtzeitanwendungen
Datenbanken mssen in einem konsistenten Zustand gesichert werden (Datenkonsistenz, siehe auch Datenbankarchivierung). Dies erreicht man durch Herunterfahren der Datenbank (Cold Backup) (hierbei ist die Datenbank off-line und der Produktivbetrieb unterbrochen), Datenexport aus der Datenbank oder Hot Backup.
Hot Backup
Ein Hot Backup ist eine Sicherung eines Systems (beispielsweise einer Datenbank), die mglichst aktuell gehalten wird im Idealfall ist sie auf dem gleichen Stand wie das Live-System. Vorteil dieser Methode ist das Vorhalten eines aktuellen Ersatz-Datenbestandes, der im Fall eines Systemabsturzes sofort einsatzbereit ist. Dies wird auch Online Backup genannt.
Cold Backup
Ein Cold Backup ist eine Sicherung eines Echtzeit-Systems, die erstellt wird, whrend das System nicht aktiv ist. Dadurch wird erreicht, dass die Daten in einem konsistenten Zustand gesichert sind. Der Nachteil dieser Methode liegt darin, dass das System einen gewissen Zeitraum nicht verfgbar ist. Fr hochverfgbare Dienste ist sie also ungeeignet, um Backups von Umgebungen zu machen, die beispielsweise nur tagsber verfgbar sein mssen bietet es sich hingegen an. Dies wird auch Offline Backup genannt. Eine bei Oracle-Datenbanken verbreitete Methode ist, die Datenbank bei Beginn der Sicherung in den Backup-Modus zu versetzen und danach wieder in den Produktionsmodus. Verschiedene Hersteller von Datensicherungs-Programmen und andere Hersteller bieten Online-Integrationen (Integrations-Agent) und Zusatzprodukte wie den Open File Manager von St. Bernhard an.
RAID (Split-Mirroring)
Eine weitere Datensicherungsmglichkeit ist ein Festplattenverbund in Form eines Split-Mirror-RAIDs. Dies ist eine besondere Art des RAID 1, bei dem eine Festplatte aus einem Verbund gespiegelter Platten im laufenden Betrieb entfernt wird, um diese an einem gesonderten Ort zu lagern. Der Vorteil hierbei ist die sehr kurze Zeit die ein solches Backup bentigt. Von der Initialisierung des Sicherungszeitpunktes, bis zum Entfernen des Sicherungsmediums aus dem Verbund vergehen ca. 5 Sekunden. Diese Methode findet insbesondere bei der Sicherung grerer Datenbanken, bei laufendem Betrieb, seine Anwendung. In solchen Szenarien ist es sonst schwierig eine konsistente Kopie der Datenbank-Datei zu erhalten, bedingt durch die typischerweise hohe Anzahl der Datenbankzugriffe in
41
Datensicherungsstrategie
Eine Datensicherungsstrategie kann berall dort zum Einsatz kommen, wo es einzigartige Daten eines gewissen Wertes gibt, sei es im Privatanwenderbereich, in Projekten oder im Unternehmensbereich. Letzterenfalls kann diese als bindende Vorgabe in Form einer Richtlinie existieren. In Unternehmen wird die Datensicherung gem einer Datensicherungsstrategie durchgefhrt. In ihr ist festgelegt: Wie die Datensicherung zu erfolgen hat. Wer fr die Datensicherung verantwortlich ist. Wann Datensicherungen durchgefhrt werden. Welche Daten gesichert werden sollen. Welches Speichermedium zu verwenden ist. Wo die Datensicherung sicher aufbewahrt wird. Wie die Datensicherung vor Daten-Diebstahl zu sichern ist (zum Beispiel durch Verschlsselung). Wie lange Datensicherungen aufzubewahren sind. Wann und wie Datensicherungen auf ihre Wiederherstellbarkeit berprft werden.
Welche Sicherungs-Strategie (a) vollstndige Sicherung am Wochenende (b) inkrementelle oder differenzielle Sicherung werktags um Mitternacht verwendet wird.
Kriterien
Die optimale Datensicherungsstrategie ist von vielen Faktoren abhngig und daher in jedem Einzelfall neu zu ermitteln. Wichtige Faktoren, die bercksichtigt werden mssen, sind: Die Art der Daten Maschinell wiederherstellbare Daten: Dazu gehrt z. B. installierte Software, die nach eines Datenverlustes nur wieder eingespielt werden muss. Manuell wiederherstellbare Daten: Dazu gehren z. B. erstellte Texte oder Erfassungen von Sachbearbeitern. Zu beachten ist, dass auch die aufwendige Konfiguration und Administration von installierter Software in diese Rubrik fllt. Unersetzliche Daten: Dazu gehren z. B. digitale Fotos und Videos, aber auch eingescannte Belege, wenn die Originale nicht mehr vorhanden sind. Der Wert der Daten Hier sind zwei Aspekte zu unterscheiden: Erstens, welcher Verlust entsteht, wenn die Daten unwiederbringlich zerstrt werden? Wenn z. B. in einem Unternehmen Daten tagesaktuell in der Nacht gesichert werden, mssen bei einem Datenverlust kurz vor Feierabend alle Erfassungen wiederholt werden. Aus der Arbeitszeit der betroffenen Mitarbeiter ergibt sich ein Anhaltspunkt fr den Verlust. Vor allem bei den unersetzlichen Daten ist allerdings oft auch der ideelle Wert zu bercksichtigen. Zweitens, welcher Verlust entsteht durch die Zeit, die die vollstndige Wiederherstellung bentigt und in der ggf. nicht gearbeitet werden kann? Wenn z. B. die Installation eines PC einen Tag bentigt, kann der Schaden den Wert der installierten Software weit bersteigen. Hier wre also ein Sicherungsverfahren zu whlen, das es ermglicht, den installierten Stand sehr schnell wieder vollstndig zu rekonstruieren (Image Copy).
Datensicherung Die nderungshufigkeit der Daten Dieser Faktor hat entscheidenden Einfluss auf die Anwendung und Gestaltung des Generationenprinzips. Daten mit geringer nderungshufigkeit, wie z. B. Betriebssystem und installierte Software mssen nicht unbedingt regelmig gesichert werden. Es kann auch ausreichend sein, diese Bereiche nur vor oder nach Eingriffen zu sichern. Je schneller Daten verndert werden, desto geringer wird man die Zyklendauer der Sicherung entsprechend dem Generationenprinzip whlen. Zu beachten ist hier auch die Verfallsdauer. Whrend es fr viele Daten im Geschftsleben gesetzlich geregelte Aufbewahrungszeiten gibt (beispielsweise Rechnungsdaten), knnen z. B. aktuelle Inhalte von Webseiten u. U. schon nach kurzer Zeit verworfen werden, wenn sie nicht mehr bentigt werden. Gesetzliche Anforderungen Die Datensicherungsstrategie muss in der Lage sein, mgliche gesetzliche Auflagen zu garantieren (z. B. Revisionssicherheit). Zu beachten: GoBS (Grundstze ordnungsmiger Buchfhrungssysteme) speziell: Absatz 5.1 und 5.2 Speicherort Da es also sehr unterschiedliche Arten von Daten mit unterschiedlichen Anforderungen an die Sicherungsstrategie gibt, ist es zweckmig diese Daten schon im Vorfeld auf verschiedene Speicherorte (Festplatten, Partitionen) zu trennen. Fr jeden Speicherort kann dann die optimale Strategie gewhlt werden. Zustzlich existieren unfallgeschtzte Datenspeicher. Bei einem Online-Backup werden die Daten in den meisten Fllen in einem Rechenzentrum aufbewahrt. Zeitaufwand der Datensicherung Bei der Wahl eines geeigneten Konzepts spielt insbesondere aus unternehmerischer Sicht der fr die Datensicherung bentigte Zeitaufwand eine wichtige Rolle. Der Gesamtaufwand setzt sich aus dem wiederkehrenden Sicherungsaufwand und dem im Falle eines Datenverlusts anfallenden Wiederherstellungsaufwand zusammen. Die Relation, in der diese beiden Gren zu einander stehen, ist abhngig von der Auswahl eines konkreten Datensicherungsverfahrens. Ein geringer Sicherungsaufwand wird insbesondere dann angestrebt, wenn groe Datenmengen whrend des Sicherungsvorganges gesperrt werden mssen, was bei modernen Systemen aber oft vermieden werden kann. Zu diesem Zweck gibt es heutzutage Software, die Daten eines Systems im laufenden Betrieb sichern kann. Anforderungen Je nach Medium und Art der Datensicherung werden die Kriterien anders ausfallen. Meistens erwhnt werden jedoch folgende Punkte: Regelmigkeit Datensicherungen sollen in regelmigen, periodischen Abstnden erfolgen. Diese Abstnde variieren je nach Anwendung. Eine monatliche Sicherung der Daten auf einem privaten PC kann durchaus ausreichend sein, whrend in Produktionsumgebungen meistens tgliche Sicherungen der Produktivdaten erforderlich sind. Sie erhhen die Zuverlssigkeit der Datenwiederherstellung. Aktualitt Die Aktualitt der Datensicherung ist abhngig von der Anzahl der Datennderungen. Je fter wichtige Daten verndert werden, desto hufiger sollten diese gesichert werden.
42
Datensicherung
43
Verwahrung Datensicherungen von Unternehmen beinhalten unter anderem Firmengeheimnisse oder personenbezogene Daten und mssen vor unbefugtem Zugriff geschtzt werden. Anfertigung von zwei Datensicherungen Die Anfertigung von zwei rumlich getrennten Datensicherungen eines Datenbestandes erhht die Zuverlssigkeit der Datenwiederherstellung, um die Auswirkungen pltzlich auftretender Ereignisse wie Feuer oder physikalischer Zuflle zu minimieren. Datensicherungen sollten rumlich getrennt von der EDV-Anlage gelagert werden. Die Backup-Server mit Brandschaden Entfernung sollte so gro sein, dass eine Katastrophe (Brand, Erdbeben, Flut ), welche die EDV-Anlage heimsucht, den gesicherten Datenbestand nicht gefhrdet. Alternativ knnen unfallgeschtzte Datenspeicher eingesetzt werden. Stndige Prfung auf Vollstndigkeit und Integritt Datensicherungen und Datensicherungsstrategien mssen regelmig berprft und angepasst werden. Wurden die Daten wirklich vollstndig gesichert? Ist die eingesetzte Strategie konsistent? Erfolgte die Sicherung ohne Fehler? Regelmige berprfung auf Wiederherstellbarkeit Ein Rckspielen der Daten muss innerhalb eines festgelegten Zeitraums durchgefhrt werden knnen. Dazu muss die Vorgehensweise einer Datenwiederherstellung ausreichend dokumentiert sein und die bentigten Ressourcen (Personal, Medien, Bandlaufwerke, Speicherplatz auf den Ziellaufwerken) mssen verfgbar sein. Datensicherungen sollten automatisch erfolgen Manuelle Datensicherungen knnen durch menschliche Fehler beeinflusst werden. Verwendung von Standards Die Verwendung von Standards macht die Datenwiederherstellung einfacher. Datenkompression Datenkompression kann Speicherplatz sparen, hngt aber von der Komprimierfhigkeit der Daten ab. Moderne Digital-Linear-Tape/Linear-Tape-Open-Laufwerke komprimieren die Daten bei der Sicherung. Unkomprimierte Daten sind jedoch mglicherweise einfacher wiederherzustellen. Zeitfenster Sicherungsvorgnge knnen eine lange Zeit zur Fertigstellung bentigen, das kann in Produktionsumgebungen unter Umstnden zu Problemen fhren (Beeintrchtigung des Datentransfers, Zugriffsmglichkeit). Eine Kompression kann ebenfalls Einfluss auf die Dauer der Datensicherung haben. Lschung veralteter Datensicherungen Nicht mehr bentigte Datensicherungen sollten gelscht werden, damit die Vertraulichkeit der gespeicherten Daten gewahrt bleibt. Das Vorgehen im Ernstfall sollte mehreren Mitarbeitern bekannt sein. Eine Checkliste fr diesen Fall ist sehr ntzlich, da im Ernstfall oft niemand Zeit oder Nerven hat, nachzudenken, was als nchstes zu tun ist. Nach Mglichkeit sollten die Daten vor der Sicherung nicht komprimiert werden. Redundanz kann bei der Wiederherstellung von Daten ntzlich sein. Es ist zumindest ein Laufwerk bereitzuhalten, welches die verwendeten Medien lesen kann.
Datensicherung Der wirtschaftliche Nutzen von Datensicherungen (Kosten, um die Daten ohne Datensicherung wiederherzustellen) muss in einem sinnvollen Verhltnis zu dem fr die Datensicherung betriebenen Aufwand stehen. Der einzig sichere Beweis einer erfolgreichen Datensicherung ist der Nachweis, dass die gesicherten Daten auch vollstndig und innerhalb eines angemessenen Zeitraums wiederhergestellt werden knnen. Aus diesem Grund sollten in regelmigen Abstnden Rcksicherungstests erfolgen.
44
Literatur
Klaus-Rainer Mller: IT-Sicherheit mit System. Sicherheitspyramide Sicherheits-, Kontinuitts- und Risikomanagement Normen und Practices SOA und Softwareentwicklung. 3. erweiterte und aktualisierte Auflage. VIEWEG, Wiesbaden 2008, ISBN 978-3-8348-0368-9. W. Curtis Preston: Backup and Recovery. 1. Auflage. O'Reilly Media, Beijing u. a. 2007, ISBN 978-0-596-10246-3. Egbert Wald: Backup & Disaster Recovery. (Risikoanalyse und Prventionsmassnahmen, Datencrash und Datenrettung, Notfallplne und Katastrophen-Management). MITP, Bonn 2002, ISBN 3-8266-0585-3 (IT-Management).
Weblinks
Links zum Thema Datensicherung [2] im Open Directory Project
Informationen
Erklrung zum Thema Datensicherung von proDatenrettung [3] Wikidorf-Artikel Grundlagen Datensicherung (Backup) unter Windows [4] BSI: Infos zum Thema Datensicherung [5] Methoden zur Datensicherung, 134-seitiger PDF-Artikel zu Backup-Strategien und Techniken [6] (1,36MB) Zusammenfassung zur Datensicherung mit UNIX-Bordmitteln [7] (PDF-Datei; 12 kB) Artikel ber Datensicherung im Rahmen von Forschungsprojekten [8] Datensicherung mit Band, Festplatte und Virtual Tape Library im berblick [9] Tutorial fr die private Datensicherung mit Crash Plan [10]
Einzelnachweise
[1] Projektseite des Microsoft Developer Network: How Split-Mirror Backup Works (http:/ / msdn. microsoft. com/ en-us/ library/ cc966458. aspx#EFAA) (englisch) [2] http:/ / www. dmoz. org/ World/ Deutsch/ Computer/ Software/ Backup/ [3] http:/ / www. pro-datenrettung. net/ datenrettung-faq. html [4] http:/ / www. wikidorf. de/ reintechnisch/ Inhalt/ Datensicherung [5] https:/ / www. bsi-fuer-buerger. de/ cln_136/ BSIFB/ DE/ ITSicherheit/ Datensicherung/ datensicherung_node. html [6] http:/ / www. net-tex. de/ backup. pdf [7] http:/ / www. ostc. de/ howtos/ unix-backup-HOWTO. pdf [8] http:/ / www. connecta. ag/ presse-aktuelles/ publikationen/ konzepte-und-werkzeuge-der-datensicherung. html [9] http:/ / www. searchstorage. de/ themenbereiche/ backup-recovery/ fundamente/ articles/ 143887/ [10] http:/ / computerfibel. blogspot. com/ 2010/ 10/ bitte-backup. html [11] http:/ / netzreport. googlepages. com/ all_those_backups_waste_of_pay. html
Vertraulichkeit
45
Vertraulichkeit
Vertraulichkeit ist die Eigenschaft einer Nachricht, nur fr einen beschrnkten Empfngerkreis vorgesehen zu sein. Weitergabe und Verffentlichung sind nicht erwnscht. Vertraulichkeit wird durch Rechtsnormen geschtzt, sie kann auch durch technische Mittel gefrdert oder erzwungen werden.
Einzelnachweise
[1] (https:/ / www. bsi. bund. de/ ContentBSI/ grundschutz/ kataloge/ glossar/ 04. html) Bundesamt fr Sicherheit in der Informationstechnik (Hsrg.): IT-Grundschutz-Kataloge, Stand 9. Ergnzungslieferung
46
Begriffsklrung, Definition
Heutige Personal Computer verfgen normalerweise ber einen Festplattenspeicher, der direkt im Gehuse des Computers eingebaut ist, und legen dort ihre Verzeichnisse und Dateien ab. Man spricht von direkt dem Computer zugeordnetem Speicher (Direct Attached Storage), der im Regelfall nur den Nutzern zur Verfgung steht, die unmittelbar am Computer arbeiten. Soll ein Festplattenspeicher mit den darauf abgelegten Dateien netzweit zur Verfgung stehen, also von allen Rechnern des Netzwerks erreichbar sein, muss das Speichersystem zunchst direkt an das Netzwerk angeschlossen sein und zustzlich Methoden (z.B. Datei-basiert: SMB/CIFS,NFS oder Block-basiert: iSCSI/LUN/SAN, FCoE[1] ) beherrschen, welche die Dateien auf diesem Speicherplatz im angebundenen Computernetz zur Verfgung stellen. Man spricht dann von Speicher, der an ein Netz angeschlossen ist, also Network Attached Storage oder kurz NAS. NAS-Systeme werden also direkt am Netzwerk angeschlossen und arbeiten autonom, d.h., ohne einen dedizierten PC oder Server zu bentigen. Die Dateisysteme des NAS, also alle dort angelegten Dateien und Verzeichnisse, erscheinen auf dem Zielsystem wie eine eingebundene Freigabe beziehungsweise ein lokales Dateisystem. NAS-Systeme im engeren Sinne sind Serverdienste, die den ber einen Netzwerkdienst angeschlossenen Clients betriebssystemabhngig einsatzbereite Dateisysteme zur Verfgung stellen. Dies grenzt den Dienst von Direct Attached Storage und Storage Area Network ab. NAS-Systeme im weiteren Sinne, wie sie in der Praxis angeboten werden, stellen zentralen Speicherplatz auf Disk-Arrays sowohl mit Datei-basiertem als auch mit Block-basiertem Zugriff ber das allgemeine Netzwerk zur Verfgung. Das allgemeine Netzwerk ist in der Regel das Ethernet-basierte LAN, zunehmend auch WLAN.
47
Funktionen
Ein NAS stellt im allgemeinen File-Service-Funktionen bereit. Darunter wird der ber ein lokales Netz erfolgende Nutzer-Zugriff auf Dateien verstanden. Vor allem beim Einsatz im professionellen Umfeld mssen die Systeme in der Lage sein, Zugriffsrechte (ACL) fr im Netz eingetragene Nutzer zu bercksichtigen (Datenschutz). Ein hufiges Erscheinungsbild sind persnliche Daten, die nur einem Nutzer zugnglich sind, oder Gruppendaten, die fr Gruppen aus mehreren Nutzern zugnglich sind. Ein NAS stellt somit in der Regel weitaus mehr Funktionen bereit, als nur einem Computer Speicher ber das Netz zuzuweisen. Deshalb ist ein NAS im Unterschied zu Direct Attached Storage immer entweder ein eigenstndiger Computer (Host) oder ein Virtueller Computer (Virtual Storage Appliance, kurz VSA) mit eigenem Betriebssystem. Daher beherrschen viele Systeme auch Raid-Funktionen, um Datenverlust durch Defekte vorzubeugen. Dateibasierende Dienste wie NFS oder SMB/CIFS stellen die Kernfunktion dar. Einige NAS von Intel umfangreichere NAS-Implementierungen wie FreeNAS oder Openfiler beherrschen zustzlich blockbasierende Datenzugriffe, wie sie bei DAS oder SAN blich sind und bieten hierfr eine iSCSI-Implementierung. Diese Funktionsvielfalt wird hufig auch im Begriff Filer zusammengefasst. Fr den Einsatz in kleinen Heim- und sogenannten SoHo-Netzen wurde auch Network Direct Attached Storage mit zustzlichen Funktionen entwickelt, die ber den Begriff des Filers hinausgehen, zum Beispiel Druckerserver. Einige dieser Funktionen sind jedoch auf kleine Netze mit wenigen Computern begrenzt, da je nach System spezielle Gertetreiber auf jedem verbundenen Computer ntig sind.
Hersteller
Unter anderem folgende Hersteller haben derzeit NAS-Modelle am Markt: Acer Adaptec ALLNET Buffalo Technology (Linkstation, TeraStation) Cisco Conceptronic D-Link Data Robotics euroNAS Freecom IBM Iomega LaCie LG Electronics
48
Schnittstellen
Die Verbindung zu NAS-Systemen wird heute blicherweise per Ethernet und TCP/IP hergestellt. Durch den dabei auftretenden TCP/IP-Protokoll-Overhead ergibt sich eine etwas geringere Eignung fr abgesetzte Massenspeicher auf Betriebssystem-Ebene, sodass man SQL-Server und hnlich performancehungrige Server normalerweise nicht auf NAS-basiertem Speicher installieren wird (vergl. Storage Area Network). Insbesondere solche NAS-Systeme, die nicht fr den Unternehmens-, sondern fr den Heim- bzw. SoHo-Einsatz ausgelegt sind, lassen sich zumeist bequem ber eine Webschnittstelle einrichten und konfigurieren.
Vorteile
NAS fr Unternehmenseinstze knnen sehr groe Datenmengen bewltigen. Durch den Einsatz leistungsfhiger Festplatten und Caches werden auch umfangreiche Datenmengen dem Benutzer schnell zugnglich gemacht. Professionelle NAS-Lsungen sind fr die Konsolidierung von Dateidiensten in Unternehmen geeignet. Hochperformante, redundante und ausfallsichere NAS-Lsungen stellen eine Alternative zu traditionellen Windows/Linux/Unix-Dateiservern dar. Um die Datensicherung groer NAS-Umgebungen zu vereinfachen, untersttzen die meisten Gerte dieser Klasse das Network Data Management Protocol (NDMP). Fr Privathaushalte existieren ebenfalls eine Reihe an Vorteilen. So besteht die Mglichkeit, dass alle Benutzer im Netzwerk auf dieselben Daten zugreifen. Alternativ kann ein NAS auch als Sicherungslsung fr vorhandene Computer herangezogen werden. NAS-Lsungen sind aufgrund der verwendeten Hardware und leichten Administrierbarkeit wesentlich kostengnstiger zu implementieren als vergleichbare SAN-Lsungen. Dies geht allerdings zu Lasten der Performance.
Einzelnachweise
[1] FCoE (fibre channel over Ethernet). (http:/ / www. itwissen. info/ definition/ lexikon/ fibre-channel-over-Ethernet-FCoE. html) In: ITWissen - Das grosse Online-Lexikon fr Informationstechnologie. abgerufen am 9.Mai 2010: Begriffsklrung
Weblinks
Hintergrundartikel Network-Attached-Storage (http://www.speicherguide.de/Datenspeicherung/NAS/tabid/ 205/articleType/ArticleView/articleId/9995/Backgrounder-Network-Attached-Storage-NAS.aspx) Definition zu NAS vom BSI (https://www.bsi.bund.de/cln_146/ContentBSI/grundschutz/kataloge/m/m02/ m02362.html) Forum fr Storage- und Netzwerklsungen (http://www.nas-portal.org/)
49
Nachteile
Nachteile treten bei DAS-Systemen dann auf, wenn mehrere Systeme an unterschiedlichen Servern genutzt werden. Alle diese Gerte mssen mit Mehraufwand berwacht und administriert werden. Weiterhin bentigt jedes Einzelsystem Reserveplattenplatz, Hot Spare-Platten und Stellplatz.
50
Virtualisierung
Ein groer Vorteil des SAN ist die Virtualisierung der vorhandenen Plattensubsysteme. Der verteilt vorhandene Massenspeicher kann virtuell wie eine einzige Festplatte behandelt werden. Den einzelnen Server-Systemen werden dann auf dieser virtuellen Festplatte Partitionen zugewiesen, die diese Server ber die Host Bus Adapter wie eine eigene Festplatte einbinden knnen. Der vorhandene Speicherplatz kann so viel effektiver genutzt und zentral verwaltet werden, da es jederzeit im laufenden Betrieb mglich ist, die Gre des zugewiesenen Speicherbereichs fr die Server im Storage Area Network zu ndern.
Desaster-Toleranz
Ein weiterer groer Vorteil von SANs ist ihre Desaster-Toleranz. Hierunter fallen Festplattensubsysteme, die intern ber Komponenten mit integrierter RAID-Funktionalitt verfgen und die verschiedenen RAID-Level (meist Raid-1, 10, 5, 50, 6 oder 60) selbstttig und serverunabhngig beherrschen. Weiter knnen alle wichtigen Systeme mehrfach (redundant) ausgelegt werden. In einem typischen kleinen Storage Area Network ist es denkbar, dass sich an zwei mglichst weit auseinanderliegenden Orten auf dem Betriebsgelnde jeweils ein baugleiches Plattensubsystem befindet, jedes dieser Plattensubsysteme ist mit einem von zwei auch wieder getrennt installierten Switches verbunden. Die Server, wenn es sich nicht auch um verteilte Systeme handelt, verfgen zumindest ber zwei Host Bus Adapter. Von den beiden Host-Bus-Adaptern eines Rechners ist jeder mit einem der beiden Switches verbunden. Die Daten beider Plattensubsysteme werden, je nach Installation, entweder durch die Server oder selbstttig, durch eine direkt in hherwertige Plattensubsysteme integrierte Funktionalitt, gespiegelt (RAID 1). Im oberen Beispiel wre nun ein Ausfall einzelner Leitungen, eines Switches oder sogar eines Plattensubsystems ohne Beeintrchtigung der Gesamtsystemleistung denkbar. In greren hochverfgbaren Systemen werden auch die Server-Systeme redundant vorgehalten. Weiter ist es zum Schutz gegen Katastrophen wie Elementarschden oder Terror sinnvoll, die redundanten Komponenten auf einem anderen, weiter entfernten Standort unterzubringen. Zum permanenten Abgleich der Daten auf den Plattensubsystemen werden dann Standleitungen meist im Bereich von 1GBit/s bis 9GBit/s verwendet. Grundlage
Storage Area Network fr eine SAN-Vernetzung im WAN-Bereich bilden in der Regel Glasfasernetze, die auch die galvanische Trennung garantieren. Die Glasfasern werden oftmals, um eine bessere Faserausnutzung zu erlangen, mit Wavelength Division Multiplex (WDM)-Systemen beschaltet. Durch entsprechende Protokolle wie Fibre Channel oder Gigabit Ethernet knnen Daten sicher auch ber sehr weite Entfernungen transportiert werden. Zu beachten ist hier jedoch die Latenz, die bei bertragungen ber grere Distanzen eine groe Rolle spielt.
51
Probleme
Auch heute noch, nachdem sich das SAN in vielen Bereichen etabliert hat, ist eine vollstndige Kompatibilitt zwischen den Komponenten aller Hersteller nicht garantiert. Beim Einsatz neuer Komponenten mssen diese daher kosten- und zeitaufwndig auf die Vertrglichkeit mit den bestehenden Komponenten geprft werden. Viele Anwender haben sich daher in ihren Storage-Area-Networks auf die Komponenten eines einzelnen Herstellers festgelegt, um diese Komplikationen zu umgehen. Die Storage Networking Industry Association ist eine Initiative verschiedener Hersteller, die solchen Problemen durch einheitliche Standards entgegenwirken wollen.
Literatur
Ulf Troppens, Rainer Erkens: Speichernetze. dpunkt, Heidelberg 2002. ISBN 3-89864-135-X Bjrn Robbe: SAN Storage Area Network. Hanser Fachbuchverlag, Mnchen 2004. ISBN 3-446-22597-8 Roland Dllinger, Reinhard Legler, Duc Thanh Bui: Praxishandbuch Speicherlsungen. dpunkt, Heidelberg 2010. ISBN 978-3-89864-588-1
Weblinks
"SAN Kurz erklrt" [1] "SAN Grundlagen, Hard- und Software (auch fr Einsteiger)" [2] Website zum Buch Speichernetze [3] Website zum Buch Praxishandbuch Speicherlsungen [4]
Referenzen
[1] [2] [3] [4] http:/ / www. searchstorage. de/ themenbereiche/ speichernetze/ fundamente/ articles/ 46906/ http:/ / www. storitback. de/ service/ san. html http:/ / www. speichernetze. com/ http:/ / www. praxishandbuch-speicherloesungen. de/
Solid-State-Drive
52
Solid-State-Drive
Speichermedium Solid State Drive (SSD)
Verschiedene SSD (Computex Ritek RiDATA Ultra-S) Allgemeines Typ Kapazitt Lebensdauer Halbleiterbausteine bis rund 2TB Lesen unbegrenzt, Schreibvorgnge je Zelle: 3.000 (MLC in 25-nm-Fertigung) 5.000 (MLC in 34-nm-Fertigung), 10.000 (MLC in 50-nm-Fertigung) und 100.000 (SLC in 50-nm-Fertigung) und bis zu 5 Mio. (selektierte SLC-Chips) verschieden Ursprung Entwickler Samsung
Gre
Ein Solid-State-Drive, kurz SSD/FlashHDD, auch Festkrperlaufwerk oder speziell auch Halbleiterlaufwerk ist ein Speichermedium, das wie eine herkmmliche magnetische Festplatte eingebaut und angesprochen werden kann, ohne eine rotierende Scheibe oder andere bewegliche Teile zu enthalten, da nur Halbleiterspeicherbausteine verwendet werden. Vorteile eines Solid-State-Drive sind mechanische Robustheit, sehr kurze Zugriffszeiten, niedriger Energieverbrauch und das Fehlen jeglicher Geruschentwicklung. Der Hauptnachteil ist ein erheblich hherer Preis im Vergleich zu konventionellen Festplatten gleicher Kapazitt. Wird herkmmliche, magnetische Festplattentechnik mit einem Solid-State-Speicher kombiniert und funktionsgleich eingesetzt, so spricht man von einer Hybridfestplatte (engl. hybrid hard drive, HHD).
Solid-State-Drive
53
Begriffsklrung
In der Geschichte der Elektronik bedeutet der englische Begriff solid state, dass Halbleiterbauteile verwendet werden, die mit Hilfe der Festkrperphysik entwickelt wurden, statt Elektronenrhren oder bewegliche mechanische Teile wie z.B. rotierende Magnetscheiben. In Analogie zu anderen Festplattentechniken wird das Medium als Drive oder Disk bezeichnet, obwohl das Speichermedium ohne bewegliche Teile funktioniert.
Verfahren
Zwei Arten von Speicherchips werden verwendet: Flash-basierte und SDRAMs. Flash-Speicher sind besonders energieeffizient und sogar stromunabhngig, wenn es um das Beibehalten des Inhaltes geht. Herstellerseitig werden hier rund 10 Jahre versprochen, bei den konventionellen Festplatten lsst die Magnetisierung im Laufe der Zeit nach. SDRAM-Chips sind flchtig und verbrauchen pro Gigabyte deutlich mehr Energie als eine konventionelle Festplatte. Ihr Vorteil liegt dafr Das Innere eines USB-Sticks: Links der Flash-Speicherchip, rechts der Controllerchip. in der deutlich hheren Geschwindigkeit. Mitte der 1990er auch als RAM-Disks eingefhrt, fanden sie von Anfang an Einsatz in Servern, wo auf ihnen Caches, temporre Dateien und Journale von Datei-, Web-, Datenbank-Servern o.. abgelegt wurden. Sie knnen als Steckkarte oder auch als Gert mit emulierter Festplattenschnittstelle realisiert sein oft mit einer Sicherungsbatterie oder eigenem Stromanschluss. Sie haben gegenber Festplatten eine rund 700-fach geringere Verzgerung, um beliebige Daten aufzufinden. Gegenber der Flash-Technik sind sie 80-fach schneller. Ein zweiter Vorteil ist die festplattengleiche, unbegrenzte Wiederbeschreibbarkeit; Flash-Chips SDRAM-Speicherchips sind hier auf 100.000 bis 5 Millionen Schreibzyklen begrenzt. Diese Beschrnkung gilt jedoch nicht fr Lesevorgnge und zudem fr jede einzelne Flashzelle. Eine solche wird bei Verschlei automatisch gegen eine von rund zehn Prozent Reservezellen ausgetauscht. Es liegt nahe, die Geschwindigkeit der SDRAMs mit dem Datenerhalt anderer Speichertypen Festspeicher zu verbinden. So integrieren manche Hersteller etwa auch eine konventionelle Festplatte in das Gehuse der SDRAM-SSD, um z.B. bei einem Stromausfall ein Abbild dieser zu haben. An dieser Stelle schliet sich der Kreis, denn umgekehrt verfgen konventionelle Festplatten ber immer mehr SDRAM- und neuerdings Flashchips als Zwischenspeicher (sog. Cache).
Solid-State-Drive seit 2007 im Handel. Im stationren Einsatz finden sich eher SDRAM-basierte SSDs und das meist weitab vom Massenmarkt. Ihr Einsatzgebiet sind Anwendungen, die sehr laufwerkslastig arbeiten (Datenbanken, Sortieranwendungen), indem sie wiederholt kleine Datenmengen von verschiedensten Speicherbereichen anfordern. Gern werden diese Laufwerke auch von Entwicklern und Testern benutzt, um die Leistungsfhigkeit von Festplatten-Controllern und -bussen zu messen, da sie diese maximal auslasten. Ihre Geschichte startete 1978, als das Unternehmen StorageTek die Solid State Disk STK 4305 auf den Markt brachte, welche kompatibel zum Festkopfplattenspeicher IBM 2305 war und mit Grorechnern vom Typ System/370 benutzt wurde. StorageTek selber benutzt die Bezeichnung Solid-State Disk.[1] Aktuell (2007) sind hier die RamSan-Laufwerke der Texas Memory Systems zu nennen, die in Form eines Desktopgehuses die derzeit schnellsten (Massen-)Speicher darstellen. Ihre Preise lagen 2007 bei 1700US-Dollar pro Gigabyte, ihre Geschwindigkeit lag damals beim 30-fachen der Flash-SSDs und dem ber 300fachen normaler Server-Festplatten. Mit steigender Leistung der Flash-SSDs und besseren Controllern war 2008 erstmals ein vergleichbar performantes Laufwerk auf NAND-Basis verfgbar. Es wird zugunsten schneller Systemanbindung als PCIe-x4-Karte angeboten. Aufgrund dessen ist es jedoch nicht als Laufwerk fr das Betriebssystem verwendbar, da dieses zunchst starten muss, um das fusion io via Treiber ansprechen zu knnen. Das und der Preis von 50 pro GB machen es fr den Endkundenmarkt uninteressant, stellen aber im oben genannten Einsatzgebiet ein sehr gnstiges Angebot fr eine Leistung auf RamSan-Niveau dar.[2] Aber auch im Bereich der eingebetteten Systeme, in denen es ausschlielich auf den Verzicht der mechanischen Teile ankommt, werden hufig Solid-State-Drives verwendet. Eine Ein-Chip-Mikrocontrolleranwendung verfgt aus Platz- und Energiegrnden hufig erst gar nicht ber einen Festplattenanschluss. Stattdessen liegt deren Steuerungsprogramm oder Betriebssystem meist in einem Flash-Chip. Einen solchen hat heute auch jeder PC. Dieser fasst aktuell bis zu zwei Megabyte und enthlt das BIOS. Weitere Anwendungsgebiete finden sich in Umgebungen in denen Schmutz, Erschtterungen, sowie Druckschwankungen, Temperatur und Magnetfelder (Raumfahrt) den Einsatz mechanischer Platten verhindern.
54
Solid-State-Drive
55
SSDs im Endkundenmarkt
Durch Temposteigerungen und Preisverfall bei den Solid-State- und besonders den Flashspeichern ist damit zu rechnen, dass sie die konventionelle Festplattentechnik ergnzen und sogar ersetzen, und zwar besonders in mobilen Gerten. Bis 2012 wird der Marktanteil der Flashspeicher nach Einschtzung des A-Data-Vorsitzenden Simon Chen allerdings eher stagnieren,[3] da die konventionellen Festplatten vor allem ihren Kapazittsvorsprung bei gnstigen Preisen halten. Mit einer Ablsung durch Flashspeicher verschwinden zahlreiche Unterscheidungsmerkmale der Hersteller. Dazu gehren die Punkte Lautstrke und Khlungsbedarf, aber auch die dann prinzipbedingt sehr hnliche Stofestigkeit, Zugriffszeit und der Energiebedarf. Herstellern bliebe Gestaltungsfreiraum bei Geschwindigkeit, Kapazitt und Preis. Allerdings basieren die zahlreichen MLC-Modelle des Endkundenmarktes auf nur einer Handvoll verschiedener Laufwerks-Controller. Produkte mit gleichem Controller haben eine praktisch identische Performance. Trotzdem bestehen noch deutliche Leistungsunterschiede sowohl zwischen verschiedenen Controllern, als CompactFlash-Karten sind die gnstigsten, aber auch Produkten gleicher Preisgestaltung. Diese Situation besteht auch kapazittsrmsten SSDs, die Festplatten bereits bei USB-Sticks. Dort wurden daher zustzliche Eigenschaften ersetzen knnen wie hier mit P-ATA-Adapter. eingefhrt, etwa beigelegte Software zur Verschlsselung der Daten oder die Abdichtung des Speichers gegenber Wasser und Schmutz. Trotz dieser Versuche ist aber mit einer weiteren Phase der Fusionen und Allianzen zu rechnen, insbesondere zwischen den heutigen Festplatten- und Flashherstellern. Das uerte sich bislang in Aufteilungen von Mrkten. So entschloss sich Fujitsu, im 1,8"-Segment nur noch Flashfestplatten zu entwickeln und Western Digital bernahm den SSD-Hersteller Silicon Systems. Oft beliefert ein Hersteller auch nur OEM-Kunden direkt, whrend er seine Laufwerke anderen Herstellern fr den Endkundenmarkt mit individueller Verpackung zur Verfgung stellt. Die Speicherkapazitten von SSDs nhern sich langsam denen von HDDs an, so kndigte im Sommer 2009 Toshiba 2,5"-SSDs mit bis zu 512 GB Kapazitt fr den Endkundenmarkt an. Der Hersteller OCZ Technology hat 2009 auf der grten IT-Messe in Asien eine 3,5"-SSD mit bis zu 1024 GB Kapazitt vorgestellt.
Solid-State-Drive
56
Hybridfestplatte/HHD
Funktion und Technik Bei der Hybridfestplatte (Hybrid Hard Disk) wird eine herkmmliche Festplatte mit einem Solid-State-Speicher kombiniert.[4] Seine nur geringe Gre soll den Mehrpreis auffangen, seine Vorteile aber schon heute einem breiten Markt zugnglich machen. DDR-SDRAM Die Kombination mit DDR-SDRAM bietet vorerst nur ein Hersteller innerhalb Japans und fern des Massenmarktes ab rund 1000 an. Die DTS Platinum HDD[5] verwendet einen Chip desselben Herstellers, der ber die Zeit lernen soll, welche Inhalte sich fr den schnellen Zwischenspeicher empfehlen. Dieser behlt durch einen Kondensator Der Schreib-Lese-Kopf einer alten Festplatte. (vor GMR) seine Daten bis anderthalb Minuten nach Ende der Stromzufuhr und besteht aus einem Ein-Gigabyte-DDR-SDRAM-Modul. Dieses ist mit einer 2,5-Festplatte in einem 3,5-Gehuse untergebracht. Dadurch ist dieser Ansatz nicht fr mobile Gerte geeignet, spart aber ein Drittel der Energie konventioneller 3,5-Festplatten. Da hier ein Chip die Auswahl bernimmt, beschleunigt dieses Laufwerk jedes Betriebssystem; bei HHDs muss das Betriebssystem diese Aufgabe bernehmen. Bisher leistet das nur Windows Vista & Windows 7. Im Desktop- und kleinen Serverbereich kann das Laufwerk fr Datenmengen unter einem Gigabyte jegliche Flashlaufwerke deutlich bertreffen. Die eingebaute Festplatte fasst zwischen 80 und 200GB, die kleinste Ausfhrung kostet rund 900. Flash-Speicher Die Kombination mit Flash ist bereits verfgbar und wird wegen der Untersttzung durch groe Hersteller, sowie Mobileignung und Datenerhalt auch zuknftig weiter verbreitet sein. Mit ihr befassen sich daher die folgenden Abstze. Technisch gibt es zwei Umsetzungen. Intel integriert den Flashspeicher nicht in die Festplatte selbst, sondern verwendet wie fr den Arbeitsspeicher einen proprietren Anschluss auf dem Mainboard. Damit entsteht eigentlich keine Hybridfestplatte, der erzielte Effekt ist aber derselbe. Dieses Prinzip nennt Intel Turbo Memory.[6] Alle anderen Anbieter dieser Technologie sind Festplattenhersteller und integrieren den Flashspeicher in das Laufwerk selbst meist 256MB. Intel verwendet die vier- bis achtfache Kapazitt. Ob das aber einen Praxisvorteil ergibt, ist derzeit nicht abzusehen. Grundlage beider Varianten ist, dass Flashchips ihre Daten mit geringerer Verzgerung als die Festplatte selbst liefern knnen. Die in den Festplatten bereits vorhandenen SDRAM-Zwischenspeicher verlieren ihren Inhalt ohne permanente Stromversorgung. Flash ist jedoch beim Schreiben nicht nur langsamer als dieser SDRAM, sondern unterbietet hier auch die Festplatte selbst. Er ist also kein Ersatz, sondern eine Ergnzung. Eine Datei wird daher auch nicht beim ersten Zugriff, sondern erst nach hufiger Verwendung in den Flashbereich aufgenommen; mitunter auch nur einzelne Bestandteile. Diese werden beim Lesen dann deutlich schneller bereitgestellt, als die Festplatte es knnte. Sie wird nur bei Bedarf also fr selten benutzte Dateien gestartet. Bei Internet- oder Broarbeit sind die Hybridkonzepte somit oft lautlos und sehr energiesparend (um 0,3W). Diese beiden Punkte, zusammen mit der im Stillstand hheren Stofestigkeit sind ihre Vorteile. Da diese besonders dem Mobileinsatz zugutekommen, werden HHDs bisher nur in 2,5 Zoll gefertigt. Dank des S-ATA-Anschlusses sind sie aber auch im Desktop verwendbar. Turbo Memory dagegen ist nur fr Notebooks verfgbar, 2008 soll die zweite Generation dann auch den Desktop erreichen. Intels Lsung ist dabei immer an einen Mainboard-Chipsatz aus gleichem Hause gebunden. Beide Konzepte bentigen Windows Vista oder Windows 7, die bislang als einzige Betriebssysteme den Flashbereich mit den meistbentigten Daten zu bestcken vermgen. Alle anderen Betriebssysteme benutzen den
Solid-State-Drive Flashbereich nicht. Neuere Hybridfestplatten brauchen nicht mehr das Betriebssystem um den Flashspeicher zu benutzen. Dieser Vorgang wird von einem Controller in der Festplatte selbst bernommen. Dadurch knnen solche Festplatten in jedem Betriebssystem in vollem Umfang genutzt werden. Vor- und Nachteile Im Folgenden sind gegenbergestellt. die theoretischen Vorteile der Praxis
57
Flash-Verwendung: HHDs sammeln beim Schreiben zunchst 32MB an Daten, bevor der Spindelmotor startet. Noch einmal soviel wird den ber Sondertasten einiger Tastaturen startbaren Hard disk drive (links) und SSD (rechts) Programmen bereitgestellt. Der weitere Bereich steht den meistverwendeten Daten zur Verfgung. Turbo Memory wird stattdessen erst durch einen nachzuinstallierenden Treiber aktiviert, der nicht in Windows Vista enthalten ist. Eine Hlfte des Flashmoduls funktioniert dann wie der einer HHD, die andere wird wie ein schneller Auslagerungsspeicher verwendet (siehe ReadyBoost). Das beschleunigt PCs mit 1GB RAM wirksam auf das Niveau einer 2-GB-Ausstattung, ist jedoch auch nicht abstellbar, wenn diese bereits vorhanden ist. Ohne Auslagerungsbedarf bleibt also eine Hlfte des Moduls ungenutzt. Akku-Laufzeit: Um tatschlich Energie zu sparen, erfordern beide Konzepte manuelle Eingriffe. Da bei Turbo Memory eine konventionelle Festplatte Anwendung findet, wird diese durch die Windows-Energieoptionen heruntergefahren, nicht durch einen HHD-Laufwerkscontroller. Deren Voreinstellung sieht aber eine mehrmintige statt sekndliche Verzgerung nach einem Festplattenzugriff vor. Wird die Einstellung auf 3 Minuten korrigiert, verlngert sich die Akkulaufzeit durchaus um 15 %, so beispielsweise von drei auf dreieinhalb Stunden. Ein vergleichbarer Effekt stellt sich auch bei HHDs ein, wenn die Einstellung Windows Hybrid-Festplattenenergiesparmodus in den Energieoptionen aktiviert wurde. Tempogewinn: Viele Benchmarks knnen die Mehrleistung der Hybride prinzipiell nicht wiedergeben denn sie verwenden mglichst viele, verschiedene und groe Dateien, um eine maximale Last zu erzeugen. Diese berschreiten dann die Kapazitt des Zwischenspeichers um ein Vielfaches. Zudem verwenden sie gerade kein wiederkehrendes Zugriffsmuster um auszuschlieen, dass ein Laufwerkshersteller sein Produkt daraufhin optimiert. Damit werden viele verfgbare Leistungstests jedoch der typischen Notebook-Verwendung nicht gerecht und hnlich einem Hybridauto unter Volllast haben HHDs und Turbo Memory in diesen Tests keinen Vorteil. Erstere beschleunigen Windows-Start und Herunterfahren um rund 20 Prozent; hnlich den Start hufig benutzter Programme. Turbo Memory bewirkt nach ersten Tests von AnandTech.com jedoch keine Beschleunigung. Die Notebookhersteller Sony und Dell kamen zu gleichen Ergebnissen und verzichten daher vorerst auf diese Technologie. AnandTech untersuchte das zusammen mit Intel[7] und stellte im PCMark-Test tatschlich die vom Hersteller versprochene Leistungsverdopplung fest. Auerhalb des Benchmarks zeigten sich jedoch keine Tempovorteile, weder beim normalen Arbeiten noch beim Windows-Start oder Herunterfahren. Auch wenn Hybridfestplatten erst 2007 auf den Markt gekommen sind, gab es eine hnliche Technik schon mehr als zehn Jahre zuvor: Der Hersteller Quantum hatte eine SCSI-Festplattenserie namens Rushmore im Programm. Diese kombinierte eine herkmmliche Festplatte statt mit damals eher bremsendem Flash, mit SD-RAM in Laufwerksgre. Die reichte bei Einstellung der Serie im Jahre 2000 von 130 Megabyte bis 3,2 Gigabyte. Alle gespeicherten Daten wurden im Betrieb aus dem extrem schnellen Cache geliefert. Da dieser jedoch auf Strom angewiesen war, rstete der Hersteller das Produkt mit Batterien gegen Datenverlust aus. Deren Energie lie im Notfall die Festplatte starten und alle Daten aus dem RAM bernehmen. Wegen der hohen Preise fr RAM-Chips waren die Rushmore-Platten fr Privatanwender aber praktisch unerschwinglich sie lagen beim Tausendfachen
Solid-State-Drive heutiger Flashchips. Daher war auch die optional verfgbare Grundversion keine Ausnahme: Ihr fehlten die sowieso relativ gnstigen Bauteile Festplatte und Batterie. Marktsituation Nach Samsungs Debt der ersten HHD[8] im Mrz 2007 begann Seagate im Juli mit der Fertigung eines Modells gleicher Flashgre.[9] Marktfhrer ist mit 45 Prozent Samsung. Zusammen mit Fujitsu, die noch keine HHD ankndigten, grndeten die genannten Hersteller Anfang 2007 die Hybrid Storage Alliance,[10] um die Vorteile der neuen Technologie besser vermarkten zu knnen. Die verfgbaren HHDs werden von den Notebook-Herstellern jedoch kaum angenommen, da ihre Vorteile den Mehrpreis derzeit nicht rechtfertigten. Zum gleichen Ergebnis gelangen verschiedene Computermagazine.[11] [12] Intels Lsung wurde mit der Centrino-Generation Santa Rosa im Mai 2007 eingefhrt. Sony, HP, Dell und MSI nahmen jedoch bisher Abstand davon, das entsprechende Intel-Flashmodul auch in ihre Notebooks einzubauen. Whrend Intel mit der Version 2.0[13] seines Produkts diesen Weg auch 2008 weiterverfolgt, gibt es seitens der HHD-Anbieter keine Ankndigungen zu Nachfolgern der ersten Generation von 2007. Betriebssystemuntersttzung von Hybrid-Flashspeichern Windows Vista fhrte zwei Mglichkeiten ein, um Flashspeicher zur Untersttzung konventioneller Festplatten zu nutzen. Ihre Anwendung zeigt jedoch nur in seltenen Situationen mit SSDs vergleichbare Leistungen, erzeugt im Gegenzug allerdings auch nur geringe oder gar keine Mehrkosten. Fr Linux gibt es spezielle Dateisysteme, die an die Besonderheiten von rohen Flashspeichern angepasst sind, so etwa JFFS2, YAFFS und UBIFS; fr heute bliche SSDs mit FTL (Flash Translation Layer) und integriertem Wear-Levelling werden aber wie etwa auch fr USB-Sticks einfach konventionelle Dateisysteme wie ext3 genutzt, teilweise aber mit optimierten Schreibzugriffseinstellungen (oder aber besser geeignete Dateisysteme wie ZFS, btrfs, NILFS oder LogFS). Solche Dateisysteme zielen darauf ab, Flashspeicher so zu verwenden, dass ihre Vorteile bestmglich genutzt werden knnen. Dadurch knnen hhere Geschwindigkeiten und bessere Datenintegrittskontrolle erreicht werden. Vista erkennt die Mglichkeiten von HHDs und kopiert meistverwendete Programm- und Betriebssystemdateien in deren Flashteil. Die erzielbaren Effekte sind weiter oben beschrieben. Vista soll zudem von USB-Sticks oder Flash-Speicherkarten profitieren. Es bietet dazu an, mit ihnen eine HHD nachzuempfinden, indem ein Teil ihres Speicherplatzes als schneller Zwischenspeicher genutzt wird. Dabei wird auf dem Flashspeicher jedoch nur das gesammelt, was whrend des Betriebs nicht mehr in den Arbeitsspeicher passt. Reprsentative Tests zeigen daher nur bei PCs mit weniger als einem GB Arbeitsspeicher einen sprbaren Vorteil fr die ReadyBoost genannte Idee.[14] Sie dient somit als leicht zu installierende RAM-Erweiterung. Unter Bercksichtigung der Preise fr Arbeitsspeicher ist das jedoch nur sinnvoll, wenn ein entsprechend schneller Flashspeicher bereits vorhanden, oder eine Erweiterung des Arbeitsspeichers nicht mglich ist. Anders als in HHDs bleibt hier die Festplatte auch weiterhin auf Touren, wodurch weder Energieverbrauch noch Lautstrke gesenkt werden. Die Festplatte enthlt zudem ein Abbild des Zwischenspeichers, das bei Entfernen des Flashspeichers verwendet wird. Die darauf ausgelagerten Daten werden sicherheitshalber mit 128 Bit verschlsselt und das Medium vor Gebrauch sinnvollerweise kurz auf ausreichende Geschwindigkeit getestet. ReadyBoost erfordert eine Laufwerksgre von 256MB, maximal verwendet Vista 4GB. Der verwendete Anteil ist beim Anschlieen einstellbar. Unter Linux ist eine hnliche Methode schon seit langem mglich, indem man den Flashspeicher als Swapping mountet. Windows XP verfgt von Haus aus ber keine der beiden Vista-Optionen, Flashspeicher zur Temposteigerung einzusetzen. Das Moskauer Unternehmen MDO Limited bietet mit eBoostr[15] jedoch ein Tool an, das die ReadyBoost-Idee unter XP umsetzt. Zwar funktioniert es auch mit lteren externen Flashspeichern, um aber tatschlich einen Tempogewinn zu erhalten, sollte das ReadyBoost-Logo auch hier als Anhaltspunkt beachtet
58
Solid-State-Drive werden. Dieses erhalten USB-Sticks und Speicherkarten, die ein von Microsoft festgelegtes Performancelevel erreichen. Das Programm kann anders als Vista auch mehrere Flashspeicher gleichzeitig nutzen und dabei die Lastverteilung zwischen Festplatte und Flashspeicher anzeigen. Zielgruppe sind jene PCs, die bereits ber einen USB 2.0-Port verfgen, fr die eine RAM-Erweiterung jedoch technisch oder konomisch nicht mglich ist.
59
Reine Flash-Laufwerke
Funktion und Technik Diese Laufwerke bestehen aus Flash- und Controllerchips, die auf einer Leiterplatte angeordnet sind. Deren Gre hat keinen Einfluss auf die Geschwindigkeit, nur auf die Chip-Anzahl. Auf kleinem Formfaktor sind also weiter nur geringere Kapazitten realisierbar, nun jedoch mit hoher Performance. Viele Modelle sind mit Plastik oder Metall (teil-)verkleidet, um die Bauteile zu schtzen und im zweiten Fall Soliditt zu vermitteln. Das hebt dafr den Vorteil des geringen Gewichts und teilweise der Stofestigkeit durch die Unnachgiebigkeit des Metallmantels wieder auf. Bestehen bleiben hohe Temperaturtoleranz, Lautlosigkeit und Energieeffizienz. Verwendung finden in allen Preissegmenten die sogenannten NAND-Chips in der schnelleren SLC-, oder beim Schreiben langsameren MLC-Ausfhrung (siehe Kasten Architektur-Vergleich). Sie erreichen unter den Flashtechniken den besten Kompromiss zwischen Kapazitt, Preis und Geschwindigkeit. Nur ihre Zugriffszeit ist zweigeteilt: Betriebssystem und Programme starten von Flashfestplatten zwar zwei- bis dreimal so schnell wie von konventionellen Festplatten. Beim Schreiben zeigte sich bis 2009 jedoch der Nachteil des Kompromisses, der bei den Hybrid-Konzepten noch kaschiert werden konnte insbesondere die MLC-basierten Flash-SSDs lagen bei kontinuierlichen Schreibvorgngen unter dem Niveau normaler Festplatten.[16] Das hat sich seitdem umgekehrt, die schnellsten Festplatten schreiben zumindest messbar langsamer als die langsamsten verfgbaren Flash-SSDs[17] Bei reinen Lesevorgngen[16] aber auch bei Multitasking, also bei gleichzeitigem Lesen und Schreiben, waren die SSDs bereits berlegen.[18] In einer Desktopumgebung wird meist gelesen, so dass hier Schreibschwchen weniger ins Gewicht fallen. Die Geschwindigkeitssteigerungen in neuen Produkt-Generationen werden wie in Grafikchips vor allem durch starke Parallelisierung erlangt: So verfgen die neusten SSDs bereits ber einen 10-Kanal-Controller.[19]
Architektur-Vergleich
SLC ist zu MLC 10 haltbarer 3 schneller schreibend vergleichbar lesend halb so kompakt 30 % teurer 10 haltbarer 4 schneller schreibend 5 langsamer lesend bis 16 kompakter 30 % gnstiger NAND ist zu NOR
Folgende Technologien sollen die Vorteile von NAND und NOR vereinen: OneNAND (Samsung), mDOC (Sandisk) und ORNAND (Spansion).
Erst diese Beschleunigung glich ein systembedingtes Problem aus: die interne Organisation. Flash-SSDs sind in Blcke oder Pages unterteilt. Wird auch nur ein Byte darin gendert, muss der gesamte Block neu geschrieben werden. Tatschlich schreibt das Laufwerk intern also im vom Hersteller angegebenen Tempo die Blcke neu. Anwender und Leistungstests nehmen jedoch nur die wenigen genderten Bytes wahr. Der Schreibvorgang erscheint langsam. Dieser Effekt wird im Englischen Write Amplification genannt. Demzufolge wird also das Schreiben umso schneller, je mehr es dem Volumen eines Blockes entspricht. Dateien mit mehreren Megabyte werden so tatschlich mit der angegebenen Transferrate geschrieben, denn hier werden alle Bytes in den Blcken gendert die Nutzrate entspricht der Schreibrate.[20] [21] [22]
Solid-State-Drive Der Versuch, diesen Effekt auf Betriebssystemebene aufzuheben, setzte sich nicht durch. Die Managed Flash Technology von EasyCo. ordnete dazu die Schreibkommandos so, dass sie mglichst zusammenhngend, statt verteilt geschehen. Vom Hardwareprodukt unabhngig, war sie fr den Heimgebrauch aber zu kostenintensiv. Stattdessen ergnzten die Hersteller einen SDRAM-Zwischenspeicher fr den Controller und fhrten eine umfassende Optimierung der Firmwares durch. Diese spielt noch vor dem Controller selbst die entscheidende Rolle bei der Leistungsfhigkeit eines Laufwerks. Dazu nutzt sie, wie zuvor bei konventionellen Festplatten, mglichst effizient den SDRAM-Chip, verwaltet darin allerdings die Daten zur Suche nach dem Schreibbereich, um Geschwindigkeit und Nutzungsverteilung zu optimieren. Die eigentliche Datenzwischenspeicherung erfolgt meist im noch schnelleren SRAM des SSD-Controllerchips.[23] hnlich wie konventionelle Festplatten bringen auch Flashfestplatten bei nur geringer Restkapazitt nicht mehr die volle Leistung. Bei beiden Laufwerkstypen spielt dabei die Suche nach den nur wenigen freien Speicherbereichen die Hauptrolle. Der oben beschriebene Effekt der Write Amplification verstrkt das noch auf Seiten der Flashfestplatten. Daher zweigen deren Hersteller etwa 10 % des Laufwerks fr eine Spare Area als Leistungs- und Verschleireserve ab. Heute eignen sich Flashfestplatten besonders fr den Mobileinsatz, leistungsorientierte Desktops und wenige Server. Fr letztere bieten einige Hersteller Serien mit SLC-Speicher an, um der viel hheren Schreibbelastung gerecht zu werden. MLC-Chips haben mit 10.000 Zyklen je Zelle eine zehnmal geringere Wiederbeschreibbarkeit. Marktsituation Bereits 1996 fhrte MSystems die ersten flashbasierten SSDs ein. Bis 2006 blieben diese aber militrischen und anderen wenig preissensitiven Mrkten vorbehalten. Im Mrz 2006 fertigte Samsung dann ein Modell, das mit einem Achtel des Preises einen anderen Zielmarkt anvisierte: Notebooks mit 2,5- und 1,8-Zoll-Festplatten und per Adapter auch Desktop-PCs. Damit wurde versucht, einen neuen Markt fr erschwingliche Flashfestplatten zu erffnen. Mit 600$ fr 32GB gelang das zwar noch nicht, allerdings eroberte Samsung die Marktfhrerschaft mit einem Marktanteil von 45 %. So ist Apple ein wichtiger Groabnehmer und auch Mtron im oberen SSD-Segment steuert mit eigenem Controller ebenfalls Samsung-Chips an. Im Jahr 2007 forschten eine Reihe von Anbietern mit gleicher Zielstellung an Konkurrenzprodukten zu Samsungs erstem Versuch. Im zweiten Quartal 2008 erschienen die Vertreter der zweiten Generation. Im selben Jahr wechselten viele Hersteller von SLC zu MLC-Speicherchips, um die Preise attraktiver zu gestalten. Bei den ersten Produkten dieser Gattung kam es jedoch hufiger zu unpraktikablen Leistungswerten.[24] 2009 folgten Produkte mit stark verbesserter Leistung, die in einigen Leistungspunkten sogar SLC-Laufwerke bertrafen. Seitdem erfolgen Preissenkungen[25] [26] meist parallel zu einer Strukturverkleinerung in der Flashchip-Fertigung. Die nchste ist damit fr das vierte Quartal 2010 zu erwarten.[27] Da die Flashfestplatten im Vergleich zu herkmmlichen Festplatten gut skalierbar sind die Mechanik entfllt schlielich vllig werden sie auch in den sogenannten Netbooks eingebaut. Damit kommt diese neue Technik berraschenderweise im gnstigsten Segment mobiler Computer zuerst serienmig ohne Aufpreis zum Einsatz. Die verwendeten Laufwerke fassen zwischen 0,5 und 8GB und kosten mit rund 10$ deutlich weniger als konventionelle Festplatten, die dafr ein vielfaches Fassungsvermgen haben. In der folgenden Tabelle werden der Verbrauchersektor dem immer noch existenten Hochpreissektor der Flash-Laufwerke sowie konventionellen Festplatten gegenbergestellt.
60
Solid-State-Drive
61
konventionelle Festplatte max. Kapazitt Betriebstemperatur Schreibzyklen[28] Datenerhalt Flugschreiber-geeignet Sicheres Lschen S.M.A.R.T. 3 TB 5 bis 55C 10 Mrd. (3 Jahre MTBF) keine Angaben nein ja ja
Flash-SSD Kommerziell 2 TB 0 bis 70C 3.000 100.000 / Flashzelle 10 Jahre nein teilweise teilweise
Flash-SSD Industriell >2 TB 40 bis 85C 1 - 5 Mio / Flashzelle (handverlesene Chips) 10 Jahre ja ja ja
Flash-Besonderheiten
Verschlei und Ausfallvorhersage (S.M.A.R.T.)
Konventionelle und Flashfestplatten verschleien mit der Zeit. Whrend sich das bei ersteren aus der Abnutzung der Mechanik ergibt, wirkt bei der Flashtechnik ein elektrischer Effekt begrenzend. Lesevorgnge sind hier zwar unbegrenzt mglich, je nach Qualitt kann eine Flashzelle aber nur zwischen 3.000 (MLC 25nm) und 100.000 (SLC) Schreibvorgnge absolvieren. Danach vergisst sie, was neu geschrieben wird und kann nur noch gelesen werden.[29] Flashspeicher wren so mitunter schon nach wenigen Tagen defekt. Dem wirken seit einigen Jahren Wear-Levelling-Verfahren entgegen. Der Controller im Flashlaufwerk verteilt Schreibvorgnge auf alle Speicherzellen so, dass jede mglichst gleich hufig beschrieben wird. Die dafr verwendeten Algorithmen sind herstellerspezifisch, in jedem Fall aber vom Rest des Computers aus weder sichtbar noch beeinflussbar. Dieses Verteilungsverfahren gibt es in verschiedenen Ausbaustufen. So verwendet eine Flashfestplatte hufig komplexere Controller als ein USB-Stick und sehr wenige Wechseldatentrger auch gar keinen.[30] Hier knnen dann Software-Lsungen wie in Windows Vista oder das Dateisystem JFFS2 unter Linux aushelfen. Je nach Ausbaustufe fhrt das Verfahren zu einer Haltbarkeit, die konventionellen Festplatten nahe kommt oder sie bertrifft.[31] Ein Nebeneffekt aller Verteilungsverfahren ist, dass kein sicheres Lschen mehr mglich ist. Der Hintergrund wird in den Abschnitten Sicheres Lschen und Defragmentierung beschrieben. Eine Ausfallvorhersage wie bei konventionellen Festplatten durch S.M.A.R.T. ist auch bei nahezu allen Flash-SSDs enthalten, wie im verlinkten Absatz beschrieben, allerdings noch nicht mit allen Programmen mglich. Die derzeitige Situation ist durch den Standard selbst begrndet. Er umfasst alleinig die Kommunikation zum Laufwerk, um die S.M.A.R.T.-Werte auszulesen.[32] Ihre Bedeutung und Skalierung sind nicht festgeschrieben. Fr konventionelle Festplatten ist ber die Jahre allerdings ein De-facto-Standard entstanden, der fr Flash-SSDs derzeit schlicht fehlt. Die Prfung konzentriert sich auf die Anzahl der vorgenommenen Lschzyklen und das Vorhandensein gengender Reserveblcke.[33] Wurden hier die vorgesehenen Grenzen bertreten, geht das Laufwerk sicherheitshalber in einen Nur-Lese-Modus ber. Da bei guten Wear-Levelling-Verfahren alle normalen Sektoren zu hnlicher Zeit abgenutzt sind, ist ein Ausfall nach der Verwendung erster Reservesektoren vermutlich nahe.
Solid-State-Drive Methoden der Nutzungsverteilung Dateien werden immer als Bitfolge geschrieben. Heute enthalten MLC-Flashzellen jeweils 4 Bits und sind zu sogenannten Pages mit je 4096 Byte Gre zusammengefasst.[34] Angesprochen werden vom Controller immer ganze Pages. Beim Lesen einzeln, beim Schreiben werden sie abermals zusammengefasst zu einem Erasable Block. Dieser enthlt 64 oder 128 Pages und ist somit 256 oder 512 KB gro. Bei jeder nderung in einer seiner Pages wird diese zunchst nicht gelscht, sondern als unaktuell markiert. Geschrieben wird in die nchste freie Page desselben Erasable Block. Erst, wenn alle seine Pages unaktuell sind, wird er einmal komplett gelscht. Somit mssen bei jedem genderten Byte die bisherige Page mit der vorzunehmenden nderung in die nchsten kopiert werden. Das lsst die zu schreibenden Daten von wenigen genderten Byte auf mehrere Kilobyte ansteigen. Diese Vervielfachung wird daher auch als Write Amplification bezeichnet. Damit entstnde eine inakzeptable Haltbarkeit. Im folgenden Beispiel wird eine Textdatei viermal berarbeitet und gespeichert. Schreibvorgang Block Page 1 Page 2 Page 3 Page 5 Page 6 Ein Erasable Block Datei.txt unaktuell unaktuell lschen Datei.txt leer leer leer ... Datei.txt leer leer ... unaktuell lschen Datei.txt leer ... lschen leer ... leer leer leer ... ... ... ... ... ... 1 2 3 4 weiter wie 2
62
umfasst hier der bersicht wegen nur drei Pages. Jede Page umfasst 2 oder 4KB.
Dynamic Wear Levelling Soll ein Erasable Block beschrieben werden, wird hier von den noch nicht belegten der am wenigsten abgenutzte ausgewhlt. Das ist vergleichsweise einfach im Controller umzusetzen, hat aber den Nachteil, dass bei gut geflltem Laufwerk der wenige freie Platz schneller abgenutzt wird. Die Schreibzyklen steigen um den Faktor 25 gegenber fehlendem Wear-Levelling. Static Wear Levelling Soll ein Erasable Block beschrieben werden, wird hier der am wenigsten abgenutzte ausgewhlt. Ist dieser schon belegt, werden dessen Daten auf einen anderen umverlagert, dann die neuen Daten geschrieben. Das erfordert einen etwas komplexeren Controller, fhrt aber zu sehr gleichmiger Abnutzung. Die Schreibzyklen steigen um den Faktor 100 gegenber fehlendem Wear-Levelling. Defekte Blcke Scheitert ein Schreibversuch auf einen Block, wird dieser wie bei konventionellen Festplatten als nicht mehr benutzbar markiert und ein Reserveblock aktiviert.
Solid-State-Drive
63
Sicheres Lschen
Gewhnliche Betriebssysteme lschen nicht den Dateiinhalt selbst, sondern entfernen lediglich den Eintrag im Inhaltsverzeichnis des Dateisystems. Das beschleunigt den Lschvorgang, ermglicht aber auch eine Wiederherstellung der Datei. Um dies (und damit Spionage) zu verhindern, gibt es Programme, welche die Dateien tatschlich komplett lschen sollen. Dazu weisen diese Programme an, alle zur Datei gehrenden Sektoren mehrfach ggf. mit Zufallsdaten zu berschreiben. Festplatten knnen so sicher gelscht werden. Die von Flashspeichern nach auen kommunizierten Sektoren haben aber nichts mehr mit den tatschlichen Speicherorten zu tun.[22] Das liegt an ihrer Nutzungsverteilung, welche Schreibvorgnge auf die bisher am wenigsten benutzten Blcke leitet, welche hchstens zufllig die sind, in denen die Datei steht. Deren Inhalt bliebe somit bestehen, whrend die berschreibversuche an anderer Stelle gespeichert wrden. Nach auen bleiben die vom Programm adressierten Sektoren stimmig: Liest man sie aus, erhielte man die neuen Daten. Die Umverteilung geschieht unmerklich fr das Betriebssystem und darauf laufende Programme im SSD-Controllerchip. Die Umverteilung findet umso mehr statt, je mehr nach dem letzten Formatieren nicht beschriebene, oder durch TRIM wieder freigegebene Sektoren auf dem Laufwerk vorhanden sind ein gut geflltes Laufwerk ist so betrachtet ein sichereres. Um dieses Sicherheitsleck zu nutzen und auf die nicht wirklich gelschte Datei zugreifen zu knnen, msste aber eine Firmware programmiert und installiert werden, die alle Blcke auslesen kann. Mit Installation dieser wrde jedoch wahrscheinlich die Information zur bisherigen Nutzungsverteilung verloren gehen. Somit fehlte das Wissen, welche Blcke zu einer durch scheinbares berschreiben gelschten Datei in welcher Reihenfolge gehren. Kryptographiehersteller warnen trotzdem vor dem Einsatz von SSDs, da zumindest Schlssel auffindbar sein knnten. Behebbar ist das Problem erst durch einen Controller, der auf Wunsch vorbergehend die Nutzungsverteilung abschalten kann und so ein Secure Erase ermglicht. Entsprechende Laufwerke sind aber nur im Hochpreissegment zu finden, etwa von M-Systems. Diese enthalten dann auch Lschalgorithmen nach US-Airforce- oder Navy-Standard. Fr den Heimgebrauch gibt es keine vollstndige Lschmglichkeit. Das liegt am nicht ansprechbaren Reservespeicher (Spare Area)[37] der SSDs, welcher nur dem Controller zugnglich ist. Jener Bereich dient sowohl als Ruheplatz der abgenutztesten Sektoren, als auch der Geschwindigkeitssteigerung. Das berschreiben aller ohne Firmwaremodifikation erreichbaren Sektoren leistet ab Windows XP etwa DiskBench.[38] Es beschreibt das formatierte Laufwerk einmal vollstndig mit Dateien zuflligen Inhalts. Erst durch ein vorhandenes Dateisystem wird tatschlich jeder Sektor einmal berschrieben, auch die bislang am meisten abgenutzten. Ohne Formatierung wrde das sektorweise Schreiben nur die bislang am wenigsten benutzten Sektoren umfassen. Nicht berschrieben wird neben dem Reservebereich auch das Inhaltsverzeichnis des Dateisystems, das alle Datei- und Verzeichnisnamen enthlt.
Solid-State-Drive
64
Defragmentierung
Eine Defragmentierung ist aufgrund der marginalen Lesezugriffszeiten nicht ntig. In Bezug auf die Schreibleistung differieren die Herstellerangaben jedoch. So warnt OCZ die Nutzer seiner MLC-basierten Core-Serie vor dem Defragmentieren,[39] whrend MTron fr seine SLC-basierten Produkte ein Defragmentieren sogar empfiehlt.[40] Kingston hingegen rt stets vom Defragmentieren ab ganz gleich, ob fr das SLC- oder MLC-Format.[41]
Solid-State-Drive
65
Controller Indilinx Barefoot und ECO Intel X-25M G1 Intel X-25M G2 [47] Samsung RBB SandForce SF-1x00 Toshiba Daikoku 2 [48]
Garbage Collection [46] ab Version 1916 immer enthalten immer enthalten ab 1901Q / 19C1Q immer enthalten immer enthalten
TRIM-Untersttzung ab Version 1819 nicht verfgbar ab Version 02HD ab 1901Q / 19C1Q immer enthalten immer enthalten
[49]
Die Funktionsweise der Garbage Collection wird von den Herstellern nicht verffentlicht, funktioniert aber wahrscheinlich ber die Nutzung der Reservesektoren in einem Laufwerk. (Deren Zahl gibt der Overprovisioning Factor an, liegt er bei 1,1, verfgt das Laufwerk ber 10Prozent davon. Dieser Bereich wird auch als Spare Area bezeichnet.) Das Laufwerk selbst kann nicht wissen, welche Sektoren zum berschreiben freigestellte Daten beinhalten. Das erfhrt es aber, wenn Sektoren berschrieben werden sollen: deren bisheriger Inhalt ist offensichtlich freigestellt. Daher leitet es die neuen Daten in die leeren Reservesektoren um. Das ist schnell und der Controller wei nun, dass die ursprnglich angesteuerten Sektoren wirklich nicht mehr gebraucht werden. Diese lscht er nun im Leerlauf, wodurch sie frei werden. Diese Vorgehensweise behebt nicht die Ursache des Problems, groenteils aber dessen Auswirkungen.[50] Zum Lschen der Sektoren bentigt das Laufwerk jedoch Leerlaufzeit. Laufwerke ohne automatische Garbage Collection oder TRIM-Untersttzung sind nur durch Programme wie Secure Erase[51] auf die Werksperformance rcksetzbar. Dabei wird das Dateisystem gelscht, was somit auch alle von ihm freigestellten, aber noch alte Dateien beinhaltenden Blcke freigibt.
Solid-State-Drive Smtliche sequenziellen Schreib- und alle Lesezugriffe sind vom Alignment nicht betroffen. Um eine Partition an den Grenzen der Erasable Blocks auszurichten, wre die Blockgre in Erfahrung zu bringen. Software kann diese jedoch nicht auslesen. Alle seit 2009 gngigen MLC-Laufwerke verwenden jedoch durchgngig Gren von 512 KB. Ein manuelles Nachmessen[53] ist daher selten ntig. Die Angabe zum Alignment im AS-SSD-Benchmark[54] wird anhand der verwendeten Zuordnungseinheit durchgefhrt. Wenn das Programm Alignment als "OK" ansieht, heit es nicht, dass die Partition direkt an der Grenze des Erasable-Blocks ausgerichtet ist, sondern dass sich keine Zuordnungseinheit des Dateisystems gleichzeitig in zwei Blcken befindet. Da der erste Erase-Block immer bei 0byte anfngt, reicht es aus, wenn die Startposition jeder Partition durch die Clustergre (typischerweise 4096 Byte) teilbar ist. Im Zweifel kann auch direkt ein grerer Wert verwendet werden. Dem folgend verwenden Windows Vista und 7 gleich eine Ausrichtung an 1024 KB (1 MB). Dieser Wert ist durch alle aktuellen Erasable Blockgren ohne Rest teilbar und bewirkt demnach fr jede SSD eine korrekte Ausrichtung. Linux-Nutzer mssen zur Ausrichtung verschiedene Faktoren bercksichtigen,[55] Nutzer vergangener Windows-Versionen knnen entweder mit den Installations/Recovery-CDs von Vista und 7 eine vorbereitete Partition einrichten, oder diese per Bordwerkzeug selbst erstellen.[56] Ohne manuelles Vorgehen starten die lteren Windowsversionen Partitionen bei 32 KB, und damit nicht an den gngigen Erasable Blocks ausgerichtet. Das Offset bestehender Partitionen ist in Windows auf der Eingabeaufforderung mit dem Diskpart-Befehl "list partition" nach Auswahl der SSD mit "select disk <Nummer>" ersichtlich. Die Nummer ist anhand der Datentrgergre mittels "list disk" bestimmbar. Die Angabe hier ist allerdings ungenau, da sie auf ganze KB gerundet wird. Besser ist es daher, zunchst "select partition <nummer>" und danach "detail partition" aufzurufen. Alternativ findet sich die gleiche Information auch mittels msinfo32 bei Systembersicht\Komponenten\Speicher\Datentrger als Partitionstartoffset.
66
Solid-State-Drives im Vergleich
Im Folgenden sind die derzeit aktuellen Verfahren zum Vergleich aufgefhrt, der high-end-Sektor der Solid-State-Drives im Serverbereich bleibt dabei unbercksichtigt. Ein Video-Vergleich ist ebenfalls verfgbar.[57] MLC-NAND-Flash-Laufwerk CompactFlash-Karte 1,0 bis 3,5 Gre Preis pro GB (Stand Feb 2011) Anschluss Lesen (kein RAID) Schreiben (kein RAID) Mittlere Zugriffszeit lesen bis 512 GB ab ca. 1,30 [62] per ATA-Adapter bis 128 GB[58] [59] [60]
[61]
RAM-Disk als Teil des Arbeitsspeichers bis 16 GB je Modul ab ca. 7,00 [64]
0,8 ms
Solid-State-Drive
Mittlere Zugriffszeit schreiben berschreibbar Lagerbar bei stofest Betrieb[67] stofest Lagerung Verbrauch Ruhe Verbrauch Zugriff Verhalten beim PC-Ausschalten
3 bis 10 Tausend Mal (MLC) 4085C 2000 g 2000 g 0,0003 W 0,25 W problemlos
beliebig
beliebig
2585C ? ? 1 W pro SDRAM-Modul 8 W pro SDRAM-Modul Datenverlust; manche Software sichert auf Festplatte Datenverlust ja Gre abhngig von Hauptplatine oder zustzlicher Adapter ntig, nicht bootfhig
Die in der Tabelle angegebenen Werte sind in der Regel Bestwerte. Insbesondere die Geschwindigkeiten knnen je nach Modell auch deutlich niedriger liegen. Bei Betriebssystem-, Programmstarts und wo immer Zugriffszeiten eine Rolle spielen, sind diese Solid-State-Verfahren den Festplatten berlegen. Prinzipbedingt gelingt es ihnen, die obigen Geschwindigkeiten bei zufllig verteilten Zugriffen aufrecht zu erhalten. Fr die CompactFlash-Variante ergibt sich eine weitere Anwendungsmglichkeit. Dank Adaptern, die als Slotblende befestigt werden, kann die CF-Karte von auen ausgetauscht werden die Verkabelung bleibt im Gehuse. Da der Adapter auerdem weder PCI- noch andere Kontaktleisten hat, kann er ganz nach Platzangebot eingebaut werden. Das ist ein Unikum dieser Solid-State-Variante und ermglicht so Anwendungen, Benutzer oder Betriebssysteme sauber und sicher voneinander zu trennen. Denn so kann jeder Benutzer seine bevorzugte Betriebssystem- und Arbeitsumgebung mitbringen, wobei er gleichzeitig keinerlei Daten im PC hinterlsst, da er die Festplatte einfach mitnimmt. Zustzlich sind CompactFlash-Karten viel robuster und handlicher als ihre Vorfahren, die Festplatten im Wechselrahmen.[68] Die CompactFlash-Spezifikation sieht dabei fr alle UDMA-Modi 80-adrige Kabel, sowie ab UDMA-5 nur ein Gert bei maximal 15 cm Datenkabellnge vor.[69]
Solid-State-Drive
68
Weblinks
SSD Myths and Legends write endurance [70] (engl.) Computerwoche Grundsatzartikel: Was Sie schon immer ber Solid State Drives wissen wollten [71] Imation Whitepaper: Data Reliability and Lifetime [72] (englischsprachiges PDF; 439kB) Was sind Solid State Drives (SSD)? [73] Anschauliche Darstellung der SSD-Technologie Entwicklungspotentiale der SSDs [74] Fallstudie der Fachhochschule fr konomie & Management (FOM) Hamburg / Essen zum Thema Solid-State-Drives Controllers in a Flash [75] Beschreibung der Controller-Funktionen in einem SSD-System inkl. Wear-Levelling, Bad Block Management. Logical-to-Physical Mapping uvm. (engl.; PDF-Datei; 2,17MB) Windows 7: SSD Optimierungen und FAQs [76] Grundlagenartikel zum Thema Windows 7 und SSDs MLC SSDs: Technik und Produkte [77] Allgemeiner Artikel zu MLC SSDs mit 9 SSDs im Vergleich SSD-Guide fr den Client/Enterprise-Sektor [78] Fachartikel zur SSD-Technik.
Einzelnachweise
[1] StorageTek Forum 2004 conference guide. (http:/ / www. ampersand-graphix. com/ pdf/ publications/ publication-2. pdf) Thirty-Five Years of Innovation. StorageTek, Oktober 2004, S. 6, abgerufen am 17.Oktober 2010 (PDF, englisch). [2] http:/ / www. tomshardware. com/ de/ FusionIO-ioDrive-Flash-IBM,testberichte-240265-6. html fusion io Leistung im Vergleich zu normalen SLC-Flash-SSDs. [3] Peter Grber: SSD-Markt wird bis 2012 kaum wachsen. (http:/ / ht4u. net/ news/ 22012_ssd-markt_wird_bis_2012_kaum_wachsen/ ) In: Hard Tecs 4U. 22.April 2010, abgerufen am 17.Oktober 2010. [4] Bestandteile einer Hybridfestplatte (http:/ / news. com. com/ 2300-1016_3-6076550. html) [5] DTS Platinum HDD (http:/ / www. platinumhdd. com/ ) [6] Intel Turbo Memory (http:/ / www. intel. com/ design/ flash/ nand/ turbomemory/ index. htm) [7] Beschleunigt Turbo Memory wirklich? (http:/ / www. anandtech. com/ showdoc. aspx?i=3009& p=1) [8] HHD-Serie Samsung (http:/ / www. samsung. com/ Products/ HardDiskDrive/ HybridHDD_Flashon/ index. asp) [9] HHD-Serie Seagate (http:/ / www. seagate. com/ www/ en-us/ products/ laptops/ momentus/ momentus_5400_psd_hybrid/ ) [10] Hybrid Storage Alliance (http:/ / www. hybridstorage. org/ index. html) [11] Was bringen Hybridfestplatten? (http:/ / www. tomshardware. com/ de/ Hybrid-Festplatte-Samsung-Spinpoint-MH80-HM16HJI,testberichte-239762-11. html) Tomshardware.de [12] Was bringen Hybridfestplatten? (http:/ / www. pcwelt. de/ start/ mobility_handy_pda/ notebook/ praxis/ 139183/ index3. html) PCWelt.de [13] Intel Turbo Memory 2.0 (http:/ / www. computerbase. de/ news/ hardware/ komplettsysteme/ notebooks/ 2008/ februar/ intel_montevina_centrino_2/ ) [14] Was bringt ReadyBoost? (http:/ / www. computerbase. de/ artikel/ hardware/ peripherie/ 2007/ test_7_usb-sticks_windows_readyboost/ 13/ #abschnitt_programmladezeiten) Computerbase.de [15] eBoostr ReadyBoost-Alternative fr Windows XP (http:/ / www. eboostr. com) [16] FC-Test continued (http:/ / techreport. com/ articles. x/ 15433/ 7) [17] Reale Schreibgeschwindigkeit schneller Festplatten und SSDs von 2010 (http:/ / www. computerbase. de/ artikel/ laufwerke/ 2010/ test_supertalent_teradrive_ft_ssd/ 7/ #abschnitt_kopiertests) [18] Anandtech: Multitasking (http:/ / www. anandtech. com/ cpuchipsets/ intel/ showdoc. aspx?i=3403& p=15) [19] Im Inneren der X25-M SSD: 10-Kanal Flash (http:/ / www. tomshardware. com/ de/ X25-M-Intel,testberichte-240143-4. html) [20] Patent DE10349595 (http:/ / v3. espacenet. com/ publicationDetails/ biblio?locale=de_EP& CC=DE& NR=10349595): Verfahren zum Schreiben von Speichersektoren in einem blockweise lschbaren Speicher. [21] Patent EP1514171 (http:/ / v3. espacenet. com/ publicationDetails/ biblio?locale=de_EP& CC=EP& NR=1514171): Verfahren zur Wiederherstellung von Verwaltungsdatenstzen eines blockweise lschbaren Speichers. [22] Patent DE102005001038 (http:/ / v3. espacenet. com/ publicationDetails/ biblio?locale=de_EP& CC=DE& NR=102005001038): Verfahren zur Umsetzung von logischen in reale Blockadressen in Flashspeichern. [23] SSD-Cachegestaltung (http:/ / www. anandtech. com/ cpuchipsets/ intel/ showdoc. aspx?i=3403& p=10) [24] http:/ / www. anandtech. com/ storage/ showdoc. aspx?i=3531& p=17 Zu leistungsarme erste MLC-Laufwerke [25] berblick zu Preisen aktueller Flash-SSD im Computerbase-Forum (http:/ / www. computerbase. de/ forum/ showthread. php?t=602017) [26] Eine bersicht der fr Privatpersonen verfgbaren Modelle und deren Preise und Preisentwicklungen findet sich im heise Preisvergleich (http:/ / www. heise. de/ preisvergleich/ ?cat=hdssd) [27] Nchste Preissenkungsrunde bei Flash-SSDs mit Umstellung auf 25nm zu erwarten (http:/ / www. anandtech. com/ show/ 2928) [28] Schreibzyklen SLC und MLC - Absatz How long have you got before the disk is trashed? (http:/ / www. storagesearch. com/ ssdmyths-endurance. html)
Solid-State-Drive
[29] Longevity/Lifespan of a flash cell (http:/ / www. bitmicro. com/ press_resources_flash_ssd. php) [30] Verfahren zur Nutzungsverteilung. (http:/ / www. siliconsystems. com/ silicondrive/ whitepapers/ SSWP03-Endurance-R. pdf) Format: PDF, 0.8MB [31] c't Test zur Haltbarkeit von Flashzellen (Absatz Halbwertszeit) (http:/ / www. heise. de/ ct/ 06/ 23/ 136/ ) [32] http:/ / www. t13. org/ Documents/ UploadedDocuments/ docs2008/ D1699r6a-ATA8-ACS. pdf Letzter Entwurf des aktuell gltigen Standards, die S.M.A.R.T.-Attribute fehlen weiterhin [33] S.M.A.R.T.-Funktionen einer SSD beispielhaft (http:/ / www. stec-inc. com/ downloads/ flash_datasheets/ Zeus_2_5_SATA_SSD_Product_Datasheet_Rev1-5. pdf) (S.31). Format: PDF, 0.5MB. [34] http:/ / www. anandtech. com/ show/ 2738/ 5 SSD Page und Erasable Block Gre [35] http:/ / blogs. msdn. com/ e7/ archive/ 2009/ 05/ 05/ support-and-q-a-for-solid-state-drives-and. aspx Eignung von Flash-SSDs fr die Auslagerungsdatei [36] Ein berblick zur Leistungsfhigkeit aktueller MLC-Laufwerke im Computerbase-Forum (http:/ / www. computerbase. de/ forum/ showpost. php?s=a9a752c065e83c816d75a30bb92590b5& p=6238435& postcount=2) [37] Reservebereich einer SSD ist nicht berschreibbarer Speicher (http:/ / www. anandtech. com/ show/ 2829/ 7) [38] DiskBench Flashmedien hinreichend sicher lschen (http:/ / nodesoft. com/ DiskBench/ Default. aspx) [39] Defragmentierung Herstellermeinung OCZ Core Series (http:/ / www. ocztechnology. com/ products/ flash_drives/ ocz_core_series_v2_sata_ii_2_5-ssd) [40] Defragmentierung Herstellermeinung MTron (http:/ / www. mtron. net/ English/ Customer/ faq. asp?sid=faq& xact=view& idx=313& page=1& sp1=& ss1=& ss2=& ob=& sb=& category=f03) [41] FAQ for SSDNow (http:/ / www. kingston. com/ support/ ssdnow/ faq/ faq_005642-3. asp) (englisch) Eintrag bei der Kingston Technology Company; Stand: 20.April 2010 [42] http:/ / www. anandtech. com/ storage/ showdoc. aspx?i=3531& p=13 [43] http:/ / www. computerbase. de/ artikel/ laufwerke/ 2010/ test_ssds_corsair_supertalent_intel/ 7/ TRIM bringt keinen mebaren Vorteil bei aktuellen Laufwerken. [44] http:/ / www. anandtech. com/ storage/ showdoc. aspx?i=3531& p=10 [45] http:/ / crystalmark. info/ software/ CrystalDiskInfo/ index-e. html Anzeigen der Trim-Untersttzung [46] http:/ / www. hardwareluxx. de/ community/ f227/ indilinx-barefoot-und-eco-faq-679488. html#post13729487 Firmware Indilinx Changelog [47] http:/ / www. samsung. com/ global/ business/ semiconductor/ products/ flash/ ssd/ 2008/ business/ business. html Firmware Samsung [48] SandForce Recycler fr die Garbage Collection (http:/ / www. sandforce. com/ index. php?id=146& parentId=34) [49] Toshiba Daikoku 2 berprfung der Garbage Collection und TRIM (http:/ / www. computerbase. de/ artikel/ laufwerke/ 2010/ test_preiswerte_ssds/ ) [50] http:/ / hothardware. com/ News/ OCZ-and-Indilinx-Collaborate-On-New-SSD-Garbage-Collection-Scheme Effekt der Garbage Collection [51] http:/ / cmrr. ucsd. edu/ people/ Hughes/ SecureErase. shtml Secure Erase zum Wiederherstellen der Werksperformance bei nicht vorhandener Garbage Collection unter Datenverlust [52] http:/ / www. anandtech. com/ show/ 3681/ oczs-vertex-2-special-sauce-sf1200-reviewed/ 6 Effekt von nicht an Erasable Blocks ausgerichteten (unaligned) Partitionen [53] http:/ / www. hardwareluxx. de/ community/ f227/ os-optimierungen-fuer-flash-ssds-543445-4. html#post11066540 Manuelle Ermittlung der Erasable Block-Gre [54] http:/ / www. alex-is. de/ PHP/ fusion/ downloads. php?cat_id=4 AS SSD Benchmark [55] http:/ / forum. corsair. com/ forums/ showpost. php?p=448636& postcount=5 Linux und die Ausrichtung von Partitionen an Erasable Blocks [56] http:/ / www. chip. de/ artikel/ SSD-So-haelt-die-Hightech-Festplatte-8x-laenger-5_37897062. html Windows XP/Server 2003 Anleitung zum Ausrichten von Partitionen an Erasable Blocks (anstelle des Wertes "64" ist "1024" fr 1 MB Offset zu empfehlen. [57] Vergleich typischer PC-Anwendungsflle zwischen Flash-SSD und schneller, konventioneller Festplatte. (http:/ / www. youtube. com/ watch?v=Lyz1xDe3xO8) Format: Flash, 24MB [58] http:/ / www. allround-pc. com/ news/ hardware/ 2011/ januar/ compactflash-karte-mit-bis-zu-100-mbs-vorgestellt [59] http:/ / www. computerbild. de/ artikel/ cb-News-Foto-Schnelle-Compact-Flash-Karte-Sandisk-5888462. html [60] http:/ / www. chip. de/ news/ Sandisk-Extrem-schnelle-und-teure-CF-Karte_46688559. html [61] http:/ / www. digiklix. de/ 2011/ 01/ 11/ schnellste-compactflash-karte-der-welt-von-sandisk-sandisk-extreme-pro-compactflash-karte-mit-128gb/ [62] http:/ / geizhals. at/ deutschland/ ?cat=hdssd& sort=r [63] http:/ / geizhals. at/ deutschland/ ?cat=sm_cf& sort=r [64] http:/ / geizhals. at/ deutschland/ ?cat=ramddr3& sort=r [65] http:/ / geizhals. at/ deutschland/ ?cat=hde7s& sort=r [66] http:/ / geizhals. at/ deutschland/ a604914. html [67] Die Steckverbindungen halten lediglich bis zu 30 g stand; Technische Spezifikation von 184-pin DIMM-Sockeln (http:/ / www. molex. com/ pdm_docs/ ps/ PS-87693-002. pdf) (PDF-Datei, 90kB), Technische Spezifikation von SATA-Steckern (http:/ / www. molex. com/ pdm_docs/ ps/ PS-78109-001. pdf) (PDF-Datei, 167kB) [68] Diskussion und Tests zu CF-Karten als Festplattenersatz (http:/ / forum. notebookreview. com/ showthread. php?t=219225) (engl.) [69] Vorgaben fr die Verwendung schneller CompactFlash-Karten (http:/ / www. hjreggel. net/ cardspeed/ cs_udmacf_de. html#notes)
69
Solid-State-Drive
[70] http:/ / www. storagesearch. com/ ssdmyths-endurance. html [71] http:/ / www. computerwoche. de/ knowledge_center/ notebook_pc/ 1866333/ [72] http:/ / www. imation. com/ PageFiles/ 83/ SSD-Reliability-Lifetime-White-Paper. pdf [73] http:/ / www. ssd-test. de/ was-ist-ssd-solid-state. html [74] http:/ / winfwiki. wi-fom. de/ index. php/ Entwicklungspotenziale_der_Solid_State_Drives [75] http:/ / www. hyperstone. com/ download. php?system_id=31775& src=portal%2Fdownloadcenter%2Fdateien%2Fpress_releases_all%2F071126_ee_times_controller_flash_solid_state_disk_. pdf [76] http:/ / www. pc-experience. de/ wbb2/ thread. php?threadid=30040/ [77] http:/ / www. pc-max. de/ artikel/ festplatten/ 9-solid-state-drives-ab-60gb-im-vergleich/ [78] http:/ / ssdfestplatte. de/ news/ ssd-guide-fur-clients-und-enterprises
70
Hexadezimalsystem
Hexadezimalziffern, binr und dezimal:
Hex. Dualsystem Dez.
0 1 2 3
0 0 0 0 0 0 0 1 0 0 1 0 0 0 1 1
00 01 02 03
4 5 6 7
0 1 0 0 0 1 0 1 0 1 1 0 0 1 1 1
04 05 06 07
8 9 A B
1 0 0 0 1 0 0 1 1 0 1 0 1 0 1 1
08 09 10 11
C D E F
1 1 0 0 1 1 0 1 1 1 1 0 1 1 1 1
12 13 14 15
Im Hexadezimalsystem (lat.-griech. Mischwort) werden Zahlen in einem Stellenwertsystem zur Basis 16 dargestellt. Alternative Bezeichnungen fr hexadezimal (von griech. hexa und lat. decem) sind hexadekadisch (Griechisch) und sedezimal (Latein). (Falsch hingegen ist der Ausdruck hexagesimal, der synonym zu sexagesimal ist und das Zahlensystem zur Basis 60 bezeichnet.)
Hexadezimalsystem In der Datenverarbeitung wird das Hexadezimalsystem sehr oft verwendet, da es sich hierbei letztlich nur um eine komfortablere Verwaltung des Binrsystems handelt. Die Datenworte bestehen in der Informatik meist aus Oktetten, die statt als achtstellige Binrzahlen auch als nur zweistellige Hexadezimalzahlen dargestellt werden knnen. Im Gegensatz zum Dezimalsystem eignet sich das Hexadezimalsystem mit seiner Basis als vierte Zweierpotenz ( ) zur einfacheren Notation der Binrzahlen, da stets eine feste Anzahl Zeichen zur Wiedergabe des Datenwortes bentigt wird. In den 1960er und 1970er Jahren wurde in der Informatik hufig auch das Oktalsystem mit seiner Basis als dritte Zweierpotenz ( ) verwendet, da es mit den blichen Ziffern von 0 bis 7 auskommt. Heute gilt es wegen seiner Einbindung von nur jeweils drei Bits als berholt. Wir sind es gewhnt, im Dezimalsystem zu rechnen. Das bedeutet, unser indo-arabisches Zahlensystem verwendet zehn Symbole zur Notation der Ziffern (0 bis 9). Das Hexadezimalsystem enthlt dagegen sechzehn Ziffern. Seit Mitte der 1950er Jahre werden zur Darstellung der sechs zustzlichen Ziffern die Buchstaben A bis F oder a bis f als Zahlzeichen verwendet. Dies geht auf die damalige Praxis der IBM-Informatiker zurck.
71
Zhlen im Hexadezimalsystem
Gezhlt wird wie folgt:
0 10 20 ... F0 ... FF0 ... 1 11 21 ... F1 ... FF1 ... 2 12 22 ... F2 ... FF2 ... 3 13 23 ... F3 ... FF3 ... 4 14 24 ... F4 ... FF4 ... 5 15 25 ... F5 ... FF5 ... 6 16 26 ... F6 ... FF6 ... 7 17 27 ... F7 ... FF7 ... 8 18 28 ... F8 ... FF8 ... 9 19 29 ... F9 ... FF9 ... A 1A 2A ... FA ... FFA ... B 1B 2B ... FB ... FFB ... C 1C 2C ... FC ... FFC ... D 1D 2D ... FD ... FFD ... E 1E 2E ... FE ... FFE ... F 1F 2F ... FF ... FFF ...
FFF0 FFF1 FFF2 FFF3 FFF4 FFF5 FFF6 FFF7 FFF8 FFF9 FFFA FFFB FFFC FFFD FFFE FFFF ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ...
Fr die hexadezimalen Ziffern und Zahlen sind keine eigenstndigen Namen gebruchlich. Hexadezimalzahlen werden daher Ziffer fr Ziffer gelesen.
72
Hexadezimalbrche
Da das Hexadezimalsystem ein Stellenwertsystem ist, haben die Stellen nach dem Komma (das auch hier manchmal als Beistrich, manchmal als Punkt geschrieben wird) den Stellenwert , wobei die dezimale Basis16 und
die Position der jeweiligen Nachkommastelle ist. Die erste Nachkommastelle (n=1) hat damit den Stellenwert , die zweite Nachkommastelle (n=2) hat den Stellenwert (n=3) hat den Wert und so weiter. , die dritte Nachkommastelle
Da die Zahl16 nur ber den einzigen Primfaktor2 verfgt, sind Perioden eher die Regel:
= 1 = 0,316 = 0,2A16 = 0,24916 = 0,216 = 0,1C716 = 0,1916 = 0,1745D16 = 0,1516 = 0,13B16 = 0,124916 = 0,116 = 0,116
Anwendung
Informatik
Das Hexadezimalsystem eignet sich sehr gut, um Folgen von Bits (verwendet in der Digitaltechnik) darzustellen. Vier Stellen einer Bitfolge (ein Nibble, auch Tetrade) werden wie eine Dualzahl interpretiert und entsprechen so einer Ziffer des Hexadezimalsystems, da 16 die vierte Potenz von 2 ist. Die Hexadezimaldarstellung der Bitfolgen ist leichter zu lesen und schneller zu schreiben: Binr 1111 1.1111 11.0111.1100.0101 1010.1100.1010.1011 1.0000.0000.0000.0000 1010.1111.1111.1110.0000.1000.0001.0101 Hexadezimal F 1F 37C5 ACAB 1.0000 AFFE.0815 Dezimal 15 31 14.277 44.203 65.536 2.952.661.013
= = = = = =
= = = = = =
Hexadezimalsystem
73
Mathematik
Seit die Bailey-Borwein-Plouffe-Formel zur Berechnung von im Jahr 1995 entwickelt wurde, ist das Hexadezimalsystem auch jenseits der Informatik von Bedeutung. Diese Summenformel kann jede beliebige Hexadezimalstelle von berechnen, ohne die vorhergehenden Stellen dafr zu brauchen.
Hexadezimalsystem
74
Formuliert im Hexadezimalsystem:
Weblinks
Online-Umrechner [1] fr verschiedene Zahlensysteme Zahlensysteme im Vergleich [2] SPIEGEL ONLINE mit einem historischen mechanischen Taschenrechner fr das Hexadezimalsystem [3]
Referenzen
[1] http:/ / www. arndt-bruenner. de/ mathe/ scripts/ Zahlensysteme. htm [2] http:/ / www. brefeld. homepage. t-online. de/ zahlensysteme. html [3] http:/ / einestages. spiegel. de/ external/ ShowTopicAlbumBackground/ a3327/ l26/ l0/ F. html#featuredEntry
75
Subnetze - Subnetting
Subnetz
Als Subnetz wird ein Teilnetz eines Netzwerkes beim Internetprotokoll (IP) bezeichnet. Es fasst mehrere aufeinanderfolgende IP-Adressen mittels einer Subnetzmaske, im Falle von IPv6 spricht man von der Prfixlnge, an binren Grenzen unter einem gemeinsamen Prfix zusammen, das den vorderen Teil aller im Subnetz befindlichen Adressen ausmacht. Ein Schema zur Unterteilung von Netzen wurde 1985 eingefhrt und 1992 im RFC 950 erstmals standardisiert, 1993 folgte das heute benutzte Verfahren namens Classless Inter-Domain Routing. Subnetze als Darstellung von IP-Netzen werden in Routingtabellen und Filterdefinitionen sowohl in Routingprotokollen als auch in Paketfiltern benutzt. Durch Routing zwischen Teilnetzen wird das Internet strukturiert. In administrativ eigenstndigen Bereichen, sogenannten autonomen Systemen, werden immer ein oder mehrere Subnetze verwaltet, welche wiederum in kleinere Subnetze unterteilt werden knnen.
Funktionsweise
Die Abtrennung des vom Subnetz erfassten Bereichs erfolgt mittels bitweiser Maskierung eines bestimmten Teils der IP-Adresse durch die Subnetzmaske. Dadurch erhlt man aus einer beliebigen Adresse das Subnetz, zu dem die Adresse unter Annahme dieser Maske gehrt. Beispiele fr IPv4: dezimal Adresse 192.168. 1. 23 Maske 255.255.255. 0 nach logischem Und: Netzadresse 192.168. 1. 0 Adresse 192.168. 1. 23 Maske 255.255.252. 0 nach logischem Und: Netzadresse 192.168. 0. 0 Adresse 192.168. 2. 34 Maske 255.255.255. 0 nach logischem Und: Netzadresse 192.168. 2. 0 Adresse 192.168. 2. 34 Maske 255.255.252. 0 nach logischem Und: Netzadresse 192.168. 0. 0 binr 1100'0000 1010'1000 0000'0001 0001'0111 1111'1111 1111'1111 1111'1111 0000'0000 1100'0000 1010'1000 0000'0001 0000'0000 1100'0000 1010'1000 0000'0001 0001'0111 1111'1111 1111'1111 1111'1100 0000'0000 1100'0000 1010'1000 0000'0000 0000'0000 1100'0000 1010'1000 0000'0010 0010'0010 1111'1111 1111'1111 1111'1111 0000'0000 1100'0000 1010'1000 0000'0010 0000'0000 1100'0000 1010'1000 0000'0010 0010'0010 1111'1111 1111'1111 1111'1100 0000'0000 1100'0000 1010'1000 0000'0000 0000'0000
Die beiden Adressen 192.168.1.23 und 192.168.2.34 gehren also unter Annahme einer Subnetzmaske von 255.255.252.0 zum selben Subnetz (192.168.0.0), unter Annahme einer Subnetzmaske von 255.255.255.0 jedoch
Subnetz nicht (192.168.1.0 vs. 192.168.2.0). Es ist also wichtig, immer die korrekte Subnetzmaske im Hinterkopf zu behalten. Es zeigt sich, dass zum selben Subnetz jeweils die Adressen gehren, die sich nur in den binren Stellen unterscheiden, die in der Subnetzmaske Null sind. Damit unterteilt sich die Adresse in einen festen und einen variablen Ziffernteil. Beispiel:
Subnetz Maske 192.168.0.0 255.255.252.0 in Binr: 1100'0000 1010'1000 0000'00|00 0000'0000 in Binr: 1111'1111 1111'1111 1111'11|00 0000'0000 |xx xxxx'xxxx 1100'0000 1010'1000 0000'00|00 0000'0000
76
Hostanteil: erste/kleinste Adresse: in Dezimal: 192.168.0.0 letzte/grte Adresse: in Dezimal: 192.168.3.255 Netzanteil
Da eine IPv4-Adresse aus 32 Bit besteht, ist der variable Teil 32 Bit minus Prfixlnge Bit lang. Die Prfixlnge ist die Anzahl der Einsen in der Netzmaske. Die Anzahl der Adressen im Subnetz berechnet sich dadurch zu 232Prfixlnge. In einem /24-Netz gibt es also 23224 = 28 = 256 IP-Adressen. Die IPv4-Prfixlngen /0 und /32 sind speziell in der Hinsicht, dass sie das ganze IPv4-Internet respektive einen einzelnen Host abdecken.
Schreibweise
Will man ein spezifisches Subnetz bezeichnen, gibt man die erste Adresse in diesem Subnetz zusammen mit der Subnetzmaske oder Prfixlnge an. Da die Maskenschreibweise fr IPv4 mit vier Dezimalzahlen wenig kompakt und im Gebrauch umstndlich ist, notiert man stattdessen immer hufiger die Anzahl der Einsen als Prfixlnge, eine Darstellung, die sich fr IPv6 von Beginn an durchgesetzt hat. Beispiele fr IPv4:
Maskenschreibweise 192.168.1.0/255.255.255.0 172.16.4.0/255.255.252.0 Lngenschreibweise 192.168.1.0/24 172.16.4.0/22
195.16.85.80/255.255.255.248 195.16.85.80/29
Beispiele fr IPv6:
Lngenschreibweise 2001:db8:85a3::/48 2001:0db8:85a3:08d3:0:0:0:0/64
Netzklassen
Vor der Einfhrung von CIDR (Classless Inter-Domain Routing) waren fr bestimmte Bereiche des IPv4-Adressraums bestimmte Subnetzmasken festgelegt entsprechend den ersten drei Bits der IPv4-Adresse (sieheNetzklasse). So existierten z.B. Klasse-A-Adressen im Bereich von 0.0.0.0 bis 127.255.255.255. Diese hatten als Maske 255.0.0.0. Andere feste Masken waren /16 (Klasse-B, Maske 255.255.0.0) und /24 (Klasse-C, Maske 255.255.255.0). In dieser Zeit war die Angabe einer Netzmaske berflssig, denn die Netzgre konnte aus der Zugehrigkeit der IP-Adresse zu ihrer Klasse bestimmt werden. Die ehemaligen Netzklassen sind auch der Grund,
Subnetz warum es drei verschiedene private IPv4 Adressbereiche gibt, nmlich in jeder der genannten Klassen einen.
77
CIDR
CIDR hob diese feste Zuordnung von Subnetzmasken zu IP-Bereichen auf. Statt der vorgegebenen, festen Masken werden nun Masken mit einer bestimmten Lnge verwendet. Diese bestehen aus einer Anzahl von zusammenhngenden binren Einsen, gefolgt von binren Nullen zur Auffllung auf 32 Bit im Falle von IPv4 und 128 Bit bei IPv6. Somit existieren 33 mgliche Prfixlngen fr IPv4 und 129 fr IPv6.
Zuteilung
Verschiebt man die Grenze zwischen festem (Masken-Einsen) und variablem (Masken-Nullen) Teil, knnen nun Unter-Subnetze aus einem Subnetz erzeugt werden. Dadurch, dass der feste Teil um einige Stellen verlngert wird, kann man mehrere Unter-Subnetze ber diese "neugewonnenen" festen Stellen unterscheiden. Da der variable Bereich damit automatisch kleiner wird, sind diese Subnetze jedoch kleiner. Adressen 00000000 16384 00000000 4096 00000000 16 00010000 16 00000000 4096 00000000 8192
Subnetz
78
Subnetze berechnen
Mathematische Berechnung
Die Aufteilung in Subnetze kann folgendermaen errechnet werden: Nehmen Sie an, Sie haben das Netz 192.168.10.0 mit der Subnetzmaske 255.255.255.0. Sie mchten dieses Class-C-Netz in mglichst viele Subnetze spalten. Pro Subnetz soll aber fr mindestens 60 Host-Rechner eine IP-Adresse zur Verfgung stehen. In diesem Fall berechnen Sie eine Potenz von 2, die mindestens 60+2 (2 mehr als Sie bentigen [fr Netz- und Broadcastadresse]) ergibt. Die kleinste Zahl, die dies erfllt, ist , also 64. Setzen Sie nun die letzten 6 Bits (die 6 von ) Ihrer neuen Subnetzmaske auf 0. Die letzte der gesetzten Einsen steht bei der Dezimalzahl 64. Dies ist im Beispiel das Inkrement. 1111'1111.1111'1111.1111'1111.1100'0000 = 255.255.255.192 Bei Einsatz dieser Subnetzmaske haben Sie folgende Subnetze zur Verfgung 192.168.10.0 192.168.10.63 (1. Subnetz) 192.168.10.64 192.168.10.127 (2. Subnetz) 192.168.10.128 192.168.10.191 (3. Subnetz) 192.168.10.192 192.168.10.255 (4. Subnetz) In der Lngenschreibweise werden Subnetze mit /xx angegeben, zum Beispiel: 192.168.0.1/24, was 192.168.0.1 mit der Subnetzmaske 255.255.255.0 ist. Folgendermaen kommt man an die "xx", wenn man die Subnetzmaske nicht in Binr umrechnen will: xx kann eine Zahl zwischen 0 und 32 annehmen. 0 heit 0 Bits in der Subnetzmaske also: 0.0.0.0 (24 heit 24 Bits in der Subnetzmaske: 255.255.255.0) 32 heit 32 Bits auf 1 in der Subnetzmaske: 255.255.255.255 Nun wollen wir wie im oberen Beispiel 60+2 Rechner pro Netz adressieren. Das Einzige, was wir nun knnen mssen, ist in Zweierpotenzen hochrechnen, bis wir genau einmal ber die erforderliche Anzahl kommen: 2^0 1 2^1 2 2^2 4 2^3 8 2^4 16 2^5 32 2^6 64
Wir haben 6 Schritte bentigt, diese werden von 32 abgezogen: 32 - 6 = 26 Dies ist nun unsere Subnetzmaske in CIDR-Notation also 192.168.10.0/26 und laut Tabelle aus CIDR:
Notation /26 Hosts 64x1 Subnetzmaske 255.255.255.192
Subnetz
79
Hilfsprogramme
Zum Errechnen von Netzbereichen aus gegebenen Adressen und Prfixlngen in verschiedener Schreibweise stehen frei verfgbare Hilfsprogramme zur Verfgung. ipcalc erledigt dies fr IPv4: $ ipcalc 192.168.75.123/27 Address: 192.168.75.123 11000000.10101000.01001011.011 11011 Netmask: 255.255.255.224 = 27 11111111.11111111.11111111.111 00000 Wildcard: 0.0.0.31 00000000.00000000.00000000.000 11111 => Network: 192.168.75.96/27 11000000.10101000.01001011.011 00000 HostMin: 192.168.75.97 11000000.10101000.01001011.011 00001 HostMax: 192.168.75.126 11000000.10101000.01001011.011 11110 Broadcast: 192.168.75.127 11000000.10101000.01001011.011 11111 Hosts/Net: 30 Class C, Private Internet sipcalc funktioniert fr IPv4 und IPv6: $ sipcalc 2001:0db8:85a3:08d3:1319:8a2e:0370:7347/57 2001:0db8:85a3:08d3:1319:8a2e:0370:7347/57] - 0 [IPV6 INFO] Expanded Address - 2001:0db8:85a3:08d3:1319:8a2e:0370:7347 Compressed address - 2001:db8:85a3:8d3:1319:8a2e:370:7347 Subnet prefix (masked) - 2001:db8:85a3:880:0:0:0:0/57 Address ID (masked) - 0:0:0:53:1319:8a2e:370:7347/57 Prefix address - ffff:ffff:ffff:ff80:0:0:0:0 Prefix length - 57 Address type - Aggregatable Global Unicast Addresses Network range - 2001:0db8:85a3:0880:0000:0000:0000:0000 2001:0db8:85a3:08ff:ffff:ffff:ffff:ffff -[ipv6 :
Weblinks
RFC 950 Internet Standard Subnetting Procedure, 1985 RFC 1338 Supernetting: an Address Assignment and Aggregation Strategy, 1992
80
Protokolle
Protokoll (IP)
Das Feld Protokoll (protocol) im IPv4-Header gibt an, zu welchem Protokoll (auch Folgeprotokoll genannt) die im betreffenden IPv4-Paket transportierten Nutzdaten gehren. Das Feld ist 8 Bit breit und kann daher Werte von 0 bis 255 (dezimal) aufnehmen. Die Werte waren im RFC 1700 festgelegt. Seit 2002 wurde durch RFC 3232 eine Online-Datenbank fr Protokoll-Nummern [1] bei der IANA als aktuell definiert. Allerdings kommen in Netzen auch Protokolle vor, die (noch) nicht bei der IANA registriert sind. Im IPv6-Header gibt es dieses Feld ebenfalls, allerdings heit es dort Next Header. Die zulssigen Werte sind die gleichen wie beim Feld protocol bei IPv4.
Protokollnummern
Protokollnummer 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 Protokoll HOPOPT (IPv6 Hop-by-Hop Option) ICMP (Internet Control Message Protocol) IGMP (Internet Group Management Protocol) GGP (Gateway-to-Gateway) IP (IP in IP (encapsulation)) Stream TCP (Transmission Control Protocol) CBT (Core Based Trees) EGP (Exterior Gateway Protocol) IGP (any private interior gateway) BBN-RCC-MON (BBN RCC Monitoring) NVP-II (Network Voice Protocol) PUP ARGUS EMCON XNET (Cross Net Debugger) CHAOS UDP (User Datagram Protocol) Multiplexing DCN-MEAS (DCN Measurement Subsystems) HMP (Host Monitoring) PRM (Packet Radio Measurement) XNS-IDP (XEROX NS IDP) TRUNK-1
Protokoll (IP)
81
24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 TRUNK-2 LEAF-1 LEAF-2 RDP (Reliable Data Protocol) IRTP (Internet Reliable Transaction Protocol) ISO-TP4 (ISO Transport Protocol Class 4) NETBLT (Bulk Data Transfer Protocol) MFE-NSP (MFE Network Services Protocol) MERIT-INP (MERIT Internodal Protocol) DCCP (Datagram Congestion Control Protocol) 3PC (Third Party Connect Protocol) IDPR (Inter-Domain Policy Routing Protocol) XTP DDP (Datagram Delivery Protocol) IDPR-CMTP (IDPR Control Message Transport Proto) TP++ (TP++ Transport Protocol) IL (IL Transport Protocol) IPv6 SDRP (Source Demand Routing Protocol) IPv6-Route (Routing Header for IPv6) IPv6-Frag (Fragment Header for IPv6) IDRP (Inter-Domain Routing Protocol) RSVP (Reservation Protocol) GRE (Generic Routing Encapsulation) MHRP (Mobile Host Routing Protocol) BNA ESP (Encapsulating Security Payload) AH (Authentication Header) I-NLSP (Integrated Net Layer Security TUBA) SWIPE (IP with Encryption) NARP (NBMA Address Resolution Protocol) MOBILE (IP Mobility) TLSP (Transport Layer Security Protocol) SKIP IPv6-ICMP (ICMP for IPv6) IPv6-NoNxt (Kein nchster Header fr IPv6) IPv6-Opts (Destination Options for IPv6) Jedes Host-interne Protokoll CFTP
Protokoll (IP)
82
63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 Jedes lokale Netz SAT-EXPAK (SATNET and Backroom EXPAK) KRYPTOLAN RVD (MIT Remote Virtual Disk Protocol) IPPC (Internet Pluribus Packet Core) Jedes verteilte Dateisystem SAT-MON (SATNET Monitoring) VISA IPCV (Internet Packet Core Utility) CPNX (Computer Protocol Network Executive) CPHB (Computer Protocol Heart Beat) WSN (Wang Span Network) PVP (Packet Video Protocol) BR-SAT-MON (Backroom SATNET Monitoring) SUN-ND (SUN ND PROTOCOL-Temporary) WB-MON (WIDEBAND Monitoring) WB-EXPAK (WIDEBAND EXPAK) ISO-IP (ISO Internet Protocol) VMTP SECURE-VMTP VINES TTP NSFNET-IGP (NSFNET-IGP) DGP (Dissimilar Gateway Protocol) TCF EIGRP OSPF Sprite-RPC (Sprite RPC Protocol) LARP (Locus Address Resolution Protocol) MTP (Multicast Transport Protocol) AX.25 (AX.25 Frames) IPIP (IP-within-IP Encapsulation Protocol) MICP (Mobile Internetworking Control Pro.) SCC-SP (Semaphore Communications Sec. Pro.) ETHERIP (Ethernet-within-IP Encapsulation) ENCAP (Encapsulation Header) Jeder private Verschlsselungsentwurf GMTP IFMP (Ipsilon Flow Management Protocol)
Protokoll (IP)
83
102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 PNNI (over IP) PIM (Protocol Independent Multicast) ARIS SCPS QNX A/N (Active Networks) IPComp (IP Payload Compression Protocol) SNP (Sitara Networks Protocol) Compaq-Peer (Compaq Peer Protocol) IPX-in-IP (IPX in IP) VRRP (Virtual Router Redundancy Protocol) PGM (PGM Reliable Transport Protocol) any 0-hop protocol L2TP (Layer Two Tunneling Protocol) DDX (D-II Data Exchange (DDX)) IATP (Interactive Agent Transfer Protocol) STP (Schedule Transfer Protocol) SRP (SpectraLink Radio Protocol) UTI SMP (Simple Message Protocol) SM PTP (Performance Transparency Protocol) ISIS over IPv4 FIRE CRTP (Combat Radio Transport Protocol) CRUDP (Combat Radio User Datagram) SSCOPMCE IPLT SPS (Secure Packet Shield) PIPE (Private IP Encapsulation within IP) SCTP (Stream Control Transmission Protocol) FC (Fibre Channel) RSVP-E2E-IGNORE Mobility Header UDPLite MPLS-in-IP manet (MANET Protocols) HIP (Host Identity Protocol) Shim6 (Shim6 Protocol)
Protokoll (IP)
84
141 142 143252 253254 255 WESP (Wrapped Encapsulating Security Payload) ROHC (Robust Header Compression) Nicht belegt Wird fr Experimente und Tests verwendet Reserviert
Weblinks
PROTOCOL NUMBERS [1] from Internet Assigned Numbers Authority (IANA) RFC 1700, ASSIGNED NUMBERS, October 1994 (see section Assigned Internet Protocol Numbers) RFC 3232, Assigned Numbers: RFC 1700 is Replaced by an On-line Database, January 2002 RFC 2460, Internet Protocol, Version 6 (IPv6) Specification, December 1998 RFC 791, INTERNET PROTOCOL DARPA INTERNET PROGRAM PROTOCOL SPECIFICATION, September 1981
Referenzen
[1] http:/ / www. iana. org/ assignments/ protocol-numbers
Netzzugang
STP Ethernet
Standards:
Das Spanning Tree Protocol (STP, deutsch: Spannbaum-Protokoll) baut einen Spannbaum zur Vermeidung redundanter Netzpfade (Schleifen) im LAN, speziell in geswitchten Umgebungen, auf. Die Implementierung wurde, aufbauend auf einem Spannbaum-Algorithmus, von Radia Perlman entwickelt und ist in der IEEE-Norm 802.1D standardisiert. Mittlerweile wurde das klassische STP durch RSTP nach IEEE 802.1D-2004 ersetzt. Netze sollten auf der Sicherungsschicht zu jedem mglichen Ziel immer nur einen Pfad haben, also keine Schleifen enthalten, um zu vermeiden, dass Datenpakete (Frames) dupliziert werden und mehrfach am Ziel eintreffen, was zu Fehlfunktionen in darber liegenden Netzwerkschichten fhren und die Leistung des Netzes vermindern Ein Beispiel fr eine Spanning-Tree-Topologie oder sogar zu einem Komplettausfall fhren knnte. Andererseits werden mitunter redundante Netzpfade als Backup fr den Fehlerfall (Ausfall einer Strecke) verwendet. Das Spanning Tree Protocol wird beiden Bedrfnissen gerecht.
85
Funktionsweise
Zur Kommunikation zwischen den Switches wird das Bridge-Protokoll genutzt. Die Pakete dieses Protokolls werden Bridge Protocol Data Unit (BPDU) genannt. Sie werden im Datenfeld eines Ethernet-Datenpaketes (Ethernet-Frame) per Broadcast an die benachbarten Switches versendet. Zunchst wird unter den Spanning-Tree-fhigen Bridges im Netz eine sog. Root Bridge gewhlt, die die Wurzel des aufzuspannenden Baumes wird und Chef des Netzes ist. Dies geschieht, indem alle Bridges ihre Bridge-ID (kurz: BID; jede Bridge wird ber eine eigene BID identifiziert) an eine bestimmte Multicast-Gruppe mitteilen. Die Bridge-ID ist 8 Byte lang (2 Byte Bridge Priority, 6 Byte MAC-Adresse). Die Bridge mit der niedrigsten Prioritt wird zur Root Bridge. Sollte die Bridge Priority identisch sein, wird als ergnzendes Kriterium die MAC-Adresse der Komponenten benutzt (auch hier gewinnt wieder die Bridge mit der niedrigeren Zahl). Von der Root Bridge aus werden nun Pfade festgelegt, ber die die anderen Bridges im Netz erreichbar sind. Sind redundante Pfade vorhanden, so mssen die dortigen Bridges den entsprechenden Port deaktivieren. Die Pfade, ber die kommuniziert werden darf, werden anhand von Pfadkosten bestimmt, die die dortige Bridge bermittelt. Diese Pfadkosten sind abhngig vom Abstand zur Root Bridge und dem zur Verfgung stehenden Uplink zum Ziel. Ein 10-Mbit/s-Uplink hat blicherweise hhere Pfadkosten als ein 100-Mbit/s-Uplink zum gleichen Ziel, die 10-Mbit-Verbindung wrde daher als redundanter Pfad geblockt werden. Die Pfadkosten sind nach IEEE-Vorgaben genormt, knnen aber manuell abweichend festgelegt werden, beispielsweise um bei gleicher Geschwindigkeit einen bevorzugten Uplink auszuwhlen, um so die reellen Kosten von WAN-Verbindungen widerzuspiegeln. Auf diese Weise ist jedes Teilnetz im geswitchten LAN nur noch ber eine einzige, der Designated Bridge, erreichbar. In der grafischen Darstellung ergibt sich ein Baum aus Netzpfaden, der dem Algorithmus sowie dem Protokoll seinen Namen gab. Die Root Bridge teilt den in der Hierarchie eine Stufe unterhalb liegenden Designated Bridges im Abstand von zwei Sekunden mit, dass sie noch da ist, woraufhin die empfangende Designated Bridge ebenfalls an nachfolgende Bridges die entsprechende Information senden darf. Wenn diese Hello-Pakete ausbleiben, hat sich folglich an der Topologie des Netzes etwas gendert, und das Netz muss sich reorganisieren. Diese Neuberechnung des Baumes dauert im schlimmsten Fall bis zu 30 Sekunden. Whrend dieser Zeit drfen die Spanning-Tree-fhigen Bridges auer Spanning-Tree-Informationen keine Pakete im Netz weiterleiten. Dies ist einer der grten Kritikpunkte am klassischen Spanning-Tree-Protokoll, da es mglich ist, mit geflschten Spanning-Tree-Paketen eine Topologienderung zu signalisieren und das gesamte Netz fr bis zu 30 Sekunden lahmzulegen. Um diesen potenziellen Sicherheitsmangel zu beheben, aber auch um bei echten Topologienderungen das Netz schnell wieder in einen benutzbaren Zustand zu bringen, wurden schon frh von verschiedenen Herstellern Verbesserungen an der Implementierung des Spanning Tree Protokolls bzw. der dazu verwendeten Algorithmen entwickelt. Eine davon, das Rapid Spanning Tree Protocol (RSTP), ist inzwischen zum offiziellen IEEE-Standard 802.1w geworden.
RSTP
Die Idee hinter dem Rapid Spanning Tree Protocol (RSTP) ist, dass bei signalisierten Topologienderungen nicht sofort die Netzstruktur gelscht wird, sondern erst einmal wie gehabt weiter gearbeitet wird und Alternativpfade berechnet werden. Erst anschlieend wird ein neuer Baum zusammengestellt. Die Ausfallzeit des Netzes lsst sich so von 30 Sekunden auf unter eine Sekunde drcken. In der 2003 verabschiedeten Revision des 802.1d-Standards wurde das alte STP zugunsten von RSTP (IEEE 802.1w) komplett ersetzt. Inzwischen ist dieses durch IEEE 802.1D-2004 ersetzt worden.[1]
86
MSTP
Das Multiple Spanning Tree Protocol (MSTP) ist eine Erweiterung des RSTPs. Es ermglicht im Zusammenhang mit Virtual Local Area Network (VLAN)s verschiedene Instanzen des Spannbaums. Fr ein VLAN oder eine Gruppe von VLANs knnen also voneinander unabhngige STP-Instanzen gebildet werden, die innerhalb eines LANs jeweils eigene unterschiedliche Spannbume nutzen. Das MSTP wurde ebenfalls erstmals in der 2003 verabschiedeten Revision des 802.1d-Standards unter IEEE 802.1s definiert und spter unter IEEE 802.1Q eingegliedert.
Schritt fr Schritt
1. 2. 3. 4. 5. 6. Power-Up aller Bridges Bridges stellen all ihre Anschlsse auf Blocked Jede Bridge nimmt an, sie sei Root-Bridge und sendet BPDUs (Bridge Protocol Data Unit) aus Bridge mit kleinster BridgeID wird zur Root-Bridge (ID: PrioFeld + Teil der MAC) Aussenden von Konfigurations-BPDUs durch die Root-Bridge Jede Bridge bestimmt einen Root-Port (Port mit kleinsten Pfadkosten zur Root-Bridge. Bei Ports mit gleichen Kosten gewinnt die kleinere PortID)
7. Bestimmen der Designated Bridge (LAN whlt die Designated-Bridge. Bridge mit Root-Port ins LAN mit den niedrigsten Pfadkosten)
Weblinks
Sebastian Hein: Spanning Tree Algorithmus [2] Spanning Tree Map [3] Monika Olschewski: Erweiterungen des Spanning Tree Protocol [4], Heise online, 20. Juli 2010, eingesehen am 6. Oktober 2010
Einzelnachweise
[1] [2] [3] [4] http:/ / standards. ieee. org/ getieee802/ download/ 802. 1D-2004. pdf http:/ / www. all-about-security. de/ artikel+ M5748e8851ef. html http:/ / www. loriotpro. com/ Products/ On-line_Documentation_V5/ LoriotProDoc_EN/ J10-Loriotpro_tools/ J10-S19_STP_Bridge_EN. htm http:/ / www. heise. de/ netze/ artikel/ Erweiterungen-des-Spanning-Tree-Protocol-1028147. html
87
Einsatzgebiet: Einspeisung von E-Mail (Mail Submission), Abholung von E-Mails eventuell ber mehrere Stationen (Mail Transfer) Ports: 25/TCP 465/TCP (Verschlsselt) 587/TCP (Alternative fr Mail-Clients)
SMTP TCP IP (IPv4, IPv6) Ethernet Token Token FDDI Bus Ring
Standard:
RFC 5321
Das Simple Mail Transfer Protocol (SMTP, zu deutsch etwa Einfaches E-Mail-Transportprotokoll) ist ein Protokoll der Internetprotokollfamilie, das zum Austausch von E-Mails in Computernetzen dient. Es wird dabei vorrangig zum Einspeisen und zum Weiterleiten von E-Mails verwendet. Zum Abholen von Nachrichten kommen andere, spezialisierte Protokolle wie POP3 oder IMAP zum Einsatz. SMTP-Server nehmen traditionell Verbindungen auf Port 25 (smtp) entgegen. Neuere Server benutzen auch Port 587, um fr authentifizierte Benutzer Mails entgegenzunehmen, die an andere Mailserver ausgeliefert werden mssen (submission). Damit soll Spam vermieden werden (Open Relay).
Geschichte
Vorgnger von SMTP waren im ARPANET das Mail Box Protocol (RFC 278) vom Juli 1971 und FTP Mail (RFC 458) vom Februar 1973. Mit der Entstehung des Internets aus dem ARPANET um 1980 schlug Jon Postel vor, die Abhngigkeit des E-Mail-Verkehrs vom FTP-Dienst abzukoppeln (RFC 772), und verffentlichte 1982 SMTP unter RFC 821. In den frhen 1980er Jahren wurde es eine Ergnzung zu UUCP, das vor allem fr den E-Mail-Verkehr periodisch verbundener Rechner genutzt wurde. SMTP wurde der Standard fr Rechner, die stndig am Netz waren. Einer der ersten Mail Transfer Agents, der SMTP implementierte und weitere Verbreitung erlangte, war sendmail. Inzwischen gibt es ber 100 Programme, die SMTP als Client oder Server untersttzen, darunter weit verbreitete SMTP-Server wie Postfix, qmail, exim, usw. SMTP begann als reines ASCII-Protokoll, so dass damit keine Binrdateien bertragen werden konnten. Erst Standards wie MIME (Multipurpose Internet Mail Extensions) schufen diese Mglichkeit durch ein Kodieren der Binrdateien in ASCII.
Verfahren
Die Abwicklung des SMTP-Verfahrens wird meist fr den Anwender unsichtbar durch sein Mailprogramm vorgenommen, den sogenannten Mail User Agent (MUA). Dieses Programm verbindet sich mit einem SMTP-Server, dem Mail Submission Agent (MSA), der die Mail ber ggf. weitere SMTP-Server, sogenannte Mail Transfer Agents (MTA), zum Ziel transportiert. Da SMTP als Protokoll zum Transport von lokal erstellten Mails zwischen Servern konzipiert wurde, bernahm dabei ursprnglich ein einzelner Server auf Port 25 (smtp) die Rolle von MSA und MTA. Der dedizierte Port 587 (submission) fr MSAs wurde erst 1998 eingefhrt, um den
Simple Mail Transfer Protocol unterschiedlichen Anforderungen beider Aufgaben gerecht zu werden: Ein MSA akzeptiert ausdrcklich nur Nachrichten berechtigter Nutzer und bereitet sie vor der Einspeisung in das Mailsystem gegebenenfalls standardkonform auf. Wegen der nahen Verwandtschaft beider Dienste wird die Funktionalitt von MSA und MTA blicherweise immer noch von nur einem Programm, das dann auf beiden Ports Verbindungen annimmt, bereitgestellt.
88
Protokoll
Da SMTP ein textbasiertes Protokoll ist, kann mittels Telnet eine E-Mail auch von Hand verschickt werden. Dabei sind, wie auch bei anderen Verfahren, Absender- und Empfngeradresse frei whlbar, und eine Authentifizierung findet nicht statt. Aus diesem Grund ist die Verlsslichkeit der Absenderangabe einer E-Mail nicht gegeben. Es knnen sich sogar die Adressen im MAIL FROM- und RCPT TO-Kommando (sog. Envelope-From bzw. Envelope-To) von den Adressen im From:- und To:-Mailheader unterscheiden. Der Server antwortet auf Kontaktaufnahmen mit dreistelligen Statusnummern und kurzen Texten, die variieren oder auch entfallen knnen. Der Client muss mit festgelegten Zeichenfolgen auf die Statusmeldungen regieren. Eine einfache SMTP-Sitzung zum Versenden einer E-Mail kann beispielsweise folgendermaen aussehen:
Client telnetmail.example.com25 220serviceready HELOfoobar.example.net 250OK MAILFROM:<info@example.org> 250OK RCPTTO:<info@example.com> 250OK DATA Server Client ruft Server Server meldet sich bereit Client nennt seinen Namen Server besttigt Client nennt Absenderadresse Server besttigt Client nennt Empfngeradresse Server besttigt Client kndigt Inhalt der E-Mail an 354startmailinput Server bereit fr diesen lngeren Vorgang From:<info@example.org> To:<info@example.com> Subject:Testmail Date:Thu,26Oct200613:10:50+0200 Lorem ipsum dolor sit amet, consectetur adipisici elit, sed eiusmod tempor incidunt ut labore et dolore magna aliqua. . 250OK Client sendet Inhalt der E-Mail und markiert das Ende durch eine Zeile, die nur einen Punkt enthlt. (Zwischen Header und Textkrper muss eine Leerzeile vorhanden sein, sonst wird beim Empfnger kein Textkrper angezeigt.) Erluterung
Server besttigt und bernimmt die Verantwortung fr die Nachricht Client fordert Verbindungstrennung an
89
Status-Codes
Das SMTP-Protokoll sieht zum Status der Kommunikation zwischen Mailserver und Mailclient folgende Fehlercodes vor: 1XX Mailserver hat die Anforderung akzeptiert, ist aber selbst noch nicht ttig geworden. Eine Besttigungsmeldung ist erforderlich. 2XX Mailserver hat die Anforderung erfolgreich ohne Fehler ausgefhrt. 3XX Mailserver hat die Anforderung verstanden, bentigt aber zur Verarbeitung weitere Informationen. 4XX Mailserver hat einen temporren Fehler festgestellt. Wenn die Anforderung ohne jegliche nderung wiederholt wird, kann die Verarbeitung mglicherweise abgeschlossen werden. 5XX Mailserver hat einen fatalen Fehler festgestellt. Die Anforderung kann nicht verarbeitet werden.
Extended SMTP
Als SMTP 1982 in RFC 821 definiert wurde, gab es eine berschaubare Anzahl von Hosts im Internet. Da die Verbindungen langsam und instabil waren, wurde auf Zuverlssigkeit groen Wert gelegt. Authentifizierung war nicht vorgesehen, somit war jeder Mailserver ein Open Relay, ber den Mails an jeden anderen Knoten weitergeleitet werden konnten. Mit der wachsenden Popularitt des Internets entstand so das Problem des Spam. 1995 wurde mit Extended SMTP (ESMTP) in RFC 1869 das Protokoll erweitert. Diese Erweiterung erlaubt, dass ber ein modulares Konzept weitere Befehle (SMTP-Verben) definiert werden. Wenn der Sender sich beim Server nicht wie oben gezeigt mit HELO, sondern mit EHLO (Extended HELO) meldet, teilt der Server ihm im Gegenzug mit, welche Erweiterungen des Protokolls er untersttzt. Gngige Beispiele hierfr sind STARTTLS (Secure SMTP over TLS), 8BITMIME (8bit-MIMEtransport), DSN (Delivery Status Notifications) und AUTH (SMTP-Auth). Zur Verschlsselung ber SSL/TLS wird heute das STARTTLS-Kommando empfohlen. Es luft auf dem gleichen TCP-Port wie unverschlsseltes SMTP. Alternativ kann SMTP ber SSL (SMTPS) verwendet werden und bentigt einen eigenen TCP-Port, hierfr hat sich 465 eingebrgert.
Sicherheitskonzepte
Merkmal Definition Konzepte SMTP-After-POP, SMTP-Auth, SMTPS PGP, S/MIME (siehe Elektronische Unterschrift), SPF, DomainKeys PGP, S/MIME
Zugangskontrolle Nur zugelassene Benutzer drfen den Mailserver benutzen Echtheitsprfung Eine eindeutige Zuordnung AbsenderNachricht ist mglich
Integritt
Die Nachricht kann auf dem Weg durchs Netz nicht unbemerkt verndert werden Die Nachricht wird nicht im Klartext bertragen, sondern verschlsselt
Vertraulichkeit
90
Software
Einige der am hufigsten verwendeten SMTP-Server sind Sendmail, Exim, Postfix, qmail, MS Exchange, Groupwise und IBM Lotus Domino.
Verwandte Themen
Bounce Message (Fehlermeldung vom Mailserver) SMTP-Authentifizierung On-Demand Mail Relay (ODMR)
91
Weblinks
Eine Erklrung zum Transport von E-Mails [1] SMTP Befehle und Statuscodes mit Erklrung [2] Warum Absenderadressen nicht vertrauenswrdig sind [3]
Referenzen
[1] http:/ / www. kubieziel. de/ computer/ email. html [2] http:/ / www. elektronik-kompendium. de/ sites/ net/ 0903081. htm [3] http:/ / www. daniel-rehbein. de/ rfc2821. html
92
Geschichte
Das Akronym RAID wurde erstmals 1987 durch David A. Patterson, Garth A. Gibson und Randy H. Katz von der University of California, Berkeley, USA als Abkrzung fr Redundant Array of Inexpensive Disks definiert. In der zur International Conference on Management of Data (1988, Chicago, Illinois, USA) verffentlichten Publikation A case for redundant arrays of inexpensive disks (RAID)[1] entwickeln die Autoren Vorschlge, um langsame Plattenzugriffe zu beschleunigen und die Mean Time Between Failures (MTBF) zu erhhen. Dazu sollten die Daten auf vielen kleineren (billigeren) Platten anstatt auf wenigen groen (teuren) abgelegt werden; deshalb die ursprngliche Leseweise als Redunant Arrays of Inexpensive SLED: Laufwerksmodul einer IBM 3380, die Disks (frei bersetzt: redundanter Verbund kostengnstiger dem Vergleich mit kleineren Laufwerken Festplatten) RAID steht damit als Gegensatz zu den damaligen standhalten musste SLEDs (Single Large Expensive Disk). In ihrer Arbeit untersuchen die Autoren die Mglichkeit, kostengnstige kleinere Festplatten (eigentlich Zubehr fr Personalcomputer) im Verbund als greres logisches Laufwerk zu betreiben, um so die Kosten fr eine groe (zum damaligen Zeitpunkt berproportional teure) SLED-Festplatte (Grorechner-Technologie) einzusparen. Dem gestiegenen Ausfallrisiko im Verbund sollte durch die Speicherung redundanter Daten begegnet werden. Die einzelnen Anordnungen wurden als RAID-Level diskutiert.
RAID
93 A case for redundant arrays of inexpensive disks (RAID) ABSTRACT: Increasing performance of CPUs and memories will be squandered if not matched by a similar performance increase in I/O. While the capacity of Single Large Expensive Disks (SLED) has grown rapidly, the performance improvement of SLED has been modest. Redundant Arrays of Inexpensive Disks (RAID), based on the magnetic disk technology developed for personal computers, offers an attractive alternative to SLED, Eine Fujitsu M2351 Eagle; ein hnliches Modell promising improvements of an order of magnitude in wurde von Patterson, Gibson und Katz verglichen performance, reliability, power consumption, and scalability. This paper introduces five levels of RAIDs, giving their relative cost/performance, and compares RAID to an IBM 3380 and a Fujitsu Super Eagle D. A. Patterson, G. Gibson und R. H. Katz 1988
Die Varianten RAID 0 und RAID 6 wurden erst spter von der Industrie geprgt. Seit 1992 erfolgt eine Standardisierung durch das RAB (RAID Advisory Board), bestehend aus etwa 50 Herstellern. Die weitere Entwicklung des RAID-Konzepts fhrte zunehmend zum Einsatz in Serveranwendungen, die den erhhten Datendurchsatz und die Ausfallsicherheit nutzen, der Aspekt der Kostenersparnis wurde dabei mehr oder weniger aufgegeben. Die Mglichkeit, in einem solchen System einzelne Festplatten im laufenden Betrieb zu wechseln, entspricht der heute gebruchlichen bersetzung: Redundant Array of Independent Disks (redundante Anordnung unabhngiger Festplatten).
Die genaue Art des Zusammenwirkens der Festplatten wird durch den RAID-Level spezifiziert. Die gebruchlichsten RAID-Level sind RAID 0, RAID 1 und RAID 5. Sie werden unten beschrieben. In der Regel erkennen die RAID-Implementierungen nur den Gesamtausfall eines Laufwerks, bzw. Fehler die vom Laufwerk signalisiert werden (siehe z. B. S.M.A.R.T.). Auch knnen viele Implementierungen schon von der Theorie her nur einzelne Bitfehler erkennen und nicht korrigieren. Da Bitfehler mittlerweile selten sind und das Erkennen von Einzelfehlern ohne Korrekturmglichkeit nur von relativ geringem Nutzen ist, verzichten heute einige Implementierungen auf die zustzliche Integrittsprfung beim Schreiben (read after write) oder Lesen (read and compare) und bieten hierdurch eine zum Teil beachtlich hhere Performance. Beispielsweise verzichten manche RAID-5-Implementierungen[2] heute beim Lesen auf das berprfen der Plausibilitt mittels Paritts-Stripes, analog arbeiten auch viele RAID-1-implementierungen. So erreichen diese Systeme beim Lesen Datendurchstze, wie sie sonst nur bei RAID0 erzielt werden. Auch wird bei solchen Implementierungen nicht notwendigerweise der Cache einer Platte deaktiviert. Dennoch legen einige RAID-Level (RAID2, je nach Hersteller auch RAID6) ihr besonderes Augenmerk auf die Datenintegritt und Fehlerkorrektur (ECC), dort sind folglich die Cache-Speicher der Platten deaktiviert und zustzlich werden dann zu jeder Zeit alle mglichen Prfungen durchgefhrt (read after write, usw.), wodurch zum Teil erhebliche Performanceeinbuen resultieren.
RAID Aus Sicht des Benutzers oder eines Anwendungsprogramms unterscheidet sich ein logisches RAID-Laufwerk nicht von einer einzelnen Festplatte.
94
Hardware-RAID
Von Hardware-RAID spricht man, wenn das Zusammenwirken der Festplatten von einer speziell dafr entwickelten Hardware-Baugruppe, dem RAID-Controller, organisiert wird. Der Hardware-RAID-Controller befindet sich typischerweise in physischer Nhe der Festplatten. Er kann im Gehuse des Computers enthalten sein. Besonders im Rechenzentrums-Umfeld befindet er sich hufiger in einem eigenen Gehuse, einem Disk Array, in dem auch die Festplatten untergebracht sind. Die externen Systeme werden oft auch als DAS oder SAN bezeichnet, seltener auch NAS, wenngleich nicht jedes dieser Systeme auch RAID implementiert. Professionelle Hardware-RAID-Implementierungen verfgen ber eigene eingebettete CPUs, sie nutzen groe, zustzliche Cache-Speicher und bieten somit hchsten Datendurchsatz und entlasten dabei gleichzeitig den Hauptprozessor. Durch eine durchdachte Handhabung und einen soliden Herstellersupport wird gerade auch bei Strungen eine bestmgliche Untersttzung des Systemadministrators erreicht. Einfache Hardware-RAID-Implementierungen bieten diese Vorteile nicht in gleichem Mae und stehen daher in direkter Konkurrenz zu Software-RAID-Systemen. Bekannte Hersteller: 3Ware, Adaptec, AMI, Areca, Compaq, Dell, HP, IBM, Intel, LSI logic, Mylex, Promise, Sun, Tekram und Andere. Fake RAID Im unteren Preissegment, praktisch ausschlielich fr IDE/ATA- oder SATA-Festplatten, werden sogenannte Fake-RAID-Implementierungen angeboten.[3] Rein uerlich hneln diese Lsungen den Hardware-RAID-Implementierungen. Es gibt sie als Kartenerweiterungen aus dem Niedrigpreis-Sektor, hufig sind sie aber auch direkt in die Hauptplatinen (engl. mainboards) fr den Heimcomputer- und Personal-Computer integriert. Meistens sind diese Implementierungen auf RAID 0 und RAID 1 beschrnkt. Um solche nichtprofessionellen Implementierungen so erschwinglich wie mglich zu halten, verzichten diese weitestgehend auf aktive Komponenten und realisieren die RAID-Level durch eine Software, die in den Treiber der Hardware integriert ist, allerdings fr die notwendigen Rechenarbeiten den Hauptprozessor nutzt und auch die internen Bussysteme deutlich mehr belastet. Es handelt sich also eher um eine Software-RAID-Implementierung, die an eine spezielle Hardware gebunden ist. Die Bindung an den Controller ist ein bedeutender Nachteil, erschwert die Wiederherstellung und birgt bei einer Fehlfunktion desselben die Gefahr eines Datenverlustes. Solche Controller werden im Linux-Jargon daher oft auch als Fake-RAID[4] bezeichnet (vgl. auch die sogenannten Win- oder Softmodems, die ebenfalls den Hauptprozessor und Bussysteme zustzlich belasten).
Software-RAID
Von Software-RAID spricht man, wenn das Zusammenwirken der Festplatten komplett softwareseitig organisiert wird. Auch der Begriff Host based RAID ist gelufig, da nicht das Speicher-Subsystem, sondern der eigentliche Computer die RAID-Verwaltung durchfhrt. Die meisten modernen Betriebssysteme, wie FreeBSD, OpenBSD, Apple Mac OS X, HP HP-UX, IBM AIX, Linux, Microsoft Windows ab Windows NT oder SUN Solaris, sind dazu in der Lage. Die einzelnen Festplatten sind in diesem Fall entweder ber einfache Festplattencontroller am Computer angeschlossen oder es werden externe Storage-Gerte wie Disk Arrays von Unternehmen wie EMC, Promise, AXUS, Proware oder Hitachi Data Systems (HDS) an den Computer angeschlossen. Die Festplatten werden zunchst ohne RAID-Controller als sogenannte JBODs (just a bunch of disks) ins System integriert, dann wird per Software-RAID (z.B. unter Linux mit dem Programm mdadm) die RAID-Funktionalitt realisiert.
RAID Pro Der Vorteil von Software-RAID ist, dass kein spezieller RAID-Controller bentigt wird. Die Steuerung wird von der RAID-Software erledigt, diese ist entweder schon Teil des Betriebssystems oder wird nachtrglich installiert. Dieser Vorteil kommt besonders beim Disaster Recovery zum tragen, wenn der RAID-Controller defekt und nicht mehr verfgbar ist praktisch alle derzeit verfgbaren Software-RAID-Systeme benutzen die Festplatten so, dass diese auch ohne die spezielle Software ausgelesen werden knnen. Bei dieser Variante kann der Festplatten-Cache aktiviert bleiben. Contra Bei Software-RAID werden bei Festplattenzugriffen neben dem Hauptprozessor (CPU) des Computers auch die System-Busse (wie PCI) strker belastet als bei Hardware-RAID. Bei leistungsschwachen CPUs und Bus-Systemen verringert dies deutlich die Systemleistung; bei leistungsstarken, wenig ausgelasteten Systemen ist dies belanglos. Storage-Server sind in der Praxis oft nicht voll ausgelastet. Somit knnen Software-RAID-Implementierungen auf solchen Servern unter Umstnden sogar schneller sein als Hardware-RAID-Implementierungen. Ein weiterer Nachteil ist, dass bei Software-RAID als Cache nur der Arbeitsspeicher genutzt werden kann. Es besteht daher keine Mglichkeit eine Pufferbatterie nur fr den Cache und den Controller zu installieren, wie es bei hochwertigen RAID-Controllern oder Disk Arrays mit integriertem Cache blich ist. Dies hat zur Folge, dass Daten, die bei einem Stromausfall oder Systemabsturz im Cache liegen, verloren gehen.
95
Probleme
Grennderung
Nicht alle Hardware-RAID-Systeme, genauso wie auch nicht alle Software-RAID-Implementierungen, bieten eine Mglichkeit, einen RAID-Verbund ganz einfach durch das nachtrgliche Hinzufgen weiterer Festplatten zu erweitern. Der Grund hierfr ist einfach nachzuvollziehen, denn Daten und Parity-Informationen liegen meist verstreut auf den Datentrgern, sodass durch einen zustzlichen Datentrger eine aufwndige Datenreorganisation erforderlich wird. Auch nach erfolgreicher Erweiterung des RAID-Verbunds steht der hinzugefgte Speicherplatz nicht automatisch zur Verfgung. Sowohl das Betriebssystem, als auch das Dateisystem, mssen den neuen Plattenplatz einbinden viele, aber lngst nicht alle Dateisysteme knnen problemlos nachtrglich erweitert werden. Will man dennoch ein System erweitern, so geschieht dies meist durch Hinzufgen eines Datentrgers gleicher Gre (z.B. bei RAID5). Im schlechtesten Fall hat man nur die Mglichkeit, alle Daten zu sichern, das System zu erweitern und dann die Daten wiederherzustellen. Mit dieser Methode ist auch ein Verkleinern eines RAID-Systems mglich. Bei aktuellen Linux-Systemen kann man einen Software-RAID-5-Verbund mittlerweile auch mit Bordmitteln nachtrglich um einzelne Platten erweitern, auch das ZFS von Solaris ermglicht dies. Man sollte aber immer beachten, dass eine zeitaufwndige Reorganisation des gesamten RAID-Verbunds notwendig wird. Ansonsten besteht die Mglichkeit, einen weiteren eigenstndigen RAID-Verbund hinzuzufgen und die Systemerweiterung ber einen Logical Volume Manager (LVM) zu erreichen. Mit dieser Erweiterungsmethode knnen auch RAID-1-Systeme oder Volumes an beliebigen Hardware-RAID-Systemen erweitert werden. Alle gngigen Betriebssysteme bieten heute LVM-Untersttzung, wenngleich manche Betriebssysteme in diesem Zusammenhang von Dynamischen Datentrgern sprechen.
RAID
96
Defekte Controller
Auch Hardware kann defekt sein (z.B. in Form eines RAID-Controllers). Das kann zum Problem werden, besonders dann, wenn kein identischer Ersatzcontroller verfgbar ist. In der Regel kann ein intakter Plattensatz nur am gleichen Controller bzw. an der gleichen Controller-Familie betrieben werden, an dem er auch erstellt wurde. Hufig kommt es (besonders bei lteren Systemen) auch vor, dass nur exakt der gleiche Controller (Hardware + Firmware) den Plattensatz ohne Datenverlust ansprechen kann. Im Zweifelsfall sollte man unbedingt beim Hersteller nachfragen. Aus dem gleichen Grund sind unbekannte Hersteller, aber auch onboard RAID-Systeme mit Vorsicht einzusetzen. In jedem Fall sollte sichergestellt sein, dass man auch nach Jahren einen leicht zu konfigurierenden, passenden Ersatz bekommt. Abhilfe schafft unter Umstnden Linux, die Plattenstze einiger IDE-/SATA-RAID-Controller (Adaptec HostRAID ASR, Highpoint HPT37X, Highpoint HPT45X, Intel Software RAID, JMicron JMB36x, LSI Logic MegaRAID, NVidia NForce, Promise FastTrack, Silicon Image Medley, SNIA DDF1, VIA Software RAID und Kompatible) knnen direkt mit dem dmraid-Tool[5] vom Betriebssystem eingelesen werden.
RAID
97
12TB) maximal zu einem URE kommen darf. Besteht ein Array also beispielsweise aus acht je 2TB groen Platten, so garantiert der Hersteller nur noch, dass der Rebuild statistisch gesehen mindestens in einem von drei Fllen ohne URE klappen muss, obwohl alle Laufwerke korrekt nach Herstellerspezifikation funktionieren. Fr kleine RAID-Systeme stellt dies kaum ein Problem dar: Der Rebuild eines RAID5-Arrays aus drei 500GB groen Consumer-Laufwerken (1TB Nutzdaten) wird im Schnitt in 92 von 100 Fllen erfolgreich sein, wenn nur URE-Fehler betrachtet werden. Deswegen stoen praktisch schon jetzt alle einfachen redundanten RAID-Verfahren (RAID 3, 4, 5, 6 usw.) auer RAID1 und RAID2 an eine Leistungsgrenze.[6] Das Problem kann natrlich durch hherwertige Platten, aber auch durch kombinierte RAID-Level wie RAID 10 oder RAID 50 entschrft werden. In der Realitt ist das Risiko, dass tatschlich ein derartiger URE-basierter Fehler eintritt durchaus geringer, denn es handelt sich bei den Herstellerangaben nur um garantierte Maximalwerte. Dennoch ist der Einsatz hochwertiger Laufwerke mit Fehlerraten von (oder besser) besonders bei professionellen Systemen anzuraten.
RAID einem Ausfall eines einzelnen Speichermediums die nahtlose Benutzbarkeit der verbliebenen Medien bzw. der dortigen Dateisysteme garantieren, whrend der vollstndige Ausfall eines einzelnen und entsprechend greren Speichermediums einen vollstndigen Verlust aller Daten zur Folge htte.) RAID 0 ist daher nur in Anwendungen zu empfehlen, bei denen Datensicherheit kaum von Bedeutung ist oder durch eine geeignete Form von Datensicherung anderweitig gewhrleistet wird. Auch wenn berwiegend lesende Zugriffe auftreten (whrend ndernde Zugriffe durch entsprechende Verfahren redundant auch auf einem anderen Medium ausgefhrt werden), kann RAID 0 empfehlenswert sein. Die bei einfachem RAID 0 unvermeidbare Betriebsunterbrechung in Folge eines Festplatten-Ausfalls (auch einzelner Platten) sollte bei der Planung bercksichtigt werden. Der Einsatzzweck dieses Verbundsystems erstreckt sich demnach auf Anwendungen, bei denen in kurzer Zeit besonders groe Datenmengen vor allem gelesen werden sollen, z.B. auf die Musik- oder Videowiedergabe und die sporadische Aufnahme derselben. Die Ausfallwahrscheinlichkeit eines RAID 0 aus Festplatten in einem bestimmten Zeitraum betrgt . Das gilt nur unter der Annahme, dass die Ausfallwahrscheinlichkeit einer Festplatte statistisch unabhngig von den brigen Festplatten ist. Herleitung: Die Wahrscheinlichkeit, dass eine Festplatte nicht ausfllt, ist . Die Wahrscheinlichkeit, dass alle Festplatten nicht ausfallen, ist . Die Wahrscheinlichkeit, dass mindestens eine Festplatte ausfllt und damit der RAID-0-Verbund ausfllt, ist dann .
98
RAID bieten aber nicht alle Controller oder Softwareimplementierungen an. Sie erhht die Lese-Geschwindigkeit des Systems enorm, geht aber auf Kosten der Sicherheit. Eine solche Implementierung schtzt vor einem kompletten Datentrgerausfall, aber nicht vor Problemen mit fehlerhaften Sektoren, zumindest falls diese erst nach dem Speichern (read after write verify) auftreten. Zur Erhhung der Sicherheit kann ein RAID-1-System beim Lesen stets auf mehr als eine Festplatte zugreifen. Dabei werden die Antwort-Datenstrme der Festplatten verglichen. Bei Unstimmigkeiten wird eine Fehlermeldung ausgegeben, da die Spiegelung nicht lnger besteht. Diese Funktion bieten nur wenige Controller an, auch reduziert sie die Geschwindigkeit des Systems geringfgig. Eine Spiegelplatte ist kein Ersatz fr eine Datensicherung, da sich auch versehentliche oder fehlerhafte Schreiboperationen (Viren, Stromausfall, Benutzerfehler) augenblicklich auf die Spiegelplatte bertragen. Dies gilt insbesondere fr unvollstndig abgelaufene, schreibende Programme (etwa durch Stromausfall abgebrochene Update-Transaktionen auf Datenbanken ohne Logging-System), wobei es hier nicht nur zu der Beschdigung der Spiegelung, sondern auch zu einem inkonsistenten Datenzustand trotz intakter Spiegelung kommen kann. Abhilfe schaffen hier Datensicherungen und Transaktions-Logs.
99
RAID Bei RAID 5 ist die Datenintegritt des Arrays beim Ausfall von maximal einer Platte gewhrleistet. Nach Ausfall einer Festplatte oder whrend des Rebuilds auf die Hotspare-Platte (bzw. nach Austausch der defekten Festplatte) lsst die Leistung deutlich nach (beim Lesen: jeder (n-1)-te Datenblock muss rekonstruiert werden; beim Schreiben: jeder (n-1)-te Datenblock kann nur durch Lesen der entsprechenden Bereiche aller korrespondierenden Datenblcke und anschlieendes Schreiben der Paritt geschrieben werden; hinzu kommen die Zugriffe des Rebuilds: (n-1) Lesen; 1 Schreiben). Bei dem Rebuild-Verfahren ist daher die Berechnung der Paritt zeitlich zu vernachlssigen; im Vergleich zu RAID 1 dauert somit das Verfahren unwesentlich lnger und bentigt gemessen am Nutzdatenvolumen nur den (n-1)-ten Teil der Schreibzugriffe. Eine noch junge Methode zur Verbesserung der Rebuild-Leistung und damit der Ausfallsicherheit ist prventives RAID 5. Hierbei werden interne Fehlerkorrekturstatistiken der Platten zur Vorhersage eines Ausfalls herangezogen (siehe S.M.A.R.T.). Vorsorglich wird nun die Hot-Spare-Platte mit dem kompletten Inhalt der ausfallverdchtigsten Platte im RAID-Verbund synchronisiert, um zum vorhergesagten Versagenszeitpunkt sofort an deren Stelle treten zu knnen. Das Verfahren erreicht bei geringerem Platzbedarf eine hnliche Ausfallsicherheit wie RAID 6 und andere Dual-Parity-Implementierungen. Allerdings wurde prventives RAID 5 aufgrund des hohen Aufwands bislang nur in wenigen High-End-Speichersystemen mit server-basierten Controllern implementiert. Zudem zeigt eine Studie von Google (Februar 2007), dass S.M.A.R.T.-Daten zur Vorhersage des Ausfalls einer einzelnen Festplatte nur eingeschrnkt ntzlich sind.[7] Einfluss der Anzahl der Festplatten Bei RAID-5-Systemen sind Konfigurationen mit 3 oder 5 Festplatten hufig anzutreffen das ist kein Zufall, denn die Anzahl der Festplatten hat einen Einfluss auf die Schreibleistung. Einfluss auf die Read-Performance Sie wird weitestgehend durch die Anzahl der Festplatten, aber auch durch Cache-Gren bestimmt, mehr ist hier immer besser. Einfluss auf die Write-Performance Im Unterschied zur Read-Performance ist das Ermitteln der Write-Performance bei RAID 5 deutlich komplizierter und hngt sowohl von der zu schreibenden Datenmenge, als auch von der Anzahl der Platten ab[2] . Ausgehend von Festplatten mit weniger als 2TB Plattenplatz, ist die atomare Blockgre (auch Sektorgre genannt) der Platten hufig 512 Byte (siehe Festplatte: Speichern und Lesen von Daten). Geht man weiter von einem RAID-5-Verbund mit 5 Platten (4/5 Daten und 1/5 Paritt) aus, so ergibt sich folgendes Szenario: Will eine Anwendung 2048 Byte schreiben, wird in diesem gnstigen Fall auf alle 5 Platten genau je ein Block zu 512 Byte geschrieben, wobei einer dieser Blcke keine Nutzdaten enthlt. Im Vergleich zu RAID 0 mit 5 Platten ergibt sich daraus eine Effizienz von 80% (bei RAID 5 mit 3 Platten wren es 66%). Mchte eine Anwendung nur einen Block von 512 Byte schreiben, so ergibt sich ein ungnstigerer Fall, es mssen zuerst der abzundernde Block und der Paritts-Block eingelesen werden, danach wird der neue Paritts-Block berechnet und erst dann knnen beide 512 Byte Blcke geschrieben werden. Das bedeutet einen Aufwand von 2 Lesezugriffen und 2 Schreibzugriffen, um einen Block zu speichern. Geht man vereinfacht davon aus, dass Lesen und Schreiben gleich lange dauern, so betrgt die Effizienz in diesem ungnstigsten Fall, dem sogenannten RAID 5 write Penalty, noch 25%. In der Praxis wird dieser Worst-Case-Fall bei einem RAID 5 mit 5 Platten aber kaum eintreten, denn Dateisysteme haben hufig Blockgren von 2kB, 4kB und mehr und zeigen daher praktisch ausschlielich das Well-Case-Schreibverhalten. Gleiches gilt analog fr RAID 5 mit 3 Platten. Unterschiedlich verhlt sich hingegen z.B. ein RAID-5-System mit 4 Platten (3/4 Daten und 1/4 Paritt), soll hier ein Block von 2048 Byte geschrieben werden, sind zwei Schreibvorgnge notwendig, es werden dann einmal 1536 Byte mit Well-Case-Performance geschrieben und noch einmal 512 Byte mit Worst-Case-Verhalten. Diesem Worst-Case-Verhalten wirken zwar Cache-Strategien entgegen, aber dennoch ergibt sich hieraus, dass bei RAID 5 mglichst ein Verhltnis von zwei, vier oder auch acht Platten fr Nutzdaten plus einer Platte fr Parittsdaten eingehalten werden sollte. Daher haben RAID-5-Systeme mit 3, 5 oder 9 Platten ein besonders gnstiges Performanceverhalten.
100
RAID
101
RAID muss, wenn sich die Eigenschaften des Hamming-Codes nach auen zeigen sollen (diese Forderung entsteht, wenn man einen Bit-Fehler im Hamming-Code analog zu einem Festplatten-Ausfall im RAID 2 sieht). Der kleinste RAID-2-Verbund bentigt drei Festplatten und entspricht einem RAID 1 mit zweifacher Spiegelung. Im realen Einsatz sah man daher zumeist nicht weniger als zehn Festplatten in einem RAID-2-Verbund.
102
RAID-Level 3
Wenn beispielsweise das Bit der ersten Datenplatte verloren ginge, knnte man es aus dem Bit der zweiten Datenplatte und dem Summen-Bit der Paritts-Platte errechnen. ? + 0 eine gerade Summe das erste Bit kann nicht 1 sein, nur 0 ? + 1 eine ungerade Summe das erste Bit kann nicht 1 sein, nur 0 ? + 0 eine ungerade Summe das erste Bit kann nicht 0 sein, nur 1 ? + 1 eine gerade Summe das erste Bit kann nicht 0 sein, nur 1
Beispiel mit drei Datenplatten und einer Paritts-Platte: Bits der Daten-Platten Summe gerade oder ungerade Summen-Bit der Paritts-Platte 0 + 0 + 0 Summe ist 0 Summe ist gerade 1 + 1 + 0 Summe ist 2 Summe ist gerade Summen-Bit 0 Summen-Bit 0 1 + 0 + 0 Summe ist 1 Summe ist ungerade Summen-Bit 1 1 + 1 + 1 Summe ist 3 Summe ist ungerade Summen-Bit 1 0 + 1 + 0 Summe ist 1 Summe ist ungerade Summen-Bit 1 Wenn beispielsweise das Bit der ersten Datenplatte verloren ginge, knnte man es aus den Bits der anderen Datenplatten und dem Summen-Bit der Paritts-Platte errechnen. ? + 0 + 0 eine gerade Summe das erste Bit kann nicht 1 sein, nur 0 ? + 0 + 0 eine ungerade Summe das erste Bit kann nicht 0 sein, nur 1
RAID
? + 1 + 0 eine gerade Summe das erste Bit kann nicht 0 sein, nur 1 ? + 1 + 1 eine ungerade Summe das erste Bit kann nicht 0 sein, nur 1 ? + 1 + 0 eine ungerade Summe das erste Bit kann nicht 1 sein, nur 0
103
In der Mikroelektronik ist dies identisch mit der XOR-Verknpfung. Der Gewinn durch ein RAID 3 ist folgender: Man kann beliebig viele Datenplatten verwenden und braucht fr die Parittsinformationen trotzdem nur eine einzige Platte. Die eben dargestellten Berechnungen lieen sich auch mit 4 oder 5 oder noch mehr Daten-Platten (und nur einer einzigen Paritts-Platte) durchfhren. Damit ergibt sich auch gleich der grte Nachteil: Die Paritts-Platte wird bei jeder Operation, vor allem Schreiboperation, bentigt, die bildet dadurch den Flaschenhals des Systems; auf diese Platten wird bei jeder Schreiboperation zugegriffen. RAID 3 ist inzwischen vom Markt verschwunden und wurde weitgehend durch RAID 5 ersetzt, bei dem die Paritt gleichmig ber alle Platten verteilt wird. Vor dem bergang zu RAID 5 wurde RAID 3 zudem partiell durch RAID 4 verbessert, bei dem Ein-/Ausgabe-Operationen mit greren Blockgren aus Geschwindigkeitsgrnden standardisiert wurden. Zustzlich sei hier bemerkt, dass ein RAID-3-Verbund aus nur zwei Festplatten (eine Daten-Platte + eine Paritts-Platte) dazu fhrt, dass die Paritts-Platte die gleichen Bit-Werte enthlt wie die Daten-Platte, was in der Wirkung einem RAID 1 mit zwei Festplatten entspricht (eine Daten-Platte + eine Kopie der Daten-Platte).
Diagramm eines speziellen RAID 4 mit gesonderter Paritts-Platte, wobei jede Farbe eine Paritts-Gruppe (stripe) darstellt
Wegen der fest definierten Parittsplatte bei RAID 4 wird stattdessen fast immer RAID 5 bevorzugt. Eine Ausnahme bildet ein Systemdesign, bei dem die Lese- und Schreiboperationen auf ein NVRAM erfolgen. Das NVRAM bildet einen Puffer, der die bertragungsgeschwindigkeit kurzfristig erhht, die Lese- und Schreiboperationen sammelt und in sequenziellen Abschnitten auf das RAID-4-Plattensystem schreibt. Dadurch werden die Nachteile von RAID 4 vermindert, und die Vorteile bleiben erhalten. NetApp nutzt RAID 4 in ihren NAS-Systemen, das verwendete Dateisystem WAFL wurde speziell fr den Einsatz mit RAID 4 entworfen. Da RAID 4 nur bei sequentiellen Schreibzugriffen effektiv arbeitet, verwandelt WAFL wahlfreie Schreibzugriffe (random writes) im NVRAM-Cache in sequentielle und merkt sich jede einzelne Position fr den spteren Abruf. Beim Lesen tritt allerdings das klassische Fragmentierungsproblem auf: Zusammengehrige Daten stehen nicht notwendigerweise auf physisch hintereinanderliegenden Blcken, wenn sie im nachhinein aktualisiert bzw. berschrieben wurden. Die verbreitetste Beschleunigung von Lesezugriffen, der cache prefetch, ist daher ohne Wirkung. Die Vorteile beim Schreiben ergeben somit einen Nachteil beim Lesen. Das Dateisystem muss dann regelmig defragmentiert werden.
RAID
104
RAID-Level 6
RAID 6 implementiert Striping mit doppelten, auf Block-Level verteilten Paritts-Informationen. Im Gegensatz zu RAID 5 gibt es bei RAID 6 mehrere mgliche Implementierungsformen, die sich insbesondere in der Schreibleistung und dem Rechenaufwand unterscheiden. Im allgemeinen gilt: Bessere Schreibleistung wird durch erhhten Rechenaufwand erkauft. Im einfachsten Fall wird eine zustzliche XOR-Operation ber eine orthogonale Datenzeile berechnet, siehe Grafik. Auch die zweite Paritt wird rotierend auf alle Platten verteilt. Eine andere RAID-6-Implementierung rechnet mit nur einer Datenzeile, produziert allerdings keine Parittsbits, sondern einen Zusatzcode, der 2 Einzelbit-Fehler beheben kann. Das Verfahren ist rechnerisch aufwndiger. Zum Thema Mehrbit-Fehlerkorrektur siehe auch Reed-Solomon-Code. Fr alle RAID-6-Implementierungen gilt gemeinsam: Der Performance-Malus bei Schreiboperationen (Write Penalty) ist bei RAID 6 etwas grer als bei RAID 5, die Leseleistung ist bei gleicher Gesamtplattenzahl geringer (eine Nutzdatenplatte weniger), bzw. der Preis pro nutzbarem Gigabyte verteuert sich um eine Festplatte je RAID-Verbund, also im Schnitt um ein Siebtel bis zu einem Fnftel. Ein RAID-6-Verbund bentigt mindestens vier Festplatten.
RAIDn
Bei RAIDn handelt es sich um eine Entwicklung der Inostor Corp., einer Tochter von Tandberg Data. RAIDn hebt die bisher starre Definition der RAID-Level auf. Dieses RAID wird definiert durch die Gesamtzahl der Festplatten (n) sowie die Anzahl der Festplatten, die ohne Datenverlust ausfallen drfen (m). Als Schreibweise hat sich RAID(n,m) oder RAID n+m eingebrgert. Aus diesen Definitionen knnen die Kenndaten des RAID wie folgt berechnet werden: Lesegeschwindigkeit = n Lesegeschwindigkeit der Einzelplatte Schreibgeschwindigkeit = (n m) Schreibgeschwindigkeit der Einzelplatte Kapazitt = (n m) Kapazitt der Einzelplatte Einige spezielle Definitionen wurden wie folgt festgelegt: RAID(n,0) entspricht RAID 0 RAID(n,1) entspricht RAID 5 RAID(n,2) entspricht RAID 6
RAID
105
RAID DP: Block-Level Striping mit doppelter Parittsinformationen auf separaten Festplatten
RAID DP (double parity) ist eine von NetApp weiterentwickelte Version von RAID 4. Hierbei wird eine zweite Paritt nach derselben Formel wie die erste Paritt P berechnet, jedoch mit anderen Datenblcken. Die erste Paritt wird horizontal, die zweite Paritt Q diagonal berechnet. Zudem wird bei der Berechnung der diagonalen Paritt jeweils die erste Paritt mit einbezogen, dafr aber abwechselnd eine Festplatte nicht. Da in einem RAID DP zwei beliebige Festplattenfehler kompensiert werden knnen, ist die Verfgbarkeit eines solchen Systemes gegenber einer Single-Parittslsung (also z. B. RAID 4 oder RAID 5) gesteigert.
RAID DP
RAID-DP-Sets bestehen in der Regel aus 14 + 2 Platten. Somit liegt der Brutto-Netto-Verschnitt hnlich niedrig wie bei RAID 4 / RAID 5.
RAID DP vereinfacht die Wiederherstellung. Hierbei werden zuerst mit der diagonalen Paritt die Daten der ersten ausgefallenen Festplatte berechnet und danach aus der horizontalen Paritt der Inhalt der zweiten Festplatte. Die Rechenoperationen beschrnken sich im Gegensatz zum RAID 6, wo ein Gleichungssystem zu lsen ist, auf einfache XOR-Operationen. RAID DP kann jederzeit auf RAID 4 umgeschaltet werden (und umgekehrt), indem man einfach die zweite Parittsplatte abschaltet (bzw. wiederherstellt). Dies geschieht ohne ein Umkopieren oder Umstrukturieren der bereits gespeicherten Daten im laufenden Betrieb. Details zu RAID DP knnen in der USENIX Verffentlichung Row-Diagonal Parity for Double Disk Failure Correction gefunden werden.[8] RAID DP erfllt die SNIA RAID-6-Definition.[9]
RAID-Kombinationen
Obwohl die RAID-Level 0, 1 und 5 die weitaus grte Verwendung finden, existieren neben den Leveln 0 bis 6 noch RAID-Kombinationen. Hier wird ein RAID nochmals zu einem zweiten RAID zusammengefasst. Beispielsweise knnen mehrere Platten zu einem parallelen RAID 0 zusammengefasst werden und aus mehreren dieser RAID-0-Arrays z. B. ein RAID-5-Array gebildet werden. Man bezeichnet diese Kombinationen dann etwa als RAID 05 (0+5). Umgekehrt wrde ein Zusammenschluss von mehreren RAID-5-Arrays zu einem RAID-0-Array als RAID 50 (oder RAID 5+0) bezeichnet werden. Auch RAID-1- und RAID-5-Kombinationen sind mglich (RAID 15 und RAID 51), die beliebtesten Kombinationen sind allerdings das RAID 01, bei dem je zwei Platten parallel arbeiten und dabei von zwei anderen Platten gespiegelt werden (insgesamt vier Platten), oder RAID 10, bei dem (mindestens) zwei mal zwei Platten gespiegelt werden und dabei per RAID 0 zu einem Ganzen ergnzt werden.
RAID Selten werden RAIDs auch mit mehr Layern zusammengefasst (z.B. RAID 100).
106
RAID 00
Bei RAID 00 fehlt die Redundanz, daher gehrt es streng genommen nicht zu den RAID Systemen. Ein RAID-00-Verbund bildet ein groes RAID 0 (Upper-Level) aus mehreren kleinen RAID 0 (Lower Level). Die Eckdaten entsprechen dem RAID 0, allerdings werden mindestens vier Festplatten bentigt. Entwickelt wurde RAID 00 von IBM.
RAID 01
Ein RAID-01-Verbund ist ein RAID 1 ber mehrere RAID 0. Es werden dabei die Eigenschaften der beiden RAIDs kombiniert: Sicherheit (geringer als beim RAID 10) und gesteigerter Datendurchsatz. Hufig wird behauptet, ein konventioneller, aktueller RAID-01-Verbund bentige mindestens vier Festplatten. Dies ist nicht ganz richtig. Mindestens vier (oder genereller: eine gerade Anzahl von) Festplatten werden nur fr den bekannteren, klassischen RAID-01-Verbund bentigt. Aber auch mit nur drei Festplatten lsst sich auf vielen RAID-Controllern ein etwas ausgefallenerer RAID-01 Verbund bilden. Die Vorgehensweise hierfr ist folgende: Zunchst werden die Platten (genau wie bei RAID 0) nur in fortlaufend nummerierte Chunks (= Blcke, Nummerierung beginnend mit 1) eingeteilt dann werden alle Chunks mit ungeraden Nummern mit dem nchst hheren Nachbarn mit gerader Nummer gespiegelt. Die Platten werden dabei jeweils zu 50 % mit Nutzdaten belegt, die brigen 50 % jeder Platte enthalten eine Kopie der Nutzdaten einer der anderen Platten. Die Nutzdaten sowie die gespiegelten Daten werden verteilt (striped). Bei drei Platten sieht das so aus: Platte A: 50 % Nutzdaten + 50 % Spiegelung Nutzdaten Platte C Platte B: 50 % Nutzdaten + 50 % Spiegelung Nutzdaten Platte A Platte C: 50 % Nutzdaten + 50 % Spiegelung Nutzdaten Platte B Die Nutzdaten werden dabei ebenso wie die gespiegelten Daten RAID-0-typisch RAID 01 mit drei Platten ber die Platten A, B und C verteilt (striped). Bei Ausfall einer Platte sind immer noch alle Daten vorhanden. Hinsichtlich der Ausfallwahrscheinlichkeit gibt es theoretisch keinen Unterschied zu RAID 5 mit drei Festplatten. Es mssen zwei von drei Laufwerken intakt bleiben, damit das System funktioniert. Im Unterschied zu RAID 5 steht bei RAID 01 mit drei Festplatten jedoch weniger Speicherplatz zur Verfgung.
RAID
107
RAID 10
Ein RAID-10-Verbund ist ein RAID 0 ber mehrere RAID 1. Es werden dabei die Eigenschaften der beiden RAIDs kombiniert: Sicherheit und gesteigerte Schreib-/Lesegeschwindigkeit. Ein RAID-10-Verbund bentigt mindestens vier Festplatten. Whrend die RAID-1-Schicht einer RAID-0+1-Implementation nicht in der Lage ist, einen Schaden in einem untergeordneten RAID 0 differenziert den einzelnen Festplatten zuzuordnen, bietet RAID 10 gegenber RAID 0+1 eine bessere Ausfallsicherheit und schnellere Rekonstruktion nach einem Plattenausfall, da nur ein Teil der Daten rekonstruiert werden muss. Auch hier hat man wie bei RAID 0+1 nur die Hlfte der gesamten Festplattenkapazitt zur Verfgung.
RAID 10
RAID 03
RAID 03 ist gleichwertig mit RAID 30.
RAID 05
Ein RAID-05-Verbund besteht aus einem RAID-5-Array, das aus mehreren striped RAID 0 besteht. Er bentigt mindestens sechs Festplatten. Bei RAID 05 besteht doppelte Ausfallchance im Vergleich zu einem herkmmlichen RAID 5 aus Einzelplatten, da bei einem RAID 0 schon beim Defekt eines Laufwerkes alle Daten verloren sind.
RAID 03
RAID 1.5
RAID 1.5 ist eigentlich kein eigenes RAID-Level, sondern ein durch das Unternehmen Highpoint eingefhrter Ausdruck fr eine RAID-1-Implementierung mit gesteigerter Performance. Es nutzt typische Vorteile einer RAID-0-Lsung auch bei RAID 1. Die Optimierungen knnen im Unterschied zu RAID 10 bereits mit nur zwei Festplatten verwendet werden. Dabei werden die beiden Platten in einfacher Geschwindigkeit wie bei RAID 1 blich gespiegelt beschrieben, whrend beim Lesen beide Platten mit hohem Datendurchsatz wie bei RAID 0 genutzt werden. Die RAID-1.5-Erweiterungen, nicht zu verwechseln mit RAID 15, werden allerdings nicht nur von Highpoint implementiert. Versierte RAID-1-Implementierungen, wie die unter Linux oder Solaris, lesen ebenfalls im RAID-1-Modus von allen Platten, und verzichten auf den Ausdruck RAID 1.5, der keinen Extra-Vorteil bietet.
RAID 15
Das RAID-15-Array wird gebildet, indem man mindestens drei RAID-1-Arrays als Bestandteile fr ein RAID 5 verwendet; es ist im Konzept hnlich wie RAID 10, auer dass das Striping mit einer Paritt erfolgt. Bei einem RAID 15 mit acht Festplatten drfen bis zu drei beliebige Platten gleichzeitig ausfallen (insgesamt bis zu fnf, sofern zwei der Platten zu einem gemeinsamen Mirrorset gehren). Ein RAID-15-Verbund bentigt mindestens sechs Festplatten. Der Datendurchsatz ist gut, aber nicht sehr hoch. Die Kosten sind mit denen anderer RAID-Systeme nicht direkt vergleichbar, dafr ist das Risiko eines kompletten Datenverlustes recht gering.
RAID
108
RAID 1E
Beim RAID 1E werden einzelne Datenblcke auf die jeweils nchste Festplatte gespiegelt. Es drfen hierbei weder zwei benachbarte noch die erste und die letzte Festplatte gleichzeitig ausfallen. Fr ein RAID 1E wird immer eine ungerade Anzahl von Festplatten bentigt. Die nutzbare Kapazitt reduziert sich um die Hlfte. Es gibt allerdings noch andere Versionen von RAID 1E, die flexibler sind als die hier dargestellte Variante.
RAID 1E
RAID 1E0
Bei einem RAID 1E0 werden mehrere RAID 1E mit einem RAID 0 zusammengeschaltet. Die maximale Anzahl der redundanten Platten und die Nettokapazitt entspricht dem zugrundeliegenden RAID 1E.
RAID 1E0
RAID-30-Verbund
RAID 30 wurde ursprnglich von American Megatrends entwickelt. Es stellt eine striped-Variante von RAID 3 dar (das heit ein RAID 0, welches mehrere RAID 03 zusammenfasst). Ein RAID-30-Verbund bentigt mindestens sechs Festplatten (zwei Legs mit je drei Festplatten). Es darf eine Festplatte in jedem Leg ausfallen.
RAID-45-Verbund
RAID 30 Ein RAID-45-Verbund fasst, hnlich dem RAID 55, mehrere RAID 4 mit einem RAID 5 zusammen. Man bentigt hierfr mindestens drei RAID-4-Legs zu je drei Festplatten und damit neun Festplatten. Bei neun Festplatten sind nur vier Festplatten nutzbar, das Verhltnis verbessert sich allerdings mit der Anzahl der verwendeten Festplatten. RAID 45 wird daher nur in groen Festplattenverbnden eingesetzt. Die Datensicherheit ist sehr hoch, da mindestens drei beliebige Festplatten, zustzlich eine Festplatte in jedem Leg und dazu noch ein komplettes Leg ausfallen drfen.
RAID
109
RAID-50-Verbund
Ein RAID-50-Verbund besteht aus einem RAID-0-Array, das aus mehreren striped RAID 5 besteht. Ein RAID-50-Verbund bentigt mindestens sechs Festplatten, beispielsweise zwei RAID-5-Controller mit jeweils drei Platten pro Controller zusammengeschaltet mit einem Software-Stripe RAID 0. Das garantiert einen sehr hohen Datendurchsatz beim Schreiben und Lesen, da die Rechenarbeit auf zwei XOR-Units verteilt wird. Ein RAID-50-Verbund wird bei Datenbanken verwendet, bei denen Schreibdurchsatz und Redundanz im Vordergrund stehen.
RAID 51
Der RAID-51-Verbund wird hnlich wie RAID 15 gebildet, indem man die gesamte Reihe eines RAID 5 spiegelt, und ist hnlich zu RAID 01, abgesehen vom Parittsschutz. Bei einem Acht-Festplatten-RAID-51 drfen bis zu drei beliebige gleichzeitig ausfallen. Darber hinaus drfen drei Festplatten ausfallen, solange keine aus dem gespiegelten RAID-5-Verbund betroffen sind. Ein RAID-51-Verbund bentigt mindestens sechs Festplatten. Die Datenbertragungs-Leistung ist gut, aber nicht sehr hoch. Die Kosten sind mit denen anderer RAID-Systeme nicht direkt vergleichbar.
RAID 51
RAID 53
RAID 53 ist eine in der Praxis gngige Bezeichnung fr ein RAID 30.
RAID 55
Der RAID-55-Verbund wird hnlich wie RAID 51 gebildet, indem mehrere RAID-5-Systeme ber ein weiteres RAID 5 zu einem RAID 55 zusammengeschaltet werden. Im Gegensatz zu RAID 51 ist der Overhead geringer, und es ist mglich, schneller die Daten zu lesen. Bei einem Neun-Festplatten-RAID-55-System drfen bis zu drei beliebige Festplatten gleichzeitig ausfallen. Darber hinaus drfen fnf Festplatten ausfallen. Ein RAID-55-Verbund bentigt mindestens neun Festplatten (drei Legs zu je drei Festplatten). Die Datenbertragungs-Geschwindigkeit ist gut, aber nicht sehr hoch. Die Kosten sind mit denen anderer RAID-Systeme nicht direkt vergleichbar.
RAID 5E
RAID 5E ist die Abkrzung fr RAID 5 Enhanced. Es kombiniert ein RAID 5 mit einem Hot-Spare. Der Hot-Spare wird dabei allerdings nicht als getrenntes Laufwerk ausgefhrt, sondern auf die einzelnen Platten aufgeteilt. Anders ausgedrckt wird auf jeder Platte Speicherplatz fr den Fall eines Ausfalles reserviert. Sollte eine Festplatte ausfallen, wird der Inhalt dieser Platte im freien Speicherplatz mit Hilfe der Paritt wiederhergestellt, und das Array kann als RAID 5 weiterbetrieben werden. Der Vorteil liegt nicht in einer gesteigerten Sicherheit gegenber RAID 5, sondern in der hheren Geschwindigkeit durch stndige Nutzung aller vorhandenen Plattenspindeln, inklusive der blicherweise leer mitlaufenden Hot-Spare-Platte.
RAID 5E
RAID Die Technik wird schon lange bei IBM fr RAID-Controller eingesetzt, jedoch immer mehr durch RAID 5EE ersetzt.
110
RAID 5EE
RAID 5EE arbeitet hnlich wie RAID 5E. Allerdings wird hierbei der freie Speicherplatz nicht am Ende der Festplatten reserviert, sondern hnlich der RAID-5-Paritt ber die Platten diagonal verteilt. Dadurch bleibt beim Ausfall eine hhere bertragungsgeschwindigkeit bei der Wiederherstellung der Daten.
RAID-60-Verbund
Ein RAID-60-Verbund besteht aus einem RAID-0-Array, welches mehrere RAID 6 kombiniert. Hierzu sind mindestens zwei Controller mit je vier Festplatten, also gesamt acht Festplatten, notwendig. Prinzipiell skalieren sich die Unterschiede von RAID 5 und RAID 6 hoch auf die Unterschiede zwischen RAID 50 und RAID 60: Der Durchsatz ist geringer, whrend die Datensicherheit hher ist. Der gleichzeitige Ausfall von zwei beliebigen Laufwerken ist jederzeit ohne Datenverlust mglich; weitere Ausflle sind nur dann unkritisch, wenn maximal zwei Platten je gestriptem RAID 6 betroffen sind.
Matrix-RAID
Ab der Intel ICH6R-Southbridge ist seit etwa Mitte 2004 erstmals eine Technik integriert, die als Matrix-RAID vermarktet wird und die Idee von RAID 1.5 aufgreift. Sie soll die Vorteile von RAID 0 und RAID 1 auf nur zwei Festplatten vereinen. Jede der beiden Platten wird vom Controller zu diesem Zweck in zwei Bereiche aufgeteilt. Ein Bereich wird dann auf die andere Festplatte gespiegelt, whrend im verbleibenden Bereich die Daten auf beide Platten aufgeteilt werden. Man kann dann z.B. im aufgeteilten Bereich sein unwichtiges Betriebssystem und Programme installieren, um von RAID 0 zu profitieren, whrend man im gespiegelten Bereich dann seine wichtigen Daten abspeichern kann und auf die Redundanz von RAID 1 vertrauen kann. Im Falle eines Plattencrashes msste man dann nur sein Betriebssystem und Programme neu aufspielen, whrend die wichtigen Daten im anderen Festplattenbereich erhalten bleiben.
Matrix-RAID
Mit mehreren Festplatten kann man in einem Matrix-RAID auch andere RAID-Typen einsetzen und beispielsweise ab drei Festplatten eine Partition als RAID 5 betreiben.
RAID
111
RAID C1 pP(C1D1) pQ(C1D1) pR(C1D1) D1 pP(E1F1) pQ(E1F1) pR(E1F1) E1 F1 A2 B2 pP(A2B2) pQ(A2B2) pR(A2B2) C2 pP(C2D2) pQ(C2D2) pR(C2D2) D2 pP(E2F2) pQ(E2F2) pR(E2F2) E2 F2 Hinweis: A1, B1, etc. stellen einen Datenblock dar; jede Spalte stellt eine Festplatte dar. A, B, etc. sind gesamte Volumes. Hierzu bentigt man mindestens vier Festplatten. Die Kapazitt errechnet sich aus Festplattenanzahl minus drei.
112
Zusammenfassung
Anzahl der Festplatten Die Anzahl der Festplatten aufzubauen. Nettokapazitt Die Nettokapazitt gibt an, wie viele Festplatten bentigt werden, um das jeweilige RAID
gibt die nutzbare Kapazitt in Abhngigkeit von der Anzahl der verwendeten Festplatten
an. Dies entspricht der Anzahl der bentigten Festplatten ohne RAID, die die gleiche Speicherkapazitt aufweisen. Ausfallsicherheit Die Ausfallsicherheit gibt an, wie viele Festplatten ausfallen drfen, ohne dass ein Datenverlust auftritt. Zu beachten ist, dass es insbesondere bei den Kombinations-RAIDs einen Unterschied geben kann zwischen der Anzahl der Festplatten, die auf jeden Fall ausfallen knnen ( ), und der Anzahl der Festplatten, die im gnstigsten Fall ausfallen knnen ( ). Es gilt immer und fr Standard-RAIDs sind
RAID diese beiden Werte identisch. Leg Ein Leg (englisch fr Bein) oder lower level RAID ist ein RAID-Array, welches mit anderen gleichartigen Legs ber ein bergeordnetes RAID-Array (upper level RAID) zusammengefasst wird. Hierbei ist in unten stehender Tabelle die Anzahl der Festplatten in einem Leg und die Anzahl der Legs im bergeordnetem Array (sofern das RAID tatschlich kombiniert ist).
n (Anzahl der Festplatten) k (Nettokapazitt) S (Ausfallsicherheit) Leseperformance Schreibperformance
113
RAID
|+ bersicht ber die Standard-RAIDs Anmerkung: Die RAIDs 3 und 4 knnen prinzipiell auch mit zwei Festplatten benutzt werden, allerdings erhlt man dann exakt die gleiche Datensicherheit wie mit RAID 1 bei der gleichen Anzahl Festplatten. Dabei ist aber RAID 1 technisch einfacher und wrde in dem Fall immer bevorzugt werden. Dasselbe trifft fr bergeordnete Arrays oder Legs in Kombinations-RAIDs zu. RAID 6 kann auch mit drei Festplatten benutzt werden.
RAID n (Anzahl der Festplatten) k (Nettokapazitt) S (Ausfallsicherheit) Leseperformance Schreibperformance
00
keine (0)
RAID
114
Mindestens alle Gerte bis auf eines in einem Leg: hchstens alle Gerte bis auf eines in jedem Leg: ,
10
( siehe Text
mit
Platten Performance steigt mit der Anzahl der Platten siehe Text)
0+1
Mindestens ein Gert in jedem Leg bis auf einen. hchstens alle Gerte in jedem Leg bis auf einen:
1E
1E0
und letzte sind auch Nachbarn) in jedem Leg: 1.5 MatrixRAID Abhngig von der Aufteilung der Partitionen der Festplatten und vom verwendeten RAID fr die redundante Partition 15 Mindestens alle Gerte eines Legs und alle Gerte bis auf eines in einem anderen Leg: , hchstens alle Gerte eines Legs und alle Gerte bis auf eines in jedem anderen Leg: Fr die RAID-0-Partition: 0, fr die redundante Partition: abhngig vom verwendeten RAID
51
Mindestens ein Gert in jedem Leg und zustzlich ein Gert in jedem Leg bis auf einen: , hchstens alle Gerte in jedem Leg bis auf einen und ein Gert in dem anderen Leg:
Mindestens das Minimum aus den Legs und den Gerten pro Leg: , hchstens alle Gerte eines Legs und ein Gert in jedem anderen Leg:
1 1 3
|+ bersicht ber die Kombinations-RAIDs Anmerkung: Die fr angegebenen Flle, welche Gerte genau ausfallen, dienen zur anschaulichen Darstellung. Die Werte geben lediglich an, dass in jedem beliebigen Fall genau diese Anzahl an Gerten ausfallen kann, ohne dass Daten verloren gehen. Die Angabe erhebt nicht den Anspruch darauf, dass in dem speziellen Fall nicht noch weitere Festplatten ohne Datenverlust ausfallen knnen.
RAID
115
Andere Begriffe
Cache
Der Cache-Speicher spielt bei RAID eine groe Rolle. Grundstzlich sind folgende Caches zu unterscheiden: Betriebssystem RAID-Controller Enterprise Disk Array Eine Schreibanforderung wird heute blicherweise bereits quittiert, wenn die Daten im Cache angelangt sind und somit bevor die Daten tatschlich permanent gespeichert wurden; weiterhin kann es vorkommen, dass der Cache nicht in der Reihenfolge bereinigend entleert wird, in der er gefllt wurde; hierdurch kann eine Zeit entstehen in der bereits als gespeichert angenommene Daten durch einen Strom- oder Hardware-Ausfall verloren gehen knnen, was zu fehlerhaften Datei-Inhalten fhren kann (etwa wenn das Dateisystem von einer Verlngerung der Datei ausgeht, obwohl aber die entsprechenden Daten noch gar nicht geschrieben wurden). In Enterprise-Speichersystemen berlebt der Cache daher Resets. Der Schreib-Cache bringt einen Geschwindigkeitsgewinn, solange der Cache (RAM) nicht voll ist, oder solange die Schreibanforderungen in sub-optimaler Reihenfolge oder berlappend eingehen, da das Schreiben in den Cache schneller ist als das Schreiben auf Platte. Der Lese-Cache ist heute in Datenbank-Anwendungen oft von groer Bedeutung, da hierdurch fast nur noch zum Schreiben auf das langsame Speichermedium zugegriffen werden muss. Cache Controller mit Pufferbatterie Manche hherwertigen RAID-Controller bieten die Mglichkeit eine Pufferbatterie fr den Controller und dessen Cachespeicher zu installieren. Der Batteriepuffer soll dafr sorgen, dass Daten die bei einem Stromausfall oder einem Systemausfall im Cache liegen und noch nicht auf die Platten geschrieben wurden, nicht verloren gehen. Um berhaupt zu funktionieren setzt dies voraus, dass der in den Festplatten eingebaute und blicherweise nicht per Batterie abgesicherte Cache der Platten deaktiviert ist. Wrde der Plattencache zustzlich zum Controllercache Daten vor dem Schreiben zwischenspeichern, wrden diese beim Systemausfall natrlich verlorengehen. Zustzlich ist der Nutzen auch bei einem z.B. durch Stromausfall bedingten Systemfehler zweifelhaft, alleine durch den Cache-Batteriepuffer wird sicher keine Datenkonsistenz gesichert eher wird eine Inkonsistenz zu einem spteren Status erreicht. Daher ist es stark umstritten ob sich Investitionen in Pufferbatterien, die nur den Controller absichern, berhaupt einen groen Nutzen bieten und ob es nicht ausreichend bzw. besser ist, das Gesamtsystem per USV abzusichern. Nur wenn sonst keine Fehlfunktion vorlag (insbesondere das System nicht mit der Berechnung von Schreiboperationen beschftigt war, bevor die Cachebatterie einsprang) und zustzlich die Dauer des Ausfalls innerhalb der maximalem Laufzeit der Cachebatterie bleibt, knnen nach dem erneuten Systemstart die Daten aus dem Controllercache auf die Festplatten bertragen werden und einen Mehrwert bieten. Siehe auch: Cache, BBWC, NCQ, TCQ
LVM
Die Funktionen eines Logical Volume Manager werden oft mit denen eines Software-RAID-Systems vermischt. Das liegt wohl hauptschlich daran, dass die Verwaltung beider Subsysteme meist ber eine gemeinsame Grafische Benutzeroberflche erfolgt. Dabei gibt es eine klare Abgrenzung. Echte RAID-Systeme bieten immer Redundanz (auer RAID 0) und verfgen folglich auch immer ber eine RAID-Engine, welche die zustzlichen, fr die Redundanz bentigten Daten erzeugt. Die hufigsten Engine-Varianten sind bei RAID 1 die Datenduplizierung und bei RAID 5 und den meisten anderen Verfahren die XOR-Bildung. Es werden bei RAID also immer zustzliche Datenstrme in erheblichem Umfang erzeugt, der Datendurchsatz der RAID-Engine ist daher ein wichtiger Performancefaktor. Aufgabe eines LVM ist es physische Datentrger (oder Partitionen) auf logische Datentrger
RAID abzubilden. Einer der hufigsten Anwendungsflle ist das nachtrgliche Vergrern von Partitionen und Dateisystemen die durch den LVM verwaltet werden. Ein LVM erzeugt hierbei aber keine zustzlichen Datenstrme, er hat auch keine Engine und bietet daher auch keine Redundanz, somit erzeugt er auch nur minimalen Rechenaufwand. Daher hat er auch praktisch keinen Performance-Einfluss (wenngleich auch einige LVM-Implementierungen integrierte RAID-0-Erweiterungen besitzen). Die Aufgabe des LVMs besteht im Wesentlichen also darin, Datenstrme aus den Dateisystemen auf die jeweils zugehrigen Datentrgerbereiche zu verteilen, sie hnelt am ehesten der Arbeitsweise einer MMU. In einigen Systemen (z.B. HP-UX oder Linux) sind Software-RAID und LVM optionale Erweiterungen und knnen vllig unabhngig voneinander installiert und genutzt werden. Manche Hersteller lizenzieren daher das Volume-Management und RAID (Mirroring und/oder RAID 5) auch separat.
116
Performance
Zur Bestimmung der Leistungsfhigkeit eines Festplattensubsystems gibt es zwei wesentliche Parameter, die Anzahl der bei zuflligem Zugriff mglichen I/O-Operationen pro Zeit, also IOPS (I/O pro Sekunde), und der Datendurchsatz bei sequentiellem Zugriff gemessen in MB/s. Die Leistung eines RAID-Systems ergibt sich aus der kombinierten Leistung der verwendeten Festplatten. Die Anzahl der IOPS leitet sich direkt von der mittleren Zugriffszeit und der Drehzahl einer Festplatte ab. Bei SATA-Platten liegt die Zugriffszeit bei 8 bis 10 ms, eine halbe Umdrehung dauert je nach Drehzahl ca. 2 bis 4 ms. Vereinfacht ist das gleichbedeutend mit einer Dauer fr einen nicht sequentieller Zugriff von gerundet 10 ms. Hieraus ergibt sich, dass pro Sekunde maximal 100 I/Os mglich sind, also ein Wert von 100 IOPS. Leistungsstrkere SCSI- oder SAS-Platten haben Zugriffszeiten von unter 5 ms und arbeiten mit hheren Drehzahlen, daher liegen deren I/O-Werte bei ungefhr 200 IOPS. Bei Systemen, die viele gleichzeitige Benutzer (oder Tasks) abzuarbeiten haben, ist der IOPS-Wert eine besonders wichtige Gre. Der sequentielle Datendurchsatz ist ein Wert, der im Wesentlichen von der Drehzahl und der Schreibdichte, und der Anzahl der beschriebenen Oberflchen einer Festplatte abhngt. Erst beim wiederholten Zugriff hat auch der Platten-Cache einen leistungssteigernden Einfluss. Bei gleicher Konfiguration (Schreibdichte, Oberflchen) liefert eine aktuelle Platte mit 10.000 Umdrehungen pro Minute also etwa doppelt so schnell Daten, als eine einfache IDE-Platte, die mit 5.200 Umdrehungen pro Minute arbeitet. Beispielsweise liefert die Samsung Spinpoint VL40 mit 5.400 U/min einen Datenstrom mit im Mittel etwa 33 MB/s, die WD Raptor WD740GD mit 10.000 U/min hingegen schafft im Mittel 62 MB/s. IOPS und MB/s bei RAID 0 Bei kleinen Chunk-Gren (2k) nutzt ein RAID-0-Verbund aus zwei Platten praktisch bei jedem Zugriff beide Platten, also verdoppelt sich der Datendurchsatz (pro I/O-Prozess), jedoch bleiben die IOPS unverndert. Bei groen Chunks hingegen (32K) wird fr einen einzelnen Zugriff meist nur eine Platte genutzt, folglich kann ein weiterer I/O auf der zweiten Platte stattfinden, somit verdoppeln sich die IOPS-Werte, wobei der Datenstrom (pro I/O-Prozess) gleich bleibt und sich nur bei Systemen mit vielen gleichzeitigen Tasks kumuliert. Besonders Server profitieren also von greren Chunks. Systeme mit zwei Platten (Typ: 100 IOPS) im RAID 0 knnen theoretisch also bis zu 200 IOPS bei etwa 60 MB/s erreichen. IOPS und MB/s bei RAID 1 Moderne RAID-1-Implementierungen verhalten sich beim Schreiben wie die einzelnen verwendeten Platten. Die Chunkgre ist fr schreibende Zugriffe nicht von Belang. Beim Lesen hingegen arbeiten zwei Platten gleichzeitig, analog zu den RAID-0-Systemen. Daher haben auch bei RAID 1 die Chunkgren den gleichen Einfluss auf die Performance von Lesezugriffen wie bei RAID 0, auch hier profitieren besonders Server von greren Chunks. Systeme mit zwei Platten (Typ: 100 IOPS) im RAID 1 knnen also theoretisch lesend bis zu 200 IOPS bei etwa 60 MB/s erreichen, schreibend bis zu 100 IOPS bei etwa 30 MB/s. IOPS und MB/s bei RAID 10
RAID Die Kombination aus RAID 0 und RAID 1 verdoppelt die Leistung im Vergleich zu purem RAID 1. Aktuelle Systeme mit acht Platten (Typ: 100 IOPS) im RAID 10 knnen also theoretisch lesend bis zu 800 IOPS bei etwa 240 MB/s erreichen, schreibend bis zu 400 IOPS bei etwa 120 MB/s. IOPS und MB/s bei RAID 5 RAID 5 arbeitet mit mindestens drei Platten, wobei sich auch hier die Lese- und Schreibperformance stark unterscheidet. In minimaler RAID-5-Konfiguration mit drei Platten (Typ: 100 IOPS) ergeben sich lesend bis zu 300 IOPS. Da aber fr einen Schreibzugriff bei kleinen Blcken (< Stripe-Size) immer zwei lesende (Sektor-alt, Parity-alt) und zwei schreibende Zugriffe (Sektor-neu, Parity-neu)[12] ntig sind, werden beim Schreiben eines RAID-5-Verbunds mit 3 Platten im Mittel nur 50 bis 75 IOPS erreicht (je nach dem ob die 3. Platte fr andere Zugriffe genutzt wird), beim Schreiben kompletter Stripes kann der Lesezugriff allerdings entfallen und dann bis zu 200 IOPS erreichen. Die Schreibleistung steht also in Abhngigkeit zur linear zusammenhngenden Datenmenge (> Stripe-Size), zur Lage der Daten (Stripe-Alignment) und steht im direkten Zusammenhang zur Stripe-Size. Daher sollten zum Erzielen einer guten Schreibleistung bei Systemen mit vielen Platten die Chunk-Size niedrig gewhlt werden, im Besonderen niedriger als bei Systemen die mit wenig Platten (drei) im Verbund arbeiten. Eine Chunk-Size von 128 kB im RAID 5 mit drei Platten fhrt beispielsweise zu einer Stripe-Size von 256 kB, fr ein RAID-5-System mit fnf Platten ergibt sich eine Stripe-Size von 256 kB jedoch aus einer Chunk-Size von 64 kB. Die Schreibleistung kann also im ungnstigen Fall durchaus geringer sein als die eines RAID-1-Verbunds oder einer einzelnen Platte, besonders wenn hufig kleinere nicht zusammenhngende Daten geschrieben werden sollen. Aktuelle Systeme mit beispielsweise acht Platten (Typ: 100 IOPS) im RAID 5 knnen theoretisch lesend bis zu 800 IOPS erreichen, schreibend je nach Zugriffsmuster von 200 bis zu 700 IOPS. Einfluss der Anzahl der Festplatten Bei RAID 0 hat die Anzahl der beteiligten Festplatten einen linearen Einfluss auf die Performance. Die I/O-Geschwindigkeit lesend ist bei acht Platten auch achtmal so hoch wie die einer einzelnen Platte, ebenso wie die Schreibgeschwindigkeit. Bei RAID 10 hingegen steigt nur die Lesegeschwindigkeit genau so schnell wie bei RAID 0, die Schreibgeschwindigkeit hingegen nur halb so schnell. Weitaus komplizierter verhlt sich der Zugewinn bei RAID 5 (siehe vorigen Absatz). Der Zugewinn beim Schreibzugriff liegt im ungnstigen Fall bei nur einen Viertel. Im Mischbetrieb (50 % read, 50 % write) ergeben sich bei solchen Zugriffsmustern fr ein RAID 10 aus acht Platten etwa 533 IOPS und fr RAID 5 ungefhr 320 IOPS.[2] RAID 6 verhlt sich ganz hnlich wie RAID 5 jedoch sind beim schreiben die Zusammenhnge noch etwas komplexer, lesend ist der Zugewinn gleich hoch, schreibend jedoch noch niedriger. Vorteilhafterweise ist der netto zur Verfgung stehende Platz bei RAID 5 im Vergleich zu RAID 10 (bei 8 Platten im Verhltnis 7:4) deutlich hher. Aus diesen Gesichtspunkten sind RAID 5 und RAID 6 besonders dort hervorragend geeignet, wo Daten in groen Blcken verarbeitet werden oder Lesezugriffe dominieren, z. B. bei der Bild- und Videobearbeitung und generell auch bei Archiven. Hat man hufig nicht sequentielle Schreibzugriffe auf kleine Datenmengen (< Stripe-Size), z. B. bei einem gut ausgelasteten Messaging- (SMS) oder Mailserver oder einer interaktiven Datenbankanwendung, ist RAID 10 die bessere Wahl. Rechenbeispiel Mailserver Ein Mail-Server fhrt heute neben dem Mailversand hufig noch eine Virenprfung und eine Spam-Analyse durch. Daher gehen wir davon aus, dass pro Mail inklusive Anhang im Mittel ca. 25 Schreibzugriffe und ca. 50 Lesezugriffe (IOPS) notwendig sind. Weiter gehen wir davon aus, dass keine weiteren Ressourcen einen begrenzenden Einfluss haben. Das RAID-1-System mit zwei einfachen Platten (siehe weiter oben) kann folglich etwa 240 Mails pro Minute verarbeiten, das RAID-5-System mit acht Platten hingegen kommt auf maximal 480 Mails pro Minute. Als RAID-10-Konfiguration mit acht Platten sind bereits knapp 1000 Mails pro Minute mglich. Wechselt man bei dem RAID-10-System auf Hochleistungsplatten, so kann der Durchsatz auf das Zwei- bis Dreifache gesteigert werden, also maximal etwa 2500 Mails pro Minute
117
RAID Performance, RAID 10 vs. RAID 5 Vielerorts wird die Frage diskutiert, ob RAID 10 (auch RAID 01) oder RAID 5 fr verschiedene Anwendungen das bessere System sei. Dabei sind generell zwei Aspekte zu beachten, die Read-Performance und die Write-Performance eines Systems. Read-Performance Sie ist bei beiden Systemen praktisch identisch und wird weitestgehend durch die Anzahl der Festplatten aber auch durch Cache-Gren bestimmt, mehr ist hier immer besser. Write-Performance Hier verhalten sich beide Systeme unterschiedlich. Da bei RAID 10 alles doppelt geschrieben wird, reduziert sich die nutzbare Write-Performance im Vergleich zur maximal mglichen Schreibleistung, die sich ebenfalls aus der Anzahl der Platten ergibt, immer auf 50% (Effizienz ist 50%). Blockgren oder andere Parameter haben bei RAID 10 keinen Einfluss auf die Leistung. Bei RAID 5 ist der Sachverhalt komplizierter und hngt von der zu schreibenden Datenmenge ab. Ausgehend von Festplatten mit weniger als 2TB Plattenplatz ist die atomare Blockgre (auch Sektorgre genannt) der Platten hufig 512 Byte (siehe Festplatte: Speichern und Lesen von Daten). Geht man weiter von einem RAID-5-Verbund mit 5 Platten (4/5 Daten und 1/5 Paritt) aus, so ergibt sich folgendes Szenario: Will eine Anwendung 2048 Byte schreiben, wird in diesem gnstigen Fall auf alle 5 Platten genau je ein Block zu 512 Byte geschrieben, wobei einer dieser Blcke keine Nutzdaten enthlt. Daraus ergibt sich eine Effizienz von 80% (bei RAID 5 mit 3 Platten wren es 66%). Mchte eine Anwendung aber nur einen Block von 512 Byte schreiben, so ergibt sich ein ungnstigerer Fall (siehe Raid 5 write Penalty), es mssen zuerst der abzundernde Block und der Paritts-Block eingelesen werden, danach wird der neue Paritts-Block berechnet und erst dann knnen beide 512 Byte Blcke geschrieben werden[2] . Das bedeutet einen Aufwand von 2 Lesezugriffen und 2 Schreibzugriffen, um einen Block zu speichern; geht man vereinfacht davon aus, dass Lesen und Schreiben gleich lange dauern, so betrgt die Effizienz in diesem ungnstigsten Fall nur noch 25% [13] . Fazit In der Praxis hat das schlechtere Worst-Case-Verhalten von RAID 5 nur selten merklich negative Einflsse, was unter anderem daran liegt, dass vergleichsweise kleine Blckgren von 512 Byte selten vorkommen. Weiter nutzen aktuelle Systeme Cache-Strategien, um dieses Verhalten zu eliminieren. Dennoch sind Anwendungsflle denkbar, bei denen die verminderte Worst-Case-Effizienz zutage tritt. In diesem Fall sollte RAID 10 oder RAID 01 bevorzugt werden, obgleich in den meisten Fllen RAID 5 die performantere Lsung sein und dazu noch mehr nutzbaren Plattenplatz bieten wird. Bei neueren Festplatten, deren atomare Blockgre 4096 Byte betragen kann, knnte die schlechtere Worst-Case-Effizienz wieder an Bedeutung gewinnen. Gleiches gilt fr Copy-On-Write-Dateisysteme wie ZFS oder btrfs, bei denen RAID-5-Systeme vom Cache auf externen Controllern und den dort mglichen Cache-Strategien (Prinzip bedingt) weniger profitieren. Ein ganz anderer Aspekt sind die Kosten: Wer ein leistungsfhiges RAID-5-System aufbaut, wird hufig einen leistungsstarken Hardware-RAID-Controller einplanen, der bei RAID 10 nicht unbedingt erforderlich ist. Dann ist ein RAID 10 mit 4 Platten etwa gleich teuer wie ein RAID 5 mit 3 Platten plus Controller. Das RAID 10 bietet dann gleich viel Platz und hat die bessere Read-Performance (wegen mehr Platten) bei gleicher bzw. besserer Write-Performance (kein Worst-Case-Verhalten kein Raid 5 write Penalty) im Vergleich zu RAID 5 mit 5 Platten bentigt ein RAID-10-System aber bereits 8 Platten, um eine gleich hohe (Well-Case-) Write-Performance wie ein RAID-5-System zu bieten und ist eine Alternative, die sich kaum noch lohnt. Des weiteren sind die Inter- und Intra-I/O-Parallelitten fr die Gren von IOPS oder MB/s wesentlich bestimmend.
118
RAID
119
SPAN
Von VIA wird in seiner RAID-Konfiguration unter anderem die Option SPAN angeboten. Sie dient zur Kapazittserweiterung ohne Leistungsgewinn wie bei RAID 0 (Striping). Whrend bei RAID 0 die Daten gleichzeitig auf mehrere Festplatten verteilt werden, gelangen die Daten bei SPAN zusammenhngend auf eine Festplatte. Bei RAID 0 sollten nach Mglichkeit gleich groe Festplatten verwendet werden, da die berschssige Kapazitt des greren Datentrgers verloren geht. Bei SPAN sind unterschiedlich groe Festplatten ohne Kapazittsverlust zu einer groen Festplatte zusammenfassbar, und entspricht somit Linear Mode oder Linear Mode oder NRAID.
JBOD
JBOD bedeutet Just a Bunch Of Disks, also: Nur ein Haufen Festplatten. Bei JBOD fehlt die Redundanz, daher gehrt es nicht zu den RAID-Systemen, es ist nur ein einfaches Array of Independent Disks. Der Begriff wird in der Praxis in Abgrenzung zu RAID-Systemen auf drei verschiedene Arten verwendet: 1. Konfiguration eines RAID-Controllers mit mehreren Festplatten, die keinen Verbund bilden. Viele Hardware-RAID-Controller sind in der Lage, die angeschlossenen Festplatten dem Betriebssystem einzeln zur Verfgung zu stellen; die RAID-Funktionen des Controllers werden dabei abgeschaltet, und er arbeitet als einfacher Festplatten-Controller. JBOD 2. Ein JBOD kann auch, unabhngig vom Controller, eine auf beliebige Arten an den Computer angeschlossene Anzahl von Festplatten bezeichnen. Mithilfe einer Volume Management Software kann ein solches JBOD zu einem gemeinsamen logischen Volume zusammengeschaltet werden. 3. Konfiguration eines RAID-Controllers als Aneinanderreihung (concatenation) mehrerer Festplatten, die so als ein einziges Laufwerk erscheinen. Diese Konfiguration ist identisch mit NRAID oder SPAN und ist genau genommen auch kein RAID-System.
Drive Extender
Mit dem Drive Extender des Microsoft Windows Home Servers findet sich eine Art virtuelles RAID, das aber auf JBOD basiert. Neue Dateien landen in der Regel zunchst auf der Systemplatte und werden dann erst spter auf eine der anderen Festplatten verschoben, hinterlassen aber einen Verweis (Tombstone), der 4 kB Festplattenspeicher belegt. Der Benutzer kann dadurch arbeiten, als ob der Server ber eine einzige groe Festplatte verfgen wrde.
Stripe Size
Die Stripe Size bezeichnet die Gre des aus einem oder mehreren Datenblcken (Chunks) bestehenden Datenbereichs (Striping-Granularitt), der auf die RAID-Speichermedien verteilt wird. So wird bei einem aus vier Festplatten bestehenden Array mit einer Stripe Size von 1 MiB ein Datenblock (Chunk) in einer Gre von 256 KiB auf jede Festplatte geschrieben. Bei einer Vergrerung der Stripe-Size wchst der maximale Durchsatz, gleichzeitig erhht sich aber die Zugriffszeit. Heute blich sind Stripe-Gren von 256 KiB bis 2 MiB.
RAID
120
Chunk Size
Chunks sind Untereinheiten eines Stripe-Set, die Chunk Size bezeichnet die Gre eines solchen Chunks, also maximale Anzahl von Sektoren die zusammenhngend und sequentiell auf einer Platte angeordnet sind. Alle Blcke oder Sektoren eines Chunks liegen auf der gleichen Platte. Ist das Ende eines Chunks erreicht, liegt der nchste sequentielle Datenblock auf einer folgenden Platte. Ein Stripe-Set setzt sich aus je einem Chunk pro Datentrger eines RAID-Verbunds zusammen. So besitzt beispielsweise ein aus vier Festplatten bestehendes RAID-0-Array mit einer Chunk Size von 256 KiB eine Stripe Size von 1 MiB. Unabhngig davon wird beim Formatieren eines Arrays die File System Block Size fr das jeweilige Dateisystem gesetzt. Die Performanceauswirkungen der eingestellten Chunk Size[12] im Verhltnis zu der gewhlten File System Block Size sind komplex.
Hot Swapping
Hot Swapping ist die Mglichkeit, Festplatten im laufenden Betrieb auszutauschen. Dazu muss der Bus-Controller Hot-Plugging untersttzen (i.d.R. nur SCSI, SAS oder SATA). Damit es nicht zu Datenverlust fhrt, ist ein Austausch nur in Arrays mit redundanter Datensicherung mglich.
Hot-Spare-Laufwerk
Das Hot-Spare-Laufwerk ist ein unbenutztes Reservelaufwerk. Fllt ein Laufwerk innerhalb des RAID-Verbundes aus, wird es durch das Reservelaufwerk ersetzt. Dadurch ist die Redundanz schnellstmglich wiederhergestellt. Whrend der Rebuild-Phase hat man allerdings keine Redundanz. Zur Vermeidung dieses Problems kann ein RAID 6 oder RAID DP statt RAID 5 verwendet werden, da hier zwei Parittsplatten vorhanden sind. Auerdem gibt es Speichersysteme, die intern stndig alle Plattenbereiche prfen. Sollte ein Datenblock dirty sein, so wird die Platte bis zu diesem Bereich kopiert, der Dirty-Block aus der Prfsumme bzw. der Spiegelplatte rekonstruiert und dann weiter kopiert. Dadurch kann die Wiederherstellungszeit reduziert werden.
In greren RAID-Systemen, in denen die Mglichkeit besteht, an einem RAID-Controller mehrere unterschiedliche RAID-Arrays einzurichten, gibt es darber hinaus auch die Mglichkeit, dass ein Hot-Spare-Laufwerk entweder einem einzelnen RAID-Array oder einer Gerteeinheit (Shelf, Enclosure) zugeordnet ist oder fr die Verwendung im gesamten RAID-System zur Verfgung steht. In diesem Fall spricht man dann von einem Local-Spare-Laufwerk oder auch Dedicated Hot-Spare-Laufwerk (bei Zuordnung zu einem bestimmten Array) oder einem Global-Spare-Laufwerk (wenn das Laufwerk fr alle Arrays verwendet werden kann).
Drive Clone
Viele RAID-Controller bieten die Mglichkeit, auftretende Laufwerksfehler durch Medien-Tests oder den S.M.A.R.T.-Status frhzeitig zu erkennen. Wenn ein Laufwerk zu viele dieser meist korrigierbaren Fehler liefert, besteht die Mglichkeit, das betroffene Laufwerk schon vor dem endgltigen Ausfall zu ersetzen. Dazu kopiert der Controller alle vorhandenen Daten der einen Festplatte auf ein bisher unbenutztes Spare-Laufwerk. Beim Ausfall der original Festplatte verkrzt sich dadurch die Wiederherstellungszeit und damit auch die kritische Zeit fr einen weiteren Ausfall auf ein Minimum.
RAID
121
Tape-RAID
Auch Hersteller von Backup-Programmen haben das Problem, dass durch defekte Medien (Bnder wie DAT, DLT, QIC usw.) Daten einer Datensicherung oder Archivierung teilweise oder ganz verloren gehen knnen. Daher nutzen umfangreiche Backup-Lsungen,[14] also die gleichen Mechanismen zur Herstellung redundanter Datentrgerstze wie sie auch bei Festplatten zum Einsatz kommen. Hufig werden die Daten ber mehrere Bandlaufwerke verteilt auf mehreren Bndern im RAID-3- oder RAID-5-Modus gespeichert. Da sich Backups auch ber viele Bnder hinweg durchfhren lassen, muss dies auch bei Tape-RAID mglich sein. Die eingesetzte Software muss folglich in der Lage sein, den Bandsatz dynamisch zu erweitern. Das bedeutet, die Software muss aus zustzlichen Bndern automatisch weitere zustzliche RAID-Verbnde herstellen und diese automatisch an bestehende Bandstze anhngen knnen. RAIL: Eine hnliche Implementierung ist ein Redundant Array of Independent Libraries (redundante Reihe unabhngiger Bandbibliotheken).[14] Dabei werden die RAID-Level nicht ber mehrere Bandlaufwerke verteilt gebildet, sondern ber mehrere unabhngige Bandbibliotheken (Tape-Librarys) hinweg, wobei die Librarys auch auf mehrere Standorte verteilt sein knnen, um die Daten, beispielsweise auch im Katastrophenfall, sicher und redundant zu lagern.
Weblinks
Erluterung weshalb ein RAID nicht mit einem Backup gleichzusetzen ist [15] (deutsch) Vergleich: Single vs. RAID 0 [16] (englisch) Vergleich RAID 0,1,5,10 Dell PowerEdge 2650 [17] (deutsch) RAID-Informationen von tecchannel.de [18] Original-Dokument von Patterson, Gibson, Katz [19] (englisch, PDF; 1,14 MB)
Einzelnachweise
[1] A case for redundant arrays of inexpensive disks (RAID) (http:/ / portal. acm. org/ citation. cfm?id=50214& dl=ACM& coll=ACM), D. A. Patterson, G. Gibson und R. H. Katz, 1988, PDF (http:/ / www. eecs. berkeley. edu/ Pubs/ TechRpts/ 1987/ CSD-87-391. pdf) [2] Yet another RAID-10 vs RAID-5 question (http:/ / storageadvisors. adaptec. com/ 2007/ 04/ 17/ yet-another-raid-10-vs-raid-5-question/ ) Tom Treadway, Adaptec Storage Advisors, 17. April 2007 [3] Serial ATA (SATA) chipsets Linux support status (http:/ / linuxmafia. com/ faq/ Hardware/ sata. html), bersicht: RAID und Fake-RAID mit SATA, 31 Dezember 2007 [4] Fake RAID Howto (https:/ / help. ubuntu. com/ community/ FakeRaidHowto), Ludwin Janvier, How to install Ubuntu onto a fakeRAID system, 18 Januar 2010 [5] dmraid-Tool (http:/ / people. redhat. com/ ~heinzm/ sw/ dmraid/ readme) 2004-2011 Heinz Mauelshagen, Red Hat GmbH [6] Why RAID 5 stops working in 2009 (http:/ / blogs. zdnet. com/ storage/ ?p=162), Robin Harris, Storage Bits, ZD Net Blog, 18. Juli 2007 [7] Failure Trends in a Large Disk Drive Population (http:/ / research. google. com/ archive/ disk_failures. pdf). Eduardo Pinheiro, Wolf-Dietrich Weber, Luiz Andr Barroso, 5th USENIX Conference on File and Storage Technologies (FAST07), im Februar 2007 [8] Proceedings of the Third USENIX Conference on File and Storage Technologies (http:/ / www. usenix. org/ publications/ library/ proceedings/ fast04/ tech/ corbett/ corbett. pdf) Usenix Publikation, 31. Mrz bis 2. April 2004 [9] SNIA - Dictionary R (http:/ / www. snia. org/ education/ dictionary/ r#raid_level_6). Storage Networking Industry Association (SNIA). Abgerufen am 2.Februar 2011.RAID Level 6 [Storage System] Any form of RAID that can continue to execute read and write requests to all of a RAID array's virtual disks in the presence of any two concurrent disk failures. [10] Adam Leventhal: Triple-Parity RAID-Z (http:/ / blogs. sun. com/ ahl/ entry/ triple_parity_raid_z) In: Adam Leventhal's Weblog Abgerufen am 2. November 2009. [11] ZFS: WHEN TO (AND NOT TO) USE RAID-Z (http:/ / blogs. sun. com/ roch/ entry/ when_to_and_not_to) Sun Blogs, 31. Mai 2006 [12] The Software-RAID HOWTO (http:/ / tldp. org/ HOWTO/ Software-RAID-HOWTO-5. html#ss5. 10), 5.10 Chunk sizes, 3. Juni 2004
RAID
[13] Picking the right stripe size (http:/ / storageadvisors. adaptec. com/ 2006/ 06/ 05/ picking-the-right-stripe-size/ ) Tom Treadway, Adaptec Storage Advisors, 5. Juni 2006 [14] Tape-RAID (http:/ / www. tecchannel. de/ netzwerk/ networkworld/ infrastructure/ 402945/ kostenguenstig_optisch_speichern/ index8. html) Tecchannel, im Artikel Kostenguenstig optisch speichern, 12. Oktober 2001 [15] http:/ / www. priotecs. com/ blog/ tipps-und-tricks/ backup/ ein-raid-ist-kein-backup/ [16] http:/ / faq. storagereview. com/ tiki-index. php?page=SingleDriveVsRaid0 [17] http:/ / ww1. 4hf. de/ 2008/ 12/ raid-system-in-realen-testvergleich. html [18] http:/ / www. tecchannel. de/ storage/ extra/ 401665/ raid_sicherheit_level_server_storage_performance_festplatten_controller/ [19] http:/ / www-2. cs. cmu. edu/ ~garth/ RAIDpaper/ Patterson88. pdf
122
123
Strungen
Je nach Aufbau schtzt eine USV die angeschlossenen Systeme vor folgenden Strungen: Stromausfall Unterspannung berspannung Frequenznderungen
Offline-USV
Oberschwingungen
Grere Stromausflle kommen in Westeuropa relativ selten vor. Durch das Schalten groer Strme treten aber stndig ungewollte Rckwirkungen auf das Stromnetz auf. Zum Beispiel rufen Kurzschlsse und die Einschaltstrme von Schweistromquellen oder greren Elektromotoren Spannungsabsenkungen hervor. Spannungsanhebungen treten zum Beispiel durch das Abschalten groer Lasten oder durch entfernte Blitzeinschlge auf. Empfindliche Gerte knnen dadurch in ihrer Funktion beeintrchtigt oder beschdigt werden. Die Energieversorger regeln die Netzspannung und die Netzfrequenz an den Einspeisepunkten ins Stromnetz zwar stndig nach, gleichen dadurch aber nur die Summe der Strungen aus. Eine USV kann lokale Schwankungen und Ausflle ausgleichen, indem sie angeschlossene Gerte mit elektrischer Energie aus Akkumulatoren speist, welche stndig aus dem Stromnetz nachgeladen werden.
Unterbrechungsfreie Stromversorgung
124
Ausstattung
Eine USV besteht aus Akkumulatoren (bei Einzelplatz-USV aus Blei-Vlies-Batterien (AGM) oder Blei-Gel-Batterien, bei Leistungs-USVen aus Bleiakkumulatoren), Stromrichtern und einer elektronischen Regelung. In Serie hergestellte USVen sind ab einer Leistung von etwa 300VA bis hin zu mehreren 100kVA erhltlich. Die Leistung ist im Wesentlichen von der Belastbarkeit der Stromrichter abhngig. Ein weiteres wesentliches Merkmal einer USV ist die maximale Der Aufbau einer USV berbrckungszeit, die von der Kapazitt der Akkumulatoren abhngt. Sie kann je nach Anforderung wenige Sekunden oder mehrere Stunden betragen. Eine USV, deren berbrckungszeit durch zustzliche Akkumulatoren verlngert werden kann, ist ab einer Leistung von etwa 1500VA erhltlich. Bei groem Bedarf an Leistung und berbrckungszeit kommen auch Stromerzeugungsaggregate zum Nachladen der Akkumulatoren zum Einsatz. Dazu werden heutzutage auch rotierende USV-Anlagen angeboten, welche den bentigten Strom aus kinetischer Energie gewinnen. Diese wird durch eine mehrere 100kg schwere Schwungscheibe geliefert, welche durch die Netzspannung angetrieben wird und bei Stromausfall die gespeicherte Energie wieder abgibt. Jedoch ist dadurch die zeitliche berbrckung eines Stromausfalls nur begrenzt mglich. Deswegen werden diese Anlagen meist in Verbindung mit einem DieselAggregat geliefert, um eine zeitraumunabhngige Stromversorgung gewhrleisten zu knnen. Dabei ist zu beachten, dass die USV-Anlage nur den Zeitraum berbrckt, den das Diesel-Aggregat zum Anlaufen bentigt. Diese Art der USV-Anlage ist allerdings erst ab einer gewissen Gre lieferbar und nicht fr private Haushalte ausgelegt. Computer in kleineren Rechenzentren werden bei einem Stromausfall automatisch heruntergefahren, bevor die berbrckungszeit abgelaufen ist. Geffnete Dateien, zum Beispiel sensible Datenbanken, werden so kontrolliert geschlossen, um Datenverlust zu verhindern. Server und USV kommunizieren zu diesem Zweck standardmig ber Ethernet bzw. SNMP, vereinzelt aber auch ber die Schnittstelle RS-232 oder auch ber USB. ber diese Verbindung kann die USV auch berwacht, gesteuert und eingestellt werden. Bei einer Verbindung ber Ethernet ist dazu blicherweise keine spezielle Software, sondern lediglich ein Webbrowser notwendig. Die entsprechenden Funktionen sind in der Firmware der USV angelegt. Grere Rechenzentren haben Notstromgeneratoren; die Versorgung aus Akkumulatoren dient hier nur dem Zweck, die Zeit zu berbrcken, bis die Generatoren gestartet und auf Nennleistung gebracht wurden. Die Grundfunktionen einer USV umfassen in der Regel einen aller 24Stunden automatischen Belastungstest, bei dem die Akkumulatoren im laufenden Betrieb mit der angeschlossenen Last entladen werden. Bei 10-Jahres-Batterien sollten die Akkus sptestens nach acht Jahren, bei 5-Jahres-Batterien sollten die Akkus nach sptestens vier Jahren komplett ausgetauscht werden, um einen Ausfall der USV-Anlage durch eine defekte Batterieanlage vorzubeugen. Bei der Frage der Umschaltzeiten ist zu bercksichtigen, dass Kondensatoren und Spulen der Netzteile ausreichend Energie fr einige Millisekunden speichern. So mssen beispielsweise ATX-Netzteile Ausflle bis 17ms berbrcken knnen. Bei empfindlichen Gerten, die nur sehr kurze oder gar keine Umschaltzeiten tolerieren, ist entweder eine Line-Interactive-USV (VI) oder eine Online-USV (VFI) erforderlich. Beim Einsatz einer USV zur Absicherung von Laserdruckern oder Kopierern ist uerste Vorsicht geboten. Diese Gerte verbrauchen in der Aufwrmphase ein Mehrfaches ihres normalen Energiebedarfs. Im schlimmsten Fall kann es zur Zerstrung der USV und der angeschlossenen Gerte kommen. Wenn berhaupt kann hier nur eine Online-USV zum Einsatz kommen. Jedoch raten namhafte Hersteller generell von der Verwendung einer USV zur
Unterbrechungsfreie Stromversorgung Absicherung von Laserdruckern ab und verweigern mitunter jegliche Gewhrleistung.
125
Kategorien
VFD (Voltage and Frequency Dependent bzw. Offline USV)
Eine USV dieser Kategorie leitet den Strom im Normalbetrieb direkt vom Eingang an den Ausgang weiter. Auerdem wird vom Eingang ein Gleichrichter versorgt, der die Akkumulatoren ldt. Sollte die Netzversorgung abbrechen, wird der Ausgang auf einen Wechselrichter umgeschaltet, der aus den Akkumulatoren gespeist wird. Die Umschaltung erfolgt je nach Modell mit einer Verzgerung von bis zu 10 Millisekunden. Fr einige sehr empfindliche Gerte kann dies bereits zu lange sein. Im Normalbetrieb ist die Hhe und die Frequenz der Ausgangsspannung direkt abhngig von der Eingangsspannung. Diese Art von USVen werden oft mit dem Begriff Offline oder passiv beschrieben.
Unterbrechungsfreie Stromversorgung Zu beachten ist, dass VFI-USV im Vergleich zu VFD- oder VI-USV den hchsten Eigenstrombedarf haben. Whrend z.B. eine 650VA VFD-USV im Leerlauf (ohne angeschlossene Verbraucher) mit ca. 5W auskommt, eine 850VA VI-USV mit ca. 15W, bentigt eine VFI-USV schon im Leerlauf erheblich mehr Strom (eine Faustregel besagt, dass sie ca. 10% ihrer Nennleistung bentigt, sprich eine 850VA VFI-USV bentigt im Leerlauf ca. 85W an Eigenbedarf).
126
Literatur
EN 62040: Unterbrechungsfreie Stromversorgungssysteme (USV)
Weblinks
USV-Grundlagen [1]
Referenzen
[1] http:/ / www. searchsecurity. de/ themenbereiche/ plattformsicherheit/ physikalische-sicherheit/ articles/ 227429/
127
128
129
130
131
Lizenz
132
Lizenz
Wichtiger Hinweis zu den Lizenzen
Die nachfolgenden Lizenzen bezieht sich auf den Artikeltext. Im Artikel gezeigte Bilder und Grafiken knnen unter einer anderen Lizenz stehen sowie von Autoren erstellt worden sein, die nicht in der Autorenliste erscheinen. Durch eine noch vorhandene technische Einschrnkung werden die Lizenzinformationen fr Bilder und Grafiken daher nicht angezeigt. An der Behebung dieser Einschrnkung wird gearbeitet. Das PDF ist daher nur fr den privaten Gebrauch bestimmt. Eine Weiterverbreitung kann eine Urheberrechtsverletzung bedeuten.
Hinweis Im Falle einer Verbreitung mssen Sie anderen alle Lizenzbedingungen mitteilen, die fr dieses Werk gelten. Am einfachsten ist es, an entsprechender Stelle einen Link auf http:/ / creativecommons. org/ licenses/ by-sa/ 3. 0/ deed. de einzubinden.
Haftungsbeschrnkung Die Commons Deed ist kein Lizenzvertrag. Sie ist lediglich ein Referenztext, der den zugrundeliegenden Lizenzvertrag bersichtlich und in allgemeinverstndlicher Sprache, aber auch stark vereinfacht wiedergibt. Die Deed selbst entfaltet keine juristische Wirkung und erscheint im eigentlichen Lizenzvertrag nicht.
Copyright (C) 2000,2001,2002 Free Software Foundation, Inc. 51 Franklin St, Fifth Floor, Boston, MA 02110-1301 USA Everyone is permitted to copy and distribute verbatim copies of this license document, but changing it is not allowed.
0. PREAMBLE
The purpose of this License is to make a manual, textbook, or other functional and useful document "free" in the sense of freedom: to assure everyone the effective freedom to copy and redistribute it, with or without modifying it, either commercially or noncommercially. Secondarily, this License preserves for the author and publisher a way to get credit for their work, while not being considered responsible for modifications made by others. This License is a kind of "copyleft", which means that derivative works of the document must themselves be free in the same sense. It complements the GNU General Public License, which is a copyleft license designed for free software. We have designed this License in order to use it for manuals for free software, because free software needs free documentation: a free program should come with manuals providing the same freedoms that the software does. But this License is not limited to software manuals; it can be used for any textual work, regardless of subject matter or whether it is published as a printed book. We recommend this License principally for works whose purpose is instruction or reference.
2. VERBATIM COPYING
You may copy and distribute the Document in any medium, either commercially or noncommercially, provided that this License, the copyright notices, and the license notice saying this License applies to the Document are reproduced in all copies, and that you add no other conditions whatsoever to those of this License. You may not use technical measures to obstruct or control the reading or further copying of the copies you make or distribute. However, you may accept compensation in exchange for copies. If you distribute a large enough number of copies you must also follow the conditions in section 3. You may also lend copies, under the same conditions stated above, and you may publicly display copies.
3. COPYING IN QUANTITY
If you publish printed copies (or copies in media that commonly have printed covers) of the Document, numbering more than 100, and the Document's license notice requires Cover Texts, you must enclose the copies in covers that carry, clearly and legibly, all these Cover Texts: Front-Cover Texts on the front cover, and Back-Cover Texts on the back cover. Both covers must also clearly and legibly identify you as the publisher of these copies. The front cover must present the full title with all words of the title equally prominent and visible. You may add other material on the covers in addition. Copying with changes limited to the covers, as long as they preserve the title of the Document and satisfy these conditions, can be treated as verbatim copying in other respects. If the required texts for either cover are too voluminous to fit legibly, you should put the first ones listed (as many as fit reasonably) on the actual cover, and continue the rest onto adjacent pages. If you publish or distribute Opaque copies of the Document numbering more than 100, you must either include a machine-readable Transparent copy along with each Opaque copy, or state in or with each Opaque copy a computer-network location from which the general network-using public has access to download using public-standard network protocols a complete Transparent copy of the Document, free of added material. If you use the latter option, you must take reasonably prudent steps, when you begin distribution of Opaque copies in quantity, to ensure that this Transparent copy will remain thus accessible at the stated location until at least one year after the last time you distribute an Opaque copy (directly or through your agents or retailers) of that edition to the public. It is requested, but not required, that you contact the authors of the Document well before redistributing any large number of copies, to give them a chance to provide you with an updated version of the Document.
4. MODIFICATIONS
You may copy and distribute a Modified Version of the Document under the conditions of sections 2 and 3 above, provided that you release the Modified Version under precisely this License, with the Modified Version filling the role of the Document, thus licensing distribution and modification of the Modified Version to whoever possesses a copy of it. In addition, you must do these things in the Modified Version: A. Use in the Title Page (and on the covers, if any) a title distinct from that of the Document, and from those of previous versions (which should, if there were any, be listed in the History section of the Document). You may use the same title as a previous version if the original publisher of that version gives permission. B. List on the Title Page, as authors, one or more persons or entities responsible for authorship of the modifications in the Modified Version, together with at least five of the principal authors of the Document (all of its principal authors, if it has fewer than five), unless they release you from this requirement. C. State on the Title page the name of the publisher of the Modified Version, as the publisher. D. Preserve all the copyright notices of the Document. E. Add an appropriate copyright notice for your modifications adjacent to the other copyright notices. F. Include, immediately after the copyright notices, a license notice giving the public permission to use the Modified Version under the terms of this License, in the form shown in the Addendum below. G. Preserve in that license notice the full lists of Invariant Sections and required Cover Texts given in the Document's license notice. H. Include an unaltered copy of this License. I. Preserve the section Entitled "History", Preserve its Title, and add to it an item stating at least the title, year, new authors, and publisher of the Modified Version as given on the Title Page. If there is no section Entitled "History" in the Document, create one stating the title, year, authors, and publisher of the Document as given on its Title Page, then add an item describing the Modified Version as stated in the previous sentence. J. Preserve the network location, if any, given in the Document for public access to a Transparent copy of the Document, and likewise the network locations given in the Document for previous versions it was based on. These may be placed in the "History" section. You may omit a network location for a work that was published at least four years before the Document itself, or if the original publisher of the version it refers to gives permission. K. For any section Entitled "Acknowledgements" or "Dedications", Preserve the Title of the section, and preserve in the section all the substance and tone of each of the contributor acknowledgements and/or dedications given therein. L. Preserve all the Invariant Sections of the Document, unaltered in their text and in their titles. Section numbers or the equivalent are not considered part of the section titles. M. Delete any section Entitled "Endorsements". Such a section may not be included in the Modified Version. N. Do not retitle any existing section to be Entitled "Endorsements" or to conflict in title with any Invariant Section. O. Preserve any Warranty Disclaimers. If the Modified Version includes new front-matter sections or appendices that qualify as Secondary Sections and contain no material copied from the Document, you may at your option designate some or all of these sections as invariant. To do this, add their titles to the list of Invariant Sections in the Modified Version's license notice. These titles must be distinct from any other section titles. You may add a section Entitled "Endorsements", provided it contains nothing but endorsements of your Modified Version by various parties--for example, statements of peer review or that the text has been approved by an organization as the authoritative definition of a standard. You may add a passage of up to five words as a Front-Cover Text, and a passage of up to 25 words as a Back-Cover Text, to the end of the list of Cover Texts in the Modified Version. Only one passage of Front-Cover Text and one of Back-Cover Text may be added by (or through arrangements made by) any one entity. If the Document already includes a cover text for the same cover, previously added by you or by arrangement made by the same entity you are acting on behalf of, you may not add another; but you may replace the old one, on explicit permission from the previous publisher that added the old one. The author(s) and publisher(s) of the Document do not by this License give permission to use their names for publicity for or to assert or imply endorsement of any Modified Version.
5. COMBINING DOCUMENTS
You may combine the Document with other documents released under this License, under the terms defined in section 4 above for modified versions, provided that you include in the combination all of the Invariant Sections of all of the original documents, unmodified, and list them all as Invariant Sections of your combined work in its license notice, and that you preserve all their Warranty Disclaimers. The combined work need only contain one copy of this License, and multiple identical Invariant Sections may be replaced with a single copy. If there are multiple Invariant Sections with the same name but different contents, make the title of each such section unique by adding at the end of it, in parentheses, the name of the original author or publisher of that section if known, or else a unique number. Make the same adjustment to the section titles in the list of Invariant Sections in the license notice of the combined work.
Lizenz
In the combination, you must combine any sections Entitled "History" in the various original documents, forming one section Entitled "History"; likewise combine any sections Entitled "Acknowledgements", and any sections Entitled "Dedications". You must delete all sections Entitled "Endorsements".
133
6. COLLECTIONS OF DOCUMENTS
You may make a collection consisting of the Document and other documents released under this License, and replace the individual copies of this License in the various documents with a single copy that is included in the collection, provided that you follow the rules of this License for verbatim copying of each of the documents in all other respects. You may extract a single document from such a collection, and distribute it individually under this License, provided you insert a copy of this License into the extracted document, and follow this License in all other respects regarding verbatim copying of that document.
8. TRANSLATION
Translation is considered a kind of modification, so you may distribute translations of the Document under the terms of section 4. Replacing Invariant Sections with translations requires special permission from their copyright holders, but you may include translations of some or all Invariant Sections in addition to the original versions of these Invariant Sections. You may include a translation of this License, and all the license notices in the Document, and any Warranty Disclaimers, provided that you also include the original English version of this License and the original versions of those notices and disclaimers. In case of a disagreement between the translation and the original version of this License or a notice or disclaimer, the original version will prevail. If a section in the Document is Entitled "Acknowledgements", "Dedications", or "History", the requirement (section 4) to Preserve its Title (section 1) will typically require changing the actual title.
9. TERMINATION
You may not copy, modify, sublicense, or distribute the Document except as expressly provided for under this License. Any other attempt to copy, modify, sublicense or distribute the Document is void, and will automatically terminate your rights under this License. However, parties who have received copies, or rights, from you under this License will not have their licenses terminated so long as such parties remain in full compliance.
If you have Invariant Sections, Front-Cover Texts and Back-Cover Texts, replace the "with...Texts." line with this:
Copyright (c) YEAR YOUR NAME. Permission is granted to copy, distribute and/or modify this document under the terms of the GNU Free Documentation License, Version 1.2 or any later version published by the Free Software Foundation; with no Invariant Sections, no Front-Cover Texts, and no Back-Cover Texts. A copy of the license is included in the section entitled "GNU Free Documentation License". with the Invariant Sections being LIST THEIR TITLES, with the Front-Cover Texts being LIST, and with the Back-Cover Texts being LIST.
If you have Invariant Sections without Cover Texts, or some other combination of the three, merge those two alternatives to suit the situation. If your document contains nontrivial examples of program code, we recommend releasing these examples in parallel under your choice of free software license, such as the GNU General Public License, to permit their use in free software.