Sie sind auf Seite 1von 21

Hochschule fur Telekommunikation Leipzig (FH) Fachbereich Nachrichtentechnik Institut fur Kommunikationstechnik

Prufungsvorleistung Informations- und Kodierungstheorie

Thema:

Verlustfreie Datenkompression

vorgelegt von: geboren am: in:

Manfred Kops 05.04.1986 Potsdam

Themensteller: Institut fr Kommunikationstechnik, HfTL u Gustav-Freitag-Str. 43-45 04277 Leipzig Erstprfer: u Prof. Dr.-Ing. habil. Tilo Strutz

Inhaltsverzeichnis
1 Einleitung 2 Theoretische Grundlagen 2.1 Informationstheorie . . . . . 2.1.1 Information . . . . . 2.1.2 Entropie . . . . . . . 2.2 Prinzipien der Farbmodelle . 2.2.1 RGB-Farbraum . . . 2.2.2 YUV-Farbraum . . . 2.2.3 YrUrVr-Farbraum . . 2.2.4 YCgCo-Farbraum . . 2.2.5 YCgCo-R-Farbraum 2.3 Verarbeitungsfolge . . . . . 2.3.1 Dekorrelation . . . . 2.3.2 Prcodierung . . . . a 2.3.3 Entropiecodierung . 3 Parametertest 3.1 Vorgehensweise 3.2 Feststellung . . 3.3 Ergebnisse . . . Literatur . . . . . . . 1 2 2 2 3 5 5 5 5 6 6 7 7 8 9 12 12 12 12 15

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

INHALTSVERZEICHNIS

Kapitel 1 Einleitung
Die erfolgreiche Kompression von Daten hngt immer davon ab, wie gut das im Kompresa sionssystem verwendete Modell mit den tatschlichen Daten ubereinstimmt. Die Verarbeia tungskette und auch die Parameter der einzelnen Verarbeitungsschritte sollten mglichst o automatisch an die Eigenschaften der Daten angepasst werden. Bevor diese automatische Auswahl jedoch erfolgen kann, mssen bestimmte Eigenschaften der Daten ermittelt und u in einen funktionalen Zusammenhang mit den Parametern gebracht werden. Hierzu sind umfangreiche Tests erforderlich. Die Aufgabe fr die Prfungsvorleistung besteht im Tesu u ten einer Software zur verlustlosen Kompression von Bilddaten. Die verlustfreie Datenkompression erfreut sich groer Beliebtheit, denn schlielich arbeiten viele Packprogramme des tglichen Gebrauchs genau nach diesem Schema. Doch auch a die Bildkompression bentigt Algorithmen, welche die vollstndige Rckgewinnung einer o a u Abbildung garantieren. Speziell im medizinischen Bereich, wo es um die platzsparende Speicherung von Rntgenaufnahmen und hnlichen Darstellungen geht, ist dies unabo a dingbar. [TSc10]

Kapitel 2 Theoretische Grundlagen


2.1 Informationstheorie

Die Informationstheorie beschreibt mathematische Grundlagen fr die Bereiche Kommuu nikation bzw. Informationsaustausch. Zentraler Gegenstand sind die Begrie Informationsgehalt und Entropie. Mit Hilfe der Informationstheorie knnen Aussagen uber den o erforderlichen Aufwand fr die Ubermittlung von Informationen getroen werden. u Die Informationstheorie hat weitreichende Bedeutung z.B. fr die Kommunikationstechu nik, Datenkompression und Kryptographie, sowie in anderen Gebieten auerhalb des technisch-wissenschaftlichen Bereichs (Genetik, Neurologie, Informationswissenschaft, etc.). Im Rahmen der Informationstheorie wird Information als messbare, rein mathematische Gre betrachtet, ohne auf deren Bedeutung einzugehen. Auswertung und Interpretao tion von Informationen (Semantik, Pragmatik) sind nicht Bestandteil der Theorie. Fr u ein Systemdesign auf rein technischer Ebene ist die Bedeutung einer Information nicht relevant.

2.1.1

Information

Eine herausragende Rolle der gesamten Informationstheorie [Sha48] spielt der amerikanische Mathematiker Claude Eldwood Shannon (1916-2001). Er machte sich zur Aufgabe eine der, noch heute, wichtigen Problemstellungen zu Lsen. Im Mittelpunkt steht die o Frage, wie viel Information (Wissen) in eine mglichst kurze Nachricht verpackt werden o kann. Es von enormer Wichtigkeit die beiden Begrie Nachricht und Information nicht synchron zu verwenden. Ohne Zweifel besteht ein enger Zusammenhang zwischen ihnen, der im Folgenden versucht wird zu beschreiben. Es werden Symbole von einer Quelle an eine Senke adressiert. Eine derartige Abfolge von Zeichen oder Buchstaben kann als Zeichenkette betitelt werden. Wird eine Zeichenkette ubermittel, spricht man von einer Nachricht. Die Aufgabe der Senke ist es nun die Infor mation auf den Symbolen zu interpretieren bzw. zu entschlsseln. Aus der empfangenden u

2.1. INFORMATIONSTHEORIE

Nachricht ist es der Senke mglich die Information zu selektieren. Fr eine Bewertung der o u Information ist es ntig eine quantitative Beschreibung vorzunehmen. o

Das Alphabet X = x1 , x2 , ..., xi enthlt den Zeichensatz, aus denen die Zeichenkette a der Nachricht gebildet wird. Die Wahrscheinlichkeit fr das Auftreten eines Zeichens xi X Innerhalb der Nachu richten einer Quelle wird als Auftrittswahrscheinlichkeit p(xi ) bezeichnet. Weiterfhrend muss nun der Entscheidungsgehalt eines Zeichens in der Nachricht deu niert werden. Der Entscheidungsgehalt H ist die Anzahl der Entscheidungen (Ja/Nein) zur eindeutigen Identikation des Zeichens. H0 = ld(S) [Bit] (2.1)

Wird fr das Alphabet X = 0, 1 angenommen, ergibt sich der Entscheidungsgehalt 1 u (Bit). Wenn nun eine Nachricht empfangen wird die > 1 Zeichen beinhaltet, muss die obige Formel angepasst werden. H0 = N ld(S) [Bit] (2.2)

Der Entscheidungsgehalt H0 einer Nachricht der Lnge N von einer Quelle ist die Anzahl a der Ja/Nein-Entscheidungen zur erfolgreichen Identikation der Nachricht. Aus dieser Beschreibung kann man ableiten, dass der Entscheidungsgehalt ein Ma der Information einer Nachricht ist. Fr den Fall einer Binren Alphabets ist somit der Entu a scheidungsgehalt eine Abbildung fr die Anzahl von Binrzeichen in einer Nachricht. u a

2.1.2

Entropie

Bereits 1948 formulierte Shannon in seiner Arbeit A Mathematical Theory of Communication, dass der einzelne Informationsgehalt eines Zeichens in einer Zechenkette nicht durch die Anzahl der Zeichen beeinuss wird, welche eine Quelle insgesamt verwendet, sondern lediglich durch die Auftrittswahrscheinlichkeit. 1 p(xi )

I(xi ) = ld

[Bit/Zeichen]

(2.3)

Informationsgehalt eines Zeichens xi X. Allgemein spielt in der modernen Informationstechnik der mittlere Informationsgehalt eine wesentliche Rolle im praktischen Einsatz diese wird als Entropie bezeichnet.
S

H(X) =
i=1

(p(x) I(x)) [Bit/Zeichen]

(2.4)

KAPITEL 2. THEORETISCHE GRUNDLAGEN

Mit anderen Worten stellt die Entropie eine Art Gewichtung des Inhaltes, einer Information, in Bezug auf die Auftrittswahrscheinlichkeit, einer von der Quelle gesendeten Nachricht, dar. Somit kann man den Weg zurck zur Fragestellung beschreiten, wie man mglichst viel u o Wissen in eine mglichst kurze/kleine Nachricht verpacken kann. Man muss also das Wiso sen so gut wie mglich codieren. Man spricht allgemein von einer Quellencodierung fr o u die Symbole/Zeichen. Shannon Aussagen zur Codierungstheorie in Bezug auf die zentrale Frage ist, dass fr jede Informationsquelle eine Binrcodierung gefunden werden kann. u a H(X) L H + 1 (2.5)

Damit eine Bewertung einer solchen Quellencodierung mglich ist muss sich die Frage zur o Beurteilung gestellt werden. Die mittlere Codelnge L ist wie folgt deniert: a
S

L =
i=1

(p(x) li )

(2.6)

li beschreibt die Lnge des Codewortes des i-ten Zeichnens der Quelle. a Zusammenfassend lsst sich mittels der Entropie das Ziel fr eine mglichst gute Codiea u o rung der Quelle beschreiben. Zur besseren Veranschaulichung folgt ein kleines Beispiel zur Berechnung der Entropie sowie der mittleren Codewortlnge. a Alphabet: Q = a, b, c, d Auftrittswahrscheinlichkeiten: p(a) = 16% p(a) = 22% p(a) = 14% p(a) = 12% p(a) = 36%

xi a b c d e Summe

p(xi ) 0,16 0,22 0,14 0,12 0,36 1,00

l(xi ) 2,644 2,184 2,837 3,059 1,474

p(xi) (xi) 0,423 0,481 0,397 0,367 0.531 H(X)=2,918

Codierung 11 10 010 011 00

li 2 2 3 3 2

p(xi) (Li ) 0,32 0,44 0,42 0,36 0,72 L=2,26

Aus der Tabelle ist ersichtlich, dass die Codierung, der obigen Formel, richtig gewhlt a worden ist. Somit haben wir eine optimale Codierung der Quelle Q ermittelt.

2.2. PRINZIPIEN DER FARBMODELLE

2.2
2.2.1

Prinzipien der Farbmodelle


RGB-Farbraum

Der RGB -Farbraum beschreibt sich durch die Addition der einzelnen zugrundeliegenden Wellenlngen des Lichtes, welche da wren: a a

Rot (ca. 700nm) Grn (ca. 550 nm) u Blau (ca. 430 nm) Begrndet durch die Dreifarbentheorie, welche mageblich durch Hermann von Helmu holtz (1821 bis 1894) entwickelt wurde, ist es allein durch diese drei Farben mglich, alle o anderen Farben darzustellen. Aus mathematischer Sicht, ist jede einzelne Farbe (Kanal) ein unabhngiger und gleichberechtigter Vektor. Durch die additive Eigenschaft jeder eina zelner Vektoren, wird ein dreidimensionaler (Farb-)Raum aufgespannt. Im Allgemeinen spricht man auch von dem RGB -Einheitswrfel. u

2.2.2

YUV-Farbraum

Der YUV -Farbraum unterscheidet zwischen der eigentlichen Farbe und der Helligkeit. Im Y -Kanal werden ausschlielich die Helligkeitsanteile abgebildet. In den Kanlen U und a V sind die Farbdierenzen hinterlegt. Fr eine Umrechnung in den RGB-Bereich ist folu gendes Schema anzuwenden:

Y 0, 299 0, 587 0, 114 R U = 0, 147 0, 289 0, 436 G V 0, 614 0, 515 0, 100 B

2.2.3

YrUrVr-Farbraum

Wenn man die Transformationsmatrizen der beiden Farbrume YUV und YCgCo betracha tet fllt auf, dass die einzelnen Matrizenelemente gebrochen Zahlen enthalten. Somit ist a ein Qualittsverlust damit verbunden. Bei einer Transformation in den YrUrVr -Farbraum a werden die Bedingungen der Reversible Colour Transform (RTC) bercksichtigt. Eine veru lustfreie Transformation ist somit mglich. Folgende Berechnung ist ntig: o o

KAPITEL 2. THEORETISCHE GRUNDLAGEN

Yr =

R+2G+B 4 Ur = R G Vr =BG

G=Yr

U r+V r 4

(2.7) (2.8) (2.9)

R = Ur + G B =Vr+G

Fr die Verlustlosigkeit dieser Transformation werden jedoch in den Kanlen Ur und Vr u a weitere Bits reserviert. Das hat eine Verdopplung des Wertebereichs der beiden Kanle a zu Folge:

0 Y r < 255 ; 255 U r < 255 ; 255 V r < 255

2.2.4

YCgCo-Farbraum

Dieser Farbraum ist mageblich durch das Bestreben entstanden, den Berechnungsaufwand fr die Transformation zu senken. Das Namensfragmente Cg und Cg stehen fr u u chrominance green und chrominance orange.

Y 0, 25 0, 50 0, 25 R Cg = 0, 25 0, 50 0, 25 G Co 0, 50 0, 00 0, 50 B Unter Annahme eines RGB-Signals Farbtiefe von 24 Bit pro Bildpunkt (True Color ) ergibt sich folgender Wertebereich:

0 Y < 255 ; 127, 5 Cg < 127, 5 ; 127, 5 Co < 127, 5

2.2.5

YCgCo-R-Farbraum

YCgCo-R kann man als eine Art Weiterentwicklung des YCgCo betrachten. Wichtig anzumerken ist die Verlustlosigkeit. Diesen Vorteil wird allerdings ein hherer Speicherbedarf o der Kanle Cg und Co zugrunde gelegt. Folgende Berechnungsschritte sind notwendig: a

2.3. VERARBEITUNGSFOLGE

Yr =

R+2G+B 4 Ur + V r G=Yr 4 Ur = R G R = Ur + G Vr =BG B =Vr+G

(2.10)

(2.11)

(2.12)

Co = R B R = B + Co Co 2 Co B =t 2 t=B+ Cg = G t G = Cg t t=Y Cg 2 Cg Y =t+ 2

(2.13)

(2.14)

(2.15)

(2.16)

Die Wertebereiche der einzelnen Kanle sehen wie folgt aus: a 0 Y < 255 ; 255 Cg < 255 ; 255 Co < 255

2.3
2.3.1

Verarbeitungsfolge
Dekorrelation

Prdiktion: Das Prinzip der Prdiktion ist die Vorhersage von Signalwerten mit Hilfe a a von Kenntnissen uber bereits verarbeitete Werte. Fr die Vorhersage des n-ten Werts u xn eines Signals kennt der Prdiktor bereits die Werte x0 , ..., xn3 , xn2 , xn1 . Mit Hilfe a dieser Werte wird ein Schtzwert xn berechnet. Anschlieend wird der Prdiktionsfehler a a ermittelt e n = xn xn (2.17)

KAPITEL 2. THEORETISCHE GRUNDLAGEN

Es entsteht eine Folge von Prdiktionsfehlern, die anschlieend dem Empfnger ubermittelt a a wird. Der Empfnger berechnet nun die Schtzwerte nach dem gleichen Algorithmus und a a kann durch Addition des ubermittelten Fehlers den originalen Signalwert rekonstruieren xn = en xn (2.18)

Ein Sonderfall liegt bei der Prdiktion des ersten Signalwerts x0 vor, da noch keine Infora mationen uber vorherige Werte existieren. Die Genauigkeit der berechneten Schtzwerte hngt zum einen von den vorliegenden Bilda a daten und zum anderen von der Strategie des Prdiktor-Moduls ab. Ein sehr einfaches a Verfahren wre es zum Beispiel, den Vorgnger xn1 als Schtzwert xn zu benutzen. Der a a a Prdiktionsfehler berechnet sich dann nach a en = xn xn1 (2.19)

Dieser Prdiktor wrde bei einer linearen Abhngigkeit der Signalwerte konstante Pra u a a diktionsfehler berechnen und somit die Entropie des Signals stark minimieren. Bei Bilddaten ist jedoch in den meisten Fllen ein anderes Verfahren vorteilhafter. a In der Regel werden bei Bilddaten die einzelnen Pixel im Rasterscan durchlaufen, sodass zur Schtzung des Graustufenwerts xn alle Vorgngerwerte im Intervall x0 , ..., xn3 , a a xn2 , xn1 zur Verfgung stehen. Die meisten Prdiktoren beschrnken sich jedoch auf u a a einen fest vorgegebenen Bereich in der lokalen Nachbarschaft des zu verarbeitenden Pixels. Als Template (Schablone) bezeichnet man die Menge aller geordneten Bildpunkte, die in die Berechnung des Schtzwertes einieen. a

2.3.2

Prcodierung a

Ziel der Prcodierung ist es, zum einen die Datenmenge zu reduzieren und zum anderen a die Entropie weiter zu senken, sodass die spter folgende Entropiecodierung ezienter a arbeiten kann. Im Gegensatz zur relativ spezischen Prdiktion, knnen Mechanismen der a o Prcodierung durchaus auch fr andere Daten erfolgversprechend sein. Der Grund ihrer a u Anspruchslosigkeit die Tatsache, dass diese Verfahren nicht mehr auf zwei-dimensionale st Korrelationen des Bildes achten, sondern eine einfache Zeichenkette zu Grunde liegt. Interleaving-Mode: Der Interleaving Mode wird genutzt um die Komponenten Helligkeit Y und Farbdierenz u,v miteinander zu verschachteln. So kann die Information von verschiedenen Pixeln mit gleichen Werten zusammengefasst werden und spart Speicherplatz. Bei Formaten wie JPEG kann hier schon zur Laufzeit ein Bild ausgegeben werden und muss nicht erst aufwendig im Zwischenspeicher decodiert werden. Burrow-Wheeler Transformation (BWT): In dieser Transformation werden die Eingangssignale mit einem Index versehen und zu Ausganssignalen transformiert. Im Grunde lsst sich das Verfahren gut als reversible kontextabhngige Permutation des a a

2.3. VERARBEITUNGSFOLGE

Eingabeblocks beschreiben. Mit diesem Verfahren ist es nun mglich die eigentliche Nacho richt in richtiger Reihenfolge zusammenzusetzen. Die BWT ist also eine kontextabhngige a Sortierung eines Zeichenblocks, welche durch die Angabe eines Indexes wieder in die Originalform uberfhrt werden kann. u Move-To-Front Codierung: Nachdem eine Nachricht mittels BWT umsortiert wurde bietet sich eine weitere Verarbeitung durch die MTF -Codierung an. Folgend wird das Funktionsprinzip der MTF versuch zu erlutern. a Zeichen die erst vor kurzem verwendet wurden, benden sich demnach auch weit vorn in der Indexliste und ergeben bei erneutem Zugri einen sehr geringen Rckgabeindex. u Eine Folge von N identischen Symbolen wird dadurch zu einer Reihe von N-1 Nullen. Beim ersten Auftreten des entsprechenden Zeichens steht es noch nicht an vorderster Listenposition, sodass hier noch keine Null geliefert werden kann. Das hat zufolge, dass die Entropie merklich gesenkt wird sowie die Symbole platzsparender codiert werden knnen. o Run-Length Codierung: Nachdem auf eine Nachricht das Verfahren der BWT und der MTF -Algorithmus angewandt wurden, kommt es nun zur goldenen Stundeder Laungencodierung. In diesem Schritt wird erstmals eine Reduzierung der eigentlichen a Datenmenge vorgenommen. Da nun die Symbole gleichen Typs in einer sequenziell angeordnet sind, kann eine Reduzierung erfolgen. 1. Schreibe ein markierendes Zeichen in den Ausgabedatenstrom, 2. Fge die Anzahl des gefundenen Symbols an, u 3. Schreibe zuletzt das eigentliche Symbol in den Datenstrom Folgendes Beispiel versinnbildlicht das Vorgehen (Als sogenanntes Marker-Byte wurde # verwendet.):

Vor RLC: WWWWWWWWWWWSWWWWWWWWWWSSS Nach RLC: #11WS#10W#3S

2.3.3

Entropiecodierung

Die Grundidee der Entropiecodierung ist es, die Codierungsredundanz durch Ausnutzen der Symbolverteilung zu reduzieren. Dabei werden hug auftretenden Symbolen kura ze Codewrter und selten auftretenden Symbolen lange Codewrter zugewiesen. So wird o o versucht, jedem Symbol in Abhngigkeit seines Informationsgehalts mglichst wenig Bits a o zuzuordnen. Die Entropiecodierung bercksichtigt keine statistischen Abhngigkeiten zwiu a schen den einzelnen Symbolen.

10

KAPITEL 2. THEORETISCHE GRUNDLAGEN

Die Lnge li des Codewortes, welches das Symbol si mit der Auftretenswahrscheinlicha keit pi reprsentiert. Fr eine Anzahl K verschiedener, auftretender Symbole betrgt die a u a mittlere Codewortlnge a
K

li =
i=1

pi li [Bits/Symbol]

(2.20)

Das Ziel der Entropiecodierung ist es, den Speicheraufwand einer Symbolfolge an die Signalentropie anzunhern. Gleichzeitig bedeutet dies auch, dass eine Minimierung der a Signalentropie eine Codierung mit einer geringeren Bitrate ermglicht. o Human-Codierung: Basierend auf den theoretischen Erkenntnissen von Shannon, entwickelte David A. Human (1929-1999) einen Algorithmus zur Erstelllung von Binrencodierungen a mit einer minimalen Wortlnge die Human Codierung. a Der iterative Algorithmus, welcher auf einem Codebaum basiert, kann wie folgt aufgebaut werden: 1. Fr jedes zu kodierende Zeichen wird ein Blatt angelegt, wobei der Wert eines u Blattes (Wahrscheinlichkeitswert) der Auftrittswahrscheinlichkeit p(xi ) des dazugehrigen Zeichens entspricht 1. o 2. Nun werden schrittweise die beiden Knoten mit dem jeweils kleinesten Wahrscheinlichkeitswert zu einem neuen Knoten zusammengefasst, dessen Wert aus der Summe der beiden Knotenwerte seiner Kinder gebildet wird. Sollten mehrere Knoten denselben Wert haben, so wird ein weiteres Sortierkriterium bentigt, um Mehrdeutigkeio ten bei der Codeerstellung zu vermeiden (bei Buchstaben knnte man beispielsweise o zustzlich nach deren Reihenfolge im Alphabet sortieren) a Dieser Vorgang wird solange fortgesetzt, bis man nur noch einen Knoten hat, der die Wurzel des Codebaumes darstellt. Der Wert der Wurzel sollte 1,0 bzw. 100% betragen. 3. Nun werden alle Kanten des Baumes wie folgt beschriftet: (a) Die linke Kante eines Knotens, d.h. die Verbindung zu seinem linken Kind, wird mit einer 0 beschriftet. (b) Die rechte Kante eines Knotens, d.h. die Verbindung zu seinem rechten Kind, wird mit einer 1 beschriftet. 4. Abschlieend werden die Codewrter der Zeichen gebildet. Dazu wird fr jedes Zeio u chen der Pfad von der Wurzel zu dem entsprechenden Blatt aufgeschrieben, indem beginnend an der Wurzel die Beschriftungen der auf dem Pfad liegenden Kanten hintereinander geschrieben werden. Folgendes Beispiel verdeutlicht die Vorgehensweise:

2.3. VERARBEITUNGSFOLGE

11

Abbildung 2.1: Codebaum

Alphabet: X = A, G, L, P, Q, R, Z

Auftrittswahrscheinlichkeiten: p(A) = 10% p(G) = 5% p(L) = 5% p(P ) = 27% p(Q) = 15% p(R) = 8% p(Z) = 30%

Aus dem Codebaum lsst sich folgende Codierung der Quelle X ableiten: a Xi A G L P Q R Z Codierung 110 1110 1111 01 110 101 00

Kapitel 3 Parametertest
3.1 Vorgehensweise

Um eine Aussagen uber die verschiedenen Parametereinstellungen treen zu knnen wuro de eine Ubersicht erstellt, in der die verschiedenen Settings festgehalten werden knnen. o Anhand der unterschiedlichen Einstellungen wurden fr jedes Bild unterschiedliche Outu putparameter festgehalten. Die tabellarische Darstellung eignete sich gut um Rckschluss u darauf zu fhren, mit welchen Einstellungen eine mglichst hohe Datenkompression zu u o erreichen ist und welche einzelnen Einstellungen den grten Einuss darauf haben. o

3.2

Feststellung

Zunchst ist festzustellen, dass man im Allgemeinen zwischen drei Bildtypen unterscheia den muss. Zum einen die natrlichen Bilder (Landschafts- oder Personenbilder), welche u sich im hohen Mae dadurch auszeichnen, eine hohe Verteilung der Helligkeitswerte zu haben. Der zweite Typus sind die synthetischen Bilder (Screenshots, Computergraken etc.). Diese zeichnen sich durch eine diskrete Verteilung der Farbwerte im Histogramm aus. Der dritte Typus kann als Hybrid gesehen werden. Er besitzt die Eigenschaften von natrlichen und auch synthetischen Bildern. Beispielsweise ein Screenshot in dem ein Diau gramm zu sehen ist, welches als Hintergrund einen Farbverlauf aufweist. Somit steht fest, dass es kein allgemeingltiges Parameterrezept fr eine Bilddatenkomu u pression gibt. Es muss nun entschieden werden welche Eigenschaften jenes Bild inne hat und welche Prozeduren anhand dessen angewendet werden mssen. u

3.3

Ergebnisse

Die ersten Ergebnisse mit dem YCgCo(near lossless)Farbraum wiesen zwar eine hohe Kompressionsrate auf, jedoch war das komprimierte Bild nicht verlustfrei. Aus diesem

3.3. ERGEBNISSE

13

Grund fhrte ich die Kompression noch einmal mit den anderen Farbrumen durch, u a und versuchte die optimale Kombination der weiteren Parameter zu nden. Erstaunlich hierbei war, dass nur in dem YCgCo(near lossless)Farbraum eine Segmentation des Bildes in 10 x 10 Einzelbilder einen positiven Einuss auf die Komprimierung des Bildes hatte. In allen anderen Farbrumen fhrte die Segmentation zu keiner hhen a u o Komprimierung. Teilweise war das Gegenteil der Fall. Unterschiede wurden beim Bild The Earth seen from Apollo 17 PNGOUT.png sehr deutlich, bedingt durch viele zusammenhngende schwarze Pixel eine Segmentation des Bildes. Die geringste Kompresa sionsrate von unter 2 erreichte ich, in der Kombination von Farbraum YrUrVr mit dem Interleaving Mode YYuuvv, sowie dem Farbraum HP2. Das Bild Chart pulinco PNGOUT.pngwurde im ersten Durchlauf ohne Prdiktion a durchgefhrt. Es konnte eine Kompressionsrate von 7, 677 erzielt werden. Um einen direku ten Vergleich zu haben wurde im folgenden Schritt nur eine Paethprdiktion durchgefhrt. a u Alle anderen Werte sind als Konstant anzunehmen. Allein durch diese Auswahl konnte die Kompressionsrate auf 9, 065 erhht werden. Der Paethprdiktor bewertet die umgebenden o a Pixel, um einen Schtzwert fr den nchsten zu ermitteln. Da, besonders bei synthetia u a schen Bildern, diese Vorgehensweise sehr eektiv ist, lsst sich eine bessere Kompression a erzielen. Aus diesem Grund ist der Paethprdiktor weniger fr natrliche als fr synthea u u u tische Bilder sinnvoll einzusetzen. Fr das Bild europa karte de PNGOUT.png, welche sich durch eine geringe Anzahl unu terschiedlicher Farben auszeichnet, war es interessant festzustellen, dass eine hohe Kompressionsrate ohne Prdiktion zu erzielen ist. Die genauen Werte sind aus der beigefgten a u Tabelle zu entnehmen.

14

KAPITEL 3. PARAMETERTEST

Literaturverzeichnis
[Sha48] [TSc10] Shannon, C.E.: A mathematical theory of communication. Bell System Technical Journal, Vol.27, 1948 Schmiedel, T.: Bachelor Thesis: Erweiterung und Optimierung eines Systems zur verlustlosen Kompression von Bilddaten. Hochschule fr Telekommunikation Leipzig u (FH), 2010 Strutz, T.: Bilddatenkompression. Vieweg + Teubner, 4. Auage, 2009 Strutz, T.; Schatton, T.; Schmiedel, T.: TSIP - Ecient Lossless Compression Of Colour Image Data With Diverse Characteristics, 2011

[Str09] [SSS11]

[TScha10] Schatton, T.: Bachelor Thesis: Untersuchungen zur adaptiven Prdiktorauswahl fr a u die verlustlose Bildkompression. Hochschule fr Telekommunikation Leipzig (FH), u 2010 [Wik01] [Wik02] [Wik03] Wikipedia, Artikel: Korrelation, http://de.wikipedia.org/wiki/Korrelation, zuletzt besucht am 25.05.2011 Wikipedia, Artikel: Dreifarbentheorie, http://de.wikipedia.org/wiki/Dreifarbentheorie, zuletzt besucht am 15.06.2011 Wikipedia, Artikel: Human coding, http://en.wikipedia.org/wiki/Human coding, zuletzt besucht am 12.06.2011

16

LITERATURVERZEICHNIS

Selbstndigkeitserklrung a a
Hiermit erklre ich, dass die von mir an der Hochschule fr Telekommunikation a u Leipzig (FH) eingereichte Abschlussarbeit zum Thema Verlustfreie Datenkompression vollkommen selbstndig verfasst und keine anderen als die angegebenen Quellen und a Hilfsmittel benutzt habe. Stellen, die wrtlich oder sinngem aus verentlichten oder noch nicht verentlichten o a o o Quellen entnommen sind, sind als solche kenntlich gemacht. Die Abbildungen in dieser Arbeit sind von mir selbst erstellt oder mit einem entsprechenden Quellennachweis versehen. Diese Arbeit ist in gleicher oder ahnlicher Form noch bei keiner anderen Hochschule/Universitt eingereicht worden. a

Leipzig, den 16.08.2011

Manfred Kops

Das könnte Ihnen auch gefallen