Sie sind auf Seite 1von 10

Generische Illustrationen im Kontext zu IT-Prfprozessen Informationstechnologie ist eine Wissenschaft, deren Untersuchungsgegenstand sich bei genauerer Betrachtung dem

Verstndnis der meisten Menschen entzieht. Zu gro ist die Diskrepanz zwischen den kryptischen Feinsteinheiten endloser Strnge von binrem Code und seinen hchst konkreten Auswirkungen innerhalb unseres Alltags. Immer, wenn wir unsere E-Mails abrufen, wenn wir Geld berweisen, wenn wir Auto fahren oder telefonieren, vertrauen wir darauf, dass Milliarden verschiedener Konstellationen von Schalterstellungen in einem Mikroprozessor es schon fr uns richten werden. Bei der Elektronik von Menschen gesteuerter oder bedienter Maschinen nicht zuletzt beim Automobil vertrauen wir dem gemeinsamen Wirken von Soft- und Hardware sogar unser Leben an. Sicherheit ist daher ein Aspekt, der sich keinesfalls auf unsere physikalische Welt beschrnken lsst. Vor diesem Hintergrund ist die leicht flchtige Datenmenge aus Nullen und Einsen die sprichwrtliche Achillesferse, der im Bestreben um Konsistenz besondere Aufmerksamkeit gewidmet sein muss; denn im Grunde verlassen wir uns immer auf eine Konsistenz von Daten. Daten also, die in sich widerspruchsfrei sind und damit berhaupt erst prozessiert werden knnen, ohne zu Fehlfunktionen oder gar Ausfllen zu fhren. Die Konsistenz von Daten ist dabei dort zu sichern, wo Daten generiert werden: im Programm. Das Programm fungiert nmlich als Schnittstelle zwischen dem Menschen, der es schreibt und einer Hardware, die es zu bedienen gilt. In Anbetracht immer komplexerer Funktionsweisen von Hardware und damit auch immer komplexer werdender Programme, erweisen sich viele Felder aus dem Themenkomplex der Herstellung von Software als eigene Wissenschaft. Irren ist dabei allzu oft menschlich. Und so kann trotz gewissenhafter Arbeit in der Entwicklung das fehlerfreie Funktionieren einer Software nicht immer gewhrleistet werden. An dieser Stelle kommen die Dienstleistungen von TViT zum Einsatz. Mit dem Ziel, das Vertrauen des Verbrauchers in die Funktion einer Software zu erhalten, entwickelt TViT unter anderem Verfahren fr die Generierung, Aufbereitung und bersetzung von Daten in eine Form, die die jeweilige Analyse erleichtert oder teilweise auch erst ermglicht. In Anbetracht der zunehmenden Komplexitt ist das klassische Redigieren kompletter Quellcodes unmglich. TViT nutzt weitaus effizientere Methoden, um gezielt Daten erheben und damit auch untersuchen zu knnen. Sowohl bei der Softwareoptimierung als auch bei Fehleranalysen lsst sich schematisch betrachtet eine iterative Suche nach Aufflligkeiten bzw. Unregelmigkeiten im Datenoutput eines Programms zu Grunde legen. Eben dieses Prinzip bilden die Illustrationen ab. Grundlage ist stets der unverflschte, in sich konsistente Datenstrom visualisiert durch Serien, Rhythmizitt, Muster, die vermuten lassen, dass der jeweiligen Anordnung ein algorithmisches Prinzip als Basis dient. Die Aufflligkeiten im so visualisierten Datenstrom geben sich in der Auflsung seiner Konsistenz und seiner Ordnungsprinzipien zu erkennen. In Relation zum Zustand formaler Ordnung und Harmonie ist ein Fehler auf diese Weise schnell als lokales Chaos entlarvt und kann beseitigt werden.

Das könnte Ihnen auch gefallen