You are on page 1of 82

Frage 1: Systemdesign

Erkläre die Prinzipien des Systemdesigns. Wie ist der Begriff System definiert?
Wie ist die Vorgehensweise bei der Entwicklung von Systemen ausgehend von
Anwenderforderungen?

Der Systembegriff:

Einheitliches Ganzes, das aus einem oder mehreren Prozessen, Hardware,


Software, Einrichtungen und Personen besteht, das die Fähigkeit besitzt,
vorgegebene Forderungen oder Ziele zu befriedigen. . (ISO/IEC 12207)

Das von uns betrachtete System bildet einen Ausschnitt der realen Welt. Es
kommuniziert mit der Außenwelt (= alles was nicht im System enthalten ist)
ausschließlich auf Grund von Ereignissen.
Ereignisse der Außenwelt gelangen durch Auslöser in das System. Diese Auslöser
stoßen Systemprozesse an, die im System wiederum Ereignisse (Reaktionen)
darstellen. Diese Reaktionen können als Resultate an die Außenwelt abgegeben
werden. Das System selbst wird durch Ereignisse, Objekte, Zustände, Regeln und
Prozesse beschrieben. Wir nennen diese Elemente Systemaspekte. Jeder dieser
Systemaspekte hat Eigenschaften, Beziehungen zu und Abhängigkeiten von anderen
Systemaspekten.

Systemarchitektur

Die Systemarchitektur beschreibt den statischen Aufbau eines Systems als vernetzte
Struktur, mit den Elementen der generischen Erzeugnisstruktur. Betrachtet werden
dabei die Elemente der Erzeugnisstruktur bis einschließlich der SW-Einheiten/HW-
Einheiten. Die Architekturen der SW-Einheiten und HW-Einheiten finden sich in den
zugehörigen Architekturdokumenten.

Was ist ein System?

Ein System muss definiert werden!


Ein System ist eine abgeschlossene Einheit. Es gibt eine Umwelt, das System
kommuniziert mit dieser Umwelt über die externen Schnittstellen (Inputs, Outputs).

EDT_ Ausarbeitung: 5HIB 2005/2006 Seite:1/82


• Anwenderanforderungen: Beschreiben das System aus der Sicht der Umwelt,
Umwelt= Anwender, Funktionalität
• Technische Anforderungen: Normen die eingehalten werden müssen, sie sind
vom Einsatzort und den Anforderungen abhängig z. B.: CE Zeichen
o GSM- Normen
o DAU Sicherheit
o Marketingforderungen, Geld
o Anforderungen die eingehalten werden müssen (auf Grund der
Systemart).

grobe Entwicklungsschritte

• Grobdesign
o Blockdiagramm
o Kosten: Machbarkeitsstudie
o Modularisierung: Systemdesign, Module u. Schnittstellen

Schnittstellen

Input(s) M1 M2 Output(s)

M3 M4

System

M … Modul
Das System (Rechteck in der Zeichnung) kann alles sein.
• Feindesign
o tiefere Modularisierung
Modularisierung ist eine sinnvolle Funktionsaufteilung, sie hat aber noch nicht mit
dem Aufbau der HW und der Implementierung der SW zu tun.
Es kann interne und externe Gründe haben, warum ein Modul so gemacht wird.

Bsp. für Modularisierung:


Alarmanlage
1. Haussteuerungs- und Überwachungsanlage (HUSA)

Module:
- I/O - Unit
- Melde – Units (Alarmunit)
- Zentrale (= Rechenunit)

EDT_ Ausarbeitung: 5HIB 2005/2006 Seite:2/82


2. GSM - Handy

Module:
- Steuerung (GSM - Services, Div./Spiele, µC, Betriebsystem, Menü,
Protokolle, GSM)
- HF
- Audio (Codec GSM Full Rate / Enhanced Full Rate, ADC/DAC,
filtern/verstärken/anpassen)

Handy

A
I/O, Audio u
St
eu
I/O
d er H HF
un
i g F
Mic, LS o

LCD Tastatur

Vorteile vom
V- Modell:

Gesamtaufwand sinkt gemessen am Lebenszyklus einer Anwendung


(Kostenreduktion)
• Kürzere Einarbeitungszeiten für neue Mitarbeiter im Projekt.
• einfachere Kontrolle des Projektfortschritts (auch für den Auftraggeber)
• Leichte Vergleichbarkeit mehrerer Projekte und damit genauere
Aufwandsabschätzung zukünftiger Projekte.
• Einheitliche Begriffswelt.

Das V:

EDT_ Ausarbeitung: 5HIB 2005/2006 Seite:3/82


SE 1 – System-Anforderungsanalyse
Hier werden die Anforderungen an das Gesamtsystem erhoben. Unter dem
Gesamtsystem versteht man nicht nur das IT-System, sondern auch das fachliche
Umfeld, selbst wenn Teile davon später nicht mittels EDV abgedeckt werden.

SE 2 – System-Entwurf
Der Grobentwurf des Gesamtsystems wird ermittelt und festgehalten

SE 3 – SW-/HWAnforderungsanalyse
In dieser Elementarphase konzentriert man sich bereits auf die Anforderungen der
SW bzw. HW. Bereiche, die nicht von der späteren IT-Anwendung betroffen
sind, werden hier nicht weiter untersucht.

SE 4 – SW-Grobentwurf
Die Software wird grob gegliedert und beschrieben.

SE 5 – SW-Feinentwurf
Die zuvor gebildete grobe SW-Struktur wird weiter verfeinert und beschrieben.

SE 6 – SW-Implementierung
Die Softwarevorgaben werden in Programme bzw. Datenbanken umgesetzt. Erste
Überprüfungen gegenüber dem SW-Feinentwurf werden durchgeführt.

SE 7 – SW-Integration
Die einzelnen Softwareteile werden zu größeren Softwareeinheiten zusammengefügt
und getestet.

SE 8 – System integrieren
Die Software wird zum Gesamtsystem integriert.

SE 9 – Überleitung in die Nutzung


Das Gesamtsystem (EDV+Infrastruktur) wird am Bestimmungsort installiert und in
Betrieb genommen.

Bsp: GSM Handy:

Audiomodul:
Tiefpass OPV
A Codec
D
MC
Steuerung
A
Codec
D
LS Tiefpass

EDT_ Ausarbeitung: 5HIB 2005/2006 Seite:4/82


Audio Modul: (Forderungen)

1.) OPV: inv. oder ninv., Single Supply Uv= 5V


rauscharm, Verstärkung > 30

2.) Codec (ADC/DAC): Sigma- Delta- Wandler, Stereo bis 16 bit


Uv= 5V, fabt ≥ 8kHz, serielles Interface, Aniti Aliasing Filter

3.) DSP: fixkomma- Darstellung, serielles Interface zu Codec


Uv= 5V, > 60MIPS

4.) Watchdog: Uv= 5V, Power up Reset (einstellbar),


zeitl. Einstellung des Watchdog, Überwachung von
Versorgungsspannung

5.) FLASH und RAM (Speicher): FLASH: 512k*8, tzugriff ≤ 100ns


RAM: sRAM, 128k*8, tzugriff ≤ 25ns

Steuerungsmodul: (Forderungen)
• Operating System, Real Time, Multitasking embadded
• Audiosteuerung
• Display steuern
• Tastatur steuern
• HF steuern, Hochfrequenzleistung muss genau gesteuert werden
• GSM Signalisierung (Timer)
• Kamera, Spiele, MP3, Verwaltung
• WAP, Internet
• HW- Management, SIM

Frage 2: Grundlagen der Analog-Digital-Wandlung


Analog:

Analoge Daten können jeden beliebigen Wert annehmen.


Das analoge Signal ist wert- und zeitkontinuierlich und es kann zu jedem Zeitpunkt
ein Wert gemessen werden.

Digital:

Digitale Daten hingegen sind an bestimmte vorgegebene Werte gebunden und


können keinen Wert dazwischen annehmen. Das digitale Signal ist zeit- und
wertdiskret es gibt nur zu bestimmten Zeitpunkten einen Signalwert.

2 Schritte:

EDT_ Ausarbeitung: 5HIB 2005/2006 Seite:5/82


Abtasten:

Bei der Abtastung ist darauf zu achten dass das Abtastheorem eingehalten wird da
sonst Aliasing entsteht und das Originalsignal nicht mehr rekonstruiert werden.

Abtasttheorem:
fabt ≥ 2 • f max

fabt……Abtastfrequenz
fmax…. Maximale im Signal vorkommende Frequenz

Das Eingangsignal wird mit dem Abtastsignal multipliziert als Produkt entsteht ein
zeitdiskretes Signal, welches aber noch amplitudenkontinuierlich ist und quantisiert
werden muss.

Spektren der Signale:

EDT_ Ausarbeitung: 5HIB 2005/2006 Seite:6/82


Aliasing:

Aliasing-Effekt entsteht wenn die Abtastfrequenz zu niedrig ist und das


Abtasttheorem nicht eingehalten wird. Dadurch entstehen im Frequenzbereich
Überlappungen des Spektrum des Originalsignals und anderer Frequenzanteile. Das
Originalsignal kann nicht mehr rekonstruiert werden. Es gibt 2 Methoden um Aliasing
zu vermeiden.
1.) Einen Tiefpassfilter mit der Grenzfrequenz von fabt/2 vor der Abtastschaltung
verwenden damit werden alle Frequenzanteile die Aliasing verursachen
können rausgefiltert.
2.) Oversampling: Die Abtastfrequenz erhöhen damit dem Shannonschen
Abtasttheoren sicher entsprochen wird

Quantisierung:
Bei der Quantisierung wird die Eingangsspannung vor dem A/D- Wandler in einen
Wertebereich umgewandelt. Die analoge Spannung wird innerhalb eines
Zahlenbereichs abgebildet. Das vorher amplitudenkontenuierliche Signal wird
wertdiskret. Es hängt von der Auflösung (Bitanzahl) ab wie viele Werte die Spannung
annehmen kann. Je höher die Auflösung umso geringere Spannungswerte können
im Zahlenbereich dargestellt werden. Die Dynamik des Signals muss erhalten
bleiben.

EDT_ Ausarbeitung: 5HIB 2005/2006 Seite:7/82


A/D- Wandler mit N=3bit:
• Signed
XQ(n)

011 3q
Wertebereich:
-2N-1…..2N-1-1
010 2q
int -4 ….. 3
001 q 100 ...011
000 x
-4q -3q -2q -q q 2q 3q Auflösung:
111 -q
Umax
110 -2q q=
2N−1
101 -3q
N… Anzahl der Bit
100 -4q

• Unsigned
XQ(n)

111 7q Wertebereich:
110 6q
0….2N-1
int 0 ..…. 7
101 5q
000 ...111
100 4q

011 3q

010 2q

001 q

000 0 x
0 q 2q 3q 4q 5q 6q 7q

Quantisierungsfehler:

Quantisierungsfehler (Quantisierungsrauchen) entsteht da es die Spannung nur


bestimmte Zahlenwerte annehmen kann. Die analogen Werte zwischen den
Zahlenwerte werden nicht erfasst dadurch entsteht der Fehler, da entweder ein
höherer oder ein niedrigerer Zahlenwert als Spannungswert angenommen wird. Der
Fehler wird dadurch verringert das alle ½ LSB auf den neuen Wert gewechselt wird.
Durch die lineare Quantisierung entsteht das so genannte Quantisierungsrauschen
q
(Fehler bei der Quantisierung). Der Effektivwert des Fehlers beträgt eeff =
12
e(x)

q/2

x
-q/2 q/2

-q/2

EDT_ Ausarbeitung: 5HIB 2005/2006 Seite:8/82


3) Grundlagen der Digital-Analog-Wandlung:

Ein Digital-Analog-Wandler hat die Aufgabe, digitale Informationen, sprich eine Zahl,
in einen entsprechenden analogen Wert umzuwandeln.

In der Theorie:

Im digitalen Dirac- Impuls ist max. Aussteuerung, jedoch steckt im Dirac- Impuls
wenig Energie.

In der Theorie gibt es eine Idealform, dadurch keine Verzerrung durch sin(x) durch x.

EDT_ Ausarbeitung: 5HIB 2005/2006 Seite:9/82


In der Praxis:

Rechteckimpuls

Ein störender Effekt bei der praktischen Lösung entsteht durch die sin (x) Funktion.
Beim sin (x)/x Frequenzgang entsteht eine Verzerrung des Signals, diese kann
jedoch kompensiert werden. Zwei Mögliche Abhilfen gegen die Verzerrung ist ein
Überabtasten des Signals und Filtern.

Uref ist die maximale Amplitude. Wenn Uref nicht dem entspricht muss gedämpft
oder verstärkt werden. Fabt muss genau sein, sonst schwankt das Signal am
Ausgang auf der t- Achse (zusammenstauchen oder ausdehnen). Je höher die
Abtastfrequenz ist, um so mehr Werte bekommt man, desto genauer ist das Signal
am Ausgang.

EDT_ Ausarbeitung: 5HIB 2005/2006 Seite:10/82


Frage 4: D/A- Wandler Verfahren
Typen der DA-Wandler, leite die Dimensionierung eines Leiternetzwerkes eines
DACs mit Wägeverfahren her.

Verfahren:
Es gibt drei verschiedene Verfahren, um digitale in analoge Werte umzuwandeln:
• Parallel - Verfahren (Direkte Methode)
• Zähl - Verfahren (Pulsweitenmodulation)
• Wäge - Verfahren (Iterationsmethode)

Parallel - Verfahren: (Direkte Methode)


Ist die schnellste, aber auch aufwändigste Methode.
Es werden alle möglichen Ausgangswerte gleichzeitig zur Verfügung gestellt. Der
richtige Wert wird mit einem Multiplexer (1 aus n) gewählt.
Es werden 2N Widerstände und 2N Schalter benötigt!
UREF
S5 Zahl =0: S0 = geschlossen
S0 = 1
R Ua = 0V
S4
Zahl =2: S2= geschlossen
R S3 S2= 1
Ua Ua= 2∙ULSB
R
S2
Nachteile:
R
S1 2n Widerstände
2n Schalter + Kodierung
ULSB R
S0

Bei der direkten Methode werden die anliegenden Eingangssignale direkt an die
Eingänge einer Reihe von Komparatoren gelegt. Die zweiten Eingänge der
Komparatoren werden an eine Reihe unterschiedlicher Referenzgrößen gelegt.
Dadurch werden unmittelbar alle Komparatoren ausgelöst, bei denen die
Eingangsgröße höher als ihre Referenzgröße ist. Da die Komparatoren unabhängig
voneinander und gleichzeitig arbeiten, erzielt diese Methode hohe
Geschwindigkeiten, ist aber bei hohen Genauigkeiten aufgrund der nötigen Anzahl
an Komparatoren und präzisen Referenzgrößen sehr aufwändig. Dieses Verfahren
wird auch als Flash-Wandlung bezeichnet, die DACs heißen auch FLASH-ADCs.

Zähl - Verfahren: (Pulsweitenmodulation)

EDT_ Ausarbeitung: 5HIB 2005/2006 Seite:11/82


Es wird nur ein Schalter benötigt, der periodisch geöffnet und geschlossen wird.
Es ist billiges, aber langsames Verfahren.
Der Kondensator wird aufgeladen wenn der Schalter auf Uref steht.
Der Zähler bestimmt das Laden des Kondensators.
UREF

R Ua
C

Zähler-
Logik
Bei der Zählmethode wird so lange der kleinste gewünschte Schritt (LSB)
aufeinander addiert und an einen Komparator geliefert, bis der Wert gleich oder
größer der angelegten analogen Referenzgröße ist. Die Schritte werden mit einem
Zähler erzeugt, der dem Verfahren seinen Namen gibt. Der Schaltungsaufwand ist
sehr gering, allerdings ist die Umsetzungszeit abhängig von der Eingangsgröße, im
ungünstigsten Fall muss der Zähler alle Stufen durchlaufen.  am langsamsten.

Diese Methode erfordert nur einen einzigen Schalter, der periodisch geöffnet und
geschlossen wird. Das Tastverhältnis wird mit Hilfe des digitalen Wertes so
eingestellt, dass der arithmetische Mittelwert der gesuchten Ausgangsgröße
entspricht. Dieses Verfahren benötigt die größte Umsetzungszeit, lässt sich aber sehr
gut als integrierte Schaltung realisieren.

Wäge - Verfahren: (Iterationsmethode)


Es werden so viele Schalter wie Anzahl an Bits benötigt (N Schalter und N
(zusammengestückelte) Widerstände).
Das analoge Ausgangssignal wird mit Hilfe der gewichteten Widerstände erzeugt.
Nachteile:
• Widerstände, die ein exaktes zwei-, vier-, acht-, …faches Vielfaches eines
Widerstandswertes sind, sind schwer zu erzeugen.
• Die Spannungsquelle wird unterschiedlich belastet

2R 4R 8R 16R RFB≈R

UREF = S3 S2 S1 S0
-

+ Ua

EDT_ Ausarbeitung: 5HIB 2005/2006 Seite:12/82


RFB
A=− UA = A ⋅ UREF
Rparallel
Z=1:
R 1 1
A=− =− Ua = − ⋅ UREF
16 16 16
Allg.:
Z
Ua = −UREF ⋅
Zmax + 1

Hier wird das analoge Ausgangssignal mit Hilfe von gewichteten Widerständen
erzeugt. Man benötigt so viele Schalter, wie Bits zur Darstellung der digitalen Werte
verwendet werden. Dieses Verfahren bietet den besten Kompromiss aus Aufwand
und Umsetzungsgeschwindigkeit.

EDT_ Ausarbeitung: 5HIB 2005/2006 Seite:13/82


Herleitung der Dimensionierung eines Leiternetzwerkes eines DACs mit
Wägeverfahren:

Auszug aus Tietze/Schenk, „Halbleiter-Schaltungstechnik“:


(Kein Bestandteil dieser Ausarbeitung)

EDT_ Ausarbeitung: 5HIB 2005/2006 Seite:14/82


EDT_ Ausarbeitung: 5HIB 2005/2006 Seite:15/82
Frage 5: µ- Computer Blockschaltbild
Blockschaltbild eines µ- Computers, Erklärung der einzelnen Elemente inkl.
Speichertypen, Busleitungen und IO- Beispiel:

Ein µ- Computer ist eine funktionale Steuereinheit. Diese besteht heutzutage aus
einem µ- Prozessor und diversen Zusatzbausteinen. Einen µ- Prozessor ist ein Chip
auf dem nur eine CPU enthalten ist. Ein µ-
Computer beinhaltet eine CPU, mindestens einen
Speicher und mindestens einen IO- Baustein.
Falls ein µ- Computer auf nur einem IC verpackt
ist wird dieses System on a Chip genannt.
Heutzutage werden nur noch solche Systeme
produziert, da es alleine keine CPU mehr gibt.

EDT_ Ausarbeitung: 5HIB 2005/2006 Seite:16/82


Erklärung:

Bei Uv handelt es sich um die Versorgungsspannung, diese ist heutzutage bei dem
Großteil aller CPUs 5V (Volt). Früher hat man auch die Werte -5V und +12V als
Versorgungsspannung bei der CPU verwendet.

Der Takt kann intern oder über einen Taktgenerator erzeugt werden. Bei einfachen
Systemen wird sogar ein R-C Glied zur Erzeugung des Takts verwendet. Der
Systemtakt ist die Taktrate, die außerhalb des Prozessors anliegt. Sie bestimmt die
Geschwindigkeit des Hauptspeicherzugriffs

Der Reset dient, wie der Name schon sagt, zum Neustarten des µ- Computers,
dieser Reset ist wie ein Schalter den man ein- und ausschaltet. Der Reset kann auch
mit einem Bit (0 oder 1) gemacht werden.

Die CPU ist verantwortlich für den gesamten Ablauf, sie steuert und managet alle
Zugriffe von Speicher und I/O Bausteinen. Sie bearbeitet Daten mit arithmetischen
und logischen Operationen. Weiters ist die CPU fürs Laden, Speichern, Codieren,
Decodieren, und ausführen jeglicher Befehle zuständig.

Der Speicher kann intern oder extern vorhanden sein. Er dient zum laden und
Speichern von Daten.

Der I/O Baustein dient als Schnittstelle zu Peripherie Geräten. Das Peripherie Gerät
kann intern eingebaut sein oder eine Schnittstelle sein an die das Gerät
angeschlossen werden kann.

Alle diese vorher erklärten Elemente eines µ- Computers benötigen natürlich auch
eine Verbindung untereinander. Damit diese miteinander kommunizieren können,
verwendet man ein Bussystem, dieses besteht aus einem Steuer-, Daten- und
Adressbus.
Der Datenbus dient zur Übertragung von Daten zwischen CPU, Speicher und
Peripherie. Die Anzahl der Datenbusleitungen bestimmt die Anzahl der Byte die pro
Takt übertragen werden können. Alle Elemente die Daten abgeben können, sind mit
dem Datenbus verbunden. Die Datenfreigabe erfolgt durch den Prozessor, wobei
immer nur eine Baugruppe Daten schicken oder empfangen kann.
Der Adressbus ist für die Übertragung von Speicheradressen zuständig. Über den
Adressbus wird nicht nur der Speicher angesprochen, sondern auch Peripherie-
Geräte.
Die Anzahl der Adressleitungen, ist die Anzahl der maximal zu adressierenden
Speicherplätze.

Formel: adressierbare Speicherplätze = 2Anzahl der Adressleitungen

Der Steuerbus dient der Übertragung bestimmter Steuersignale an die einzelnen


Komponenten. Auf diese Weise wird der, auf dem Adressbus angesprochener,
Komponente mitgeteilt, was sie zu tun hat. Diese soll zum Beispiel Daten vom
Datenbus aufnehmen oder Daten auf den Datenbus stellen.
Der Steuerbus beinhaltet auch die Interrupt- Leitungen über dem die Peripherie-
Geräte dem Prozessor eine Unterbrechungsanforderung signalisieren können.

EDT_ Ausarbeitung: 5HIB 2005/2006 Seite:17/82


Üblicherweise benötigen alle Peripherie-Geräte einen Interrupt. Wenn ein Gerät
Daten zur weiteren Verarbeitung zu Verfügung hat oder einfach nur eine
Rückmeldung geben will, dann wird der CPU in seiner laufenden Arbeit eine
Unterbrechungsanforderung, eine so genannte Interrupt- Request (IRQ), gesendet.
Bei jeder zeitkritischen Anwendung, bei der Daten an den Prozessor gesendet
werden sollen, wird ein Interrupt ausgelöst.
Mittels des Interrupts kann ein Computersystem optimal funktionieren. Ohne Interrupt
müsste die CPU ständig alle möglichen Bauteile abfragen, ob Daten zur Bearbeitung
anliegen.
Damit aus Anwendersicht das System reibungslos funktioniert, ist die Gewichtung
zwischen den Interrupts unterschiedlich. So kann sich die CPU um die wichtigen
Aufgaben kümmern.
Für den IRQ können folgende Aktionen verantwortlich sein:

• Mausbewegung
• Datenempfang vom Modem
• Tastatureingabe
• Lesen oder Speichern von Medien

Lesevorgang
Die CPU soll Daten aus der Funktionsbaugruppe ROM (Festwertspeicher) lesen

1. Die CPU gibt die Adresse der Funktionsbaugruppe ROM (Festwertspeicher)


und der Speicherzelle auf den Adressbus.
2. Die CPU aktiviert die Steuerleitung READ, wobei die adressierte Speicherzelle
ihren Inhalt auf den Datenbus gibt.
3. Die CPU übernimmt die Daten vom Datenbus und deaktiviert die Steuerleitung
READ. Der Lesevorgang ist damit beendet.

Schreibvorgang
Die CPU soll Daten in die Funktionsbaugruppe SPEICHER schreiben

1. Die CPU gibt die Adresse der Funktionsbaugruppe SPEICHER auf den
Adressbus.
2. Die CPU gibt die Daten auf den Datenbus.
3. Die CPU aktiviert die Steuerleitung WRITE, wodurch die Funktionsbaugruppe
SPEICHER die Daten vom Datenbus aufnimmt.
4. Die CPU deaktiviert die Steuerleitung WRITE. Der Schreibvorgang ist damit
beendet.

Frage 6: Prinzipieller Ablauf eines Programms im


µComputer
Prinzip der Datenverarbeitung
o Daten einlesen
o Daten verarbeiten und Speichern
o Daten ausgeben

EDT_ Ausarbeitung: 5HIB 2005/2006 Seite:18/82


Systematischer Ablauf:

1. Reset (Vordefinierter Zustand)


2. Befehl holen (per Program Counter)
3. Befehl weiterleiten und dekodieren
4. Befehl ausführen (Mikrocode intern umsetzen)
5. Programm Counter um 1 erhöhen (Adresse des nächsten Befehls)
6. Springe zu 2.

Durch den Reset wird ein vordefinierter Zustand hergestellt.


Der Program Counter (enthält die Adresse des als nächsten auszuführenden Befehl)
wird auf 0 gesetzt.
Nun wird ein Befehl geladen und anschließend dekodiert. Der an die ALU
(Rechenwerk) oder die CU (Steuerwerk) weitergeleiteter Befehl wird ausgeführt und
danach wird der Program Counter um 1 erhöht, um auf den nächsten Befehl zu
zeigen, der ausgeführt werden soll.
Anschließend wird der nächste Befehl geladen und die Prozedur beginnt erneut.
Der Programmablauf wird von der CPU kontrolliert.

Reset:
Der Reset muss eine bestimmte Zeit dauern, damit alle Register in den vordefinierten
Zustand gebracht werden. PC wird auf 0 gesetzt. Register sind im vordefinierten
Zustand, der Zustand steht im Datenblatt.

CPU:
Die Steuerung des Programms erfolgt durch die CPU (Befehlswerk, Steuerwerk,
Rechenwerk).
Da die CPU keine Assemblerbefehle verwalten kann, wird der ganze Code in 0 und
1 (Maschinensprache) übersetzt.
Anschließend vergleicht die CPU diese Zahlenfolgen mit dem so genannten Mico-
Code, welcher in die CPU eingebaut ist und vom Hersteller geheim gehalten wird.

Interrupt:

Mit Interrupts (INT) kann die Peripherie den Programmablauf beeinflussen. Es ist
eine Zeitlich begrenzte Unterbrechung. Der Interrupt ist Lowactiv.
Verarbeitung eines Interrupt:
1.) Interrupt aufgetreten
2.) Interrupt Priorität prüfen (höhere Prioritäten dürfen auch andere Interrupts
unterbrechen)
3.) aktuellen Befehl fertig ausführen danach Hauptprogramm unterbrechen
4.) Rücksprungadresse speichern auf Stack (zusätzlich noch wichtige
Registerinhalte), das Programm muss an der selben Stelle nach den Interrupt
weiterlaufen
5.) Interruptroutine ausführen, je nach CPU verschieden, es gibt für jedes
Interruptereignis eine eigene Routine
6.) Interrupt löschen (beim Aufruf des Interrupt wird eine FLAG gesetzt die muss
nach der Verarbeitung des Interrupt wieder gelöscht werden)
7.) RETI (Return from Interrupt), Rücksprung ins Hauptprogramm,
Rücksprungadresse wird vom Stack geholt. Das Programm läuft an der selben
Stelle weiter an der der Interrupt aufgetreten ist.

EDT_ Ausarbeitung: 5HIB 2005/2006 Seite:19/82


Pipeline:

Pipelinearchitektur (Heute von den meisten Mikroprozessoren unterstützt)


Mittels Pipelinearchitektur können komplexe Befehle in einfache Aktionen zerlegt
werden oder einfache zusammensetzen um schneller und parallel laufen zu können,
um alle Funktionselemente voll auszulasten.
Serielgeschaltene Verarbeitungseinheiten bearbeiten die einzelnen Teiloperationen.
Je einfacher eine solche Stufe aufgebaut ist, desto höher ist die Frequenz mit der sie
ausgeführt werden kann. Jede einzelne Stufe arbeitet parallel zu den anderen
Stufen. Bei heutigen CPUs kann eine Befehlspipeline über 20 Stufen lang sein.
Der Kerntakt der CPU ist jene Zeit welche ein Befehl braucht um eine Stufe zu
durchwandern. In einer x-stufigen Pipeline wird ein Befehl also in x Takten von x
Stufen bearbeitet. Da die CPU nicht wartet bis ein Befehl vollständig ausgeführt
wurde lädt sie in jedem Takt einen neuen Befehl und somit verlässt im Idealfall auch
ein Befehl pro Takt die Pipeline.
Wenn ein JMP Befehl in der Pipeline auftritt, kann dies zu einem Problem führen, da
alle nachfolgenden Befehle nicht ausgeführt werden, wobei neuere Architekturen
dieses Problem im Vorhinein abfangen und die Pipeline mit No-Operations auffüllen.
2.1.Pipelining-Prinzip
 „Prefetching“ teilt die Instruktionsausführung in zwei Teile:
– Aufgabe A: Holen der Instruktion („fetching“)
– Aufgabe B: Ausführen der Instruction („execution“)
 Pipeline erweitert das Konzept auf mehrere Teilaufgaben
 Jede dieser Teilaufgaben wird von spezieller, parallel
arbeitender Hardware unterstützt

S1 S2 S3 S4 S5

Einheit zum Einheit zum Einheit zum Einheit zum Einheit zum
Fetchen der Dekodieren Fetchen der Ausführen der Abspeichern
Instruktion der Instruktion Operanden Instruktion des Resultats

lbaum@htl-ottakring.at Robert Baumgartner, 2005

2.1.Pipelining-Ablauf

Fetch Instr. S1: 1 2 3 4 5 6 7 8

Dekode Instr. S2: 1 2 3 4 5 6 7

Fetch Op. S3: 1 2 3 4 5 6

Execute Instr. S4: 1 2 3 4 5

Write Back
S5: 1 2 3 4

1 2 3 4 5 6 7 8
Zeit (gemessen in Takten)

lbaum@htl-ottakring.at Robert Baumgartner, 2005

Sprünge:
a.)unbedingte Sprünge (JMP): sind normale JUMPs, Das Programm wird an der
Stelle (Adresse) weitergeführt auf die der Jump- Befehl springt.
b.) bedingte Sprünge: Es muss zuerst die Bedingung herausgefunden werden bevor
der Sprung durchgeführt ist. Um die CPU über die Bedingung zu informieren Werden
FLAGS gesetzt.

Genauer HW-Ablauf:
Ein Mikroprozessor besteht aus insgesamt vier Teilen. Dem Rechenwerk, dem
Steuerwerk, dem Befehlswerk und dem internen Speicher.
Für den Ablauf eines Programmes ist das Steuerwerk zuständig. Das
Steuerwerk ist die Kommandozentrale eines Prozessors und holt sich die
Anweisungen/Befehle aus dem Arbeitsspeicher, dekodiert diese und
entscheidet danach, was weiter zu tun ist. Um den Befehl holen zu können,

EDT_ Ausarbeitung: 5HIB 2005/2006 Seite:20/82


benötigt das Steuerwerk ein so genanntes Befehlsregister. Dieses Register
unterteilt sich in drei weitere Register, dem Befehlsadressregister, dem
Befehlsdekodierregister und dem Ausführungsregister.

Im Befehlsadressregister befindet sich die Adresse zum nächsten


auszuführenden Befehl im Arbeitsspeicher. (1) Nun holt sich der Prozessor
bzw. das Steuerwerk den Befehl, der im nächsten Register, dem
Befehlsdekodierregister, dekodiert wird. (2) Nach der Analyse des Befehls,
wird dieser an das Ausführungsregister übergeben. (3) Das Steuerwerk
entscheidet nun, was weiter passieren soll. Das Steuerwerk verteilt die
Aufgaben zur Durchführung eines Befehls an die restlichen Bauteile des
Prozessors und holt anschließend den nächsten Befehl.

EDT_ Ausarbeitung: 5HIB 2005/2006 Seite:21/82


Frage 7: Adressierung bzw. Dekodierung von Speicher-
und IO- Bausteinen

CS- Logik:

EDT_ Ausarbeitung: 5HIB 2005/2006 Seite:22/82


Blockschaltbild

Zusätzlich führen noch Read und Write- Leitungen zu den einzelnen Bausteinen
Adressraum: 216= 64K Adressen= 65536

EDT_ Ausarbeitung: 5HIB 2005/2006 Seite:23/82


CS- Logik

EDT_ Ausarbeitung: 5HIB 2005/2006 Seite:24/82


Blockschaltbild

Zusätzlich führen noch Read und Write- Leitungen zu den einzelnen Bausteinen
Adressraum: 214= 16k Adressen = 16384

EDT_ Ausarbeitung: 5HIB 2005/2006 Seite:25/82


2 Möglichkeiten für Speicher:

1.) Speicher Parallel:

2k*16: Doppelte Datenbusbreite, CPU sieht beide Speicher als einen Baustein; CS
sind gleich; Adressen sind gleich; Daten sind unterschiedlich, ein Baustein bekommt
LB (Low Byte, unteres Datenwort) D0…D7, zweiter bekommt HB (High Byte, oberes
Datenwort) D8…D15
Vorteil: einfaches CS
Nachteil: Adressleitungen sind frei, Im Programm könnten Vektoren auf diesen
Bereich zugreifen dadurch würden Fehler entstehen da es diese Adressen nicht
wirklich existieren (nicht ausdekodiert) sind. Für das Programm findet keine Aktion
statt.

2.) Speicher seriell:

4k*8 Doppelte Speichergröße, CPU sieht zwei unterschiedliche Bausteine; CS sind


unterschiedlich; Adressen sind gleich; Daten sind gleich

Adressrechnung

1k → 0x0400
2k → 0x0800
4k → 0x1000
8k → 0x2000
16k→ 0x4000
32k → 0x8000

EDT_ Ausarbeitung: 5HIB 2005/2006 Seite:26/82


Aufgabe der Adresskodierung

Design der Microcontroller- Architektur, Verteilung des verfügbaren Adressbereichs


nach den jeweiligen Vorgaben. Der Programmierer muss wissen welche Adressen er
verwenden kann um die Peripherie anzusprechen.
Jeder Baustein muss sein eigenes CS (Chipselect) haben damit die CPU genau den
einen benötigten („richtigen“) Baustein ansprechen kann. Die CS müssen eindeutig
sein!

Vorgaben:

Anzahl der Adressleitungen N und die Datenbusbreite ist von der verwendeten CPU
vorgegeben. Die Reihenfolge (Anordnung) der Peripherie ist kann von
Programmierer, Anwender oder Designer vorgegeben sein.

Datenbusbreite ist für die Rechengenauigkeit und Wertebereich der ALU wichtig, die
Datenbusbreite ist immer ein Byte- Vielfaches.

Vorgehensweise

1.) grobe Einteilung der CS


2.) feine Einteilung der CS solange bis jeder eine eigene CS-Adresse hat
3.) Start- und Endadresse angeben
4.) CS- Logik Gleichungen aufstellen ( mit 2er NAND und NOT)
5.) CS-Logik zeichnen
6.) Blockschaltbild zeichnen
7.) Adressen, Daten und CS, ins BSB einzeichnen

Frage 8: CPU Aufbau und Funktion


Aufbau und Funktionsweise einer CPU. Nenne die wichtigsten Einheiten und
beschreibe deren Funktionen und Zusammenspiel:

Die CPU ist heutzutage das Herzstück eines jeden modernen Gerätes. Er wird in
Handys, Taschenrechnern, HiFi-Geräten und in Computern, für die er eigentlich
erfunden wurde, eingesetzt. Eine Welt ohne diese Rechengenies ist nicht mehr
vorzustellen.
Eine CPU steuert den gesamten Ablauf eines Computers, sowohl innerhalb als auch
außerhalb (Peripherie oder I/O Bausteine).

EDT_ Ausarbeitung: 5HIB 2005/2006 Seite:27/82


Blockschaltbild

Die Central- Prozessing- Unit, kurz CPU, besteht grob gesehen aus drei wichtigen
Komponenten:
• Rechenwerk (Arithmetic Logic Unit (ALU))
• Befehlswerk (Instruction Unit)
• Steuerwerk (Control Unit)
Über das Bus-Interface greift die CPU auf den Systembus zu.
Im Rechenwerk sind die Arithmetic- Logic- Unit (ALU) und das Statusregister
enthalten. Das Rechenwerk dient zur Bearbeitung von Daten, es können logische
und arithmetische Operationen sowie Schiebefunktionen ausgeführt werden. Die
Operanten müssen in Registern stehen und die Ergebnis werden im “Accumulator
Register” gespeichert. Die ALU ist eine Schaltung die wahlweise 2 n-Bit Wörter mit
einander Addieren, Subtrahieren, Multiplizieren, Dividieren kann. Weiters kann sie
diese Wörter auch AND, OR, NOT, XOR verknüpfen. Die ALU kann auch Shift
Operationen durchführen. Das Rechenwerk hat auch Hilfsregister in denen
zwischengespeicherte Werte stehen die von der ALU danach berechnet werden
(dienen zur Stabilisierung der ALU gegenüber dem Bus). Im Statusregister werden
bestimmte Aspekte vom Ergebnis der ALU gespeichert, auch Flags genannt (wenn
das Ergebnis = 0 oder < 0 oder > 0 ist).

EDT_ Ausarbeitung: 5HIB 2005/2006 Seite:28/82


Das Befehlswerk dient zur Abarbeitung der Befehle im Speicher. Es ist für das
Laden, das Decodieren und für das Ausführen eines Befehls verantwortlich.
Ein Befehlswerk beinhaltet ein:
• Befehlsregister enthält den Code des gerade auszuführenden Befehls.
• Befehlszähler (Program Counter), er zeigt auf die Adresse des nächsten
auszuführenden Befehls. Hier wird definiert wie es weiter geht.
• Bei Pipelines werden die Befehle hintereinander gereiht und abgearbeitet
(beim 1. Mal komplett ausführen beim 2. Mal schon parallele Abarbeitung)
• Befehle werden vom Cache schnell verarbeitet

Das Steuerwerk ist für die Zusammenarbeit mit den anderen Komponenten des
Prozessors verantwortlich.
Im Einzelnen sind dies folgende Aufgaben:
• Lesen der Daten aus dem RAM
• Speichen der Daten im RAM
• Bereitstellung, Decodierung und Ausführung von Befehlen
• Verarbeitung der Eingabe von peripheren Geräten
• Verarbeitung der Ausgabe zur Peripherie
• Interrupt- Steuerung
• Überwachung des gesamten Systems
Für die Bewältigung dieser doch recht vielfältigen Aufgaben steht der Steuereinheit
das Bussystem zur Verfügung.

Über die Systembus-Schnittstelle kommuniziert die CPU mit Speicher- und I/O-
Einheiten. Daher enthält sie einerseits Speicherzellen zur Zwischenspeicherung von
Adressen und Daten, diese werden auch Adress- und Datenpuffer genannt. Falls der
Takt in der CPU höher ist als der Takt, in den Daten mit dem Hauptspeicher
ausgetauscht werden, so schiebt die CPU Wartezyklen ein.

Die Bearbeitung von Befehlen in sieben Etappen:

1. das Holen des Befehls aus dem Speicher,


2. die Dekodierung des Befehls in Opkode und Operandenspezifikation,
3. eventuelle Adreßberechnungen,
4. das Holen von Operanden aus dem Speicher, sofern benötigt,
5. die Durchführung der Operation,
6. eventuell das Speichern von Ergebnissen,
7. die Bestimmung der Adresse des nächsten Befehls.

EDT_ Ausarbeitung: 5HIB 2005/2006 Seite:29/82


Frage 9: Systembus
Aufbau und Funktionsweise des Systembusses. Beschreibe einen Read- und
Writevorgang mit dem Timing der Bausteine.

BUS = Binary Unit System.

Der Systembus besteht aus 3 Bussen:

a.) Adressbus – Dient zum Adressieren aller Bausteine. Die Adressierung


erfolgt nur in eine Richtung (unidirektional) und geht vom Steuerwerk
(CPU) aus.
Adressraum: 2N N… Anzahl der Leitungen (Größe, von CPU vorgegeben)
übliche Größen: PC 32bit
PIC 13bit

b.) Datenbus – Dient zum Transportieren von Daten. Vorher muss der
richtige Baustein mithilfe des Adressbusses ausfindig gemacht werden.
Der Datenbus ist im Gegensatz zum Adressbus bidirektional, was
bedeutet dass der Datenaustausch in beide Richtungen erfolgt.
übliche Größen: PC 32bit
PIC 8bit
DSP 16-48bit

c.) Steuerbus – Dient zum Steuern aller Zugriffe, um Chaos zu verhindern.


Im Falle eines noch nicht bereiten Speicher blockiert der Steuerbus die
Leitung. ( WR , RD , CS )

Read ( RD ) – Write ( WR ) –Vorgänge:


Beim Lese- als auch beim Schreibvorgang treten so genannte „Propagation Delays“
auf. Außerdem sind sowohl RD , WR als auch Chip – Select( CS ) Low-Active, was
bedeutet dass sie bei fallender Flanke aktiviert werden. Darüber hinaus sind beide
Vorgänge gleich lang.

Ablauf:
Zuerst werden die Adressen reserviert, die Chip-Selects (CS) bestimmt und das
Gerät in den Read oder Write Modus versetzt.
Anschließend werden die Daten gelesen bzw. geschickt. Dabei steuert die CS-Logik
alle Zeiteinteilungen.

EDT_ Ausarbeitung: 5HIB 2005/2006 Seite:30/82


Falls die CPU langsam ist, so ist das nicht von großer Bedeutung, abgesehen davon
dass jeder Read- bzw. Writevorgang mehr Zeit benötigt. Der Speicher hat allerdings
keine Probleme damit die Daten zu speichern.
Von größerer Bedeutung ist nur ein zu langsamer Speicher, denn dann muss die
CPU so genannte „Waitstates“ ausführen, um auf den Speicher zu warten, damit die
Daten nicht verloren gehen können. Mit Waitstates kann der Buszugriff der CPU
verzögert werden, dass verschafft dem langsamen Speicherbaustein genug Zeit die
Daten zu Speichern.

Frage 10: Maschinenbefehle


Beschreibe die einzelnen Gruppen der Maschinenbefehle und gib für jede
Gruppe Beispiele an. Beschreibe auch Details, wie relative und absolute
Sprünge. Erkläre als Beispiel, wie eine Addition von 16 Bit mit einer 8 Bit ALU
mit dem Carry-Bit abläuft.

Die Maschinensprache enthält die direkt vom Prozessor verstandenen Befehle.


Damit ein Computer numerische Probleme lösen kann, muss ihm der Lösungsweg in
einer ihm verständlichen Art und Weise mitgeteilt werden. Im Gegensatz zur
Assemblersprache oder Hochsprachen (C++, Java,…) handelt es sich bei der
Maschinensprache um einen für den Menschen kaum lesbaren Binärcode. Wird von
der Programmierung in Maschinensprache gesprochen, wird heute üblicherweise die
Maschinenprogrammierung in Assemblersprache unter Verwendung eines
Assemblers gemeint, der das als Textdatei vorliegende Assemblerprogramm in
binäre Maschinenbefehle übersetzt.
Heutzutage wird nicht mehr in Maschinensprache und kaum mehr in Assembler
programmiert, sondern in Hochsprachen (C++, Java, …).

Maschinenbefehle können in folgende Gruppen unterschieden werden:


1.) Arithmetische Befehle
2.) Logische Befehle
3.) Einzelbitbefehle
4.) Transportbefehle
5.) Programmsteuerungsbefehle

EDT_ Ausarbeitung: 5HIB 2005/2006 Seite:31/82


Jede Befehlsgruppe kann einem Teil des Prozessors zugeordnet werden:

Steuerwerk Transportbefehle

Programmsteuerungs-
Befehlswerk
befehle

Arithmetische-,
Rechenwerk Logische- &
Einzelbitbefehle

1.) Arithmetische Befehle (  Rechenwerk):


Führen grundlegende mathematische Operationen aus.

Beispiele:
• ADD (Addieren)
• SUB (Subtrahieren)
• MLP (Multiplizieren)
• DIV (Dividieren)
• INC (Increment, erhöht den Wert um 1)
• DEC (Decrement, verringert den Wert um 1)

2.) Logische Befehle (  Rechenwerk):


Führen grundlegende logische Operationen aus.

Beispiele:
• ANL (Logisches UND)
• ORL (Logisches ODER)
• XRL (XOR)
• CLR (Lösche den Akkumulator)
• CPL (Invertiere den Akkumulator)
• RL (rotate left, links shiften, entspricht einer Multiplikation mit 2)
o RLC (mit Einbeziehung des Carry)
• RR (rotate right, rechts shiften, entspricht einer Division durch 2)
o RRC (mit Einbeziehung des Carry)

Zur Wiederholung:
UND: ODER: XOR:
0 UND 0 = 0 0 ODER 0 = 0 0 XOR 0 = 0
0 UND 1 = 0 0 ODER 1 = 1 0 XOR 1 = 1

EDT_ Ausarbeitung: 5HIB 2005/2006 Seite:32/82


1 UND 0 = 0 1 ODER 0 = 1 1 XOR 0 = 1
1 UND 1 = 1 1 ODER 1 = 1 1 XOR 1 = 0

3.) Einzelbitbefehle (  Rechenwerk):

Beispiele:
• CLR C (Lösche Carry)
• CLR bit (Lösche den Inhalt einer Bit-Adresse)
• SETB C (Setze Carry)
• SETB bit (Setze Inhalt einer Bit-Adresse)
• CPL C (Invertiere Carry)
• CPL bit (Invertiere den Inhalt einer Bit-Adresse)
• MOV C, bit (Lade Carry mit dem Inhalt der Bit-Adresse)
• MOV bit, C (Lade Bit-Adresse mit dem Inhalt des Carry)
4.) Transport Befehle (  Steuerwerk):

Beispiele:
• MOV (move, nur implizierte Adressierung)
o MOVC (mit Einbeziehung des Carry)
• PUSH (nur direkt, Inhalt der Adresse in den Stack speichern)
• POP (nur direkt, zuletzt gespeichertes Byte im Stack in eine Adresse laden)

Move:
Dieser Befehl ermöglicht das Verschieben von Daten zwischen den Speichern,
Akkumulatoren und den verschiedenen Registern. Die Daten bleiben in der Quelle
vorhanden, weshalb man auch sagen kann, dass sie kopiert werden. Es gibt
verschiedene Möglichkeiten Ziel und Quelle beim move-Befehl zu definieren
(meistens ist der erste Operand die Quelle, der zweite das Ziel).

5.) Programmsteuerungsbefehle (  Befehlswerk):

Beispiele:
• ACALL (Unterprogrammaufruf mit 11 Bit langer Zieladresse, Bereich 0-2k)
• LCALL (Unterprogrammaufruf mit 16 Bit langer Zieladresse, Bereich 0-64k)
• RET (Rücksprung aus dem Unterprogramm)
o RETI (Rücksprung aus der Interrupt Service Routine)
• NOP (No Operation)
• JMP (Sprung)

Unterschied: CALL – JMP


CALL: Rücksprungadresse wird im Stack gespeichert
 bei einem RET – Befehl wird die Rücksprungadresse im Stack gesucht

EDT_ Ausarbeitung: 5HIB 2005/2006 Seite:33/82


JMP: Rücksprungadresse wird nicht im Stack gespeichert

Verschiedene JMP Möglichkeiten:


• absolute Sprünge: Sprünge zu einer bestimmten Adresse (JMP x:$0001)
• relative Sprünge: Sprünge relativ zu der aktuellen Adresse (JMP x:$0001 + 3)
• Conditional: bedingt, abhängig von Zuständen
o z.B.: Akkumulator = 0, Carry gesetzt
• Unconditional: immer, unabhängig von Zuständen

Stack:
Der Stack wir meistens benutzt um die Rücksprungadresse zu speichern (zum
Beispiel für Interrupts).
Er verwendet meist das Last In – First Out –Prinzip (LIFO), das heißt es wird von
POP immer das Objekt aus dem Stapel zurückgegeben, welches als letztes mit
PUSH hineingelegt wurde.

Interrupt:
Unter Interrupt versteht man die kurzfristige Unterbrechung eines Programms durch
eine von der CPU abzuarbeitenden Befehlssequenz.
Sinn eines Interrupts ist es, schnell auf Ein-/Ausgabe-Signale (z. B. Tastatur, Maus,
Festplatte, Netzwerk usw.) oder Zeitgebern (Timern) zu reagieren. Interrupts sind
nötig, um auf zeitkritische Ereignisse reagieren zu können.

Ablauf eines Interrupts:


1. Die CPU überprüft ob der Interrupt erlaubt ist
2. Das Programm wird unterbrochen
3. Register und Rücksprungadresse werden im Stack gesichert
4. Die Einsprungadresse des Interrupts wird gesucht
5. Der Program Counter wird verändert
6. Der Interrupt wird bearbeitet

EDT_ Ausarbeitung: 5HIB 2005/2006 Seite:34/82


7. Mit dem rti - Befehl (return from interrupt) kehrt die CPU zu dem
ursprünglichen Programm zurück
8. Die Register und die Rücksprungadresse werden wiederhergestellt und das
vorige Programm läuft weiter (als wäre nichts gewesen)

EDT_ Ausarbeitung: 5HIB 2005/2006 Seite:35/82


Es gibt verschiedene Möglichkeiten die einzelnen Operanden des
Befehls zu bestimmen:
(Am Beispiel einer Addition)
1.) Direkt: ADD x:$0001,y:$0001
Der Wert von Adresse 0001 im X-Speicher + dem Wert von Adresse 0001 im Y-
Speicher. Das Ergebnis steht im X-Speicher an der Stelle 0001.

Diese Adressierungsart wird bei einem Digitalen Signalprozessor verwendet.


Der DSP verwendet eine Harvard-Architektur.

2.) Mittels Pointer: ADD x:(r0),y:(r1)


Die Pointer r0 und r1 zeigen auf die Adressen im Speicher.

3.) Mit Registern: ADD x0,y0


In den Datenregistern x0 und y0 stehen die Werte. Diese wurden vorher mit
„move” dort abgespeichert.

Mikrocontroller verwenden diese Adressierungsart.

Implizite – Explizite Adressierung:


Der Syntax von Befehlen kann, obwohl derselbe Befehl (z.B. ADD) verwendet wird,
unterschiedlich sein. Dies ist meist von der Bauart des Rechners und der ALU
(Arithmetical Logical Unit) abhängig.

Beispiel:
(r1, r2, r3…verschiedene Register)

1.) Syntax: ADD r1, r2, r3


Befehlswirkung: r3 = r1 + r2 (Ergebnis der Addition wird in Register r3
gespeichert)
 Explizite Adressierung (Speicherziel explizit angegeben)

2.) Syntax: ADD r1, r2


Befehlswirkung: r1 = r1 + r2 (Ergebnis wird wieder in Register r1 gespeichert)
 Implizite Adressierung (Speicherziel implizit angegeben)

Harvard-Architektur:
Die Harvard-Architektur bezeichnet in der Informatik ein Schaltungskonzept zur
Realisierung besonders schneller CPUs und Signalprozessoren. Der Befehlsspeicher
ist physikalisch vom Datenspeicher getrennt. Der Vorteil dieser Architektur besteht
darin, dass Befehle und die zugehörigen Daten in einem einzigen Taktzyklus in das
entsprechende Rechenwerk geladen werden können. Bei einer klassischen Von –

EDT_ Ausarbeitung: 5HIB 2005/2006 Seite:36/82


Neumann – Architektur sind hierzu mindestens zwei aufeinander folgende Taktzyklen
notwendig.
Moderne Prozessoren in Harvard-Architektur sind in der Lage, parallel mehrere
Rechenwerke gleichzeitig mit Daten und Befehlen zu füllen.
Eine Harvard-Architektur bedeutet mehr Hardwareaufwand, aber auch einen
Geschwindigkeitsvorteil.

Addition von 16 Bit Zahlen mit einer 8 Bit ALU:


Der Zahlenbereich der ALU ist begrenzt. Um Zahlen zu addieren, die größer sind als
der Zahlenbereich muss die Addition in mehrere Schritte aufgeteilt werden. In diesem
Fall werden 2 Rechnungen mit 8 Bit Zahlen ausgeführt. Zuerst werden die unteren 8
Bit der 16 Bit Zahlen addiert. Ist das Ergebnis größer als mit 8 Bit darstellbar wird das
Carry-Bit gesetzt, das einen Übertrag anzeigt. Dies ist vergleichbar mit dem „1
weiter“ der handlichen Addition. Danach werden höchsten 8 Bit der 16 Bit Zahlen
addiert, plus dem Carry. Das Endergebnis sind schließlich 2 – 8 Bit Pakete.

Lowbyte1 + Lowbyte2 = Ergebnis1 (ev. Carry)


Highbyte1 + Highbyte2 = Ergebnis2 + Carry  Befehl ADDC – addieren und Carry
mitzählen

Frage 11: Datentypen


Beschreibe die Datentypen Fixkomma und Fließkomma. Gehe auf die
Darstellung als binäre Zahl ein und erkläre die Extremfälle, wie Overflow,
Underflow bei Fixkomma. Was ist das 1.15 Format und wo und wofür wird es
verwendet.

a.) Fixkomma:

Eine Fixkommazahl ist eine Zahl, die aus einer festen Anzahl von Ziffern besteht. Die
Position des Dezimalkommas ist dabei fix vorgegeben. Die Menge aller
Festkommazahlen einer vorgegebenen Länge ist deshalb sehr gering. Der
Grundgedanke hinter Festkommazahlen ist, dass man übliche Zahlen
(beispielsweise reelle Zahlen) versucht, zumindest näherungsweise in einem
begrenzten Speicher (beispielsweise einer elektronischen Rechenanlage bzw.
Computer) darzustellen, um damit rechnen zu können. Die Anzahl der
Vorkommastellen ist genauso groß und fix festgehalten wie die Anzahl der
Nachkommastellen.

Hardware:
Nur zwei Zustände (0 und 1)
2: 000
001
010
011

EDT_ Ausarbeitung: 5HIB 2005/2006 Seite:37/82


Vorteile:
Schnelle Verarbeitung
Einfaches Rechnen ist möglich
Jeder Mikroprozessor stellt Befehle für Binärarithmetik zur Verfügung.

Bsp.: Datentyp „Integer“ (ganze Zahlen)


Früher: 16 Bit
Heute: 32 Bit
Nahe Zukunft: 64 Bit

->Heute kann man einen Datenbereich von 232 abdecken kann!

1.15 Format (fractional Format)


Dient zur Signalverarbeitung (DSP Signalverarbeitung). Billige HW benutzt meistens
die Fixkommadarstellung.
Das 1.15 Format wird bei „Fixed Point Zahlen“ verwendet (z.B. Integer)
Der Name kommt von dem Aufbau der Daten des Formats:
Die erste Stelle ist das „Signed Bit“ und beschreibt das Vorzeichen während die
weiteren 15 Stellen die eigentlich Zahl darstellen:

Probleme:

Overflow
Entsteht wenn man versucht, einen Wert zu speichern der größer ist als das jeweilige
Format.
Will man einen Wert der mehr Bits es zulässt. (17) benötigt als vorgesehen (16), so
schreibt man in einen ungültigen Speicherbereich, was schwere Folgen haben kann.
z. B.: Addition von 2 Zahlen. h7FFF+h0001: Wert ist zu groß er kann nicht mehr
dargestellt werden.

Underflow
Wenn man einen zu kleinen Wert lesen will, also der Pointer schon auf der kleinsten
Adresse steht, man aber dennoch versucht einen kleinen Wert zu lesen, so handelt
es sich um einen Underflow.

Bsp.: Multiplikation:
h7FFF∙h7FFF =h7FFF (1,0∙1,0=1,0)
Bei der Multiplikation wird in der ALU die doppelte Genauigkeit verwendet. Das
heißt bei einer 16 Bit Registerarchitektur (1.15 Format) werden in der ALU 32 Bit
Register verwendet. Zusätzlich wird ein Register für den Überlauf verwendet, falls die
Zahl zu groß wird. Registergröße der ALU 40bit (8bit Überlauf, 16 Bit Highword, 16
bit Lowword). Nach der Multiplikation muss der Wert auf 16 Bit gerundet werden
damit er in den Speicher geschrieben werden kann. Es entsteht der Rundungsfehler
der auch als Rundungsrauschen bezeichnet wird.

EDT_ Ausarbeitung: 5HIB 2005/2006 Seite:38/82


Zahlenformat im DSP:
Die Zahlen werden im DSP im polyadischen Binärsystem dargestellt, d.h. Zahlen
werden in
Potenzen der Basis 2 zerlegt.

Die Koeffizienten bi bezeichnen die Bits, n die Wortbreite.


Der DSP 56k benutzt eine fraktionale Festkommadarstellung im Zweierkomplement
wobei die Zahlen einen Wertebereich von 1- 2-(n-1) bis -1 einnehmen können. Das
höchstwertige Bit wird zur Vorzeichendarstellung benutzt, das Komma steht rechts
davon. Je größer die Stellenanzahl ist, desto genauer kann ein Wert dargestellt
werden.
Stellt man zum Beispiel die Zahl 1/3 mit 5 Bit dar, so ergibt sich die Binärzahl 00101.
Nach obiger Darstellung entspricht dieses 0.25+0.0625=0.3125. Der relative Fehler
beträgt 6.25%. Bei einer Darstellung mit 24 Bit erhält man die Hexadezimalzahl
$2AAAAA, das entspricht der Dezimalzahl 0.33333325386 und einem relativem
Fehler von 2,410−5 %.
Der kleinste darstellbare positive Wert beträgt 2−23=1,192110−7. Je kleiner die
darzustellende Zahl ist, desto größer wird der relative Fehler, da die Anzahl der
relevanten Binärstellen sich aufgrund der Festkommadarstellung verringert. Bei
digitalen Filtern macht sich dieser Fehler durch ein erhöhtes Störsignal bzw. durch
abweichende Filterfunktionen aufgrund der Koeffizientenquantisierung bemerkbar.

Nachteile
- der darstellbare Zahlenbereich ist begrenzt; dem muss evtl. durch Skalierung
abgeholfen werden
- die Genauigkeit der Darstellung ist abhängig vom Betrag der Zahl, d.h. große Werte
werden genauer dargestellt als kleine Werte
Vorteile sind die einfachere Hardwarerealisierung und damit der günstigere Preis.

b) Fließkomma:

Um genauere Rechnungen zu ermöglichen wurde eine neue Form (normierte Form)


entwickelt.
Die Mantisse ist dabei eine Zahl, deren Vorkommateil 1 ist. (Standart IEEE 754 –
Floating Point Standard z.B.: float)

Teure HW benutzt meistens Fließkomma. (Anwendung: z.B.: DSPs)


Wertebereich: -1.0…+1.0
Zur Verfügung stehen 24 Bit (Mantisse) Exponent + 128 (8Bit)
Normiert man z.B.: die Zahl:

sieht das Ergebnis folgendermaßen aus: +1,10011011 * 2^100

EDT_ Ausarbeitung: 5HIB 2005/2006 Seite:39/82


Das Komma wird um 4 Stellen verschoben, 4 in Binär ist 0100.
Die Basis ist 2.
Der Floating Point ist frei wählbar. Um zu verschieben wird eine SHIFT Operation
durchgeführt. (DSP = normalize, da im DSP meist nur Zahlen < 1.0 vorliegen
verschiebt man bis zum ersten 1ser (binär), bzw. bis zum ersten 0er)
z.B.: (signed Bit) 0,…….1 <- hier her wird geshiftet.
Da die Ziffer vor dem Komma also fast immer 1 ist (Ausnahme: 0), kann man auf
deren Abspeicherung verzichten und gewinnt so ein zusätzliches Mantissenbit,
wodurch die Genauigkeit erhöht werden kann. Diese Genauigkeit wird allerdings mit
der Sonderbehandlung von 0 erkauft.
Es muss also nur das Vorzeichen (1 Bit), die so genannte Mantisse und der
Exponent abgespeichert werden.

Frage 12: Halbleiterspeicher


Beschreibe die einzelnen Typen von Halbleiterspeicher. Benenne und
beschreibe die wichtigsten Parameter und erkläre die Speichermatrix an einem
einfachen Beispiel. Was ist der Unterschied zwischen statischem und
dynamischem RAM? (Schaltung)

Typen:
Es gibt mehrere Arten von Speichermedien:

Physische Speicherung:
• Papier, Folie ,Steintafel, Tierhäute und Leder, …

Magnetische Speicherung:
• Magnetkarte, Festplatte, Diskette, Zip – Diskette

Optische Speicherung:
• Film, Mikrofilm, CD, DVD, BD, HD-DVD

Elektronische Speicherung / Halbleiterspeicher:


• Flüchtige Speicher (Informationen gehen verloren, wenn sie nicht aufgefrischt
werden oder wenn der Strom abgeschaltet wird)
• Permanente Speicher (Einmal gespeicherte Information bleibt, und kann nicht
mehr verändert werden)
• Semi-permanente Speicher (Information wir permanent gespeichert, die
Informationen können aber auch verändert werden)

Hier soll aber nur auf Halbleiterspeicher genauer eingegangen werden.

EDT_ Ausarbeitung: 5HIB 2005/2006 Seite:40/82


1.) Flüchtige Speicher, RAM (Random Access Memory)
Typischerweise schneller als Permanente Speicher.

• Statisch: Speicherzellen sind Flip – Flops


o Schneller, aber aufgrund der aufwendigen Hardware jedoch teurer
Werden hauptsächlich in Handys verwendet

Aufbau:

• Dynamisch: Speicherzellen sind Kapazitäten


o Billiger, jedoch langsamer, da sie mit Kondensatoren immer wieder
aufgefrischt werden müssen, weil sich die Kapazitäten durch Leckströme
entladen.
o Die maximal erzielbare Speicherkapazität je Baustein ist bei
dynamischen Speichern typisch etwa viermal größer, als bei statischen.
Aus diesem Grund werden in Computern hauptsächlich dynamische
RAM’s eingesetzt.

Aufbau:

• Multiple Port:
o Der Vorteil eines Multiple Port RAM’s liegt darin, dass keine CPU auf den
Zugriff warten muss.
o Bei Multiple Port RAMs sind von mehreren Seiten gleichzeitig
Lesezugriffe möglich. Derartige Speicher besitzen getrennte Adress- und
Daten-Bussysteme sowie eine Logik, die im Fall von gleichzeitiger

EDT_ Ausarbeitung: 5HIB 2005/2006 Seite:41/82


Schreiboperation entsprechende Maßnahmen zur Kollisionslösung
einleiten.
o Durch denn komplexen Aufbau von Multiple Port RAM sind diese nur mit
kleinen Speichergrößen erhältlich und deutlich teurer als herkömmliche
Speicher.

/CS1 /CS2
RAM
CPU 1 A1 A2 CPU 2
multiple port D2

2.)Permanente und Semi-Permanente Speicher:


Permanente und Semi-Permanente Speicher sind Speicher, die im normalen Betrieb
nur gelesen werden können. Man unterscheidet verschiedene Realisierungsformen:

• ROM (Read Only Memory)


o Die Information wird hier beim Hersteller mittels Masken festgelegt,
indem an der entsprechenden Stelle der Matrix eine Unterbrechung bzw.
ein Kontakt eingebaut ist.
o Kann weder gelöscht noch programmiert werden. Wird für eine fixe
Software in der CPU verwendet und in einer Massenanfertigung
hergestellt.

• PROM (Programmable Read Only Memory)


o IC’s werden im leeren Zustand gefertigt, das heißt, dass hier der
Speicher in allen Zellen eine 0 enthält. Der Anwender kann den Speicher
programmieren, indem er z. B. durch das Durchbrennen einer Sicherung
gezielt Einsen schreibt.
o PROMs sind programmierbar, aber nicht löschbar

• EPROM (Erasable Programmable Read Only Memory)


o Diese Speicher können mehrfach programmiert werden. Elektronen
werden in eine „Zwischenschicht“ gehoben. Durch UV- Licht kann die
Ladung wieder ausgeglichen und damit die Information gelöscht werden.

• EEPROM (Electrical Erasable Programmable Read Only Memory)


o Diese haben denselben Aufbau wie EPROMS, ermöglichen aber das
Löschen einzelner Bytes oder des gesamten Speichers auf elektrischem
Wege ohne UV-Licht.
o Da sich einzelne Bytes ohne das Löschen des gesamten Speichers
löschen lassen, können diese einzelnen Bytes praktisch übergebrannt
werden. Allerdings dauert der Brennvorgang bei einem EEPROM mit bis
zu einigen Millisekunden pro Byte deutlich länger als bei EPROM.

EDT_ Ausarbeitung: 5HIB 2005/2006 Seite:42/82


o Um diesen Nachteil wieder zu beheben wurde in EEPROMS eine
Funktion zur Programmierung von so genannten Blocks eingebaut. Dabei
werden 64, 128 oder 256 Byte auf einmal in den Speicherbaustein
geladen und gleichzeitig als Block programmiert. Dieses führt dann zu
deutlich schnelleren Programmierzeiten.
o Der zusätzliche interne Aufwand für die elektrische Löschbarkeit sowie
ggf. die Blockschreibfunktion machen die EEPROMS teurer als die
EPROMS.

• Flash (spezielles EEPROM)


o Wird bei USB-Sticks verwendet
o Wird „in circuit“ programmiert (praktischer)
o Flashs sind intern in Blöcke geteilt (2N groß)
o Es wird Blockweise beschrieben oder gelöscht (schneller)
o Falls beim Schreiben die Blockgrenzen überschritten werden muss einige
Zeit (≈ 10ms) gewartet werden, bis der interne Mechanismus die Werte
gespeichert hat.
Parameter:

1.) Speicherkapazität:
Die Speicherkapazität ist der insgesamt verfügbare Speicherplatz eines
Speichermediums.

Beispiele:
• 1 MB (Megabyte, 106 Byte = 1.000.000 Byte)
• 1 GB (Gigabyte, 109 Byte = 1.000.000.000 Byte)

2.) Speicherorganisation:
Gibt an wie die Anzahl der Speicherzellen aufgeteilt ist.

Beispiele:
• 8k  8 (=64 kBit)
• 4k  16 (= 64 kBit)

3.) Zugriffszeit:
Ist die Zeit vom Zeitpunkt der Adressierung bis zum Zeitpunkt der Verfügbarkeit der
Daten.
Die Zugriffszeit unterscheidet sich beim Lesen oder Schreiben.
Falls die Lese- oder Schreibzugriffszeit der CPU kürzer ist als die definierte
Zugriffszeit vom Speicher müssen in der CPU Wait-States gesetzt werden.

EDT_ Ausarbeitung: 5HIB 2005/2006 Seite:43/82


Adressen

CS

WR

RD
Daten werden
übernommen

Daten

tzur

4.) Zykluszeit:

Der Zeitabschnitt in dem 2 Lese- oder Schreibzyklen aufeinander folgen dürfen.


Die Zykluszeit ist meist von der Zugriffszeit abhängig.

RD

tzyr

Matrixspeicher:

Die Speicherzellen sind matrixartig, d.h. in Zeilen und Spalten angeordnet.

Grundsätzlich besteht ein Matrixspeicher aus folgenden Funktionsblöcken, die


aber je nach Speichertyp nicht alle vollständig vorhanden sein müssen:

• die Speichermatrix, die Bit- oder Wortweise organisiert ist


• eine Dekodiervorrichtung zum dekodieren der X- und Y-Adresse (Zeilen- und
Spaltenleitungen)
• Verstärker für das Lese- und Schreibsignal (Schreib-Lese-Verstärker, evtl.
Bustreiber)
• eine Steuerlogik zur Realisierung der gewünschten Funktion (Lesen,
Schreiben), zur Auswahl des Speichers und zur Freigabe der Ausgänge

EDT_ Ausarbeitung: 5HIB 2005/2006 Seite:44/82


a0 0 4 8 12

A0
a1

Decoder
1 5 9 13

a2 2 6 10 14
A1
a3 3 7 11 15

b0 b1 b2 b3

Decoder

A2 A3
Vorteile:
• weniger Schaltungsaufwand

Beispiel: A0…A3  4 Adressleitungen


16 Möglichkeiten (16 Zellen)

A3 A A1 A0 CS0 … CS15
0 0 0 0 1 0 0


1


1


1


1


0


0


1
} 16 logische Schaltungen

A1 A0 a3 … a0
0 0 0 … 1
0
1
1
1
0
1


1





0
} 4 logische Schaltungen

A3 A b3 … b0
0 0 0 … 1
0
1
1
1
0
1


1





0
} 4 logische Schaltungen

Vorher: 16 logische Schaltungen mit je 4 Eingängen


Nachher: 8 logische Schaltungen mit je 2 Eingängen

EDT_ Ausarbeitung: 5HIB 2005/2006 Seite:45/82


Frage 13: Serielle Schnittstellen
Beschreibe den Unterschied zwischen einer synchronen und asynchronen
seriellen Schnittstelle. Gib Beispiele an, wie z.B. den TDMA- Bus und die
RS232- Schnittstelle.

Synchrone serielle Schnittstelle:


Bei der synchronen seriellen Datenübertragung wird eine zusätzliche Taktleitung
notwendig. Vom Sender oder Empfänger erzeugt bestimmt der Takt wann die Bits
gültig sind und wann nicht. Dabei arbeiten Sender und Empfänger immer synchron
und beliebige Taktraten sind möglich.
Es werden zusätzlich zu den Daten noch Taktsignale übertragen oder eine eigene
Taktleitung geführt. Alle Teilnehmer haben den selben Takt.
Mit synchronen Schnittstellen sind höhere Übertragungsraten möglich.
z.B.: USB, TDMA

Asynchrone serielle Schnittstelle:


Vor der Übertragung machen sich Sender und Empfänger eine
Übertragungsgeschwindigkeit (Baudrate), die Anzahl der Bits in einem Datenwort,
Startbits, Stopbits und Paritätsbits(welche zur Fehlererkennung dienen) aus.
Es werden keine zusätzlichen Taktsignale übertragen. Der Empfänger muss aus den
Datenstrom den Takt herausfinden oder muss über den Beginn der
Nutzdatenübertragung informiert werden.

RS232:
Die RS232c ist eine häufig verwendete Schnittstelle und auch unter der Bezeichnung
V.24 bekannt. Dieser Schnittstellenstandard ist üblicherweise für zwei
Kommunikationsgeräte konzipiert, die beide je eine Datenquelle (TX) und eine
Datensenke (RX) besitzen können. Zur bidirektionalen Datenübertragung werden
mindestens drei Leitungen benötigt, eine Sendeleitung (TXD), eine Empfangsleitung
(RXD) und eine gemeinsame Bezugsleitung Masse (Ground). Die Signale der RS-
232 sind bipolar ausgelegt.
Der Spannungsbereich für die logische Eins geht von -3 Volt bis -15 Volt und die
logische Null wird durch Spannungen zwischen +3 und +15 Volt abgebildet. Die
Abbildung der logischen Null als positive Spannung und der logischen Eins als
negative Spannung nennt man negative Logik Da die Spannung mit der Länge einer
Leitung (wegen des größer werdenden elektrischen Widerstandes) immer kleiner
wird, ist die Leitungslänge begrenzt (auf ca. 25-100m, je nach Kabel- und
Steckerverbindungsqualität).
Fast nicht mehr im Gebrauch.

EDT_ Ausarbeitung: 5HIB 2005/2006 Seite:46/82


TDMA:

Time Division Multiple Access


=Zeiteinteilung für Mehrfachbenutzung

(synchroner serieller Bus)


Anwendung: Digitale Signalverarbeitung

Bei diesem Verfahren wird bei Circuit Switching in kurzen Zeitintervallen der
Benutzer einer Netzwerkleitung gewechselt. So hat jeder Benutzern immer nur
während dieser kleinen Zeiteinheiten das Recht, die Leitung zu benutzen. Dieses
Verfahren wird angewendet, um auf einer Netzwerkleitung mehrere Benutzer
gleichzeitig zu bedienen.
Im Gegensatz zu FDMA kann ein User mit TDMA jedoch stets das gesamte
Frequenzspektrum für den Datentransfer nutzen.
Jeder Teilnehmer erhält einen Zeitschlitz (Timeslot). Ein Solcher Zeitschlitz ist
mehrere Clockzyklen lang (CLK). Ein Frame ist die Summe aller Zeitschlitze.

480ns

125μs= 1 FRAME

HW- Realisierung: HW- Block mit gewissen Aufgaben und entsprechenden


Registern.
z.B.: Timslotregister mit 32 Bit ein 32 Bit Register für Lesen (der Daten) ein 32 Bit
Register zum Schreiben (der Daten).
Der Lese- und Schreibvorgang ist Interrupt gesteuert.
4 Buffer zu je 32 Bytes (Wörter)
L1 L2 Lesen Der Interrupt wird vom Sync getriggert.
CPU 1.) CPU schreibt in S1
2.) Peripherie liest Daten aus S2
S1 S2 Schreiben

1 2
INT

EDT_ Ausarbeitung: 5HIB 2005/2006 Seite:47/82


480ns

125μs= 1 FRAME

DT tv

DR
tv… Verzögerungszeit, erst mit steigender Taktflanke werden die Daten auf den Bus
gesetzt
L1 L2
CPU TDMA TDMA Bus
S1 S2

1 2
INT
Lesen:
TDMA-HW →L2
CPU →L1
Schreiben:
CPU →S1
TDMA-HW →S2
Timeslotstruktur
Timeslots müssen frei wählbar sein, 2 mal 32 Bit Register 1×Lesen und 1×Schreiben.
Mit Timeslot- Enable werden die Schieberegister aktiviert. Entsprechend der
Einstellungen der Timeslotregister werden die Timeslot- Enable Signale erzeugt
(entweder fürs Lesen (DR) oder fürs Schreiben (DT)).
gelöst wird die Übertragung in 2 Schritten:
1.) Paralleles Schreiben ins Schieberegister (8Bit)
2.) Bitweise herausschreiben der Daten aus dem Schieberegister. Wird mit dem
CLK(Clock) gesteuert
kurz vor dem Rausschreiben wird die Sendeleitung aktiviert
Bsp.: Sendevorgnag:
TS
SYNC

DT

TS- En
EDT_ Ausarbeitung: 5HIB 2005/2006 Seite:48/82
4 Bit Schieberegister:
DT

MSB LSB

Aufbau:

Master
steuert
Slaves mit
TDMA-Bus.
Mehrere
Leitungen
sind im
inneren
eines
Computers.
Für weitere

Übertragungen sind CLK, SYNC und DR, DT zu einer Leitung zusammengefasst. Es


diesem Signal kann man Takt, SYNC und Daten wieder zurückgewinnen.

Anwendung in der Telefonie:


32 Timeslots (Teilnehmer) zu je 8 Bit.  1 Frame = 32*8 = 256 Bit mit 2048k bit/s.
2048k bit/s weil pro Kanal 64bit/s (8bit*8kHz) und 32 Kanäle.

EDT_ Ausarbeitung: 5HIB 2005/2006 Seite:49/82


Frage 14: Aufbau, Funktionsweise und Verwendung des
Tristate- Ausganges

Aufbau:

CMOS- Ausgangsstufe: Logisches Symbol:

Funktionsweise

Als Tri-State werden digitale Schaltungselemente bezeichnet, deren Ausgänge nicht


wie üblich zwei (0 und 1), sondern drei Zustände annehmen können. Dies sind 0 und
1 sowie ein hochohmiger Zustand, der auch mit "high Z" bezeichnet wird.
Durch Tri-States ist es möglich, die Ausgänge mehrerer Bauelemente
zusammenzuschalten, ohne dass es zu Kurzschlüssen oder einer wired-and
Verknüpfung kommt.
CMOS Funktionsweise:

Zustand aus, aus:


Tri-State erlaubt Abschalten des Ausgangs (über einen Steuereingang „output enable
(OE)“ ). Vorteil: erlaubt mehrere Treiber an einem Bus
Zustand ein, ein: nicht erlaubt

EDT_ Ausarbeitung: 5HIB 2005/2006 Seite:50/82


Bustreiber Funktionsweise:

Schaltung:

Tabelle:

WR RD Ein/ Ausgang
0 0 nicht Erlaubt, beide Aktiv
0 1 In (schreiben), Daten werden in den
Baustein geschrieben
1 0 Out (lesen), Daten werden vom Baustein
gelesen
1 1 High Z, Baustein ist am Bus inaktiv

Verwendung

Nötig sind Tri-State Bauteile bei Bussen. Die Bauteile können mit einem Signal vom
Bus geschaltet werden und behindern die Kommunikation auf dem Bus nicht.

Bus-Treiber
Problem bei Bus-Systemen: Es darf immer nur ein einziger Sender am Bus aktiviert
sein - alle anderen Sender müssen abgeschaltet sein.
Aufgaben des Bus-Treibers:
• An-und Abschalten der angeschlossenen Funktionseinheiten am Bus
• Durchschalten der gewünschten Übertragungsrichtung bei bidirektionalen
Busanschlüssen

EDT_ Ausarbeitung: 5HIB 2005/2006 Seite:51/82


• Erhöhung des Fan-Out (Anschlußkapazität) eines Busses Bustreiber sind
heute in der Regel Gatter mit Tri-State-Ausgang: Der dritte Zustand (Z-State)
ist ein hochohmiger Zustand = Trennen des Treibers vom Bus. Die
Umschaltung des Z-State erfolgt mit einem Enable-Steuersignal.
Die Ausgänge des Mikroprozessors und der übrigen Bausteine sind i. a. als Tri-State-
Ausgänge ausgeführt direkter Busanschluß möglich. Für Funktionseinheiten ohne
Tri-State-Ausgänge und als Bus-Extender gibt es spezielle Treiber-ICs.

Bsp. aus Datenblatt

MXO45 Taktgeberoszillatoren

Standardausgang

• Frequenztoleranz: ±100 ppm, 0 °C ~ 70 °C


• CMOS-kompatibel
• Hermetisch verschlossene Ausführung
• 8/14-Pin kompatibel
• Treibt biszu 10 Standard-TTL-Lasten
• Eingangsspannung: +5 V DC ±0,5 V

Tri-State Ausgang

Tri-State Logic verwendet die zwei Standard-Logic-Levels von hoch (Logic


1) und niedrig (Logic 0), hat aber einen dritten Status hinzugefügt, der kein
Logic-Level darstellt, sondern eine „Offener-Schaltkreis-Kondition“, die den
Ausgang effektiv mit einem hohen (Schwebe-) Impedanzzustand von der
Schaltung trennt. Durch die Verwendung des Aktivierungs-Pins zur Steuerung
des Ausgangs läuft das Kristall noch gleich, wenn der Ausgang deaktiviert
wird (Bereitschaftsmodus), wodurch jegliche Startzeit für den Oszillator
wegfällt.

EDT_ Ausarbeitung: 5HIB 2005/2006 Seite:52/82


Kenndaten

Verzögerungszeit:

EDT_ Ausarbeitung: 5HIB 2005/2006 Seite:53/82


Frage 15: Einsatz von OPV (Instrumentierverstärker) mit hoher
Gleichtaktunterdrückung für symmetrische Signale.

Schaltung

Formel
 2 ⋅ R1 
Ue1 = U1 ⋅ 1 + 
 R2 

 2 ⋅ R1 
Ue2 = U 2 ⋅ 1 + 
 R 2 

 R 
Ua1 = Ue1 ⋅  − 4 
 R3 
 R4   R4 
Ua2 = Ue2 ⋅   ⋅ 1 + 
R
 3 + R4   R3 
Endformel:
 R4   R4  R 
Ua = Ua2 + Ua1 = Ue2 ⋅   ⋅ 1 +  − Ue1 ⋅  4  =
 R3 + R4   R3   R3 
 2 ⋅ R1   R4   R4   2 ⋅ R1   R4 
= U 2 ⋅ 1 +  ⋅   ⋅ 1 +  − U1 ⋅ 1 +  ⋅  
 R2   R3 + R4   R3   R2   R3 

EDT_ Ausarbeitung: 5HIB 2005/2006 Seite:54/82


Funktion

Der Instrumentierverstärker ist ein guter Subtrahierverstärker, ohne Massepotential;


er hat eine hohe Eingangsimpedanz.
Bedingung ist das die Eingänge symmetrisch aufgebaut sind, dazu ist ein sehr
genauer Widerstandsabgleich nötig. Es sollten wenn möglich OPVs mit gleichen
Eigenschaften und Kenndaten verwendet werden.

Der Verstärkungsfaktor von Instrumentenverstärkern ist entweder ein fester Wert


(internal gain) oder er kann über die Verschaltung seiner Kontakte gewählt werden .
Hierbei können mehrere interne Widerstände miteinander kombiniert werden.
Natürlich kann mit einem externen Widerstand auch ein beliebiger
Verstärkungsfaktor vorgegeben werden. Jedoch ist die Genauigkeit und der Drift der
Verstärkerschaltung dann abhängig von der Qualität des verwendeten externen
Widerstandes. Aufgrund ihrer geringen Bandbreite sind Instrumentenverstärker nur
bedingt bei höheren Frequenzen einsetzbar. Die typische Schaltung besteht aus drei
Operationsverstärkern, wobei die ersten beiden als Spannungsfolger (Verstärkung
eins - unity-gain) und der dritte als Subtrahierer arbeiten.

Der Verstärker besitzt eine hohe Gleichtaktunterdrückung (engl.: CMRR - common


mode rejection ratio) womit Störungen die von außen einwirken vermindert werden.
Störsignale mit gleichen Vorzeichen heben sich gegenseitig auf.

nicht symmetrische Leitung

symmetrische Leitung

Verwendung
Wegen der hohen Gleichtaktunterdrückung gegenüber eingekoppelten Streufeldern
(z.B. des Stromnetzes) werden Instrumentenverstärker u.a. in Geräten zur
Aufzeichnung von EKG- und EEG-Ableitungen eingesetzt.
Aufgrund ihrer hohen Eingangsimpedanz eignen sie sich zur Verstärkung von
Spannungssignalen von Sensoren, die stromlos zu messen sind (z.B. Piezokeramik-
Sensoren).
Sie werden auch eingesetzt, wo eine geringe Offsetspannung der Eingänge
erforderlich ist (z.B. als Messverstärker an Dehnungsmessstreifen oder
Thermoelementen).

EDT_ Ausarbeitung: 5HIB 2005/2006 Seite:55/82


Gleichtaktunterdrückung:
Ein OPV verstärkt im Idealfall keine Gleichtaktsignale!
Bei realen OPV`s bewirkt eine Gleichtaktspannung jedoch bei den
Eingangstransistoren eine Störung der Symmetrie, es wird eine Spannungsdifferenz
gebildet, welche verstärkt wird.
Dies führt zu einer Fehlerspannung am Ausgang

Diese im Eingangskreis verursachte Differenzspannung U`cm ist umso kleiner, je


größer das Gleichtaktunterdrückungs-Verhältnis CMRR (common mode rejection
ratio) ist. CMRR gibt an, um wievielmal die Differenzverstärkung größer ist als die
Gleichtaktverstärkung, typische Werte sind ~ 30.000
Die Gleichtaktunterdrückung ist keine konstante Größe, sondern ist vom Betrag der
Gleichspannung abhängig.

Formelmäßiger Zusammenhang:
U v
CMRR = cm = uo vcm = Gleichtaktverstärkung
U `cm v cm
vuo = Differenzverstärkung
Ucm = Gleichtaktspannung (Mittelwert der Spannungen an
den beiden Eingängen des OPV)

Frage 16:
Erklärung der Kennlinien der 4-Quadrantenkennlinien eines Bipolaren
Transistors (NPN) und die wichtigsten Eigenschaften solcher Transistoren am
Beispiel der Emittergrundschaltung.

Emittergrundschaltung:

Die Beschaltungsbezeichnung eines T ergibt sich immer aus dem gemeinsamen


EDT_ Ausarbeitung: 5HIB 2005/2006 Seite:56/82
Bezugspunkt von Eingang und Ausgang. Hier ist es der Emitter, deshalb nennt man
diese Beschaltungsart Emitterschaltung.
Der Eingangswiderstand Rbe als Gleichstromkenngröße und der h11e als
Wechselstromkenngröße eines T in Emitterschaltung. (h11e siehe Kennlinienfeld)
Rbe = UbeA / IbA, wobei das "A" den Arbeitspunkt angibt.
h11e = [Ube] / [Ib], wobei die "[ ]" den Betrag der Werte angibt, die vom Arbeitspunkt A nach
oben oder unten abweichen. Im Allgemeinen kann man hierbei für h11e von Ube / Ib
ausgehen.
Den h11e findet man im Quadranten 3 eines Kennliniendiagramms. Er ist der
Kategorie "Eingangskennlinie" zuzuordnen.

4 Quadranten Kennlinienfeld:

B = Arbeitspunkt -> Stromverstärkung


UCE = Rückwirkung auf UBE  Unerwünscht
UCE beeinflusst Aussteuerung (nichtlinearer Effekt) (UBE)

Das Eingangskennlinienfeld dient um den Diff.eingangswiderstand zu holen.


Das Ausgangskennlinienfeld stellt den Zusammenhang der Ausgangsgrößen dar.
Das Stromsteuerkennlinienfeld wird auch als Übertragungskennlinie bezeichnet.
Die Charakteristik der Kennlinie ist anfangs nahezu linear und krümmt sich dann
gegen Ende etwas. Aus der Steilheit der Kennlinie kann die Stromverstärkung Β
(Gleichstromverstärkungsfaktor) und β (Wechselstromverstärkungsfaktor)
abgelesen werden. Je steiler die Kennlinie, desto größer die Stromverstärkung.
Ist die Kennlinie stark gekrümmt, dann ist die Verstärkung nicht konstant. Dadurch
entstehen Verzerrungen am Ausgang der Verstärkerschaltung.

EDT_ Ausarbeitung: 5HIB 2005/2006 Seite:57/82


Die Rückwirkung vom Ausgang auf den Eingang wird im
Rückwirkungskennlinienfeld dargestellt. Diese Rückwirkung sollte möglichst klein
gehalten werden. Dies ist nicht durch schaltungstechnische Maßnahmen möglich.
Einfluß hat nur der Transistor-Hersteller.

Beispiel zur Arbeitspunktberechnung


Nehmen wir nun einmal an, ein T in Emitterschaltung soll eine Spannung verstärken.
Wir nehmen nun ein Blatt Papier und teilen es in 4 Quadranten.
Ausgangskennlinien, Last, Ic, Betriebsspannung und h22e Ermittlung.
Zunächst wird auf der Uce Achse der Punkt "6V" gekennzeichnet und von da aus
senkrecht nach oben die "Hilfslinie 2" gezogen. Danach wird auf der Ic Achse der
Punkt "3mA" gekennzeichnet und von da aus waagerecht nach rechts die "Hilfslinie
1" gezogen (oder umgekehrt).
Am Schnittpunkt beider Geraden ist der Arbeitspunkt B entstanden.
Genaugenommen ist es der Arbeitspunkt AB, also der, an dem schon eine gute, fast
geradlinige Verstärkung und Stromübertragung stattfindet.
Nun wird vom Punkt "6V / 0mA" der Uce Achse zum Punkt "0V / Ic = Uce/RL auf der
Ic Achse eine Gerade gezeichnet. Dieses ist die rote Gerade.
Der Punkt auf der Ic Achse kommt von 0V Uce aber dann 6V Verlust über der Last,
die, wie oben geschrieben, 1K betragen soll.
Ic = 6V / 1K = 6mA.
Die rote Gerade wird nun in den Arbeitspunkt B parallel verschoben. Die dadurch
entstandene Widerstandslastgerade wird bis auf die Uce und Ic Achsen verlängert.
Im Schnittpunkt der Uce Achse findet sich die erforderliche Betriebsspannung wieder.
Sie beträgt hier 9V.
Unser Transistor ist also bei 6V Uce über ihn und 3V Uv über der Last gerade so
offen. In dem Moment fließen über den RL und den T also 3mA Ic (3V / 1K).
Wird an die Basis eine höhere Ube angelegt und der Ib erhöht, dann wird der
Transistor leitender und kommt an den A Betriebspunkt. In dem Moment ist die Uce
des T auf 4.5V gesunken, die Uv über Last aber auf 4.5V gestiegen.
Bei 1K Last fließen nun also 4.5mA Ic (4.5V / 1K).
Wird die Ube und der Ib noch weiter erhöht, dann schiebt sich der T bis in den
Arbeitspunkt C hoch und seine Uce geht auf 3V zurück. Gleichzeitig erhöht sich der
Spannungsabfall an der Last auf 6V. Damit fließen 6mA Ic (6V / 1K).
Soll der Transistor von Hause aus am A Betriebspunkt arbeiten, müßte der Ic also im
Ruhezustand 4.5mA betragen, um beide Halbwellen gleichmäßig zu verstärken.
Im vorliegenden Fall wird die positive Eingangsamplitude mehr als die negative
Amplitude verstärkt.
Am Ausgang erscheint aber ein um 180° gedrehtes Signal, so daß am Ausgang die
vormals positive Halbwelle nun die negative Halbwelle ist.
Die h22e Ermittlung hingegen gilt als Parameter für den gesamten Uce Bereich einer
Amplitudenabfolge, also einer Wechselstrom/spannungsänderung. Er gibt nun an, ob
und wo ein eventll. Verstärkungsrückgang oder - erhöhung stattfindet. Bei dieser
Beziehung ist der Ib als konstant anzusehen, um Schwankungen am Eingang nicht in
die Ausgangskennlinie einfließen zu lassen.
Im Prinzip geht es darum, in wie weit sich der Transistor innerhalb der vorgegeben
Ausgangskennlinie durch die Änderung der Uce sauber aussteuern lässt.
Weiterhin erkennt man aus dem h22e, bis zu welcher Uce Untergrenze, also bis zu
welcher Ube min und bis zu welcher Ube Obergrenze, also bis zur Ucesat, der T
wirksam verstärkt.

EDT_ Ausarbeitung: 5HIB 2005/2006 Seite:58/82


Außerdem ist abzulesen bis zu welcher Obergrenze, aufgrund der
Transitfreq.grenze, der T für gleich hohen Ic verwendbar ist. Dazu benötigt es
allerdings glaubhafte Datenblätter der Hersteller.
Kurzum, Man kann damit also sehen, von wo bis wo der Transistor am Ausgang
linear oder eben das, was man als linear gelten lassen will, leitet.
Merke:
Je gerader die Kurven im nutzbaren Uce Bereich verlaufen, desto stabiler ist die
Stromverstäkung über den gesamten Aussteuerbereich des Transistors.
Man möge die Ungenauigkeit der Skizze entschuldigen - solche Kurven bedürfen
dann wohl doch einem Grafikprogamm.

II. Quadrant
Hier ist nun die Hilfslinie 1 nach links weitergezogen. Mit der Annahme, daß der
Stromverstärkungsfaktor bei 100 liegt, wird bei 3mA Ic das Lot (Hilfslinie 3) auf die Ib
Achse bei exakt 30µA gefällt. Die Arbeitspunkte A und C werden zusätzlich
eingezeichnet. Das entstehende Dreieck im 2. Quadranten, stellt den h21e dar. Im 1.
Quadranten ist zusätzlich der globale h22e eingezeichnet.
Ist der Stromverstärkungsfaktor ein anderer, dann muß die Ib Achse
dementsprechend anders eingeteilt werden.
III. Quadrant
Im 3. Quadranten finden wir nun den Zusammenhang zwischen der Ube und dem Ib.
Als h11e ist die Fläche unter der Ube / Ib zu betrachten.
Die blaue Kurve stellt die Ube dar. Bis etwa 550mV tut sich nichts, danach fängt der
T langsam an zu leiten. Bis zum Arbeitspunkt B oder AB ist die Kennlinie von einer
Senkrechten in eine Krümmung übergegangen und wird ab diesem Punkt immer
mehr und recht schnell in eine Waagerechte verlaufen.

IV. Quadrant
Hier haben wir nun die Rückwirkunsparameter. Die Werte sind im AB Betrieb so
gering, daß sie vernachlässigt werden.
Eine berechnete Verstärkung von 100 würde nur um ca 0.1 bis 0.3 absinken.
Für die Praxis sind folgende Dinge von Interesse
(einfach als Zusammenfassung nochmals erwähnt):
Wie erwähnt ist die Stromverstärkung das, was man am Transistor zuerst mal
braucht. Wenn man nun in den Datenblättern nachschaut, so sieht man, dass diese
Stromverstärkung frequenzabhängig ist und mit zunehmender Frequenz abnimmt.
Nun könnte man, wie sonst üblich, eine 3dB-Grenze verwenden. Dummerweise
wurde das nicht so gemacht, sondern die Grenzfrequenz eines Transistors ist dann
erreicht, wenn eine Basisstromänderung von beispielsweise 1mA nur noch eine
Kollektorstromänderung von 1mA zur Folge hat.
Das bedeutet in einer Endstufe, dass bei der Grenzfrequenz der Endtransistoren der
Treiber die gleiche Leistung erbringen müsste, wie die Endstufe im Normalfall liefern
könnte.
Wenn man nun Darlington-Transistoren verwendet (zwei Transistoren im selben
Gehäuse), so hat man einmal eine viel höhere Stromverstätkung im Gleichstromfall
(10 bis 50 mal höher) und auch eine entsprechend höhere Grenzfrequenz, aber das
hilft nicht viel, weil ja die Grenzfrequenz ebenfalls um diese zusätzliche Verstärkung
angehoben wird und weil wieder als Grenze eine Stromverstärkung von 1
angenommen wird.

EDT_ Ausarbeitung: 5HIB 2005/2006 Seite:59/82


Der erste Quadrant. Die schwarzen Kurven liegen sehr flach. Das bedeutet, dass der
Transistor einen hohen dynamischen Innenwiderstand hat. Oder anders gesagt:
Wenn Ib konstant ist (was bei konstanter Temperatur und konstanter Ube der Fall
ist), ändert sich Ic kaum, auch wenn Uce verändert wird.
Auf dieser Basis funktioniert eine Konstantstromquelle. Dort wird dieser Effekt
ausgenützt. Man kann sich das so vorstellen, als könnte man einen grossen
Arbeitswiderstand mit einer Spannungsquelle so kombinieren, dass trotz des hohen
Widerstandes ein bestimmter Strom möglich wird. Und da die Verstärkung (vor allem)
von der Grösse des Arbeitswiderstandes abhängt, kann man so bei relativ geringer
Betriebsspannung eine hohe Verstärkung erreichen.
Vergleicht man die Kurven des ersten und zweiten Quadranten, so stellt man fest,
dass der Kollektorstrom praktisch linear mit dem Basisstrom zunimmt. Dies ist bereits
in der Kurvenschar des ersten Quadranten ersichtlich, weil die schwarzen Kurven
parallel verlaufen und das mit praktisch konstantem Abstand. Das bedeutet, dass
man eine unverzerrte Verstärkung erreicht, wenn man den Transistor über den
Basisstrom ansteuert.
Das Grundproblem des Transistors ist der dritte Quadrant. Hier ist klar ersichtlich,
dass es erst mal eine Minimalspannung an der Basis braucht, damit überhaupt etwas
geschieht. Und das schlimmste ist die Krümmung der Kurve im Bereich von 0,5 bis
0,7V.
Das bedeutet, dass der Basisstrom nicht linear zur Ube ist. Wenn man also einer
festen Basisvorspannung (die den Ruhestrom im Kollektor entstehen lässt) eine
Wechselspannung überlagert, so ändert sich durch diese Wechselspannung der Ib
nicht linear. Folglich verzerrt der Transistor. Darum ist ein Transitorverstärker ohne
Gegenkopplung praktisch nicht zu bauen.
Man kann (Aufnahmepegel-Automatik bei den ersten Kassettenrecordern) allerdings
davon ausgehen, dass ein Mikrofonsignal sehr klein ist und daher nur ein sehr
kurzes Stück der Ube-Kennlinie genutzt wird. Ein kurzes Stück kann als
einigermassen gerade betrachtet wwerden. Somit ist der Klirr bei kleinen Signalen
klein, bei grossen Signalen (es wird praktisch die ganze Kennlinie genutzt) gross.
Wenn man weiss, dass die Verstärkung eigentlich das Produkt aus Steilheit dieser
Kurve und Arbeitswiderstand ist, kann man durch Verändern der Vorspannung die
Verstärkung verändern. Das ist aber ein ausgesprochener Sonderfall.
Rechnet man mal diesen Quadranten durch, so sieht man, dass die Nichtlinearität
von Ube und Ib einen variablen Eingangswiderstand nach sich ziehen. Wenn man
sich einen Spannungsteiler vorstellt, gebildet aus einem Längswiderstand zwischen
Tonquelle und Basis und dem variablen Widerstand, den die be-Strecke bildet, so
kann man sich auch vorstellen, dass die Ib dann der Eingangs-Tonspannung genau
folgt, wenn dieser Längswiderstand unendlich gross ist. Das heisst, dass man zwar
mit einem Längswiderstand die Unlinearität des be-Widerstandes ausgleichen und
damit den Klirr reduzieren kann, dass man aber damit Verstärkung verliert. Daher ist
wie erwähnt eine vernünftige Klirrarmut kaum zu erreichen.
Eine Klirrreduktion ist dann gegeben, wenn man mit einem extrem hohen Ruhestrom
arbeitet. Dann ist man auf der Kennlinie des dritten Quadranten so weit aussen, dass
sie (sie strebt bei unendlich auf die absolute Linearität zu) als linear betrachtet
werden kann. Aus diesem Grund gibt es Endstufen in Klasse A, also mit extrem
hohem Ruhestrom, um den Klirr ohne zusätzliche Massnahmen unter die 0,1%
Marke zu drücken.

EDT_ Ausarbeitung: 5HIB 2005/2006 Seite:60/82


EDT_ Ausarbeitung: 5HIB 2005/2006 Seite:61/82
Frage 17: JFET
Erklärung der Kennlinie eines Junction- oder Sperrschicht – FETs (n – leitend)
und die wichtigsten Eigenschaften solcher Transistoren am Beispiel einer
Sourcegrundschaltung.

Allgemeines:
Der aktive Teil eines n-Kanal-Sperrschicht FET besteht aus einer n – leitenden
Kristallstrecke, in die zwei p – leitende Zonen eindotiert sind.

D +12V

n
+ +
- -

p n p
Kanal

G
p p
0V

S 0V

S….Source (Quelle)
D….Drain (Abfluss)
G….Gate (Tor)

Wird an diese n – leitende Kristallstrecke eine Spannung U (z.B.: 12V) angelegt, so


fließt ein Elektronenstrom von S nach D. Die Größe dieses Elektronenstroms wird
bestimmt durch die angelegte Spannung und dem Bahnwiderstand des Kristalls.
Die angelegte Spannung fällt entlang der Kristallstrecke ab.
Die beiden p-Zonen sind leitend miteinander verbunden und an den Anschluss G
geführt. Wird G nun an Nullpotenzial gelegt, also mit S verbunden, so sind die beiden
pn – Übergänge in Sperrrichtung gepolt.
Die n – leitende Kristallstrecke hat positive Spannungswerte (Potentiale) gegenüber
jeder p-Zone.

EDT_ Ausarbeitung: 5HIB 2005/2006 Seite:62/82


Es bilden sich zwei Sperrschichten (Raumladungszonen) aus. Diese Sperrschichten
sind umso breiter, je größer die in Sperrrichtung wirksame Spannung ist. Die
Sperrschichtbreite nimmt also in Richtung von S nach D zu. Die p-Zonen haben
überall das gleiche Potential von 0V, da in ihnen kein Storm fließt.

Als Strömungspfad steht den Elektronen nur der Kanal zur Verfügung.

Wird das Potential des Anschlusspunktes G (bezogen auf S) negativer gemacht, so


bedeutet das, dass die Spannungen in Sperrrichtung größer werden. Die größeren
Sperrspannungen haben breitere Sperrschichten zur Folge. Der Kanalquerschnitt
wird kleiner.
Ein Kanal mit kleinerem Querschnitt hat einen größeren Widerstand. Steigt der
Widerstand des Kanals, so fließt bei gleicher anliegender Spannung ein kleinerer
Strom.
Eine Änderung der Spannung zwischen G und S führt zu einer Stromänderung. Die
Spannung zwischen G und S wird auch UGS genannt.
Der durch den Kanal fließende Strom wird mit ID bezeichnet.

Der Strom ID wird durch die Spannung UGS leistungslos gesteuert.

Bei einem bestimmten negativen Spannungswert von UGS stoßen die beiden
Sperrschichten zusammen. Der Kanal hat jetzt den Querschnitt Null. Ein Strom kann
nicht mehr fließen. Der Transistor ist gesperrt.
Die Spannung UGS muss immer negativ sein. Bei positiven Spannungswerten von
UGS werden die Sperrschichten abgebaut, und es fließt über die p-Zonen ein Strom.

Beim Sperrschicht – FET von n-Kanal-Typ ist die Drainspannung UDS positiv und die
Gatespannung UGS negativ (gegen Source).

Kennlinie:
ID – UDS – Kennlinienfeld:
/ D / mA
3
Abschnürgrenze (P)
14

12 1 2 UGS = 0V

10 -1V
8
-2V
6

4
-3V
2 -4V
UDS / V
2 10 20
1 ... „ohmscher“ Bereich
2 ... Abschnürbereich
3 ... Gate-Kanal-Durchbruch

EDT_ Ausarbeitung: 5HIB 2005/2006 Seite:63/82


Jede der Kennlinien gilt für eine bestimmte Gatespannung UGS. Bei einer
Gatespannung von 0 V ist die Sperrschicht am schmalsten bzw. kleinsten. Hier fließt
der größte Strom ID durch den Kanal. Ab der Abschnürgrenze lässt sich der Strom
durch den Kanal nicht mehr erhöhen. Ab dieser Drainspannung UDS wird der
Drainstrom ID nicht mehr wesentlich größer. Steigt die Drainspannung auf einen zu
hohen Wert an, entsteht ein Durchbruch der Sperrschicht. Der Durchbruch ist mit
dem Zener-Effekt der Z-Diode vergleichbar und hat die Zerstörung des
Feldeffekttransistors zur Folge.
Je negativer die Gatespannung, desto tiefer liegen die Kennlinien.

Differentieller Ausgangswiderstand:
Der Ausgangswiderstand rDS ist ein differentieller Widerstand, der den
Zusammenhang zwischen kleinen Drainstromänderungen ΔID und kleinen
Drainspannungsänderungen ΔUDS angibt.

∆U DS rDS…differentieller Ausgangswiderstand
rDS = ΔID…Drainstormänderung
∆I D
ΔUDS…Drainspannungsänderung

Übliche Werte: rDS ≈ 80 kΩ bis 200 kΩ

ID – UGS – Kennlinienfeld:
Das ID – UGS – Kennlinienfeld ist das Steuerkennlinienfeld.

/ D / mA

12

10

6
I
Δ D

U GS / V
-5 -4 -3 -2 -1
Δ U GS

EDT_ Ausarbeitung: 5HIB 2005/2006 Seite:64/82


Steilheit:
Die Steilheit S kennzeichnet das Steuerverhalten des FET. Je steiler die ID – UGS –
Kennlinie ansteigt, desto größer ist die Steilheit. Sie gibt an, um wie viel Milliampere
sich der Drainstrom ändert, wenn die Gatespannung um 1 V geändert wird.

∆I D S…..Steilheit
S= ΔID…Drainstormänderung
∆U GS
ΔUGS…Gatespannungsänderung

mA mA
Übliche Werte: S ≈ 3 bis 10
V V

Grenzwerte:

Maximale Drainspannung gegen Source: UDSmax ≈ 30 V


Maximale Gate – Source – Spannung: UGSmax ≈ -8 V
Maximaler Drainstrom: IDmax ≈ 20 mA
Maximale Verlustleistung: Ptot ≈ 200 mW
Höchste Sperrschichttemperatur: Tj ≈ 135°C

Anwendungen:
Sperrschicht-Feldeffekttransistoren werden in Verstärkern, in Schalterstufen und in
Oszillatoren eingesetzt. Die mit Sperrschicht – FET aufgebauten Schaltungen ähneln
Elektronenröhrenschaltungen, nur werden kleinere Spannungen verwendet.
Ein besonderer Vorteil der Sperrschicht – FET ist sein großer Eingangswiderstand,
der eine leistungslose Steuerung ermöglicht.
Kleinsignalersatzschaltbild:

EDT_ Ausarbeitung: 5HIB 2005/2006 Seite:65/82


Verstärkerschaltung in der Sourceschaltung:

+12V

RL=1 kΩ

C=22 nF

C=22 nF

U1
RG=1 MΩ U2

UGS = -2 V

Die Sourceschaltung entspricht der Emitterschaltung bei bipolaren Transistoren.


Der FET erhält eine Gatevorspannung von -2 V und einen Arbeitswiderstand RL von
1 kΩ. Damit ist der Arbeitspunkt festgelegt. Die Widerstandsgerade kann in das ID –
UDS – Kennlinienfeld eingezeichnet werden.

/ D / mA / D / mA

14

12 12 UGS =0V

10 10 -1V
8 8
ID
6 resultierend 6 -2V

4 4 -3V
2 2 -4V
UGS / V UDS / V
-5 -4 -3 -2 -1 2 10 20
UGS UDS
gewählt resultierend

Frage 18: JFET Kleinsignalverstärker


JFET als Kleinsignalverstärker – Source - Schaltung mit Ersatzschaltbild.

Bei der Kleinsignalverstärkung wird der JFET meist in der Sourcsschaltung


betrieben.

EDT_ Ausarbeitung: 5HIB 2005/2006 Seite:66/82


Kleinsignalersatzschaltbild:

Bei der Verwendung solch einer Schaltung wir die Spannung UGS vorgegeben, und
daraus ergibt sich weiters der Strom ID und die Spannung UDS.
/ D / mA / D / mA

14

12 12 UGS =0V

10 10 -1V
8 8
ID
6 resultierend 6 -2V

4 4 -3V
2 2 -4V
UGS / V UDS / V
-5 -4 -3 -2 -1 2 10 20
UGS UDS
gewählt resultierend
Berechnung der Steilheit S welche der Verstärkung des JFET entspricht:

∆I D
S=
∆U GS

EDT_ Ausarbeitung: 5HIB 2005/2006 Seite:67/82


/ D / mA

12

10

6 I
Δ D

U GS / V
-5 -4 -3 -2 -1
Δ UGS

∆I D 4,5mA mA
S= = = 2,25
∆U GS 2V V
Berechnung des differentiellen Ausgangswiderstands:
∆U DS
rDS =
∆I D

/ D / mA

14

12 UGS = 0V

10 -1V
8
-2V
Δ ID6

4 -3V

2 -4V
UDS /V
Δ UDS
2 10 20
∆U DS 8V
rDS = = = 80kΩ
∆I D 0,1mA

Berechnung des differentiellen Eingangswiderstands:


∆U GS
rGS =
∆I G
Zwischen Gate und Source liegt zwar eine Spannung an, es fließt aber so gut wir
kein Strom.
Daher wird der differentiellen Eingangswiderstand im Bereich von 1010 bis
1014angenommen.

EDT_ Ausarbeitung: 5HIB 2005/2006 Seite:68/82


Source - Schaltung:
Testangabe, inkl. Werte (wird unten gerechnet).

Berechnen von C3, C2, C1:


1
C3 ≥ ≥ 1,061nF
2 ⋅ π ⋅ fu ⋅ (ra + RL)
R D ⋅ rDS
ra = = 2,3333 ⋅ 10 3 Ω = 2,33kΩ
R D + rDS

1
C2 ≥ ≥ 0,3145nF
2 ⋅ π ⋅ fu ⋅ (rE + R i )
R G ⋅ rGS
rE = = 1,196 ⋅ 10 4 Ω
R G + rGS
1
C1 ≥ ≥ 9,5589nF
2 ⋅ π ⋅ fu ⋅ +R S

Frage 19:
Gegenüberstellung der selbstleitenden und selbstsperrenden MOS-FETs mit
Aufbau und grober Funktionserklärung und Erklärung des Einsatzes der MOS-
FETs in Logikfmilien.

Allgemein
MOS bedeutet Metal-Oxide-Semiconductor und FET steht für Feldeffekttransistor.
Feldeffekt bezeichnet die Einwirkung eines elektrischen Feldes auf elektrische
Ladungsträger. Diesen Effekt nutzen alle Feldeffekttransistoren. Dabei verwenden sie im
Gegensatz zu bipolaren Transistoren lediglich Ladungsträger einer Art, weshalb sie auch als
unipolare Transistoren bezeichnet werden. Der größte Vorteil der Feldeffekttransistoren ist
ihre Fähigkeit Ströme leistungslos und somit für den Nutzer ungefährlicher zu steuern.

EDT_ Ausarbeitung: 5HIB 2005/2006 Seite:69/82


Selbstleitende MOS-FET

Die Darstellung oben zeigt den Querschnitt eines N-Kanal MOS-FETs, mit einem P-dotierten
Substrat, an dass der Anschluss des Bulks angebracht ist, welches eine Verbindung mit dem
Source Anschluss hat. Die Anschlüsse von Drain und Source sind in zwei N-Zonen
eingebracht. Wie zu erkennen ist, ist zwischen den Anschlüssen von Source und Drain eine
schwach dotierte N-Zone eingelassen.

Wird eine Spannung zwischen die Anschlüsse Drain und Source angelegt, so fließt durch
den bereits vorhandenen N-Kanal ein Strom I D, ohne das eine Spannung an der
Steuerelektrode Gate anliegt. Diesen Effekt bezeichnet man als selbstleitend.

Betrachtet man die Eingangskennline neben dem Ausgangskennlinienfeld, so erkennt man


dass die Ausgangskennlinie genau an dem Wert die Achse des Drainstroms schneidet zu
dem die Gate-Source-Spannung U GS = 0V beträgt.

Legt man zusätzlich an das Gate eine negative Spannung an, so werden die Ladungsträger
innerhalb des N-Kanals durch das elektrische Feld aus dem Kanal gedrängt, wodurch die
Leitfähigkeit des MOS-FETs nachlässt. Da der Kanal hier an Ladungsträgern verarmt,
werden selbstleitende MOS-FETs auch als Verarmungtypen bezeichnet. Bei einer positiven
Spannung am Gate nimmt die Leitfähigkeit des Kanals zu.

Bei der Erstellung eines selbstleitenden P-Kanal MOS-FET muss darauf geachtet werden,
dass sowohl die Dotierung der Schichten als auch die Polung der Spannungen umzukehren
ist.

EDT_ Ausarbeitung: 5HIB 2005/2006 Seite:70/82


selbstsperrende MOS-FET

Der in Bild oben dargestellte P-Kanal MOS-FET ist als ein N-dotiertes Substrat realisiert, in
das zwei P-dotierte Zonen eingelassen wurden, auf die die Anschlüsse des Drains und der
Source aufgebracht sind. Auch hier ist die Source durch den Bulkanschulss mit dem Substrat
verbungen.

Wie bereits erwähnt werden für P-Kanal MOS-FETs die umgekerten Polungen verwendet.

Bei einer Spannung –U DS = 0V kann kein Strom zwischen Source und Drain fließen, da die
P-Zonen durch das negativ dotierte Substrat von einander getrennt sind, weshalb von einem
selbstsperrenden MOS-FET die rede ist.

Betrachtet man die Steuerkennlinie (Bild 12 links), so erkennt man, dass bei konstantem -U
DS eine Erhöhung von –U GS keinen Drainstrom verursacht; bis zum erreichen der
Schwellen-Spannung –U Th . Wird diese überschritten so steigt der Drainstrom nahezu
proportional zur Gatespannung.

Dies begründet sich darin, dass durch das Anlegen der Spannung –U GS ein elektrisches
Feld vom Bulk zum Gate entsteht. Dieses Feld drückt freie im Substrat enthaltene
Defecktelektronen in den Kanal. Der P-Kanal des FETs wird mit Ladungsträgern
angereichert, weshalb er auch als Anreicherungstyp bezeichnet wird. Ein Stromfluß von der
Source nach Drain ist jetzt möglich. Die Stärke des Drainstromes lässt sich durch variieren
von –U GS verändern.

Zur Herstellung eines N-Kanal selbstsperrenden MOS-FETs werden die Schichten


umgekehrt dotiert. Es ist genauso die Umgekehrte Polung der Spannungen zu verwenden.

EDT_ Ausarbeitung: 5HIB 2005/2006 Seite:71/82


Übersicht der MOS-Feldeffekttransistoren:
N-Kanal
MOS-FET Typ Anreicherungstyp(selbstsperrend) Verarmungstyp(selbstleitend)
ID bei UDS positiv positiv
UGS(Steuerspannung) positiv positiv/negativ
Schaltzeichen

Anwendung Leistungsverstärker Hochfrequenzverstärker,


digitale integrierte
Schaltungen
P-Kanal
MOS-FET Typ Anreicherungstyp(selbstsperrend) Verarmungstyp(selbstleitend)
ID bei UDS negativ negativ
UGS(Steuerspannung) negativ negativ/positiv
Schaltzeichen

Anwendung Leistungsverstärker Hochfrequenzverstärker

Logikfamilie bezeichnet in der Digitaltechnik eine Reihe von Bausteinen


(normalerweise als Integrierte Schaltungen), die elementare (wie Logikgatter) und
meist auch komplexere logische Schaltungen zur Verfügung stellen. Die Bausteine
einer Familie sind mit dem gleichen Herstellungsprozess gefertigt, verwenden die
gleiche Schaltungstechnik, haben ähnliche elektrische sowie mechanische
Eigenschaften und lassen sich somit problemlos kombinieren.

BIPOLAR VS. MOS TRANSISTORS


CATEGORY BIPOLAR CMOS
Turn-on Voltage 0.5-0.6 V 0.8-1 V
Saturation Voltage 0.2-0.3 V 0.2-0.8 V
gm at 100 A 4 mS 0.4 mS (W=10L)
Analog Switch Offsets, asymmetric Good
Implementation
Power Dissipation Moderate to high Low but can be large

EDT_ Ausarbeitung: 5HIB 2005/2006 Seite:72/82


Speed Faster Fast
Compatible Capacitors Voltage dependent Good
AC Performance DC variables only DC variables and
Dependence geometry
Number of Terminals 3 4
Noise (1/f) Good Poor
Noise Thermal OK OK
Offset Voltage <1 mV 5-10 mV

CMOS
CMOS (für Complementary MOS) ist eine Weiterentwicklung von PMOS und NMOS
und verwendet eine komplementäre Schaltung, d. h. n- und p-Kanal-MOSFET
werden paarweise eingesetzt. RCA Semiconductor entwickelte mit der Serie 4000
die erste Logikfamilie in CMOS-Technik, die sich dann – wie die 7400-Familie bei der
TTL-Technik – als Industriestandard durchsetzte und von diversen Herstellern
produziert wurde. Verglichen mit TTL zeichnet sich diese Familie durch sehr geringen
Stromverbrauch, einen weiten Bereich für die Versorgungsspannung, aber auch
langsame Schaltvorgänge und leistungsschwache Ausgangstreiber aus.

Eine große Schwäche der 4000 war die hohe Empfindlichkeit gegen elektrostatische
Entladungen (ESD, für engl. electo-static Discharge), was leicht zur Zerstörung der
Schaltkreise führen konnte. Die Logikfamilie 4000B verringerte dieses Problem mit
verbesserten Eingangsschutzschaltungen und brachte weitere Verbesserungen der
elektrischen Spezifikationen. Die 4000 und später die 4000B erreichten nie die
Verbreitung der TTL-Schaltungen, die 4000B werden aber auch heute noch
produziert und eingesetzt.

Die 4000er-Familie verwendet eine eigene Nummerierung, ein vierfaches NAND-


Gatter mit je zwei Eingängen wird beispielsweise 4011 ('11) genannt und nicht 7400
('00 bzw. 74H00, 74L00, 74LS00, usw.) wie bei den TTL-Bausteinen. Zusätzlich zur
abweichenden Nummer ist auch die Pinbelegung unterschiedlich: Obwohl die IC
beider Familien im gleichen 14-poligen DIP erhältlich sind, liegen Ein- und Ausgänge
auf anderen Anschlüssen; die Bausteine sind in keinem Fall austauschbar.

Die 74C-Logikfamilie von National Semiconductor behebt diesen Nachteil: Diese


Bausteine waren zwar in CMOS-Technik konstruiert, vergleichbar mit den 4000B,
verwendeten jedoch Nummerierung, Funktionsdefinitionen und Pinbelegungen der
7400-Reihe. Die 74C-Familie erlangte keine große Bedeutung, aber die
nachfolgenden CMOS-Familien verwendeten ebenfalls die Nummerierung der 7400.

EDT_ Ausarbeitung: 5HIB 2005/2006 Seite:73/82


Frage 20:
Beispiel: Dimensionierung einer Emitterschaltung eines NPN-Transistors

Dimensionierung der Emitterschaltung

V+ = 24V
URE = 3V
UBEA = 0,7V
RE = 1kOhm
RC = 5kOhm
fU = 20Hz
rBE = 2kOhm
B = 300
1. Berechne R1, R2, VU, re,
ra, C1, wobei rCE >> RC ist.
Der Querstrom iq=10*iBA

2. Wie groß darf die


Amplitude einer
sinusförmigen
Eingangsspannung
maximal sein?

U RE
I CA ≈ I EA = = 3mA
RE
I CA
I BA = = 10 µA
B
U + U RE
R2 = BEA = 37,2kΩ
10 ⋅ I BA
V+ − U BEA − U RE
R1 = = 184,4kΩ
11 ⋅ I BA
re = R1 || R2 || (rBE + β ⋅ R E ) = 28,1kΩ
1
C1 ≥ = 0,28µF
2 ⋅ π ⋅ f u ⋅ re
RC
Vu − = −5
RE
U CE = V+ − U RE − U RC = V+ − I C ⋅ ( RC + R E ) = 6V
U CE − U CEsat
uˆ e max = = 1,2V
| VU |

EDT_ Ausarbeitung: 5HIB 2005/2006 Seite:74/82


Allgemein:
Zwei Fälle sind möglich:
U CE − U CEsat
U CE < U RC + U RE → uˆ e max =
| VU |
U RE − U RC
U CE > U RC + U RE → uˆ e max =
| VU |
Erklärungen:
Dynamische Kennwerte des Transistors

EDT_ Ausarbeitung: 5HIB 2005/2006 Seite:75/82


EDT_ Ausarbeitung: 5HIB 2005/2006 Seite:76/82
EDT_ Ausarbeitung: 5HIB 2005/2006 Seite:77/82
EDT_ Ausarbeitung: 5HIB 2005/2006 Seite:78/82
EDT_ Ausarbeitung: 5HIB 2005/2006 Seite:79/82
EDT_ Ausarbeitung: 5HIB 2005/2006 Seite:80/82
Beispiel und Erklärung:
(Hab das einfach aus dem 5HTA Dateien raus genommen weil es kürzer und
übersichtlicher ist)
Beispiel: Dimensionierung Emitterschaltung npn-Transistor
Die Emitterschaltung ist eine Universalschaltung und wird in Niederfrequenzbereich
zur Erzeugung sehr hoher Spannungsverstärkungen benutzt.
Am folgenden Rechenbeispiel wird gezeigt, wie eine Emitterschaltung zur
Kleinsignalverstärkung dimensioniert werden kann:

Arbeitspunkteinstellung für Kleinsignalverstärker mit Wechselspannung und


Vorwiderstand:
a) I’C und U’CE werden nach den Erfordernissen gewählt
U ' B −U 'CE
b) Berechnung von RC: RC =
I 'C
c) Ermittlung des Basisstromes I’B:
entweder aus dem Ausgangskennlinienfeld, oder bei gegebener
Stromverstärkung B:
I'
I 'B = C
B
Die Spannung U’BE liegt je nach Transistor in der Größe von 0,3 V
(Germanium) oder 0,6 V (Silizium)
d) Ermittlung der Basis-Emitter Spannung U’BE aus dem Eingangskennlinienfeld
für I’B
U ' B −U ' BE
e) Berechnung von R1: R1 =
I 'B
bei ausreichend großer Betriebsspannung (UB ~10 UBE), hat UBE kaum Einfluss
UB
auf die Bestimmung von R1  R1 =
I 'B
U ' BE
f) Berechnung von R2: R2 = Iq wird üblicherweise 5–10 mal IB gewählt
Iq

EDT_ Ausarbeitung: 5HIB 2005/2006 Seite:81/82


Stabilisierung des Arbeitspunktes durch Stromgegenkopplung:
Da der Kollektorstrom in der Regel mit steigender Temperatur zunimmt und somit
den Arbeitspunkt beeinflusst, wird die Spannung UBE bei ansteigender Temperatur
verkleinert um den Anstieg des Kollektorstroms zu verhindern. Dies geschieht durch
eine Gleichstromgegenkopplung durch den Widerstand RE:
Da die Ausgangsgröße I’C auf den Eingang wirkt  Stromgegenkopplung
Bei Zunahme des Kollektorstromsbewirkt RE ein selbstständiges Abnehmen der UBE-
Spannung, was den Stromanstieg nahezu verhindert. Je größer der Widerstand
gewählt wird, desto stabiler verhält sich die Schaltung.
Da sich der Widerstand unter Umständen schlecht auf das Signalverhalten der
Schaltung auswirkt, wird häufig ein Kondensator CE kapazitiv kurzgeschlossen. Dies
ist bei sehr tiefen Frequenzen jedoch schwierig, da sehr große Kapazitäten benötigt
werden

Ersatzschaltbild:

Zu Beachten: Alle C werden kurzgeschlossen, wodurch der ganze Zweig mit RE


wegfällt!
Außerdem haben Versorgung und Maße dasselbe Potential, da die
Spannungsquelle
mit Ri = 0 angenommen wird (Kurzschluss),  R1 und R2 zusammenfassen!
Der Transistor wird als Stromquelle angenommen!
Berechnung des differentiellen Eingangswiderstands:
Als Eingangswiderstand wirkt:
re =R1 || R2 || rBE
Berechnung des differentiellen Ausgangswiderstands:
Als Ausgangswiderstand wirkt:
ra =RC || RL
Ermitteln der Gesamtverstärkung:
ua r || RC || R L ia r || RC || R L
vu = = β * CE vi = = β * CE
ue rBE ie RL
vp = vi * vu

EDT_ Ausarbeitung: 5HIB 2005/2006 Seite:82/82