Sie sind auf Seite 1von 1

Suche Diesen Artikel teilen:

verteilung Los!

Themengebiete Die (univariate) Verteilungsfunktion


Mit Hilfe der Verteilungsfunktion F(x) einer Zufallsgröße X beschreibt
Bitte wählen... Los!
man die Wahrscheinlichkeit, dass diese kleiner gleich einem
bestimmten Wert x ist:
Vorhandene Merkzettel: F(x) = ℙ(X ≤ x)
78 Ergebnisse:
Ganz allgemein bildet die Funktion also beliebige reelle Zahlen auf den
Approximation von Verteilungen Bereich der möglichen Wahrscheinlichkeiten [0, 1] ab - mathematisch
gesprochen:
Normalverteilung
Verteilungsfunktion F : ℝ → [0, 1]

Negative Binomialverteilung Damit man von einer Verteilungsfunktion spricht, muss die Funktion
dazu folgende Eigenschaften erfüllen:
Geometrische Verteilung
Chi-Quadrat Verteilung 1. F ist monoton steigend
Weibull Verteilung
2. F ist rechtsseitig stetig
Tabelle Standardnormalverteilung
3. F besitzt die Grenzwerte
Tabelle F-Verteilung
Tabelle Chi-Quadrat Verteilung lim F(x) = 0 und lim F(x) = 1
x→−∞ x→∞
Symmetrie (Verteilung)
Student-t Verteilung Nun gibt es auch Verteilungsfunktionen für mehrere Zufallsgrößen, die
Stetige Verteilung also die gemeinsame Wahrscheinlichkeit dieser Zufallsgrößen
angeben.
Stetige Gleichverteilung
Man spricht dann von multivariaten Verteilungen bzw.
Bernoulli Verteilung
mehrdimensionalen Zufallsgrößen/Verteilungen. Wie die zugehörigen
Poissonverteilung Verteilungsfunktionen aussehen, wird hier beschrieben.
Schiefe der Verteilung Hat man wie in unserem Fall nur eine Zufallsgröße bzw. Variable, so
Log-Normalverteilung spricht man von einer univariaten Verteilungsfunktion.

Dreiecksverteilung Wie diese Funktion konkret aussieht, hängt vor allem davon ab, ob
man eine stetige oder eine diskrete Zufallsgröße betrachtet.
Beta Verteilung
Binomialverteilung Diskrete Zufallsgröße
Cauchy Verteilung Bei einer diskreten Zufallsgröße X gibt es zu den einzelnen Werten
Laplace-Verteilung x1 , x2 , … die Wahrscheinlichkeiten
Diskrete Verteilung ℙ(X = x1 ), ℙ(X = x2 ), …
Diskrete Gleichverteilung Diese Werte sind oft durch die Wahrscheinlichkeitsfunktion gegeben.
Empirische Verteilungsfunktion
Wenn es nun darum geht, die Wahrscheinlichkeit ℙ(X ≤ x) zu
Erlang-Verteilung bestimmen, addiert man einfach alle Wahrscheinlichkeiten der xi 's, die
kleiner als x sind:
Exponentialverteilung

F(x) = ℙ(X ≤ x) = ℙ(X = xi )



F Verteilung
xi ≤x
Gammaverteilung
Häufigkeitsverteilung Diese Verteilungsfunktion einer diskreten Zufallsgröße nennt man dann
auch diskrete Verteilung.
Hypergeometrische Verteilung
Quantilskoeffizient der Schiefe Häufig nehmen diskrete Verteilungen natürliche Zahlen als Werte an
(also x1 = 1, x2 = 2 usw.). Dann kann man das Ganze auch so
Anpassungstest aufschreiben:
Lagemaße
F(x) = ℙ(X ≤ x) = ℙ(X = xi )
Momenterzeugende Funktion ∑
xi ≤x
Charakteristische Funktion ⌊x⌋
= ℙ(X = i)
Interquartilsabstand ∑
i=1
Mittelwerttest
Dabei rundet man x auf die nächstkleinere natürliche Zahl ab, wenn
Zentrales Schwankungsintervalle
man ⌊x⌋ bestimmen möchte. Hier mal die grafische Darstellung einer
Kurtosis solchen Verteilungsfunktion:
Faltung
Schiefekoeffizient
Zentraler Grenzwertsatz
Quantilsabstand
t-Test
Zentrale Momente
Varianz und Standardabweichung
Schwaches Gesetz der großen Zahlen Letztlich sieht die Verteilungsfunktion einer diskreten Zufallsgröße also
immer so aus, wie die empirische Verteilungsfunktion in der Statistik:
Erwartungswert
Chi Quadrat Anpassungstest
Parametertest
Stetigkeitskorrektur
Momente von Zufallsgrößen
Chi Quadrat Tests
Modus (Stochastik)
Standardisierung von Zufallsgrößen
Quantile (Stochastik)
Hypothesentest
Kumulante
Transformation von Zufallsgrößen
Urnenmodelle
Tschebyscheff-Ungleichung
Quantile (Statistik)
Lineare Transformation von Eine Übersicht wichitger diskreter Verteilungsfunktionen, gibt es hier.
Zufallsgrößen
Stetige Zufallsgröße
Unabhängigkeit von Zufallsgrößen
Hat man die Dichtefunktion einer stetigen Zufallsgröße X gegeben, so
Boxplot ergibt sich der Wert der Verteilungsfunktion durch Integration über die
Zufallsgröße Dichtefunktion f (x):

Fehler erster Art x

∫−∞
F(X) = ℙ(X ≤ x) = f (u) du
Herfindahl-Index (bei Listen)
Häufigkeitstabelle
Es gibt zwar auch Verteilungsfunktionen, die keine Dichtefunktion
Satz von Moivre-Laplace besitzen, jedoch muss man dafür schon ganz schön tief in der Materie
stecken, um dem zu begegnen :)
Konzentrationsrate
Varianz (klassierte Daten) Wir werden daher im Folgenden meistens davon ausgehen dass es
eine Dichttefunktion gibt. Grafisch kann man sich diesen
Dichtefunktion Zusammenhang wie folgt veranschaulichen:
Arithmetischer Mittelwert
Arten von Computern
Regressionsanalyse

Lust auf noch ausführlichere


Übungsaufgaben:
Man nennt die Verteilungsfunktionen von stetigen Zufallsgrößen auch
stetige Verteilung und bei vielen kann man die Verteilungsfunktion auch
als konkrete Funktion angeben. Eine Übersicht dazu gibt es hier.

Support von Euch Rechnen mit Verteilungsfunktionen


Dir gefällt unser Angebot? Dann hilf uns doch, Auch im Umgang mit der Verteilungsfunktion gibt es Unterschiede, je
indem du uns ein Gefällt Mir spendierst oder nachdem ob man eine diskrete oder eine stetige Verteilung vorliegen
es deinen Freunden/Kommilitonen hat. Bevor wir auf diese eingehen hier erstmal die Übersicht der
weitersagst! wichtigsten Rechenregeln zu Verteilungsfunktionen:

Für stetige Verteilungen gilt

Support von uns ℙ(X ≤ x) = ℙ(X < x)


(für diskrete im Allgemeinen nicht) Man sagt dann, dass ein
Nutzungsbedingungen einzelner Wert x (auch Atom genannt) die Wahrscheinlichkeit von 0
besitzt.
Impressum
Für die Wahrscheinlichkeit eines Intervalls gilt:
Sitemap
ℙ(a < X ≤ b) = ℙ(X ≤ b) − ℙ(X ≤ a) = F(b) − F(a)
Die Wahrscheinlichkeit für > Aussagen kann über die
Wahrscheinlichkeit des Gegenereignisses gebildet werden:

ℙ(X > x) = 1 − ℙ(X ≤ x) = 1 − F(x)


Für t, s > 0 gilt:

1 − F(t + s)
ℙ(X > t + s|X > t) =
1 − F(t)
Für t, s > 0 gilt:

F(t + s) − F(t)
ℙ(X ≤ t + s|X > t) =
1 − F(t)
Genauer: \mathbb{P
(X\le x) vs. ℙ(X < x)} Bei stetigen Verteilungen gilt ja für jeden
einzelnen Wert ℙ(X = x) = 0 . Folglich macht es keinen Unterschied,
ob wir alle Werte kleiner x oder alle Werte kleiner gleich x betrachten.

Das kann man sich gut mithilfe des Integrals veranschaulichen, denn
wenn wir über den Bereich [−∞, x] integrieren, bekommen wir
x

∫−∞
ℙ(X ≤ x) = f (u) du

Für ℙ(X < x) integrieren wir nun über den Bereich (−∞, x) . Das
ergibt aber als Integral genau denselben Wert:
x

∫−∞
ℙ(X < x) = f (u) du

Also gilt allgemein F(x) = ℙ(X ≤ x) = ℙ(X < x) .

Bei diskreten Verteilungen ist das in der Regel nicht der Fall, da hier
durchaus gelten kann ℙ(X = x) > 0 .

Wenn das so ist, folgt:

F(x) = ℙ(X ≤ x) = ℙ(X < x oder X = x)


= ℙ(X < x) + ℙ(X = x)

>0
> ℙ(X < x)
Wahrscheinlichkeit für ein Intervall \mathbb{P
(a\le X\le b)} Will man die Wahrscheinlichkeit bestimmen, dass unsere
Zufallsgröße Werte zwischen a und b annimmt, gibt es dazu folgende
Rechnung:

ℙ(a ≤ X ≤ b) = ℙ(a < X ≤ b) = ℙ(X ≤ b) − ℙ(X ≤ a)


= F(b) − F(a)
Das kann man sich wie folgt veranschaulichen:

Auch hier gilt: bei stetigen Verteilungen ist es egal, ob wir


ℙ(a ≤ X ≤ b) betrachten, oder ℙ(a < X < b) . Man rechnet immer
F(b) − F(a).
Bei diskreten Verteilungen hingegen muss man da aufpassen, wie wir
im letzten Abschnitt gesehen haben.

Wahrscheinlichkeit \mathbb{P
(X>x)} Mit der Rechenregel von eben kann man nun auch bestimmen,
was ℙ(X > x) ist. Schließlich ist das ja eigentlich die
Wahrscheinlichkeit

ℙ(X > x) = ℙ(x < X < ∞)


= ℙ(X < ∞) − ℙ(X ≤ x)
Eine Bedingung an jede Verteilungsfunktion ist, dass
ℙ(X < ∞) = limx→∞ F(x) = 1 sein muss. Damit folgt:
ℙ(X > x) = ℙ(X < ∞) − ℙ(X ≤ x)
= 1 − F(x)
Natürlich kann man sich diese Gleichung auch über das Gegenereignis
herleiten:

Entweder X ist größer als x oder X ist kleiner gleich x - somit ergeben
beide Wahrscheinlichkeiten zusammen 1:

ℙ(X ≤ x) + ℙ(X > x) = 1


⇒ ℙ(X > x) = 1 − ℙ(X ≤ x)
= 1 − F(x)
Bedingte Wahrscheinlichkeit

Für bedingte Wahrscheinlichkeiten gilt

ℙ(A ∩ B)
ℙ(A|B) =
ℙ(B)
Wenn wir das auf A = {X > t + s} und B = {X > t} anwenden,
folgt:

ℙ({X > t + s} ∩ {X > t})


ℙ(X > t + s|X > t) =
ℙ(X > t)
Die Mengenklammern lässt man übrigens nur der Bequemlichkeit
halber weg - im Zähler hilft es aber zu verstehen, welche Schnittmenge
hier gemeint ist.

Denn die Bedingung, dass X > t + s und X > t ist, bedeutet letztlich,
dass X > t + s sein muss, denn dann ist es ja automatisch auch
größer als t , weil s positiv ist.

Damit bekommt man:

ℙ({X > t + s} ∩ {X > t})


ℙ(X > t + s|X > t) =
ℙ(X > t)
ℙ(X > t + s)
=
ℙ(X > t)
1 − ℙ(X ≤ t + s)
=
1 − ℙ(X ≤ t)
1 − F(t + s)
=
1 − F(t)
Der Wert ℙ(X > t) = 1 − F(t) wird oftmals auch als
Überlebenswahrscheinlichkeit bezeichnet. Man sieht t zum Beispiel
als die Zeit an, bis zu der ein Gerät (oder Mensch) noch
funktionstüchtig ist und keinen Defekt aufweist.

Folglich betrachtet man bei ℙ(X > t + s|X > t) die bedingte
Überlebenswahrscheinlichkeit, dass das Gerät noch länger als t + s
hält, vorausgesetzt dass es bereits eine Dauer von mehr als t in
Betrieb ist.

Nun kann man sich aber auch für die Wahrscheinlichkeit interessieren,
dass das Gerät nur noch bis zum Zeitpunkt t + s funktioniert. Bedingt
darauf, dass es bereits eine Dauer von t in Betrieb ist, lautet diese:

ℙ(X ≤ t + s|X > t)


Das ist im Endeffekt das Gegenereignis von dem was wir eben als
bedingte Überlebenswahrscheinlichkeit bestimmt haben. Folglich gilt:

ℙ(X ≤ t + s|X > t) = 1 − ℙ(X > t + s|X > t)


1 − F(t + s)
=1−
1 − F(t)
1 − F(t) − (1 − F(t + s))
=
1 − F(t)
1 − F(t) − 1 + F(t + s)
=
1 − F(t)
F(t + s) − F(t)
=
1 − F(t)

Umkehrfunktion
Die Umkehrfunktion der Verteilungsfunktion definiert man allgemein als

F −1 (p) = inf {F(x) ≥ p}


x∈ℝ

Hintergrund dieser Definition über das Infimum ist, dass die


Verteilungsfunktion nicht komplett stetig sein muss, sondern eben nur
rechtsseitig stetig.

Welche Auswirkungen das genau hat, kannst du hier nachlesen.

Wichtiger ist, dass man weiß, dass diese Umkehrfunktion letztlich die
Quantile der Verteilung angibt, deshalb auch die Bezeichnung
Quantilsfunktion.

Zusammenhang zu anderen Funktionen


Die Verteilung wird eindeutig durch die charakteristische Funktion
bestimmt. D.h. wenn zwei Zufallsgrößen dieselbe charakteristische
Funktion haben, so sind auch die Verteilungsfunktionen gleich.

In der Regel gilt das auch für die Momenten-erzeugenden Funktion,


d.h. wenn die Momenten-erzeugenden Funktion von zwei
Zufallsgrößen übereinstimmen, dann haben sie auch dieselbe
Verteilungsfunktion.

Das könnte Ihnen auch gefallen