Difference between revisions of "Hilfe:Statistik und Wahrscheinlichkeitstheorie"

From VoWi
Jump to navigation Jump to search
 
Line 72: Line 72:
 
'''Varianz'''
 
'''Varianz'''
  
<math>\text{Var}(X) = E(X - E(X))^2</math>
+
<math>\sigma^2 = \text{Var}(X) = E(X - E(X))^2</math>
  
 
'''Standardabweichung'''
 
'''Standardabweichung'''

Latest revision as of 11:48, 3 December 2019

Zufallsvariablen und Verteilungen[edit]

Wahrscheinlichkeitsfunktion[edit]

Diskrete Zufallsvariablen werden durch eine Wahrscheinlichkeitsfunktion (probability mass function, pmf) dargestellt:

p(a) = P(X = a)
  • Es gilt immer 0 \leq p(a) \leq 1

Dichtefunktion[edit]

Stetige Zufallsvariablen werden durch eine Wahrscheinlichkeitsdichtefunktion f(x) (probability density function, pdf) dargestellt:

  • f ist nichtnegativ: f(x) \geq 0
  • Die Fläche unter f ist Eins: {\textstyle \int_{-\infty}^{+\infty} f(x) dx = 1}
  • Um die Wahrscheinlichkeit zu erhalten muss man die Funktion integrieren.

P(c \leq X \leq d) = \int_c^d f(x) dx

Verteilungsfunktion[edit]

Die Verteilungsfunktion (cumulative distribution function, cdf) ist definiert durch

F_X(x) = P(X \leq x), \text{ für alle } x \in \R

Eine Verteilungsfunktion hat folgende Eigenschaften:

  • 0 \leq F(x) \leq 1 \quad \forall x \in \R
  • F ist monoton wachsend
  • \lim_{x \to -\infty} F(x) = 0 und \lim_{x\to +\infty} F(x) = 1
  • F ist rechtsstetig, d.h. \lim_{h \searrow 0} F(x + h) = F(x) für alle x \in \R

Es gilt:

  • P(X > x) = 1 - P(X \leq x) = 1 - F(x)
  • P(a \leq X \leq b) = F(b) - F(a)

Die Verteilungsfunktion einer stetigen Zufallsvariablen ist gegeben durch:

F(x) = P(X \leq x) = \int_{-\infty}^x f(t) dt

Quartile

  • x_{0.25} ... unteres Quartil
  • x_{0.5} ... Median
  • x_{0.75} ... oberes Quartil

Erwartungswert[edit]

Wird oft mit \mu abgekürzt.

Der Erwartungswert für eine diskrete Zufallsvariable ist definiert durch:

E(X) = \sum x_i \cdot p(x_i)


Der Erwartungswert für eine stetige Zufallsvariable ist definiert durch:

E(X) = \int_{-\infty}^{+\infty} x \cdot f(x) dx

Es wird angenommen, dass die Summe und das Integral absolut konvergent sind!

  • gewichteter Mittelwert der möglichen Ausprägungen von X
  • Maß für die zentrale Tendenz

E(X^k) ... Moment der Ordnung k von X

Varianz

\sigma^2 = \text{Var}(X) = E(X - E(X))^2

Standardabweichung

\sigma = \sqrt{\text{Var}(X)}

Verteilungen[edit]

Diskrete

  • Bernoulli-Verteilung X \sim ber(p) — nur zwei mögliche Versuchsausgänge (Erfolg und Misserfolg)
  • Binomialverteilung X \sim B(n, p) — Anzahl der Erfolge in unabhängigen Bernoulli-Versuchen
  • Geometrische Verteilung
  • Poisson-Verteilung X \sim Poi(\lambda)

Kontinuierliche

  • Gleichverteilung
  • Exponentialverteilung
  • Normalverteilung (Gauß) X \sim \mathcal N(\mu, \sigma^2)
R-Funktionen
Verteilung Dichte Verteilung Quantile Random deviates
Diskrete Binomial dbinom() pbinom() qbinom() rbinom()
Geometrisch dgeom() pgeom() qgeom() rgeom()
Poisson dpois() ppois() qpois() rpois()
Kontinuierliche Uniform dunif() punif() qunif() runif()
Exponential dexp() pexp() qexp() rexp()
Normal dnorm() pnorm() qnorm() rnorm()

Statistik[edit]

Wie verteilt sich der Mittelwert unter Normalverteilung?

Seien X_1, \dots, X_n unabhängig und identisch verteilte Zufallsvariable und X_1 \sim N(\mu, \sigma^2)

Dann ist \bar X = \tfrac 1 n \sum_{i=1}^n X_i \sim N(\mu, \sigma^2 /n)

  • ebenfalls normalverteilt
  • ebenfalls Erwartungswert \mu
  • kleinere Standardabweichung

Standardisieren:

Z = \frac {\bar X - \mu_0}{\sigma / \sqrt n} \sim N(0,1)

beim z-Test:

  • \mu durch Nullhypothese gegeben: H_0: \mu = \mu_0
  • \sigma als bekannt angenommen
empirische Standardabweichung S

S^2 = \frac 1 {n-1} \sum_{i=1}^n (X_i - \bar X)^2

t-Verteilung


T = \frac {\bar X - \mu_0}{S / \sqrt n} \sim t(n-1)

nähert sich für steigende Freiheitsgrade n der N(0,1)-Verteilung an

Standardfehler des arithmetischen Mittels
\sigma / \sqrt n