TU Wien:Statistik und Wahrscheinlichkeitstheorie VO/UE (Felsenstein)/Fragekatalog Mündlich

Aus VoWi
Zur Navigation springen Zur Suche springen

Zusammenfassung aller Fragen die ich in dem Materialsammlungsthread gefunden habe.
Als "Buch" wurde das Skriptum von Prof Felsensetin WS 2k5/2k6 verwendet

Diskriptive Statistik und Motivation[Bearbeiten | Quelltext bearbeiten]

relative Häufigkeit (bis hin zu bayes)[Bearbeiten | Quelltext bearbeiten]

BS 3 Häufigkeit = Anzahl der Datenwerte / Gruppe
Relative Häufigkeit = Anzahl der DAtenwerte / Gruppe bezogen auf GEsamtanzahl der Datenwerte h_i = H_i/n
Vorteil der relativen Häufigkeit ist die Vergleichbarkeit relativer Häufigkeiten von zwei Datensätzen

Bildliche Darstellung: http://goo.gl/3Bxgh (weiß leider nicht wie man das hier einbindet)

Quantile[Bearbeiten | Quelltext bearbeiten]

  • Berechnung: BS 7
  • Was ist das, wozu braucht man das: Um die Eihnteilung der Werte ersichtlich machen zu können
  • Ermittlung der Quantile (inverse Verteilung, Ränge)

Summenpolygon (ablesen der Quantile)[Bearbeiten | Quelltext bearbeiten]

Vom Summenpolygon (Empirische Verteilungsfunktion die an den linken oberen Eckpunkten verbunden wird) kann man die Werte (der Verteilungsfnkt.) ablesen.

Boxplot[Bearbeiten | Quelltext bearbeiten]

BS 9,Wikipedia-Boxplot

  • Extremwert

Welche Werte Kann man dem Boxplot entnehmen:

  • Median
  • Quartile (0.25, 0.5, 0.75)
  • Whisker mit MAX:1.5*Interquantilabstand von den 0.25/0.75 Quantilen weg.
  • Ausreißer (Kreiserln)

Einsatz[Bearbeiten | Quelltext bearbeiten]

Ein Boxplot vermittelt einen Eindruck davon, ob eine Verteilung symmetrisch oder schief ist. Weniger geeignet ist der Boxplot für bi- oder multimodale Verteilungen. Um solche Eigenschaften aufzudecken, empfiehlt sich die Verwendung von Histogrammen bzw. die grafische Umsetzung von Kerndichteschätzungen. Der wesentliche Vorteil des Boxplot besteht im raschen Vergleich der Verteilung in verschiedenen Untergruppen. Während ein Histogramm eine zweidimensionale Ausdehnung hat, ist ein Boxplot im Wesentlichen eindimensional, so dass sich leicht mehrere neben- oder untereinander (wenn waagerecht) auf derselben Skala darstellen lassen.

Q-Q Plot[Bearbeiten | Quelltext bearbeiten]

Quantil Quantil Plot: Wiki Vergleich zweier statistischer Größen auf linearen Zusammenhang


Wahrscheinlichkeit[Bearbeiten | Quelltext bearbeiten]

Bedingte Wahrscheinlichkeit[Bearbeiten | Quelltext bearbeiten]

BS 27, Wiki Wenn die Wahrscheinlichkeit des Eintretens des Ereignisses A, durch ein Ereigniss B (des selben Merkmalsraums) verändert wird.

  • Formel:

Multiplikationssatz[Bearbeiten | Quelltext bearbeiten]

  • (+ was sind unabhängige Ereignisse, was sind disjunkte Ereignisse, Additionssatz)

Satz der vollständigen Wahrscheinlichkeit[Bearbeiten | Quelltext bearbeiten]

Wenn sich der Merkmalsraum in disjunkte Bereiche (Hypothesen H_i) einteilen lässt und die Wahrscheinlichkeit des Ereignisses A unter jeder Hypothese festgelegt ist, so ergibt sich die Wahrscheinlichkeit für das Ereignis A durch die Formel auf B.Seite 27-2.8

Gesamtwahrscheinlichkeit[Bearbeiten | Quelltext bearbeiten]

"Koennen die Hypothesen beliebige Ereignisse sein? Was wäre wenn die Hypothesen alle =Merkmalsraum waeren? Was waere wenn sie alle leer waeren?"

  • Bedingungen die die Hypothesen erfüllen müssen: Müssen Disjunkt sein
  • Bedingungen die die Summanden bei dem Satz erfuellen muessen

Vorwärts - Rückwärts[Bearbeiten | Quelltext bearbeiten]

Vorwärtsw. =Vollständige Wahrscheinlichkeit
Rückwärtsw. = Bayes'sche

Bayes'sche Formel und Rueckschlussprinzip[Bearbeiten | Quelltext bearbeiten]

Vom Versuchsausgang A lässt sich auf die Hypothese H_i rückschließen.
BS 28. Wiki

Stochastische Größen[Bearbeiten | Quelltext bearbeiten]

Dichtefunktion[Bearbeiten | Quelltext bearbeiten]

Wiki Wenn sich die stochastische Größe X durch eine integrierbare positive Funktion f(.) beschreiben lässt, die folgende Bedingung erfüllt: Integral(-Infinit,+Infinit)(f(x)/dx) ==1, dann nennt man diese Funktion (wahrscheinlichkeits-)dichtefunktion.

Poisson Verteilung[Bearbeiten | Quelltext bearbeiten]

Die Poisson-Verteilung (benannt nach dem Mathematiker Siméon Denis Poisson) ist eine diskrete Wahrscheinlichkeitsverteilung, die beim mehrmaligen Durchführen eines Bernoulli-Experiments entsteht. Letzteres ist ein Zufallsexperiment, das nur zwei mögliche Ergebnisse besitzt (z. B. „Erfolg“ und „Misserfolg“). Führt man ein solches Experiment sehr oft durch und ist die Erfolgswahrscheinlichkeit gering, so ist die Poisson-Verteilung eine gute Näherung für die entsprechende Wahrscheinlichkeitsverteilung. (Quelle: Wiki)

Sie ordnet den natürlichen Zahlen k = 0, 1, 2,... die Wahrscheinlichkeiten wie folgt zu:

  • Wo verwendet man sie

Bei geringer Auftrittswahrscheinlichkeit

Binominalverteilung[Bearbeiten | Quelltext bearbeiten]

http://de.wikipedia.org/wiki/Binomialverteilung
Konvergiert punktweise gegen eine Poissonverteilung wenn n->infinit und P->0 geht. (Erklären, Beispiel, Erwartungswert davon, Wie ist der zentrale Grenzverteilungssatz hier anzuwenden)

Ist im Prinzip wie Ziehen mit zurücklegen

Normalverteilung[Bearbeiten | Quelltext bearbeiten]

Hypergeometrische Verteilung[Bearbeiten | Quelltext bearbeiten]

(Wiki)
Eine diskrete Zufallsgröße unterliegt der hypergeometrischen Verteilung mit den Parametern , , und , wenn sie die Wahrscheinlichkeiten

für besitzt.

Das ist im Grunde wie Ziehen ohne zurücklegen. -> Annäherung an Binomialverteilung möglich -> Annäherung an Poisson

etwas zu stoch. unabhaengigkeit[Bearbeiten | Quelltext bearbeiten]

Wiki
Es sei ein Wahrscheinlichkeitsraum und seien zufällige Ereignisse, also messbare Teilmengen der Ergebnismenge .

Dann heißen A und B stochastisch unabhängig, wenn

Das ist dann erfüllt, wenn entweder einer der beiden Wahrscheinlichkeiten 0 ist oder einer der Beiden 1 ist.

Verteilungsfunktion = (Summe(pi))[Bearbeiten | Quelltext bearbeiten]

satz den unbewussten Statisitkers[Bearbeiten | Quelltext bearbeiten]

BS49. Erwartungswert einer Funktion abhängig von einer stochastischen Größe berechenbar

Eg(X)= Integral(g(x) dP(x) )

Varianz[Bearbeiten | Quelltext bearbeiten]

BS 51 Varianz ist die quadratische Abweichung vom Mittelwert siehe BS 11.
Varianz einer stochastischen Größe ist Var(X) = E(X-E(X))²

  • Wie kann man die Formel als Summe darstellen?

Die Varianz ist ein Maß, das beschreibt, wie stark eine Messgröße (genauer eine Zufallsgröße) „streut“. Sie wird berechnet, indem man die Abstände der Messwerte vom Mittelwert quadriert, addiert und durch die Anzahl der Messwerte teilt.

wie sieht der Verschiebungssatz der Var aus[Bearbeiten | Quelltext bearbeiten]

(Quelle: Wiki)

kovarianz[Bearbeiten | Quelltext bearbeiten]

  • Unterschied zur Varianz?
    • Die Verwendung
    • Cov(X,Y) ist ein Vergleich zweier stochastischer Größen
    • die Funktion
    • eigentlich alles bis auf den Namen und dass der Erwartungswert zum Berechnen verwendet wird.
  • Wie ist sie definiert
  • Was sagt sie aus?

Ist eine Maßzahl für den Zusammenhang zweier statistischer Zufallsvariablen
Die Kovarianz gibt zwar die Richtung einer Beziehung zwischen zwei Variablen an, über die Stärke des Zusammenhangs wird aber keine Aussage getroffen. Dies liegt an der Linearität der Kovarianz.

Erwartungswert[Bearbeiten | Quelltext bearbeiten]

Diskrete Werte: E(X)= Sum(x_i*p_i)= Sum(x_i*P(X=x_i))
Stetigen Weten: = Integral(-infinit, +infinit)(x*f(x) dx))

Allgmeine Fragen[Bearbeiten | Quelltext bearbeiten]

E, Var, Cov, Korrkoeff.,. wurden im Zuge von Vertiefungsfragen aufgearbeitet.

Elemente der Wahrscheinlichkeitstheorie[Bearbeiten | Quelltext bearbeiten]

Erwartungswert einer bedingten Verteilung[Bearbeiten | Quelltext bearbeiten]

BS.71 diskret: E(X|Y=y)= Integral(x*f(x|y) dx)

Bedingte Verteilung und Bayes-Modell[Bearbeiten | Quelltext bearbeiten]

BS.70, Mathe Uni Ulm

(Zentraler) Grenzverteilungssatz[Bearbeiten | Quelltext bearbeiten]

BS.66 stochastik.jku.at .. Verteilung oft genug zusammengelegt (Versuch öfters durchführen) nähert sich das einer Normalverteilung

  • und Stetigkeitskorrektur BS 69 im Bsp

Beim Berechnen zweier Wahrscheinlichkeiten mit unterschiedlichen Verfahren entstehen Differenzen, die aber bei der Berechnung ausgeglichen werden können. Siehe Bsp. 4.2

Gesetz der großen Zahlen[Bearbeiten | Quelltext bearbeiten]

Wiki In ihrer einfachsten Form besagen diese Sätze, dass sich die relative Häufigkeit eines Zufallsergebnisses in der Regel der Wahrscheinlichkeit dieses Zufallsergebnisses annähert, wenn das zu Grunde liegende Zufallsexperiment immer wieder durchgeführt wird

Statistische Methodik[Bearbeiten | Quelltext bearbeiten]

Beispielhafte stochastische Groessen[Bearbeiten | Quelltext bearbeiten]

  • deren Summe wieder die Verteilung ergibt, mit der diese stochastischen Groessen verteilt sind (sowohl stetige als auch diskrete Beispiele)

Wie z.B. Normalverteilung, Binomialverteilung, ...

  • Bedingungen die diese stochastischen Groessen erfüllen müssen damit deren Summe so verteilt ist

Die Stochastischen Größen untereinader müssen unabhängig sein, außer bei der Normalverteilung.

dann gleich weiter zu bayes[Bearbeiten | Quelltext bearbeiten]

korrelation und kovarianz und ein beispiel(nannte ihm messwerte und formel fuer emp. korrelationskoeffizienten zusaetzlich)

dann am schluss wollte er noch was zu bayes wissen, formel umschreiben, mit dichten, wusste ich aber nicht[Bearbeiten | Quelltext bearbeiten]

schätzer[Bearbeiten | Quelltext bearbeiten]

Maximum-Likelyhood-Schätzer[Bearbeiten | Quelltext bearbeiten]

Kleinste Quadrate Schätzer[Bearbeiten | Quelltext bearbeiten]

worum geht’s (Summe xi – theta1 – theta2*zi), dann herleitung der minimalen Schätzer. Nur sehr grob theoretisch: 1. Ableiung = 0 -> Extremwert, 2.Ableitung positiv -> Minimum

Genauigkeit eines Schätzers[Bearbeiten | Quelltext bearbeiten]

(Bayes'scher Erwartungswert, MSE/Varianz)


Statistische Verfahren[Bearbeiten | Quelltext bearbeiten]

Verwerfungsraum[Bearbeiten | Quelltext bearbeiten]

Erklärt einen Test vollständig http://de.wikipedia.org/wiki/Fehler_2._Art

Satz der vollst. Wahrscheinlichkeit[Bearbeiten | Quelltext bearbeiten]

P(A)=Sum( P(A|H_i)*P(H_i) )

Korrelationskoeffizienten: was ist das, wie definiert, wozu braucht mans?[Bearbeiten | Quelltext bearbeiten]

regression[Bearbeiten | Quelltext bearbeiten]

Lineare Regression: was ist das, wozu verwendet man das?[Bearbeiten | Quelltext bearbeiten]

  • [Einfachste form, Skizze der Punkte siehe Skriptum, Wo ist sie definiert (-1 – 1)]
  • erste Art 71
  • lineare 102
  • multible 105
  • Kleinster Quadratische Schätzer 103
    • (incl. Residuen der kleinsten quadrate)

Lineare Regression: Wie kann man den Zusammenhang veranschaulichen?[Bearbeiten | Quelltext bearbeiten]

Definieren Sie Unabhängigkeit (stochastisch und für Ereignisse)[Bearbeiten | Quelltext bearbeiten]

Stochastisch unabhängig

Bayes Unabhängikeit[Bearbeiten | Quelltext bearbeiten]

  • was direkt zu Covarianz und Korrelation geführt hat. Dann gab es zum großen Zahlen.
  • (Ich habe meist die generelle Formel für stochastische Größen verwendet und musste diese nur einmal konkret abändern (für Korrelation).

Unterschied=[Bearbeiten | Quelltext bearbeiten]

  • von Bayes-Formel zu Theorem (a-prior a-posteriori)

bayes theorem[Bearbeiten | Quelltext bearbeiten]

  • (auch im bezug auf vollst. P)


Wann sind Verteilungen unabhängig[Bearbeiten | Quelltext bearbeiten]

Stetigkeitskorrektur[Bearbeiten | Quelltext bearbeiten]

Wiki

Lineare Regression[Bearbeiten | Quelltext bearbeiten]

Bei der Normalverteilung wird die untere Grenze um 0,5 verkleinert und die obere Grenze um 0,5 vergrößert, um eine bessere Approximation bei einer geringen Standardabweichung σ gewährleisten zu können. Dies nennt man auch Stetigkeitskorrektur. Nur wenn σ einen sehr hohen Wert besitzt, kann auf sie verzichtet werden.
Also wenn die Standardabweichung hoch ist, kann auf sie verzichtet werden

Konfidenzintervalle[Bearbeiten | Quelltext bearbeiten]

  • (Erklären, Beispiel) wiki

Trifft Aussagen über die Präzision der Lageschätzung eines Parameters.

Es wird also eine Aussage getroffen über einen gewissen Wert. Da dieser wert nur eine Schätzung ist, gilt es jetzt eine Aussage zu treffen, mit welcher Wahrscheinlichkeit der wirkliche Wert sich in einem gewissen Bereich befinden wird.
Dieser Bereich ist das Konfidenzinterfvall.

  • wofür braucht man die
    • Es lässt sich aus Vertrauensintervall Ablesen ob etwa die Stichprobe zu klein gewesen ist. Entweder ist die Stichprobe tatsächlich „klein“, oder das untersuchte Phänomen ist so variabel, dass nur durch eine unrealistisch große Stichprobe ein Konfidenzintervall von akzeptabler Breite erreicht werden könnte.
    • Es lässt sich ein Wertebereich errechnen, in dem der geschätzte Wert mit einer angenommenen Wahrscheinlichkeit liegt.
  • wie definiert man sowas

korrelation[Bearbeiten | Quelltext bearbeiten]

Wiki
Die Korrelation beschreibt die Beziehung zwischen zwei oder mehreren statistischen Variablen. Wenn sie besteht, ist noch nicht gesagt, ob eine Größe die andere kausal beeinflusst, ob beide von einer dritten Größe kausal abhängen oder ob sich überhaupt ein Kausalzusammenhang folgern lässt. Diese Beziehung kann linear aber auch nichtlinear sein und mittels verschiedenster Funktionen der Mathematik beschrieben werden.

Korrelationskoeffizient[Bearbeiten | Quelltext bearbeiten]

BS 61, 97 (von dort zu Kovarianz, Varianz, Erwartungswert, Standardabweichung)

T-Test[Bearbeiten | Quelltext bearbeiten]

  • nur Einsatzgebiet bzw Möglichkeiten, keine Formeln.
  • zwei Verteilungen (gefragt war Test auf identischen Mittelwert)

Oft ist jedoch mit dem t-Test der Einstichproben- bzw. Zweistichproben t-Test gemeint:

  • Der Einstichproben t-Test prüft anhand des Mittelwertes einer Stichprobe, ob der Erwartungswert einer Grundgesamtheit gleich, kleiner oder größer einem vorgegebenem Wert ist.
  • Der Zweistichproben t-Test prüft anhand der Mittelwerte zweier Stichproben, ob die Erwartungswerte zweier Grundgesamtheiten gleich, kleiner oder größer sind.

(Quelle: Wiki)

Noch Unzugeordnet[Bearbeiten | Quelltext bearbeiten]

unabhängig[Bearbeiten | Quelltext bearbeiten]

nur kurz was das ist

Geometrische Verteilung + Erwartungswert[Bearbeiten | Quelltext bearbeiten]

BS51 (wusste ich nicht, hab ich aber ausrechnen können:1/p)

Empirischer Korrelationskoeffizient[Bearbeiten | Quelltext bearbeiten]

  • (+ was ist korrelation, was ist kovarianz)

Test auf Unabhängigkeit[Bearbeiten | Quelltext bearbeiten]

  • bei NV (+ was sind unabhängige stochastische Größen)

Erwartungstreue von Schätzern[Bearbeiten | Quelltext bearbeiten]

  • (+ asymptotische)