TU Wien:Wahrscheinlichkeitstheorie und Stochastische Prozesse für Informatik VO (diverse)
- Wahrscheinlichkeitstheorie und Stochastische Prozesse für Informatik UE (Grill) (TU Wien, veraltet, 0 Materialien)
- Wahrscheinlichkeitstheorie und Stochastische Prozesse für Informatik UE (Toninelli) (TU Wien, veraltet, 1 Material)
- Wahrscheinlichkeitstheorie und Stochastische Prozesse für Informatik UE (diverse) (TU Wien, veraltet, 30 Materialien)
- Wahrscheinlichkeitstheorie und Stochastische Prozesse für Informatik VO (Grill) (TU Wien, veraltet, 0 Materialien)
- Wahrscheinlichkeitstheorie und Stochastische Prozesse für Informatik VO (Toninelli) (TU Wien, veraltet, 1 Material)
- Wahrscheinlichkeitstheorie und Stochastische Prozesse für Informatik VO (diverse) (TU Wien, veraltet, 21 Materialien)
Daten[Bearbeiten | Quelltext bearbeiten]
Vortragende | Karl Grill, Zsolt Saffer |
---|---|
ECTS | 4 |
Links | tiss:107A04 |
Bachelorstudium Technische Informatik |
Mattermost: Channel "wahrscheinlichkeitstheorie-und-stochastische-prozesse-fuer-info" • Register • Mattermost-Infos
Inhalt[Bearbeiten | Quelltext bearbeiten]
- Wahrscheinlichkeitstheorie
- Ereignisse
- Wahrscheinlichkeiten
- Bedingte Wahrscheinlichkeit und Unabhängigkeit
- Zufallsvariablen
- Verteilungen
- Transformationsgesetze
- Erwartungswert, Varianz, Kovarianz, Korrelationskoeffizient
- Ungleichungen von Markov, Chebycheff und Kolmogorov
- Starkes und schwaches Gesetz der Großen Zahlen
- Zentraler Grenzwertsatz (Normalapproximation)
- Stochastik
- Stochastische Prozesse
- Markovketten (Übergangsmatrizen)
- Stationäre Verteilung, Absorptionswahrscheinlichkeit, Mittlere Absorptionszeit
- Rekurrent, Transient, Chapman Kolmogorov, MCMC (Monte Carlo Markov Chain)
- Heuristische Optimierungsverfahren
- Statistik
- Schätzertheorie
- Maximum Likelihood-Prinzip, Fisher Information, Cramer-Rao Schranke
- Intervallschätzung
- Tests, Anpassungstests
- Informationstheorie
- Entropie, mittlere Unbestimmtheit
- Codierungstheorie
- Huffman-Code, Shannon-Code, Fano-Code
- Bedinge Entropie, Information, I-Divergenz
- Kanalcodierung
- Markov-Prozesse in stetiger Zeit
Ablauf[Bearbeiten | Quelltext bearbeiten]
Zur Vorlesung parallel abgehaltene Übungs-Lehrveranstaltung
Benötigte/Empfehlenswerte Vorkenntnisse[Bearbeiten | Quelltext bearbeiten]
Idealerweise alle vorangegangenen Mathematik-Vorlesungen (Algebra und diskrete Mathematik, Analysis I, Analysis II). Aus Analysis II sind nur Bereichsintegrale relevant (für Zufallsvariablen mit gemeinsamer Verteilung), die kann man sich aber ohne weiteres so aneignen.
Vortrag[Bearbeiten | Quelltext bearbeiten]
Bei dem Vortrag macht er viele Beispiele sodass man dem Stoff gut folgen kann. Allerdings ist bei Prof. Grill vorsicht geboten, er verschreibt sich oft obwohl er was anderes sagt, bzw. löscht zuvor geschriebene Sachen wieder weg. ausserdem verwechselt man leicht seine 6er mit einem b.
Das Tempo variiert sehr stark - oft hat er kurze "Anfälle" in denen er 4 Tafeln in 2 Minuten vollschreibt.
Die LVA an sich ist vor allem gegen Anfang (da manches noch von der Schule bekannt ist) voll okay, jedoch vor allem schon ab den Mehrdimensionalen Dichten wirds relativ schwer, da es sehr viele Terminologien gibt, wo man ganz schnell verwirrt ist was jetzt eigentlich wirklich gemeint ist. Das Skriptum bietet leider nicht viele anschauliche Grafiken, deswegen sollte man sich vielleicht immer visuelle Hilfsmittel, auf YouTube oder ähnlichen Plattformen, zum tieferen Verständnis zu gute tun.
Es bietet sich an die Übungsbeispiele selbst zu machen, da man hier natürlich am besten wirklich lernt was abgeht.
Übungen[Bearbeiten | Quelltext bearbeiten]
siehe Übungen
Prüfung, Benotung[Bearbeiten | Quelltext bearbeiten]
Die Prüfung besteht aus einem schritflichen und einem mündlichen Teil. Bei der schriftlichen Prüfung sind Unterlagen erlaubt. Für die mündliche sollte man einmal seine Fragen im Skriptum am Ende des Kapitels durchgehen.
Bei der schriftlichen Prüfung ist es völlig egal wenn man auch gelöste Übungsbeispiele in den Unterlagen hat. Prof. Grill ist bei den meisten Prüfungen nicht anwesend und die anderen Professoren ist egal was die Informatiker machen.
Wenn er da ist, hat er alleine Aufsicht für beispielsweise 60 Studenten, wobei er die Prüfungszeit mit seinem Computer verbringt. Man kann also die gelösten Beispiele der Übungen als Hilfestellung mitnehmen. Fragen stellen ist möglich, er hilft weiter.
Sieht die Prüfung auf den ersten Blick nicht komplett falsch aus hat man schon ziemlich sicher ein Sehr gut (Rechenfehler wirken sich quasi gar nicht auf die Note aus), für den mündlichen Teil sollte man grundlegendes gut beherrschen, Details werden nicht gefragt.
Andere Meinung: Prof. Grill fragt bei der mündlichen Prüfung schon relativ genau, man sollte um sicherzugehen für ein Sehr gut fast alle Sätze und Definitionen aus dem Skriptum können und verstehen. Mit uns ist er bei der Prüfung das gesamte Skript durchgegangen und hat die wichtigsten Definitionen gefragt. Er wollte teilweise Aufzählungen von Eigenschaften hören, wie zum Beispiel die einer Verteilungsfunktion oder die Axiome von Kolmogorov, Wahrscheinlichkeitsraum, usw.. Zur Benotung der schriftlichen Prüfung kann ich nicht viel sagen, diese sind aber sehr leicht wenn man die Übungsbeispiele verstanden hat. In unserem Fall (2018W) gab Prof. Grill bei der Prüfung von vier Beispielen ein Beispiel 1:1 aus der Übung und eines welches fast 1:1 aus dem Skriptum abgeschrieben werden konnte.
Tipp: Bei der schriftlichen Prüfung ist es erlaubt, einen (programmierbaren) Taschenrechner mit CAS zu verwenden. (2018W: Prof. Grill hat etwas gezögert bevor er dies explizit erlaubte, in Zukunft könnte es sein, dass solche Taschenrechner nicht mehr verwendet werden dürfen, 2019W ebenfalls nach kurzem Zögern erlaubt).
Beliebte Fragen:
- Grundlegende Definitionen (Axiome von Kolmogorov, Wahrscheinlichkeitsraum, Wahrscheinlichkeitsmaß, Erwartungswert, Varianz)
- Arten von Verteilungen (diskret, stetig, gemischt)
- Schätzer (Was ist das? Eigenschaften? Methoden? Cramer-Rao Schranke)
- Markov-Ketten (Eigenschaften von Zuständen? Def. von Absorptionswahrscheinlichkeiten, Klasseneigenschaften? Rekurrenz? Stationäre Verteilung?)
- Zentraler Grenzwertsatz
- Sätze von Markov, Tschebyscheff, Kolmogorov
- Satz von der vollständigen Wahrscheinlichkeit, Bedingte Wahrscheinlichkeit, was wenn Nenner bei bedingter Wahrscheinlichkeit 0 ist ? (->bedingte Dichten)
- H(P), H*(P), Zusammenhang
- Chapman-Kolmogorov Gleichungen (nicht im Skriptum explizit herausgehoben!)
- Verschiedene Arten von Codes + Algorithmus (vor allem Huffman)
- Weitere Sätze und Definitionen, im Skriptum rot und grün markiert
Dauer der Zeugnisausstellung[Bearbeiten | Quelltext bearbeiten]
< 1 Woche
Erfahrung vom 10.10.2016: Rekordverdächtige 11 Minuten
Erfahrung vom Februar 2022 (nur mündlich): 3 Stunden
Zeitaufwand[Bearbeiten | Quelltext bearbeiten]
- Regelmäßiger Besuch der VO, für die schriftliche 2 Tage, mündliche 1 Tag gelernt -> Sehr gut
- Unregelmäßiger VO-Besuch und alle Übungsaufgaben selbst gelöst. Schriftliche Prüfung wenig Lernaufwand (3 Tage zu je 2-3 Stunden), mündliche Prüfung ebenfalls vergleichbar. Insgesamt etwa 20 Stunden für die VO-Prüfung.
- Ohne den Großteil der VOs geschaut zu haben, jedoch die Übungen selbst gemacht, war das bis jetzt das Fach mit dem größten Lernaufwand, es sind doch recht viele Themen, Terminologien, welche auch nicht alle von der Übung erfasst werden. Fürs Lernen habe ich 1 Woche mit ~5-6h pro Tag gelernt für einen 2er (2022, also nur mündlich). Fürs Lernen empfiehlt sich StatQuest und MIT Videos von YouTube
Unterlagen[Bearbeiten | Quelltext bearbeiten]
Skriptum an dem Prof. Grill im Moment arbeitet: https://institute.tuwien.ac.at/fileadmin/t/mathstoch/upload/wsi.pdf
Tipps[Bearbeiten | Quelltext bearbeiten]
Gut beherrschte Wahrscheinlichkeitstheorie aus der Schule kann einem vor allem am Anfang sehr weiterhelfen, die Vorlesung ist jedoch nicht besonders anspruchsvoll. Prof. Grill hilft gerne bei etwaigen Fragen weiter, also nicht zögern zu fragen. Er bemüht sich auch, in der Übung alle Beispiele noch einmal genau zu erklären, damit alle verbleibenden Unklarheiten beseitigt werden. Terminologien vor allem bei Markovketten anschauen bevor man versucht irgendwas zu verstehen!
Verbesserungsvorschläge / Kritik[Bearbeiten | Quelltext bearbeiten]
noch offen
Materialien
Neues Material hinzufügenP
- Pruefung 2017-01-30.pdf (details)
- Prüfung 1.12.16.pdf (details)
- Prüfung 17-08-2022
- Prüfung 2022-03-14
- Prüfung 2019-10-02
- Prüfung 2019-03-05
- Prüfung 2016-10-05.jpg (details)
- Prüfung 2015-10-07.jpeg (details)
- Prüfung 2015-01-29.pdf (details)
- Prüfung 2013-03-05.jpg (details)
- Prüfung 2013-01-30.png (details)