Difference between revisions of "TU Wien:Machine Learning VU (Mayer, Musliu)"

From VoWi
Jump to navigation Jump to search
Similarly named LVAs (Resources):
 
(14 intermediate revisions by 6 users not shown)
Line 15: Line 15:
  
 
== Inhalt ==
 
== Inhalt ==
kNN, decision trees, bayesian networks, random forests, SVM, [http://www.cs.waikato.ac.nz/ml/weka/ WEKA API]
+
Triviale Einführung in Algorithmen wie kNN, decision trees, bayesian networks, random forests, SVM, [http://www.cs.waikato.ac.nz/ml/weka/ WEKA API]
 +
 
 +
Kurze Einführung in Evaluierung
  
 
== Ablauf ==
 
== Ablauf ==
Line 24: Line 26:
 
WS 2015: drei Übungsaufgaben; (1) Regression an selbstgewählten Datensets mit verschiedenen Regressions-Algorithmen, (2) das gleiche mit Klassifikation, (3) Implementierung eines einfachen Szenarios mit der Weka API (z.B. Finde optimales k für kNN, automatische Model Selection, ...).
 
WS 2015: drei Übungsaufgaben; (1) Regression an selbstgewählten Datensets mit verschiedenen Regressions-Algorithmen, (2) das gleiche mit Klassifikation, (3) Implementierung eines einfachen Szenarios mit der Weka API (z.B. Finde optimales k für kNN, automatische Model Selection, ...).
  
WS18/19: 3 Aufgaben, Regression, Klassifikation. Für das 3. gabs ein paar Optionen zur Auswahl, z.B. Neuronale Netze, u.A. auch CNN (deep learning) für Klassifikation von Bildern.
+
WS18/19: 3 Aufgaben: 1. Regression, 2. Klassifikation. Für das 3. gabs ein paar Optionen zur Auswahl, z.B. Neuronale Netze, u.A. auch CNN (deep learning) für Klassifikation von Bildern.
 +
 
 +
Datensätze werden zum Teil vorgegeben, können zum Teil frei gewählt werden.
  
 
== Benötigte/Empfehlenswerte Vorkenntnisse ==
 
== Benötigte/Empfehlenswerte Vorkenntnisse ==
In Java sollte man sattelfest sein.
+
WS19/20: Kentnisse in Python bzw. R hilfreich. Java wird nicht mehr benötigt!
 +
 
 +
In Java sollte man sattelfest sein. [WS18: Java-Kenntnisse nicht zwingend notwendig]
  
 
Grundsätzlich sollte man selbstständig Daten visualisieren und präsentieren können.
 
Grundsätzlich sollte man selbstständig Daten visualisieren und präsentieren können.
  
WS18/19: Man konnte die Sprachen in denen man was programmiert im Grunde frei wählen. R und/oder Python Kenntnisse sind z.B. recht hilfreich.
+
WS18/19: Man konnte die Sprachen in denen man programmiert im Grunde frei wählen.
 +
R und/oder Python Kenntnisse sind z.B. recht hilfreich, besonders auch für die Visualisierung.
  
 
== Vortrag ==
 
== Vortrag ==
 
in Englisch
 
in Englisch
  
Mayer, Rudolf: guter Vortrag mit vielen Beispielen, trotzdem recht langweilig und oberflächlich
+
Mayer, Rudolf:
 +
 
 +
- guter Vortrag mit vielen Beispielen, trotzdem recht langweilig und oberflächlich
 +
 
 +
- viele Aussagen auf Folien fehlerhaft (z.b.: "Fully grown decision trees will be 100% [accurate] on training data"
 +
 
 +
-- comment: this is actually true, unless your data contains points that are equal in features, but have a different label; that is also mentioned in the slides.
 +
 
 +
- Mayer deckt ein sehr breites Gebiet sehr oberflächlich ab
  
Musliu, Nysret: schlechter Vortragsstil, eher einschläfernd, hat keine eigenen Folien
+
- Mathematisch nicht anspruchsvoll und nicht rigoros (keine Beweise, Notation unordentlich)
 +
 
 +
Musliu, Nysret:
 +
 
 +
- schlechter Vortragsstil, eher einschläfernd, hat keine eigenen Folien
 +
 
 +
- Musliu ist zuvorkommend und geht sehr auf den Wissensstand der Studierenden ein.
  
 
== Übungen ==
 
== Übungen ==
Line 44: Line 65:
  
 
Die Punktevergabe (besonders beim zweiten Bsp.) war allerdings nicht wirklich nachvollziehbar. Man hat im TUWEL seine Punkte eingetragen bekommen und das wars. Allgemein hab ich das Gefühl eine ansprechende Dokumentation ist ihnen wichtiger als die Arbeit selbst.
 
Die Punktevergabe (besonders beim zweiten Bsp.) war allerdings nicht wirklich nachvollziehbar. Man hat im TUWEL seine Punkte eingetragen bekommen und das wars. Allgemein hab ich das Gefühl eine ansprechende Dokumentation ist ihnen wichtiger als die Arbeit selbst.
 +
 +
Hier empfiehlt es sich besonders, dass man ein Framework programmiert (gemeinsam als Gruppe oder jemand mit etwas mehr Erfahrung), was dann alle verwenden können bzw. leicht angepasst werden kann. Empfehlenswert ist z.B. die GridSearchCV von sklearn.
  
 
== Prüfung, Benotung ==
 
== Prüfung, Benotung ==
noch offen
+
Invest some time in looking at old exams. Try to find some of the true/false questions and make sure you know the most current ones.
 +
 
 +
Also see that you know how to calculate the basic examples using e.g. Naive Bayes, etc. I think there's always one of those in each exam.
  
 
=== Dauer der Zeugnisausstellung ===
 
=== Dauer der Zeugnisausstellung ===
 
WS10: etwas mehr als 5 Wochen<br>
 
WS10: etwas mehr als 5 Wochen<br>
 
SS13: Prüfung 26.06., Zeugnis 29.07.<br>
 
SS13: Prüfung 26.06., Zeugnis 29.07.<br>
WS18: Prüfung 18.10., Zeugnis 14.11. <br>
+
WS18: Prüfung 18.10.19, Zeugnis 14.11.19 <br>
  
 
=== Benotung der Übungen===
 
=== Benotung der Übungen===
Line 76: Line 101:
  
 
== Verbesserungsvorschläge / Kritik ==
 
== Verbesserungsvorschläge / Kritik ==
noch offen
+
Vortrag ist sehr oberflächlich. Nach dem Kurs versteht man die Ideen hinter den Algorithmen, aber theoretische und mathematische Grundlagen werden keine geboten.
 +
 
 +
Aussagen in Vorlesung oft sehr unpräzise.
  
 
== Wikipedia-Links ==
 
== Wikipedia-Links ==

Latest revision as of 15:04, 29 June 2020

Daten[edit]

Lecturers Musliu, Nysret, Mayer, Rudolf
ECTS 4,5
Department Forschungsbereich Databases and Artificial Intelligence
Language English
Links tiss:184702 , Mattermost-Channel
Zuordnungen
Master Data Science Pflichtmodul MLS/FD - Machine Learning and Statistics - Foundations
Master Logic and Computation Wahlmodul Knowledge Representation and Artificial Intelligence
E066933 Wahlmodul Knowledge Engineering
Master Software Engineering & Internet Computing Wahlmodul Algorithmik

Mattermost: Channel "machine-learning"RegisterMattermost-Infos

Inhalt[edit]

Triviale Einführung in Algorithmen wie kNN, decision trees, bayesian networks, random forests, SVM, WEKA API

Kurze Einführung in Evaluierung

Ablauf[edit]

2 Übungsaufgaben in 3er Gruppen: kleinere Beispiele in WEKA Programmieren

Schriftliche Prüfung am Ende

WS 2015: drei Übungsaufgaben; (1) Regression an selbstgewählten Datensets mit verschiedenen Regressions-Algorithmen, (2) das gleiche mit Klassifikation, (3) Implementierung eines einfachen Szenarios mit der Weka API (z.B. Finde optimales k für kNN, automatische Model Selection, ...).

WS18/19: 3 Aufgaben: 1. Regression, 2. Klassifikation. Für das 3. gabs ein paar Optionen zur Auswahl, z.B. Neuronale Netze, u.A. auch CNN (deep learning) für Klassifikation von Bildern.

Datensätze werden zum Teil vorgegeben, können zum Teil frei gewählt werden.

Benötigte/Empfehlenswerte Vorkenntnisse[edit]

WS19/20: Kentnisse in Python bzw. R hilfreich. Java wird nicht mehr benötigt!

In Java sollte man sattelfest sein. [WS18: Java-Kenntnisse nicht zwingend notwendig]

Grundsätzlich sollte man selbstständig Daten visualisieren und präsentieren können.

WS18/19: Man konnte die Sprachen in denen man programmiert im Grunde frei wählen. R und/oder Python Kenntnisse sind z.B. recht hilfreich, besonders auch für die Visualisierung.

Vortrag[edit]

in Englisch

Mayer, Rudolf:

- guter Vortrag mit vielen Beispielen, trotzdem recht langweilig und oberflächlich

- viele Aussagen auf Folien fehlerhaft (z.b.: "Fully grown decision trees will be 100% [accurate] on training data"

-- comment: this is actually true, unless your data contains points that are equal in features, but have a different label; that is also mentioned in the slides.

- Mayer deckt ein sehr breites Gebiet sehr oberflächlich ab

- Mathematisch nicht anspruchsvoll und nicht rigoros (keine Beweise, Notation unordentlich)

Musliu, Nysret:

- schlechter Vortragsstil, eher einschläfernd, hat keine eigenen Folien

- Musliu ist zuvorkommend und geht sehr auf den Wissensstand der Studierenden ein.

Übungen[edit]

Mit einer guten Gruppe leicht schaffbar, je nach dem welches Thema man wählt

Die Punktevergabe (besonders beim zweiten Bsp.) war allerdings nicht wirklich nachvollziehbar. Man hat im TUWEL seine Punkte eingetragen bekommen und das wars. Allgemein hab ich das Gefühl eine ansprechende Dokumentation ist ihnen wichtiger als die Arbeit selbst.

Hier empfiehlt es sich besonders, dass man ein Framework programmiert (gemeinsam als Gruppe oder jemand mit etwas mehr Erfahrung), was dann alle verwenden können bzw. leicht angepasst werden kann. Empfehlenswert ist z.B. die GridSearchCV von sklearn.

Prüfung, Benotung[edit]

Invest some time in looking at old exams. Try to find some of the true/false questions and make sure you know the most current ones.

Also see that you know how to calculate the basic examples using e.g. Naive Bayes, etc. I think there's always one of those in each exam.

Dauer der Zeugnisausstellung[edit]

WS10: etwas mehr als 5 Wochen
SS13: Prüfung 26.06., Zeugnis 29.07.
WS18: Prüfung 18.10.19, Zeugnis 14.11.19

Benotung der Übungen[edit]

WS18: Hat für jede Übung durchschnittlich 2 Monate gebraucht

Zeitaufwand[edit]

noch offen

Unterlagen[edit]

Folien im TUWEL

imho sehr gute Erklärung der Classifiers unter:

http://chem-eng.utoronto.ca/~datamining/dmc/data_mining_map.htm

Und zusätzliche Vorlesungen:

https://class.coursera.org/ml-003/lecture

Tipps[edit]

noch offen

Verbesserungsvorschläge / Kritik[edit]

Vortrag ist sehr oberflächlich. Nach dem Kurs versteht man die Ideen hinter den Algorithmen, aber theoretische und mathematische Grundlagen werden keine geboten.

Aussagen in Vorlesung oft sehr unpräzise.

Wikipedia-Links[edit]