TU Wien:Machine Learning VU (Mayer, Musliu): Unterschied zwischen den Versionen

Aus VoWi
Zur Navigation springen Zur Suche springen
Ähnlich benannte LVAs (Materialien):
(mw_vowi)
 
(2 dazwischenliegende Versionen von einem anderen Benutzer werden nicht angezeigt)
Zeile 12: Zeile 12:
 
     {{Zuordnung|E066937|Algorithmik|wahl=1}}
 
     {{Zuordnung|E066937|Algorithmik|wahl=1}}
 
}}
 
}}
 +
{{mattermost-channel|machine-learning}}
 
{{mattermost-channel|machine-learning}}
 
{{mattermost-channel|machine-learning}}
  
Zeile 24: Zeile 25:
 
WS 2015: drei Übungsaufgaben; (1) Regression an selbstgewählten Datensets mit verschiedenen Regressions-Algorithmen, (2) das gleiche mit Klassifikation, (3) Implementierung eines einfachen Szenarios mit der Weka API (z.B. Finde optimales k für kNN, automatische Model Selection, ...).
 
WS 2015: drei Übungsaufgaben; (1) Regression an selbstgewählten Datensets mit verschiedenen Regressions-Algorithmen, (2) das gleiche mit Klassifikation, (3) Implementierung eines einfachen Szenarios mit der Weka API (z.B. Finde optimales k für kNN, automatische Model Selection, ...).
  
WS18/19: 3 Aufgaben, Regression, Klassifikation. Für das 3. gabs ein paar Optionen zur Auswahl, z.B. Neuronale Netze, u.A. auch CNN (deep learning) für Klassifikation von Bildern.
+
WS18/19: 3 Aufgaben: 1. Regression, 2. Klassifikation. Für das 3. gabs ein paar Optionen zur Auswahl, z.B. Neuronale Netze, u.A. auch CNN (deep learning) für Klassifikation von Bildern.
 +
 
 +
Datensätze werden zum Teil vorgegeben, können zum Teil frei gewählt werden.
  
 
== Benötigte/Empfehlenswerte Vorkenntnisse ==
 
== Benötigte/Empfehlenswerte Vorkenntnisse ==
In Java sollte man sattelfest sein.
+
In Java sollte man sattelfest sein. [WS18: Java-Kenntnisse nicht zwingend notwendig]
  
 
Grundsätzlich sollte man selbstständig Daten visualisieren und präsentieren können.
 
Grundsätzlich sollte man selbstständig Daten visualisieren und präsentieren können.
  
WS18/19: Man konnte die Sprachen in denen man was programmiert im Grunde frei wählen. R und/oder Python Kenntnisse sind z.B. recht hilfreich.
+
WS18/19: Man konnte die Sprachen in denen man programmiert im Grunde frei wählen.
 +
R und/oder Python Kenntnisse sind z.B. recht hilfreich, besonders auch für die Visualisierung.
  
 
== Vortrag ==
 
== Vortrag ==

Aktuelle Version vom 16. November 2019, 05:03 Uhr

Daten[Bearbeiten]

Vortragende Musliu, Nysret, Mayer, Rudolf
ECTS 4,5
Abteilung Forschungsbereich Databases and Artificial Intelligence
Sprache English
Links tiss:184702
Zuordnungen
Master Data Science Pflichtmodul MLS/FD - Machine Learning and Statistics - Foundations
Master Logic and Computation Wahlmodul Knowledge Representation and Artificial Intelligence
E066933 Wahlmodul Knowledge Engineering
Master Software Engineering & Internet Computing Wahlmodul Algorithmik

Mattermost: Channel "machine-learning" Team invite & account creation link Mattermost-Infos Mattermost: Channel "machine-learning" Team invite & account creation link Mattermost-Infos

Inhalt[Bearbeiten]

kNN, decision trees, bayesian networks, random forests, SVM, WEKA API

Ablauf[Bearbeiten]

2 Übungsaufgaben in 3er Gruppen: kleinere Beispiele in WEKA Programmieren

Schriftliche Prüfung am Ende

WS 2015: drei Übungsaufgaben; (1) Regression an selbstgewählten Datensets mit verschiedenen Regressions-Algorithmen, (2) das gleiche mit Klassifikation, (3) Implementierung eines einfachen Szenarios mit der Weka API (z.B. Finde optimales k für kNN, automatische Model Selection, ...).

WS18/19: 3 Aufgaben: 1. Regression, 2. Klassifikation. Für das 3. gabs ein paar Optionen zur Auswahl, z.B. Neuronale Netze, u.A. auch CNN (deep learning) für Klassifikation von Bildern.

Datensätze werden zum Teil vorgegeben, können zum Teil frei gewählt werden.

Benötigte/Empfehlenswerte Vorkenntnisse[Bearbeiten]

In Java sollte man sattelfest sein. [WS18: Java-Kenntnisse nicht zwingend notwendig]

Grundsätzlich sollte man selbstständig Daten visualisieren und präsentieren können.

WS18/19: Man konnte die Sprachen in denen man programmiert im Grunde frei wählen. R und/oder Python Kenntnisse sind z.B. recht hilfreich, besonders auch für die Visualisierung.

Vortrag[Bearbeiten]

in Englisch

Mayer, Rudolf: guter Vortrag mit vielen Beispielen, trotzdem recht langweilig und oberflächlich

Musliu, Nysret: schlechter Vortragsstil, eher einschläfernd, hat keine eigenen Folien

Übungen[Bearbeiten]

Mit einer guten Gruppe leicht schaffbar, je nach dem welches Thema man wählt

Die Punktevergabe (besonders beim zweiten Bsp.) war allerdings nicht wirklich nachvollziehbar. Man hat im TUWEL seine Punkte eingetragen bekommen und das wars. Allgemein hab ich das Gefühl eine ansprechende Dokumentation ist ihnen wichtiger als die Arbeit selbst.

Prüfung, Benotung[Bearbeiten]

Invest some time in looking at old exams. Try to find some of the true/false questions and make sure you know the most current ones.

Also see that you know how to calculate the basic examples using e.g. Naive Bayes, etc. I think there's always one of those in each exam.

Dauer der Zeugnisausstellung[Bearbeiten]

WS10: etwas mehr als 5 Wochen
SS13: Prüfung 26.06., Zeugnis 29.07.
WS18: Prüfung 18.10.19, Zeugnis 14.11.19

Benotung der Übungen[Bearbeiten]

WS18: Hat für jede Übung durchschnittlich 2 Monate gebraucht

Zeitaufwand[Bearbeiten]

noch offen

Unterlagen[Bearbeiten]

Folien im TUWEL

imho sehr gute Erklärung der Classifiers unter:

http://chem-eng.utoronto.ca/~datamining/dmc/data_mining_map.htm

Und zusätzliche Vorlesungen:

https://class.coursera.org/ml-003/lecture

Tipps[Bearbeiten]

noch offen

Verbesserungsvorschläge / Kritik[Bearbeiten]

noch offen

Wikipedia-Links[Bearbeiten]