TU Wien:Einführung in Machine Learning VU (Penz)
- Einführung in Machine Learning VU (Gärtner) (TU Wien, 0 Materialien)
- Einführung in Machine Learning VU (Penz) (TU Wien, 3 Materialien)
Daten[Bearbeiten | Quelltext bearbeiten]
Vortragende | Sabine Andergassen• Tamara Drucks• Thomas Gärtner• Clemens Heitzinger• Patrick Indri• Fabian Jogl• Sagar Malhotra• Nysret Musliu• David Penz• Christoph Sandrock• Maximilian Thiessen• Pascal Welke |
---|---|
ECTS | 6,0 |
Alias | Introduction to Machine Learning (en) |
Letzte Abhaltung | 2024W |
Sprache | English |
Mattermost | einfuehrung-in-machine-learning • Register • Mattermost-Infos |
Links | tiss:194025 |
Bachelorstudium Informatik | Modul Einführung in Machine Learning (Breite Wahl) |
Bachelorstudium Technische Informatik | Modul Einführung in Machine Learning (Pflichtfach) |
Inhalt[Bearbeiten | Quelltext bearbeiten]
noch offen, bitte nicht von TISS/u:find oder Homepage kopieren, sondern aus Studierendensicht beschreiben.
Ablauf[Bearbeiten | Quelltext bearbeiten]
noch offen
Benötigte/Empfehlenswerte VorkenntnisseA[Bearbeiten | Quelltext bearbeiten]
ADM, Analysis & Statistik sollte man abgeschlossen haben, sie geben ein Math-Intro, das aber maximal eine grobe Wiederholung für Leute ist die sich eh schon auskennen, weil im Prinzip nur Formeln präsentiert werden.
Vortrag[Bearbeiten | Quelltext bearbeiten]
2023W:
- Einmal wöchentlich, zusätzlich gibt es Videos mit Vorkenntnissen die man schauen soll bevor man zur Vorlesung geht.
Die Vorlesung ist inhaltlich eigentlich völlig unnötig und dass sie nicht aufgezeichnet wird "weil sie sich wünschen dass Leute hinkommen" zeigt das ganz schön.
- In addition to what was mentioned above, the experience was terrible. Outdated subjects combined with ineffective teaching methodologies, along with poorly designed assignments, made the semester a perfect disaster.
I wouldn't recommend anyone to take this course unless they want to develop a strong dislike for machine learning.
2024W:
- 1x pro Woche, sehr viele verschiedene Vortragende
- Es waren alle Vortragenden bemüht, den Stoff verständlich zu vermitteln. Schlecht gemacht war meiner Meinung nach keiner der Vorträge.
- Ich bin mir nicht sicher, was mein_e Vorredner_in mit "outdated subjects" meint. Es werden die Grundlagen von Machine Learning gelehrt.
Übungen[Bearbeiten | Quelltext bearbeiten]
2023W: Schlecht. Die Hidden Testcases haben teilweise ohne irgendeinen Anhaltspunkt nicht funktioniert und häufig bekam man beim Ausführen nicht mal Feedback, und wenn dann teilweise nach mehreren Stunden. Als bei der dritten Aufgabe das Feedback über die Weihnachtsferien komplett ausfiel, kam erstmal zwei Wochen keine Reaktion der LVA-Leitung, sodass man dann im maximalen Stress versuchte, die Aufgabe irgendwie fertig zu bekommen, da die Deadline der Mittwoch nach Ende der Weihnachtsferien war. Dann am Dienstag ein TUWEL-Post "Aufgrund von mehrfachen Anfragen verschieben wir die Deadline" war einfach nur ein schlechter Scherz. Das Testsystem von Jupyter war außerdem permanent down, der LVA-Leiter musste es selbst jedes Mal neustarten um ein neues Feeback zu generieren. Anstatt dann einfach die Hidden Tests oder Ähnliches zu veröffentlichen waren wir also einfach gezwungen zu warten, bis mal wieder Feedback zu der Aufgabe kam. Ein konkreter Test hat dann außerdem random funktioniert oder nicht, was auch eine Freude war.
Das Projekt war auch frustrierend. Wenn man alle Inhalte aus der LVA angewendet hat, Daten interpoliert hat, Dimensionality Reduction gemacht hat, mehrere Models trainiert und hyperparameter getuned hat, kam maximal "gut" raus, was dem Aufwand definitiv nicht angemessen war. Die Lösung waren dann genau die "Don'ts" die man in der LVA gelernt hat. Komplett agnostisch an die Daten rangehen, random columns deleten und dann ein Model maximal overfitten - das hat dann plötzlich 99% accuracy gebracht. Es war echt ärgerlich.
Um eine positive Sache zu sagen: Man lernt tatsächlich was. Ich habe jetzt den Eindruck die Inhalte in Summe verstanden zu haben, auch wenn der Weg dahin deutlich frustrierender war als er sein müsste
2024W: Ich hatte keine so schlechten Erfahrungen mit den Übungen. Die Hidden Testcases konnten teils zwar frustrierend sein, allerdings waren die Aufgaben nicht sehr kompliziert gestaltet und man konnte die Testcases jederzeit ausführen. Bei der ersten Aufgabe dauerte es ca. eine halbe Stunde, bis man das Feedback bekam, bei den restlichen 2 Übungen glücklicherweise sehr viel schneller. Das Testsystem war dieses Semester nicht sehr oft down, das hat sich wohl seit letztem Semester verbessert. Der Aufwand pro Übung hat sich gefühlt mit jeder Übung verdoppelt.
Für das Projekt sollte man ein beliebiges ML Model erstellen, mit welchem Rocket League Trickshots klassifiziert werden sollten. Das wurde über Kaggle veranstaltet, wo es zusätzlich ein Leaderboard gab. Das Test Set war in 2 Hälften unterteilt, wobei man bis zur Deadline die Accuracy auf der einen Hälfte sehen konnte, die finale Punkteanzahl aber erst nach der Deadline auf der anderen Hälfte berechnet wurde. Aus diesem Grund war es sehr wichtig, Overfitting zu vermeiden.
Prüfung, Benotung[Bearbeiten | Quelltext bearbeiten]
noch offen
Dauer der Zeugnisausstellung[Bearbeiten | Quelltext bearbeiten]
2024W: 2 Wochen nach der Prüfung waren die Ergebnisse da.
Zeitaufwand[Bearbeiten | Quelltext bearbeiten]
noch offen
Unterlagen[Bearbeiten | Quelltext bearbeiten]
noch offen
Tipps[Bearbeiten | Quelltext bearbeiten]
- Ich persönlich finde JupyterHub sehr schlecht zum Programmieren und Debuggen. Man kann sich stattdessen einfach das Notebook herunterladen und z.B. in VSCode bearbeiten.
- Wenn man bei den Übungen an einem Hidden Test Case gehangen ist, konnte man sich mittels Exception Handling auch mehr Informationen über diesen Hidden Test Case ins Feedback ausgeben lassen. Bin mir aber nicht sicher, wie gerne die LVA Leiter so etwas sehen.
- Es gab im WS2024 Q&A- und Solution Discussion-Einheiten für jede Übung. Diese waren extrem schlecht besucht. Man konnte jedoch alles mögliche zur LVA fragen und hätte bei der geringen Teilnehmerzahl quasi 1:1 Tutoring bekommen können.
Highlights / Lob[Bearbeiten | Quelltext bearbeiten]
- Das Projekt war meiner Meinung nach sehr gut gestaltet. Dadurch konnte man sich ordentlich mit den Machine Learning Frameworks und Libraries beschäftigen, und konnte sehen, wie die Konzepte aus der Vorlesung tatsächlich angewandt werden.
Verbesserungsvorschläge / Kritik[Bearbeiten | Quelltext bearbeiten]
- Der Alttest war eindeutig zu kurz, der diesjährige Test hatte fast den doppelten Umfang davon und war meiner Meinung nach zu lang. Ich hoffe, dass man hier eine gute Balance findet. Den Schwierigkeitsgrad an sich fand ich bei beiden Tests in Ordnung.
- Die Übung wurden im Lauf des Semesters nicht nur deutlich schwieriger (verständlich), sondern auch viel zeitaufwändiger.
- Ich finde es schade, dass Reinforcement Learning dieses Semester (2024W) völlig ausgelassen wurde, da es doch ein sehr relevantes Thema wäre.
- Die Qualität der Folien und Handouts waren sehr unterschiedlich. Manche Vortragende haben die Folien als PDF ohne Zwischenschritte hochgeladen (sehr gut), andere haben als Handout 8 Folien auf eine Seite gegeben (Warum?). Auch hätte ich mir gewünscht, dass manche Foliensätze ein wenig formeller geschrieben wären. Beispielsweise wurde der Gini-Index nie ordentlich definiert, und die Erklärung zum Splitting bei Decision Trees hatte statt dem Word "Split", das Emoji 🤸. Lustig in der Vorlesung, aber beim Lernen daheim irritierend.