TU Wien:Einführung in Machine Learning VU (Penz)

Aus VoWi
Zur Navigation springen Zur Suche springen

Daten[Bearbeiten | Quelltext bearbeiten]

Vortragende Sabine AndergassenTamara DrucksThomas GärtnerClemens HeitzingerPatrick IndriFabian JoglSagar MalhotraNysret MusliuDavid PenzMaximilian ThiessenPascal Welke
ECTS 6,0
Alias Introduction to Machine Learning (en)
Letzte Abhaltung 2023W
Sprache English
Mattermost einfuehrung-in-machine-learningRegisterMattermost-Infos
Links tiss:194025
Zuordnungen
Bachelorstudium Informatik Modul Einführung in Machine Learning (Breite Wahl)


Inhalt[Bearbeiten | Quelltext bearbeiten]

noch offen, bitte nicht von TISS/u:find oder Homepage kopieren, sondern aus Studierendensicht beschreiben.

Ablauf[Bearbeiten | Quelltext bearbeiten]

noch offen

Benötigte/Empfehlenswerte VorkenntnisseA[Bearbeiten | Quelltext bearbeiten]

ADM, Analysis & Statistik sollte man abgeschlossen haben, sie geben ein Math-Intro, das aber maximal eine grobe Wiederholung für Leute ist die sich eh schon auskennen, weil im Prinzip nur Formeln präsentiert werden.

Vortrag[Bearbeiten | Quelltext bearbeiten]

2023W:

- Einmal wöchentlich, zusätzlich gibt es Videos mit Vorkenntnissen die man schauen soll bevor man zur Vorlesung geht.

Die Vorlesung ist inhaltlich eigentlich völlig unnötig und dass sie nicht aufgezeichnet wird "weil sie sich wünschen dass Leute hinkommen" zeigt das ganz schön.

- In addition to what was mentioned above, the experience was terrible. Outdated subjects combined with ineffective teaching methodologies, along with poorly designed assignments, made the semester a perfect disaster.

I wouldn't recommend anyone to take this course unless they want to develop a strong dislike for machine learning.

Übungen[Bearbeiten | Quelltext bearbeiten]

2023W: Schlecht. Die Hidden Testcases haben teilweise ohne irgendeinen Anhaltspunkt nicht funktioniert und häufig bekam man beim Ausführen nicht mal Feedback, und wenn dann teilweise nach mehreren Stunden. Als bei der dritten Aufgabe das Feedback über die Weihnachtsferien komplett ausfiel, kam erstmal zwei Wochen keine Reaktion der LVA-Leitung, sodass man dann im maximalen Stress versuchte, die Aufgabe irgendwie fertig zu bekommen, da die Deadline der Mittwoch nach Ende der Weihnachtsferien war. Dann am Dienstag ein TUWEL-Post "Aufgrund von mehrfachen Anfragen verschieben wir die Deadline" war einfach nur ein schlechter Scherz. Das Testsystem von Jupyter war außerdem permanent down, der LVA-Leiter musste es selbst jedes Mal neustarten um ein neues Feeback zu generieren. Anstatt dann einfach die Hidden Tests oder Ähnliches zu veröffentlichen waren wir also einfach gezwungen zu warten, bis mal wieder Feedback zu der Aufgabe kam. Ein konkreter Test hat dann außerdem random funktioniert oder nicht, was auch eine Freude war.

Das Projekt war auch frustrierend. Wenn man alle Inhalte aus der LVA angewendet hat, Daten interpoliert hat, Dimensionality Reduction gemacht hat, mehrere Models trainiert und hyperparameter getuned hat, kam maximal "gut" raus, was dem Aufwand definitiv nicht angemessen war. Die Lösung waren dann genau die "Don'ts" die man in der LVA gelernt hat. Komplett agnostisch an die Daten rangehen, random columns deleten und dann ein Model maximal overfitten - das hat dann plötzlich 99% accuracy gebracht. Es war echt ärgerlich.

Um eine positive Sache zu sagen: Man lernt tatsächlich was. Ich habe jetzt den Eindruck die Inhalte in Summe verstanden zu haben, auch wenn der Weg dahin deutlich frustrierender war als er sein müsste

Prüfung, Benotung[Bearbeiten | Quelltext bearbeiten]

noch offen

Dauer der Zeugnisausstellung[Bearbeiten | Quelltext bearbeiten]

noch offen

Zeitaufwand[Bearbeiten | Quelltext bearbeiten]

noch offen

Unterlagen[Bearbeiten | Quelltext bearbeiten]

noch offen

Tipps[Bearbeiten | Quelltext bearbeiten]

noch offen

Highlights / Lob[Bearbeiten | Quelltext bearbeiten]

noch offen

Verbesserungsvorschläge / Kritik[Bearbeiten | Quelltext bearbeiten]

noch offen


Materialien

Diese Seite hat noch keine Anhänge, du kannst aber neue hinzufügen.