TU Wien:Information Retrieval VU (Rauber)

Aus VoWi
Wechseln zu: Navigation, Suche
Diese LVA wird nicht mehr von dieser Person angeboten, ist ausgelaufen, oder läuft aus und befindet sich daher nur noch zu historischen Zwecken im VoWi. Eventuell findest du über dieser Meldung noch andere Vortragende, oder Links für dieselbe LVA.


Daten[Bearbeiten]

Inhalt[Bearbeiten]

  • Textretrieval (Indizierung, Retrieval-Modelle, Web-Suche)
  • Music-Retrieval (Merkmalsextraktion, Anwendungen von MR)
  • Information Extraction mit Anwendungen (Ontology Learning, Text Summarization, Question Answering)
  • Evaluierung

Ablauf[Bearbeiten]

Es gibt etwa 6 Block-Vorlesungen zu je 2 Stunden. Diese sind ziemlich gleichmäßig über das Semester verteilt. Parallel dazu gibt es 4 Übungsbeispiele. Die Übung kann alleine oder in 2er Gruppen absolviert werden.

Benötigte/Empfehlenswerte Vorkenntnisse[Bearbeiten]

  • benötigt: keine besonderen (abgesehen von allgemeinen Programmierkenntnissen in Java)
  • hilfreich: Neural Computation, Data Mining, Erfahrung mit Softwareprojekten

Vortrag[Bearbeiten]

Die Themen werden von verschiedenen Vortragenden behandelt:

  • Textretrieval: Wolfdieter Merkl: Locker und gut verständlich mit hilfreichen Folien
  • Music Retrieval: Andreas Rauber, Lidy Thomas: angenehm, die Folien enthalten aber etwas zu viele Bilder und zu wenig erklärenden Text
  • Information Extraction: Katharina Kaiser: gut strukturiert mit angenehm zu lesenden Folien

Anmerkung von mick:

  • Vorträge sind in Englisch, bei einem wars mehr "Deutsch-Englisch". Zwar angenehmer Vortragsstil, aber die schlechte Aussprache

zwingt zum anstrengenden Zuhören.

Anmerkung von kuki:

  • Vorträge waren eher uninteressiert und uninteressant vorgetragen. Man ist nachher deswegen ohnehin auf Eigenstudium angewiesen. Bei den Voträgen wurde teilweise bei sehr trivialen Themen schmerzhaft und lange ins Detail gegangen während dann aber gleichzeitig die relevanten schweren Themen nur überflogen wurden und nicht ausreichend erklärt wurden.
  • Gut waren hier einzig die Music Retrieval - Vorträge.

Übungen[Bearbeiten]

  • Im ersten Beispiel soll ein Text Indexer geschrieben werden.
  • im zweiten Beispiel wird aufbauend auf dem Indexer aus Beispiel 1 ein Retrieval System entwickelt.
  • im dritten Beispiel wird das Retrieval System um ein paar statistische Auswertungen erweitert. Dann wird das Programm benutzt um Musik-Retrieval zu betreiben.
  • im letzten Beispiel wird GATE benutzt um aus 120 Textdateien über Sport Daten zu extrahieren.

Anmerkung von mick:

  • im SS 2010 wurden die Übungen nicht rechtzeitig vor dem Prüfungstermin beurteilt.
  • Fragen zur Übung wurden per E-mail nicht akzeptiert, sondern man möge das Tuwel-Forum benutzen. Teilweise wurde dort erst Tage nach der Deadline geantwortet.
  • Teilweise fehlerhafte(!), bereitgestellte Dateien, die für die Lösung des Übungsbsp. verwendet werden mußten
  • Folien, abhängig davon für welches Übungsbsp man sich entscheidet zu lösen, enthalten unzureichende Informationen. -> Recherchieren

-> erhöhter Zeitaufwand

Anmerkungen zu SS2011:

  • Übungen wurden auch nicht vor dem Prüfungstermin korrigiert. Man muss aber auf jedes Beispiel positiv sein.
  • Laut Übungsleitung sollte Bsp. 1 & 2 noch vor der Prüfung korrigiert werden (sehr großzügig). Dies geschah aber einfach nicht ohne jegliches Kommentar der Übungsleitung.
  • Immer noch fehlerhafte Daten und Software mit der man arbeiten muss. Anscheinend lernt man dort aus Fehlern nicht oder das gehört zur Übung selbst.
  • Alles in allem leider die am schlechtesten Organisierte Übung die ich je besucht habe.

Anmerkungen zu SS2013:

  • Übungen wurden NICHT, und zwar TROTZ ZUSÄTZLICHER ANKÜNDIGUNG DAVOR, vor Prüfungstermin korrigiert aber man muss trotzdem nach wie vor auf jedes Beispiel positiv sein.
  • Zu Bsp. 1, siehe oben, war 2013 genauso.
  • Ungenaue Angaben in fehlerbehaftetem Englisch. Wenn man dann aufgrund der schlechten Angaben auf ein Beispiel negativ ist erfährt man das erst bei der Benotung 3 Monate später im Sommer - Pech gehabt.
  • War für mich und meinen Kollegen die schlechteste Übung, die wir je auf der TU besucht haben und wir waren beide absolut enttäuscht von der Qualität der Lehrveranstaltung . Einzig der Musik-Teil am Ende war ok. Wir haben dann aufgrund einer einzelnen schlechten Benotung die erst nach Monaten kam eine negative Beurteilung erhalten. Wir waren sonst überall nahe an der Maximalpunktezahl. Wir haben beschlossen trotz dem enormen Zeitaufwand den wir in die Lehrveranstaltung gesteckt haben den Kurs nicht zu wiederholen. War also verschwendete Zeit für uns. Die LVA würde ich deshalb in dieser Form niemandem empfehlen - die Evaluierungsergebnisse für den Kurs im TISS waren auch entsprechend schlecht : zur hälfte haben die Stundenten negative Noten vergeben (5).

Anmerkungen zu SS2014:

  • Organisatorische Verbesserungen bei den Übungen im Vergleich zum Vorjahr: Aufgabenstellungen der Beispiele wurden etwas umgeändert und das Übungsbeispiel zu Information Extraction (GATE) wurde zu einem (ungefähr 2 stündigen) Tutorium mit Anwesenheitspflicht umgewandelt, wo man gemeinsam mit dem Vortragenden in GATE einige Funktionen durchgeht. (Ohne Bewertung, aktive Mitarbeit ist ausreichend)
  • Die Lösungen der Übungsbeispiele mussten diesmal nicht nur hoch geladen, sondern auch in einem Abgabegespräch präsentiert werden, in welchem man dann auch gleich die Bewertung erhalten hat. (relativ streng bei der Bewertung, besonders bei Beispiel 1, jedoch nur bei der Bewertung der Implementation, welche 50% der Gesamtpunkte des Übungsbeispiels entsprach. Die restlichen 50% bekam man für den erstellten Report und die Präsentation (im Vergleich zur Implementation sehr einfach die Punkte zu erreichen)). Mit der Ausnahme von Übungsbeispiel 3 (Musik Retrieval), welches nur online abgegeben werden musste und fast eins zu eins dem Beispiel von SS2013 entsprach. (Aber auch bevor der Prüfung bewertet wurde)
  • Übungsangaben haben sich generell verbessert.
  • Beispiel 2 ist praktischer gestaltet als im Vorjahr, da man die bekannte open source library Lucene für indexing und retrieval verwendet.
  • Generell ist der Aufwand der Übung im Vergleich zum SS2013 etwas zurück gegangen, war aber insgesamt den 4.5 ECTS angemessen (Beispiel 3 ist weggefallen, dafür Beispiel 1 und 2 etwas komplexer geworden)

Prüfung, Benotung[Bearbeiten]

Es gibt zwei Tests, die jeweils eine Stunde dauern. Im SS 2012 gab es fuer den zweiten Test 7 Fragen, die Zeit fuer die Beantwortung ist ausreichend.

Der Prüfungsordner aus den Jahren 2007/2008 ist nicht mehr aktuell. Fragen sind teilweise detailliert (zu einzelnen Folien, e.g. MPEG7-Features), teilweise auf Verständnis prüfend.

Abschlusstest 2013 hat sehr nach Detailwissen gefragt.

Letzter Antritt 2013 komplett neue Fragen, noch mehr Detailwissen (Probability Formeln), nie wieder so viel lernen für eine 5.


Antritt im SS2015: Ich muss meinen Vorpostern widersprechen. Die Fragen sind weder besonders schwer noch in irgendeiner Form "gemein" gestellt. Sie sind aber im Vergleich zu anderen Prüfungen nur zu beantworten, wenn man die Konzepte und denk Stoff dazu verstanden hat. Man kann also bereits gesammeltes Vorwissen aus anderen LVAs nicht verwenden (Wie z.B. bei ASE), was eventuell unangenehm sein kann. Eher ungewont ist, dass man auf den Test lediglich "9 Punkte" erreichen kann und jede Frage meist nur einen Punkt wert ist. Es wird aber trotzdem (erkläre 5 Beispiele für XY) viel Stoff für den einen Punkt gefragt.

Zeitaufwand[Bearbeiten]

eher hoch, aber akzeptabel

Anmerkung von mick: Man darf die Übung auch alleine machen, was aber nicht zu empfehlen ist, da der Zeitaufwand sehr hoch wäre.

Unterlagen[Bearbeiten]

Tipps[Bearbeiten]

  • Wie bei jeder Gruppenarbeit: Arbeitet wenn möglich mit jemandem zusammen, den ihr kennt und der verlässlich ist
  • So früh wie möglich mit dem 2. Beispiel anfangen. Der Aufwand kann leicht falsch eingeschätzt werden, weil man im Voraus nie weiß, wie gut die Algorithmen funktionieren, die man sich überlegt hat.
  • In die Vorlesung zu Music Retrieval gehen: Gerade bei diesem Thema ist lernen nach den Folien eher mühsam.
  • Für den Text Retrieval, sowie Web IR Teil zusätzlich zu den Folien das IR Buch zum Verstehen verwenden, da es um einiges ausführlicher und besser erklärt als die Folien. (wird btw auch von der LVA Leitung empfohlen)

Verbesserungsvorschläge / Kritik[Bearbeiten]

noch offen