Uni Wien:Sprachverarbeitung in der Medizin VU (Buchberger)

Aus VoWi
Zur Navigation springen Zur Suche springen

Daten[Bearbeiten | Quelltext bearbeiten]

Vortragende Ernst Buchberger
ECTS 3
Sprache Deutsch
Links ufind:050010/2018W , Homepage



Inhalt[Bearbeiten | Quelltext bearbeiten]

Ziele[Bearbeiten | Quelltext bearbeiten]

Es sollen Grundlagen der automatischen Sprachverarbeitung mit ihren medizinischen Anwendungen ausführlich dargestellt werden.

zit. nach Studienplan

Themen[Bearbeiten | Quelltext bearbeiten]

Es geht um das Problemfeld der automatischen Sprachverarbeitung, oder anders ausgedrückt: Wie kann man einem Computer beibringen, sich annährend so zu verhalten, als ob er Sprache verstehen könnte. Durch statistische oder regelbasierte Algorithmik lassen sich die Wortarten in Sätzen bestimmen. Durch Final State Transducern kann man zum Beispiel aus Singular Plurar nach den Regeln der Grammatik herleiten. All diese Dinge sind die Basis für Textmanipulierende (Übersetzungen), Textgenerierende (z.B. Autom. Wetterbericht) und Textanalysierende(Informationsextraktion) Systeme.

  • Linguistische Grundlagen
    • Phonetik, Phonologie, Morphologie, Syntax, Sematnik, Pragmatik
    • Ambiguitäten (auf verschiedenen Ebenen und auf verschiedene Arten)
    • Konstituentenstruktur (Syntaktische Funktionen)


  • Formale Sprachen und Grammatiken
    • Chomsky-Hierarchie (Typ0 bis Typ3-Grammatiken)
    • Endliche Automaten (geeignet für reguläre Sprachen (Typ3-Grammatiken))
      • Nichtdeterministische und Deterministische endliche Automaten
    • Reguläre Ausdrücke


  • Final State Transducers (FST)
    • lexikalische, Intermediate und Oberflächen-Ebene (e-Insertion, y_to_ies,...)
    • Kaskadierung und Komposition von FSTs


  • Markov-Modelle
    • Bayes'sches Theorem, bedingte Wahrscheinlichkeiten
    • Buchstabenhäufigkeiten und POS-Tagging (Part-of-Speech-Tagging)
    • Hidden-Markov-Models
      • Wahrscheinlichkeit einer bestimmten Emmisionssequenz
      • Wahrscheinlichste Zustandsfolge, die die beobachtete Sequenz generiert


  • Parsing
    • Top-Down-Parsing mit Backup-Stack
    • Bottom-Up-Parsing (aktive/inaktive Kanten)
    • Mixed-Mode-Parsing / Earley-Algorithmus



Ablauf[Bearbeiten | Quelltext bearbeiten]

Der Inhalt, der in einer Einheit vorgetragen wird, wird in Form von Übungsaufgaben plastisch gemacht, die bis zur nächsten Woche zu lösen und per E-Mail an Prof. Buchberger zu schicken sind. Hin und wieder kommt es vor, dass aufgrund Eingehen auf die Fehler und Verständnissschwierigkeiten der Studenten der Inhalt für das nächste Übungsblatt relativ zügig präsentiert wird, was beim Lösen des darauffolgenden Übungsblattes Probleme bereiten könnte, die aber dann in der nächsten Einheit wieder geklärt werden, und so fort :)

Vorkenntnisse[Bearbeiten | Quelltext bearbeiten]

Benötigt[Bearbeiten | Quelltext bearbeiten]

  • keine

Empfehlenswert[Bearbeiten | Quelltext bearbeiten]

  • Ein bisschen ein Verständnis von Algorithmen und Beschreibungsarten von Algorithmen, aber es ist auch so zu packen, da Prof. Buchberger relativ praxis-&beispielorientiert vorträgt, sodass man die Grundprinzipien der Algorithmen leicht versteht.

Vortrag[Bearbeiten | Quelltext bearbeiten]

  • Die ersten beiden Einheiten sind etwas langweilig, aber danach war es für mich wirklich interessant und wenn man aufpasst, hat man beim Lösen der Übungsaufgaben auch keine Probleme. Es werden in der VU immer Beispiele zu den vorgestellten Algorithmen, Methoden und Prinzipien vorgestellt, sodass man verstehen kann, worum es geht.
  • Hin und wieder ist das Tempo, dass Prof. Buchberger an den Tag legt, für manche Studenten etwas zu schnell, für mich war es aber fast immer in Ordnung.
  • Prof. Buchberger bemüht sich, die Übungsabgaben jedes Einzelnen anzusehen und in der VU auf Fehler, Verständnissschwierigkeiten einzugehen. Ich glaube er ist der einzige, der die Namen all seiner regelmäßig teilnehmenden Hörer kennt.


Prüfung, Benotung[Bearbeiten | Quelltext bearbeiten]

Für eine positive Noten sollte man 40%(!) der Prüfungspunkte haben und die Übungsaufgaben alle zumindest abgegeben und halbwegs richtig gelöst haben. Also relativ fair.

  • Modus: 4 Beispiele (AFAIK), 3 ähnlich der Übungsbeispiele, 1 Theoriefrage
  • Hilfsmittel: Folien, Taschenrechner, gelöste Übungsblätter
  • Zeit: ca. 2 Stunden

Musterbeispiele[Bearbeiten | Quelltext bearbeiten]

  • Top-Down-Parsing mit Backup-Stack
  • POS-Tagging "Press space bar"
  • Endlichen Automaten für eine formale Sprache zeichnen (wobei eine Sprache keine reguläre Sprache war, und damit nicht als endlicher Automat darstellbar)
  • Anwendungsbeispiele und Methoden von Sprachverarbeitung

Übungs-Teil[Bearbeiten | Quelltext bearbeiten]

  • Es besteht Anwesenheitspflicht in der VU. Wenn man 1-2x fehlt, ist das aber nicht tragisch (Vorher eventuell benachrichtigen)
  • Man sollte zumindest jedes Übungsblatt durcharbeiten und abgeben, auch wenn die Lösungen falsch sind.

Zeitaufwand[Bearbeiten | Quelltext bearbeiten]

  • Das Lösen der Übungsbeispiele nimmt sicher jeweils 2-3 Stunden (oder mehr) in Anspruch. Für die Prüfung braucht man, wenn man ständig mitgelernt hat und die Übungsbeispiele grundsätzlich verstanden hat, nicht mehr lernen (da man die Folien + Übungsblätter bei der Prüfung verwenden darf).

Unterlagen[Bearbeiten | Quelltext bearbeiten]

  • Folien, die man aus rechtlichen Gründen nur in der VU ausgeteilt bekommt
  • Übungsblätter auf der Homepage

Materialien

Diese Seite hat noch keine Anhänge, du kannst aber neue hinzufügen.