MU Wien:Einführung in die Neuroinformatik VU (Dorffner)
Daten[Bearbeiten | Quelltext bearbeiten]
Vortragende | Georg Dorffner |
---|---|
ECTS | 3 |
Links | campus:840.066 , Homepage |
Master Medizinische Informatik | |
Master Medizinische Informatik |
Inhalt[Bearbeiten | Quelltext bearbeiten]
Ziele[Bearbeiten | Quelltext bearbeiten]
Es soll der Einsatz informatischer Methoden zur Analyse und Simulation neurobiologischer Prozesse auf zellulärer und systemischer Ebene vermittelt werden, mit dem Ziel, einerseits ein besseres Verständnis neurophysiologischer Vorgänge zu gewinnen, andererseits zur Entwicklung von Verfahren der Neurodiagnostik beizutragen, wozu auch Methoden zur Analyse signal- oder bildgebender Ansätze in den kognitiven Neurowissenschaften gehören.
Themen[Bearbeiten | Quelltext bearbeiten]
Es geht in dieser LV weniger um die statistischen Aspekte von Neuronalen Netzen (also nicht darum z.B. neuronale Netze zur Klassifikations- oder Regressionsanalysen einzusetzen) sondern tatsächlich darum, welchen Wert neuronale Netze für die Hirnforschung haben können. Dazu geht der Fokus auf McCulloch-&Pitts-Modelle, wobei SpikeRepsonse-Modelle als auch Compartmental-Modelle kurz angesprochen werden:
- A: Natürliche vs. Künstliche Neuronen
- Modellüberblick: McCulloch&Pitts-, SpikeResponse- und Compartmental-Modelle
- B: McCulloch-&Pitts-Modelle
- B1: (Mehrebenen)Perceptrons
- Hebb'sches Lernen
- Perceptrons
- Bias-Units
- Transferfunktionen
- Delta-Regel
- Linearitätsbeschränkung
- Mehrebenen-Percpetrons (MLP) - Hidden Layers
- Backpropagation / Biologisch Plausibel?
- RadialBaseFunctionNetwork (RBFN)
- B2: Verteilte Repräsentationen
- Codierung / Repräsentation / Features
- Hidden Units als Interne Repräsentation
- Grenzen der Euklidischen Darstellung (Coarse Coding)
- B3: Competitive Learning - Instar-Regel
- Self-Organizing-Maps (SOM)
- Adaptive-Resonance-Theorie (ART)
- B4: Rückgekoppelte Netze
- Neuronale Verarbeitungsmechanismen (Exzitatorisch, Inhibitorisch, Rekurrent)
- Rekurrente Perceptrons
- Hopfield-Netz
- Stabilität: Lyapunov-Funktion / Energiefunktion
- Anwendungen des Hopfield-Netzes
- Dynamische Systeme (Attraktoren, Zyklen, etc.)
- B1: (Mehrebenen)Perceptrons
- C: Modelle des Lernens
- Long-Term-Potentiation / Depression
- Fehlergetriebenes Lernen
- Statistik in Kognitiver Verarbeitung
- Rasches Lernen
- Catastrophic Interference
- Lösungen zu Catastrophic Interference
- D: Informatik in der Neurowissenschaft (nicht prüfungsrelevant)
- Mustererkennung bei EEG-Beurteilung (Schlafphasen)
- LORETA: Methode zur Quellenlokalisation mit Hilfe des EEG
- Brain-Computer-Interface
Ablauf[Bearbeiten | Quelltext bearbeiten]
- Die LV fand geblockt im November statt (3 Termine). Dabei trug Prof. Dorffner den gesamten Stoff vor.
- Bis Anfang Jänner war dann ein Übungsblatt (4 Beispiele + 1 Optionales) mit Hilfe von verschiedenen (schlecht bedienbaren) Programmen zu lösen, wo die Funktionsweisen der verschiedenen im Vortrag kennengelernten Modelle verinnerlicht werden sollten.
Vorkenntnisse[Bearbeiten | Quelltext bearbeiten]
Benötigt[Bearbeiten | Quelltext bearbeiten]
- keine
Empfehlenswert[Bearbeiten | Quelltext bearbeiten]
- Geduld mit dem Umgang der Programme, da sie leider schlecht dokumentiert und, wie einige Kollegen sagten, unter Missachtung aller Regeln der Usabiltity programmiert wurden. Mit einiger Einarbeitung versteht man aber doch, wie das ganze funktionieren soll.
- Edit 2011: Auch sollte man vielleicht anmerken, dass die Programme nicht unter Windows 64-Bit laufen. Für die Leute, die es in der letzten Minute immer machen, ein guter Rat. Eine VM installieren kann dauern... (die Programme laufen unter Linux mit WINE)
- Alle Videos die zur Verfügung gestellt werden während dem Semester ansehen.
Vortrag[Bearbeiten | Quelltext bearbeiten]
- Prinzipiell in Ordnung, wobei eine 5-stündige Block-LV einen schon manchmal überfordern kann - vor allem, weil man dann mit den verschiedenen Modellen etwas durcheinander kommt.
- Manch einer wird den Anspruch der Neuroinformatiker, hier tatsächlich von Ähnlichkeiten zu unseren kognitiven Eigenschaften (hier vor allem Lernen) sprechen zu können, absurd finden. Hitzige Gemüter sollten sich deshalb dadurch beruhigen, dass dies ja alles nur Modelle sind, die nur möglicherweise helfen können, die Funktionsweisen in unserem Gehirn besser verstehen zu können. Außerdem sind funktionale Ähnlichkeiten noch kein Garant für echte Ähnlichkeiten. (Ein Papagei scheint auch sprechen zu können, doch sieht sein Innenleben gewiss anders aus als bei uns)
- Ist auf jeden Fall empfehlenswert, auch wenn man ausgeschlafen kommen sollte, um nicht bei den interessanteren Themen einzuschlafen.
Prüfung, Benotung[Bearbeiten | Quelltext bearbeiten]
Es spielen die Ergebnisse der Übungsaufgaben sowie die Prüfung mit in die Note hinein.
- Modus: Freitext-Fragen, die eher auf Verständnis beruhen
- Hilfsmittel: keine
- Zeit: ca. 1,5 Stunden (die man IMHO nicht braucht, weil einem nach einer Stunde sowieso nicht mehr einfällt?)
Übungs-Teil[Bearbeiten | Quelltext bearbeiten]
- Wer die Übungen gewissenhaft gemacht hat, wird auch die Fragen der Prüfung besser verstehen.
- Wer in der Vorlesung aufpasst, wird mit den Übungen (bis auf ein paar Schwierigkeiten mit der Benutzeroberfläche) kein Problem haben.
Zeitaufwand[Bearbeiten | Quelltext bearbeiten]
- Das Lösen der Übungsbeispiele ist relativ aufwändig, obwohl es eigentlich nur 4 Beispiele (+ 1 optionales Zusatzbeispiel) sind. Doch man muss sich zunächst einmal in die Programme einarbeiten und die Auswertungen sind meist auch, obwohl relativ wenig intellektuelle Arbeit, sehr zeitaufwändig. Also würde ich sicherlich 6 Stunden fürs Lösen einplanen. Fürs Lernen der Prüfungen sollen 3-4 Tage reichen, wobei man sich die Formeln nicht unbedingt ansehen muss, es sei denn man versteht so die Funktionsweisen der Modelle besser.
- Für die Prüfung lohnt es sich, nicht nur die Folien sondern auch die Artikel, die auf der Website verlinkt sind und als "zum verlangten Stoff" gehörend bezeichnet werden, zu studieren.
Unterlagen[Bearbeiten | Quelltext bearbeiten]
- Folien, die man in den VU's ausgedruckt bekommt (und die man meiner Meinung nur versteht, wenn man in der Vorlesung war - Formeln, Stichwörter, Schemata zu den Modellen)
- Übungsblätter auf der Homepage
- Materialen mit gelösten Übungsaufgaben
- Zusätzliche Literaturempfehlungen auf der Homepage, die auch verlinkt sind (es kann aber sein, dass mit dem Zahn der Zeit ein paar Links ins Leere zeigen und die Dokumente nur durch eine extensive Google-Recherche wiederauffindbar sind...)