TU Wien:Technische Grundlagen der Informatik VU (Kastner)/Kapitel Informationstheorie
Zur Navigation springen
Zur Suche springen
- 01 Zahlendarstellung
- 02 Numerik
- 03 Codierung
- 04 Informationstheorie
- 05 Boolesche Algebra
- 06 KV-Diagramme und BDD
- 07 Moore- & Mealy-AutomatenTGI+GDS
- 08 Digitalschaltungen, KominatorikTGI
- 09 Sequentielle Logik
- 10 Speicher
- 14 Micro16
- 15 Befehlssatz
- 16 Pipelining
- 17 Speichermanagement
- 18 Chipsatz
- 19 Multi-Core
- 20 Netzwerke
- mathematische Theorie aus Wahrscheinlichkeitstheorie und Statistik
- geht auf Claude Shannon zurück
- Information: Informationsgehalt eines Zeichens: minimale Anzahl von Bits zur Darstellung
- Entropie: mittlerer Informationsgehalt
- je ungleichförmiger eine Nachricht, desto höher die Entropie
Inhalt[Bearbeiten | Quelltext bearbeiten]
- Quelle, Medium, Senke
- analoge / diskrete Signale
- Syntax, Semantik, Metasprache
- Wort, Code, Codewort
- Bsp. Morse-Code-Baum
- Würfelwahrscheinlichkeitsrechnung
- Informationstheorie nach Shannon
- Der Huffman-Code