TU Wien:Einführung in die Künstliche Intelligenz VU (Eiter, Tompits)/FAQ

Aus VoWi
Zur Navigation springen Zur Suche springen

Ein kleines und kurzes FAQ zu inhaltlichen Fragestellungen.

Was ist der Unterschied zwischen Baum- und Graphensuche bzw. wird Baumsuche nur auf Bäumen und Graphensuche nur auf Graphen angewandt?[Bearbeiten | Quelltext bearbeiten]

Die Bezeichnungen Baum- und Graphensuche beziehen sich NICHT auf die Probleminstanz, sondern beschreiben die Strategie, wie der Algorithmus sucht. Daher kann, auch wenn die Probleminstanz ein allgemeiner Graph ist, Baumsuche verwendet werden.

Weitere Informationen:

In der LVA "Algorithmen und Datenstrukturen" wird gelehrt, dass BFS und DFS eine worst-case Laufzeitkomplexität von O(|V| + |E|) und eine Speicherkomplexität von O(|V|). Warum ist diese nun plötzlich O(b^d) bzw. O(bd)?[Bearbeiten | Quelltext bearbeiten]

In Algorithmen und Datenstrukturen werden BFS und DFS als Traversierungsalgorithmen angesehen, wohin gegen diese in der küntlichen Intelligenz Suchalgorithmen sind. Hierbei hat man es in der KI oft mit nicht endlichen Graphen zu tun, weshalb die Komplexität durch b und d ausgedrückt wird.

Weitere Informationen:

Warum ist der A*-Algorithmus, wenn dieser als Baumsuche implementiert wird, und die Heuristik nicht konsistent ist, nicht optimal?[Bearbeiten | Quelltext bearbeiten]

Der Algorithmus ist in diesem Fall nicht optimal, da bereits expandierte/besuchte Knoten nicht mehr berücksichtigt werden.

Warum wird zur Berechnung der Entropie eigentlich die Logarithmusfunktion verwendet?[Bearbeiten | Quelltext bearbeiten]

Eine sehr gute Erklärung findet sich unter folgendem Link: https://towardsdatascience.com/entropy-is-a-measure-of-uncertainty-e2c000301c2c

Zählt der Input-Layer eines neuronalen Netzwerks als Layer bzw. wie bestimme ich die Anzahl der Layer eines gegebenen Netzweks?[Bearbeiten | Quelltext bearbeiten]

Dies kommt darauf an - manche zählen den Input-Layer mit. In [1] wird der Input-Layer NICHT mitgezählt. Die Anzahl der Layer ergibt sich aufgrund es längsten Pfades (Anzahl an Kanten mit Gewichten) von Input zu Output.

Weitere Informationen: https://cs231n.github.io/neural-networks-1/#neural-network-architectures

Warum gibt es verschiedene Formen der Perzeptronlernregel (Version mit Ableitung und Version ohne Ableitung)?[Bearbeiten | Quelltext bearbeiten]

Ein Erklärung findet sich hier: https://stats.stackexchange.com/a/387703.

Die Version der Lernregel mit Ableitung ist lt. englischer Wikipedia scheinbar auch unter Delta-Regel bekannt, jedoch fehlt es dem Artikel mit Stand 14.11.2020 an zuverlässigen Quellen; siehe: https://en.wikipedia.org/wiki/Delta_rule.


[1] Stuart Russell and Peter Norvig. 2020. Artificial Intelligence: A Modern Approach (4th. ed.). Pearson Educatin Inc., USA.