Uni Wien:Einführung in die Phonologie und Phonetik VO (Rennison)/Mitschrift

Aus VoWi
Zur Navigation springen Zur Suche springen

Vorlage:Wiki-Mitschrift

Was ist Phonetik und Phonologie?[Bearbeiten | Quelltext bearbeiten]

Die Begriffe kommen vom griechischen phon ("Stimme").

Die Phonetik ist eine Naturwissenschaft, die sich mit messbaren Phänomenen der realen Welt beschäftigt. Die Phonologie ist dagegen eine geisteswissenschaftliche Disziplin.

Die Phonetik ist in drei Subdisziplinen aufgeteilt:

Artikulatorische Phonetik
Eine biologische Disziplin, die sich mit der Anatomie der Sprechorgane beschäftigt und untersucht, was genau die Sprechorgane bei der Sprachproduktion machen.
Akustische Phonetik
kommt vom griechischen akuo (?) ("ich höre"). Sie untersucht die Signale (minimale Änderungen des Luftdrucks), die bei der Sprachproduktion entstehen.
Perzeptorische Phonetik
Diese Teildisziplin befasst sich mit dem Verhältnis zwischen dem Gehörten und der Phonologie. Sie hängt stark mit der Psycholinguistik zusammen. In der perzeptorischen Phonetik werden sogenannte perzeptorische Tests durchgeführt. Beispielsweise spielt man den Probanden Vokale verschiedener Länge vor und untersucht, ab welcher Länge sie einen "Langvokal" wahrnehmen. Die perzeptorische Phonetik wird in dieser VO vernachlässigt.

Artikulatorische Phonetik[Bearbeiten | Quelltext bearbeiten]

Sprechorgane[Bearbeiten | Quelltext bearbeiten]

Welche Sprechorgane gibt es?

Die Lungen
pumpen Luft zu den anderen Sprechorganen hinauf. Die Atmung regelt auch die Lautstärke. Sprache wird fast immer beim Ausatmen produziert. Allerdings ist auch Sprechen beim Einatmen möglich: es handelt sich dabei um sogenannte ingressive Laute, bei denen die Luft von außen in den Mundraum strömt. Diese werden später noch durchgenommen.
Die Stimmritze
im Kehlkopf ist die häufigste Schallquelle beim Sprechen. Die einzigen Laute, die nicht mit Hilfe der Stimmritze produziert werden, sind die sogenannten Clicks. Konsonanten sind im Wesentlichen kleine Unterbrechungen der Stimmhaftigkeit. Der Grundton oder Stimmton wird durch Vibrationen der Stimmlippen erzeugt. Er ist bei Männern wesentlich tiefer als bei Frauen.
Die Zunge
ist das wichtigste Sprechorgan. Viele Sprachen verwenden das gleiche Wort für "Zunge" und "Sprache". Die Zunge besteht aus 4 Teilen: Zungenwurzel, Zungenrücken, Zungenblatt und Zungenspitze. Die Zungenwurzel wird im Deutschen nicht verwendet.
Der weiche Gaumen
(auch Velum) ist für den Nasenraum verantwortlich. Der Nasenraum ist auch ein Sprechorgan, er ist aber inert - er kann also nicht bewegt werden, sondern wird "dazugeschaltet" oder nicht. Am hinteren bzw. unteren Ende des weichen Gaumens befindet sich das sogenannte Zäpfchen.
Der Nasenraum
Bei sogenannten nasalen Lauten kann die Luft nur durch den Nasenraum entweichen. Das Gegenteil von nasal ist oral.
Der harte Gaumen
Das Zungenblatt kann dorthin bewegt werden.
Die Lippen

(Hier fehlen sicher noch einige Sachen!)

Teile der Zunge, weicher Gaumen und Lippen sind kontrolliert bewegbar, die anderen Sprechorgane nicht. Die Artikulatoren, die bewegt werden, heißen aktive Artikulatoren. Zum Beispiel ist bei der Aussprache eines [j] die Zunge der aktive und der harte Gaumen der passive Artikulator.

Keines der Sprechorgane hat sich primär für die Sprache entwickelt. Im Lauf der Evolution hat aber eine Adaptation der Sprechorgane für eine bessere Spracherzeugung stattgefunden.

Konsonanten[Bearbeiten | Quelltext bearbeiten]

Konsonanten kann man anhand von 5 Merkmalen klassifizieren:

  • Schließungsgrad (auch Öffnungsgrad)
  • Artikulationsstelle (engl. place/point of articulation):
  • Stimmhaftigkeit: Konsonanten können stimmlos oder stimmhaft sein. Bei stimmhaften Konsonanten sind die Stimmlippen an der Artikulation beteiligt. Im österreichischen Deutsch gibt es nicht wirklich stimmhafte Konsonanten; man sollte eher von "Halbstimmhaftigkeit" sprechen (das ist aber noch umstritten).
  • Nasalität
  • Lateralität: Konsonanten können zentral oder lateral sein. Bei lateralen Konsonanten strömt die Luft auf beiden Seiten eines "Hindernisses" im Mundraum hinaus, bei zentralen Konsonanten ist das nicht der Fall. Der einzige laterale Konsonant im Deutschen ist der alveolare laterale Approximant [l]. Ein Spezialfall ist das unilaterale l ("Meidlinger l"), bei dem die Stellung der Zunge von vorne betrachtet asymmetrisch ist.

Artikulationsstellen[Bearbeiten | Quelltext bearbeiten]

Auf dem Handout zu den Artikulationsstellen befindet sich eine Skizze aus dem Ladefoged-Buch, die einen sogenannten Sagittalschnitt des menschlichen Kopfes zeigt. Darauf sind 10 Artikulationsstellen eingezeichnet:

  1. bilabial: Bilabiale Laute werden mit beiden Lippen ausgesprochen, zum Beispiel das [b] im Deutschen. Es gibt auch einen bilabialen Trill, der eher selten ist. Der bilabiale Reibelaut [ɸ] kommt im Japanischen vor. Den stimmhaften bilabialen Reibelaut [β] gibt es unter anderem in manchen österreichischen Dialekten. In manchen Sprachen kann der Unterschied zwischen [β] und dem labiodentalen [v] einen Bedeutungsunterschied ausmachen. Im Ewe ist beispielsweise [ɛ̀vɛ̀] das Wort für die Zahl 2 und [ɛ̀βɛ̀] der Name der Sprache. Die bilabiale Affrikata [pβ] ist sehr selten.
  2. labiodental: Labiodentale Laute werden mit den oberen Zähnen und der Unterlippe ausgesprochen. Man kann zum Beispiel ein [f] auf diese Weise aussprechen. Es gibt keine labiodentalen oralen Verschlusslaute. Diese sind auch nicht möglich, da man den Luftstrom zwischen Zähnen und Unterlippe nicht komplett unterbrechen kann.
  3. dental: Gibt es im Deutschen nicht wirklich. Die dentalen Frikative [θ] und [ð] treten zum Beispiel im Englischen, Spanischen und Neugriechischen auf. Man unterscheidet addentale Laute, bei denen die Zunge die Innenseite der Zähne berührt, und interdentale Laute, bei denen die Zunge zwischen den Zähnen ist. Im Deutschen werden dentale Verschlusslaute nicht von alveolaren unterschieden; es gibt allerdings Sprachen, in denen das schon geschieht. Im Malayalam, einer in Indien gesprochenen "Mischsprache" mit dravidischen und indogermanischen Einflüssen, werden zum Beispiel [t̪] (dental), [t] (alveolar) und [ʈ] (retroflex) distinktiv unterschieden.
  4. alveolar: Die Zungenspitze berührt den Zahndamm (eher vorne). Das deutsche <d> und das <s> werden beispielsweise alveolar ausgesprochen.
  5. retroflex: Bei diesen Lauten berührt die Zungenspitze die hintere Seite des Zahndamms. Sie sind eher selten, aber oft in südasiatischen Sprachen wie dem Tamil zu finden.
  6. palato-alveolar (auch als postalveolar oder alveopalatal bezeichnet): Das Zungenblatt berührt den Zahndamm (z.B. beim deutschen <sch>/[ʃ]). Diese Artikulationsstelle tritt nur sehr begrenzt auf: Es gibt sie nur bei Lauten mit einer Reibungskomponente; postalveolare Verschlusslaute unterscheiden sich perzeptorisch nicht von den palatalen.
  7. palatal: (palatum -> harter Gaumen) Diese Artikulationsstelle ist eher selten. Hier wird z.B. das deutsche <j> ("jein", bildet man mit dem Zungenkörper) und das <ch> in ich ausgesprochen. Palatale Verschlusslaute gibt es im Deutschen nicht, dafür aber im Ungarischen (z.B. [ɟerco] "Kerze"). Palatale Nasale treten zum Beispiel im Französischen und Spanischen auf.
  8. velar: Zungenrücken und weicher Gaumen sind an der Artikulation beteiligt. Hier wird das deutsche <k> und das <ch> in ach ([x]) ausgesprochen. In manchen Dialekten gibt es außerdem die Affrikata [kx]. In ostösterreichischen Dialekten werden die velaren Plosive [k] und [g] am Wortanfang unterschieden, [t] und [d] aber nicht. Das liegt daran, dass Wörter mit [k] am Anfang ursprünglich mit [kx] ausgesprochen wurden. Dieses entwickelte sich dann zu [k] und der Unterschied blieb erhalten. In historischen Varianten des Deutschen trat auch der stimmhafte velare Frikativ [ɣ] auf, der inzwischen aber verschwunden ist. Der velare Nasal [ŋ] ist phonologisch interessant, weil er in vielen Sprachen (Deutsch, Englisch, einige westafrikanische Sprachen) zwar vorkommt, aber nie am Wortanfang auftritt.
  9. uvular: Diese Laute werden mit Hilfe des Zäpfchens produziert, z.B. das hintere <r> bei manchen Sprechern des Deutschen oder das <r> im Französischen. In manchen österreichischen Dialekten gibt es die Affrikata [qx], z.B. am Ende des Wortes "Speck". Der Name der in Papua-Neuguinea gesprochenen Sprache Kara wird von ihren Sprechern als [qara] ausgesprochen.
  10. pharyngal (von pharynx = Rachenraum; englisch pharyngeal): Eher selten. Bei diesen Lauten bewegt sich die Zungenwurzel nach hinten. Pharyngale Reibelaute gibt es im Arabischen. Einige Sprachen, die in Kanada gesprochen werden, sollen angeblich pharyngale Verschlusslaute besitzen.
  11. glottal: Der sogenannte Glottisverschluss ("harter Vokaleinsatz" im Deutschen), der durch Verschließen der Stimmritze produziert wird, ist auf dem Handout mit dem Sagittalschnitt nicht eingezeichnet. Er ist per Definition stimmlos. In manchen Sprachen fungiert er als Konsonant, zum Beispiel im Hawaiianischen, wo er vermutlich das [k] ersetzt hat. Das [h] wird manchmal (besonders in der Indogermanistik) als glottaler Reibelaut analysiert, es ist aber aus phonetischer Sicht ein stimmloser Vokal. (Phonologisch gesehen ist es trotzdem ein Konsonant.)
Datei:Sag klein.png
Sagittalschnitte (Crème de Sagittale), meist oral einzunehmen, selten auch nasal.

Die einzelnen Artikulationsstellen werden unterschiedlich häufig gebraucht. Bilabiale, alveolare und velare Laute gibt es in fast allen Sprachen. Palatale Laute sind hingegen eher selten.




Sekundäre und "doppelte" Artikulationen[Bearbeiten | Quelltext bearbeiten]

Bei sekundären Artikulationen erhält ein Laut eine zusätzliche Qualität an einer zweiten Artikulationsstelle. Dabei gibt es folgende Möglichkeiten:

  • Labialisierung: Eine Enge zwischen den Lippen wird gebildet, der Laut erhält eine [u]-Qualität. Wird mit einem hochgestellten  ʷ transkribiert, z.B. [tʷ].
  • Palatalisierung: Der Zungenkörper befindet sich weiter oben und weiter vorne. Der Laut erhält die Qualität eines [j]. Transkription mit hochgestelltem  ʲ, z.B. [tʲ].
  • Labiopalatalisierung: Der Laut erhält eine [y]-Qualität. Transkription mit einem hochgestellten ɥ (kein y!).
  • Velarisierung: Hier wird zusätzlich eine Enge beim Velum gebildet. Transkription mit  ˠ oder einem hochgestellten ɰ. Ein velarisiertes [l] (sogenanntes "dunkles l") gibt es in vielen Sprachen. Es wird mit ɫ transkribiert.
  • Pharyngalisierung: Dabei wird die Zungenwurzel möglichst weit nach hinten bewegt. Der Laut erhält die Qualität eines hinteren [ɑ]. Diese Laute sind sehr selten und kommen zum Beispiel im Arabischen vor. Transkription mit ˁ (umgekehrtes Symbol für den Glottisverschluss).

Die sogenannten Labiovelare werden an zwei Artikulationsstellen gleichzeitig ausgesprochen, wobei man nicht sagen kann, dass eine davon sekundär wäre. Sie sind also die einzigen Konsonanten mit zwei primären Artikulationsstellen. Labiovelare sind [k͡p], [g͡b], [ŋ͡m]; das [w], das z.B. im Englischen vorkommt, ist ein labiovelarer Approximant. Interessanterweise ist das [w] viel verbreiteter als die anderen Labiovelare. Labiovelare und labialisierte Laute sind nicht das Gleiche.

Schließungsgrade[Bearbeiten | Quelltext bearbeiten]

Man unterscheidet drei Schließungsgrade:

  1. Verschlusslaute: Bei einem Verschluss kann zwischen den Artikulatoren überhaupt keine Luft durchkommen. Verschlusslaute kann man an den Artikulationsstellen 1-5 und 6-9 aussprechen. Ob es auch pharyngale Verschlusslaute (Artikulationsstelle 10) gibt, ist umstritten. Orale Verschlusslaute werden häufig auch als Plosive und nasale Verschlusslaute als Nasale bezeichnet. In manchen Sprachen können orale Verschlusslaute nasal geöffnet oder lateral geöffnet sein.
  2. Reibelaute (Frikative): Dabei kann zwischen den Artikulatoren noch Luft durchströmen. Das Geräusch entsteht durch die Reibung zwischen den Artikulatoren. Bei manchen Frikativen wie dem [s] wird eine Art "Delle" in der Mitte des Zungenblattes hergestellt, d.h. die Öffnung ist in der Mitte der Zunge größer als seitlich. Diese sogenannten Sibilanten oder slit/grooved fricatives - konkret [s], [z], [ʃ] und [ʒ] - kann man von Engelauten wie dem [θ] unterscheiden, bei denen einfach ein enger Spalt zwischen den beiden Artikulatoren erzeugt wird. [ʃ] und [ʒ] werden im Englischen auch als shibilants bezeichnet.
  3. Approximanten: Dabei ist die Öffnung zwischen den Artikulatoren noch größer als bei den Reibelauten und es entsteht keine Reibung. Approximanten sind zum Beispiel das [j], das [w] im Englischen und laterale Approximanten wie das deutsche [l].

Zu den Approximanten zählen neben den "einfachen" Approximanten auch Trills, Taps und Flaps.

  • Bei einem Trill schließen und öffnen sich die Artikulatoren mehrmals und sehr schnell. Die Bewegung der Artikulatoren ist nicht wirklich kontrolliert.
  • Taps und Flaps entsprechen einem einzigen Schlag eines Trills. Die Begriffe Tap und Flap sind gleichbedeutend. In den 60ern und 70ern wurde behauptet, dass Flaps im Gegensatz zu Taps am Rückweg der Artikulatoren in ihre Ruheposition produziert würden. Heute nimmt man aber an, dass es eine Ruheposition der Artikulatoren nicht gibt.

Wichtig ist, dass nicht alle als <r> geschriebenen Laute Trills sind. Das <r> des Standardenglischen ist zum Beispiel der "normale" alveolare Approximant [ɹ] und in vielen amerikanischen Varietäten des Englischen entspricht <r> dem retroflexen Approximanten [ɻ].

Affrikaten sind Abfolgen aus einem Verschlusslaut und einem Reibelaut, die sich phonologisch wie ein Laut verhalten, beispielsweise das deutsche <z> ([ts]). Affrikaten werden manchmal mit einer einzigen artikulatorischen Geste gebildet, z.B. [pf] im Deutschen.

In keiner Sprache gibt es alle Kombinationen von Artikulationsstelle und Schließungsgrad. Im Deutschen und Englischen gibt es zum Beispiel keine palatalen Verschlusslaute und keinen palatalen Lateral.

Stimmhaftigkeit[Bearbeiten | Quelltext bearbeiten]

Glottiszustände[Bearbeiten | Quelltext bearbeiten]

Es gibt vier für die Sprachproduktion interessante Glottiszustände. (Der fünfte Zustand ist, dass die Glottis weit geöffnet ist. Er tritt beim normalen Atmen auf.)

  • Stimmlosigkeit: Die Glottis ist geöffnet und vibriert nicht, wenn Luft durchströmt.
  • Modale Stimmhaftigkeit (die "normale" Stimmhaftigkeit in den europäischen Sprachen): Die Stimmlippen berühren sich fast und vibrieren, wenn Luft durchströmt.
  • breathy voice (Bühnenflüstern): Die Stimmlippen sind vorne (?) geöffnet, so dass Luft durchströmen kann, berühren sich aber hinten. Tritt in einigen indischen Sprachen auf. In Namen, die aus dem Hindi/Urdu kommen, werden <bh> und <dh> als b bzw. d mit breathy voice ausgesprochen.
  • creaky voice ("Feldwebelstimme"). Die Stimmlippen sind gespannt und hinten leicht geöffnet, so dass nur wenig Luft durch die Glottis entweichen kann, und vibrieren vorne. Laute, die mit creaky voice ausgesprochen werden, bezeichnet man auch als laryngalisiert (larynx = Kehlkopf, engl. laryngealized). Es gibt sie zum Beispiel in den Khmer-Sprachen, einer südostasiatischen Sprachfamilie.

Im Deutschen gibt es nur stimmlose und modal stimmhafte Laute. Manche Sprachen unterscheiden drei Glottiszustände (stimmlos, etwas "breathy" und etwas "creaky"). Es gibt angeblich sogar Sprachen, in denen alle vier Zustände phonologisch unterschieden werden.

Voice Onset Time[Bearbeiten | Quelltext bearbeiten]

Die Voice Onset Time (VOT) ist eine Eigenschaft von Verschlusslauten. Wenn nach dem Verschlusslaut ein Vokal folgt, ist sie die Zeit zwischen der Öffnung des Verschlusses und dem Einsetzen der Stimmhaftigkeit. Wenn der Verschluss zum Zeitpunkt t1 gesprengt wird und die Stimmhaftigkeit zum Zeitpunkt t2 einsetzt, ist die VOT also die Differenz t2 - t1.

Man kann fünf Fälle unterscheiden:

  1. "volle Stimmhaftigkeit": Der Verschlusslaut wurde selbst schon stimmhaft ausgesprochen. Die Stimmhaftigkeit wird beim Übergang zum Vokal nicht unterbrochen. (Negative VOT)
  2. "Halbstimmhaftigkeit": Die Stimmhaftigkeit setzt kurz vor der Öffnung des Verschlusses ein. Das passiert bei stimmhaften Konsonanten im österreichischen Deutsch. (Negative und betragsmäßig kleine VOT)
  3. keine Stimmhaftigkeit: Die Stimmhaftigkeit setzt gleichzeitig mit der Sprengung des Verschlusses ein (VOT ist 0). Dieser Fall wird in der englischsprachigen Literatur auch als "plain" bezeichnet.
  4. Aspiration: Die Stimmhaftigkeit setzt unmittelbar nach der Sprengung des Verschlusses ein, wie z.B. bei /p/ im britischen Englisch (positive VOT)
  5. "Extreme" Aspiration: Nach der Sprengung des Verschlusses vergeht noch mehr Zeit, bis die Stimmhaftigkeit einsetzt.

Die Kontraste zwischen stimmhaften, stimmlosen und aspirierten Verschlusslauten sind in verschiedenen Sprachen unterschiedlich ausgeprägt. Zum Beispiel wird der Laut /b/ im Französischen "voll stimmhaft" (1) und das /p/ "plain" (3) realisiert. Im Gälischen entspricht dagegen das /b/ Fall 3 und das /p/ ist stark aspiriert (5). Im österreichischen Deutsch entspricht das /b/ Fall 2; das /p/ ist leicht aspiriert. Das /g/ hingegen wird in Ostösterreich "plain" ausgesprochen, obwohl es phonologisch gesehen stimmhaft ist.

Luftstrommechanismen[Bearbeiten | Quelltext bearbeiten]

Es gibt vier Luftstrommechanismen bei der Aussprache von Konsonanten:

pulmonisch-egressiv
Das ist der häufigste Luftstrommechanismus. Pulmonisch bedeutet, dass der Luftstrom von der Lunge erzeugt wird, und egressiv, dass die Luft nach außen strömt. Die Luft strömt beim Ausatmen aus der Lunge hinauf und im Mundraum wird ein Verschluss gebildet, der den Luftstrom blockiert, bis er "gesprengt" wird. Alle Konsonanten des Deutschen werden so ausgesprochen.
glottalisch-ingressiv
Diese Laute werden im Englischen auch als implosives bezeichnet. Sie sind immer stimmhaft, da die Glottis bei ihrer Aussprache weder komplett geschlossen (logisch, es muss Luft durch) noch geöffnet wird. Die Luft strömt durch die Glottis nach oben, gleichzeitig wird der Kehlkopf gesenkt. Solche Laute gibt es z.B. in manchen Südstaaten-Varietäten des amerikanischen Englisch und im Igbo, das in Nigeria gesprochen wird.
glottalisch-egressiv
Diese Laute werden auch als glottalisiert und im Englischen als ejectives bezeichnet. Sie werden immer mit einem Hochkomma ' transkribiert, z.B. [k']. Um sie auszusprechen, wird die Glottis geschlossen und zugleich ein Verschluss an einer anderen Artikulationsstelle hergestellt. Man hebt dann die Glottis an, so dass ein Überdruck entsteht, und öffnet den anderen Verschluss, so dass die Luft ausströmen kann. Es gibt Sprachen, in denen [t'], [p'] und [k'] mit den pulmonischen Konsonanten [t], [p] und [k] kontrastieren.
velarisch-ingressiv
Das sind die sogenannten Clicks. Dabei wird ein Verschluss am weichen Gaumen (Velum) und ein zweiter Verschluss an einer weiteren Artikulationsstelle im Mundraum hergestellt. Mit dem Zungenkörper wird dann ein Unterdruck im Mundraum hergestellt (der Unterdruck entsteht über der Zunge) und schließlich der Verschluss an der Artikulationsstelle gesprengt. Clicks treten nur in afrikanischen Sprachen auf. Es soll Sprachen geben, die bis zu 24 verschiedene solche Laute haben. Ursprünglich gab es Clicks nur in den Khoisan-Sprachen, die vor der Ankunft der Bantu und der Weißen im Süden Afrikas gesprochen wurden. Heute gibt es sie auch in Bantu-Sprachen wie Zulu und Xhosa, dafür gibt es in den Khoisan-Sprachen weniger davon als früher.

Laterale Verschlusslösung[Bearbeiten | Quelltext bearbeiten]

Laterallaute haben die Akustischen Eigenschaften eines /l/. Sie werden durch ein hochgestelltes [l] nach dem Verschlusslaut transkribiert. Bsp.: Handlung [ˈhandˡlʊŋ]


Nasalität[Bearbeiten | Quelltext bearbeiten]

Konsonanten können oral oder nasal sein. Nasale Verschlusslaute werden oft als Nasale und orale Verschlusslaute als Plosive bezeichnet. Nasale Reibelaute können nur als Koartikulation auftreten; einen nasalen Reibelaut mit phonologischer Funktion gibt es in keiner bekannten Sprache. Stimmlose nasale Verschlusslaute treten z.B. im Irischen und im Navaho auf.

Weiters können Verschlusslaute pränasaliert oder postnasaliert sein. Pränasalierte Verschlusslaute gibt es oft, aber nicht ausschließlich in afrikanischen Sprachen. Postnasalierte Verschlusslaute werden auch als Laute mit nasaler Öffnung bezeichnet. Im österreichischen Deutsch treten sie zum Beispiel vor einem silbischen [m] am Wortende auf: haben [hɑːb ͫm̩].

Pränasalierte und postnasalierte Laute werden transkribiert, indem man das Symbol für den Nasal an der gleichen Artikulationsstelle nimmt und vor oder nach dem Verschlusslaut hochstellt: [ⁿd], [dⁿ], [ ͫb], [b ͫ].

Vokale[Bearbeiten | Quelltext bearbeiten]

Vokale besitzen eine Quantität (die Länge) und eine Qualität (der Klang).

Qualität[Bearbeiten | Quelltext bearbeiten]

Vokalqualitäten kann man nach den folgenden Merkmalen unterscheiden:

  • Lippenstellung: Die Lippen können gerundet sein (z.B. [o]) oder nicht (z.B. [i]).
  • Zungenkörperstellung (vertikal und horizontal): Der Zungenkörper kann vertikal und horizontal unterschiedliche Stellungen einnehmen (siehe dazu das "Vokaltrapez" am IPA-Handout). Beim [i] ist der Zungenkörper ganz oben und vorne, das [u] wird oben und hinten ausgesprochen. Bei den Vokalen [a] und [ɑ] ist der Zungenkörper unten.
  • Advanced Tongue Root (ATR) bedeutet, dass die Zungenwurzel bei der Aussprache des Vokals nach vorne geschoben wird. Oft wird zwischen gespannten und ungespannten Vokalen unterschieden, was in der Praxis ungefähr gleichbedeutend mit Vokalen mit/ohne ATR ist. In vielen westafrikanischen und nordafrikanischen Sprachen gibt es zwei Vokalgruppen, die durch das Merkmal ATR unterschieden werden. Wenn innerhalb eines Wortes nur Vokale einer Gruppe vorkommen dürfen, spricht man von ATR-Harmonie, die ein typischer Fall von Vokalharmonie ist.
  • Rhotazität: Bei rhotazisierten Vokalen wird die Zungenspitze angehoben. Ein Beispiel dafür ist das /r/ im amerikanischen Englisch (wie in heard [hɹ̩d], bear [bɛɹ̩]). Es ist umstritten, ob es sich dabei um einen silbischen Approximanten [ɹ̩] oder einen Vokal mit "r-artiger" Qualität handelt.

Der englische Phonetiker Daniel Jones hat die sogenannten Kardinalvokale isoliert, die den "Extrempositionen" für die Aussprache von Vokalen entsprechen sollen. Zum Beispiel ist das [i] ein Kardinalvokal, der ganz vorne und geschlossen ausgesprochen wird. Es gibt acht primäre Kardinalvokale (ohne Lippenrundung) und acht sekundäre (mit Lippenrundung).

Der zentrale mittlere Vokal ist der Schwa [ə]. Er tritt normalerweise unbetont auf; daher ist seine Qualität schwer bestimmbar.

Vokale können nasal ausgesprochen werden. Bei Nasalvokalen entweicht die Luft durch den Mundraum und den Nasenraum. Im Standarddeutschen kommen keine Nasalvokale vor, in österreichischen Dialekten kann es sie aber geben.

Quantität[Bearbeiten | Quelltext bearbeiten]

Bei der Vokalquantität unterscheidet man Kurzvokale und Langvokale. Einen Langvokal kann man als Folge von zwei hintereinander ausgesprochenen (gleichen) Kurzvokalen verstehen. Im Deutschen haben die kurzen Vokale eine andere Qualität als die Langvokale. Das kurze i im Deutschen wird z.B. als [ɪ] ausgesprochen, also nicht so weit vorne wie das [i]. Normalerweise sind im Deutschen die Langvokale gespannt und die Kurzvokale nicht. Mit Ausnahme von [a]/[ɑː] werden die gespannten Vokale weiter oben ausgesprochen.

Diphthonge und Halbvokale[Bearbeiten | Quelltext bearbeiten]

Bei Diphthongen geht ein Vokal kontinuierlich in einen zweiten über. Es gibt auch Triphthonge mit drei Vokalen.

Halbvokale sind Approximanten, die eher anhand ihrer vokalischen Eigenschaften definiert werden. Es gibt 3-4 Vokale, die zu Halbvokalen werden können ([i] > [j], [u] > [w], [y] > [y̯]). Eine alternative Definition ist, dass Halbvokale nicht-silbische Vokale sind.

Eine mögliche Analyse der Diphthonge im Deutschen geht davon aus, dass sie aus einem echten Vokal und einem darauffolgenden Halbvokal bestehen. Unter dieser Sichtweise gibt es zwei Transkriptionsmöglichkeiten für die deutschen Diphthonge:

<au>: [aʊ̯] oder [aʷ]

<ei>: [aɪ̯] oder [aʲ]

Bei palatalisierten Verschlusslauten wird zusammen mit dem Konsonanten ein Halbvokal [j] ausgesprochen, der nach der Sprengung des Verschlusses hörbar ist.

Suprasegmentale Eigenschaften[Bearbeiten | Quelltext bearbeiten]

Ein Segment ist ein Einzellaut. Suprasegmental sind Eigenschaften, die mehr als einen Laut umfassen. Die suprasegmentale Phonetik betrifft also Einheiten, die größer als ein Einzellaut sein können (sie müssen aber nicht notwendigerweise größer sein, da z.B. ein Morphem auch nur aus einem Laut bestehen kann).

Umfassen Affrikaten und Diphthonge einen oder zwei Laute?

Wichtige Themen der suprasegmentalen Phonetik:

Silben[Bearbeiten | Quelltext bearbeiten]

Die Silbe ist phonetisch nur schwierig zu definieren. Zwei mögliche Definitionen der Silbe sind:

Definition anhand der Sonorität[Bearbeiten | Quelltext bearbeiten]

Man kann Laute nach ihrer Sonorität (ihrer intrinsischen Lautstärke) ordnen und die Silbe so definieren, dass jede Silbe einem "Gipfel" an Sonorität entspricht. Diese Definition hat aber mehrere Probleme:

  • Bei Wörtern wie [apfəl] oder [ʃpiːl] fällt die Sonorität am Anfang des Wortes ab (a -> p, ʃ -> p), erreicht dann einen Gipfel (ə, i) und fällt wieder ab. Trotzdem besteht [apfəl] intuitiv aus zwei Silben und [ʃpiːl] nur aus einer.
  • Es ist umstritten, ob es genaue Grenzen zwischen Silben gibt. Wenn es sie geben sollte, beschreibt diese Definition nicht, wo sie liegen.
Definition über Muskelaktivität[Bearbeiten | Quelltext bearbeiten]

R. H. Stetson hat vorgeschlagen, Silben über die Aktivität der Atmungsmuskulatur zu definieren. Es gibt ihm zufolge genau eine Kontraktion der Atmungsmuskulatur pro Silbe. Allerdings ist es durchaus möglich, mit einer Kontraktion etwas auszusprechen, das intuitiv mehr als einer Silbe entspricht.

Moren[Bearbeiten | Quelltext bearbeiten]

Eine Mora ist eine Einheit der Zeiteinteilung, die potenziell größer als ein Segment, aber kleiner als eine Silbe ist. Moren sind zum Beispiel im Japanischen wichtig, wo das zweisilbige Wort nippoŋ aus vier Moren besteht:

| ni | p | po | ŋ |

In der Phonologie werden Moren mit den sog. CV-Silben gleichgesetzt, die aus einem Konsonanten und einem Vokal bestehen, wobei einer der beiden Laute fehlen kann.

Akzent[Bearbeiten | Quelltext bearbeiten]

Der Akzent ist eine suprasegmentale Eigenschaft, die sich auf die Silbe bezieht. In Abgrenzung zu den Tonmustern, die es in Tonsprachen gibt, spricht man hier auch von einem Druckakzent (engl. stress). Einen Druckakzent gibt es in vielen indogermanischen Sprachen, insgesamt sind die Sprachen mit Akzent aber in der Minderheit.

Der Druckakzent wird durch drei Komponenten realisiert:

  • Energie
  • Länge
  • Tonhöhe (Die Tonhöhe wird normalerweise erhöht, kann aber auch gesenkt werden. Eine Senkung der Tonhöhe ist der markierte Fall.)

Im Deutschen werden Wörter gewöhnlich auf der ersten Stammsilbe betont, Fremdwörter aber oft auf der letzten. Wichtig ist dabei, dass der Akzent auf der ersten Stammsilbe und nicht auf der ersten Silbe überhaupt liegt. Deshalb wird z.B. verarbeiten nicht auf der ersten Silbe betont.

Man kann zwei Arten von Akzent unterscheiden:

automatischer Akzent
Das Betonungsmuster ist in jedem Wort gleich. Im Ungarischen und Tschechischen gibt es einen automatischen Akzent auf der ersten Silbe. Im Französischen liegt der automatische Akzent bei Phrasen auf der letzten Silbe, das gilt aber nicht für die Wortebene. Sprachen mit automatischem Akzent auf der vorletzten Silbe sind z.B. Polnisch und (mit vielen Ausnahmen) Spanisch. Sprachen mit automatischem Akzent auf der zweiten Silbe sind äußerst selten, wenn es sie überhaupt gibt.
lexikalischer Akzent
Der Akzent liegt auf einer Silbe aus einem Fenster von drei Silben. Welche der drei Silben es ist, ist lexemspezifisch und muss gelernt werden. Eine Sprache mit lexikalischem Akzent ist zum Beispiel das Englische. Man unterscheidet den fixen und den beweglichen lexikalischen Akzent. Einen beweglichen lexikalischen Akzent gibt es etwa im Neugriechischen, wo sich der Akzent im Paradigma eines Nomens je nach Fall systematisch verschiebt.

Ob ein Laut in einer Silbe auftreten kann, kann davon abhängen, ob der Akzent auf dieser Silbe liegt. Der Schwa kann im Deutschen nur in unbetonten Silben auftreten (das ist z.B. auch im Englischen und Französischen der Fall).

Sprachrhythmus[Bearbeiten | Quelltext bearbeiten]

Der Rhythmus, in dem die Silben ausgesprochen werden, ist sprachspezifisch. Zwei wichtige Typen sind stress-timed languages, bei denen die Intervalle zwischen den Silben mit Hauptakzent immer ungefähr gleich sind (z.B. Englisch) und syllable-timed languages, bei denen die Abstände zwischen den einzelnen Silben ungefähr gleich sind (z.B. Ungarisch).

Länge[Bearbeiten | Quelltext bearbeiten]

Die Länge ist eine suprasegmentale Eigenschaft, da "lange" Laute phonologisch zwar als Folgen zweier Laute analysiert werden können, aber im Allgemeinen nicht genau doppelt so lang sind wie die entsprechenden kurzen Laute. In manchen afrikanischen Sprachen sind Langvokale 2,5- bis 3-mal so lang wie die entsprechenden Kurzvokale.

Lange Konsonanten werden als Geminaten bezeichnet. Es gibt sie zum Beispiel im Italienischen. Dort werden die Konsonanten nicht zweimal artikuliert, sie sind allerdings länger als einzelne Konsonanten. Da die Energie während der Artikulation eines solchen langen Konsonanten nicht abfällt, liegt es trotzdem nahe, anzunehmen, dass eine Geminata eigentlich aus zwei Lauten besteht.

Intonation und Tonsprachen[Bearbeiten | Quelltext bearbeiten]

Unter Intonation versteht man einen Verlauf des Stimmtons, der die Bedeutung der Gesamtäußerung ändern kann, ohne sie grundlegend zu beeinflussen. Zum Beispiel kann die Intonation einen Fragesatz von einem Aussagesatz unterscheiden. Intonation gibt es zwar in allen Sprachen, in der Mehrheit der menschlichen Sprachen gibt es aber auch noch linguistische Töne. In diesen sogenannten Tonsprachen kann ein veränderter Verlauf des Stimmtons innerhalb eines Wortes die Wortbedeutung grundlegend verändern. Das Chinesische ist zum Beispiel eine Tonsprache. Viele westafrikanische Sprachen haben zwei Töne.

Man kann Register- und Konturtonsprachen unterscheiden. Registertonsprachen sind weltweit zu finden, Konturtonsprachen hauptsächlich in Südostasien.

In Registertonsprachen unterscheidet man mehrere theoretische "Tonhöhen", z.B. hoch/mittel/tief, die aber nicht fixen Tonhöhen entsprechen. Registertonsprachen haben normalerweise nicht mehr als drei Töne. Man transkribiert Registertöne normalerweise mit diakritischen Zeichen, z.B. á (hoch), à (tief), ā (mittel). Der Strich, der hier für den mittleren Ton verwendet wird, wurde früher auch als Zeichen für Vokallänge benutzt.

In Konturtonsprachen entspricht jeder Ton einem Verlauf der Tonhöhe. Es kann zum Beispiel einen steigenden, einen fallenden und einen zuerst steigenden, dann fallenden Ton geben. Konturtöne können mit Tonbuchstaben transkribiert werden, die vor oder nach dem Wort geschrieben werden. Alternativ kann man die Tonmuster nummerieren und jedem Wort eine hochgestellte Nummer zuweisen.

Konturtonsprachen können auch Registertöne besitzen. Es ist denkbar, dass die Konturtöne aus Registertönen entstanden sind.

Zwei wichtige Prozesse in Tonsprachen sind downdrift und downstep (nicht das Gleiche!)

downdrift
Darunter versteht man das Absinken des Stimmtons im Verlauf eines Satzes.
downstep
Ein phonologischer Prozess, der dafür sorgt, dass ein Hochton nach einem Tiefton nicht mehr so hoch wird wie die vorangegangenen Hochtöne.

Phonetische Transkription[Bearbeiten | Quelltext bearbeiten]

Anmerkungen zur IPA-Tabelle[Bearbeiten | Quelltext bearbeiten]

  • Bei den pulmonischen Konsonanten steht immer auf der linken Seite einer Zelle der stimmlose und auf der rechten Seite der stimmhafte Laut.
  • Bei den pulmonischen Konsonanten sind die weißen Lücken in der Tabelle "zufällige" Lücken, d.h. es könnte durchaus eine Sprache geben, in der diese Laute vorkommen. Bei den grau eingefärbten Lücken nimmt man hingegen an, dass es solche Laute aus prinzipiellen Gründen nicht geben kann.
  • Langvokale werden mit dem Zeichen ː transkribiert (zwei kleine Dreiecke und kein Doppelpunkt), Beispiel: [aː].
  • Für stimmlose Nasale, die z.B. im Irischen auftreten, gibt es keine eigenen Symbole. Stattdessen wird das diakritische Zeichen  ̥ verwendet, z.B. [n̥].
  • Das Zeichen  ̥ kann auch bedeuten, dass ein Laut "teilweise stimmlos" ist. Zum Beispiel wird in Österreich /b/ oder /d/ am Wortanfang als [b̥] bzw. [d̥] ausgesprochen.
  • Retroflexe Konsonanten wie [ʈ] und [ɖ] werden in der Literatur über australische Sprachen häufig als <rt> bzw. <rd> transkribiert.
  • Der Laut, der im Deutschen als <w> geschrieben wird, wird mit [v] transkribiert. Das englische <w> entspricht dagegen dem IPA-Symbol [w].
  • Das [ɦ] ist in der IPA-Tabelle als stimmhafter glottaler Frikativ eingetragen. Es ist aber kein normaler stimmhafter Laut, sondern eher "breathy voiced".

Beispiele (Deutsch)[Bearbeiten | Quelltext bearbeiten]

Es war einmal ein König.

ɛs vɑː ˀaɪnmɑl ˀaɪn køːnɪg̥

Anmerkungen dazu:

  • Das Zeichen ˀ zeigt an, dass vor dem Vokal ein Glottisverschluss zu hören ist.
  • Das /g/ am Wortende ist nicht stimmhaft.
  • Im Süden des deutschen Sprachraums haben die Vokale andere Qualitäten als im Norden. Zum Beispiel wird das <ä> in Käse im Norddeutschen als [æː] und in Österreich als [eː] ausgesprochen. Das kurze <e> in Heft ist phonetisch ein [ɛ], liegt also dazwischen.
  • Bei der Transkription des Deutschen ist es wichtig, darauf zu achten, dass die deutschen Kurzvokale sich auch in der Qualität von den Langvokalen unterscheiden.

Zusammenstellung der Vokale im Deutschen (unvollständig!)

kurz lang
ɪ
a ɑː
œ øː
ɛ
ʊ
ɔ
ʏ

er in Endungen wird im Deutschen häufig zu ɐ, z.B. wandern - [vandɐn]

Im Deutschen kann frei zwischen r und ʀ gewählt werden: Österreich - [ˀøːstɐraɪç] oder [ˀøːstɐʀaɪç]

Die Endung -en kann im österreichischen Deutsch als [ɛn] ausgesprochen werden oder zu einem silbischen Konsonanten werden: eben - [ˀeːbɛn] oder [ˀeːbm̩]

Diphthonge verhalten sich im Deutschen wie Langvokale: Häuser - [hɔʏsɐ]

Ein unbetontes <e> am Wortende wie in Pause kann als [ə] (vor allem in Deutschland) oder als [ɛ] ausgesprochen werden.

Akustische Phonetik[Bearbeiten | Quelltext bearbeiten]

In der akustischen Phonetik untersucht man die Signale, die bei der Sprachproduktion entstehen. Akustische Signale bestehen aus Luftdruckunterschieden, die dadurch entstehen, dass Moleküle der Luft in Bewegung gesetzt werden. Interessant sind dabei die relativen Veränderungen des Luftdrucks. Mikrofone messen den Luftdruck und zeichnen seine Schwankungen auf. Die übliche Darstellung für akustische Signale sind sogenannte Wellenformen (waveforms), bei denen die Schwankungen des Luftdrucks um einen "Nullpunkt" dargestellt werden. Die "reine" Wellenform ist für die linguistische Analyse allerdings nicht wirklich zu gebrauchen.

Jede natürliche Schallquelle hat einen Grundton und harmonische Frequenzen, die ganzzahlige Vielfache des Grundtons sind. Wenn der Grundton zum Beispiel 100 Hz ist, befinden sich die harmonischen Frequenzen bei 200 Hz, 300 Hz etc.

Linguistische Anwendungen der Akustik[Bearbeiten | Quelltext bearbeiten]

Messung der Stimmtonhöhe
Die Stimmtonhöhe (engl. pitch) ist die Frequenz, mit der die Stimmlippen vibrieren. Normalerweise bewegt sie sich zwischen 30 und 300 Hz. Messungen des Stimmtons sind für die linguistische Erforschung der Intonation interessant. Den Stimmton kann man identifizieren, indem man seine harmonischen Frequenzen (Obertöne) findet und die Differenz zwischen ihnen nimmt.
Messung von Lautstärkeunterschieden
Der Begriff "Lautstärke" ist unwissenschaftlich; man spricht eher von der Energie oder der Amplitude eines akustischen Signals. Man ist an den Lautstärkeunterschieden zwischen verschiedenen Lauten interessiert. Die intrinsische Energie von Lauten wird auch als Sonorität bezeichnet. Sie ist bei offenen Vokalen wie a am höchsten und bei stimmlosen Verschlusslauten praktisch null.
Vokalqualität
Die Vokalqualität wird durch "Herausholen" der einzelnen sich überlagernden Frequenzen aus dem Signal und Bestimmen der Lautstärke für jede Frequenz untersucht.

Frequenzspektrum und Spektrogramm[Bearbeiten | Quelltext bearbeiten]

Bei einer Fourier-Transformation wird eine Wellenform durch Filtern in (theoretisch unendlich viele) Frequenzen zerlegt. Das Ergebnis der Fourier-Transformation ist ein Frequenzspektrum, das jeder Frequenz eine Amplitude zuordnet. Eine alternative Darstellung eines Frequenzspektrums sind Spektrogramme, in denen die Frequenzen, bei denen die Amplituden "Gipfel" erreichen, durch Balken dargestellt werden. Diese verstärkten Frequenzen werden als Formanten bezeichnet. An ihnen kann man einzelne Laute erkennen. Die horizontale Achse in einem Spektrogramm entspricht der Zeit.

Die Formanten werden mit F1, F2... und die Frequenz des Stimmtons selbst mit F0 bezeichnet.

Die ersten beiden Formanten eines [i] liegen unterhalb von 500 Hz und oberhalb von 2000 Hz. Beim [u] sind die ersten beiden Formanten unterhalb und oberhalb von 500 Hz und bei [ɑ] liegen sie unterhalb und oberhalb von 1000 Hz. Die höheren Formanten sind individuell unterschiedlich.

Bei Diphthongen sieht man im Spektrogramm einen kontinuierlichen Übergang von den Formanten des ersten zu jenen des zweiten Vokals.

Senkrechte Striche in einem Spektrogramm entsprechen den einzelnen Schlägen der Stimmlippen. Bei stimmlosen Lauten kommen sie vom Nachhall eines vorhergehenden stimmhaften Lautes.

Das Öffnen eines Verschlusses bei Verschlusslauten ist im Spektrogramm auch erkennbar.

Alle Nasale haben Formanten gemeinsam, die als Nasalformanten bezeichnet werden. Nasale haben im Allgemeinen weniger Energie als Vokale. [l] und [n] sehen im Spektrogramm sehr ähnlich aus und gehören auch in vielen Sprachen zum selben Phonem.

Bei Frikativen kann man im Spektrogramm sogenannte Pseudoformanten erkennen.

Akustische Analyse in der Praxis[Bearbeiten | Quelltext bearbeiten]

Um Sprachsignale aufnehmen und nachher sinnvoll analysieren zu können, reicht ein Mikrofon, das Frequenzen bis zu 22 kHz aufnehmen kann. Das Frequenzspektrum, das durch die Fourier-Transformation entsteht, reicht dann bis 11 kHz. Mono-Aufnahmen sind ausreichend.

Um die interessanten Abschnitte aus einer Tonaufnahme herauszuschneiden, braucht man einen Sound-Editor wie zum Beispiel GoldWave. Außerdem braucht man eine akustische Analysesoftware zum Erstellen des Frequenzspektrums, zum Beispiel STX vom Institut für Schallforschung der OeAW.

Phonologie[Bearbeiten | Quelltext bearbeiten]

Grundbegriffe[Bearbeiten | Quelltext bearbeiten]

Die Phonologie analysiert die Lautsysteme von Einzelsprachen und stellt dann Theorien über diese Sprachen auf. Sprachen, die die gleichen Laute besitzen, müssen nicht notwendigerweise das gleiche Lautsystem haben. Vielmehr gibt es kaum Sprachen oder Dialekte mit gleichen phonologischen Systemen.

Die Untersuchung des Lautsystems einer Sprache läuft auf Fragen hinaus, die über die Phonetik hinausgehen. Es ist zwar auch für die Phonologie relevant, welche Laute in einer Sprache vorkommen, zusätzlich fragt man sich aber auch:

  • Wann werden welche Laute ausgesprochen? Sprachlaute treten oft nur in bestimmten Umgebungen auf bzw. dürfen in bestimmten Umgebungen nicht auftreten. Im Deutschen tritt zum Beispiel [x] nur nach /a/, /o/ und /u/ auf. [ç] darf nach genau diesen Vokalen nicht auftreten, dafür aber überall sonst.
  • Welche Laute einer Sprache sind voneinander unterscheidbar? Im Deutschen wird [q] als "anderes k" und nicht als unbekannter Laut wahrgenommen. Die Bedeutung eines Wortes kann sich nicht ändern, wenn man in dem Wort [k] durch [q] ersetzt. Die Laute [k] und [q] sind daher im Deutschen nicht unterscheidbar (distinktiv).

Auch wenn es oberflächliche Ähnlichkeiten zwischen den Einheiten der Phonologie und Buchstaben geben kann, hat die Phonologie nichts direkt mit der Schrift zu tun.

Die Phonologie bildet die Schnittstelle zwischen dem Sprachsignal und der Grammatik. Man kann davon ausgehen, dass wir in unserem mentalen Lexikon nicht nur morphologische und semantische, sondern auch phonologische Informationen zu den einzelnen Morphemen bzw. Wörtern gespeichert haben. Phonologische Prozesse wie zum Beispiel der Umlaut spielen auch in der Morphologie eine Rolle.

Es gibt heute viele phonologische Theorien mit unterschiedlichen Zielen und Methoden.

Strukturalismus/Phonematik[Bearbeiten | Quelltext bearbeiten]

Ein Phon ist ein Sprachlaut im Sinn der Phonetik. Ein Phonem ist dagegen ein "phonologischer Laut" im System einer Einzelsprache. Phone können ein Phonem realisieren. Zum Beispiel wird das Phonem /x/ nach [a] von [x] und nach [i] von [ç] realisiert.

Wenn mehrere Phone das gleiche Phonem realisieren, bezeichnet man diese als Allophone. Die Kontexte, in denen Allophone auftreten können, werden als Verteilung oder Distribution der Allophone bezeichnet.

Sprachen haben normalerweise ungefähr 100 Phoneme, es gibt aber auch Sprachen mit deutlich mehr Phonemen (ungefähr 200) und solche mit deutlich weniger Phonemen (ungefähr 20). Die Anzahl der Phoneme variiert stark, ist aber in verwandten Sprachen ähnlich. Auch Dialekte der gleichen Sprache können unterschiedliche Phonemsysteme besitzen. Zum Beispiel fallen in manchen Dialekten des Deutschen [ʃ] und [ç] zu einem Phonem zusammen. In manchen österreichischen Dialekten wird [i] zu [yː], wenn ein [l] folgt.

Ob ein Laut zu einem Phonem gehört, kann man mit der Vertauschungsprobe bestimmen. Wenn es zwei Wörter gibt, die bis auf einen Laut gleich sind und unterschiedliche Bedeutungen haben, können die beiden unterschiedlichen Laute nicht zum gleichen Phonem gehören. Ein solches Paar von zwei Wörtern, die sich nur in einem Laut unterscheiden, heißt Minimalpaar. Wenn es unmöglich ist, mit zwei Lauten ein Minimalpaar zu bilden, gehören die Laute zum gleichen Phonem.

Beispiel: [roːzɛ] und [hoːzɛ] bedeuten unterschiedliche Dinge. Daher können [r] und [h] nicht zum gleichen Phonem gehören. Hingegen gibt es zwischen [roːzɛ] und [ʀoːzɛ] keinen Bedeutungsunterschied, und es gibt auch kein anderes Paar von Wörtern, die durch diese beiden Laute unterschieden werden. Deshalb gehören [r] und [ʀ] zum gleichen Phonem.

Beispiele am Handout[Bearbeiten | Quelltext bearbeiten]

Beispiel 1: Südliches Kongo[Bearbeiten | Quelltext bearbeiten]

Die Verteilung von [t, s, z] und [tʃ, ʃ, ʒ] im Kongo ist komplementär. Zwei Phone a und b stehen dann in komplementärer Distribution, wenn überall dort, wo a auftreten kann, b nicht auftreten kann und umgekehrt. Die Kontexte, in denen die beiden Phone auftreten dürfen, schließen sich also aus. Allophone haben nicht immer eine komplementäre Distribution, sie können auch freie Varianten sein. Das heißt, dass beide Phone überall auftreten können und es egal ist, welches gewählt wird.

Um zu erkennen, in welchen Kontexten welches Allophon auftritt, stellt man die Kontexte der beiden Allophone am besten in einer Tabelle gegenüber. Statt des gesuchten Lautes macht man dabei einen Strich.

[t, s, z] [tʃ, ʃ, ʒ]
_obo nko_i
ke_oka _ina
_eng _ima
ka_u _iba

Hier fällt auf, dass die relevanten Laute in der rechten Spalte immer vor i auftreten. Es liegt also die Vermutung nahe, dass sie nur in diesem Kontext vorkommen können und [t, s, z] überall sonst auftreten. Die restlichen Beispiele bestätigen diese Vermutung. Man kann also folgende Kontexte für die Allophone angeben:

Meistens reicht es aus, auf beiden Seiten nur je einen Laut als Kontext hinzuschreiben.

[tʃ, ʃ, ʒ] /_i

[t, s, z] sonst überall

/_i ist die formale Notation dafür, dass nach dem Laut ein i folgen muss. Normalerweise benennt man ein Phonem nach dem Laut, der in einem allgemeineren Kontext auftreten kann. Hier könnte man also zum Beispiel das Phonem /t/ mit Allophonen [t] und [tʃ] bestimmen.

Beispiel 2: Angas[Bearbeiten | Quelltext bearbeiten]

Mit "Sonorlauten" oder Sonoranten sind Nasale und Approximanten gemeint. Im Gegensatz dazu stehen die Obstruenten (Verschlusslaute, Reibelaute und Affrikaten). Der Name kommt daher, dass Sonoranten mehr intrinsische Lautstärke besitzen.

Dass die Stimmhaftigkeit "vorhersagbar" ist, bedeutet, dass stimmhafte zu stimmlosen Sonorlauten in komplementärer Distribution stehen. In welchen Kontexten die stimmhaften bzw. stimmlosen Laute auftreten, kann man mit der gleichen Methode wie oben bestimmen. Dabei könnte es wichtig sein, auch Wort- und Morphemgrenzen einzutragen, da diese wichtige Teile der phonologischen Umgebung sind.

# ... Wortgrenze, + ... Morphemgrenze

[m] etc. [m̥] etc.
#_u u_#
#_t u_#
a_z e_#
#_b i_#
a_a a_#

Man sieht, dass die stimmlosen Sonorlaute immer am Wortende auftreten. Stimmhafte Sonorlaute am Wortende gibt es hingegen nicht. Man kann daher folgende Kontexte angeben:

[m̥] etc. /_#

[m] etc. sonst überall

Archiphoneme[Bearbeiten | Quelltext bearbeiten]

Prozesse wie die Auslautverhärtung im Deutschen stellen ein Problem für die Phonemanalyse dar. Im Deutschen, wie es in Deutschland gesprochen wird, werden am Wortende alle Obstruenten stimmlos:

<rat> <rad>
Nominativ rɑːt rɑːt
Genitiv rɑːtəs rɑːdəs

Die Unterscheidung zwischen /t/ und /d/, die im Deutschen normalerweise getroffen wird, fällt am Wortende also weg. Im Paradigma des Wortes <rad> gibt es einen systematischen Wechsel zwischen t und d. Dieser Wechsel lässt sich aber nicht mit Allophonen beschreiben, da /t/ und /d/ selbst Phoneme sind, die aus Allophonen bestehen. Außerdem wäre es nicht sinnvoll, ein gemeinsames Phonem für /t/ und /d/ anzunehmen, da die Wörter rɑːtəs und rɑːdəs unterschiedliche Bedeutungen haben, obwohl der Kontext für t und d gleich ist.

Daher kam man auf die Idee, sogenannte Archiphoneme einzuführen, also abstrakte Einheiten, die mehrere Phoneme beschreiben. Man nimmt ein Archiphonem D an, das alle Merkmale besitzt, die /t/ und /d/ gemeinsam haben, bei dem aber das Merkmal "Stimmhaftigkeit" nicht festgelegt ist. Das Wort <rad> kann man dann phonologisch als /rɑːD/ und <rat> als /rɑːt/ beschreiben. Welches Phonem in einem konkreten Wort für D ausgesprochen wird, hängt vom Kontext ab.

Phonologische Prozesse[Bearbeiten | Quelltext bearbeiten]

Die Strukturalisten, die den Phonembegriff entdeckt hatten, benannten die Phoneme nach existierenden Lauten. Man nahm also an, dass z.B. das [ç] in "ich" das Phonem /x/ realisiert und "eigentlich" eine Variante von [x] ist.

Morris Halle beschrieb solche Fälle als dynamische Änderungen, die von der lautlichen Umgebung ausgelöst werden. [x] wird also zu [ç], weil ein [ɪ] davor steht, und in dem Beispiel aus dem Kongo werden [t, s, z] zu [tʃ, ʃ, ʒ], weil ein [i] folgt. Solche Änderungen werden als phonologische Prozesse bezeichnet. Man kann eine Typologie dieser Prozesse aufstellen:

Assimilation[Bearbeiten | Quelltext bearbeiten]

Ein Laut wird einem benachbarten Laut ähnlicher. Ein Großteil aller phonologischen Prozesse sind Assimilationen. Im Kongo-Beispiel passen sich die Laute [t, s, z] an das folgende [i] an, das in dieser Sprache palatal ausgesprochen wird.

Dissimilation[Bearbeiten | Quelltext bearbeiten]

Ein Laut wird einem benachbarten Laut weniger ähnlich. Das geschieht oft mit r- oder l-artigen Lauten. Ein Beispiel dafür ist der oberösterreichische Ortsname Ebelsberg. Der Ort hieß ursprünglich Ebersberg. Das erste [r] wurde dann zu [l], vermutlich weil in dem Wort schon ein r vorkam.

Weiteres Beispiel: Im Koromfe, einer Gur-Sprache, die in Burkina Faso gesprochen wird, gibt es das Wort [belede]. Normalerweise darf in dieser Sprache aber kein [d] zwischen zwei Vokalen stehen. Das Wort entwickelte sich durch eine Dissimilation aus [belele]. Es fand also eine systematische Änderung von l zu d statt. Da /d/ selbst ein Phonem darstellt, ergibt sich hier ein ähnliches Problem für den Phonembegriff wie bei der Auslautverhärtung.

Metathese[Bearbeiten | Quelltext bearbeiten]

Bei der Metathese werden zwei Laute vertauscht. Viele der Fälle, die in der Literatur diskutiert werden, sind aber eher fragwürdig, da eher eine gleichzeitige Artikulation zweier Laute als eine echte Vertauschung vorliegt.

Ein Beispiel, bei dem nur auf den ersten Blick eine Metathese vorliegt, ist das Wort Wespe, das in manchen Dialekten zu Wepse oder Waps wird. Allerdings lassen sich beide Formen bis in die ältesten Sprachstufen des Indogermanischen zurückverfolgen. Es ist daher nicht sinnvoll, einen phonologischen Prozess des Deutschen anzunehmen.

Ein bekanntes Beispiel einer scheinbaren Metathese kommt aus dem marokkanischen Arabisch: Die Wörter ktib und kitbu sind Formen des gleichen Verbs, in denen auf den ersten Blick ein Vokal und ein Konsonant die Plätze tauschen. Allerdings ist es in dieser Sprache immer möglich, zwischen zwei Konsonanten ein i einzufügen. Daher liegt nicht wirklich eine Vertauschung vor.

Epenthese und Tilgung[Bearbeiten | Quelltext bearbeiten]

Bei der Epenthese wird ein Laut eingefügt und bei der Tilgung ein Laut entfernt. Die beiden Prozesse sind leicht verwechselbar.

Stärkung und Schwächung[Bearbeiten | Quelltext bearbeiten]

Starke Laute sind die Laute mit einer "extremen" Position in der Sonoritätsskala. Starke Vokale sind also sehr sonore Laute wie das [a], starke Konsonanten aber Laute ohne jede Sonorität wie [p, t, k]. Schwache Laute befinden sich in der Mitte der Sonoritätshierarchie. Dazu zählen Approximanten und Schwas.

Bei einer Stärkung wird ein Laut durch einen stärkeren Laut ersetzt. Fälle von Stärkung sind zum Beispiel Aspiration eines Konsonanten oder Diphthongierung. Eine Schwächung entspricht hingegen einer Ersetzung durch einen schwächeren Laut, zum Beispiel der Ersetzung eines Verschlusslautes durch einen Reibelaut oder eines Vokals durch einen weniger sonoren Laut.

Ein historisches Beispiel für eine Schwächung: Beim Übergang vom Althochdeutschen ins Mittelhochdeutsche wurde das [g] zwischen zwei Vokalen zuerst zum Reibelaut [ɣ] geschwächt und fiel dann völlig weg. Zum Beispiel wurde das Lehnwort magister dadurch zu meister und das althochdeutsche sagit ("sagt") zu seit.

Bestimmte Kontexte können Stärkungen und Schwächungen begünstigen. Der Wortanfang ist zum Beispiel eine typische "starke" Umgebung.

Ein wichtiges Prinzip ist, dass oft starke Laute weiter gestärkt und schwache Laute weiter geschwächt werden: "The rich get richer and the poor get poorer".

Fusion und Spaltung[Bearbeiten | Quelltext bearbeiten]

Bei einer Fusion werden zwei Segmente zu einem "verschmolzen" (z.B. Monophthongierung); bei einer Spaltung werden aus einem Segment zwei (z.B. Diphthongierung).

Frühe generative Phonologie[Bearbeiten | Quelltext bearbeiten]

Die generative Phonologie setzte sich nach dem Strukturalismus durch. Ihr Rahmen wird teilweise noch heute verwendet.

Das Ziel der generativen Linguistik ist, "alle und nur die grammatisch richtigen Sätze einer Sprache zu spezifizieren". Dieses Programm hat das Problem, dass Sprecher/innen der gleichen Sprache unterschiedliche Intuitionen über die Grammatikalität eines Satzes haben können. Man nimmt daher eine Unterscheidung zwischen der core grammar, die von so gut wie allen Sprechern geteilt wird, und der sprecherspezifischen Peripherie an.

Das wichtigste Werk zur generativen Phonologie war "The Sound Pattern of English" von Chomsky und Halle (1968), oft auch als SPE bezeichnet. Die dort präsentierte Theorie ist aber überholt, da sie uneinheitlich ist und sich sehr viel davon schnell als überflüssig herausstellte. Eine gute Einführung in die Theorie ist die Einleitung zu Halle & Clements (1983), "A Problem Book in Phonology".

Grundidee[Bearbeiten | Quelltext bearbeiten]

Die generative Phonologie versucht, Laute durch binäre Merkmale zu beschreiben (siehe Handout). Diese Merkmale werden gewöhnlich artikulatorisch definiert; dafür gibt es aber im Prinzip keinen Grund, da sich eine Korrespondenz zwischen artikulatorischen und akustischen Merkmalen herstellen lässt. Ein binäres Merkmal wird gewöhnlich als [± F] notiert, z.B. [± silbisch]. Laute werden durch Merkmalsmatrizen, also Auflistungen von Merkmalen und ihren Werten, repräsentiert. Oft verwendet man der Einfachheit halber IPA-Zeichen, anstatt die gesamte Merkmalsmatrize hinzuschreiben. Man nimmt aber an, dass das IPA-Symbol nur eine kürzere Schreibweise für eine Liste von Merkmalen ist.

Manchmal werden auch Merkmale für Morphem- und Wortgrenzen definiert, gewöhnlich werden diese aber mit + bzw. # transkribiert oder überhaupt weggelassen.

Morpheme und Wörter haben in der generativen Phonologie eine abstrakte phonologische Repräsentation, die auch als zugrundeliegende oder lexikalische Repräsentation bezeichnet wird. Diese Repräsentationen sind ungefähr mit der Ebene der Phoneme im Strukturalismus vergleichbar. Man nimmt an, dass die phonologischen Prozesse auf die lexikalische Repräsentation angewendet werden und die sogenannte systematische phonetische Repräsentation produzieren.

Man nahm ein sogenanntes T-Modell der Grammatik an:

     Tiefenstruktur
            |
   Oberflächenstruktur
    /             \
Phonetik        Semantik

Das Modell sagt noch nichts über die Perzeption von Sprache aus, da man sich die Ableitungen "top-down" vorstellt.

Regelsyntax[Bearbeiten | Quelltext bearbeiten]

Eine Sprache besitzt der generativen Phonologie zufolge eine Liste phonologischer Regeln. Die Regeln haben das Format

A -> B / C_D

Die Regel bedeutet, dass A zu B wird, wenn es nach C und vor D kommt. Dabei sind A und B Segmente oder Untermengen der Merkmale eines Segments (also einzelne Merkmalsmatrizen). Für C und D kann alles eingesetzt werden, das die Syntax des Formalismus zulässt:

Syntaktische Konventionen[Bearbeiten | Quelltext bearbeiten]

Runde Klammern ( ) zeigen Optionalität an: Wenn der Teil des Kontexts, der in den Klammern steht, nicht vorhanden ist, kann er weggelassen werden. Zum Beispiel ist die Regel

A -> B / C (D) _ (EF) G

eine Kurzfassung für folgende vier Regeln:

a -> b / c d _ e f g
a -> b / c d _ g
a -> b / c _ e f g
a -> b / c _ g

Wichtig ist dabei, dass man bei der Anwendung der Regeln versucht, den Inhalt der Klammern möglichst lang zu "behalten". Es ist eine Konvention, für konkrete Einzelregeln, die aus einem Regelschema abgeleitet sind, Kleinbuchstaben zu verwenden.

Eckige Klammern [ ] werden verwendet, um Merkmale zusammenzufassen; sie haben aber auch noch eine zweite Anwendung:

Datei:Phon mitschrift tex1.png

Wenn diese beiden Ausdrücke in einer Klammer vorkommen, bedeutet das, dass, wenn der Kontext x in den linken eckigen Klammern vorhanden ist, auf der rechten Seite x1 genommen werden muss. Wenn links y "gewählt" wird, muss rechts y1 vorkommen etc.

Spitze Klammern < > haben eher komplexe Anwendungen. Wenn in einer Regel mehrere Ausdrücke in spitzen Klammern stehen, müssen entweder alle oder keine davon vorkommen. Zum Beispiel würde

A -> B / C <D> _ <EF> G

zu den beiden Regeln

a -> b / c d _ e f g
a -> b / c _ g

Geschwungene Klammern { } bedeuten, dass genau eine von mehreren Optionen genommen wird.

Beispiel[Bearbeiten | Quelltext bearbeiten]

Die Alternation von [x] und [ç] kann man durch folgende Regel beschreiben.

Datei:Phon mitschrift tex2.png

Die Merkmalsmatrize auf der linken Seite entspricht im Deutschen nur dem Laut [x]. Wenn [x] das Merkmal [- back] dazu erhält, wird es palatalisiert. Das geschieht nach einem Konsonanten oder nach einem der vier angegebenen Vokale.

Transformationelle Regeln[Bearbeiten | Quelltext bearbeiten]

Fusionen und Spaltungen werden vom oben angegebenen Regelformat nicht wirklich erfasst. Sie werden mit Transformationsregeln beschrieben. Ein Beispiel:

i -> a i
1    1 2

Die Zahlen 1 und 2 geben an, welches Segment "vorher" da war und welches neu dazugekommen ist. Es kann als Schwäche des SPE-Formalismus gesehen werden, dass diese Angabe notwendig ist.

Ein Beispiel für eine Regel, die einen Fusionsprozess (einen Fall von Monophthongierung) beschreibt:

a u -> ɔː
1 2    2

Regelanordnung[Bearbeiten | Quelltext bearbeiten]

Die obige Beschreibung des SPE-Formalismus sagt noch nichts darüber aus, wie oft und in welcher Reihenfolge man die Regeln anwenden darf. Eine Regel, die in bestimmten Kontexten einen Vokal senkt, darf z.B. nicht beliebig oft angewendet werden.

In der SPE-Phonologie nimmt man eine fixe Reihenfolge an, in der die Regeln "ausprobiert" werden. Wenn eine Regel an die Reihe kommt, die anwendbar ist, muss sie auch angewendet werden. Wenn die Regel nicht anwendbar ist, wird sie übersprungen. Die Regel n + 1 kann also den Output der Regel n verändern. Das Konzept, dass eine Regel den Input für eine andere Regel produziert, bezeichnet man auch als "Feeding".

In der frühen generativen Phonologie wurde behauptet, dass die phonologischen Regeln für alle Sprachen gleich seien und nur ihre Anordnung unterschiedlich sei. Diese These ist nicht empirisch belegt. Es gibt Untersuchungen an Schweizer Dialekten, die dafür sprechen sollen, diese sind aber sehr umstritten.

Die Notwendigkeit einer Regelanordnung stellt ein großes Problem für die SPE-Phonologie dar, weil es nicht immer möglich ist, eine widerspruchsfreie Regelanordnung für eine Sprache zu bestimmen. Offenbar ist es möglich, dass es in einer Sprache Kontexte gibt, in denen Regel m vor Regel n angewendet wird, zugleich aber auch andere Kontexte, in denen Regel n vor Regel m kommt. Innerhalb des SPE-Formalismus ist dieses Problem nicht wirklich lösbar.

Wichtige Prinzipien[Bearbeiten | Quelltext bearbeiten]

Alternationsbedingung[Bearbeiten | Quelltext bearbeiten]

Unter Alternation versteht man den Umstand, dass es für eine sprachliche Einheit je nach phonologischer und morphologischer Umgebung mehr als eine Realisierung geben kann. Ein Beispiel dafür ist die Pluralendung im Englischen, die je nach Kontext als /z/, /s/ oder /ɪz/ realisiert wird. Klassisch würde man die drei Realisierungen dieser Endung als Allomorphe bezeichnen; sie sind aber phonologische Varianten, da es von phonologischen Regelmäßigkeiten abhängt, welche Form gewählt wird.

Eine suppletive Alternation ist eine Alternation, die nicht aus Regelmäßigkeiten der Sprache ableitbar ist.

Die Alternationsbedingung ist eine Anforderung an phonologische Theorien, die von vielen Phonologen nicht akzeptiert wird. Sie lautet:

Bei jeder nicht-suppletiven Alternation gibt man dem Morphem eine zugrundeliegende Repräsentation und leitet alle Allomorphe mittels allgemeiner phonologischer Regeln davon ab.
Elsewhere Condition[Bearbeiten | Quelltext bearbeiten]

Die elsewhere condition ist eine Bedingung an phonologische Regeln, die von Paul Kiparsky postuliert wurde. Sie lautet:

Speziellere Regeln werden vor allgemeineren angewendet.

Mit einer spezielleren Regel ist dabei eine Regel gemeint, die in spezielleren Kontexten anwendbar ist. Zum Beispiel tritt die Pluralendung /ɪz/ im Englischen nur nach 4 Lauten auf und ist daher spezieller als die Endungen /z/ und /s/.

Autosegmentale Phonologie und Rektionsphonologie[Bearbeiten | Quelltext bearbeiten]

Autosegmentale Phonologie[Bearbeiten | Quelltext bearbeiten]

Die autosegmentale Phonologie versucht, einige Probleme der SPE-Phonologie zu lösen. Sie wurde von John Goldsmith in seiner Dissertation begründet, geht aber auch auf Edwin Williams zurück. Ein Nachteil des SPE-Systems ist, dass es nur einzelne Segmente behandelt und daher keine sinnvolle Analyse von suprasegmentalen Phänomenen wie Silbenstruktur oder Tönen ermöglicht.

Gleichzeitig mit der autosegmentalen Phonologie kam die Idee auf, die Wortbetonung mit Bäumen zu beschreiben.

In der autosegmentalen Phonologie gibt es Segmente, die im Wesentlichen den Merkmalsmatrizen von SPE entsprechen, und Autosegmente. Die Autosegmente verbinden sich mit jenen Segmenten, die bestimmte Eigenschaften aufweisen. Ein Segment, das bestimmte Eigenschaften besitzt, die von einem Autosegment "verlangt" werden, wird als p-bearing unit bezeichnet. Wie genau die Autosegmente sich mit den Segmenten verbinden dürfen, wird durch sogenannte Assoziationskonventionen festgelegt, die sprachspezifisch sind. Assoziationskonventionen sind nicht mit den phonologischen Regeln der generativen Phonologie vergleichbar.

Ursprünglich nahm man an, dass es nur ein Autosegment gibt. In vielen Sprachen ist es aber sinnvoll, von mehr als einem autosegmentalen Merkmal auszugehen.

Ein Beispiel:

(1) 
A-Linie        A    A
             /  \   |
Segmente    []  []  [] 

(2) 
A-Linie     A     A
            |    /  \
Segmente    []  []  []

Auf der "A-Linie" sind die Autosegmente eingetragen. In (1) werden die Autosegmente von rechts beginnend mit den Segmenten verbunden, in (2) von links nach rechts. In diesem Beispiel sind alle Segmente p-bearing units und die Konventionen der Sprache erlauben, dass Autosegmente streuen (= sich mit mehreren Segmenten verbinden).

Ein wichtiges Prinzip in der autosegmentalen Phonologie ist der No Crossings Constraint:

Assoziationslinien dürfen sich nicht in derselben Ebene kreuzen.

Die Formulierung "in derselben Ebene" ist notwendig, weil man auch mehrere Autosegmente annehmen kann, wobei jedes Autosegment auf einer eigenen "Ebene" notiert wird.

Nicht alle Merkmale der generativen Phonologie sind autosegmentalisierbar. Insbesondere bei Merkmalen, die sich auf die Silbenstruktur beziehen, ist eine autosegmentale Analyse nicht sinnvoll.

Tonsprachen[Bearbeiten | Quelltext bearbeiten]

Mit der autosegmentalen Phonologie kann man Tonsprachen gut analysieren. Ein abstraktes Beispiel zu Tonsprachen:

Angenommen, eine Sprache hat zwei Töne (H und T) und besitzt die drei Betonungsmuster H, HT und HTH. In einer autosegmentalen Analyse, die davon ausgeht, dass Autosegmente streuen dürfen und von links nach rechts mit den Segmenten verbunden werden, würden sich für konkrete Wörter die folgenden Tonmuster ergeben:

σ         σ σ      σ σ σ     σ σ σ σ  
|         | |      | |/      |/ /_/
|         |/       |/        | /
H         H        H         H/ 

σ         σ σ      σ σ σ     σ σ σ σ
|         | |      | |/      | | |_/
|         | |      | |       | |/
H T       H T      H T       H T 

σ         σ σ      σ σ σ     σ σ σ σ
|         | |      | | |     | | |/
|         | |      | | |     | | |
H T H     H T H    H T H     H T H 

In Wörtern mit dem Tonmuster H besitzen also alle Silben den Ton H, weil alle Segmente mit dem (einzigen) Autosegment verbunden werden. Ein einsilbiges Wort mit dem Tonmuster HT hat den Ton H, da das am weitesten links stehende Autosegment H ist und die Assoziationen von links nach rechts hergestellt werden. Sonst haben in Wörtern mit dem Muster HT die zweite Silbe und alle darauffolgenden Silben den Ton T. Das Muster HTH wird analog dazu angewendet: Alle Silben ab der dritten haben den Ton H.

Vokalharmonie[Bearbeiten | Quelltext bearbeiten]

Auch Vokalharmonie kann man mit Autosegmenten sinnvoll beschreiben. Ein Beispiel: Im Koromfe gibt es ATR-Harmonie, d.h. in einem Wort kommen entweder nur Vokale mit ATR oder nur Vokale ohne ATR vor. Diese Tatsache kann man beschreiben, indem man ein Autosegment [+ ATR] annimmt, das nach rechts streut (d.h. wenn der erste Vokal eines Wortes im Lexikon das Merkmal [+ ATR] hat, breitet sich dieses auf die anderen Vokale aus).

 ATR________
  |    \     \
d o l l o t r u

Die p-bearing units bezüglich ATR sind alle Vokale. In dem Wort dollotru hat der erste Vokal aus lexikalischen Gründen das Merkmal [+ ATR]. Da das Autosegment streut, breitet sich dieses Merkmal auf das zweite o und das u aus.

Zusätzlich zur ATR-Harmonie harmonieren die Vokale im Koromfe auch hinsichtlich Lippenrundung (nur gerundete Vokale in einem Wort) und Palatalität (nur Vokale mit den Merkmalen [+ high, - back]). Somit gibt es in dieser Sprache (mindestens) drei Autosegmente. Das Autosegment, das die Lippenrundung repräsentiert, wird mit U und das Autosegment für Palatalität mit I notiert. Im Wort dollotru sind beispielsweise alle Vokale gerundet, da der Vokal der ersten Silbe gerundet ist und das Autosegment U nach rechts streut. Das Wort dɪŋgetrɪ enthält nur palatale Vokale, weil das Autosegment I mit dem ersten Vokal verbunden wird und nach rechts streut.

Autosegmente sind nicht streng binär. Die Abwesenheit eines Autosegments bedeutet nicht, dass das entsprechende Merkmal nicht vorhanden sein darf. Beispielsweise gibt es im Koromfe das Wort laɣatrɪ, in dem zwar ATR-Harmonie vorliegt, aber keine Vokalharmonie bezüglich Lippenrundung oder Palatalität. Trotzdem kommt der palatale Vokal ɪ vor.

Rektionsphonologie[Bearbeiten | Quelltext bearbeiten]

Die Rektionsphonologie ist eine Weiterentwicklung der autosegmentalen Phonologie, die von Jonathan Kaye, John Lowenstamm und Jean-Roger Vergnaud in den frühen 1980ern entwickelt wurde. Sie nimmt an, dass alle Merkmale autosegmental sind. Die Merkmalsmatrizen der generativen Phonologie werden also "entleert" und es bleibt ein Skelett von Zeitpunkten übrig, die den einzelnen Segmenten entsprechen. Dass ein Segment ein Merkmal besitzt, wird in der Rektionsphonologie also ausgedrückt, indem man den entsprechenden Zeitpunkt im Diagramm mit dem Autosegment für das jeweilige Merkmal verbindet.

Elemente[Bearbeiten | Quelltext bearbeiten]

Statt von Autosegmenten spricht man in der Rektionsphonologie oft von Elementen, was ungefähr, aber nicht ganz das Gleiche ist. Im Unterschied zu den Merkmalen der SPE-Phonologie, bei denen ein Laut das Merkmal [+ F] oder [- F] besitzen kann, ist ein Element einfach vorhanden oder nicht (es gibt also kein Äquivalent zu [- F]). Das hat zur Folge, dass man sich in der Theorie nicht explizit auf das Fehlen eines Autosegments beziehen kann. (?) Man spricht daher auch von einwertigen Merkmalen im Gegensatz zu den binären Merkmalen von SPE.

Die Rektionsphonologie ist der Dependenzphonologie sehr ähnlich. In der Dependenzphonologie analysiert man Vokale als Kombinationen der Komponenten I, U und A. I steht dabei für einen hohen, vorderen Vokal, U für einen hinteren Vokal mit Lippenrundung und A für einen tiefen, hinteren Vokal. Die anderen Vokale werden aus diesen Komponenten zusammengesetzt, wobei die einzelnen Komponenten unterschiedlich starke Beiträge zu einem Vokal leisten.

Die Erfinder der Rektionsphonologie versuchten am Anfang, zu zeigen, wie ihre Elemente zu den Merkmalen von SPE in Verbindung stehen. Sie nahmen an, dass sprachliche Strukturen immer asymmetrisch sind und ein Haupt besitzen (vgl. Haupt und Komplement in der Syntax). Auch in einer Merkmalsstruktur sollte es immer ein wichtigstes Merkmal geben, das als Haupt der Merkmalsstruktur oder hot feature bezeichnet wurde. Jedes Element entsprach einer Merkmalsstruktur mit einem hot feature (hier unterstrichen):

I [+ high, - back, - low]

A [- high, + back, - round]

U [+ back, + round, - low]

Man nahm an, dass bei der Zusammensetzung eines Lautes aus zwei Elementen immer ein Element das Haupt und das andere ein sogenannter Operator sei, der das Haupt abwandelt. Die Merkmalsmatrix des abgeleiteten Lautes enthält dann das hot feature des Operators und alle anderen Merkmale des Hauptes. Zum Beispiel kann man aus den Elementen A und I einen Laut A.I zusammensetzen. Dieser hat dann die Merkmale [- high, - back, - round]. Das Merkmal [- back] kommt vom Operator I, alles andere vom Haupt A. Diese Merkmalsstruktur entspricht einem [ɛ] oder [e].

Heute ist der Begriff des hot features nicht mehr wichtig, da man davon ausgeht, dass man abgeleitete Laute auch ohne solche "Berechnungen" bestimmen kann.

Assoziationskonventionen und Wohlgeformtheitsbedingungen[Bearbeiten | Quelltext bearbeiten]

Phonologische Regeln im engeren Sinn gibt es in der Rektionsphonologie nicht. Stattdessen gibt es Wohlgeformtheitsbedingungen und sprachspezifische Assoziationskonventionen. Wohlgeformtheitsbedingungen sind allgemeine Prinzipien wie der No Crossings Constraint. Assoziationskonventionen setzen fest, wie in einer bestimmten Sprache die Autosegmente mit den p-bearing units verbunden werden, also unter anderem, ob die Assoziationslinien von links nach rechts oder von rechts nach links gezeichnet werden, ob ein Autosegment streuen darf etc. Für unterschiedliche Autosegmente kann es in derselben Sprache unterschiedliche Assoziationskonventionen geben.

Ob und wie man mehrere Autosegmente mit einem Skelettpunkt verbinden darf, ist sprachspezifisch. In manchen Sprachen ist das überhaupt nicht möglich; manche Sprachen lassen nur bestimmte Reihenfolgen der Assoziationslinien zu.

Wenn mehrere Autosegmente auf derselben Linie eingetragen werden, wirkt sich das auf die möglichen Assoziationslinien aus. Welche Autosegmente sich eine Linie "teilen", ist sprachspezifisch.

Beispiele am Handout[Bearbeiten | Quelltext bearbeiten]

Die phonetischen Transkriptionen am Handout sind oft ungenau und gehören nicht zur Theorie.

Zu (1) - Elemente[Bearbeiten | Quelltext bearbeiten]

Das Element A entspricht dem Merkmal, dass der Zungenkörper bei einem Vokal unten ist (a ist ein typischer tiefer Vokal). Analog dazu steht U für Lippenrundung und I für Palatalität bzw. vordere Vokale.

Zu (2) - Akan[Bearbeiten | Quelltext bearbeiten]

Das Akan ist eine Sprachgruppe, die unter anderem in Ghana gesprochen wird. Die Autosegmente ATR und A befinden sich in den Akan-Sprachen auf derselben Linie. Das Autosegment ATR streut in beide Richtungen, soweit es geht; das Autosegment A streut dagegen gar nicht. Die Assoziationskonventionen des Akan legen fest, dass ein Vokal mit den Autosegmenten A und ATR verbunden werden darf, solange es nicht zu einer Kreuzung kommt.

Die durchgezogenen Linien entsprechen lexikalisch festgelegten Assoziationen. Gestrichelte Linien entsprechen den Assoziationen, die "am Schluss" anhand der Assoziationskonventionen hinzukommen.

[o] bzw. [ɔ] ist ein Subjektspronomen und [i] bzw. [ɪ] ein Objektspronomen. Dazwischen steht in jedem der vier Beispiele ein Verbstamm.

Im dritten Beispiel (o-bisa-ɪ) blockiert das rechte A, das mit dem Vokal a verbunden ist, eine Assoziation zwischen dem Autosegment ATR und dem letzten Vokal. Daher tritt in der letzten Silbe ein Vokal ohne ATR, das ɪ, auf.

Zu (3-4) - Nyangumarda[Bearbeiten | Quelltext bearbeiten]

Das Nyangumarda wird in Australien gesprochen. Die meisten australischen Sprachen haben nur vier oder fünf Vokale; im Nyangumarda sind es sogar nur drei.

Hier wurde eine breite Transkription verwendet; das Symbol <d> wurde für ein retroflexes [ɖ] benutzt. Das retroflexe [ɳ] wurde als <rn> transkribiert, die Abfolge <rn> entspricht also einem einzelnen Konsonanten. Das <j> im zweiten Beispiel ist eigentlich ein [dʒ]. In den lexikalischen Repräsentationen im Handout steht statt dem m im Futurmorphem ein /p/. Das [m] wird durch Nasalierung (wegen dem nachfolgenden ɳ) erzeugt, was aber aus den angegebenen Daten nicht erkennbar ist.

Die p-bearing units im Nyangumarda sind nur Vokale, die nicht schon im Lexikon mit einem Autosegment verbunden sind. Autosegmente streuen immer nach rechts. Außerdem schreiben die Assoziationskonventionen der Sprache vor, dass jeder Vokal mit einem Autosegment verbunden sein muss.

In vielen Sprachen werden Vokale mit "leerer" Qualität durch einen Schwa oder gar nicht realisiert. Das Nyangumarda hat keinen Schwa und sieht vor, dass jeder Vokal mit einem Autosegment assoziiert ist. Daher muss es die "leeren" Vokalpositionen nach einem anderen Prinzip auffüllen. Eine Möglichkeit dafür bietet die Vokalharmonie.

Das Nyangumarda ist eine agglutinierende Sprache; die Suffixe lama, limi und lumu drücken Futur aus. Die Alternationsbedingung verlangt, dass man eine einzige zugrundeliegende mentale Repräsentation des Futurmorphems annimmt. In dieser Repräsentation sind keine Vokalqualitäten vorgegeben; die leeren Vokalqualitäten werden daher mittels Vokalharmonie aufgefüllt. Ungefähr 20% der Suffixe im Nyangumarda besitzen keine vorgegebenen Vokalqualitäten.

Die unmögliche Form yurpa-lumu-rnu in (4) wird durch den No Crossings Constraint ausgeschlossen. Wenn die Vokale der Suffixe als /u/ realisiert wären, müssten sich die Assoziationslinien der Autosegmente U und A kreuzen. Da U und A auf derselben Linie eingetragen werden, verbietet der No Crossings Constraint diese Kreuzung.

Zu (5-6) - Mòoré[Bearbeiten | Quelltext bearbeiten]

Im Mòoré weisen Wörter dann ATR-Harmonie auf, wenn im Stamm ein hoher [+ ATR]-Vokal vorkommt. Bei tiefen [+ ATR]-Vokalen im Stamm gibt es hingegen keine Harmonie. Man nimmt daher an, dass die Elemente ATR und A auf derselben Linie liegen und dass A nach ATR kommen kann, aber nicht umgekehrt. Diese Reihenfolge der Autosegmente ist historisch gewachsen; es gibt eine Variante des Mòoré, in der sie umgekehrt ist. Die Assoziationskonventionen der Sprache legen fest, dass ATR streuen darf und A nicht.

Im zweiten Beispiel kann das Autosegment ATR streuen, obwohl ein A vorhanden ist. Das liegt daran, dass das A mit einer weiter rechts stehenden Skelettposition verbunden ist, so dass man den letzten Vokal mit ATR verbinden kann, ohne dass es zu einer Kreuzung kommt. Folglich ist der letzte Vokal in diesem Wort [+ ATR]. Im vierten Beispiel kann ATR nicht bis zum letzten Vokal streuen, weil das A mit der zweiten Position verbunden ist. Wenn ATR weiter nach rechts streuen würde, käme es zu einer Kreuzung der Assoziationslinien. Daher ist der letzte Vokal in diesem Wort [- ATR].

Beispiel (6) behandelt das Tonsystem des Mòoré. Die Bezeichnungen H und L stehen für high und low (tone). Phonologisch gesehen hat das Wort mòoré einen steigenden Tonverlauf. Im Satz èd góm mòoré ergibt sich aber phonetisch ein fallender Tonverlauf. Eine autosegmentale Analyse würde davon ausgehen, dass das einsilbige Wort èd zwei Töne besitzt und die Töne von links nach rechts mit den Silben verbunden werden. Die letzte Silbe von mòoré erhält dann einen Tiefton und einen Hochton, wodurch sich phonetisch ein tieferer Ton ergibt. Man kann diese Veränderung des Tonverlaufs als Phonologisierung des Downstep ansehen.

Zu (7) - Koromfe[Bearbeiten | Quelltext bearbeiten]

Bei diesen Verbformen aus dem Koromfe gibt es zusätzlich zur schon erwähnten ATR-Harmonie folgende Regelmäßigkeiten:

  • Nasalvokale kommen nur in der Position V1 vor.
  • In der Position V2 gibt es keine hohen Vokale (i, u).
  • In der Position V3 gibt es ausschließlich hohe Vokale.

Die Tatsache, dass in der Position V2 keine hohen Vokale auftreten, kann man beschreiben, indem man ein Element A (steht für "tiefe" Vokalqualität) auf einer eigenen Linie annimmt und dieses mit der zweiten Vokalposition verbindet. Das Element A darf nicht streuen. Da andere Segmente zur Vokalqualität wie I und U nicht auf der gleichen Linie wie A eingetragen werden, ist der No Crossings Constraint auch dann nicht verletzt, wenn diese Segmente streuen.

Die konkreten Vokalqualitäten ergeben sich durch Kombination der Elemente, die mit einer Vokalposition verbunden sind. Wenn eine Vokalposition zum Beispiel mit einem I- und einem A-Element verbunden ist, aber nicht mit einem ATR-Element, ergibt sich der [- ATR]-Vokal [ɛ], der hinsichtlich der Zungenkörperposition zwischen i und a liegt.

Im Wort dollotru wird die erste Vokalposition lexikalisch mit den Elementen U, A und ATR verbunden. Da ATR und U streuen, sind auch alle anderen Vokale gerundet und [+ ATR]. Der Vokal [o] an den ersten beiden Vokalpositionen ergibt sich durch Kombination eines U- und eines A-Elements. Das A-Element an der zweiten Vokalposition ist lexikalisch vorgegeben. Da A nicht streut, steht an der dritten Vokalposition ein [u] und kein [o].

Die Nasalvokale in der ersten Silbe in manchen Wörtern werden durch einen Tiefton auf dieser Silbe erzeugt. In Sprachen wie dieser stellt das Auseinanderhalten von Ton und Nasalität ein theoretisches Problem dar.

Natürliche Phonologie[Bearbeiten | Quelltext bearbeiten]

Die Natürliche Phonologie wurde ungefähr zeitgleich mit der generativen Phonologie von David Stampe entwickelt. Im Gegensatz zur generativen Phonologie nimmt sie an, dass man die Phonologie nicht vollständig formalisieren kann. Die Formalisierung ist auch nicht ihr Ziel; stattdessen geht es ihr um die Beschreibung phonologischer Prozesse. Die natürliche Phonologie führt Traditionen der Indogermanistik weiter. Phoneme werden in der natürlichen Phonologie - vereinfacht gesprochen - als im Kopf der Sprecher fixierte "Vorstellungen" angesehen.

Prozesse und Regeln[Bearbeiten | Quelltext bearbeiten]

Man unterscheidet streng zwischen natürlichen (phonologischen) Prozessen und erlernten Regeln. Dabei werden zuerst die erlernten Regeln und dann alle natürlichen Prozesse angewendet.

Natürliche Prozesse kann man zwar unterdrücken, aber nicht bewusst manipulieren. Erlernte Regeln können hingegen manipuliert werden. Beim Spracherwerb treten die Prozesse zuerst auf; die Regeln werden später erworben. Prozesse werden quasi automatisch angewendet; bei Regeln muss man dagegen lernen, wo sie angewendet werden.

Wichtige Prozesse in der natürlichen Phonologie sind Stärkungen und Schwächungen. Eine Schwächung ersetzt einen stärkeren Laut durch einen Schwächeren, bei einer Stärkung ist es umgekehrt. Starke Konsonanten sind dabei Laute ohne jede Sonorität wie die Plosive [p, t, k]. Starke Vokale sind hingegen sehr sonore Laute. Schwas und Approximanten sind typische schwache Laute.

Man nimmt auch starke und schwache Positionen an. Schwache Laute werden bevorzugt weiter geschwächt, insbesondere in schwachen Positionen. Stärkungen werden immer vor Schwächungen angewendet.

Beispiele[Bearbeiten | Quelltext bearbeiten]

Die Palatalisierung des [x] zu [ç] im Deutschen ist ein natürlicher Prozess, ebenso die Auslautverhärtung.

Ein Prozess, der in vielen Sprachen historisch beobachtet werden kann, ist die Schwächung des Reibelauts [s] zu einem [h], das dann völlig wegfiel.

Eine typische erlernte Regel ist der Umlaut in der Flexionsmorphologie des Deutschen, da er hochgradig unregelmäßig ist und man aktiv lernen muss, welche Wörter umgelautet werden und welche nicht.

Ein Beispiel aus dem Deutschen: Das Wort <rad> wird phonologisch als /rɑːd/ repräsentiert. Auf dieses Wort kann man unter anderem die Regel "Umlaut" zur Bildung des Plurals und den Prozess "Auslautverhärtung" anwenden. Wenn man die Pluralform dieses Wortes bilden will, wird zuerst die Umlaut-Regel angewendet, da Regeln immer vor Prozessen kommen müssen. Diese führt (im österreichischen Deutsch) zum Wort /reːdɐ/. Da dieses Wort nicht mehr mit einem Konsonanten endet, ist die Auslautverhärtung nicht mehr anwendbar.

Wenn man zuerst den Auslautverhärtungs-Prozess angewendet hätte, würde dieser die Form /rɑːt/ ergeben und die Regel für die Pluralbildung würde die falsche Form /reːtɐ/ produzieren.

Silbenstrukturtheorien[Bearbeiten | Quelltext bearbeiten]

Im Phonetik-Teil wurden bereits zwei wenig zufriedenstellende Definitionen der Silbe vorgestellt. Hier wird die Behandlung der Silbe im Strukturalismus und in der generativen Phonologie besprochen.

Strukturalistische Hypothesen über die Silbe (Pulgram)[Bearbeiten | Quelltext bearbeiten]

Im Strukturalismus gab es eher wenig Forschung über die Silbe. Man war daran interessiert, welche Folgen von Lauten in einer Sprache vorkommen dürfen und welche nicht. Im Deutschen darf beispielsweise [kt] nicht am Wortanfang stehen, auf ein [k] kann aber [r], [l], [m], [n], [v] oder ein Vokal folgen.

Ein wichtiges Buch über die strukturalistische Behandlung der Silbe stammt von Ernst Pulgram. Er stellte die Hypothese auf, dass die möglichen Wortanlaute und die möglichen Silbenanlaute einer Sprache gleich sein müssen. Auch die möglichen Wortauslaute und die möglichen Silbenauslaute sind ihm zufolge gleich. Die Annahme, dass das für alle Sprachen gilt, wird aber von Daten aus mehreren Sprachen widerlegt:

  • Lange Konsonantenfolgen können oft nur am Wortende auftreten (ein Beispiel dafür ist das deutsche Wort Herbsts).
  • In manchen Sprachen darf es im Gegensatz dazu keine langen Konsonantenfolgen am Wortende geben, mitten im Wort aber schon. Im Koromfe beginnt jedes Wort mit der Sequenz (C)V und am Wortende dürfen nur Vokale gefolgt von [m], [n], [r] oder [l] stehen. Pulgrams Hypothese würde daher vorhersagen, dass in dieser Sprache nicht mehr als zwei Konsonanten mitten im Wort aufeinanderfolgen dürfen. Das stimmt aber nicht, da es Wörter wie sɪgtrgʊ ("Filter") gibt.
  • Die strukturalistische Silbentheorie erklärt Daten zu Betonung nicht hinreichend. Im Deutschen besitzt zum Beispiel jedes Wort eine betonte Silbe, Präfixe wie zer- oder be- dürfen aber nie betont sein.

Silbenschablone[Bearbeiten | Quelltext bearbeiten]

In der Theorie von SPE wird die Silbenstruktur ignoriert. Ein früher Versuch, mit Methoden der generativen Phonologie die Silbenstruktur zu untersuchen, wurde in den späten 70ern und frühen 80ern von Paul Kiparsky unternommen.

Kiparsky schlug eine sogenannte Silbenschablone vor. Dieses Konzept entstand im Rahmen der metrischen Phonologie, die gleichzeitig mit der autosegmentalen Phonologie aufkam und dann schnell wieder unterging. Die Silbenschablone entspricht im Prinzip einem Konstituentenstrukturbaum für die Silbe, den man sich etwa so vorstellt:

               σ
            /    \
           /      \
          w        s
       O(nset)    R(eim)
                   / \
                  /   \
                 s     w
           N(ukleus)  K(oda)

s ... strong, w ... weak, σ ... Silbe

Eine wichtige Idee in der metrischen Phonologie war, dass es in Verzweigungen immer einen starken und einen schwachen Teil gibt. Silben und starke Knoten dürfen weiter verzweigen, schwache Knoten nicht. Mit "verzweigt nicht" ist in diesem Zusammenhang gemeint, dass ein Knoten nur Terminalknoten dominiert.

Im Normalfall stehen in Onset und Koda Konsonanten und im Nukleus Vokale.

Den Reim gibt es in allen Sprachen; ein Onset ist hingegen nicht notwendig. Die typologisch häufigste Silbenstruktur besteht nur aus Onset und Nukleus; die Koda fehlt. Die Sprachen mit dieser Struktur werden auch als CV-Sprachen bezeichnet. Beispielsweise haben in den Bantu-Sprachen fast alle Silben die CV-Form (das Wort Bantu selbst ist kein Gegenbeispiel, weil das <n> nicht für einen eigenständigen Konsonanten, sondern für eine Pränasalierung des t steht).

Die kleinstmögliche Silbe besteht nur aus einem Nukleus. Auch in CV-Sprachen darf der Onset leer bleiben, weil er der schwache Teil der obersten Verzweigung ist. Starke Konstituenten dürfen hingegen nicht völlig leer sein.

Ein Problem der Silbentheorie von Kiparsky ist, dass sie extrasilbische Konsonanten annimmt; das heißt, ein Segment muss in dieser Theorie nicht unbedingt zu einer Silbe gehören. Dadurch ist es nicht klar zu fassen, welche Abfolgen von Lauten die Theorie wirklich ausschließt. Die Silbenstrukturtheorie von Halle & Vergnaud (1980) hat übrigens das gleiche Problem. Ein weiteres Problem ist, dass diese Silbenschablone nicht erklären kann, warum es keine Silben unbegrenzter Länge gibt. Insbesondere kommen echte Triphthonge nicht vor.

Rektionsphonologische Theorie der Silbenstruktur[Bearbeiten | Quelltext bearbeiten]

Theoretisches Modell[Bearbeiten | Quelltext bearbeiten]

1990 veröffentlichten die Erfinder der Rektionsphonologie, Kaye, Lowenstamm und Vergnaud (als KLV abgekürzt), einen Artikel über die Silbenstruktur. Sie stellten folgende Annahmen auf:

  • Onset, Reim und Nukleus sind Konstituenten, die Silbe selbst aber nicht.
  • Der Nukleus darf unter bestimmten Bedingungen leer bleiben.
  • Verzweigungen sind maximal binär. (Hier sind auch Verzweigungen eines nichtterminalen Knotens in Terminalknoten gemeint.)

Aus diesen Annahmen ergeben sich die folgenden Konstituentenstrukturen als einzige Möglichkeiten:

O       O        N        N        R        R
|      / \       |       / \       |       / \
x     x   x      x      x   x      N      N   |
                                              x

Ob Onsets bzw. Nuklei verzweigen dürfen, ist sprachspezifisch. In einigen umstrittenen Ausnahmen lassen KLV auch Onsets ohne innere Struktur zu.

Die Nuklei in den letzten beiden Bäumen können natürlich noch weiter verzweigen. Die x stehen für mögliche Positionen. Nicht jede Position, die in der Struktur vorkommt, muss tatsächlich ausgesprochen werden; insbesondere gibt es in dieser Theorie Nuklei, die nicht ausgesprochen werden. Phonologisch leere Nuklei können dabei durchaus phonetisch realisiert werden, etwa als Schwa (= Vokal mit "leerer" Qualität).

Rektion ist eine Beziehung zwischen Konstituenten oder zwischen Positionen innerhalb einer Konstituente. Der Begriff "Rektion" ist aus der Syntax bekannt.

Die Richtung der Rektion ist vorgegeben: Eine Position innerhalb einer (phonologischen) Konstituente kann nur von links nach rechts regiert werden; Rektion zwischen Konstituenten geht dagegen immer von rechts nach links.

Eine Art von Rektion, die bestimmt, welche Nuklei phonetisch realisiert werden, ist die echte Rektion. Sie ist folgendermaßen definiert:

Echte Rektion: Ein Nukleus A regiert einen Nukleus B genau dann echt, wenn (1) die Position von B (phonologisch) leer ist, (2) A phonetisch realisiert ist und (3) A selbst nicht regiert oder sonstwie lizensiert ist.

Man nimmt ein Empty Category Principle an, das bestimmt, dass bestimmte Positionen phonetisch leer bleiben dürfen. Ähnliche Prinzipien gibt es in der Syntaxtheorie.

Empty Category Principle: Eine leere Nukleus-Position darf stumm bleiben, wenn sie echt regiert oder sonstwie lizensiert ist.

"Sonstwie lizensierte" Nuklei können durch den Final Empty Nucleus-Parameter (FEN) auftreten. FEN ist eine Eigenschaft, die in manchen Sprachen vorhanden ist und in anderen fehlt. Der FEN-Parameter hat eine sprachspezifische Domäne: das Wort oder das Morphem.

Final Empty Nucleus: Am Ende eines Wortes oder Morphems darf ein phonetisch leerer Nukleus auftreten.

Innerhalb eines verzweigenden Onsets muss die linke Position die rechte regieren. Dabei kann ein starker Laut einen schwächeren regieren, aber nicht umgekehrt.

Beispiele[Bearbeiten | Quelltext bearbeiten]
Marokkanisches Arabisch[Bearbeiten | Quelltext bearbeiten]

Das bekannte Beispiel der Verbformen ktɨb und kɨtbuː aus dem marokkanischen Arabisch, das oft fälschlicherweise als Metathese analysiert wurde, wird in der rektionsphonologischen Theorie der Silbenstruktur so erklärt:

In der zugrundeliegenden lexikalischen Repräsentation von ktɨb bleiben die Vokalpositionen (also die Nuklei) leer. Die Form kɨtbuː entsteht aus einem Stamm ohne Vokale, an den das Suffix angehängt wird. Die unterschiedlichen Positionen des Vokals ɨ folgen dann aus dem FEN-Parameter, dem ECP und der Definition der echten Rektion.

(a)
O       N3      O       N2       O       N1
|        |      |       |        |        | 
x        x      x       x        x        x
k               t       ɨ        b

(b)
O       N3      O       N2       O       N1
|        |      |       |        |      /  \
x        x      x       x        x     x    x
k        ɨ      t                b       uː

Nach Konvention werden die Nuklei von rechts nach links nummeriert.

Man nimmt an, dass es im Arabischen den FEN-Parameter gibt. In (a) ist dann der leere Nukleus N1 lizensiert. Da N1 lizensiert und phonetisch nicht realisiert ist, kann er N2 nicht echt regieren. Somit muss N2 phonetisch realisiert sein. Im marokkanischen Arabisch werden Vokale mit "leerer" Qualität als ɨ realisiert; das ɨ hat in dieser Sprache also die Rolle eines Schwa. N2 kann N3 echt regieren, weil N2 phonetisch realisiert und N3 phonologisch leer ist und N2 nicht selbst regiert ist. Daher darf N3 leer bleiben.

In (b) wird das Suffix uː an den Stamm mit leeren Vokalpositionen angehängt. Weil uː ein Langvokal ist, nimmt es zwei Nukleuspositionen ein. Der Nukleus N1 regiert N2 echt, weil N1 phonetisch realisiert ist, N2 leer ist und N1 als am weitesten rechts stehender Nukleus nicht selbst regiert wird. Deshalb kann N2 leer bleiben. Da ein leerer Nukleus aber keinen anderen Nukleus echt regieren kann, wird N3 nicht echt regiert und muss daher realisiert werden.

Deutsch[Bearbeiten | Quelltext bearbeiten]

Im Deutschen gibt es die Formen [eːdəl] und [eːdlər] ("überdeutlich" ausgesprochen; das silbische l in eːdl̩ wird durch einen anderen phonologischen Prozess erzeugt). In der zweiten Form wird anscheinend der Schwa zwischen [d] und [l] getilgt. Diesen Prozess kann man so analysieren:

(a)
O       N3       O       N2       O        N1
|      /  \      |       |        |        |
x     x    x     x       x        x        x 
        eː       d       ə        l

(b)
O       N4       O       N3       O        N2       O        N1  
|      /  \      |       |        |        |        |        | 
x     x    x     x       x        x        x        x        x 
        eː       d                l        ə        r

Der Langvokal eː nimmt zwei Nukleus-Positionen ein.

In (a) ist der Nukleus N3 in der lexikalischen Repräsentation des Wortes gefüllt, N1 und N2 aber nicht. Man nimmt an, dass das Deutsche den FEN-Parameter (auf der Wortebene) besitzt. Dieser lizensiert in (a) den leeren Nukleus N1. Da N1 nicht realisiert ist, kann er N2 nicht echt regieren (eine Bedingung für echte Rektion ist, dass der regierende Nukleus realisiert ist). Daher muss N2 phonetisch realisiert sein. Da es lexikalisch festgelegt ist, dass N3 nicht leer sein kann, kann auch N2 N3 nicht echt regieren.

In (b) ist N4 der lexikalisch gefüllte Nukleus. Auch hier ist N1 leer und kann N2 daher nicht echt regieren. N2 kann aber N3 echt regieren, weil N3 lexikalisch nicht gefüllt ist, N2 phonetisch realisiert ist und N2 nicht selbst regiert wird. Weil N3 echt regiert wird, erlaubt das ECP, dass er leer bleibt. N4 kann wiederum nicht von N3 regiert werden.

Im Deutschen gibt es sehr viel Schwa-Variabilität. Das bedeutet, dass es oft vorkommt, dass ein Schwa innerhalb eines Paradigmas in manchen Formen auftritt und in anderen nicht.

Man kann mit rektionsphonologischen Annahmen auch erklären, warum im Deutschen die Konsonantenfolge br im Anlaut möglich ist, rb aber ausgeschlossen ist (bringen/*rbingen). Man nimmt an, dass das Deutsche verzweigende Onsets besitzt. Damit ergeben sich für die Anlaute br und rb folgende Strukturen:

   O      * O
  / \      / \
 x   x    x   x
 b   r    r   b 

Innerhalb von verzweigenden Konstituenten gibt es Rektion von links nach rechts. Da ein starker Laut einen schwächeren regieren kann, aber nicht umgekehrt, ist die linke Struktur zulässig (b regiert r), die rechte aber nicht (r kann b nicht regieren). Eine Struktur wie im Arabischen, die beliebige Konsonantenfolgen ermöglicht, ist nur dann möglich, wenn die Onsets prinzipiell nicht verzweigen.

Die Anlaute sp und st stellen ein Problem für diese Silbenstrukturtheorie dar, da s schwächer ist als p und t und sie daher nicht regieren kann.

Koromfe[Bearbeiten | Quelltext bearbeiten]

Diese Silbentheorie kann auch das oben erwähnte Beispiel aus dem Koromfe erklären: Das Wort sɪgtrgʊ ist aus den vier Morphemen sɪg (Verbstamm, "schweigen"), t (Kausativsuffix), r (Imperfektivsuffix) und (Nominalklassensuffix) zusammengesetzt. Man nimmt an, dass das Koromfe den FEN-Parameter auf der Morphemebene hat. Dass am Ende eines Morphems stumme Nuklei auftreten dürfen, erklärt, warum mitten im Wort vier Konsonanten aufeinanderfolgen können.