Uni Wien:Einführung in die Grammatiktheorie VO (Prinzhorn)/Alte Mitschrift (Einführung in die spezielle Grammatiktheorie)

Aus VoWi
Zur Navigation springen Zur Suche springen

Vorlage:Wiki-Mitschrift Eine Mitschrift zu einer anderen LVA, die auch Inhalte enthält, die in der Grammatiktheorie-VO nicht besprochen wurden.

Hintergrund[Bearbeiten | Quelltext bearbeiten]

Wir stellen uns zunächst drei Fragen:

  1. Was konstituiert die Kenntnis von Sprache?
  2. Wie wird die Kenntnis erworben?
  3. Wie wird die Kenntnis von Sprache benützt?

Menschliche Sprache ist etwas, das nur Menschen haben. Sie weist Merkmale auf, die Tiersprachen nicht haben, wie zB:

  • Einbettungen (Donaudampfschifffahrtsgesellschafts...), d.h. Rekursivität
  • Menschliche Sprache ist indirekt, man kann auf Objekte referieren, die gar nicht da sind (zB "Das Buch, das gestern da lag" oder auch Konjunktiv "Ich wäre gerne in der Südsee")

Frage 1 muss daher auch diese Themen addressieren.

Frage 2 stellt ein philosophisches Problem dar, denn wir fragen uns, wie die Eignschaften von Sprache in unser Wissen kommen. Analogieschlüsse kommen als Antwort nicht in Frage, denn es gibt Eigenschaften, die nur Sprache hat! Inwieweit kann man Sprache als domänenspezifisch annehmen, d.h. gibt es Bereiche, die nur für Sprache und nichts anderes zuständig sind?

"Intelligenz" kann man nicht wirklich beschreiben, es ist die Fähigkeit, Aufgaben in verschiedenen Bereichen zu lösen (zB abstrahieren, mathematische Fähigkeiten usw...). Es gibt Menschen, die in ihrer Intelligenz beeinträchtigt sind (die Norm nicht erfüllen können). Sind solche Leute jedoch auch von der Sprache gestört? Nicht unbedingt von der Form her, aber vom Inhalt!

Wir können also auch zu Frage 3 sagen, dass es eine Kenntnis der Form gibt und eine Kenntnis, wie sie benutzt wird: Form steht also dem Gebrauch gegenüber. Sprache ist daher nur in einer gewissen Situation definierbar (Pragmatik, Sprechakttheorie).

"Sprachliche Bedeutung" ist kompositional, sie setzt sich aus Einzelteilen zusammen, meint der deutsche Sprachphilosoph Frege. Wenn man zB "grünes Haus" sagt, so ist dies aus zwei Elementen ("grün" und "Haus") zusammengesetzt, deren Bedeutung man verbindet.

In der kombinatorischen Bedeutung gibt es jedoch noch eine spezielle Bedeutung im Kontext. Daraus ergeben sich zwei Schulen:

  • die Schule der logischen Semantik, welche mit Frege begonnen hat und vom Wiener Kreis und Carnap fortgeführt wurde
  • die gebrauchsorientierte Schule nach John Austin, Ludwig Wittgenstein und Paul Horwich

Sprache kann also bereits auf der Bedeutungsebene neue Dinge ausdrücken, im Gebrauch gibt es jedoch immer unterschiedliche Bedeutungen. Bedeutungstheorie braucht daher immer zwei Ansätze (formal und praktisch).

Was ist eigentlich die Funktion von Sprache? "Kommunikation" kann nur eine Teilantwort sein, denn auch Tiere kommunizieren. Man kann nicht sagen, dass die Sprache der Primaten eine Vorstufe der menschlichen Sprache ist, eine darwinistische Erklärung für Sprache ist also nicht möglich. Dies ist auch der Grund dafür, dass die französische Akademie der Wissenschaften lange Zeit in Frankreich die Frage nach dem Ursprung von Sprache schlichtweg verbot. Sprache ist auch wichtig für die Gruppenidentifikation, auch wenn die Tierwelt Mittel hierfür hat, sind diese doch weniger komplex.

Es gibt zwei grundlegende Hypothesen zum Spracherwerb:

  • Chomskys universelle Grammatik besagt, dass Spracherwerb der Erwerb eines spezifischen Spracherwerbsprogrammes ist, die allgemeinen Kognitiven Fähigkeiten spielen hierbei eine untergeordnete Rolle. Seine Theorie basiert also auf dem Nativismus, welcher auf Platon zurückgeht. Nativismus glaubt an die Angeborenheit der sprachlichen Fähigkeiten, d.h. die Fähigkeiten, gewissen Dinge zu erwerben, sind bereits da.
  • Piagets nichtspezifische Hypothese meint, dass Spracherwerb durch allgemeine kognitive Entwicklungen bewältigbar ist. Stufen der sprachlichen Entwicklung werden nach ihm durch Stufen der nichtsprachlichen Entwicklung determiniert. Der Computermetapher nach wäre demnach für ihn das Hirn in seiner Gesamtheit ein Rechner. Sein Ansatz basiert daher auf dem Empirismus. Er denkt zwar nicht, dass das Hirn zu Beginn "unbeschrieben" ist, glaubt aber nicht an derart spezifisch angeborene Fähigkeiten wie Chomsky.

Die beiden stehen sich nicht direkt gegenüber, Chomsky kritisiert an Piagets Theorie nur diesen einen kleinen Punkt, der die Sprache betrifft.

Ein Argument für Chomskys Nativismus findet sich im Phänomen der Kreolisierung. Wenn hierbei eine neue Grammatik entsteht, so haben hierbei die Kreolsprachen alle ähnliche Eigenschaften, was die Theorie einer angeborenen Sprachfähigkeit stützt.

Ein weiteres Argument für die Disoziation Intelligenz/Sprache findet sich, wenn man Phänomene von mangeldem sprachlichem Input betrachtet. Das Kind "Genie" zB wurde ca 14 jahre lang von seinen Eltern in den Keller gesperrt, ohne dass mit ihm gesprochen wurde. Sein IQ war danach durchschnittlich, seine Sprache jedoch retardiert. Überhaupt spricht "poverty of stimulus" gegen den behavioristischen Ansatz - ein Kind hört nicht jede mögliche Kombination aus Wörtern, bevor es sie spricht, es hört nur einen sehr kleinen Teil möglicher Sprechakte und verallgemeinert daraus Regeln. Auch fehlerhafte Stimuli (zB motherese) hindern es dabei nicht.

Prinzipiell sprechen auch pathologische Argumente für diese Disoziation: Bei einer Broca Aphasie verliert man einen Teil seiner Sprachfähigkeit, jedoch verstehen wir derzeit noch viel zu wenig darüber, wie das Hirn funktioniert (für das WAS wir verstehen siehe Einführung in die Neurolinguistik VO (Dogil)).

Jerry Fodor war ein Berater von Chomsky, er schrieb 1983 "The Modularity of Mind", um ein größeres Bild der Teilbereiche des Hirns zu geben. Unterstützt wurde er hierbei auch vom Physiologen Franz Josef Gall, welcher zu dieser Zeit sehr populär war (es gab sogar Briefbeschwerer mit seinem Modell). Das Gall-Modell war Grundlage der Phrenologie, die auch berühmte Hobby-Anhänger wie Napoleon Bonaparte hatte. Sie spekulierte darüber, dass die verschiedenen Regionen des Hirns für verschiedene Fähigkeiten zuständig seien. Laut ihren Prinzipien könnte man also aus der Schädelform eines Menschen sehen, wie ausgeprägt seine verschiedenen kognitiven Fähigkeiten sind. Diese Wissenschaft wird heute nicht mehr ernstgenommen, unterstützte zwischen damals und heute jedoch stark die Rassenlehre.

Mit Jerry Fodors Modularitätsmodell wird jedoch auch heute noch erfolgreich gearbeitet. Er beschreibt die spezifischen menschlichen Eigenschaften als ein Zentralsystem (ZS), welches Zugriff auf "Module" (Mx) hat.

 M1
  |
  |
 ZS--M2
  |
  |
 M3

Module sind unbewusst, d.h. das Zentralsystem kann nicht hineinsehen. Sie sind In/Outputsysteme.

Ein klassisches Beispiel für ein solches Modul wäre die Gesichtswahrnehmung: Man speichert Gesichter ab ohne zu wissen wer die Person ist, dieses Wissen ist gleichzeitig nicht bewusst abrufbar. Dies ist auch im Phänomen der Prosopagnosie sichtbar, welches bei einem Unfall am Hirn auftreten kann. Betroffene Personen erkennen bereits nach einem Tag ihre Bekannten nicht mehr am Gesicht, sondern nur noch an Stimme oder anderen Merkmalen.

Fodors Module sind informationsmäßig abgekapselt und sind sehr schnell in der Verarbeitung. Diese Systeme können zusammenbrechen, sie sind neuronal repräsentierbar. Sie sind primitiv, d.h. sie sind grundlegende Bausteine, die auch andere Systeme zusammensetzen können. Grammatisches Wissen ist modulares Wissen und liegt im unbewussten Teil des Zentralsystems. Sprecher können einen Beispielsatz aus ihrer Muttersprache als korrekt oder inkorrekt klassifizieren, können aber nicht sagen warum - das machen erst die Linguisten.

Ein Beispiel hierfür wäre die Sehfähigkeit, welche sich in das Erkennen von Farbe, Textur, Form, Perspektive usw... gliedert - oder auch die Sprache, welche zB durch die Teilsysteme Flexion, Lexikon, Perzeption/Produktion aufgebaut wird.

Zum Beispiel kann man die phonologische Silbenstruktur als Baum darstellen. Für das Muster KVK (K= Konsonant, V=Vokal) ergäbe dies:

Datei:GramThBaum1.png

Lässt man die Elemente mit ' und ihre Unterknoten weg, enthält man eine Struktur KV oder KVV, dies wäre zB die Struktur des Italienischen. Aus diesem Grund hängen Italiener zB ein Schwa an Worte wie "Hut", sie teilen es aufgrund ihrer erlernten Sprachfähigkeit in zwei Silben. Das beweist: Man wendet ein solches Schema strikt nach seiner Muttersprache an.

Das Gedächtnis kann als Speicher gesehen werden, es gliedert sich in Kurz- und Langzeitgedächtnis. Sprachliche Einheiten können darin verschieden codiert werden. So kann man zB Tests machen, wo man Personen sich merken müssen, ob Worte klein oder großgeschrieben werden, oder ob sich Worte reimen (phonologische Verarbeitung), oder auch ob ein Wort in einem Satz Sinn macht (semantische Verarbeitung). Phonologische Dinge werden im Kurzzeit-, semantische im Langzeitgedächtnis gespeichert. Man sieht dies auch beim Lernen von Wortlisten - sich reimende Listen werden auf Dauer schlechter gelernt, da nur im Kurzzeitgedächtnis verankert.

Man unterscheidet beim Gedächtnis nach einem weiteren Aspekt in zwei Arten:

  • das implizite (prozessuale) Gedächtnis speichert Handlungen durch Wiederholung besser, es speichert also das wie?, alle Handlungen die sich nicht direkt abrufen lassen. So werden zB Worte die in einem Test der Tippgeschwindigkeit oft vorkommen nach mehrmaliger Wiederholung schneller getippt, wenn auch unbewusst.
  • das explizite (deklarative) Gedächtnis speichert das was?, also die direkt abrufbaren Fakten.


Primatenforschung – D. Premack

  • Lenneberg – Sprache definierbar
  • Affen – kein Artikulationsapparat
  • Bonobo – Affenart, besonders begabt, um Symbolsprache zu erlernen.
  • Generative Fähigkeit – hat Möglichkeit unendlich viele Strukturen aneinander zu reihen. Bsp.: Chomsky’scher Satz.
  • Menschliche Sprache:
    • Wünsche
    • Möglichkeiten
    • Futur
    • Konjunktiv...
    • Sind ausdrückbar!

Sprache hat Modalitäten. Eine Fähigkeit x wird zu Sprachfähigkeit adaptiert -> gibt es nicht!!! (Adaption). Gould + Wrba -> Exaption: Funktion wird kontinuierlich verschoben und erreicht neue Dimension.

  • In Hirnen von Primaten hat sich etwas entwickelt -> sekundäre Funktion -> daraus soll Sprache entstanden sein.

Chomsky, Hauser u. Fitch Generative Fähigkeit gibt es bei Primaten nicht. Teil der Wissenschaft, der zur Zeit extrem diskutiert wird.

Deutsche Satzstellung[Bearbeiten | Quelltext bearbeiten]

XP Vfin... Verb 2t-Eigenschaft: ist eher selten. Als Sprecher des Deutschen weiß man, welche Sätze produziert werden können: Unbewusstes Wissen! Implizites Wissen!

  • Heute kommt Hans.
  • Hans kommt heute.
  • Hans heute kommt.*

Was konstituiert Kenntnis von Sprache und wie wird diese erworben? Es gibt prädefinierte Strukturen, die schon bei Babies vorhanden sind. Man muss bei der Beschreibung eine höhere Abstraktionsebene erreichen. Dann kann man auf die Beschreibung der jeweiligen Einzelsprache eingehen.

Variation

  • Mikrovariation (Innviertlerisch vs. Linzerisch)
  • Makrovariation (Chinesisch vs. Deutsch)


Ist Sprache notwendigerweise natürliche Sprache? Sprache der Logik = künstliche Sprachen Computersprachen =

  • A + B + C(1)
  • C+B+A -> Negation von (1)

Es gibt keine natürliche Sprache, die bei der Negation so vorgeht, wie die Computersprache.

Teilmengen sind natürliche Sprachen!

Universalgrammatik = Menge aller natürlichen Sprachen/Struktureigenschaften. Unterdeterminiert -> mögliche Symbolverknüpfungen sind gegenüber der Übermenge unterdeterminier! Hat für den Spracherwerb gewisse Konsequenzen. Wenn Kind von der Mutter die Sprache hört, verbindet es gewisse Hypothesen damit.

Universalgrammatik muss flexible Eigenschaften haben, die von einer Einzelsprache fixiert werden können.

Es gibt Sprachen mit VO (Englisch) und OV (Japanisch) Stellungen. Präpositionen + Postpositionen (Meiner Meinung nach; Entlang des Flusses)-> Adpositionen. Wenn man Prameter der UG durch Erfahrung der Einzelsprache fixiert -> Kerngrammatik. Erstspracherwerb bei Kindern -> machen keine Fehler. Zweitspracherwerb asymmetrisch -> machen Fehler.

Konkatenativ: Verb und S wird angehängt.

Non-Konkatenativ: ktb (schrieb) – Wurzel (hat mit Buch, schreiben zu tun). Wird mit Vokalen aufgefüllt. Daraus erzeugt man verschiedene Formen. k^a t^a b^a

Produktivität (type/token): Wortbildung -> unterschiedliche parallele Strategien spielen eine große Rolle. Was kommt an produktiven bzw. nicht-produktiven Wörtern vor? Suppletion (bin-war) Produktiv sind Regeln und Prozesse!

Peripherie: nicht Teil der Kerngrammatik – unregelmäßig/muss gelernt werden! Bsp.: Hans liest Bücher. Dependenz : Bücher liest nur Hans.


Valenz

Haupt/Kopf/Head

Wörter sind in Kategorien eingeteilt.

Haupt bestimmt!

  • [[Stumpf (N)]+[Hose (N)]]
  • Schwarz + Wald
  • Schreib + Tisch

Derivation: 1 oder mehrere Morpheme werden mit 1 unfreien Morphem kombiniert.

  • Schreib + er: -er -> Nomen, weil es die Funktion hat aus einem Verb ein Nomen zu machen.
  • er-tragen (tragen=Haupt)
  • glück + lich: Aspekt wird verändert!

Das Cranberry Morpheme (Him-Beere) verhält sich wie ein Kompositum. Die Derivation wird nur zur Bestimmung der Kategorie eines Morphems verwendet. Das kann zu Ambiguitäten führen, wie zB in "Küchentuchregal" oder "Vorprüfungsstressperiode". Im englischen gibt es kein V+A, im deutschen schon (sterbenskrank, tropfnass...). Im Deutschen kann man überhaupt mehr formen, es hat "Genus all over". Hat eine Sprache keine oder kaum Flexionsmorphologie, spricht man von einer isolierenden Sprache. Sonst: agglutinierend oder flektierend (Flexion). Es existieren auch Sprachen, die unterscheiden, ob das Subjekt eine, zwei oder mehr Einheiten sind.

Es existiert eine Korrelation zwischen Flexionsmorphologie und Syntax. Eine freie Wortstellung ergibt eine hohe Morphologie, aber nicht umgekehrt (s. zB das Isländische).

Das Lexikon ist der "Speicher im Gehirn", wo lexikalische Einheiten gespeichert werden. Es gibt Unterschiede in dessen Größe zwischen den Sprachen aber auch den Individuen. Man hat einen ungeheuer schnellen Zugriff darauf, es muss also eine Liste geben. Darin findet man Dinge wie:

  • "Buch"
  • aber auch "-er" (weil ökonomischer) oder "-t"
  • genauso "der", "eine", "ist" (weil suppletive Form)

Das Lexikon ist prinzipiell offen (denn "das Universum ist unendlich"), aber nicht in jeder Hinsicht! Offen sind Worte mit unabhängiger Bedeutung, das heisst Worte der Kategorien V (Verb), N (Nomen) und A (Adjektiv)

Das geschlossene, grammatische Lexikon formen T (Tempus), C (Komplementierer) und D (Determinator).

Es ergibt sich die folgende Tabelle:

freiunfrei
offenes Lexikon (Komposition)X(Him-)morphologische Komponente ( = Input für die syntaktische Komponente)
Derivation (geschl.?)XV N A
(Flexion) =funktionalNfunktionale Komponente
D T C

X-bar Schema[Bearbeiten | Quelltext bearbeiten]

Das X-Bar-Schema besteht aus Ebenen, um aus Wörtern Phrasen zu bauen. Es lässt sich iterieren.

Datei:GramThSchema.png

YP ist hierbei der Subjektspezifikator, ZP das Komplement.

Woods-Code:

 [XP
    [YP
    ]
    [X'
       [X0
       ]
       [ZP
       ]
    ]
 ]

Beispielbaum:

Datei:GramThBaum2.png

Woods-Code:

[TP
  [DP
     [TRI John
     ]
  ]
  [T
     [T'
        [-s
        ]
     ]
     [VP
        [
        ]
        [V'
           [V
              [say
              ]
           ]
           [CP
              [
              ]
              [C'
                 [C0
                    [that
                    ]
                 ]
                 [TP
                    [Mary
                    ]
                    [T'
                       [T0
                          [-s
                          ]
                       ]
                       [VP
                          [
                          ]
                          [V'
                             [V0
                                [like
                                ]
                             ]
                             [D
                                [TRI Bill
                                ]
                             ]
                          ]
                       ]
                    ]
                 ]
              ]
           ]
        ]
     ]
  ]
]



In der generativen Grammatik gibt es Verschiebungen, Dinge fallen weg. Es gibt hierbei auch einen Unterschied zwischen semantischer Rolle und Kasus.

C = Complementizer (Komplementierer). Hiermit werden komplexe Sätze gebildet, aus denen natürliche Sprache auch besteht. Typischerweise sind dies "dass"-, "ob"- oder "weil"-Sätze.

T verankert verbale Kontexte temporär.


John's destruction of the city sieht als Baum so aus:

Datei:VOBaum3.png

Anmerkung: Hier wird die Trace-Notation verwendet. Von der Stelle t1 wird John nach ganz links vorverschoben, man bemerkt dies am Index 1 neben John. "t1" steht hierbei für "trace 1". Man könnte stattdessen aber auch statt t1 ein durchgestrichenes "John" hinschreiben und einen Pfeil von dort bis John zeichnen. Hin und wieder schreibt man auch e (steht für empty, kann aber im Gegensatz zu t auch ohne Verschiebung dastehen). Im Folgenden wird aber die Trace-notation beibehalten.


Man könnte "John's" destruction durch "the" destruction ersetzen, es handelt sich daher um eine komplementäre Distribution (entweder man hat Subjekt/Possessor oder einen Artikel).


Die Abtrennung des s als eigene Kategorie mag seltsam erscheinen, hat aber durchaus ihre Berechtigung. Man nehme das Englische: Hier könnte man auch sagen "the king of England's" destruction (sogenanntes Saxon-s), wo vor dem s eine ganze Gruppe steht - diese Vorgehensweise hat also ihre Berechtigung.


Bei einer Frage oder einem Gliedsatz wird im englischen der Complementizer vorgestellt (im Deutschen steht er da immer):

Datei:VOBaum4.png

Wie man sieht, weisen gewisse Komponenten auch den Kasus anderer Komponenten zu (wie hier Nominativ oder Akkusativ). Aber Komponenten können auch sogenannte Theta-Rollen zuweisen. Theta-Rollen kann man sich wie "Slots" vorstellen, die gefüllt werden müssen. So hat Beispielsweise das Verb "to want" zwei Thetarollen, d.h. es hat quasi zwei Argumente, die gefüllt werden müssen: Zum Einen die Person, die etwas will (Theta 1) sowie das, was sie will. Wir sehen die Thetarollenzuweisung im folgenden Satz, "I want John off the ship":

Datei:VOBaum5.png

Hier erkennen wir auch gleich eine weitere Konstruktion, sogenannte small clauses (auf Deutsch "Sätzchen"). So ist "John off the ship" ein kleiner Satz im Satz. Eine weitere small clause wäre z.B. "I consider [John crazy]".


Daraus ergibt sich, dass es Subjekte in allen Kategorien gibt, zB das Subjekt eines Adjektivs, eines Verbs oder einer Präposition.


Morphologie kann argumentsstrukturverändernd sein. So ergeben sich in der Passivstellung folgende Änderungen:

  • das externe Argument wird absorbiert
  • es gibt keine Akkusativzuweisung mehr


Damit wird im Passiv das thematische Objekt zum systematischen Subjekt. X wird absorbiert, d.h. die Thetarolle ist nicht zugänglich, aber auch nicht ganz weg (z.B. in "the book was read by John" enthalten. Man beobachtet die Regel der Adjunktion, es gibt eine zusätzliche Projektion, welche dieselbe ist, aber zwei unterschiedliche Segmente besitzt.


Im folgenden Satz "the book was read by John" aktiviert "by" das Subjekt:

Datei:VOBaum6.png

Strukturen anderer Sprachen, insbesondere des Deutschen[Bearbeiten | Quelltext bearbeiten]

Allgemein unterscheidet man unter den Verbzweitsprachen wie dem Deutschen zwei Gruppen. Innerhalb dieser Gruppen ist die Strukturanalyse fast gleich:

  • Deutsch/Holländisch/Afrikaans und
  • Jiddisch/Skandinavisch


Beide Typen gehen von einer CP aus. Deren Unterstruktur für Sprachen vom Typ Deutsch/Holländisch/Afrikaans ist in etwa die folgende:

Datei:VOBaum7.png


Die Struktur der Gruppe Jiddisch/Skandinavisch ist hingegen wie folgt:

Datei:VOBaum8.png


Die deutsche Satzstruktur ist folgendermaßen gegliedert:

 Vorfeld       Mittelfeld      Nachfeld
  Subjekt  - Verb              eventuell 2ter Teil vom Verb
  oder
 anderes
 Vorangestelltes


Wir erinnern uns: im Englischen spielte die CP nur bei Gliedsätzen eine Rolle. Im Deutschen ist sie immer präsent!


Das Argument für diese Matrixstruktur setzt folgende Beobachtung voraus:

  • Wenn das Verb zwischen VF und MF steht, darf dort kein Komplementierer ("weil" oder finites Verb (VF) stehen).
  • Wenn in C0 ein finites Verb steht muss im Spezifikator eine Konstituente stehen (Ausnahme: Ja/Nein Fragen)


Eine W-Verschiebung ist im Deutschen möglich ("wo" ist hier die Antezedenz aus der verbalen Ergänzung):

  • Wo hat Hans gesagt wird Maria Georg treffen?
  • Wen hat Hans gesagt wird Maria treffen?


Man kann von einer Frage wie der folgenden ausgehen:

Datei:VOBaum9.png

Will man einen Deklarativsatz, so muss eine Konstituente nach vor an die XP Position (mittels eines Traces). Möglich hier wären "der Hans" oder "den Bäcker".


Man kann von einem Gliedsatz wie "weil Hans gestern gesagt hat, dass er kommt" ausgehen:

Datei:VOBaum10.png

Um einen Deklarativsatz zu bekommen, müsste man weil streichen und einen Trace von "hat" an dessen Position einführen. Dann können sowohl "Hans", "gestern" als auch t2 oder die untere VP an die XP Position. Je nach Kontext kann also im Deutschen an der XP-Position alles stehen. In einem Deklarativsatz geht man immer von einer CP aus und braucht ein Vfin an der C-Position.


Man beachte auch den eingebetteten Gliedsatz, er steht ursprünglich an Position t2. Wie bei allen Traces spricht man hier von einer koverten Stellung, d.h. eigentlich sind die Komponenten nicht so angeordnet, wie sie letztlich ausgesprochen werden. Ist die phonologische Form ident mit der syntaktischen Form spricht man hierbei stattdessen von einer overten Stellung.


Gewisse Sprachen wie z.B. das Italienische, das Lateinische, das Spanische, das klassische Arabisch oder die keltischen Sprachen sind sogenannte Prodrop-Sprachen. Das heisst, ihre Verben können auch ohne Subjekt im Satz stehen und so implizit ein Pronomen beinhalten. Für die Analyse schreibt man bei solchen Verben statt einem Subjekt ein "pro" an die SpecTP-Position wie im folgenden Beispiel des Walisischen "Gwelodd y plentyn ceffyl" (Das Kind sah ein Pferd):

Datei:VOBaum11.png


Spezialfälle[Bearbeiten | Quelltext bearbeiten]

Ergative Verben haben eigentlich keinen Agens, wie im Passiv wird bei ihnen der Patiens nach vorne gestellt.

Beispiele wären:

  • Das Eis schmilzt.
  • Der Hase ist gestorben.

Wird ein ergatives Verb passiviert, bekommt man das Füllelement "es" ("Es wird gestorben".) Dieses kann NUR in SpecCP stehen! ("*Weil es gestorben wird", "*Heute wird es gestorben").


Es gibt auch ergative Sprachen (besonders Kaukasussprachen). In diesen Sprachen trägt ein Subjekt eines intransitiven Verbs denselben Kasus wie das Objekt eines transitiven Verbs. Das Subjekt des transitiven Verbs trägt hier einen anderen Kasus (oft "Instrumentalis" oder "Ergativ" genannt).


In der Theta-Theorie kategorisiert man nach Aspekten:

  • +/- c (cause, ob die Komponente im physischen Sinn etwas auslöst)
  • +/- m (mental, ob es dabei eine mentale Absicht gibt)


Ein Agens muss immer +c +m sein. Ein Satz wie "Hans droht die Sandburg zu zerstören" ist ambig bezüglich +/- m (es ist nicht klar, ob es seine Absicht ist). Ergative Verben sind NICHT +c +m.

In einer Lesart könnte man "droht" auch durch "scheint" ersetzen oder gar "Es scheint dass Hans die Sandburg zerstört" daraus machen ("Es" hätte hier als pleonastisches "es" eine Auffüllfunktion):

Datei:VOBaum12.png

Zieht man "Hans" hier an die Stelle von "Es" vor, spricht man von einer Anhebung (engl.: raising), einer Verschiebung über den Teilsatz hinaus, dies funktioniert nur mit einer Handvoll Verben.


In der "aktiven" Lesart gibt es eine Absicht, der Baum wäre wie folgt:

Datei:VOBaum13.png

Das "PRO" in diesem Satzbaum ist nicht dasselbe wie bei Prodrop-Verben! Es handelt sich hierbei um ein nichtfinites Komplement, das bei derartigen nichtfiniten Stellungen vorkommt. Solche Nichtfinite Komplemente führen zu einer Kontrollverbindung zwischen ihnen und einer anderen Komponente. Je nachdem welche andere Komponente dies ist spricht man von einer anderen Art von Kontrollbeziehung:

  • Beim subject control besteht eine Kontrollbeziehung zwischen Subjekt und dem Komplement (z.B. "John considers [PRO to leave]" (John selbst will gehen)
  • Beim object control besteht diese Beziehung zwischen Objekt und Komplement, bei split control zwischen Subjekt und Objekt zusammengenommen und dem Komplement. So könnte der ambige Satz "John persuades Mary [PRO to leave]" beides sein, je nachdem ob John mitgehen will oder nicht.
  • Arbitrary Control nennt man es wenn keine direkte Beziehung besteht, wie in "[PRO Sich warm anzuziehen] war im letzten Winter notwendig. (Sinngemäß durch "man" oder "jemand" ersetzbar)

PRO ist in solchen Fällen immer das syntaktische Subjekt. Immer wenn PRO vorkommt hat man eine Art AcI (accusativus cum infinitivo). Der Unterschied zu den zuvor genannten small clauses ist, dass man es hierbei mit einem ganzen Teilsatz inklusive Verb zu tun hat.

Bei Infinitivelementen muss das syntaktische Subjekt Koreferent sein mit Subjekt oder Objekt, es gilt also:

Datei:VOBaum14.png

Zur Erinnerung: Ein * heisst, dass eine solche Konstruktion unmöglich ist. Aus diesem Grund wird bei "Hans droht, die Sandburg zu zerstören" auch kein Nominativ an "die Sandburg" weitergegeben sondern ein Akkusativ. Genauso "John wants us to go".


Bindung[Bearbeiten | Quelltext bearbeiten]

Vom Phänomen der Bindung spricht man, wenn ein Pronomen (Bsp: Personalpronomina er, sie, es) für ein Nomen im Bezug auf ein anderes Nomen im Text steht. Aber auch die Beziehung zwischen dem Noemn und seinem Artikel bezeichnet man als Bindung.

Gebundene Elemente haben keine selbstständige Referenz. Sie sind referenziell abhängig (dependent). Ein Personalpronomen kann jedoch nicht direkt von seinem Subjekt abhängig sein. Beispielsweise ist der Satz "*Hans(1) sieht ihn (t1)." inkorrekt, denn ihn kann nicht mit Hans koreferent sein, weil es sonst "Hans sieht sich" hieße. Im Satz "Hans glaubt, dass Maria ihn sieht" kann ihn auf Hans bezogen sein (also Hans als Koreferenten besitzen), muss es aber nicht.

Keine Koreferenz hat man also allgemein im Fall "Hans sieht Hans". Das Prinzip dahinter ist, dass Referenzausdrücke, also Nomina ohne syntaktische Bindung mit eigenständigem Konzept und eigener Referenz, frei sind.

Ein Pronomen muss also in der unmittelbaren Satzstruktur gebunden sein. "Sich" ist eine Anapher.

Bsp:

 Hans versucht       PRO   sich zu rasieren.
   |                 | |     |
   ------------------  ------
   Kontrollbeziehung   Bindungsbeziehung

"sich" ist hier nicht an Hans gebunden, denn man könnte statt "sich" auch "ihn" sagen. Genauso für "John likes himself".

Definition Bindung: Alpha bindet Beta, wenn Alpha Beta k-kommandiert und Alpha mit Beta kondiziert ist.

Was das heisst im Anschluss.

K-Kommando[Bearbeiten | Quelltext bearbeiten]

Definition K-Kommando: Alpha k-kommandiert Beta wenn:

  • Alpha Beta nicht dominiert und Beta Alpha nicht dominiert.
  • Der erste Verzweigungsknoten, der Alpha dominiert, auch Beta dominiert.

Ein Graphisches Beispiel:

Datei:VOBaum15.png

Wie man sieht: Wenn der linke Ast Alpha ist, sind ihm alle rechten Knoten k-kommandiert. Bei dem unten rechts als Alpha gekennzeichneten Knoten wären es nur die als Beta gekennzeichneten Knoten rechts unterhalb, die die Voraussetungen erfüllen.

Also ergibt sich für die Bindung der folgenden Sätze:

  • Georgs(1) Vater liebt ihn(1)
  • .*Georgs(1) Vater liebt sich(1)

dass "ihn" frei und ungebunden wäre, "sich" nicht.

Datei:VOBaum16.png


Negative Polarity Items (NPI)[Bearbeiten | Quelltext bearbeiten]

Man kann zwar sagen "Nur Hans ist je dagewesen" ("nur" ist Fokuspartikel), nicht aber "*Hans ist je dagewesen". Ausserdem gilt:

  • Niemand ist je dagewesen.
  • .*Hans glaubt, je dagewesen zu sein.
  • Jams glaubt, dass niemand je in Rom war.
  • Niemand glaubt, dass Hans je in Rom war.
  • .*Jemand glaubt, dass Hans je in Rom war.
  • Niemandes Vater glaubt, dass Hans je in Rom war.

"Je" muss von einem negativen Element k-kommandiert werden, um einen gültigen Satz zu produzieren.

Verschiebung
entsteht durch:

  • Anhebung (zB durch Verben "seem", "appear")
  • passiv
  • Ergative Verben
  • Verschiebung auf Fragesatz


M-Kommando[Bearbeiten | Quelltext bearbeiten]

Definition M-Kommando: Alpha m-kommandiert Beta wenn:

  • Der erste maximale Verzweigungsknoten, der Alpha dominiert, auch Beta dominiert.

Nehmen wir als Beispiel den folgenden Baum:

Datei:VOBaum17.png

Gegenüber der V0, die wir als Alpha bezeichnen, sind sowohl Spec als auch DP m-kommandiert, aber nur die DP ist V0 gegenüber k-kommandiert.


Rektion[Bearbeiten | Quelltext bearbeiten]

Chomskys Buch von 1981 hiess "Lectures on government and binding". Binding kennen wir schon, government nennt sich im Deutschen "Rektion".

Definition Rektion: Alpha regiert Beta wenn

  • Alpha = X^0
  • Alpha Beta k-kommandiert
  • kein Haupt zwischen Alpha und Beta liegt

Folgendes Beispiel:

Datei:VOBaum18.png

Hier gibt es KEINE Rektion von Alpha auf Beta, denn die Präposition (ein Haupt) liegt zwischen Alpha und Beta. Das Verb (alpha) regiert aber sehr wohl die Präposition, welche den Kasus der DP regiert.

Kommandos und Rektion sind übrigens sprachunabhängige Phänomene.

Negative Polarity im Englischen[Bearbeiten | Quelltext bearbeiten]

Auch im Englischen finden wir negative Polarity. Ein Beispiel wäre der Partikel "at all". Schauen wir uns den folgenden Satz und die Variationen an:

 The fairies will     *(not) like witchcraft at all
 Nobody               never       noone      much
 Not a single person  *indeed
                      *perhaps

Wenn wir alle Möglichkeiten durchprobieren, merken wir, es muss immer eine Negation irgendwo im Satz stehen, damit das "at all" korrekt bleibt. Aber auch ein Fragesatz wäre korrekt.

Man spricht davon, dass zB:

  • "not"
  • "never"
  • Q (steht für Frage)

Lizensierer von der NPI "at all" sind.

So wäre der Satz "Nobody believed at all that the fairies like witchcraft" korrekt. Nicht aber: "*The elves believed at all that nobody liked witchcraft."

Es genügt also nicht, nur irgendwo im Satz eine Negation zu haben, der Lizensierer muss höher als die NPI stehen. In diesem Fall ist der Satz ungrammatisch, weil der Hauptsatz die NPI beinhaltet und der eingebettete Nebensatz den Lizensierer, was nicht sein darf (umgekehrt jedoch schon!).

Dies liegt daran, dass die Negation sich wie ein Wasserfall nach unten durchpropagiert. Die NPI ist korrekt, sobald sie in dem negierten Teil des Satzes eingebettet ist. Das heisst eigentlich, dass die NPI in der K-Kommando-Domäne des negativen Elements auftauchen muss..

  • .*Anyone did not like Portia.
  • Portia did not like anyone.

Das gilt auch fürs Deutsche:

  • Je in Rom gewesen zu sein hat niemand behauptet.

Dieser Satz ist korrekt, weil die NPI ursprünglich unter dem Lizensierer lag, also eigentlich kovert ist und nach vor verschoben wird. Man nennt dieses Phänomen Rekonstruktion. Die Bedingung muss nur vor der Verschiebung gegeben sein.


Fragen[Bearbeiten | Quelltext bearbeiten]

 Weni hast du ti gesehen?

Bei einer Frage muss im Deutschen das W-Wort immer verschoben werden.

 Wer hat wen gesehen?  Wen hat wer gesehen?

haben beide 2 Bedeutungen je nach Prosodie, es handelt sich um eine koverte Verschiebung. "wen" im ersten Satz ist ein spezifisches indefinites Pronomen. Im Gegensatz dazu ist "who saw who(m)" nicht ambig. "Hans hat wen gesehen?" funktioniert hingegen nur als Echo-Frage (wenn gerade gesagt wurde, wen Hans gesehen hat).

In anderen Sprachen funktioniert diese Verschiebung teilweise anders. Beispiel Japanisch:

 John-wa   naze kubi-ni natta      no?
 John-TOP warum  wurde  entlassen  Prt

Beispiel Bulgarisch:

 Koi kakvo na    kogo dade?
 Wer was   Präp  wem  gab?

Es gibt also 3 logische Typen von Sprachen im Bezug auf Fragen:

  • nichts wird nach vorne gestellt (Bsp: Japanisch)
  • Ein Element wird nach vorne gestellt
  • Alle Elemente können vorne stehen (Bsp: Bulgarisch)
 Wann hat Hans gesagt, dass Maria kommt?
              1                  2

ist ebenfalls ambig (wann hat er es gesagt oder wann kommt sie?). Man muss entscheiden, ob man Spur 1 oder Spur 2 meint.


Quantoren[Bearbeiten | Quelltext bearbeiten]

 Hans sah Willi.

kann man logisch ausdrücken als S(h,w) (wenn man Prädikat(Subjekt,Objekt) schreibt)

Doch wie erklärt man:

  • Hans sah jeden.
  • Hans sah jemanden.
  • Hans sah jeden Polizisten.
  • Wen sah Hans?

Diese Sätze enthalten Quantoren. Elemente wie "jeder", "alle", "einige" wählen nicht einzelne Elemente aus. Es gibt mehrere Arten von Quantoren, in der Vorlesung werden wir die folgenden verwenden:

  • Allquantoren (Symbol: ∀) Sie werden eingesetzt wenn man sagen kann "für alle gilt", also bei Worten wie "jeder" oder "alle"
  • Existenzquantoren (Symbol: ∃) Sie werden eingesetzt wenn man sagen kann "es existiert ein oder mehrere ... sodass", also bei Worten wie "ein", "einige", "manche", "drei" oder "wenige"
  • Negationsquantoren (Symbol: N) Sie werden eingesetzt wenn man "Es existiert kein ... sodass". Damit repräsentieren sie Worte wie "niemand" und sind eigentlich dasselbe wie der negierte Existenquantor, also sein Gegenteil (¬∃)
  • Fragewörter (Symbol: W) sind Worte wie "Wer", "Wie", "Was".

Mithilfe dieser Quantoren können wir Sätze auf einer neuen Ebene der Interpretation beschreiben, nämlich in ihrer logischen Form.

Wie würde man obige Sätze nun in logischer Form formulieren?

 Hans sah jeden.
 ∀x, x=menschlich, S(H,x)

 Hans sah jemanden.
 ∃x, x=menschlich, S(H,x)

 Hans sah jeden Polizisten.
 ∀x, x=Polizist, S(H,x)

 Wen sah Hans?
 Wx, x=menschlich, S(H,x)

Auf dieser Ebene der logischen Form lassen sich Ambiguitäten vermeiden. Nehmen wir zB den Satz "Jeder sah eine Studentin". Er kann folgende Dinge bedeuten, anbei die logische Form von der jeweiligen Interpretation:

 Alle sahen dieselbe Studentin (spezifische Bedeutung)
 ∃y, y=Studentin, ∀x, x=menschlich,  S(x,y)
 (Es existiert eine Studentin, sodass alle sie gesehen haben)

 Jeder hat eine andere Studentin gesehen (Pair-List Bedeutung)
 ∀x, x=menschlich, ∃y, y=Studentin S(x,y)
 (Für alle gilt: sie haben eine Studentin gesehen)

In der Grammatiktheorie spricht man von Quantifier Raising (QR), die Quantoren werden kovert vorgezogen:

 [John saw everyone]

 [TP everyonei [TP John saw ti]]

t wird hier "Variable" genannt. Genauso bei:

 [Two girls saw everyone]
   ∃             ∀

 [two girlsi [everyonej [ti saw tj]]
 (Lesart: Es gibt 2 Mädchen, die alle sehen)

 [everyonei [two girlsj [tj saw ti]]
 (Lesart: Jeder wurde von 2 Mädchen gesehen)

Man kann dies auch als Baum darstellen, indem man die Quantoren in zusätzliche CPs vorzieht. Nehmen wir beispielsweise den Satz

 Jeder Abgeordnete in einem Hauptausschuss stimmte für das Gesetz.
  ∀                    ∃

Ambiguität: Gilt das für jeden Abgeordneten aus einem bestimmten Hauptausschuss (∃∀) oder für jeden Abgeordneten, der in einem beliebigen Hauptausschuss sitzt (∀∃)

Die erste Lesart als Baum dargestellt ergäbe:

Datei:VOBaum19.png


Clause Typing[Bearbeiten | Quelltext bearbeiten]

Die Funktion des T0-Knotens ist es, das Prädikat zeitlich und räumlich zu verankern. Doch was ist die Funktion von C0? Bis jetzt: Komplementierer zu behausen (z.B. "that").

Es gibt verschiedene Satztypen (z.B. Deklarativsatz, Frage...), die enkodiert werden müssen. C enthält dabei den Fokus. Beispiel:

  • Der Polizist kommt?

Je nachdem ob die Betonung auf "Polizist" oder "kommt" liegt, fragt man nach etwas anderem. Man spricht hier von einem kontrastiven Fokus, es wird eine Alterationsmenge gebildet, aus der man sich auf ein Glied bezieht.

Beispiel: "Gerda hat das neue Buch von Chomsky gelesen." Der Fokus liegt hier auf der neuen Information.

  • Betonung auf "von" unterstreicht "nicht über Chomsky, sondern von Chomsky"
  • Betonung auf "das" impliziert, dass es mehrere neue Bücher gibt
  • Betonung auf "Gerda" impliziert - nicht Emil und auch nicht Frieda, sondern Gerda
  • Betonung auf "hat" impliziert - es ist tatsächlich passiert. Man nennt dies auch ein Verum Fokus oder emphatischen Fokus

Im Satz "Gerda las das neue Buch von Chomsky" gilt: Angenommen die Betonung liegt auf las, dann ist diese Betonung ambig:

  • Sie kann den Tempus betonen (Sie hat es bereits gelesen)
  • Sie kann ein Verum Fokus sein (Sie hat es wirklich gelesen)
  • Sie kann den lexikalischen Inhalt betonen (Sie hat es gelesen, nicht gegessen)

Im Gegensatz dazu sind im Satz

 Dass Gerda das neue Buch von Chomsky gelesen hat.
  C                                     V      T

die verschiedenen Betonungen eindeutig. C betont ergibt einen Verum Fokus, V einen lexikalischen Fokus und T einen Tempus Fokus.

Der Unterschied zwischen dem konstrastiven Fokus und einer Frage ist, dass die Frage dazu dient, etwas neues zu illizitieren. Der Verum Fokus ist ein Fragemerkmal, er ist der Knoten, der Fragesätze lizensiert.


Wh-Verschiebung[Bearbeiten | Quelltext bearbeiten]

Eine wh-Verschiebung (Fragewort-Verschiebung) scheint prinzipiell recht unbegrenzt anwendbar zu sein. Nehmen wir den Satz:

  • Wann glaubt er, dass ich gesagt habe, dass ich fahre?

Die Struktur wäre: W [CP [CP [CP x]]]. Der Satz ist ambig, er kann fragen:

  • wann er glaubt
  • wann ich das gesagt habe
  • wann ich fahre

Man spricht von einer zyklischen Verschiebung, denn x wird nach und nach von SpecCP zu SpecCP verschoben bis es ganz oben angekommen ist. Es muss dabei in jeder Spec zwischenlanden.

Daraus erklärt sich folgendes Phänomen:

  • What1 did Bill claim [CP that he read t1 in the book].
  • .*What1 did Bill make [DP the claim [CP that he read t1 in the book]].

Es gilt das Prinzip der complex noun phrase island: Man darf nichts verschieben, was in einer CP, die innerhalb einer DP eingebettet ist, steht. Im Deutschen gibt es dasselbe Phänomen übrigens mit "meinen" und "der Meinung sein" (jedoch weniger stark, es ist im Deutschen nicht gleich ganz ungrammatisch).

Einschub: Garden path Sätze
Garden path Sätze (vom Englischen "to lead someone down the garden path" = jemanden in die Irre führen) werden in der "computational linguistic" verwendet um zu zeigen, dass Performanz und Kompetenz nicht dasselbe sind. Berühmtestes Beispiel:

  • The horses raced past the barn fell.

(hier wird ein that nach horses weggelassen, deshalb Probleme bei der Verarbeitung weil ohne das letzte Wort bereits ein guter Satz herauskäme)

Der Satz:

  • .*How2 do [TP you wonder [CP what1 [TP John bought t1 t2 ?]]]

ist ebenfals ungrammatisch, obwohl semantisch unauffällig. Es liegt daran, dass "what" die Verschiebung des w-Elements blockiert. Es kann so nicht zwischenlanden, eine Spec zu überspringen ist bekanntlich verboten. Man spricht von einer wh-Insel.

Im Satz

[CP Wer [C' glaubst du, [CP wer [nach Hause geht?]]]]

gibt es eine sichtbare Zwischenlandung.

Bei illizierten Tests bringt man Kinder dazu, bestimmte Dinge zu sagen. Daran erkennt man, dass der Frageerwerb bereits sehr früh stattfindet.

Eine Alternative zu dem Satz wäre auch: "Was glaubst du, wer nach Hause geht?". Hier gibt es ein partielles wh-marking. Dieses Phänomen gibt es auch im Ungarischen:

 Mit      gondolsz,    hogy   kit    látott János?
 was/Akk  du glaubst   dass wer/Akk   sah   Janos/Nom


Stranden[Bearbeiten | Quelltext bearbeiten]

In der QP "alle Kinder" kann man "Kinder" herausziehen, es entsteht ein gestrandetes Element wie im Satz "Kinder habe ich alle gesehen". Im Englischen gibt es oft Stranden von Präpositionen, s. z.B. "What were you thinking of?"

Weitere Beispiele für stranding:

  • [What all] did he say (that) he wanted [t] ?
  • What did he say (that) he wanted [[t] all]?
  • What did he say [CP all (that) he wanted [t]]?


Topikalisierung[Bearbeiten | Quelltext bearbeiten]

Sätze wie

 [TP [This book]1 [TP I really like t1]]

sind im englischen nur möglich, weil das Topik in den Mittelpunkt gestellt werden kann. Dies betrifft die Bedeutung. Diese Topikalisierung ist im englischen sehr schwach ausgeprägt, da es eine sehr starre Struktur hat.

 [CP [What]1 [C do] [TP I really like t1]]
 Who1 do you think (that) Mary likes t1 ?

aber:

 Who1 do you think *(that) t1 likes Mary?

Wird das Subjekt extrahiert, ist kein "that" zulässig! Man spricht hier vom ECP (empty category principle): Eine wh-Spur muss:

  • a) lexikalisch regiert sein oder
  • b) vom Antezedens regiert sein

Je nach Sprache kann die Parametrisierung, ob das Subjekt overt nach oben gehen muss, anders sein. Bei PROdrop-Sprachen ist dies nicht der Fall. Je nach Sprache gibt es Probleme mit unterschiedlichen Elementen:

                        Subjekt  Objekt  Adjektiv
 Englisch / Französisch   *       ok       *
 Italienisch / Spanisch   ok      ok       *


Inversion[Bearbeiten | Quelltext bearbeiten]

Üblicherweise tauschen in Sätzen wie

 What has John done?

Subjekt (John) und Auxiliar (has) die Stellung. Interessanterweise kommt im Belfast English Inversion an Stellen vor, wo es sie im Englischen nicht gibt:

 Standard English: Who1 did John hope (that) he would see t1?
 Belfast English:  Who1 did John hope t1 would he see t1?

(siehe auch Alison Henry (1995) - Belfast English (Dissertation))

Es gibt auch Sprachen mit wh-Kongruenz:

 I waas ned wann-sd kommst.

Hier bemerkt man eine Klitisierung, ein d für "du" wird angehängt.


Islands[Bearbeiten | Quelltext bearbeiten]

Es gibt verschiedene Arten von Islands:

CNP (context NP) island

 *what1 do [TP you know [DP the man that likes t1?]]
          [INSEL                                 ]

Adjunct islands

 *What did [TP you choose [DP the recipe] [because Sue likes t ]

Subject island

 *Who1 did [TP [DP admirers of t1] fill the first few rows]?

Left branch condition

 *Whose did [you play [t guitar]]?

Subjazenz

 a...[BC....[BC...b...]...]...
 ^----------------|

BC=blocking category

Jim Huang hat in seiner Dissertation Sprachen mit wh-Insitu behandelt, so auch das Chinesische.

 Zhangsan yiwei Lisi mai-le shemme?
          glaubt     kaufte  was
 -> Was glaubt Zhangsan, dass Lisi kauft?
 Zhangsan yiang-zhidao Lisi mai-le shemme?
           fragt-sich
 [ni xiang-zhidao [shei mai-le shemme]]
 Du  fragst-dich   wer  kaufte was

Der letzte Satz ist ambig, er kann heissen:

  • Werx frägst du dich wasy x kaufte y
  • Wasy frägst du dich werx x kaufte y
 [ni xiang-zhidao [shei weisheme mai-le shu]]
 Du frägst-dich    wer   warum   kaufte Buch

Hier gibt es nur eine Bedeutung, die zweite ist inkorrekt:

  • Werx frägst du dich warumy tx kaufte Buch ty?
  • .*Warumy frägst du dich wery tx kaufte Buch ty?


Lokalität[Bearbeiten | Quelltext bearbeiten]

Im Englischen darf man nicht über eine TP und eine DP gleichzeitig extrahieren. Dieses Phänomen basiert aufgrund von Blockierungen in der logischen Form, wir werden es anhand von Beispielen aus der Dissertation von Sigrid Beck betrachten (s. Handouts).

Wiederholung: Was ist ein Quantor?
Russell und Frege betrachten das Problem der Ausdrucksbedeutung. S. auch Grice, Stichwort "use": Man kann nur auf eine Bedeutung kommen, wenn man deren Gebrauch untersucht. Quantoren beziehen sich nicht auf ein Objekt, sondern auf eine Menge von Objekten. Alle Quantoren werden auf die LF angewendet, es gibt also Interaktionen unter ihnen.

Das Symbol "w" wird in der Semantik benutzt, um anzuzeigen, dass die Bedeutung relativ zur Welt ist. In diesem Fall spricht man von modaler Semantik, der Wahrheitsbegriff ist in alternativen Welten definiert.

Was ist die transparente logische Form?
Eine syntaktische Struktur, die eindeutig semantisch interpretierbar ist.

Untersuchen wir die Beispiele von Beck. Beck spricht in ihrer Arbeit nicht von "Inseln", wie wir dies vorher genannt haben, sondern von "Blockierungen". Ein gewisses Element "blockiert" ein anderes, wenn dieses andere, dadurch, dass es vom einen dominiert wird, nicht angehoben werden kann. In Beispiel A1 (Handout) müsste beispielsweise "wem" angehoben werden, doch "niemand" blockiert dies.

Weitere Beispielkommentare:

  • A9: Was denotiert eine Frage? Neben der Lambda-Abstraktion, die uns in dieser Vorlesung nicht interessiert, sieht man hier den Einsatz von "w" (s. oben)
  • B4: c. und d. könnten eventuell durch stranding gerettet werden.
  • B5: Mit "Luise" ist der Satz in Ordnung, der negative Quantor blockiert also.
  • B9a wird von Leuten als korrekt empfunden, die diese Barriere nur für LF-Spuren zulassen. Leute, die ihn schlecht finden, sehen das als allgemeine Barriere.
  • B15: "nichts" ist Intervenierer, der Interaktion verbietet.

Einschub:Was ist ein Relativsatz?

Er beschreibt ein Nomen näher, hängt daher auch davon ab. Relativsätze können restriktiv oder appositiv sein:

  • restriktive Relativsätze beschränken die Menge der Objekte, von denen gesprochen wird (zB "Das ist das Mädchen, das ich meine" -> dieses aus der Menge der Mädchen)
  • appositive Relativsätze geben nur Zusatzinformationen (zB "sein Mittagessen, das er zuvor schon gekauft hatte")

Doch weiter in Becks Beispielen:

  • B5: Mit positiven Quantoren gäbe es hier keine Probleme (Wen hat jeder wo gesehen) doch sie hätten automatisch eine Paired-List-Leseweise.


Determinatoren im Deutschen[Bearbeiten | Quelltext bearbeiten]

Der Speciticity Effect:

 Who did you see a/*(the) picture of?

Wenn ich hier etwas aus der DP herausziehe wird dies von "the" oder "this" zB blockiert.

Vergleiche:

  • "Ich habe das Buch, das du haben wolltest, nicht gekauft"
  • "Ich habe dieses Buch, das du haben wolltest, nicht gekauft"

-> Wechselt man von "das" auf "dieses", wird aus dem restriktiven Relativsatz ein appositiver.

Definite DPs, wenn sie im Singular sind, habn eine Einzigartigkeitsbedingung - ihr Gebrauch ist nur dann angebracht, wenn es eine Einheit gibt, die ihr Gehalt erfüllt. ZB impliziert "dér stärkste Mann", dass es mindestens 2 gibt.

Inalienable Konstruktionen beziehen sich auf Körperteile (Hände, Köpfe).

  • "Die Kinder haben die Hand gehoben" ist vollkommen ABER
  • "The children raised the hand" ist semantisch seltsam (Stichwort abgehackte Hand)

Man kann sagen:

  • Der Tiger liegt auf dem Sofa. (definit, dieser Tiger)
  • Der Tiger stirbt langsam aus. (generisch, Art Tiger)

Dies funktioniert im Englischen nicht. In der Mundart würde man dieses "der" reduzieren ('n Tiger).

ENDE