TU Wien:Mathematik 3 VO (Panholzer)/Mitschrift WS06/0-91-gesamt-LaTeX
%------------------------------------------------- % Created by Markus Diem, Markus Nemetz %------------------------------------------------- \documentclass[12pt,a4paper]{article} \usepackage[latin1]{inputenc} %umlaute \usepackage[german]{babel} \usepackage{amsmath} \usepackage{amssymb} \usepackage[dvips]{graphicx} \usepackage[bf]{caption} \usepackage[pdfborder= 0]{hyperref} %links zu refs ohne rahmen \usepackage{dsfont} \usepackage{listings} %codelistings \usepackage{color} %fuer angabe der rationalen zahlen etc. \renewcommand{\captionfont}{\footnotesize} \setlength{\belowcaptionskip}{3pt} \renewcommand{\arraystretch}{1.3} %abstand beim brechen der formeln \definecolor{Gray}{gray}{0.9} \lstset{basicstyle=\ttfamily\scriptsize, backgroundcolor=\color{Gray}, numbers=left, numberstyle=\tiny, stepnumber=1, numbersep=5pt} \newcommand{\real}{\mathds{R}} \newcommand{\definition} {\textbf{Definition: }} \newcommand{\bsp} {\textbf{Beispiel: }} \DeclareGraphicsExtensions{.eps} \setcounter{MaxMatrixCols}{11} \title{\textbf{Mathematik 3 für Informatiker 0.91}\\ Prof. Panholzer. \\WS 06/07, LVA-Nr. 118180 } \author{Markus Nemetz, \emph{markus.nemetz@tuwien.ac.at}, TU Wien} \date{\emph{Herzlichen Dank an Markus Diem und Michael Birsak }\\ 31.01.2007} \begin{document} \maketitle \newpage \tableofcontents \newpage Dies ist eine 'geglättete' Aneinanderreihung der Mitschriften zu der LVA Mathematik 3 für Informatiker. Diese Version 0.90. ist sozusagen eine Alpha-Version, welche zu einem Skriptum ausgearbeitet werden wird. Version 0.91 enthält einige Ergänzungen und Korrekturen, für die ich mich bei Andreas Kasper herzlich bedanke! \begin{flushright} Wien, Jänner 2007, Markus NEMETZ \end{flushright} \newpage \section*{Allgemeines} \begin{tabbing} \textbf{Buch:} \; \= \textsc{Meyberg und Vachenauer}, \textit{Höhere Mathematik 2}, \\ \> 4. Auflage, Springer, Berlin 2001 \end{tabbing} \begin{tabbing} \textbf{Stoff:} \= \textbf{Harmonische Analyse} \\ \> \; \; \= Fourier Reihen Entwicklung \\ \> \> Diskrete Fourier Transformation \\ \> \> Fourier Transformation \\ \> \textbf{Differentialgleichungen} \\ \> \> Gewöhnliche Differentialgleichung \\ \> \> Spezielle Typen \\ \> \> Laplace Transformation \\ \> \> Potenzreihenentwicklung \\ \> \> Randwertprobleme \\ \> \> Numerische Lösungsverfahren \\ \> \textbf{Partielle Differentialgleichungen} \\ \> \> Lineare und quasi lineare partielle Differentialgleichung 1. Ordnung \\ \> \> Lineare partielle Differentialgleichung 2. Ordnung (Klassifikation) \\ \> \> Separationsansatz \end{tabbing} \section{Gewöhnliche Differentialgleichungen - theoretische Grundbegriffe} Gleichungen, in denen neben $x$ und der gesuchten Funktion $y=y(x)$ auch deren Ableitungen $y'(x),...,y^{(n)}(x)$ vorkommen, werden als Differentialgleichungen bezeichnet. Es werden hier hauptsächlich reellwertige Funktionen betrachtet. \definition \[ \begin{array}{lcl} F: \; \real^{n+2} \supseteq D \rightarrow \real \\ F(x,y,y',...,y^{(n)})= 0 \end{array} \] nennt man implizite Form einer Differentialgleichung $n$-ter Ordnung, falls $y^{(n)}$ vorkommt. Explizite Form: \[ y^{(n)}= G(x,y,y',...,y^{(n-1)}) \] \subsection{Lösungen von Differentialgleichungen} \definition Eine Funktion mit Definitionsbereich $y(x): I \rightarrow \real$ heißt Lösung der Differentialgleichung, falls $y(x)$ die Differentialgleichung erfüllt. $y(x)$ muss dabei $n$-mal differenzierbar sein. \bsp$y'= xy + x^2$ Differentialgleichung 1. Ordnung. Sie ist linear, da $y$ und $y'$ nur linear vorkommen. Lösungen von Differentialgleichungen sind im Allgemeinen parameterabhängig (d.h. nicht eindeutig). \begin{itemize} \item Spezielle- bzw. Partikulärlösung ist eine Lösung, die nicht von Paramtern abhängt. \item Allgemeine Lösung einer Differentialgleichung $n$-ter Ordnung ist eine Lösung, die von $n$ frei wählbaren Parametern (=~Integrationskonstanten) abhängt. \item Vollständige Lösung einer Differentialgleichung $n$-ter Ordnung, ist eine allgemeine Lösung, die alle Lösungen beinhaltet. \end{itemize} Gegeben sei eine Differentialgleichung $n$-ter Ordnung: \[ y^{(n)}= G(x,y,y',...,y^{(n-1)}) \] Die eindeutige Lösung bekommt man nur durch zusätzliche Bedingungen. \noindent \textbf{Anfangswertproblem (AWP):} Bedingungen (=~Gleichungen) an einem Punkt $x_0$. Bei einer Differentialgleichung $n$-ter Ordnung müssen Bedingungen bis zur $n-1$-ten Ordnung in $x_0$ bekannt sein. \noindent \textbf{Randwertproblem (RWP):} \paragraph{Anfangswertproblem:} \[ \begin{array}{lcl} y^{(n)} = G(x,y,y',...,y^{(n-1)}) \\ y(x_0) = y_0, \; y'(x_0)= y_1,\; ... \; ,\; y^{(n-1)}(x_0)= y_{n-1} \\ y_0,y_1, ... , y_{n-1} \in \real \end{array} \] \begin{figure}[htbp] \centering %\includegraphics[width=65mm]{lokale-loesung.eps} %\includegraphics[width=65mm]{lokale-loesung-fortsetzung.eps} \caption{Lokale Lösung des Anfangswertproblems (links) und die Fortsetzung (rechts).} \label{fig:ll} \end{figure} \definition Die lokale Lösung des Anfangswertproblems ist eine Lösung der Differentialgleichung im Intervall $(x_0-\epsilon, x_0+\epsilon)$, welche die Anfangsbedingung $y(x_0)=y_0,\;...$ erfüllt. Ein Anfangswertproblem heißt \emph{well posed} oder sachgemäß gestellt, wenn folgende Bedingungen erfüllt sind: \begin{itemize} \item Existenz einer lokalen Lösung des Anfangswertproblems. \item Eindeutigkeit der lokalen Lösung. \item Stetige Abhängigkeit der Lösung von den Anfangswerten. \end{itemize} Letzteres ist besonders für numerische Lösungsverfahren wichtig. Von Interesse ist gegenüber der lokalen Lösung die ganze Funktion in einem betrachteten Gebiet (Abbildung \ref{fig:ll}). \subsection{Graphische Interpretation einer expliziten Differentialgleichung 1. Ordnung} \[ y'= f(x,y) \varphi \] \begin{figure}[htbp] \centering %\includegraphics[width=110mm]{graphische-interpretation.eps} \caption{Richtungsfeld einer Differentialgleichung.} \label{fig:gi} \end{figure} Die Lösung ist eine differenzierbare Kurve (rot in Abbildung \ref{fig:gi}), die in das Richtungsfeld passt. (d.h. Differenzierbare Kurve, deren Tangentenanstiege in jedem Punkt $(x,y)$ mit $y'= f(x,y)$ gleich sind.) Das graphische Lösungsverfahren heißt auch Eulersches Polygonzugverfahren. Es ist ebenfalls ein numerisches Lös\-ungs\-ver\-fahr\-en für Differenzialgleichungen. \subsection{Existenz und Eindeutigkeit der Lösung} Gegeben sei wiederum eine Differentialgleichung $y'=f(x,y)$ \begin{itemize} \item $f(x,y)$ ist stetig. Diese Forderung muss erfüllt sein, reicht jedoch nicht aus. \item $f(x,y)$ ist differenzierbar (nach $x$ und $y$). Diese Forderung würde die Existenz und Eindeutigkeit einer Lösung zwar implizieren, ist jedoch zu streng formuliert. In der Praxis gilt sie oft nicht, obwohl eine Lösung existiert und eindeutig ist. Außerdem ist sie zum Teil schwer überprüfbar. \item $f(x,y)$ soll Lipschitz-stetig sein. Diese Forderung garantiert die Existenz und Eindeutigkeit einer Lösung. \end{itemize} \paragraph{Lipschitz-Stetigkeit:} Es sei ein Gebiet $G \subseteq \real ^2$ gegeben. Eine Funktion $f(x,y)$ erfüllt die globale Lipschitz Bedingung (=~sie ist global Lipschitz-stetig) in Bezug auf $y$, falls es eine positive Konstante $L > 0$ gibt, sodass die globale $L$ Bedingung gilt: \[ \begin{array}{lcl} |f(x,y_1)-f(x,y_2)| \leq L \cdot |y_1-y_2| \\ \forall x,y_1,y_2 \; \textrm{mit} \; (x,y_1) \in G, (x,y_2) \in G \end{array} \] wobei $L$ die Lipschitzkonstante ist. Ein Gebiet $G$ ist eine offene, zusammenhängende (d.h. Von jedem Punkt $(x,y) \in G$ führt ein Weg zu einem beliebigen anderen Punkt $(x_1,y_1) \in G$.) Menge. Eine Funktion $f(x,y)$ erfüllt eine lokale $L$ Bedingung (=~ist lokal Lipschitz-stetig), wenn es für alle $(x,y) \in G$ eine Umgebung $U$ gibt, mit $U \subseteq G$, sodass für alle $(x,y_1), (x,y_2) \in U$ gilt: \[ |f(x,y_1)-f(x,y_2)| \leq L \cdot |y_1-y_2|, \; \; L > 0 \] d.h. $L$ ist abhängig von $(x,y_1)$ und gegebenenfalls unterschiedlich. \paragraph{Existenz- und Eindeutigkeitssatz (von Picard und Lindelöf):} Gegeben ist ein Gebiet $G \subseteq \real ^2$ und eine Differenzialgleichung $y'= f(x,y)$. Falls $f$ in Bezug auf $x$ und $y$ stetig ist und in Bezug auf $y$ eine lokale $L$ Bedingung erfüllt, dann besitzt das Anfangswertproblem mit $y(x_0)=y_0$ für alle $x_0,y_0$ mit $(x_0,y_0) \in G$ eine eindeutige Lösung, die sich bis an den Rand von $G$ fortsetzt. \subsection{Existenz- und Eindeutigkeitssatz} Wir betrachten das Anfangswertproblem $y'(x) = f(x,y)$ mit $y(x_0) = y_0$. $f(x,y)$ ist stetig und erfüllt eine lokale \emph{L}-Bedingung bezüglich \emph{y}. Anmerkung: Wenn $f(x,y)$ stetig nach \emph{y} differenzierbar ist, dann erfüllt es eine lokalen \emph{L}-Bedingung bezüglich y. In diesem Fall gilt für den Rechtecksbereich \emph{D}, der vollständig in \emph{G} liegt:: Lipschitz-Konstante \begin{gather*} L = max \, | f_y(x,y) | \qquad (y \in D) \end{gather*} \begin{center} %\includegraphics[scale=0.5]{vo2_rechteck_eef.eps} \end{center} Betrachten die Beweisidee vom Existenz- und Eindeutigkeitssatz - \textbf{Picard-Iteration}: \begin{gather*} y' = f(x,y), \qquad y(x_0) = y_0 \qquad \text{Integrieren} \\ \int_{x_0}^x y'(t) \, dt = \int_{x_0}^x f(t,y(t)) \, dt \\ y |_{x_0}^{x} = \int_{x_0}^x f(t,y(t)) \, dt \\ \Rightarrow \mathbf{y(x) = y_0 + \int_{x_0}^x f(t,y(t)) \, dt} \qquad \text{'Integralgleichung'} \end{gather*} Wir wollen $y(x)$ durch die Funktion $y_0(x), y_1(x), y_2(x), \dots$ approximieren: \begin{gather*} y_0(x) = y_0 \qquad \text{konstante Funktion} \\ y_1(x) = y_0 + \int_{x_0}^x f(t,y_0(t)) \, dt \\ y_2(x) = y_0 + \int_{x_0}^x f(t,y_1(t)) \, dt \\ \\ \vdots \qquad \text{iterieren}\\ \\ y_n(x) = y_0 + \int_{x_0}^x f(t,y_{n-1}(t)) \, dt \\ \end{gather*} Die Funktionenfolge $y_n(x), n=0,1,2, \dots$ konvergiert unter der Voraussetzung des Existenz- und Eindeutigkeitssatzes in einem Intervall $y_0 - \varepsilon \leq x \leq y_0 + \varepsilon$ gleichmässig gegen die Grenzfunktion $y(x) = \lim_{n \rightarrow \infty} \, y_n(x)$, die auch die Lösung des Anfangswertproblems ist. \textbf{Beispiel:} Die bekannte Lösung des AWP $y' = xy, y(0) = 1$, wird mittels Picard-Iteration approximiert ($f(x,y) = xy, y_0 = 0, y_0 = 1$): \begin{alignat*}{1} y_0(x) = 1 & \\ y_1(x) = 1 & + \int_0^x t\cdot y_0(t) \, dt \, \, = 1 + \frac{x^2}{2}\\ y_2(x) = 1 & + \int_0^x t\cdot y_1(t) \, dt \, \, = 1 + \frac{x^2}{2}+ \frac{x^4}{8} \\ y_3(x) = 1 & + \int_0^x t\cdot y_2(t) \, dt \, \, = 1 + \frac{x^2}{2}+ \frac{x^4}{8} + \frac{x^6}{48} \\ y_4(x) = 1 & + \int_0^x t\cdot y_3(t) \, dt \, \, = 1 + \frac{x^2}{2}+ \frac{x^4}{8} + \frac{x^6}{48} + \frac{x^8}{384} \end{alignat*} Allgemein ergibt dies \begin{gather*} y_n(x) = \sum_{k=0}^{n} \frac{y^{2k}}{2^kk!} \end{gather*} $y_n(x)$ mit $n \rightarrow \infty$ konvergiert gegen die Lösung \begin{gather*} y(x)= e^{\frac{1}{2}x^2} = \sum_{k=0}^{\infty} \frac{y^{2k}}{2^kk!} \end{gather*} Dies kann man dadurch verifizieren, dass man $y' = xy$ auf $\frac{y'}{y} = x$ umformt und aus dieser 'trennbaren Differentialgleichung' die Lösung mittels 'Trennung der Veränderlichen' errechnet: \begin{gather*} \log y(x) = \frac{x^2}{2} + \tilde{c} \qquad \Rightarrow \qquad y(x) =ce^{\frac{x^2}{2}} \\ y(0) = 1 \qquad \Rightarrow \qquad ce^{\frac{0^2}{2}} = 1 \qquad \Rightarrow \qquad y(x) = e^{\frac{x^2}{2}} \\ y(x) = e^{\frac{x^2}{2}} \underbrace{=}_{\text{Taylorreihe}} 1 + \frac{x^2}{2} + \frac{({\frac{x^2}{2}})^2}{2!} + \frac{({\frac{x^2}{2}})^3}{3!} + \dots \\ e^x \underbrace{=}_{\text{Taylorreihe}} = 1 + x + \frac{x^2}{2!} + \frac{x^3}{3!} + \dots \end{gather*} Die \textbf{stetige Abhängigkeit der Lösung von den Anfangswerten} besagt, dass sich zwei Lösungen auf einem beschränkten Intervall $[a,b]$ wenig unterscheiden, sobald nur die beiden Anfangswerte bei $a$ hinreichend nahe beieinanderliegen. \begin{center} %\includegraphics[scale=0.5]{VO2_anfangswert.eps} \end{center} Wenn eine stetige Funktion $f$ in einem Gebiet $G \subseteq \mathbb{R}^2$ eine $L$-Bedingung ($L > 0$) erfüllt, kann man den Abstand zwischen zwei in $G$ verlaufenden Lösungen $y_1(x)$ und $y_2(x)$ wie folgt abschätzen: \begin{gather*} |y_1(x) - y_2(x)| \leq |y_1(x_0) - y_2(x_0)|e^{L|x-x_0|} \end{gather*} Je grösser $L$ ist, desto weiter werden die Lösungen auseinander liegen!\\[0.3cm] Vereinfacht gesagt bedeutet die \textbf{stetige Abhängigkeit der Lösung von der rechten Seite}, dass kleine Änderungen der rechten Seite $f$ bei gleichen Anfangsbedingungen auch nur eine kleine Änderung der Lösung bewirken. \begin{center} %\includegraphics[scale=0.5]{VO2_rechteseite.eps} \end{center} Wenn eine stetige Funktion $f$ in einem Gebiet $G \subseteq \mathbb{R}^2$ eine $L$-Bedingung ($L > 0$) erfüllt und sich $f^\ast$ auf $G$ nur um $\varepsilon$ ($|f(x,y) - f^\ast(x,y)| < \varepsilon| \, \forall (x,y) \in G$) unterscheiden, dann gilt für die Lösungen $y(x)$ von $y'=f(x,y)$ und $y^\ast(x)$ von $y'=f^\ast(x,y)$, mit derselben Anfangsbedingung $y(x_0) = y^\ast(x_0) = y_0$ im Intervall $x_0 \leq x \leq x_0 + \delta$ die Abschätzung: \begin{gather*} |y(x) - y^\ast(x)| \leq \varepsilon\delta e^{L(x-x_0)} \end{gather*} \section{Differentialgleichungen: Spezielle Typen} \subsection{Trennbare Differentialgleichungen} Ergibt sich (eventuell nach Umformung) eine Differentialgleichung in der Form \begin{gather*} y' = f(x) \cdot g(x), \end{gather*} welche stetige, auf den Intervallen $I \subseteq \mathbb{R} (x,x_0 \in I)$ und $J \subseteq \mathbb{R} (y,y_0 \in J)$ stetig definierte Funktionen $f$ und $g$ besitzt, sind zwei Fälle zu unterscheiden: \begin{enumerate} \item $g(y) \neq 0$ - durch \textbf{Trennung der Variablen (Veränderlichen)} ergibt sich eine exakte Differentialgleichung in der Form: \begin{gather*} f(x) - \frac{1}{g(y)}\cdot y' = 0 \end{gather*} und der Stammfunktion ($x,x_0 \in I$, $y,y_0 \in J$): \begin{gather*} U(x,y) = \int_{x_0}^{x} f(\xi) \, d\xi - \int_{y_0}^{y} \frac{d\eta}{g(\eta)} \end{gather*} \item $g(\eta) = 0, \eta \in J$ - es gilt: $y(x) = \eta$, $x \in I$ ist eine konstante Lösung. \end{enumerate} Für trennbare Differentialgleichungen ($x_0 \in I$, $y_0 \in J$) besagt der \textbf{Existenz- und Eindeutigkeitssatz}, dass das Anfangswertproblem \begin{gather*} y'= f(x) \cdot g(x), \qquad y(x_0) = y_0, \end{gather*} lokal eindeutig lösbar ist wenn gilt: \begin{enumerate} \item $g(y_0) \neq 0$, oder \item $|g(y)| < L \cdot |y-y0|$ in einer Umgebung von $y_0$, $L > 0$ konstant (\texttt{Lipschitz}). \end{enumerate} Das \textbf{Lösungsverfahren} für $y' = f(x) \cdot g(x)$ lautet allgemein: \begin{enumerate} \item Sämtliche Nullstellen von $\eta \in J$ bestimmen - $y(x) = \eta$ ist jeweils eine partikuläre Lösung \item Trennung der Variablen ('y, dy nach links; x, dx nach rechts') \begin{gather*} \frac{1}{g(y)} \, dy = f(x) \, dx \end{gather*} \item Unbestimmte Integration beider Seiten: \begin{gather*} G(y) \, := \, \int \frac{dy}{g(y)}, \qquad F(x) \, := \, \int f(x) \, dx. \end{gather*} Allgemeine implizite Lösung lautet: \begin{gather*} G(y) - F(x) = x, \qquad c \in \mathbb{R}. \end{gather*} \item Anfangswertproblemlösung: Wenn $g(y_0) \neq 0, c_0 := G(y_0) - F(x_0)$. Soferne möglich $ G(y) - F(x) = c-0$ nach $y$ auflösen. Wenn $g(y_0) = 0$, dann ist $y(x) = y_0$ die Lösung. \end{enumerate} \subsection{Exakte Differentialgleichungen} Exakte Differentalgleichungen stellen eine spezielle Form der Differentialgleichungen 1. Ordnung dar und entstehen durch Differentiation nach der Kettenregel aus $U(x,y) = const.$. Ihre implizite Form lautet \begin{gather*} U_x(x,y) + U_y(x,y)y' = 0, \end{gather*} und die explizite für $U_y \neq 0$: \begin{gather*} y'=-\frac{U_x(x,y)}{U_y(x,y} \end{gather*} Normalerweise ist die Exaktheit einer Differentialgleichung nicht auf den ersten Blick ersichtlich. Eine Differentialgleichung der Form \begin{gather*} A(x,y) + B(x,y)y' = 0 \end{gather*} ist dann exakt, wenn es eine Funktion $U$ gibt, so dass gilt: \begin{gather*} U_x = \frac{\operatorname{d} U}{\operatorname{d} x}=A, \qquad U_y = \frac{\operatorname{d} U}{\operatorname{d} y}=B \end{gather*} $\mathbf{U}$ ist dann die \textbf{Stammfunktion von} $\mathbf{A(x,y) + B(x,y)y' = 0}$ (und ist nichts anderes als die Stammfunktion des Vektorfeldes \begin{gather*} (x,y) \mapsto \begin{pmatrix} A(x,y) \\ B(x,y) \\ \end{pmatrix} \end{gather*} Der \textbf{Exaktheitstest} ergibt für $A(x,y) + B(x,y)y' = 0$ genau dann ein positives Resultat, wenn folgende \textbf{Integrabilitätsbedingung} erfüllt ist: \begin{gather*} \frac{\operatorname{d}}{y}A(x,y) = \frac{\operatorname{d}}{x}B(x,y) \end{gather*} Allgemein lautet die \textbf{Lösungsmethode für exakte Differentialgleichung der Form} $\textbf{A(x,y) + B(x,y)y' = 0}$: \begin{enumerate} \item Bestätigen von \begin{gather*} \frac{\operatorname{d} A}{\operatorname{d} y} = \frac{\operatorname{d} B}{\operatorname{d} x} \end{gather*} \item Bestimmung einer Stammfunktion über den Ansatz $u_x=A$, $U_y = B$: \begin{enumerate} \item $A$ unbestimmt nach $x$ integrieren \begin{gather*} U(x,y) = \int A(x,y) \, dx + c(y) \end{gather*} \item $y$ partiell nach $y$ differenzieren, mit $B$ gleichsetzen: \begin{gather*} U_y(x,y) = (\int A(x,y) \, dx)_y + c'(y) = B \end{gather*} \item $c(y)$ durch Integration nach $y$ bestimmen \end{enumerate} Allgemeine implizite Lösung: $U(x,y) = const$. \item Implizite Lösung ist $U(x,y) = U(x_0,y_0)$ - wenn möglich nach $y$ auflösen und Definitionsbereich bestimmen. \end{enumerate} \subsection{Integrierender Faktor} Eine nicht exakte Differentialgleichung in der Form \begin{gather*} A(x,y) + B(x,y)y' = 0 \end{gather*} geht durch die Multiplikation mit einer Funktion $M(x,y)$ in die exakte Differntialgleichung \begin{gather*} M(x,y) \cdot A(x,y) + M(x,y) \cdot B(x,y)y' = 0 \end{gather*} über. $M(x,y)$ ist der \textbf{integrierende Faktor} oder \textbf{Euler-Multiplikator}. Allgemein lautet der Lösungsweg für $A(x,y) + B(x,y)y' = 0$ mit integrierendem Faktor vom Typ $M(x,y) = m(u(x,y))$: \begin{enumerate} \item Berechnung von $A_y - B_x$. Wenn $0$ herauskommt, dann liegt eine exakte Differentialgleichung vor, die wie gehabt gelöst werden kann. \item Wenn $u(x,y)$ nicht explizit vorgegeben, Auswahl verschiedener Funktionen $u(x,y)$ und dazu Berechnung von \begin{gather*} H(x,y) := \frac{Ay-Bx}{BU_x - Au_y} \end{gather*} Wenn $H(x,y)=h(u(x,y))$ weiter mit nächstem Schritt, ansonsten anderes $u(x,y)$ wählen. Standard-Ansätze für $u(x,y)$: \begin{array}{|c|c|} \hline $\mathbf{u(x,y)}$ & $\mathbf{H(x,y)}$ \\ \hline $x$ & $\frac{A_y - B_x}{B}$ \\ \hline $y$ & $\frac{A_y - B_x}{-A}$ \\ \hline $x+y$ &$\frac{A_y-B_x}{B-A}$ \\ \hline $x-y$ &$\frac{A_y-B_x}{B+A}$ \\ \hline $xy$ &$\frac{A_y-B_x}{yB-yA}$ \\ \hline $y^2 + y^2$ & $\frac{1}{2} \cdot \frac{A_y-B_x}{xB-yA}$ \\ \hline $x^2 - y^2$ & $\frac{1}{2} \cdot \frac{A_y-B_x}{xB+yA}$ \\ \hline \end{array} \item Berechne $m(u)=e^{\int h(u) \, du}$. $M(x,y) = m(u(x,y))$ ist der Euler-Multiplikator \item Lösung der exakten Differentialgleichung $M(x,y) \cdot A(x,y) + M(x,y) \cdot B(x,y)y' = 0$ \end{enumerate} \section{Inhomogene Lineare Differentialgleichungen 1. Ordnung} \subsection{Grundlagen} Für inhomogene lineare Differentialgleichungen 1. Ordnung in der Form \begin{gather*} y' + f(x) \cdot y = s(x) \end{gather*} gilt: Die allgemeine Lösung ist die Summe aus der Lösung der zugehörigen homogenen Differentialgleichung und einer partikulären Lösung der zugehörigen inhomogenen Differentialgleichung. \begin{enumerate} \item Integration der zugehörigen homogenen Differentialgleichung \begin{gather*} y' + f(x) \cdot y = 0 \end{gather*} Zunächst Trennung der Veränderlichen, dann Integration. Allgemeine Lösung ist schließlich (auch logarithmische Schreibweise möglich): \begin{gather*} y = c \cdot e^{-\int f(x) \, dx}, \qquad c \in \mathbb{R} \end{gather*} \item Integration der zugehörigen inhomogenen Differentialgleichung Die aus der Lösung der homogenen Differentialgleichung gewonnene Integrationskonstante $c$ wird durch die Funktion $c(x)$ ersetzt, so dass man den Lösungsansatz \begin{gather*} y = c(x) \cdot e^{-\int f(x) \, dx} \end{gather*} erhält und diesen in die inhomogene Differentialgleichung einsetzt. Die so entstehende Differentialgleichung 1. Ordnung ist durch unbestimmte Integration direkt gelöst werden. \item Summe aus der Lösung der zugehörigen homogenen Differentialgleichung und einer partikulären Lösung der zugehörigen inhomogenen Differentialgleichung berechnen \end{enumerate} Beispiel: \begin{gather*} y' + \frac{1}{x} \cdot y = x^2 \\ y' + \frac{1}{x} \cdot y = 0 \qquad \Rightarrow \qquad \frac{y'}{y}= - \frac{1}{x} \qquad \Rightarrow \qquad \underbrace{-\log x}_{\log{\frac{1}{x}}} + \breve{c} \\ y_h = \frac{c}{x} \\ y_P (x) = \frac{c(x)}{x} \qquad \Rightarrow \qquad y_p(x) = \frac{x^4}{5}\\ \frac{c'(c)}{x} = x^3 \qquad \Rightarrow \qquad c'(x) = x^4 \qquad \Rightarrow \qquad c(x) = \frac{x^5}{5} \\ \mathbf{y(x) = \frac{x^4}{5}} \qquad \text{Allg. Lsg.} \end{gather*} \subsection{Typen von inhomogenen linearen DGLen 1. Ordnung} \subsubsection{Ähnlichkeitsdifferentialgleichung (= Homogene Differetialgleichung)} Allgemeine Gestalt: \begin{gather*} y' = f(\frac{y}{x}) \end{gather*} Überführung in trennbare Differentialgleichung durch Substitution: \begin{gather*} v(x) = \frac{y(x)}{x} \qquad \Rightarrow \qquad y = x \cdot v(x) \qquad \Rightarrow \qquad y' = v(x) + x \cdot v'(x) \\ v(x) + x \cdot v'(x) = f(x) \qquad \Rightarrow \qquad \mathbf{v'(x) = \frac{f(v) - v}{x}} \end{gather*} Beispiel: \begin{gather*} y' = \frac{y}{x} - \sqrt{1 - \frac{y}{x}} \\ \frac{y}{x} =: v \qquad \Rightarrow \qquad y' = v + x\cdot v' \\ v + x\cdot v' = v - \sqrt{1 - v} \qquad \Rightarrow \qquad \frac{v'}{\sqrt{1-v}}= -\frac{1}{x}\\ 1 - v = u^2 \qquad \Rightarrow \qquad -dv = 2u \cdot du \\ \int \frac{1}{\sqrt{1-v}} \, dv = \int \frac{2u}{u} \, du = -2u = -2\sqrt{1-v} \\ -2\sqrt{1 - v} = -\log x + \check{c} \qquad \Rightarrow \qquad \underline{1 - \frac{y}{x}} = \frac{1}{2}\log x + c \\ \mathbf{x(1-(\frac{1}{2} \log x + c)^2) = y(x)} \end{gather*} \subsubsection{Bernoulli-Differentialgleichung} Allgemeine Gestalt: \begin{gather*} y'(x) + a(x) \cdot y(x) = b(x) \cdot (y(x)^\alpha) \end{gather*} Substitutionsmethode: \begin{gather*} \eta(x) := y(x)^{1-\alpha} \qquad \Rightarrow \qquad \eta'(x) = (1-\alpha) \cdot y(x)^{-\alpha}\cdot y'(x)\\ \underbrace{\frac{\eta'(x)}{1-\alpha} \cdot y(x)^\alpha}_{y'(x)} + a(x) \cdot \underbrace{y(x)^{1-\alpha}}_{\eta(x)} = b(x) \cdot y(x)^\alpha\\ \mathbf{\eta'(x) + (1-\alpha)a(x)\eta(x) = (1-\alpha)b(x)} \end{gather*} Substitution ergab eine lineare Differentialgleichung 1. Ordnung. \subsubsection{$y$ tritt nicht explizit in Differentialgleichung auf} \begin{gather*} y''(x) = f(x,y') \\ u := y' \qquad \Rightarrow \qquad \texttt{u' = f(x,u)} \end{gather*} Substitution ergab eine lineare Differentialgleichung 1. Ordnung. \subsubsection{$x$ tritt nicht explizit in Differentialgleichung auf - autonome Differentialgleichung} \begin{gather*} y''(x) = f(y,y') \\ v(y) := y' \qquad \Rightarrow \qquad y'' = \frac{dy'}{dx} = \frac{dy'}{dy}\cdot \frac{dy}{dx} = \frac{dv}{dy} \cdot v = v'(y)\cdot v(y)\\ \Rightarrow \qquad \mathbf{v(y) \cdot v'(y) = f(y,v(y)} \end{gather*} Substitution ergab eine lineare Differentialgleichung 1. Ordnung. Beispiel: \begin{gather*} y'' = -\frac{(y')^2}{5y} \qquad \Rightarrow \qquad v(y) = y' \\ v\cdot v' = - \frac{v^2}{5y} \qquad \Rightarrow \qquad \frac{v'}{v} = - \frac{1}{5y} \\ \log v(y) = -\frac{1}{5}\cdot\log x + \check{c} \qquad \Rightarrow \qquad v(y) = \frac{c}{y^{\frac{1}{5}}} \qquad \Rightarrow \qquad y'(x) = \mathbf{\frac{c}{y(x)^{\frac{1}{5}}}} \end{gather*} \subsection{Numerisches Lösen von Anfangswertproblemen für Differentialgleichungen 1. Ordnung} Gegeben ist das Anfangswertproblem: \begin{gather*} y'(x) = f(x,y(x)), y(x_0) = y_0 \end{gather*} Zerlegen $[x_o,x]$ in $n$ gleich grosse Teilintervalle $\Rightarrow$ Punkte $x_0, x_1, x_2, \dots, x_n$. Berechnen Näherungswerte für $y(x_i)$, d.h. $y_0, y_1, y_2, \dots, y_n$. Approx. Lösung $y(x)$ durch Näherung, Diskretisierung des Anfangswertproblems. \begin{center} %\includegraphics[scale=0.5]{AWP_NUM.eps} \end{center} Prinzipielle Unterteilung: \begin{itemize} \item Einzelschrittverfahren: Zur Berechnung von $y_i$ wird auf $y_{i-1}$ Werte zurückgegriffen \item Mehrschrittverfahren: Zur Berechnung von $y_i$ wird auf mehrere zurückliegende Werte zurückgegriffen \end{itemize} \textbf{Einzelschrittverfahren} - Mittelwertsatz: \begin{gather*} \frac{y(x_i) - y(x_{i-1}}{x_i - x_{i-1}} = y'(\xi) \qquad \xi \in (x_{i-1},x_i) \\ y(x_i) = y(x_{i-1}) + y'(\xi) \cdot \underbrace{(x_i - x_{i-1}}_{\text{=: h ... Schrittweite}} \\ \Rightarrow y(x_i) = y(x_{i-1}) + h\cdot \underbrace{f(\xi, y(\xi))}_{\text{verwenden Ersatzfunktion}} \end{gather*} Näherungsweise Berechnung durch Verwendung von Ersatzfunktion: Explizites Einzelschrittverfahren \begin{gather*} \mathbf{y_{i+1} = y_{i} + h \cdot F(x_{i-1}, y_{i}, h} \end{gather*} \textbf{Verfahren von Euler (Euler-Cauchy)}: verwenden für $F(x_i, y_i, h)$ die Funktion $f(x_i, y_i)$: \begin{gather*} \mathbf{y_{i+1} = y_i + h \cdot F(x_i,y_i)} \end{gather*} \textbf{Verfahren von Heun}: \begin{gather*} K_1 = f(x_i, y_i) \\ K_2 = f(x_i + h, y_i + h \cdot f(x_i,y_i) \\ y_{i+1} = y_i + h \cdot \underbrace{F(x_i,y_i)}_{\frac{1}{2} \cdot (K_1 + K_2)} \end{gather*} \textbf{Verfahren von Runge-Kutta}: Verwende zusätzlichen Zwischenwert $x_i + \frac{h}{2}$, gewichtetes Mittel aus Funktionswerten an den Stellen $x_i, x_i + \frac{h}{2}, x_i + h$: \begin{gather*} K_1 = f(x_i, y_i)\\ K_2 = f(x_i + \frac{h}{2}, y_i + \frac{h}{2}K_1)\\ K_3 = f(x_i + \frac{h}{2}, y_i + \frac{h}{2}K_2)\\ K_4 = f(x_i + \frac{h}{2}, y_i + \frac{h}{2}K_3)\\ \mathbf{y_{i+1} = y_i + h \cdot \frac{1}{6} \cdot (K_1 + 2K_2 + 2K_3 + K_4} \end{gather*} \textbf{Konsistenzmaße}: Ein Einzelschrittverfahren besitzt die Konsistenzordnung $p$, wenn es ein $c \cdot h_0 > 0$ gibt, so dass gilt: \begin{gather*} |\frac{y(x+h)-y(x)}{h} - F(x,y,h)| \leq c \cdot h^p \end{gather*} $p$ ist konkret für folgende Verfahren: \begin{itemize} \item Euler-Verrfahren: 1 \item Heun-Verfahren: 2 \item Runge-Kutta-Verfahren: 4 \end{itemize} Festlegung der optimalen Schrittweite $\tilde{h}$ durch berücksichtigung von Verfahrensfehlern und Rundungsfehlern: \begin{center} %\includegraphics[scale=0.5]{optim_schrittw.eps} \end{center} \section{Potenzreihenansatz zur Lösung von Differentialgleichungen} Es liegt eine Differentialgleichung in folgender Form vor: \begin{gather*} F(x,y,y',\dots,y^{(n)})=0, \end{gather*} und wir nehmen an, dass die Lösung $x_0 = x$ in eine Potenzreihe entwickelbar ist, d.h.: \begin{gather*} y(x) = \sum_{n=0}^\infty a_n \cdot (x - x_0)^n \end{gather*} Die Bestimmung der Koeffizienten $a_1, a_2, \dots, a_n$ kann auf zwei Arten erfolgen: \subsection{Fortgesetzte Differentiation} Ausgangspunkt ist das AWP \begin{gather*} y'=f(x,y), \qquad y(x_0) = y_0 \end{gather*} Mit der Taylor-Formel gilt: \begin{gather*} a_m = \frac{y^{(n)}(x_0)}{n!}, \end{gather*} Durch fortgesetzte Differentiation der Gleichung $y'(x) = f(x,y(x))$ bei $x=x_0$ (Kettenregel) bestimmt man nacheinander die Koeffizienten: \begin{gather*} a_0 = y(x_0) = y_0 \\ a_1 = y'(x_0) = f(x_0,y_0)\\ 2!a_2 = y''(x_0) = f_x(y_0,y_0) + f_y(x_0,y_0)y'(x_0)\\ 3!a_3 = y'''(x_0) = [f_{xx} + f_{xy}y' + (f_{yx} + f_{yy})y' + f_yy'']_{x_0,y_0}\\ \vdots \end{gather*} \subsection{Koeffizientenvergleich} \begin{enumerate} \item Ableitungen bilden: \begin{gather*} y'(x) = \sum_{n=0}^\infty n \cdot a_n \cdot (x-x_0)^{n-1}\\ y''(x) = \sum_{n=0}^\infty n \cdot (n-1) \cdot a_n \cdot (x-x_0)^{n-2} \end{gather*} \item Potenzen von $y(x)$ (($y(x))^2,(y(x))^3,\dots$) nach der Cauchy-Produktformel entwickeln: \begin{gather*} f(x) = \sum_{n=0}^\infty f_n\cdot (x-x_0)^n, \qquad g(x) = \sum_{n=0}^\infty g_n\cdot (x-x_0)^n\\ h(x) := f(x) \cdot g(x) = \sum_{n=0}^\infty \underbrace{h_n}_{h_n=\sum_{k=0}^\infty f_k \cdot g_{n-k}}\cdot (x-x_0)^n \end{gather*} \item Reihenentwicklung in Differentialgleichung einsetzen und nach Potenzen von $(x-x_0)^n$ ordnen. Dann die Koeffizienten von $(x-x_0)$ vergleichen, d.h. $F(x,y,y',\dots,y^{(n)})=0$ setzen. $\Rightarrow \,$ Gleichungssystem (unendlich dimensional) für $a_0, a_1, \dots$. Die Reihenentwicklung wird unter Annahme einer guten Approximation abgebrochen. \end{enumerate} Zum Beispiel die \textbf{Laguerre-Differentialgleichung}: \begin{gather*} x\cdot y'' + (1-x)\cdot y' + m \cdot y = 0, \qquad m \in \mathbb{R} \end{gather*} Potenzreihenentwicklung um $x_=0$ mit dem Ansatz: \begin{gather*} y(x)=\sum_{n=0}^\infty a_n\cdot x^n\\ \sum_{n=0 \mathbf{(1)}}^\infty n\cdot (n-1) \cdot a_n \cdot x^{n-1} + (1-x)\cdot\sum_{n=0}^\infty n \cdot a_n \cdot x^{n-1} + m \cdot \sum_{n=0}^\infty a_n \cdot x^{n}\\ \sum_{n=0}^\infty (n+1)\cdot n \cdot a_{n+1} \cdot x^{n} + \sum_{n=0 \mathbf{(1)}}^\infty n \cdot a_n \cdot x^{n-1} - \sum_{n=0}^\infty n \cdot a_n \cdot x^n + m \cdot \sum_{n=0}^\infty a_n \cdot x^{n}\\ \sum_{n=0}^\infty (n+1)\cdot n \cdot a_{n+1} \cdot x^{n} + \sum_{n=0}^\infty n \cdot a_n \cdot x^{n} - \sum_{n=0}^\infty n \cdot a_n \cdot x^n + m \cdot \sum_{n=0}^\infty a_n \cdot x^{n}\\ \sum_{n=0}^\infty ((n+1) \cdot n \cdot a_{n+1} + (n+1) \cdot a_{n+1} + (m-n) \cdot a_n) \cdot x^n = 0\\ \sum_{n=0}^\infty ((n+1)^2 \cdot a_{n+1} + (m-n) \cdot a_n) \cdot x^n = 0 \end{gather*} Koeffizientenvergleich für $(n+1)^2 \cdot a_{n+1} + (m-n) \cdot a_n$ für alle $n\geq 0$ durchführen und danach versuchen, ein Bildungsgesetz zu erkennen: \begin{enumerate} \item $n=1$: \begin{gather*} a_1 + m \cdot a_0 = 0 \qquad \Rightarrow \qquad a_1 = -m\cdot a_0 \end{gather*} $a_0$ frei wählbar \item $n=1$ \begin{gather*} 2^2 \cdot a^2 + (m-1)\cdot a_1 = 0 \qquad \Rightarrow \qquad a_2 = -\frac{m-1}{2} \cdot \frac{a_1}{2} =\\ (-1)\cdot (-1) \cdot \frac{(m-1)\cdot m}{2} \cdot \frac{a_0}{2} \end{gather*} \item $n=2$ \begin{gather*} 3^2 \cdot a_3 + (m-2)\cdot a_2 = 0 \qquad \Rightarrow \qquad \\ a_3 = -\frac{m-2}{3^2} \cdot a_2 = (-1)^3 \underbrace{\frac{m\cdot(m-1)\cdot(m-2)}{1\cdot2\cdot3}}_{\frac{m!}{3!(m-3)!} = \begin{pmatrix} m \\ 3 \\ \end{pmatrix}} \cdot \frac{a_0}{1\cdot 2 \cdot 3} \end{gather*} \end{enumerate} Daraus ergibt sich das \textbf{Bildungsgesetz}: \begin{gather*} a_n = (-1)^n \cdot \begin{pmatrix} m \\ n \\ \end{pmatrix} \cdot \frac{a_0}{n!} \end{gather*} Beweis müsste mittels vollständiger Induktion erfolgen. Die Funktion allgemein als Potenzreihe ausgedrückt (ist auch die Lösung der Daguerre-Differentialgleichung) lautet nun: \begin{gather*} \mathbf{y(x) = a_0 \cdot \sum_{n=0}^\infty (-1)^n \cdot \begin{pmatrix} m \\ n \\ \end{pmatrix}} \cdot \frac{x^n}{n!} \end{gather*} Falls $m \in \mathbb{N}$ bricht die Reihe bei $n > m$ ab - es bleibt das Laguerre-Polynom übrig. \subsection{Modifizierter Potenzreihenansatz für lineare DGL 2. Ordnung} Wenn der bisher erwähnte Ansatz nicht zum Ziel führt wird der modifizierte Potenzreihenansatz verwendet. Die DGL muss in folgender Form vorliegen: \begin{gather*} p(x) \cdot y'' + q(x) \cdot y' + r(x) \cdot y = 0 \end{gather*} $\frac{q(x)}{p(x)}$ und $\frac{r(x)}{p(x)}$ müssen um $x=x_0$ in eine Taylorreihe entwickelbar sein. Das Problem sind dabei die Nullstellen von $p(x)$. Wenn $p(x_0)=0$, so wird $x_0$ ein \textbf{singulärer Punkt} genannt. Eine Nullstelle $x_0$ von $p(x)$ heißt \textbf{reguläre Singularität} der DGL, falls die Funktionen $p_0(x),p_1(x),\dots$ mit $p(x)=(x-x_0)^2\cdot p_0(x), y(x)=(x-x_0)\cdot p_1(x), r=p_2(x)$ existieren, so dass $p_0(x), p_1(x), p_2(x)$ um $x_0$ in eine Taylorreihe entwickelbar sind und zusätzlich $p_0(x_0) \neq 0$ gilt. Falls $x_0$ ist reguläre Singularität der DGL \begin{gather*} (x-x_0)^2\cdot p_0(x) \cdot y'' + (x-x_0)\cdot p_1(x) \cdot y' + p_2(x)\cdot y=0 \end{gather*} und $r$ eine Nullstelle der Indexgleichung \begin{gather*} r\cdot(r-1)\cdot p_0(x_0) + r\cdot p_1(x_0) + p_2(x_0) = 0 \end{gather*} ist, dann gilt die Potenzreihendarstellung: \begin{gather*} y(x)=(x-x_0)^r \cdot \sum_{n=0}^\infty a_n \cdot (x-x_0)^n \end{gather*} Beispiel: \textbf{Bessel-Differentialgleichungen}, welche die folgende Form haben: \begin{gather*} x^2\cdot y'' + x\cdot y' + (x^2 - \alpha^2)\cdot y = 0, \qquad \alpha \in \mathbb{R} \end{gather*} Wenn $x=0$, liegt reguläre Singularität vor - Lösung mittels Potenzreihenansatz um $x_0=0$ möglich. Dabei unterscheiden wir zwei Fälle: (a) $\alpha = m \in \mathbb{N}$ und (b) $\alpha = m \in \mathbb{R} \setminus \mathbb{Z}$ \begin{itemize} \item $\alpha = m \in \mathbb{N}$ \begin{gather*} x^2\cdot y'' + x\cdot y' + (x^2 + m^2)\cdot y = 0 \\ p_0(x_0) = 1, \qquad p_1(x_0) = 1, \qquad p_2(x_0) = x^2 - m^2\\ \text{Indexgleichung: }\,\,\, r\cdot(r-1)\cdot 1 + r \cdot 1 - m^2=0\\ \Rightarrow \qquad r^2 -m^2 =0, \qquad \Rightarrow \qquad r_{1,2}=\pm m \end{gather*} \begin{itemize} \item $r_1=+m$ \begin{gather*} \text{Ansatz: }\,\,\, y(x) = x^m \cdot \sum_{n=0}^\infty a_n \cdot x^n = \sum_{n=0}^\infty a_n \cdot x^{n+m}\\ \sum_{n=0}^\infty (n+m) \cdot (n+m-1) \cdot a_n \cdot\mathbf{ x^{n+m}}+ \sum_{n=0}^\infty (n+m) \cdot a_n \cdot \mathbf{x^{n+m}}+ \\ + \underbrace{(x^2 - m^2) \cdot \sum_{n=0}^\infty a_n \cdot x^{n+m}}_{= \blacksquare} = 0\\ \blacksquare \underbrace{\sum_{n=0}^\infty a_n \cdot x^{n+m+2} - \sum_{n=0}^\infty m^2 \cdot a_n \cdot x^m}_{= \diamondsuit}\\ \diamondsuit \sum_{\textbf{n=2}}^\infty a_{n-2} \cdot \mathbf{x^{n+m}}-\sum_{n=0}^\infty m^2 \cdot \mathbf{x^{n+m}} \end{gather*} Durchführung des Koeffizientenvergleichs: \begin{itemize} \item $n=0$ \begin{gather*} m \cdot (m -1) \cdot a_0 + m \cdot a_0 - m^2 \cdot a_0 = 0 \end{gather*} Da $0 \cdot a_0 = 0$ gilt ist $a_0$ frei wählbar! \item $n=1$ \begin{gather*} (m+1) \cdot m \cdot a_1 = (m+1) \cdot a_1 - m^2 \cdot a_1 = 0\\ 2\cdot(m+1) \cdot a_1 = 0 \qquad \underbrace{\Rightarrow}_{m \in \mathbb{N}} \qquad a_1 = 0 \end{gather*} \item $n\geq2$ \begin{gather*} (m+n) \cdot (n + m - 1) \cdot a_n = (m+n) \cdot a_n + a_{n-2} - m^2 \cdot a_n = 0\\ \mathbf{((n+m)^2 - m^2)\cdot a_n + a_{n-2} = 0} \end{gather*} Rekursion für die Bestimmung für $n \geq 2$ (Differenzengleichung). Mittels Induktion ergibt sich für die ungeraden Koeffizienten immer 0. Betrachten nun die geraden Koeffizienten ($a_{2n}$): \begin{gather*} ((2\cdot n + m)^2 -m^2) \cdot a_{2n} + a_{2\cdot n - 2} = 0\\ \Rightarrow a_{2\cdot n} = -\frac{a_{2n-2}}{(2n+m)^2 - m^2} = -\frac{a_{2n-2}}{(2n+2m)\cdot 2n} = \\ = -\frac{a_{2n-2}}{4(n+m)\cdot n} = \underbrace{\dots}_{\text{iterieren}} = \\ (-1)^n \cdot \frac{a_0 \cdot m!}{4^n \cdot n! \cdot (n+m)!} \end{gather*} Die folgende Funktion ist somit eine Lösung der Bessel-Differen-tialgleichung ($a_0 \in \mathbb{R}$): \begin{gather*} \mathbf{y(x) = x^m \cdot a_0 \cdot \sum_{n=0}^\infty (-1)^n \cdot \frac{a_0 \cdot m!}{4^n \cdot n! \cdot (n+m)!}\cdot x^{2n}} \end{gather*} Frei wählbares $a_0$: Mit folgendem speziellen $a_0$ ergibt sich die \textbf{Bessel-Funktion 1. Art der Ordnung $\mathbf{m}$}: \begin{gather*} a_0 = \frac{1}{2^m \cdot m!} \\ \mathbf{J_m(x) = \frac{x^m}{2^m} \sum_{n=0}^\infty (-1)^n \cdot \frac{x^{2n}}{4^n \cdot n! \cdot (n+m)!}} \end{gather*} \end{itemize} \newpage \item $r_2=-m$ Nicht in der VO behandelt, aber der Vollständigkeit halber erwähnt. Die zweite Lösung der Differentialgleichung in der Gestalt \begin{gather*} Y_m(x) = c\cdot J_m(x) \cdot \ln x + \frac{1}{x_m} \cdot P_2(x) \end{gather*} ($c \in \mathbb{R}$,$P_2$ ist Potenzreihe um $x_0$ (singuläre Stelle)) ist die \textbf{Bessel-Funktion 2. Art der Ordnung $\mathbf{m}$}($J_m$ und $Y_m$ bilden eine Lösungs-basis). \end{itemize} \item $\alpha = m \in \mathbb{R} \setminus \mathbb{Z}$ Berechnung analog wie bei $r_1$, nur statt dessen bei letzter Umformung statt $m!$ die Gamma-Funktion $\Gamma(\alpha +1)$. Der Vollständigkeit halber (nicht in VO behandelt) seien der Ansatz $a_0 = \frac{1}{2^\alpha \Gamma(\alpha +1)}$ (Gamma-Funktion ist eine höhere Funktion und als $\Gamma(x)=\int_0^\infty t^{x-1} e^{-t} \mathrm{d}t$ definiert) mit der folgenden Lösung erwähnt: \begin{gather*} y(x) = \frac{x^\alpha}{2^\alpha} \cdot \sum_{n=0}^\infty (-1)^n \cdot \frac{1}{4^n \cdot n! \cdot \Gamma(n+\alpha+1)}\cdot x^{2n} \end{gather*} Für weitere Details siehe Meyberg/Vachenauer, Höhere Mathematik 2, 2. Aufl., S. 88. \end{itemize} \textbf{Ergänzungen} \begin{itemize} \item Die Incexgleichung ist ein quadratisches Polynom mit zwei Lösungen $r_1$,$r_2$ \begin{itemize} \item Wenn $r_1 \neq r_2 \, \, \, \wedge \, \, \, r_1 - r_2 \not\in \mathbb{Z}$ - modifizierten Potenzreihenansatz verwenden - ergibt zwei unabhängige Lösungen: ($P(x)$ ist Potenzreihe) \begin{enumerate} \item $(x-x_0)^{r_1} \cdot P(x)$ \item $(x-x_0)^{r_2} \cdot P(x)$ \end{enumerate} \item $r_1=r_2 \, \, \, \wedge \, \, \, r_1 - r_2 \in \mathbb{Z}$ - wähle das 'grössere' $r$ ($r=\max(r_1,r_2)$) für den Lösungsansatz \begin{gather*} (x-x_0)^r \cdot P(x) \end{gather*} Liefert aber keine allgemeine Lösung (nur durch Variation der Konstanten erhältlich) \end{itemize} \end{itemize} \section{Lineare DGL n-ter Ordnung} \subsection{Grundlagen} \begin{gather*} a_n(x) \cdot y^{n}(x) + a_{n-1}(x) \cdot y^{n-1}(x) + \dots + a_1(x) \cdot y(x)' + a_0(x) y(x) = b(x) \end{gather*} ($a_n(x) \neq 0, a_0(x),\dots$ sind stetige Funktionen in einem offenen Intervall $I \subseteq \mathbb{R}$) $b(x)$ ist die Störfunktion (inhomogener Anteil). Ist $b=0$ liegt eine homogene DGL vor. Zum Satz vom Lösungsraum homogener linearer DGL $n$-ter Ordnung: $\varphi_1(x)$ und $\varphi_2(x)$ seien Lösungen der homogenen DGL - dann folgt daraus, dass $\alpha\cdot \varphi_1(x) + \beta\cdot \varphi_2(x)$ auch eine Lösung ist. Die Gesamtheit aller Lösungen bildet einen $n$-dimensionalen Vektorraum über $\mathbb{R}$. Die allgemeine Lösung der homogenen DGL lautet: \begin{gather*} y_h = c_1\cdot \varphi_1(x) + c_2\cdot \varphi_2(x) + \dots + c_n\cdot \varphi_n(x) \end{gather*} Für alle Werte ($(y_0, y_0', y_0'', \dots, y_0^{(n-1)}) \in \mathbb{R}^n$ und $x \in I$ gilt: Das AWP $y^n(x) + \dots + a_0(x) \cdot y(x) =0$ mit $y^{(n)}(x_0) = y_0^{k}$ hat immer eine eindeutige Lösung. Die $n$ Lösungen der DGL ($\varphi_1(x), \dots, \varphi_n(x)$) bilden genau dann eine Basis des Lösungsraums (= Lösungsbasis, Fundamentalsystem), wenn die \textbf{Wronski-Determinante} $W(x) \neq 0$ für \emph{ein} $x \in I$ ist: \begin{gather*} W(x) = \Phi(x) = \begin{pmatrix} \varphi_1(x) & \varphi_2(x) & \ldots & \varphi_n(x) \\ \varphi_1'(x) & \varphi_2'(x) & \ldots & \varphi_n'(x) \\ \vdots & \vdots & \ddots & \vdots \\ \varphi_1^{n-1}(x) & \varphi_2^{n-1}(x) & \ldots & \varphi_n^{n-1}(x) \\ \end{pmatrix} \end{gather*} $\Rightarrow$ Vollständige Lösung $y^{(n)}(x) = c_1\varphi_1(x) + \dots + c_n\varphi_n(x)$ mit $c_1, c_2 \in \mathbb{R}$. Der \textbf{Satz über dem Lösungsraum}: \begin{itemize} \item \textbf{Homogene DGL} Die homogene DGL hat die Form \begin{gather*} y^{(n)} + a_{n-1}(x)y^{(n-1)} + \dots + a_1(x)y' + a_0(x)y = 0 \end{gather*} und ihre allg. Lösung hat die Form \begin{gather*} y_{[h]}(x) = c_1\varphi_1(x) + c_2\varphi_2(x) + \dots + c_n\varphi_n(x) \end{gather*} \item \textbf{Inhomogene DGL} Die inhomogene DGLhat die Form \begin{gather*} y^{(n)} + a_{n-1}(x)y^{(n-1)} + \dots + a_1(x)y' + a_0(x) = s(x) \end{gather*} $s(x)$ ist eine Störfunktion. Angenommen $\varphi_1, \dots \varphi_n$ sind unabh. Lösungen der homogenen DGL und bekannt - wie erhält man die \textbf{Partikulärlösung} $y_{[p]}$? Die allg. Lösung ergibt sich aus: \begin{gather*} y(x) = y_{[h]}(x) + y_{[p]}(x) \end{gather*} Erhalten \emph{eine} partikuläre Lösung über den Ansatz '\textbf{Variation der Konstanten}' ($c \Rightarrow c(x)$): \begin{gather*} y_{[p]}(x) := c_1\mathbf{(x)}\varphi_1(x) + c_2\mathbf{(x)}\varphi_2(x)+ \dots c_n\mathbf{(x)}\varphi_n(x) \end{gather*} Für $c_1(x),\dots,c_n(x)$ gelten folgende Bedingungen: \begin{equation*} \begin{matrix} (1) & \, \, \,& c_1'(x)\varphi_1(x) & + & c_2'(x)\varphi_2(x) & + & \dots & + & c_n'(x)\varphi_n(x) & = & 0 \\ (2) & \, \, \, & c_1'x)\varphi_1'(x) & + & c_2'(x)\varphi_2'(x) & + & \dots & + & c_n'(x)\varphi_n'(x) & = & 0 \\ \vdots & & & & & & & & & & \\ (n-1) & \, \, \, & c_1'x)\varphi_1^{(n-2)}(x) & + & c_2'(x)\varphi_2^{(n-2)}(x) & + & \dots & + & c_n'(x)\varphi_n^{(n-2)}(x) & = & 0 \\ (n) & \, \, \, & c_1'x)\varphi_1^{(n-1)}(x) & + & c_2'(x)\varphi_2^{(n-1)}(x) & + & \dots & + & c_n'(x)\varphi_n^{(n-1)}(x) & = & s(x) \\ \end{matrix} \end{equation*} Folgendes Lineare Gleichungssystem ergibt für $c_1'(x),\dots,c_n'(x)$ eindeutige Lösungen: \begin{gather*} \underbrace{\begin{vmatrix} \varphi_1(x) & \varphi_2(x) & \hdots & \varphi_n(x) \\ \varphi_1'(x) & \varphi_2'(x) & \hdots & \varphi_n'(x) \\ \vdots & \vdots & \ddots & \vdots \\ \varphi_1^{[n-1]}(x) & \varphi_2^{[n-1]}(x) & \hdots & \varphi_n^{[n-1]}(x) \\ \end{vmatrix}}_{\text{Fundamentalmatrix}}\cdot \begin{pmatrix} c_1'(x) \\ c_2'(x) \\ \vdots \\ c_n'(x) \\ \end{pmatrix}= \begin{pmatrix} 0 \\ \vdots \\ \vdots \\ \mathbf{s(x)} \\ \end{pmatrix} \end{gather*} Wir erhalten $c_1(x),\dots,c_n(x)$ durch die Integration der aus dem Linearen Gleichungssystem errechneten $c_1'(x),\dots,c_n'(x)$ Anmerkung: Bei einer DGL 1. Ordnung sieht dieser Ansatz einfach so aus: $\varphi_1(x) \qquad \Rightarrow \qquad \varphi_1(x)\cdot c_1'(x) = s(x)$. \end{itemize} Beispiel einer \textbf{Eulerschen DGL}: \begin{gather*} x^2y'' - 2xy' + 2y = x^3 \end{gather*} Im ersten Schritt bestimmen wir das Fundamentalsystem $\varphi_1(x),\varphi_2(x)$ der zugehörigen homogenen DGL., und zwar mit dem Ansatz $\varphi(x)=x^m$: \begin{gather*} y(x)=x^r, \qquad y'(x)=rx^{r-1}, \qquad y''(x)=r(r-1)x^{r-2}\\ x^2r(r-1)x^{r-2} - 2xrx^{r-1} + 2x^r=0 \\ r(r-1)x^r - 2rx^r + 2x^r = 0 \qquad | \, \cdot \frac{1}{x^r}\\ r(r-1) - 2r + 2 = 0 \qquad \text{Indexgleichung}\\ r^2-3r+2=0 \qquad \Rightarrow \qquad (r-2)(r-1)=0 \qquad \Rightarrow \qquad \mathbf{r_{1,2} = 1,2} \end{gather*} Die Lösungen der homogenen DGL sind somit: $\varphi_1(x)=x^1=x$,$\varphi_2(x)=x^2$. Mit Hilfe der Wronski-Determinante (s.4.VO) prüfen wir die Unabhängigkeit der Lösungen: \begin{gather*} W(x) = \begin{vmatrix} x & x^2 \\ 1 & 2x \\ \end{vmatrix} = 2x^2 - x^2 = x^2\\ W(1) = 1^2 = 1 \neq 0 \end{gather*} Somit sind die Lösungen unabhängíg und die Lösung der homogenen DGL lautet: \begin{gather*} y_{[h]}(x) = c_1x + c_2x^2 \end{gather*} Nun wenden wir die 'Variation der Konstanten' an: \begin{gather*} \mathbf{x^2}y'' - 2xy' + 2y = x^3 \qquad | \,\, _ \frac{1}{x^2}\\ \mathbf{1}y'' - \frac{2}{x}y' + \frac{2}{x^2}y=x\\ \varphi_1=x, \varphi_2=x^2\\ \text{Ansatz}\qquad y_{[p]} = c_1(x)\varphi_1(x) + c_2(x)\varphi_2(x)\\ \begin{bmatrix} x & x^2 \\ 1 & 2x \\ \end{bmatrix}\cdot \begin{pmatrix} c_1'(x) \\ c_2'(x) \\ \end{pmatrix}= \begin{pmatrix} 0 \\ \frac{x^3}{x^2}=x \end{pmatrix}\\ \text{Cramer'sche Regel anwenden}\\ c_1'(x) = \frac{\begin{vmatrix} 0 & x^2 \\ x & 2x \\ \end{vmatrix}}{W(x)} = \frac{-x^3}{x^2} = x\\ c_2'(x) = \frac{\begin{vmatrix} x & 0 \\ 1 & x \\ \end{vmatrix}}{W(x)} = \frac{x^2}{x^2} = 1\\ \end{gather*} Nach Integration ergibt sich $c_1(x) = -\frac{x^2}{2}$ und $c_2(x)=x$ und damit: \begin{gather*} y_{[p]}(x) = -\frac{x^2}{2}\cdot x + x\cdot x^2 = \frac{x^3}{2}\\ \mathbf{y(x) = \frac{x^3}{2} + c_1x + c_2x^2} \qquad \text{allg.Lsg.} \end{gather*} Eine weitere Anwendung für die Variation der Konstanten ist die folgende: Es sei eine homogene lineare DGL gegeben und es sei angenommen, man kenne eine Lösung $\varphi_1(x)$. In diesem Fall führt man eine Reduktion der Ordnung $n$ der DGL durch den \textbf{Reduktionsansatz} \begin{gather*} y(x)=\varphi_1(x)\cdot c(x) \end{gather*} durch, was eine DGL der Ordnung $n-1$ für $c'(x)$ ergibt. Beispiel (s. vorhergehendes): \begin{gather*} x^2y'' - 2xy' + 2y = 0, \qquad \varphi_1(x)=x\\ \text{Ansatz} \qquad y=c(x) x \qquad \Rightarrow \qquad y' = c'(x) + c\\ y''=c''x + c' + c' = c''x + 2c'\\ x^2(c''x + 2c') - 2x(c'x + c) + 2cx=0\\ x^3c''=0 \qquad \Rightarrow \qquad c''=0 \qquad \Rightarrow \qquad c'=1 \qquad \Rightarrow \qquad \mathbf{c=x}\\ y(x)=c(x)\cdot x = x\cdot x=x^2 \qquad \Rightarrow \qquad \text{unabh. Lsg.} \end{gather*} \subsection{Lineare DGL $n$-ter Ordnung mit konstanten Koeffizienten} Die allgemeine Form (\textbf{homogen}) ist: \begin{gather*} y^{(n)} + a_{n-1}y^{(n-1)} + \dots + a_1y' + a_0(x)y = 0 \qquad a_0,\dots,a_{n-1} \in \mathbb{R} \end{gather*} Verwendug des Exponentialansatzes $\mathbf{y(x)=e^{\lambda x}}$, was das folgende charakteristische Polynom von Grad $n$ ergibt: \begin{gather*} P(\lambda)=\lambda^n + a_{n-1}\lambda^{n-1} + \dots + a_1\lambda + a_0 = 0 \end{gather*} Nullstellen (Vielfachheit $k$): \begin{gather*} P(\lambda)=(\lambda - \lambda_1)^{k_1}\cdot(\lambda - \lambda_2)^{k_2}\cdot\dots\cdot(\lambda - \lambda_i)^{k_j} \\ \lambda_i \neq \lambda_j, \qquad 1 \leq j \leq i, \qquad \lambda_i \in \mathbb{C} \end{gather*} Die Lösungsbasis $\varphi_1(x),\dots,\varphi_n(x)$ der homogenen DGL erhält man wie folgt: \begin{itemize} \item Falls $\lambda$ eine reelle Nullstelle mit der Vielfachheit $k$ ist: $k_i$ ist unabhängige Lösung, gegeben durch $e^{\lambda_ix},xe^{\lambda_ix},x^2e^{\lambda_ix},\dots, x^{k-1}e^{\lambda_ix},$ \item Falls $\lambda=\alpha - i\beta$ eine komplexe Nullstelle mit der Vielfachheit $k$ ist, dann ist auch $\lambda_j = \alpha - i\beta$ eine komplexe Nullstelle mit der Vielfachheit $k_j$. Unabhängige Lösung ist gegeben durch $e^{\alpha x} \cos (\beta x),xe^{\alpha x}\cos (\beta x), x^2e^{\alpha x} \cos (\beta x),\dots,x^{k-1}e^{\alpha x}\cos (\beta x)$ und $e^{\alpha x} \sin (\beta x),xe^{\alpha x}\sin (\beta x), x^2e^{\alpha x} \sin (\beta x),\dots,x^{k-1}e^{\alpha x}\sin (\beta x)$ \end{itemize} Die allgemeine Form (\textbf{inhomogen}) ist: \begin{gather*} y^{(n)} + a_{n-1}y^{(n-1)} + \dots + a_1y' + a_0(x)y = s(x) \qquad a_0,\dots,a_{n-1} \in \mathbb{R} \end{gather*} Zur Lösung kann die Variation der Konstanten verwendet werden oder bei speziellen $s(x)$ verschiedene unbestimmte Ansätze, z.B.: \begin{gather*} s(x) = (c_0 + c_1x + \dots + c_m^m)e^{\mu x}, \qquad \mu \in \mathbb{R}\\ \text{Ansatz} \qquad y_p(x) = (A_0 + A_1x + \dots + A_mx^m)e^{\mu x} \end{gather*} $\mu$ ist die Lösung des aus der zugehörigen homogenen DGL resultierenden charakteristischen Polynoms $P(\lambda)$. Wenn $\mu$ eine $k$-fache Nullstelle ist, so tritt der Resonanzfall auf und es gilt: \begin{gather*} \qquad y_p(x) = (A_0 + A_1x + \dots + A_mx^m)e^{\mu x}x^k \end{gather*} Anderes Beispiel: \begin{gather*} s(x) = (c_0 + c_1x + \dots + c_m^m)e^{\alpha x} \cos (\beta x)\\ s(x) = (c_0 + c_1x + \dots + c_m^m)e^{\alpha x} \sin (\beta x)\\ \text{Ansatz} \qquad y_p(x) = (A_0 + A_1x + \dots + A_mx^m)e^{\alpha x} \cos (\beta x) +\\ (A_0 + A_1x + \dots + A_mx^m)e^{\alpha x} \sin (\beta x) \end{gather*} (Falls $\alpha + i\beta$ keine Nullstelle des charakteristischen Polynoms $P(\lambda)$ ist) \begin{gather*} \text{Ansatz} \qquad y_p(x) = x^k(A_0 + A_1x + \dots + A_mx^m)e^{\alpha x} \cos (\beta x) +\\ x^k(A_0 + A_1x + \dots + A_mx^m)e^{\alpha x} \sin (\beta x) \end{gather*} (Falls $\alpha + i\beta$ $k-$fache Nullstelle des charakteristischen Polynoms $P(\lambda)$ ist) \section{Lösen von DGL mittels Laplace-Transformation} \subsection{Grundlagen} Gegeben ist eine Funktion $f(t) \, \, [0,\infty) \,\, \rightarrow \,\, \mathbb{R}$. Falls das uneigentliche Integral für zumindest ein $s \in \mathbb{R}$ existiert, dann heißt $F(s)$ (Bildfunktion) die \textbf{Laplace-Transformierte (L-transformierte)} von $f(t)$ (Zeitfunktion): \begin{gather*} \mathbf{F(s) = \mathcal{L} \{ f(t) \} = \int_0^\infty f(t) \cdot e^{-s\cdot t} \, dt} \end{gather*} Der \textbf{Existenz- und Eindeutigkeitssatz für L-transformierte}: \begin{itemize} \item Ist die Funktion $f: \, [0,\infty) \, \, \rightarrow \, \, \mathbb{R}$ auf beschränkten Intervallen stückweise stetig (d.h. sie besitzt in Intervallen nur endlich viele Sprungstellen) und $f(t)$ hat höchstens exponentielles Wachstum, d.h. es existieren Konstanten $M,\delta > 0$ \begin{gather*} |f(t)| \leq Me^{\delta t}, \qquad t \geq 0 \end{gather*} dann gilt: \begin{itemize} \item $F(s) = \mathcal{L} \{f(t)\}$ existiert für alle $s > \delta$ \item Das uneigentiche Integral $\int_0^\infty f(t) \cdot e^{-s\cdot t} \, dt$ konvergiert für alle $s \geq s_0 > \delta$ gleichmässig \item $f(t)$ ist durch $F(s)$ eindeutig bestimmt (bis auf die Sprungstellen). Die Rücktransformierbarkeit ist daher gewährleistet \item $\lim_{s\rightarrow\infty} F(s) = 0$ \end{itemize} \end{itemize} Es gibt allerdings auch $\mathcal{L}$-transformierbare Funktionen, die o.g. Bedingungen nicht vollständig genügen. $f(t)$ ist der . Es gilt: \begin{gather*} \mathcal{L} \{f(t)\} =: F(s) = \int_0^\infty e^{-s\cdot t}\cdot f(t) \, \operatorname{d} t \end{gather*} Inverse Transformation $\mathcal{L}^{-1} \{F(s)\}$ \begin{center} \begin{array}{|c|c|} % after \\ \hline or \cline{col1-col2} \cline{col3-col4} ... \hline $f(t)$ & $F(s)$ \\ \hline $1$ & $\frac{1}{s}$ \\ \hline $e^{a\cdot t}$ & $\frac{1}{s-a}$ \\ \hline $\cos(\omega \cdot t)$ & $\frac{s}{s^2 + \omega^2}$ \\ \hline $\sin(\omega \cdot t)$ & $\frac{\omega}{s^2 + \omega^2}$ \\ \hline \end{array} \end{center} Beispiel: \begin{gather*} e^{a\dot t} \qquad a = \alpha + i\cdot \beta \qquad\\ F(s) = \int_0^\infty e^{a\cdot t} \cdot e^{-s\cdot t} \, \operatorname{d} t = \int_0^\infty e^{(a-s)\cdot t} \operatorname{d}_t = \frac{\overbrace{e^{(a-s)\cdot t}}^{\text{wenn } a-s < 0 \text{ dann ok}}}{a-s}|_0^\infty = \\ \lim_{t \rightarrow \infty} \underbrace{\frac{e^{(a-s)\cdot t}}{a-s}}_{\rightarrow 0} - \frac{1}{a-s} = \frac{1}{s-a}\\ \text{ }\\ \cos (\omega \cdot t), \sin (\omega \cdot t): \, \, \text{setze } \, a= 0 + i \cdot \omega\\ e^{i\omega t} = \cos (\omega \cdot t) + i \cdot \sin (\omega \cdot t)= \dots \end{gather*} \subsection{Rechenregeln} $f(t)$, $g(t)$ - Zeitfunktion $\overbrace{\longrightarrow}^{\mathcal{L}} F(s), G(s)$ \begin{itemize} \item \emph{Linearität} \begin{gather*} \mathcal{L} \{\alpha \cdot f(t) + \beta \cdot g(t) \} = \alpha \cdot \mathcal{L} \{f(t)\} + \beta \cdot \mathcal{L} \{g(t)\}= \alpha \cdot F(s) + \beta \cdot G(s) \end{gather*} Beispiel: \begin{gather*} \cosh t = \frac{e^t + e^{-t}}{2} \\ \mathcal{L} \{\cosh t \} = \frac{1}{2} \mathcal{L} \{e^t\} + \frac{1}{2} \mathcal{L} \{e^{-t}\} = \frac{1}{2}\frac{1}{s-1} + \frac{1}{2}\frac{1}{s+1}= \frac{s}{s^2-1}\\ \text{ }\\ \sinh t = \frac{e^t - e^{-t}}{2} \qquad \text{analog} \end{gather*} \item \emph{Streckung} \begin{gather*} \mathcal{L} \{f(c\cdot t)\} = \frac{1}{c} \cdot F(\frac{s}{c}), c > 0 \end{gather*} Beweis: Variable im Integral substituieren \item \emph{Differentiation und Integration im Zeitbereich} \begin{gather*} \mathcal{L} \{f'(t) \} = s\cdot F(s) - \underbrace{f(0^+)}_{\text{rechtsseitiger Grenzwert an der Stelle } 0 } \end{gather*} Voraussetzungen: \begin{enumerate} \item $f$,$f'$ $\mathcal{L}$-transformierbar \item $f$ stetig auf $(0,\infty)$ \end{enumerate} \begin{gather*} \mathcal{L} \{f^{(n)} (t)\} = s^n \cdot F(s) - s^{n-1}\cdot f(0^+) - s^{n-2}\cdot f'(o^+) - \dots - f^{n-1}(0^+) \end{gather*} Voraussetzungen für die Integration analog denen von der Differentiation: \begin{gather*} \mathcal{L} \{ \int_0^t f(\tau ) \operatorname{d}\tau \} = \frac{F(s)}{s} \end{gather*} \end{itemize} Beispiel: \begin{gather*} f(t) = t, \mathcal{L}\{t\} = ?\\ f'(t) = 1, \qquad \mathcal{L} \{f'(t)\} = s\cdot F(s) =\mathcal{L} \{1\} = \frac{1}{s}\\ s\cdot F(s) - f(0^+) = s \cdot F(s)\\ \Rightarrow \, \, F(s) \cdot s = \frac{1}{s} \, \, \Rightarrow \, \,F(s) = \frac{1}{s^2} \end{gather*} Analog: $f(t) =t^n, n = 1,2,3,\dots$ \begin{gather*} f^{(n)}(t) = n(n-1)(n-2)\dots1\cdot t^0 = n' \cdot t\\ \mathcal{L} \{f^{(n)}(t)\}=s^n\cdot F(s) \\ \mathcal{L} \{f^{(k)}(t)\}=n' \cdot \mathcal{L}\{1\} = n' \cdot \frac{1}{s}\\ \Rightarrow F(s)=\mathcal{L}\{t^n\} = \frac{n'}{s^{n+1}} \end{gather*} Weitere wichtige Eigenschaften: \begin{itemize} \item \emph{Differentiation und Integration im Bildbereich} \begin{gather*} \mathcal{L} \{t \cdot f(t) \} = -\frac{\operatorname{d}}{\operatorname{d} s}F(s) = -F'(s)\\ \mathcal{L} \{t \cdot f(t) \} = (-1)^n \cdot \frac{\operatorname{d}^n}{\operatorname{d} s^n}F(s) = (-1)^n \cdot F^{(n)}(s)\\ \mathbf{\mathcal{L} \{ \frac{f(t)}{t} \} = \int_s^\infty F(u) \cdot \operatorname{d} u} \end{gather*} Beispiel: \begin{gather*} \mathcal{L} \{t \cdot \sin (\omega t) \} = -\frac{\operatorname{d}}{\operatorname{d} s}\cdot F(s) = -\frac{\operatorname{d}}{\operatorname{d} s}\cdot \frac{\omega}{s^2+\omega^2}= \frac{2s}{(s^2-\omega^2)^2} \end{gather*} \item \emph{Dämpfung und Verschiebung} \begin{center} %\includegraphics[scale=0.3]{verschiebung.eps} \end{center} \begin{gather*} \mathcal{L} \{ e^{-\mathbf{a}t} \cdot f(t) \} = F(s+a), \qquad f(t): [0,\infty] \rightarrow \mathbb{R}, a>0\\ \mathcal{L} \{f(t-a) \cdot u (t-a)\} = e^{-as}\cdot F(s) \\ u(t) \text{ ... Heavisidische Sprungfunktion} \end{gather*} \begin{center} %\includegraphics[scale=0.8]{heaviside.eps} \end{center} \begin{gather*} u(t) = \begin{cases} 1 & t \geq 0 \\ 0 & t < 0 \end{cases}\\ \mathcal{L} \{u(t-a)\} = e^{-as} \cdot \frac{1}{s} \end{gather*} Beispiel: $\mathcal{L}$-Transformation der Rechteckperiode $T$, Amplitiude $A$ ($T,A > 0$): \begin{center} %\includegraphics[scale=0.3]{ltraforechteck.eps} \end{center} \begin{gather*} f(t) = [2A \sum_k=0^\infty (-1)^k u(t- \frac{nT}{2})] - A \end{gather*} Für jedes $t$ ist die Reihe nur eine endliche Reihe - $0 \leq t < \frac{T}{2}$, nur $n=0$ liefert: \begin{gather*} f(t)=2A\cdot\underbrace{(-1)^0}_{=1} \cdot \underbrace{u(t)}_{=1} - A = 2A - A = A \end{gather*} $\frac{T}{2} \leq t < T: n = 0$ und $n=1$ liefert: \begin{gather*} f(t)=2A\cdot\underbrace{(-1)^0}_{=1} \cdot \underbrace{u(t)}_{=1} + 2A(-1)^1 \cdot u(t-\frac{T}{2}) - A = 2A - 2A - A = -A\\ \text{ }\\ \mathcal{L} \{ f(t)= \} = 2A \mathcal{L} \{ \sum_{n=0}^\infty (-1)^n \cdot u(t-\frac{nT}{2})\} - A \cdot \mathcal{L} \{ 1 \} =\\ 2A \int_0^\infty e^{-st} \sum_{n=0}^\infty (-1)^n u(t-\frac{nT}{2}) \operatorname{d} t - \frac{A}{s} =\\ 2A \int_0^\infty \sum_{n=0}^\infty e^{-st}(-1)^n u(t-\frac{nT}{2}) \operatorname{d} t - \frac{A}{s} =\\ 2A \sum_{n=0}^\infty \int_0^\infty e^{-st}(-1)^n u(t-\frac{nT}{2}) \operatorname{d} t - \frac{A}{s} \blacksquare \end{gather*} $\blacksquare \,$ Darf man hier machen, ist aber i.A. \emph{nicht}erlaubt! \item \emph{Gleichmäßige Konvergenz von Funktionenfolgen} Definition: Eine Funktionenfolge $f_0(x)$, $f_1(x), \dots$ heisst auf einem Intervall $I \subseteq \mathbb{R}$ gleichmässig konvergent gegen eine Funktion $f(x)$, wenn $\forall \epsilon > 0$ ein von $x$ unabhängiger Index $N = N_\epsilon > 0$ existiert, sodass \begin{gather*} n \geq N: |f_n(x) - f(x)| \leq \epsilon, \forall x \in I \end{gather*} Satz: Wenn $(f_n(x))_{n \in \mathbb{N}}$ gleichmässig auf $I$ gegen $f(x)$ konvergiert, dann gilt: \begin{gather*} \lim_{n \rightarrow \infty} \int_a^b f(n) \, \operatorname{d} x = \int_a^b \lim_{n \rightarrow \infty} f(n) \, \operatorname{d} x = \int_a^b f(n) \, \operatorname{d} x \end{gather*} Betrachten Reihe: \begin{gather*} \int_a^b \sum_{k=0}^\infty f_k(x) \operatorname{d} x = \sum_{k=0}^\infty \int_a^b f_k(x) \operatorname{d} x \end{gather*} Integration und Summation einer Reihe $\sum_{k=0}^\infty$ dürfen vertauscht werden, wenn die Folge der Partialsummen \begin{gather*} s(n) (x) = \sum_{k=0}^\infty f_k(x) \end{gather*} gleichmässig gegen \begin{gather*} s(n) (x) = \sum_{k=0}^\infty f_k(x) \end{gather*} konvergiert. \item \emph{Weierstrass'scher M-Test} Für gleichmässige Konvergenz von Funktionenreihen $\sum_{n=0}^\infty f_k(x)$: Wenn für jede Funktion $f_k(x)$ ein Wert $M \geq 0$ angegeben werden kann, sodass \begin{gather*} |f_k(x)| \leq M_k \qquad \forall x \in \mathbb{R} \end{gather*} und $\sum_{n=0}^\infty M_k < \infty$, dann folgt daraus: Reihe $\sum_{n=0}^\infty f_k(x)$ konvergiert gleichmässig auf $I$. \begin{gather*} \mathcal{L} \{ f(t) \} = 2A \int_0^\infty \sum_{n=0}^\infty e^{-st}\cdot(-1)^n \cdot u(t - \frac{n\cdot T}{2})\operatorname{d} t - \frac{A}{s} = \blacksquare \end{gather*} $\int$ und $\sum$ sind wegen gleichmässiger Konvergenz vertauschbar. \begin{gather*} f_k(t) = e^{-st}\cdot (-1)^k \cdot u(t-\frac{k\cdot T}{2})\\ |f_k(t)| = |\underbrace{e^{-st}}_{s > 0}|\cdot (-1)^k \cdot u(\underbrace{t-\frac{k\cdot T}{2}}_{\text{Sprungfunktion}}) \leq |e^{-s\cdot \frac{k\cdot T}{2}}|= e^{-s\cdot \frac{k\cdot T}{2}} = M_k\\ t = \frac{K\cdot t}{2}, \qquad 0 \leq t < \frac{K\cdot T}{2}\,\, \Rightarrow u(t-\frac{K\cdot T}{2})=0\\ \sum_{n=0}^\infty M_k = \sum_{n=0}^\infty {(e^{\frac{-st}{2}})}^k = \frac{1}{1 - e^{\frac{-st}{2}}}< \infty, s > 0 \, \surd \end{gather*} Fortsetzung bei $\blacksquare$: \begin{gather*} 2A \sum_{n=0}^\infty \int_0^\infty e^{-st}(-1)^k - u(t-\frac{kT}{2})\operatorname{d} t - \frac{A}{s} =\\ 2A \sum_{n=0}^\infty (-1)^k - \mathcal{L}\{u(t-\frac{kT}{2})\} - \frac{A}{s} =\\ 2A \sum_{n=0}^\infty (-1)^k - e^{-\frac{Ts}{2}} - \frac{1}{s} - \frac{A}{s} =\\ \frac{2A}{s} \sum_{n=0}^\infty e^{-\frac{Ts}{2}} - \frac{A}{s} = \frac{2A}{s} \frac{1}{1+e{-\frac{Ts}{2}}} - \frac{A}{s}\\ \frac{A}{s} \cdot (\frac{2}{1+e{-\frac{Ts}{2}}} - 1) = \frac{A}{s} \cdot \frac{1-e{-\frac{Ts}{2}}}{1+e{-\frac{Ts}{2}}} = \frac{A}{s} \tanh (\frac{sT}{k}) \end{gather*} \item \emph{Faltung} \begin{gather*} (f \ast g)(t) = \int_0^t f(\tau ) \cdot g(t-\tau) \operatorname{d}\tau \\ \mathcal{L} \{(f \ast g)(t) \} = F(s) \cdot G(s) \end{gather*} \item \emph{Umkehrformel} Gegegben $F(s)$ - gültig falls $F(\delta)$ existiert \begin{gather*} \underbrace{\frac{f(t^+) + f(t^-)}{2}}_{=f(t) \text{ falls stetig}}= \frac{1}{2\pi} \int_{-\infty}^{+\infty} e^{(\delta + i\omega) \cdot t} \cdot F(\delta + i\omega) \operatorname{d}\omega \end{gather*} \end{itemize} \subsection{Anwendungen der $\mathcal{L}$-Transformation} \subsubsection{AWP für lineare DGL mit konst. Koeffizienten} Vorteil: Die Anfangswerte werden sofort eingesetzt. Vorgangsweise: DGL $\mathcal{L}$-transformieren - ergibt eine lineare Gleichung für $X(s)$ (=$\mathcal{L}$-transformierbar); danach Lösung der Gleichung und R+cktransformation ($\mathcal{L}^{-1}$) mit \begin{itemize} \item Rechenregeln \item Tabellen \end{itemize} Beispiel: \begin{gather*} \ddot{x}(t) + 4x(t) = \sin(\omega t), \qquad \omega > 0, \,\, x(0)=c_1, \dot{x}=c_2 \end{gather*} $\mathcal{L}$-transformieren: \begin{gather*} \mathcal{L}\{x(t)\} := X(s)\\ \mathcal{L}\{\ddot{x} + 4x \} = \mathcal{L}\{ \sin (\omega t)\}\\ \mathcal{L}\{\underbrace{\ddot{x}}_{\square}\} + 4\mathcal{L}\{\underbrace{x}_{\blacksquare}\} = \mathcal{L}\{ \underbrace{\sin (\omega t)}_{\lozenge}\}\\ \square \qquad s^2X(s) - s\underbrace{x(0)}_{c_1} - \underbrace{x(0)}_{c_2}\\ \blacksquare \qquad 4X(s)\\ \lozenge \qquad \frac{\omega}{\omega^2 + s^2}\\ \square + \blacksquare = \lozenge\\ X(s)(s^2 + 4) = \frac{\omega}{\omega^2 + s^2}\\ X(s) = \frac{1}{s^2 + 4}[ \frac{\omega}{\omega^2 + s^2} + c_1s + c_2]=\\ \frac{c_1s}{s^2+4} + \frac{\mathbf{2}c_2}{\mathbf{2(s^2+4)}}+\frac{\omega}{\omega^2 + s^2}\\ x(t)=\mathcal{L}^{-1}\{X(s)\} = c_1\cos (2t) + \frac{c_2}{\mathbf{2}}\sin(2t) + \begin{cases}\frac{1}{2(\omega^2 -4)}(\omega\sin (2t) - 2\sin(\omega t)) & \omega \neq 2 \\\frac{1}{8}(\sin (2t) - 2t\cos(2t)) & \omega = 2 \blacklozenge \end{cases}\\ \blacklozenge \qquad \text{Resonanzfall, s. Vachenauer 2, S.72} \end{gather*} \subsubsection{AWP für lineare DGL mit nichtkonstanten Koeffizienten} I.A. liefert die $\mathcal{L}$-Transformation keine Erleichterung, in Spezialfällen jedoch eine 'einfachere' DGL im Bildbereich. Beispiel: \begin{gather*} t\ddot{x} - x = 0 \end{gather*} Ist eine DGL 2. Ordnung im Zeitbereich, $\mathcal{L}\{x(t)\} := X(s)$: \begin{gather*} \mathcal{L}\{t\ddot{x} - x\} = \mathcal{L}\{t\ddot{x}\} - \mathcal{L}\{x\} = -\frac{\operatorname{d}}{\operatorname{d} s} \mathcal{L}\{\ddot{x}\} - [sX(s) - x(0)]=\\ -\frac{\operatorname{d}}{\operatorname{d} s} (s^2X(s) - sx(0) - x(0)) - sX(s) + x(0) = \\ 2sX(s) - s^2X'(s) + x(0) - sX(0) + x(0) =0\\ -s^2X'(s) - 3sX(s) = -2x(0)\\ x'(s) + \frac{3}{s}X(s) = \frac{2x(0)}{s^2}\\ \text{DGL 1.Ordnung im Bildbereich}\\ X(s)=\frac{x(0)}{s} + \frac{C}{s^3}, \qquad C \in \mathbb{R}\\ x(t)=\mathcal{L}^{-1}\{X(s)\} = x(0) + \frac{c}{2}t^2 \end{gather*} \subsubsection{Elektrische Schaltungen (RCL-Schwingkreis)} Schalelemente: Widerstand, Kondensator, Spule Spannung $u(t)=u_R(t) + u_C(t) + u_L(t)$ (Kirchhoff'sche Regel) \begin{center} %\includegraphics[scale=0.5]{RCL.eps} \end{center} Stromstärke $i(t)$, $i(0)=0$ $I(s) = \mathcal{L}\{i(t)\}$, $U(s) = \mathcal{L}\{u(t)\}$ \begin{center} \begin{array}{|c|c|} \hline % after \\ \hline or \cline{col1-col2} \cline{col3-col4} ... Zeitbereich & Bildbereich \\ \hline $u_R(t) = Ri(t)$ & $U_R(s) = RI(s)$ \\ $u_C(t) = \frac{1}{C}\int_0^t i(\tau) \operatorname{d} \tau$ & $U_c(s) = \frac{1}{C} \cdot \frac{I(s)}{s} = \frac{1}{Cs}I(s)$ \\ $u_L(t) = Li(t)$ & $U_L(s) = LsI(s)$ \\ \hline \end{array} \end{center} Im Bildbereich gilt das Ohmsche Gesetz: \begin{gather*} U(s) = H(s) \cdot I(s) \qquad \text{mit} \qquad H(s) = R + \frac{1}{cs} + Ls \end{gather*} Nach Lösung im Bildbereich Rücktransformation notwendig. \subsubsection{Lösen von Integralgleichungen} Integralgleichungen sind Funktionalgleichungen, in denen die gesuchte Funktion als Integrand in einem best. Integral vorkommt. Best. Integralgleichungstyp: \begin{gather*} y(t) + \int_0^t \kappa(\tau) y(t-\tau) \operatorname{d}\tau = f(t)\\ f(t), g(t), \qquad \underbrace{(f \ast g)(t) = \int f(\tau) \cdot g(t-\tau) \operatorname{d} t}_{\text{Faltung}} \end{gather*} $\mathcal{L}$-Transformierte: \begin{gather*} Y(s) + \kappa(s) \cdot Y(s) = F(s) \qquad \Rightarrow \qquad Y(s) = \frac{F(s)}{1+\kappa(s)} \end{gather*} Voraussetzung: $y$,$\kappa$,$f$ müssen $\mathcal{L}$-transformierbar sein. Beispiel: \begin{gather*} y(t) + \int_0^t y(\tau) \sin(t-\tau) \operatorname{d}\tau = 1\\ Y(s) + \frac{1}{s^2 + 1}\cdot Y(s) = \frac{1}{s}\\ Y(s) = \frac{1}{s(1+\frac{1}{s^2+1})} = \underbrace{\frac{s^2 + 1}{s(s^2+s)}}_{\bigstar} \,\, \blacktriangleright\\ \bigstar \qquad \text{Partialbruchzerlegung} \\ \frac{s^2 + 1}{s(s^2+2} = \frac{A}{s} + \frac{Bs + C}{s^2+2}\\ s^2 + \mathbf{1} = A(s^2+2) + (Bs+C) = (A+B)s^2 + Cs + \mathbf{2A}\\ 1 = 2A \qquad \Rightarrow \qquad A = \frac{1}{2}\\ 0 = Cs \qquad \Rightarrow \qquad C = 0\\ 1 = A + B \qquad \Rightarrow \qquad B = \frac{1}{2}\\ \blacktriangleright \qquad = \frac{1}{s} + \frac{s}{2(s^2+s)}\\ y(t)=\mathcal{L}^{-1}(Y(t)) = \mathcal{L}^{-1}\{\frac{1}{2s}\} + \mathcal{L}^{-1}\{\frac{s}{2(s^2 + 2)}\}=\mathbf{\frac{1}{2} + \frac{1}{2} \cos(\sqrt{2}t)} \end{gather*} \section{RWA, RWP: Randwertaufgaben, -probleme} Definition: Treten in der Bestimmungsgleichung für die eindeutige Charakterisierung der Lösung einer DGL Auswertungen der gesuchten Funktion und deren Ableitungen nicht nur an einer Stelle (wie beim AWP), sondern an zwei Stellen $a \neq b$ auf, dann spricht man von einer \textbf{Randwertaufgabe (RWA)} bzw. von einem \textbf{Randwertproblem (RWP)}. Allgemeines Prinzip zur Lösung von RWA/RWP: \begin{itemize} \item Auffinden der allgemeinen Lösung der gegebenen DGL (mit Parametern $c_1, c_2, \dots, c_n$) \item Anpassen der Koeffizienten $c_1, c_2, \dots, c_n$ durch Einsetzen der Randbedingungen in die allgemeine Lösung \end{itemize} $\Rightarrow \qquad$ Gleichungssystem $c_1, c_2, \dots, c_n$ Spezialfall: DGL ist linear und Randbedingungen sind auch Linear $\qquad \Rightarrow \qquad$ Lineares Gleichungssystem für $c_1, c_2, \dots, c_n$. Falls nichtlineare RWA/RWP, so ist das Problem i.A. wesentlich komplizierter. Beispiel: Biegebalken \begin{center} %\includegraphics[scale=0.3]{Biegebalken_1.eps} \end{center} $y(x)$ ist dabei die Auslenkung (Elongation) an der Stelle $x$. Die das Modell beschreibende DGL für $y(x)$ lautet (vereinfacht): \begin{gather*} y''(x) = -\frac{M(x)}{E(x)} = -b(x) \end{gather*} Deren allgemeine Lösung ist: \begin{gather*} y(x) = c_1x + c_2 - \int_0^x\int_0^\xi b(\eta)d\eta d\xi \end{gather*} Betrrachten RWA: Träger fest aufliegend \begin{center} %\includegraphics[scale=0.3]{Biegebalken_2.eps} \end{center} Am Ende fest - daraus folgt: $y(0) = 0$, $y(l)=0$. Einsetzen de Randbedingungen: \begin{gather*} 0 = y(0) = c_1 \cdot 0 - c_2 - \underbrace{y_p(0)}_{=0} \qquad \Rightarrow \qquad c_2 = 0\\ 0 = y(l) = c_1 \cdot l + \underbrace{c_2}_{=0} - y_p(l) \qquad \Rightarrow \qquad c_1 = \frac{y_p(l)}{l} \end{gather*} $\Rightarrow \qquad$ egal wie $M(x)$, $E(x)$ gewählt werden - die RWA hat immer eine eindeutige Lösung. RWA: an Enden eingespannt \begin{center} %\includegraphics[scale=0.3]{Biegebalken_3.eps} \end{center} Es gilt: $y'(0) = \varphi_1$, $y'(l) = \varphi_2$ Allgemeine Lösung: \begin{gather*} y(x) = c_1x + c_2 - y_p(x) \end{gather*} Zwei Gleichungen ($I$,$II$): \begin{gather*} I: \qquad \varphi_1 = y(0) = c_1 - \underbrace{y_p'(0)}_{=0} = c_1\\ II: \qquad \varphi_2 = y(l) = c_1 - y_p'(l) = c_1 - y_P'(l)\\ y_p(x) = \int_0^x\int0^\xi b(\eta)\operatorname{d}\eta\operatorname{d}\xi\\ y_p'(x) = \int_0^x b(\eta) \operatorname{d}\eta \end{gather*} Es sind zwei fälle zu Unterscheiden: $c_1 = \varphi_1$, $c_1 = \varphi_2 + y_p'(l)$: \begin{enumerate} \item $\varphi_1 \neq \varphi_2 + y_p'(l)$ - keine Lösung \item $\varphi_1 = \varphi_2 + y_p'(l)$ - unendlich viele Lösungen weil $c_2$ frei wählbar. \end{enumerate} Daraus folgt: \textbf{Es kann keinen EE-Satz für RWA/RWP geben!} Vergleiche hierzu Lineare Gleichungssysteme: $n$ Gleichungen für $n$ Unbekannte - $A\cdot\vec{x} = \vec{b}$ \begin{itemize} \item $det \, A \neq 0$ - LGS mit Lsg. für jedes $\vec{b}$ \item $det \, A = 0$ - LGS hat entweder unendlich viele Lösungen oder keine. \end{itemize} \subsection{Lineare RWA} Lineares DGL: $L[y] = y(x)^{n} + a_{n-1}\cdot y(x)^{n-1} + a_{n-2}\cdot y(x)^{n-2} + \dots + a_0\cdot y(x) = b(x)$. Lineare Randbedingungen: $n$ Gleichungen (Stelle $a$): \begin{gather*} \dot{x} = A(t) + b(t)\\ Rx(a) + Sx(b) = R, \qquad \text{Rang}(R,S) = n \end{gather*} Klassifikation: \begin{itemize} \item inhomogene lineare RWA: $b(x) \neq 0 \wedge r \neq 0$ \item vollhomogene lineare RWA: $b(x) = 0 \wedge r = 0$ \item halbhomogene lineare RWA: $b(x) = 0 \vee r = 0$ \end{itemize} Bemerkung: Vollhomogene RWP besitzen immer die triviale Lösung $x(t)=0$. Das halbhomogene RWP muss i.A. keine Lösung haben. Jede Lösung (soferne existent) $y(x)$ des inhomogenen RWP lässt sich wie folgt schreiben (folgt dem Superpositionssatz): \begin{gather*} y(x) = y_h(x) + y_p(x) \end{gather*} Wobei $y_p(x)$ die spezielle Lösung des inhomogenen RWP ist ist; $y_h(x)$ eine Lösung des vollhomogenen RWP. \subsection{RWP - Alternativsätze} Fall: halbhomogenes lineares RWP: \begin{itemize} \item homogene lineare DGL: $L[y] := y^{(n)}(x) + a_{n-1}y^{(n-1)}(x) + \dots + a_0y(x) = 0$ \item inhomogene lineare Randbedingung: $R=\vec{y}(a) + S\vec{y}(b) = \vec{p}$ \begin{gather*} \vec{y}(x)=\begin{pmatrix} y(x) \\ y'(x) \\ \vdots \\ y^{(n-1)}(x) \\ \end{pmatrix} \end{gather*} \end{itemize} Allg. Lsg. der homogenen linearen DGL ($\varphi_1,\dots,\varphi_n$ Lösungsbasis): \begin{gather*} y(x) + c_1\varphi_1(x) + c_2\varphi_2(x) + \dots + c_n\varphi_n(x)\\ \vec{\varphi}_i(x) = \begin{pmatrix} \varphi_i(x) \\ \varphi_i'(x) \\ \vdots \\ \varphi_i^{(n-1)}(x) \\ \end{pmatrix}\\ \Rightarrow \,\, R(c_1\vec{\varphi}_1(a) + c_2\vec{\varphi}_2(a)+ \dots + c_n\vec{\varphi}_n(a)) + \\S(c_1\vec{\varphi}_1(b) + c_2\vec{\varphi}_2(b)+ \dots + c_n\vec{\varphi}_n(b)) = \vec{p}\\ = R \Phi(a) \vec{c} + S \Phi(b) \vec{c} = \vec{p} \qquad \text{wobei}\\ \Phi(x) = (\vec{\varphi}_1(x) \, | \, \vec{\varphi}_2(x) \, | \, \dots \, | \, \vec{\varphi}_n(x)) = \begin{pmatrix} \varphi_1(x) & \varphi_2(x) & \cdots & \varphi_n(x) \\ \varphi_1'(x) & \varphi_2'(x) & \cdots & \varphi_n'(x) \\ \vdots & \vdots & & \vdots \\ \varphi_1^{(n-1)}(x) & \varphi_2^{(n-1)}(x) & \cdots & \varphi_n^{(n-1)}(x) \\ \end{pmatrix}\\ \vec{c} = \begin{pmatrix} c_1 \\ c_2 \\ \vdots \\ c_n \\ \end{pmatrix}\\ \Rightarrow \, \text{ LGS } \, \underbrace{[R\Phi(a) + S\Phi(b)]}_{\text{D}}\cdot \vec{c} = \vec{p} \qquad \mathbf{D \cdot \vec{c} = \vec{p}} \end{gather*} LGS ist mit $n$ Unbekannten $c_1, \dots, c_n$ und $n$ Gleichungen sowie mit $n\times n$ Matrix $D$. \begin{itemize} \item $\operatorname{det} \, D \neq 0$ - LGS für alle $\vec{p}$ eindeutig lösbar \item $\operatorname{det} \, D = 0$ - LGS hat entweder keine oder unendlich viele Lsg. \end{itemize} \textbf{Alternativsatz}: Gegeben sei ein halbhomogenes lineares RWP $L[y]=0$, $R\cdot\vec{y}(a) + S\cdot\vec{y}(b)=\vec{p}$. Seien $\varphi_1(x), \dots, \varphi_n(x)$ eine Lösungsbasis der zugehörigen homogenen DGL und sei $D:=R\cdot\Phi(a) + S\cdot\Phi(b)$, $\Phi$ definiert wie oben (=Fundamentalmatrix), dann gilt: \begin{enumerate} \item Ist $\operatorname{D} \neq 0$, dann besitzt das halbhomogene RWP eine eindeutige Lösung für alle $\vec{p}$. \item Ist $\operatorname{D} = 0$, dann besitzt das halbhomogene RWP genau dann eine eindeutige Lösung wenn $\operatorname{rg} \, D = \operatorname{rg}(D,\vec{p})$. \item Das entsprechende vollhomogene RWP, d.h. für $\vec{p}=\vec{0}$, besitzt genau dann nichttriviale Lsg. $y(x) \neq 0$, falls $\operatorname{det} \, D = 0$. \end{enumerate} Bemerkung zum inhomogenen RWP $L[y] = b(x), R\cdot\vec{y}(a) + S\cdot\vec{y}(b)=\vec{p}$: Allgemeine Lösun der zugehörigen inhomogenen DGL ist gegeben durch \begin{gather*} y(x) = c_1\cdot\varphi_1(x) + c_2\cdot\varphi_2(x) + \dots + c_n\cdot\varphi_n(x) + y_p(x) \end{gather*} $y_p(x)$ ist die Partikulärlösung. Anpassen an Randbedingungen liefert wiederum LGS der Gestalt \begin{gather*} D \cdot \vec{c}=\vec{q}\\ D = R \cdot \Phi(a) + S \cdot \Phi(b)\\ \vec{q} = \vec{p} - R\cdot \vec{y}_p(a) - S\cdot \vec{y}_p(b) \end{gather*} \textbf{Alternativsatz}: Entweder ist das inhomogene RWP für alle $b(x)$ und $\vec{p}$ eindeutig lösbar (falls $\operatorname{det} \, D \neq 0$), oder das entsprechende vollhomogene RWP, d.h. $b(x) = 0 \, \, \wedge \,\, \vec{p}=\vec{0}$, besitzt nichttriviale Lösung (falls $\operatorname{det} \, D = 0$).\\ Beispiel: $y'' + \omega^2y = c$, $y(0)=p_1$, $y(\pi)=p_2$. Diese homogene DGL mit konstanten Koeffizienten beistzt die charakteristische Gleichung $\lambda^2 + \omega^2 = 0$ mit den Lösungen $\lambda=\pm i \cdot \omega$ (konjugiert komplex). Die allgemeine Lösung der zugehörigen homogenen DGl lautet somit: \begin{gather*} y_h(t) = c_1 \cdot \sin(\omega t) + c_2 \cdot \cos(\omega t)\\ \underbrace{R=\begin{pmatrix} 1 & 0 \\ 0 & 0 \\ \end{pmatrix}}_{\text{linker Rand}}, \qquad \underbrace{S=\begin{pmatrix} 0 & 0 \\ 1 & 0 \\ \end{pmatrix}}_{\text{rechter Rand}}\\ \underbrace{\begin{bmatrix} 1 \cdot y(0) & + & 0 \\ 0 \cdot y(0) & + & 0 \\ \end{bmatrix}}_{R}\begin{matrix} y'(0) + \\ y'(0) + \\ \end{matrix} \underbrace{\begin{bmatrix} 0 \cdot y(\pi) & + & 0 \\ 1 \cdot y(\pi) & + & 0 \\ \end{bmatrix}}_{S}\begin{matrix} y'(\pi) = p_1 \\ y'(\pi) = p_2 \\ \end{matrix}\\ R\vec{y}(a) + S\vec{y}(b) = \vec{p}, \qquad \Phi(t) = \begin{pmatrix} \sin(\omega t) & \cos(\omega t) \\ \omega\cos(\omega t) & -\omega\sin(\omega t) \\ \end{pmatrix} \end{gather*} Berechnen nach Alternativsatz, betrachten \begin{gather*} D=R\Phi(0) + S\Phi(\pi)=\begin{bmatrix} 1 & 0 \\ 0 & 0 \\ \end{bmatrix} \cdot \begin{bmatrix} 0 & 1 \\ \omega & 0 \\ \end{bmatrix} + \begin{bmatrix} 0 & 0 \\ 1 & 0 \\ \end{bmatrix} \cdot \begin{bmatrix} \sin(\omega t) & \cos(\omega t) \\ \omega\cos(\omega t) & -\omega\sin(\omega t) \\ \end{bmatrix} = \\ \begin{bmatrix} 0 & 1 \\ 0 & 0 \\ \end{bmatrix} + \begin{bmatrix} 0 & 0 \\ \sin(\omega \pi) & \cos(\omega \pi) \\ \end{bmatrix} = \begin{bmatrix} 0 &10 \\ \sin(\omega \pi) & \cos(\omega \pi) \\ \end{bmatrix}\\ \operatorname{det} \, D = -\sin(\omega\pi) \end{gather*} Wann ist $\sin(\omega\pi)=0$? Wenn $\omega \in \mathbb{Z}$. Falls $\omega \not\in \mathbb{Z}$ besitzt das RWP für alle $p_1$ und $p_2$ eine eindeutige Lösung (da Determinante von $D$ nicht Null ist). Ist die Determinante 0 und $\omega \in \mathbb{Z}$, so gibt es entweder keine oder unendlich viele Lösungen. \begin{gather*} D\cdot\vec{c}=\vec{p} \\ \begin{bmatrix} 0 & 1 & | & p_1 \\ \underbrace{\sin(\omega\pi)}_{=0} & \cos(\omega\pi) & | & p_2 \\ \end{bmatrix} \triangleq \begin{bmatrix} 0 & 1 & | & p_1 \\ 0 & \cos(\omega\pi) & | & p_2 \\ \end{bmatrix} \triangleq \begin{bmatrix} 0 & 1 & | & p_1 \\ 0 & 0 & | & p_2 - p_1 \cdot \cos(\omega\pi)\\ \end{bmatrix} \end{gather*} Daraus folgt: $p_2 - p_1 \cdot \cos(\omega\pi) = 0$ hat unendlich viele Lösungen, $p_2 - p_1 \cdot \cos(\omega\pi) \neq 0$ hat keine Lösung. \subsection{Lösen von RWP mit Hilfe der Green-Funktion} Gegeben: halbhomogenes lineares RWP: $L[y] := y^{(n)}(x) + a_{n-1}y^{(n-1)}(x) + \dots + a_0y(x) = b(x)$, $R\cdot\vec{y}(a) + S\cdot\vec{y}(b) = \vec{0}$. \textbf{Satz über die Green-Funktion von RWP}: Seien $\varphi_1(x), \dots, \varphi_n(x)$ eine Basis des Lösungsraumes der zugehörigen homogenen DGL $L[y]=0$, gelte für das halbhomogene RWP, dass $\operatorname{det} \, D = \operatorname{det}(R\Phi(a) + S\Phi(b))\neq 0$. Dann existiert für jede Störfunktion $b(x)$ eine eindeutige Lösung des RWP. Diese lässt sich darstellen als \begin{gather*} y(x) = \int_a^b g(x,\omega) \cdot b(\omega) \, d\omega, \end{gather*} wobei die sog. Green-Funktion $g(x,\omega): [a,b] \times [a,b] \Rightarrow \mathbb{R}$ folgende Eigenschaften besitzt: \begin{itemize} \item $g(x,\omega)$ erfüllt für jedes feste $\omega$ in Bezug auf $x (x\neq \omega)$ die homogene DGL, d.h. $L[g(x,\omega)]=0$ für alle $x \neq \omega$. \item $g(x,\omega)$ erfüllt für jedes feste $\omega$, $a <\omega<b$ die homogene Randbedingung, d.h.. \begin{gather*} R\vec{g}(a,\omega) + S\vec{b}(a,\omega) = \vec{0}, \qquad \text{wobei}\\ \vec{g}(x,\omega) = (g(x,\omega),g'(x,\omega),\dots,g^{(n-1)}(x,\omega)) \qquad \text{und}\\ g^{(k)}(x,\omega)=\frac{\operatorname{d}^k}{\operatorname{d} x^k} g(x,\omega) \end{gather*} \item Die Funktionen $g(x,\omega),g'(x,\omega),\dots,g^{(n-1)}(x,\omega)$ sind stetig auf $[a,b]\times[a,b]$. Die Funktion $g^{(n-1)}(x,\omega)$ existiert für $x\neq\omega$ und es gilt: \begin{gather*} g^{(n-1)}(x^+,x) - g^{(n-1)}(x^-,x)=1 \end{gather*} ($x^+$ ist der rechtsseitige, $x^-$ der linksseitige Grenzwert) \end{itemize} $g(x,\omega)$ heißt auch Einflussfunktion, weil sie den Einfluss der Störfunktion $b(\omega)$ zur Lösung $y(x)$ im Punkt $x$ angibt.\\ Bemerkung zum praktischen Rechnen: Erste Bedingung impliziert, dass $g(x,\omega)$ folgende Gestalt hat: \begin{gather*} g(x,\omega)=\begin{cases}c_1(\omega)\cdot\varphi_1(x) + c_2(\omega)\cdot\varphi_2(x)+ \dots + c_n(\omega)\cdot\varphi_n(x)& a \leq x \leq \omega \\d_1(\omega)\cdot\varphi_1(x) + d_2(\omega)\cdot\varphi_2(x)+ \dots + d_n(\omega)\cdot\varphi_n(x)&x < x \leq b \end{cases} \end{gather*} Beispiel: Biegebalken $y''(x) = b(x)$, $0 \leq x \leq l$, RB: $y(0)=0$, $y(l)=0$. Die Determinante $D$ ist nicht Null, daher existiert eindeutige Lösung. Homogene DGL $y''(x)=0$ - Allgemeine Lösung: $y(x)=cx+d$. Daraus folgt: $y'=c$. Ansatz Green-Funktion: \begin{gather*} g(x,\omega)=\begin{cases}\int c_1(\omega)x + c_2(\omega) & 0 \leq x \leq \omega\\ \int d_1(\omega)x + d_2(\omega) & \omega < x \leq l\end{cases} \end{gather*} Randbedingungen müssen erfüllt sein, wähle $\omega$ dest, $0 < \omega \leq l$: \begin{itemize} \item RB $y(0) = 0$ - $x=0$ - $c_1(\omega)x + c_2(\omega)=0$ - $c_2(\omega)=0$ \item RB $y(l) = 0$ - $x=l$ - $d_1(\omega)l + d_2(\omega)$ \end{itemize} Bei Stetigkeit von $g$ wähle $x=\omega$: Daraus folgt $c_1(\omega)\omega + c_2(\omega)= d_1(\omega)\omega + d_2(\omega)$. Die Differenz zwischen rechtsseitigem und linksseitigem Grenzwert ist 1, daraus folgt: \begin{gather*} g'(x,\omega)=\begin{cases}c_1(\omega), & 0 \leq x \leq \omega \\ d_1(\omega) & \omega < x \leq l\end{cases} \qquad d_1(\omega) - c_2(\omega)=1 \end{gather*} $c_2(\omega)=0$ - daher ist $c_1(\omega)=d_1(\omega)-1$: \begin{gather*} \omega(d_1(\omega) - 1)=d_1(\omega)\omega - d_1(\omega)l\\ d_1(\omega)(\omega-\omega+l)=\omega \qquad \Rightarrow \qquad d_1(\omega)=\frac{\omega}{l} \end{gather*} \begin{center} %\includegraphics[scale=0.6]{vo8_biegebalken.eps} \end{center} $c_1(\omega) = d_1(\omega) - 1 = \frac{\omega}{l} - 1 = \frac{\omega-l}{l}$. $d_2(\omega)=-ld_1(\omega)=-\omega$ Somit gilt: \begin{gather*} g(x,\omega)=\begin{cases}\frac{\omega-l}{l}, & 0 \leq x \leq \omega \\ \frac{\omega}{l} & \omega < x \leq l\end{cases}\\ y(x)=\int_0^l g(x,\omega)\cdot(-b(\omega)) \, d\omega \end{gather*} \section{Eigenwertprobleme} Spezielle Randwertprobleme, die von einem Parameter $\lambda$ abhängen. Betrachte vollhomogenes lineares RWP. Die Existenz von nichttrivialer Lösung $y(x)=0$ hängt von der Wahl des Parameters $\lambda \in \mathbb{C}$ (oder $\lambda \in \mathbb{R}$) ab. \textbf{Definition}: Jeder Wert $\lambda$, für den das vollhomogene RWP nichttriviale Lösungen besitzt, heißt Eigenwert. Die zugehörigen nichtrivialen Lösungen $y(x)$ heißen Eigenfunktionen zum Eigenwert $\lambda$. Anmerkung: Aus dem Alternativsatz folgt: $\operatorname{det} \, D = 0 \,\,\Leftrightarrow\,\, \lambda$ ist Eigenwert.\\ Beispiel: 'Knickstab' - RWP: $y'' \lambda y = 0$, $y(0)=0$,$y(l)=0$. Uns interessieren die reellen Eigenwerte $\lambda > 0$ (Stab bricht). Betrachte zunächst $\lambda=0$. Die allgemeine Lösung der zugehörigen DGL ergibt sich aus $\alpha^2 + \lambda = 0$ mit $\alpha_{1,2}= \pm i \sqrt{\lambda}$. Die allgemeine Lösung ist somit: $y(x)=c_1\cos(\sqrt{\lambda}x) + c_2\sin(\sqrt{\lambda}x)$. \begin{gather*} \Phi(x)=\begin{bmatrix} \cos(\sqrt{\lambda}x) & \sin(\sqrt{\lambda}x) \\ -\sqrt{\lambda}\sin(\sqrt{\lambda}x) & \sqrt{\lambda}\cos(\sqrt{\lambda}x) \\ \end{bmatrix}\\ D=R\Phi(0) + S\Phi(l) = \begin{bmatrix} 1 & 0 \\ 0 & 0 \\ \end{bmatrix} \cdot \begin{bmatrix} 1 & 0 \\ 0 & \sqrt{\lambda} \\ \end{bmatrix} + \begin{bmatrix} 0 & 0 \\ 1 & 0 \\ \end{bmatrix} \cdot \begin{bmatrix} \cos(\sqrt{\lambda}x) & \sin(\sqrt{\lambda}x) \\ -\sqrt{\lambda}\sin(\sqrt{\lambda}x) & \sqrt{\lambda}\cos(\sqrt{\lambda}x) \\ \end{bmatrix}=\\ \begin{bmatrix} 1 & 0 \\ 0 & 0 \\ \end{bmatrix} + \begin{bmatrix} 0 & 0 \\ \cos(\sqrt{\lambda}l) & \sin(\sqrt{\lambda}l) \\ \end{bmatrix} = \begin{bmatrix} 1 & 0 \\ \cos(\sqrt{\lambda}l) & \sin(\sqrt{\lambda}l) \\ \end{bmatrix} \end{gather*} $\operatorname{det} \, D = \sin(\sqrt{\lambda}l) = 0$ - d.h. $\sqrt{\lambda}=k\pi$, $k=1,2,3,\dots$. Es gibt unendlich viele Eigenwerte: $\lambda_k=(\frac{k\pi}{l})^2$. Eigenfunktion: $D \cdot \vec{c} = \vec{0}$: \begin{gather*} \begin{pmatrix} 1 & 0 \\ \cos(\sqrt{\lambda}l) & \sin(\sqrt{\lambda}l)\\ \end{pmatrix} \cdot \begin{pmatrix} c_1 \\ c_2 \\ \end{pmatrix} = \begin{pmatrix} 0 \\ 0 \\ \end{pmatrix} = \begin{pmatrix} 1 & 0 & | & 0\\ \cos(\sqrt{\lambda}l) & 0& | & 0\\ \end{pmatrix} \qquad \Rightarrow \qquad c_1=0 \end{gather*} $c_2$ kann somit beliebig gewählt werden. Die zugehörige Eigenfunktion lautet somit: \begin{gather*} y_k=c_1\cdot\cos(\sqrt{\lambda}l) + c_2 \cdot \sin(\sqrt{\lambda}l)= \mathbf{c_2 \cdot \sin(\sqrt{\lambda}l)} \end{gather*} \section{Fourier-Analysis - Fourier-Reihen} \subsection{Grundlagen - periodische Funktionen} Periodische Funktiom: $f(t): \mathbb{R} \mapsto \mathbb{C}$ Periode $T: f(t+T)=f(t), \,\, \forall t \in \mathbb{R}$. Beispiel Rechtecksschwingung: \begin{center} %\includegraphics[scale=0.4]{fourier_refunktion.eps} \end{center} \newpage Beispiel Sägezahnschwingung: \begin{center} %\includegraphics[scale=0.4]{fourier_saegezahn.eps} \end{center} Wichtig ist die genaue Kenntnis des Verlaufs von Sinus ... \begin{center} %\includegraphics[scale=0.4]{sinus.eps} \end{center} ... und Cosinus: \begin{center} %\includegraphics[scale=0.4]{cosinus.eps} \end{center} Idee: Wir wollen periodische Funktionen durch Überlagerung von $\sin$- und $\cos$-Funktion verschiedener Amplituden und Frequenzen darstellen. $f(t)$ ist eine $T$-periodische Funktion. Aus $\omega:=\frac{2\pi}{T}$ folgt: \begin{gather*} F(x) := f(\frac{x}{\omega}) \,\, \text{ist }\, 2\pi\text{-periodische Funktion} \end{gather*} Nachweis: \begin{gather*} F(x+2\pi)=f(\frac{x+2\pi}{\omega}) = f(\frac{x}{\omega} + \frac{2\pi T}{2\pi})= f(\frac{x}{\omega}) = F(x) \end{gather*} \textbf{Tringonometrische Polynome}. Sinus-Cosinus-Term \begin{gather*} \frac{a_0}{2} + \sum_{N=1}^n a_n\cdot \cos(n \cdot \omega \cdot t) + \sum_{N=1}^n a_n\cdot \sin(n \cdot \omega \cdot t) \end{gather*} In der Exponentialform: \begin{gather*} \sum_{K=-N}^N c_K \cdot e^{i\cdot\omega\cdot k \cdot T} \end{gather*} $N$ ist dabei der Grad des tringonometrischen Polynoms. $\omega=\frac{2\pi}{T}$: Tringonometrische Polynome sind $T$-periodische Funktionen \begin{gather*} e^{i\cdot \varphi} = \cos \varphi + i\cdot \sin \varphi \end{gather*} Umrechnen zwischen beiden Formen: \begin{gather*} e^{i\cdot\omega\cdot k \cdot T} = \cos(\omega\cdot K \cdot T) + i\cdot\sin(\omega\cdot K \cdot T)\\ \sum_{K=-N}^N c_K \cdot e^{i\cdot\omega\cdot k \cdot T} = \sum_{K=-N}^N c_k \cdot \cos(\omega\cdot K \cdot T) + \sum_{K=-N}^N i \cdot c_k \cdot\sin(\omega\cdot K \cdot T)=\\ \sum_{K=1}^N c_k \cdot \cos(\omega\cdot K \cdot T) + c_0 + \sum_{K=1}^N c_k \cdot \cos(-\omega\cdot K \cdot T) + \sum_{K=1}^N i \cdot c_k \cdot\sin(\omega\cdot K \cdot T) + \\ + i \cdot \sin(0) \cdot c_0 + \sum_{K=1}^N i \cdot c_k \cdot\sin(\omega\cdot K \cdot T)\\ \Rightarrow \sum_{K=-N}^N c_K \cdot e^{i\cdot\omega\cdot k \cdot T} =\underbrace{c_0}_{\frac{a_0}{2}} + \sum_{K=1}^N \underbrace{(c_k + c_{-k})}_{a_k} \cdot \cos (\omega\cdot K \cdot T) + \sum_{K=1}^N \underbrace{(c_k - c_{-k})}_{b_k} \cdot i \cdot \sin (\omega\cdot K \cdot T) \end{gather*} \textbf{Koeffizientenvergleich}: Umrechnen $c_0=\frac{a_0}{2}$, $c_n + c_{-n} = a_n, n \geq 1$, $c_n - c_{-n} = b_n, n \geq 1$: \begin{gather*} a_n, b_n \text{ geg. } \, \, \Rightarrow \, \, c_k = \frac{a_k - i\cdot b_k}{2},\,\, c_{-k} = \frac{a_k + i\cdot b_k}{2} \end{gather*} Beispiel: Gegeben sind $\sin^3 t$, $\cos^3 t$. Gesucht sind tringonometrische Polynome, die diese darstellen. \begin{gather*} e^{i\cdot t} = \cos t + i \cdot \sin t \,\, | \, x^3\\ \cos 3 \cdot t + i \cdot \sin 3 \cdot t = (\cos t + i \cdot \sin t)^3 = \cos^3 t + 3 \cdot \cos^2 t \cdot \sin t \cdot i - 3 \cdot \cos t \cdot \sin^2t - i \cdot \sin^3 t\\ \text{Re, Im:} \,\, \cos 3\cdot t = \cos^3 t - 3 \cdot \cos t \cdot \underbrace{\sin^3 t}_{1-\cos^2 t} \,\, \square\\ \sin 3 \cdot t = \underbrace{3 \cdot \cos^2 t}_{1-\sin^2 t} \cdot \sin t - \sin^3 t \Rightarrow \dots \\ \square \,\, = \cos^3 t - 3 \cdot \cos t + 3 \cdot \cos^3 t = 4 \cdot \cos^2 - 3 \cdot \cos t\\ \Rightarrow \,\, \cos^3 t = \frac{\cos 3 \cdot t + 3 \cos t}{4}\,\, \text{tringonometr. Polynom Grad 3} \end{gather*} \textbf{Frage}: Gegebene $T$-periodische Funktion $f(t)$. Wir setzen voraus: $f(t)$ lässt sich durch tringonometrische Polynome vom Grad $N$ darstellen. Wie bestimmt man die Koeffizienten $a_n$,$b_n$ bzw. $c_k$? Antwort: Mit Hilfe der \textbf{Formeln von Euler-Fourier}, d.h.: \begin{gather*} \mathbf{a_n = \frac{2}{T} \cdot \int f(t) \cdot \cos (n \cdot \omega \cdot t) \, dt}\\ \mathbf{b_n = \frac{2}{T} \cdot \int f(t) \cdot \sin (n \cdot \omega \cdot t)\, dt}\\ \mathbf{c_k = \frac{1}{T} \cdot \int f(t) \cdot e^{-i \cdot k \cdot \omega \cdot t} \cdot dt} \end{gather*} Beweisidee: Funktion $\{1\} \, \cup \, \{ \cos(n\cdot\omega\cdot t), n=1,2,3,\dots\} \cup \sin(n\cdot\omega\cdot t), n=1,2,3,\dots\}$ bilden ein Orthogonalsystem bezüglich: \begin{gather*} (f(t),g(t)) \mapsto \int_0^T f(t) \cdot \overline{g(t)} \, dt\\ \text{d.h.} \,\, \int_0^T \cos (n \cdot \omega \cdot t) \, dt\dot \cos (m \cdot \omega \cdot t) \, dt, = 0 \qquad m \neq n\\ \int_0^T \cos (n \cdot \omega \cdot t) \, dt\dot \sin (m \cdot \omega \cdot t) \, dt = 0, \qquad \forall m,n\\ \text{d.h.} \,\, \int_0^T \sin (n \cdot \omega \cdot t) \, dt\dot \sin (m \cdot \omega \cdot t) \, dt, = 0 \qquad m \neq n \end{gather*} Analog: Funktion $\{e^{i\cdot k \cdot \omega \cdot t}, k \in\mathbb{Z}\}$ bilden ein Orthonormalsystem, d.h.: \begin{gather*} \int e^{i\cdot k \cdot \omega \cdot t} \cdot e^{-i\cdot k \cdot \omega \cdot t}\, dt = \begin{cases} 0 & K \neq l\\ T & K = l\end{cases} \end{gather*} \textbf{Nachteil}: Tringonometrische Funktionen sind immer differenzierbare Funktionen, d.h. \begin{center} %\includegraphics[scale=0.4]{tringpoly1.eps} \end{center} ... oder \begin{center} %\includegraphics[scale=0.4]{tringpoly2.eps} \end{center} ... können nicht als tringonometrische Polynome dargestellt werden. \textbf{Definition tringonometrische Reihen}: \begin{gather*} \sum_{K=-\infty}^{+\infty} c_K \cdot e^{i \cdot K \cdot \omega \cdot T} := \lim_{N\rightarrow\infty} \sum_{K=1}^{+\infty}c_K \cdot e^{i \cdot K \cdot \omega \cdot T}\\ \frac{a_0}{2} + \sum_{K=1}^{+\infty}a_n \cdot \cos (n\cdot \omega \cdot t) + \sum_{K=1}^{+\infty}b_n \cdot \sin (n\cdot \omega \cdot t) \end{gather*} Nachteil: Reihen müssen nicht notwendigerweise konvergieren.\\ \textbf{Eigenschaften für $T$-periodische Funktionen $f(t)$}: \begin{itemize} \item Stückweie stetig auf Intervall $I=[a,b]$ \begin{center} %\includegraphics[scale=0.3]{stueckwstetig.eps} \end{center} Stetig auf $[a,b]$ bis auf endlich viele Punkte $t_1,t_2,\dots,t_n$ zbd der linksseitige und rechtsseitige Grenzwert $f(t^+)$ bzw. $f(t^-)$ existiert für $t_1,t_2,\dots,t_n$ \item Stückweise stetig differenzierbar auf $I=[a,b]$. Stetig differenzierbar (differenzierbar und Ableitung stetig) bis auf endlich viele Punkte $t_1,t_2,\dots,t_n$, für die aber die rechtsseitigen bzw. linksseitigen Grenzwerte $f(t^+)$, $f(t^-)$, $f'(t^+)$, $f'(t^-)$ existieren. \end{itemize} \textbf{Definition}: Gegeben $T$-periodische Funktion $f(t)$, die stückweise stetig auf $[0,T]$ sein soll. Dann ist die Fourierreihe $S_f(t)$ von $f(t)$ definiert als tringonometrische Reihe \begin{gather*} S_f(t)=\sum_{K=-\infty}^{+\infty} c_K \cdot e^{i \cdot K \cdot \omega \cdot T}, \,\, S_f(t)=\frac{a_0}{2} + \sum_{K=1}^{+\infty}a_n \cdot \cos (n\cdot \omega \cdot t) + b_n \cdot \sin (n\cdot \omega \cdot t) \end{gather*} wobei die Koeffizienten $c_K$ bzw. $a_n$, $b_n$ über die Formeln von Euler-Fourier berechnet werden: \begin{gather*} \mathbf{a_n = \frac{2}{T} \cdot \int f(t) \cdot \cos (n \cdot \omega \cdot t) \, dt}\\ \mathbf{b_n = \frac{2}{T} \cdot \int f(t) \cdot \sin (n \cdot \omega \cdot t)\, dt}\\ \mathbf{c_k = \frac{1}{T} \cdot \int f(t) \cdot e^{-i \cdot k \cdot \omega \cdot t} \cdot dt} \end{gather*} Beispiel Rechtecksschwingung: \begin{gather*} f(t)=\begin{cases} 1 & 0 \leq t \leq \pi\\ -1 & \pi < t < 2pi\end{cases}\,\,\, f(t) \dots 2\pi\text{-periodisch fortges.}\\ \omega = 1 \Rightarrow \omega = \frac{2\pi}{T} \end{gather*} \begin{center} %\includegraphics[scale=0.4]{fourier-re.eps} \end{center} Gesucht: Fourier-Reihe von $f(t)$ - wähle Sinus-Cosinus-Form: \begin{gather*} a_0 = \frac{1}{\pi} \cdot [\int_0^\pi 1 \, dt + \int_\pi^{2\pi} (-1) \, dt] = \frac{1}{\pi} \cdot [t|_0^\pi + (-t)|_\pi^{2\pi}] = \frac{1}{\pi} \cdot (\pi - 0 - 2\pi + \pi)=0\\ n \geq 1: \qquad a_n=\frac{1}{\pi} \cdot [\int_0^\pi 1 \cdot \cos(n\cdot\omega \cdot t) \, dt - \int_\pi^{2\pi} (-1) \cdot \cos(n\cdot\omega \cdot t) \, dt] = \\\frac{1}{\pi} \cdot [\frac{\sin(n\cdot t)}{n}|_0^\pi - \frac{\sin(n\cdot t)}{n}|_\pi^{2\pi}]=\\ \qquad \frac{1}{\pi} \cdot \underbrace{[\frac{\sin(n\cdot \pi)}{n} - \frac{\sin(0)}{n}- \frac{\sin(2 \cdot n\cdot \pi)}{n} + \frac{\sin(n\cdot \pi)}{n}]}_{0}=0\\ b_n=\frac{1}{\pi} \cdot [\int_0^\pi 1 \cdot \sin(n\cdot\omega \cdot t) \, dt - \int_\pi^{2\pi} (-1) \cdot \sin(n\cdot\omega \cdot t) \, dt] = \\\frac{1}{\pi} \cdot [\frac{-\cos(n\cdot t)}{n}|_0^\pi + \frac{\cos(n\cdot t)}{n}|_\pi^{2\pi}]=\\ \frac{1}{n\cdot\pi} \cdot [\underbrace{-\cos(n\cdot \pi)}_{\lozenge} + \underbrace{\cos(0)}_{1} + \cos(2\cdot \pi \cdot n) - \cos(n\cdot \pi)]= \dots\\ \lozenge \qquad 1,n \,\text{gerade},\,\, -1,n \,\text{ungerade}\, \Rightarrow (-1)^n\\ \dots=\frac{1}{n\cdot\pi} \cdot [1-2\cdot(-1)^n + \underbrace{(-1)^{2\cdot n}}_{1}] = \frac{2}{n\cdot\pi} [1-(-1)^n] = \begin{cases}0 & n \, \text{ gerade} \\ \frac{4}{n\cdot \pi}& n \, \text{ ungerade}\end{cases} \end{gather*} $\Rightarrow$ Fourier-Reihe von $f(t)$ lautet: \begin{gather*} S_f(t)=\frac{4}{\pi} \cdot (\frac{\sin(t)}{1} + \frac{\sin(3\cdot t)}{3} + \frac{\sin(5\cdot t)}{5} + \dots) \end{gather*} Als \textbf{Gibbssches Phänomen} oder 'Ringing' bezeichnet man in der Mathematik das typische Verhalten von Fourierreihen in der Umgebung von Sprungsstellen. Entwickelt man eine Fourierreihe aus einer unstetigen Funktion, so ergeben sich an den Unstetigkeitsstellen typische Über- und Unterschwinger, die sich auch dann nicht verringern, wenn man versucht, die Funktion noch besser zu approximieren. Dies liegt daran, dass die Reihe an der Unstetigkeitsstelle nicht mehr gleichmäßig, sondern nur punktweise konvergiert. Die Höhe des Überschwingers in einer Richtung lässt sich bestimmen zu: \begin{gather*} \frac{1}{\pi}\int_0^\pi \frac{\sin t}{t}\, dt - \frac{1}{2} = 0.089490\dots \end{gather*} womit sich ein prozentueller Fehler von 17,898\%, gerundet 18\%, der Sprunghöhe ergibt. Der Effekt wurde nach seinem Entdecker, dem amerikanischen Physiker Josiah Willard Gibbs, benannt. \begin{center} %\includegraphics[scale=0.4]{gibbspheno.eps} \end{center} \subsection{Rechenregeln für Fourier-Reihen}: $f(t)$, $g(t)$ stückweise stetige Funktionen: \begin{gather*} S_f(t)=\sum_{K=-\infty}^{+\infty} c_K \cdot e^{i \cdot K \cdot \omega \cdot T}, \,\, S_g(t)=\sum_{K=-\infty}^{+\infty} d_K \cdot e^{i \cdot K \cdot \omega \cdot T} \end{gather*} \begin{itemize} \item Linearität \begin{gather*} \alpha \cdot f(t) + \beta \cdot g(t) \,\, \text{besitzt Fourier-Reihe} \,\, \sum_{K=-\infty}^{+\infty} (\alpha \cdot c_K + \beta \cdot d_K) \cdot e^{i \cdot K \cdot \omega \cdot T} \end{gather*} \item Zeitumkehr, Konjugation \begin{gather*} f(-t) \curvearrowright \sum_{K=-\infty}^{+\infty} c_K \cdot e^{i \cdot K \cdot \omega \cdot T}, \,\, \overline{f(t)} \curvearrowright \sum_{K=-\infty}^{+\infty} \overline{c_K} \cdot e^{i \cdot K \cdot \omega \cdot T} \end{gather*} \item Streckung \begin{gather*} f(c\cdot t) \curvearrowright \sum_{K=-\infty}^{+\infty} c_K \cdot e^{i \cdot K \cdot c \cdot \omega \cdot T} \qquad c > 0\\ f(c \cdot T) \dots \frac{T}{c}\,\,\text{-periodische Funktion} \end{gather*} \item Verschiebung im Zeitbereich \begin{gather*} f(t+a) \curvearrowright \sum_{K=-\infty}^{+\infty} (c_K \cdot e^{i \cdot a \cdot K \cdot \omega \cdot T}) \cdot e^{i \cdot K \cdot \omega \cdot T} \end{gather*} \item Verschiebung im Frequenzbereich \begin{gather*} e^{i \cdot K \cdot \omega \cdot T} \cdot f(t) \curvearrowright sum_{K=-\infty}^{+\infty} c_{K-n} \cdot e^{i \cdot K \cdot \omega \cdot T} \end{gather*} \end{itemize} Beweise: Über Definition des Euler-Fourier-Integrals Satz: Betrachte $f(t)$, periodisch mit Periode $T$, stetig auf $\mathbb{R}$ und stückweise stetig differenzierbar. $f(t)$ besitzt die Fourier-Reihe \begin{gather*} S_f(t)\sum_{K=-\infty}^{+\infty} c_K \cdot e^{i \cdot K \cdot \omega \cdot T} \end{gather*} $\Rightarrow$ Fourier-Reihe $S_{f'}(t) \curvearrowright f'(t)= \sum_{K=-\infty}^{+\infty} c_K \cdot i \cdot K \cdot \omega \cdot e^{i \cdot K \cdot \omega \cdot T}$. Satz: Betrachte periodisch mit Periode $T$, stetig auf $[0,T]$, $S_f(t)\sum_{K=-\infty}^{+\infty} c_K \cdot e^{i \cdot K \cdot \omega \cdot T}$. Fourier-Reihe der Stammfunktion: \begin{gather*} F(t)=\int_0^t f(\tau)\, d\tau \end{gather*} $F(t)$ i.A. nicht mehr periodisch, nur wenn \begin{gather*} \int_0^\tau f(t)\, dt = 0 \,\, \Leftrightarrow c_0 = 0 \,\, \Rightarrow\\ S_F(t) = -\frac{1}{T} \cdot \int:0^T f(t) \, dt + \sum_{K=-\infty, K\neq 0}^\infty \frac{c_K}{i\cdot K \cdot \omega} \cdot e^{i \cdot K \cdot \omega \cdot T} \end{gather*} \subsection{Wichtige Sätze zu Fourier-Reihen} Geg.: $f(t)$, $T$-periodisch $\rightsquigarrow S_f(t)$ - zusammengesetzt aus $g(t) \rightsquigarrow S_g(t)$,$h(t) \rightsquigarrow S_h(t)$. \begin{itemize} \item \textbf{Eindeutigkeitssatz} Gilt für zwei stückweise stetige Funktionen $g(t)$,$h(t)$ mit Periode $T$ die sog. Mittelwerteigenschaft \begin{gather*} \frac{f(t^+) + f(t^-)}{2}=f(t) \end{gather*} \begin{center} %\includegraphics[scale=0.3]{10_FRb.eps} \end{center} Falls nun $S_g(t) = S_h(t)$ so gilt $g(t)=h(t)$- \item \textbf{Darstellungssatz (für gleichmässige Konvergenz von $S_f(t)$)} Geg.: Stetige, $T$-periodische Funktion $f(t)$, deren Fourierreihe $S_f(t)$ gleichmässig auf $[0,T]$ konvergiert. Dann gilt: $S_f(t)=f(t), \forall t \in \mathbb{R}$ \item \textbf{Darstellungssatz (für stückweise differenzierbare Funktionen)} Geg,; $T$-periodische Funktion $f(t)$, stückweise stetig differenzierbar auf $[0,T]$. Dann gilt für die Fourier-Reihe $S_f(t)$: \begin{itemize} \item $S_f(t)$ konvergiert punktweise für alle $t \in \mathbb{R}$ \item \begin{gather*} \frac{f(t^+) + f(t^-)}{2}=f(t), \forall t \in \mathbb{R} \end{gather*} d.h. $S_f(t) = f(t)$, für alle stetigen Punkte $t \in \mathbb{R}$ \item Falls $f(t)$ stetig auf Intervall $I=[a,b]$ konvergiert $S_f(t)$ gleichmässig azf $I$ \item An den Unstetigkeitsstellen von $f(t)$ tritt das Gibb'sche Phänomen auf (= Überschwinger) \end{itemize} \end{itemize} \section{Diskrete Fourier-Transformation} \subsection{Grundlagen} Geg.: Diskrete periodische Funktion $f(t)$, periodisch mit Periode $T$, wobei wir annehmen, dass in ein Periodenintervall genau $N$ Werte der Funktion fallen. Weitere Annahme: Werte der Funktion an äquidistanten Stützstellen, d.h.: \begin{gather*} \underbrace{f(\overbrace{0}^{t_0})}_{f_{t_0}=y_0}, \underbrace{f(\overbrace{1\cdot \triangle t}^{t_1})}_{f_{t_1}=y_1}, \underbrace{f(\overbrace{2\cdot \triangle t}^{t_2})}_{f_{t_2}=y_2}, \dots, \underbrace{f(\overbrace{(N-1)\cdot \triangle t}^{t_{N-1}})}_{f_{t_{N-1}}=y_{N-1}}, \qquad \triangle t = \frac{T}{N} \end{gather*} \begin{center} %\includegraphics[scale=0.3]{FRD-1.eps} \end{center} Diese diskrete periodische Funktion ist durch $N$ Werte $(y,y_1,\dots,y_{N-1})$ vollständig charakterisiert. Def.: Gegeben sind $N$ Werte $(y,y_1,\dots,y_{N-1})$ der diskreten periodischen Funktion. Dann bezeichnen wir mit \begin{gather*} \mathbf{c_k := \frac{1}{N}\sum_{j=0}^{N-1}y_j \cdot e^{-\frac{2\pi i}{N}\cdot k \cdot j}, \qquad k=0,1,\dots N-1} \end{gather*} als \textbf{Spektralkoeffizienten} (oder Fourier-Koeffizienten) von$(y,y_1,\dots,y_{N-1})$ \begin{gather*} c_k := \frac{1}{N}\sum_{j=0}^{N-1}\underbrace{y_j}_{f(t_j) = f(j\cdot \triangle t)} \cdot e^{-\frac{2\pi i}{N}\cdot k \cdot j} = \frac{1}{N \cdot \triangle t}\sum_{j=0}^{N-1}f(j \cdot \triangle t) \cdot e^{-\frac{2\pi i}{N \cdot \triangle t}\cdot k \cdot j \cdot \triangle t} \cdot \triangle t =\\ \frac{1}{T}\sum_{j=0}^{N-1}f(t_j) \cdot e^{-\frac{2\pi i}{T}\cdot k \triangle t_j} \cdot \triangle t = \frac{1}{T}\sum_{j=0}^{N-1}f(t_j) \cdot e^{-i \cdot \omega \cdot k \cdot \triangle t_j} \cdot \triangle t \end{gather*} Betrachte Fourier-Reihe: \begin{gather*} \mathbf{c_k = \frac{1}{T} \int_0^T f(t) \dot e^{-i\cdot \omega \cdot k \cdot t} \operatorname{d}t} \end{gather*} Notation: $N$ gegeben, $\omega$ erste von $1$-verschiedene $N$-te Einheitswurzel. Es gilt: $\omega^N = 1 = e^{2\pi i}$: \begin{center} %\includegraphics[scale=0.3]{FRD-2.eps} \end{center} Fourier-Matrix: $N\times N$-Matrix \begin{gather*} F_N := \begin{pmatrix} 1 & 1 & 1 & \cdots & 1 \\ 1 & \omega & \omega^2 & \cdots & \omega^{N-1} \\ 1 & \omega^2 & \omega^4 & \cdots & \omega^{2(N-1)} \\ \vdots & \vdots & \vdots & \ddots & \vdots \\ 1 & \omega^{N-1} & \omega^{2(N-1)} & \cdots & \omega^{{(N-1)}^{2}} \\ \end{pmatrix} \end{gather*} Satz: Es gilt: \begin{gather*} F_N \cdot \overline{F_N} = \overline{F_N} \cdot F_N = N \cdot E_N \end{gather*} $E_N$ ist die Einheitsmatrix der Grösse $N\times N$: \begin{gather*} E_N=\begin{pmatrix} 1 & & \mathbf{0} \\ & \ddots & \\ \mathbf{0} & & 1 \\ \end{pmatrix} \end{gather*} $\overline{F_N}$ ist die konjugierte Matrix. $\overline{\omega^j} = \frac{1}{\omega^j} = \omega^{-j}$ Betrachte $\vec{c}$ (Spektralkoeffizienten) und $\vec{y}$: \begin{gather*} \vec{c} = \begin{pmatrix} c_0 \\ c_1 \\ \vdots \\ c_{N-1} \\ \end{pmatrix}, \qquad \vec{y} = \begin{pmatrix} y_0 \\ y_1 \\ \vdots \\ y_{N-1} \\ \end{pmatrix}\\ c_k=\frac{1}{N}\sum_{j=0}^{N-1} y_j \cdot \omega^{-k\cdot j} = \frac{1}{N}\sum_{j=0}^{N-1} y_j \cdot \overline{\omega^{kj}}, \qquad k=0,\dots,N-1\\ \mathbf{\vec{c}=\frac{1}{N}\cdot \overline{F_N} \cdot \vec{y}}. \qquad N \cdot F_N \cdot \vec{c} = \underbrace{F_N \cdot \overline{F_N}}_{N\cdot E_N} \cdot \vec{y} = N \cdot E_N \cdot \vec{y} = N \cdot \vec{y}\\ \Rightarrow \,\, \mathbf{F_N \cdot \vec{c}=\vec{y}} \end{gather*} Def.: Gegeben $\vec{y} = (y_0,y_1,\dots,y_{N-1})^T$. Dann wird durch DFT: $\mathbb{C}^N \rightarrow \mathbb{C}^N. \vec{y} \overbrace{\mapsto}^{\text{DFT}} \vec{c}=\frac{1}{N}\cdot \overline{F_N} \cdot \vec{y}$ eine umkehrbar eindeutige Abbildung beschrieben, die sog. \textbf{Diskrete Fourier-Transformation}. Die \textbf{Inverse Fourier-Transformation} ist gegeben durch: IDFT: $\mathbb{C}^N \rightarrow \mathbb{C}^N. \vec{y} \overbrace{\mapsto}^{\text{IDFT}} \vec{y} = F_N \cdot \vec{c}$ $\vec{c} = (c_0,c_1,\dots,c_{N-1})^T$ ist der Vektor der Spektralkoeffizienten von $\vec{y}$.\\ \newpage Beispiel: $\vec{y} = (1,0,1,0,1,0,\dots,1,0)^T$, Anmerkung: $N=2M$ gerade. Gesucht: $\vec{c} = (c_0,c_1,\dots,c_{N-1})^T$: \begin{gather*} c_k = \frac{1}{N} \sum_{j=0}^{N-1} y_j \cdot \omega^{-kj} = \frac{1}{N} \sum_{j=0}^{\frac{N}{2}-1} \underbrace{y_2j}_{=1}\cdot \omega^{-k\cdot 2\cdot j}= \frac{1}{N} \sum_{j=0}^{\frac{N}{2}-1} (\omega^{-k\cdot 2})^j\\ \text{Betrachte } \sum_{j=0}^n q^j = \begin{cases}n + 1, & q=1\\ \frac{q^{n+1} - 1}{q - 1}, & \text{sonst.}\end{cases}\\ \omega^{-2k}=1, \qquad e^{\frac{2\pi i}{N}(-2k)}=1\\ \omega^q = 1 \,\, \Leftrightarrow \,\, N|Q (\Leftrightarrow q = l\cdot N, \, l \in \mathbb{Z})\\ \omega^{-2k} = 1 \,\, \Leftrightarrow \, \begin{cases}k = 0\\k= \frac{N}{2}\end{cases}\\ \omega^{-2k} = 1 \, \Rightarrow \, c_k = \frac{1}{N} \sum_{j=0}^{\frac{N}{2}-1}(\omega^{-k\cdot 2})^j = \frac{1}{N} \sum_{j=0}^{\frac{N}{2}-1} 1 = \frac{1}{N}\cdot \frac{N}{2} = \frac{1}{2}, \qquad \forall k=0,k=\frac{N}{2}\\ \omega^{-2k} \neq 1 \, \Rightarrow \, c_k = \frac{1}{N} \sum_{j=0}^{\frac{N}{2}-1}(\omega^{-k\cdot 2})^j = \frac{1}{N} \cdot \frac{(\omega^{-2k})^{\frac{N}{2}}-1}{\underbrace{\omega^{-2k}-1}_{\neq 0 \,\, \surd}}\\ \text{betrachte: } \omega^{-2k})^{\frac{N}{2}} = \omega^{-kN}=e^{\frac{2\pi i}{N}\cdot (-k\cdot N)} = e^{-2\pi i k} = 1\\ = \frac{1}{N} \cdot \frac{1-1}{\omega^{-2k}-1} = 0, k \in \{0,\dots,N-1\} \backslash \{0,\frac{N}{2}\} \end{gather*} \subsection{Rechenregeln für DFT} $\operatorname{DFT}(\vec{y}=\vec{c}=(c_0,\dots,c_{N-1})^T$; für $\vec{y}=(y_0,\dots,y_{N-1})^T$. Periodische Funktion $(y_k)$, wobei $y_k=y_{k+N}$ für alle $k \in \mathbb{Z}$. \begin{itemize} \item Linearität \begin{gather*} \alpha\vec{y} + \beta\vec{z} \overbrace{\longrightarrow}^{\operatorname{DFT}} \alpha\vec{c}+ \beta \vec{d}, \qquad \vec{c}=\operatorname{DFT}(\vec{y}), \vec{f}=\operatorname{DFT}(\vec{z}) \end{gather*} \item Verschiebung im Zeitbereich \begin{gather*} (y_{k+N})_{k \in \mathbb{Z}} \overbrace{\longrightarrow}^{\operatorname{DFT}}(\omega^{k\cdot n} \cdot c_k)_{k \in \mathbb{Z}}, \qquad \omega = e^{\frac{2\cdot\pi\cdot i}{N}} \end{gather*} \item Verschiebung im Frequenzbereich \begin{gather*} (y_{k} \cdot \omega^{k\cdot n} )_{k \in \mathbb{Z}} \overbrace{\longrightarrow}^{\operatorname{DFT}}(c_{k-n})_{k \in \mathbb{Z}} \end{gather*} \item Periodisches Faltunsprodukt \begin{gather*} \vec{y} \ast \vec{z} = (\frac{}{^N} \cdot \sum_{j=0}^{N-1} y_j \cdot z_{k-k})_{k \in \mathbb{Z}}\\ \vec{y} \ast \vec{z} \overbrace{\longrightarrow}^{\operatorname{DFT}} (c_k \cdot d_k)_{k \in \mathbb{Z}} \end{gather*} Algorithmus mit $\mathcal{O}(N \log N)$, danach $\mathcal{O}(N)$. \end{itemize} \subsection{FFT-Algorithmus} Betrachten nur $\operatorname{IDFT}: \,\, \vec{c} \overbrace{\longrightarrow}^{\operatorname{IDFT}} \vec{y}, \,\, y_j=\sum_{k=0}^{N-1} c_k \cdot \omega^{k\cdot j}$, mit $0 \leq j \leq N-1$. Idee: 'Die Kosten', um alle Werte $(y_0, \dots, y_{N-1}$ zu berechnen ist i.A. viel geringer als das $N$-fache einer Berechnung von z.B. $y_j$. Betrachten den wichtigsten Fall, daß $N=2^r$, $r \in \mathbb{N}$. Idee ($k=2\cdot m$, gerade): \begin{gather*} y_j = \sum_{k=0}^{2^r-1} c_k \cdot e^{\frac{2\cdot r \cdot i}{2^r}\cdot k \cdot j} = \sum_{m=0}^{2^r-1} c_{2\cdot m} \cdot e^{\frac{2\cdot r \cdot i}{2^{r}}\cdot 2\cdot m \cdot j} + \sum_{m=0}^{2^r-1} c_{2\cdot m + 1} \cdot e^{\frac{2\cdot r \cdot i}{2^{r}}\cdot (2\cdot m + 1) \cdot j} =\\ \underbrace{\sum_{m=0}^{2^r-1} c_{2\cdot m} \cdot e^{\frac{2\cdot r \cdot i}{2^{r-1}}\cdot m \cdot j}}_{u(j)} + \underbrace{e^{\frac{2\cdot r \cdot i}{2^r}} \cdot j \cdot \sum_{m=0}^{2^r-1} c_{2\cdot m + 1} \cdot e^{\frac{2\cdot r \cdot i}{2^{r-1}}\cdot m \cdot j}}_{v(j)} \end{gather*} \begin{itemize} \item $u(j)$ ist Element der $\operatorname{IDFT}$ von den geraden Koeffizienten ($[c_0, c_2, \dots,c_{N-2}]$) \item $v(j)$ ist Element der $\operatorname{IDFT}$ von den ungeraden Koeffizienten ($[c_1, c_3, \dots,c_{N-1}]$) \end{itemize} Einziges Problem: $\operatorname{IDFT} [c_0, c_2, \dots,c_{N-2}]$ liefert nur $\frac{N}{2}$ Werte, analog $\operatorname{IDFT} [c_1, c_3, \dots,c_{N-1}]$; d.h. erhalte $y_j$ zunächst für Werte $0 \leq j \leq 2^{r-1} - 1$. Problem ist leicht zu lösen, weil $u(j)$ und $v(j)$ periodisch mit der Periode $\frac{N}{2}=2^{r-1}$ sind, d.h. (bitte nachrechnen!): \begin{itemize} \item $u(j + 2^{r-1}) = u(j)$ \item $v(j + 2^{r-1}) = v(j)$ \end{itemize} \textbf{Allgemeine FFT}: Um die diskrete Fouriertransformation durchzuführen, genügt es, den Vektor $ f$ mit der $ N \times N$ -Matrix $ F_N$ zu multiplizieren. Dies erfordert (neben den Additionen) $ N^2$ Multiplikationen, für große $ N$ ein zu hoher Aufwand. Die schnelle Fouriertransformation beruht darauf, dass man im Fall $ N = 2^d$ für ein $ d \in \mathbb{N}$ nur $ d \cdot N = N \cdot \log_2(N)$ Multiplikationen benötigt, wenn man gewisse Symmetrien ausnutzt. Dies machen wir uns am Beispiel $ d = 2$ klar. Dann ist $\displaystyle \omega = \exp ( \frac{2 \pi i}{4} ) = \exp ( \frac{\pi}{2} i ) = i.$ Es ergibt sich für $ k = 0, \ldots, 3 $ $\displaystyle \hat{f}_k$ $\displaystyle =$ $\displaystyle f_0 + f_1 i^k + f_2 i^{2 k} + f_3 i^{3 k}$ $\displaystyle =$ $\displaystyle f_0 + f_2 (i^2)^k + i^k ( f_1 + f_3 (i^2)^k ).$ Wir setzen $ g = ( f_0 , f_2 )^t$ und $ u = ( f_1 , f_3 )^t$ . Dann lässt sich die Gleichung für $ \hat{f}_k$ umformen. Für $ k \leq 1 = N/2 - 1$ gilt $\displaystyle \hat{f}_{k, N} = \hat{g}_{k, N/2} + i^k \hat{u}_{k, N/2} .$ (Wir haben dabei durch den zusätzlichen Index $ N$ bzw. $ N/2$ angedeutet, dass es sich um eine diskrete Fouriertransformation im $ \mathbb{C}^N$ bzw. $ \mathbb{C}^{N/2}$ handelt.) Für $ k = 2$ bzw. $ 3$ sei $ k' = k$ mod $ N/2$ . Dann ist $ \hat{f}_{k, N} \, = \, \hat{g}_{k', N/2} + i^k \hat{u}_{k', N/2}$ . Wir haben also Fouriertransformationen in $ \mathbb{C}^{N/2}$ und eine anschließende ``Zusammensetzung'' erhalten. Allgemein ergibt sich das folgende rekursive Schema: $\displaystyle g (f)$ $\displaystyle =$ $\displaystyle ( f_0 , f_2, f_4, \ldots, f_{N-2} ), u (f) = ( f_1, f_3 , \ldots, f_{N-1} )$ $\displaystyle \hat{f}_{k, N}$ $\displaystyle =$ $\displaystyle \widehat{g(f)}_{k \mbox{ \rm mod }N/2 , N/2} + \overline{\omega}^k \widehat{u(f)}_{k \mbox{ \rm mod }N/2, N/2} \quad \quad k = 0, \ldots , N-1.$ Die Rekursion kann man $ d = \log_2(N)$ mal aufrufen. Pseudocode: \begin{center} %\includegraphics[scale=0.6]{FFT-Pseudo.eps} \end{center} \textbf{Komplexitätsanalyse}: $M(r)$ sei die Anzahl der komplexen Multiplikationen im FFT eines Vektors der Länge $N=2^r$: \begin{gather*} M(r) = 2^r + 2\cdot M(r-1), \qquad r > 1\\ M(0) = 0, \qquad \frac{M(r)}{2^r} = M(\frac{r-1}{2^{r-1}}) + 1 = r - \underbrace{M(0)}{=0}\\ M(r) = r \cdot 2^r = N \cdot \log_2 N = \mathcal{O}(N \cdot \log N) \end{gather*} \newpage \subsection{Beispiele für Anwendung der DFT} \subsubsection{Approximation der Fourier-Koeffizienten einer Fourier-Reihe} Betrachten $2r$-periodische Funktion $f(t)$. Auswerten an den Stützstellen $f(\frac{2\pi}{N}, j)$, $0 \leq j \leq N-1$: \begin{gather*} \Rightarrow \,\,\, (y_0, y_1, \dots, \underbrace{y_j}_{\frac{2r}{N}}, \dots, y_{N-1})=y \end{gather*} Betrachte $\vec{c} = (c_0, \dots, c_{N-1}) = \operatorname{DFT}(y)$. Betrachte $N$-periodische Fortsetzung ($c_k$). Es gilt: $c_k$ für $-\frac{N}{2} \leq l \leq \frac{N}{2}$ sind eine gute Approximation für Fourier-Koeffizienten der Fourier-Reihe von $f(t)$. \subsubsection{Trigonometrische Interpolation} Gegeben sind Werte $(y_0,y_1, \dots, y_{N-1})=\vec{y}$. Gesucht ist ein trigonometrisches Polynom von kleinstem Grad \begin{gather*} \sum_{k=-n}^n c_k \cdot e^{i\cdot k \cdot t}, \end{gather*} sodass dieses an den Stützstellen $\frac{2r}{N} \cdot j$ genau die Werte $y_j$ annimmt. Falls $N$ ungerade ist, so ist das trigonometrische Polynom eindeutig bestimmt und es gilt dann $N=2n+1$. Einsetzen der Werte an den Stützstellen liefert $N$ Gleichungen: \begin{gather*} \mathbf{y_j = \sum_{k=-n}^n c_k \cdot \omega^{k \cdot j}, \qquad 0 \leq j \leq 2n, \omega=e^{\frac{2\pi i}{N}}}\\ y_j = \sum_{k=0}^{2n} c_{k-n} \cdot \omega^{(k-n) \cdot j} = \sum_{k=0}^{2n} c_{k-n} \cdot \omega^{kj}\cdot\omega^{-nj}\\ \Rightarrow \omega^{nj} \cdot y_j = \sum_{k=0}^{2n} c_{k-n} \cdot \omega^{kj}, \qquad 0 \leq j \leq 2n = N - 2\\ \Rightarrow (\omega^{nj} \cdot y_j)_{j \in \mathbb{Z}} = \operatorname{IDFT}(c_{k-n})\\ \Rightarrow c_{k-n} = \operatorname{IDFT} ((\omega^{nj} \cdot y_j)_{j \in \mathbb{Z}}) \end{gather*} Liefert schließlich $(c_0. c_1, \dots, c_{n-1}, c_n, c_{n+1}, \dots, c_{2n}) = \operatorname{DFT}(y_0, y_1, \dots, y_{2n})$. \section{Fourier-Transformation} \section{Grundlagen} Gegeben: Funktion $f(t)$, $f: \mathbb{R} \rightarrow \mathbb{R}$. Falls der Cauchy-Hauptwert \begin{gather*} \mathcal{F}\{f(t)\} := F(\omega) := \text{(CHW)} \int_{-\infty}^{+\infty} f(t) \cdot e^{-i \cdot \omega \cdot t}\operatorname{d}t \end{gather*} für alle $\omega \in \mathbb{R}$ existiert, dann heißt $F(\omega)$ die Fourier-Transformierte oder \textbf{Spektralfunktion}von $f(t)$. $f(t)$ liegt im Zeitbereich (= Originalbereich), $F(\omega)$ liegt im Frequenzebreich (= Bildbereich). Definition: Geg. ist eome Funktion $f(t)$. Der Cauchy-Hauptwert $\text{(CHW)} \int_{-\infty}^{+\infty} f(t) \operatorname{d}t$ ist folgendermassen definiert: \begin{gather*} text{(CHW)} \int_{-\infty}^{+\infty} f(t)\operatorname{d}t= \lim_{N \rightarrow \infty} \int_{-N}^N f(t)\operatorname{d}t \end{gather*} \newpage Beispiel: $f(t)=\frac{t}{1+t^2}, \,\, \int_{-N}^N f(t)\operatorname{d}t = 0, \,\, \forall N$: \begin{center} %\includegraphics[scale=0.3]{FRD-3.eps} \end{center} Anmerkung: Falls für die Funktion $f(t)$ das uneigentliche Riemann-Integral $\int_{-\infty}^\infty f(t)\operatorname{d}t$ existiert, dann existiert auch $\text{(CHW)} \int_{-\infty}^{+\infty} f(t) \operatorname{d}t$ und es gilt: $\text{(CHW)} \int_{-\infty}^{+\infty} f(t) \operatorname{d}t = \int_{-\infty}^{+\infty} f(t) \operatorname{d}t$ \begin{gather*} \mathbf{F(s)=\mathcal{F}\{f(t)\} = \operatorname{(CHW)}\int_{-\infty}^{+\infty} f(t) \cdot e^{-i \cdot \omega \cdot t} \operatorname{d}t} \end{gather*} Beispiel Rechteckfunktion: \begin{gather*} \sqcap (t)=\begin{cases}0, & |t| < 1\\0, & |t|>1 \\ 1, & \text{sonst.}\end{cases}\\ \mathcal{F} \{ \sqcap (t) \} = \int_{-\infty}^{+\infty} \sqcap (t) \cdot e^{-i \cdot \omega \cdot t} \operatorname{d}t= \int_{-1}^{1} 1 \cdot e^{-i \cdot \omega \cdot t} = \frac{e^{-i \cdot \omega \cdot t}}{-i \cdot \omega}= \frac{1}{-i\cdot\omega}(e^{-i\omega} - e^{i\omega})=\\ \frac{1}{-i\cdot\omega}(\cos(-\omega) + i\sin(-\omega)-\cos(\omega) - i\sin(\omega)) = \frac{2\sin \omega}{\omega}\\ \omega \neq 0, \, (\omega = 0 \, \Rightarrow \, F(0)=2) \end{gather*} Beispiel Spaltfunktion: \begin{gather*} \mathrm{sinc}(x) = \mathrm{si}(x) := \begin{cases} \frac{\sin (x)}{x} & \mbox{falls } x \ne 0 \\ 1 & \mbox{falls } x = 0 \end{cases} \end{gather*} Die Spaltfunktion ist die Fouriertransformierte der Rechteckfunktion \begin{gather*} \mathrm{rect} \left(\frac{t}{\tau} \right) =\chi_{[-\tau/2,\tau/2]}(t) := \begin{cases}1 & |t|\le\tau/2 \\ 0 & \mathrm{sonst} \end{cases}, \end{gather*} denn es gilt \begin{gather*} \mathcal F(\chi_{[-\tau/2,\tau/2]})(\omega) = \frac1{\sqrt{2\pi}}\int \limits_{-\tau/2}^{\tau/2} e^{-\mathrm{i} \omega t}\, dt = \frac1{\sqrt{2\pi}}\,\tau \,\mathrm{sinc} \left( \frac{\omega \tau}{2} \right) \end{gather*} Wichtige Frage: Wann existiert die $\mathcal{F}$-Transformation der Funktion $f(t)$? Definition: Eine Funktion $f(t)$ heisst \textbf{absolut integrierbar}, wenn sie in jedem endlichen Intervall stückweise stetig ist und wenn gilt: \begin{gather*} \int_{-\infty}^\infty |f(t)| \operatorname{d}t < \infty \end{gather*} Satz: Falls eine Funktion $f(t)$ absolut integrierbar ist, dann existiert die $\mathcal{F}$-transformierte $F(\omega)$ für alle $\omega \in \mathbb{R}$; $F(\omega)$ ist stetig und beschränkt. Weiters gilt die Plancherel-Gleichung (Energiegleichung). Der parsevalschen Gleichung für die Fourierreihe entspricht eine Identität der Fouriertransformation, die gemeinhin als Satz von Plancherel bezeichnet wird: \begin{gather*} \frac{1}{2\pi}\int_{-\infty}^{\infty} |F(\omega)|^2 \operatorname{d}\omega = \int_{-\infty}^{\infty} |f(t))|^2 \operatorname{d}t \end{gather*} Satz: \textbf{Fourier-Integraltheorem}: Ist die Funktion $f(t)$ absolut integrierbar und ist $f(t)$ auf jedem endlichen Intervall stückweise stetig differenzierbar, dann gilt: \begin{gather*} \frac{f(t)^+f(t)^-}{2} = \frac{1}{2\pi}\int_{-\infty}^{\infty} F(\omega)e^{i\omega t} \operatorname{d}\omega \end{gather*} Anmerkung: Falls $f(t)$ stetig ist gilt: \begin{gather*} f(t)=\frac{1}{2\pi}\int_{-\infty}^{\infty} F(\omega)e^{i\omega t} \operatorname{d}\omega=\mathcal{F}^{-1}(F(\omega)) = \frac{1}{2\pi}\mathcal{F}\{F(-\omega)\} \end{gather*} \subsection{Umkehr- und Eindeutigkeitssatz} Gilz für eine Funktion $f(t)$ \begin{itemize} \item $f(t)$ ist absolut integrierbar \item $f(t$ ist auf endlichen Intervallen stückweise stetig differenzierbar \item $f(t)$ ist Mittelwerteigenschaft $f(t)=\frac{f(t^+) + f(t^-)}{2}$ \end{itemize} \begin{center} %\includegraphics[scale=0.3]{mittelwerteigenschaft.eps} \end{center} Dann gilt, dass neben $f(t)$ auch $F(\omega) = \mathcal{F}\{f(t)\}$ $\mathcal{F}$-transformierbar ist, und es gilt: \begin{gather*} f(t)=\mathcal{F}^{-1} \{F(\omega)\} = \frac{1}{2\pi}\mathcal{F}\{F(-\omega)\}=\frac{1}{2\pi} \text{(CHW)} \int_{-\infty}^{\infty} e^{i\omega t} \cdot F(\omega) \operatorname{d}\omega \end{gather*} \subsection{Rechenregeln für die $\mathcal{F}$-Transformation} $f(t)$, $g(t)$ seien absolut integrierbare Funktionen; $F(\omega)$, $G(\omega)$ entsprechende Spektralfunktionen: \begin{itemize} \item Linearität: \begin{gather*} \mathcal{F}\{\alpha f(t) + \beta g(t)\}= \alpha\mathcal{F}\{f(t)\} + \beta\mathcal{F}\{g(t)\}= \alpha F(\omega) + \beta G(\omega) \end{gather*} \item Streckung: \begin{gather*} \mathcal{F}\{f(c\cdot t)\} = \frac{1}{|c|}F(\frac{\omega}{c}), \qquad c\neq 0 \end{gather*} \item Verschiebung im Zeitbereich: \begin{gather*} \mathcal{F}\{f(t-a)\} = e^{-ia\omega}F(\omega), \qquad a \in \mathbb{R} \end{gather*} \item Verschiebung im Frequenzbereich: \begin{gather*} \mathcal{F}\{e^{i\Omega t}f(t)\} = F(\omega \Omega), \qquad \Omega \in \mathbb{R} \end{gather*} \item Differentiation im Zeitbereich: \begin{gather*} \mathcal{F}\{f'(t)\}=i\omega F(\omega)\\ \text{Voraussetzung; } f(t) \text{ stetig,} f'(t) \mathcal{F}\text{-transformierbar} \end{gather*} \item Differentiation im Frequenzbereich: \begin{gather*} \mathcal{F}\{t \cdot f(t)\} = i \cdot F'(\omega)\\ \text{Voraussetzung; } \,\, t \cdot f(t) \, \text{ ist } \, \mathcal{F}\text{-transformierbar} \end{gather*} \item Faltungsprodukt $f(t) \, \ast \, g(t)$ \begin{gather*} (f \, \ast \, g)(t) := \int_{-\infty}^\infty f(\tau)\cdot g(t-\tau) \operatorname{d}\tau \end{gather*} \item Faltung: \begin{gather*} \mathcal{F\{f \ast g\}}=F(\omega)\cdot G(\omega) \end{gather*} \item Konjugation: \begin{gather*} \mathcal{F}\{\overline{f(t)}\} = \mathcal{F}(-\omega) \end{gather*} \item Symmetrien: \begin{gather*} f(t) = f(-t) \qquad \Leftrightarrow \qquad F(\omega)=F(-\omega)\\ f(t) = -f(-t) \qquad \Leftrightarrow \qquad -F(\omega)=F(-\omega) \end{gather*} \end{itemize} \subsection{Anwendung der $\mathcal{F}$-Transformation} \subsubsection{Hilfsmittel zum Lösen von DGL} Anmerkung: i.A: ist $\mathcal{L}$-Transformation vorzuziehen. Ein Beispiel von Bedeutung: Lösen bestimmter PDGen, z.B. Wärmeleitungsgleichungen. \subsubsection{Lösen von Integralgleichungen} Die im Gegensatz zur $\mathcal{L}$-Transformation anmdere Form des Faltungsproduktes ermöglicht die Lösung von Integralen vom Fredholm-Typ: \begin{gather*} \int_{-\infty}^\infty k(t-\tau)x(\tau)\operatorname{d}\tau - \lambda x(t) = f(t), \qquad t \in \mathbb{R} \end{gather*} Wenn alle Funktionen absolut integrierbar sind, lautet die Gleichung für die zugehörigen Spektralfunktionen: \begin{gather*} K(\omega)X(\omega) - \lambda X(\omega) = F(\omega) \end{gather*} Wenn $x(t)$ dem Umkehr und Eindeutigkeitssatz genügt, erhält man die Lösung $X(\omega)$ dieser Gleichung mit der inversen $\mathcal{F}$-Transformation als Lösung der Integralgleichung \begin{gather*} x(t)=\frac{1}{2\pi}\int_{-\infty}^\infty \frac{F(\omega)}{K(\omega)-\lambda}e^{i\omega t} \operatorname{d}\omega \end{gather*} \textbf{Ergänzungen zum Begriff '\emph{absolut integrierbar}'} Die Behauptung, dass bei einer absolut integrierbaren Funktion $f(t)$ gelte \begin{gather*} \lim_{t \rightarrow \infty} f(t)=0 \end{gather*} ist i.A. falsch. Damit diese Behauptung gilt. müssen folgende Bedingungen erfüllt sein:\begin{enumerate} \item $f(t)$ absolut integrierbar \item $f(t)$ stetig \item $f'(t)$ absolut integrierbar \begin{gather*} \int_{-\infty}^\infty |f'(t)| \operatorname{d}t = c \, \, \Rightarrow \,\, \int_{-\infty}^\infty f'(t) \operatorname{d}t = \breve{c} \end{gather*} \item $f(t)$ stückweise stetig differenzierbar. \end{enumerate} Dan gilt: $\lim_{t \rightarrow \infty} f(t) = \lim_{t \rightarrow -\infty}f(t) = 0$. Allgemein gilt: \begin{gather*} |f(t)| = f'_+(t) + |f'_-(t)| \\ lim_{t \rightarrow \infty} f(t) - lim_{t \rightarrow -\infty} f(t)= \breve{c} \end{gather*} \subsubsection{Nachrichtentechnik} Betrachten idealen 'Tiefpassfilter': \begin{center} %\includegraphics[scale=0.3]{ntr.eps} \end{center} Wirkung eines Filters: Für eine periodisches Eingangssignal wird nur die Amplitude des Signals verändert, aber die Frequenz unverändert gelassen. Idealer Tiefpassfilter: Alle Frequenzen $|\omega|>\Omega$ werden gesperrt, aber alle Frequenzen $|\omega| \leq \Omega$ werden unverändert durchgelassen, Betrachten Spektralbereich: \begin{gather*} F(\omega)=\mathcal{F}\{f(t)\}, \, G(\omega)=\mathcal{F}\{g(t)\} \end{gather*} Wirkung: $G(\omega) = H(\omega) \cdot F(\omega)$. Dabei ist $H(\omega)$ die Übertragungsfunktion für den idealen Tiefpassfilter; \begin{gather*} H(\omega) := \begin{cases}1, &|\omega| \leq \Omega\\0, & |\omega|>\Omega\end{cases} \end{gather*} Betrachte $h(t)=\mathcal{F}^{-1}\{H(\omega)\}$. Im Zeitbereich liefert dies: \begin{gather*} g(t) = g(t) \, \ast \, f(t)\\ h(t)=\mathcal{F}^{-1}\{H(\omega)\} = \frac{1}{2\pi}\int_{-\infty}^\infty e^{i\omega t} \cdot H(\omega) \operatorname{d}\omega = \\ \frac{1}{2\pi}\int_{-\Omega}^\Omega 1 e^{i\omega t} \operatorname{d}\omega=\frac{1}{2\pi} \frac{e^{i\omega t}}{it}|_{-\Omega}^\Omega=\\ \frac{1}{2\pi} \cdot \frac{e^{i\Omega t}-e^{-i\Omega t}}{it}=\frac{1}{2\pi i t}(i(\sin (\Omega t)+ \sin (\Omega t))=\\ \frac{\sin (\Omega t)}{\pi t} = \frac{\Omega}{\pi} \cdot \frac{\sin (\Omega t)}{\Omega t} =\\ \frac{\Omega}{\pi} \cdot \sin (\Omega t) \end{gather*} $\sin (\Omega t)$ ist die Spaltfunktion. Daraus folgt weiter: \begin{gather*} g(t) = \frac{\Omega}{\pi} \cdot \sin (\Omega t) \ast f(t) \end{gather*} \section{Partielle Differentialgleichungen (PDG)} Eine Gleichung der Form \begin{gather*} F(x_1, \dots, x_n, u, u_{x_1}, \dots, u_{x_n}, u_x, \dots, \frac{\operatorname{d}^m}{\operatorname{d}x_{1}^{m1}x_{1}^{m2}\dots x_{1}^{mm}}u) = 0 \end{gather*} in der neben der unbekannten Funktion $u(x_1,\dots,x_n)$ auch partielle Ableitungen vorkommen heißt PDG. Ordnung der PDG; Die größte $m := m_1 + \dots + m_n$ heißt Ordnung der PDG, Definition: EIne Funktion $u: G \subseteq \mathbb{R}^n \rightarrow \mathbb{R}$ heißt Lösung der DGL, wenn die $m$-ten Ableitungen von $n$ existieren und $u$ auf $G$ die obige DGL erfüllt. Anmerkung: Die Lösungen $u(x,y)$ einer PDG in 2 Variablen sind Flächen in $\mathbb{R}^3$. (Lösungsflächen, Integralflächen). \newpage \subsection{PDGen, die sich wie gewöhnliche DGLen behandeln lassen} Einzige Schwierigkeit; Die Integrationskonstanten hängen i.A. von allen übrigen Variablen ab. Beispiel; Gegeben $u(x,y)$: \begin{itemize} \item $u_{xx}=0 \, \Rightarrow \, u_x = c(y)$. Daraus folgt weiter nach $\int \operatorname{d}x$: $c(y)x + \operatorname{d}y$. Dabei ist $\operatorname{d}y$ eine beliebige, differenzierbare Funktion. \item $u_{xy}=0$. Daraus folgt weiter nach $\int \operatorname{d}y$: $u_{x}=\breve{c}(x)$. Daraus folgt weiter nach $\int \operatorname{d}x$: $c(x) + \operatorname{d}y$. Dabei ist $\breve{c}(x)$ eine beliebige Funktion. \end{itemize} \subsection{Lineare PDH 1. Ordnung mit Konstanten Koeffizienten} $2$ Variablen, $a, b \in \mathbb{R}$: \begin{gather*} au_x + bu_y = f(x,y) \end{gather*} Idee: geeignete Variablensubstitution, so dass gewöhnliche DGL entsteht: \begin{gather*} \xi = bx + ay, \qquad \eta = bx - ay\\ x = \frac{\xi + \eta}{2b}, \qquad y = \frac{\xi - \eta}{2a}\\ (x,y) \mapsto (\xi, eta), \qquad U(\xi,\eta)=u(\frac{\xi + \eta}{2b}, \frac{\xi - \eta}{2a})=u(x,y)\\ \neq F(\xi, \eta) f(\frac{\xi + \eta}{2b}, \frac{\xi - \eta}{2a})=f(x,y) \end{gather*} Nach Anwendung der Kettenregel ergibt sich: \begin{gather*} F(\xi, \eta) = au_x + bu_y = a(U_\xi \xi_x + U_\eta \eta_x) + b(U_\xi + \xi_y + U_\eta \eta_y)=\\ a(U_\xi b + U_\eta b) + b(U_\xi a + U_\eta (-a)) = abU_\xi + abU_\eta + abU_\xi - abU_\eta = 2abU_\xi\\ \Rightarrow U_\xi = \frac{1}{2ab} \cdot F(\xi, \eta)\\ \Rightarrow U(\xi, \eta)=\frac{1}{2ab}\int F(\xi, \eta)\operatorname{d}\xi + G(\eta)\\ \Rightarrow u(x,y)= \frac{1}{2ab}\int F(\xi, bx-ay) \operatorname{d}\xi+ G(\eta)\\ \Rightarrow u(x,y)= \frac{1}{2ab}\int_{bx_0+ax_0}^{bx+ay} F(\xi, bx-ay) \operatorname{d}\xi+ G(\eta) \end{gather*} Beispiel: \begin{gather*} 2u_x + 3u_y = e^{x+y} \\ \xi = 3x + 2y, \qquad \eta = 3x-2y, \qquad x = \frac{\xi + \eta}{2}, \qquad y = \frac{\xi - \eta}{2}\\ U_\xi= \frac{1}{12} F(\xi, \eta) = \frac{1}{12}e^{\frac{4 + \eta}{6} + \frac{\xi - \eta}{6}}= \frac{1}{12} e^{\frac{5}{12}\xi - \frac{1}{12}\eta}\\ \Rightarrow U(\xi, \eta) = \frac{1}{12} \int e^{\frac{5}{12}\xi - \frac{1}{12}\eta} \operatorname{d}\xi + G(\eta)=\frac{1}{12}e^{-\frac{1}{12}\eta} \int e^{\frac{5}{12}\xi}\operatorname{d}\xi + G(\eta) =\\ \frac{1}{12}e^{-\frac{1}{12}\eta} \frac{e^{\frac{5}{12}\xi}}{\frac{5}{12}}+ G(\eta) = \frac{1}{5}e^{\frac{5}{12}\xi - \frac{1}{12}\eta} + G(\eta) =\\ \frac{1}{5}e^{x+y} + G(3x-2y) \end{gather*} $G$ ist eine beliebig differenzierbare Funktion. \subsection{Eindimensionale Schwingungsgleichung (Wellengleichung)} \begin{gather*} u_{tt} = c^2u_{xx} = f(x,t) \end{gather*} $u_{tt}$ ist Auslenkung (Elongation) der Saite zum Zeitpunkt $t$ an der Stelle $x$. $c^2$ ist die Ausbreitungsgeschwindigkeit. $f(x,t)$ bezeichnet den Einfluss der äusseren Kräfte.\\ Geeignete Substitution: $\xi = x - ct$, $\tau=x + ct$. Daraus folgt weiter: $x = \frac{\xi + \tau}{2}$, $t = \frac{\xi - \tau}{2}$: \begin{gather*} U(\xi,\tau)=u(\frac{\xi + \tau}{2}, \frac{\xi - \tau}{2})=u(x,t)\\ F(\xi,\tau)=f(x,t)\\ U_t = U_\xi \cdot \xi_t + U_\tau \cdot \tau_t= U_\xi(-x) + U_\tau c = -cU_\xi + cU_\tau\\ u_{tt}=(-cU_\xi + cU_\tau) = - c(U_{\xi\xi}\xi_t + U_{\tau\xi}\tau_t)+c(c(U_{\tau\xi}\xi_t + U_{\tau\tau}\tau_t))=\\ -c(U_{\xi\xi}(-c) + U_{\tau\xi}c) + (U_{\tau\xi}(-c) + U_{\tau\tau}c)= c^2(U_{\xi\xi} - 2U_{\tau\xi}+U_{\tau\tau})\\ U_x = U_\xi\xi_x + U_\tau\tau_x = U_\xi + U_\tau\\ U_{xx}= U_{\xi\xi}\xi_x + U_{\tau\tau}\tau_x + U_{\tau\xi}\xi_x + U_{\tau\tau}\tau_x=U_{\xi\xi} + 2U_{\tau\xi}+U_{\tau\tau}\\ F(\xi,\eta) = u_{tt} - c^2u_{xx} = c^2(U_{\xi\xi} - 2U_{\xi\tau} + U_{\tau\tau}) - c^2(U_{\xi\xi} + 2U_{\xi\tau} U I_{\tau\tau})= -4c^2U_{\xi\tau}\\ \Rightarrow U_{\xi\tau}=-\frac{1}{4c^2}F(\xi,\tau) \end{gather*} Dies ist eine gewöhnliche DGL: \begin{gather*} \Rightarrow U(\xi,\tau)=-\frac{1}{4c^2} \int \int F(\xi,\tau) \operatorname{d}\xi\operatorname{d}\tau \end{gather*} Dies ergibt eine Partikulärlösung. Die allgemeine Lösung setzt sich aus der Lösung der zugehörigen homogenen DGL und einer Partikulärlösung zusammen (Summe). \begin{gather*} U_{\xi\tau} = 0 \Rightarrow \, \int \operatorname{d}\tau \, \Rightarrow U_\xi ) \breve{\psi}(\xi)\\ \Rightarrow \int \breve{\psi}\operatorname{d}\xi + \varphi(\tau)= U(\xi,\tau) = \varphi(\tau) + \psi(\xi)\\ u(x,t) = \varphi(x+ct) + \psi(x-ct) \end{gather*} Das ist die Lösungsformel von d'Alembert (Überlagerung zweier gegenläufiger Wellen). \subsection{Lineare PDG 1. Ordnung} \begin{gather*} a_1(x_1,\dots,x_n)u_{x_1} + a_2(x_1,\dots,x_n)u_{x_2} + \dots +\\ + a_n(x_1,\dots,x_n)u_{x_n} + c(x_1,\dots,x_n)u + d(x_1,\dots,x_n)= 0\\ a_1(\vec{x})u_{x_1} + a_2(\vec{x})u_{x_2} + \dots + a_n(\vec{x})u_{x_n} + c(\vec{x})u + d(\vec{x})=0 \end{gather*} Für Funktion $u = u(x_1,\dots,x_n)$. Sonderfall: $c=d=0$ - 'Rumpf'-DGL: \begin{gather*} a_1(x_1,\dots,x_n)u_{x_1} + a_2(x_1,\dots,x_n)u_{x_2} + \dots + a_n(x_1,\dots,x_n)u_{x_n}=0 \end{gather*} Betrachten in Systemen von linearen DGL 'gekoppelte' Grössen $x_1(t), x_2(t), \dots, x_n(t)$, beschierben durch ein System von DGL: \begin{gather*} \begin{matrix} x_1(t) = v_1(t,x_1,\dots,x_n) \\ x_2(t) = v_2(t,x_2,\dots,x_n) \\ \vdots \\ x_n(t) = v_n(t,x_2,\dots,x_n) \\ \end{matrix} \qquad \Rightarrow \,\, \dot{\vec{x}}(t)=\vec{v}(t,\vec{x}) \end{gather*} \textbf{Existenz- und Eindeutigkeitssatz für Systeme:} Wenn das Vektorfeld $\vec{v}(t,\vec{x})$ für alle $a < t < b$ und für alle $\vec{x}$ im Gebiet $D \subseteq \mathbb{R}^2$ stetig partiell nach $x_1, \dots, x_n$ differenzierbar ist, dann besitzt das AWP \begin{gather*} \dot{\vec{c}}(t) = \vec{v}(t, \vec{x}), \qquad \dot{\vec{c}}(t_0) = \vec{x}_0 \end{gather*} genau eine (maximale) Lösung.\\ Betrachten autonomes DGL-System (hängt nicht von $t$ ab) und setzen voraus, dass $\vec{v}(\vec{x})$ stetigt nach $x_1, \dots, x_n$ partiell differenzeirbar ist für $\vec{x} \in D$: \begin{gather*} \vec{x} = \vec{v}(\vec{x}) \end{gather*} Nach dem EE-Satz gibt es für jedes $\vec{a} \in D$ eine Lösungskurve, die für $t=0$ durch $\vec{a}$ geht. 'Notation' \begin{gather*} \vec{x}(t) = \Phi(t,\vec{a}) \end{gather*} Dabei ist $\Phi(t,\vec{a})$ die Lösungskurve.\\ Definition: Eine Funktion $u: D \subseteq \mathbb{R}^n \rightarrow \mathbb{R}$ heißt \textbf{erstes Integral (=Invariante)}des DGL-Systems $\dot{\vec{x}}=\vec{v}(\vec{x})$, falls $u(\vec{a})=u(\Phi(t,\vec{a}))$ für alle $\vec{a} \in D$, d.h. $u$ ist konstant entlang jeder Lösungskurve: \begin{center} %\includegraphics[scale=0.3]{erstes_integral.eps} \end{center} Beispiel: $\dot{x}=1, \dot{y}=1$, $x(0)=0, y(0)=0$. Lösen $x(t) = t + c$ und ergibt $c=0$ (wegen ($x(0)=0$) und daraus $x(t)=t$. Analog $y(t)=t$. \begin{gather*} \begin{pmatrix} x(t) \\ y(t) \\ \end{pmatrix} = \begin{pmatrix} t \\ t \\ \end{pmatrix} \end{gather*} \begin{center} %\includegraphics[scale=0.3]{bsp_erstes_integral.eps} \end{center} Behauptung: $y-x$ ist erstes Integral. $u(x(t), y(t)) = t-t = 0$. Allgemein gilt: \begin{gather*} \begin{pmatrix} x(t) \\ y(t) \\ \end{pmatrix} = \begin{pmatrix} t \\ t \\ \end{pmatrix} + \begin{pmatrix} c \\ d \\ \end{pmatrix} = t + d - (t+c)= d - c = \text{const.} \end{gather*} 'Methode' zum Finden eines möglichst allgemeinen ersten Integrals: \begin{gather*} \text{System der Phasen-DGL} (n-1) \,\, \frac{\operatorname{d}x_1}{\operatorname{d}x_n}= \frac{v_1(\vec{x})}{v_n{\vec{x}}}, \dots, \frac{\operatorname{d}x_{n-1}}{\operatorname{d}x_n}= \frac{v_{n-1}(\vec{x})}{v_n{\vec{x}}} \end{gather*} Aus den ersten $n-1$ Gleichungen gewonnen: \begin{gather*} \dot{x}_1(t) = v_1(x_1, \dots, x_n)\\ \dot{x}_2(t) = v_2(x_1, \dots, x_n)\\ \vdots\\ \dot{x}_n(t) = v_n(x_1, \dots, x_n) \end{gather*} Annahme: $v_n(x_1, \dots, x_n) \neq 0$. Nach dem Hauptsatz impliziter Funktionen lösen wir $x_n$ nach $t$ auf, d.h. $t=x_n(t)$. Nun ersetzen wir $t$ überall durch $x_n$ und erhalten: \begin{gather*} x_1(t) = x_1(x_n(t))=x_1\\ \vdots\\ x_{n-1}(t) = x_{n-1}(x_n(t))=x_{n-1} \end{gather*} Ergibt allgemeine Lösung mit frei wählbaren Parametern $c_1, \dots, c_{n-1}$: \begin{gather*} x_1(x_n)=g_1(x_n, c_1, \dots, c_{n-1})\\ x_2(x_n)=g_2(x_n, c_1, \dots, c_{n-1})\\ \vdots\\ x_{n-1}(x_n)=g_{n-1}(x_n, c_1, \dots, c_{n-1}) \end{gather*} Weiter gilt: Wir können nach $c_1, \dots, c_{n-1}$ auflösen: \begin{gather*} c_1 = \varphi_1(x_1(t), \dots, x_n(t))\\ c_2 = \varphi_2(x_1(t), \dots, x_n(t))\\ \vdots\\ c_{n-1} = \varphi_{n-1}(x_1(t), \dots, x_n(t)) \end{gather*} Es gilt: $\varphi_1(\vec{x}), \dots, \varphi_{n-1}(\vec{x})$ sind unabhängige erste Integrale von $\dot{\vec{x}} = \vec{v}(\vec{x}(t))$. Allgemein gilt: $\varphi_1(\vec{x}), \dots, \varphi_{k}(\vec{x})$sind erste Integrale - dann ist \begin{gather*} F(\varphi_1(\vec{x}), \dots, \varphi_{k}(\vec{x})) \end{gather*} erstes Integral für jede $k$-stellige, differenzierbare Funktion. Beispiel: $u(x,y)=y-x=\text{const.}$: Daraus folgt dass \begin{gather*} F(\varphi_1(\vec{x}), \dots, \varphi_{n-1}(\vec{x})) \end{gather*} i.A. ein erstes Integral von $\vec{x}(t)=\vec{v}(\vec{x}(t))$.\\ Weiteres Beispiel: Gegeben sei die Rumpf-DGL \begin{gather*} a_1(\vec{x})u_{x_1} + a_2(\vec{x})u_{x_2} + \dots + a_n(\vec{x})u_{x_n}= 0 \end{gather*} begründet folgendes charakteristische DGL-System für eine Rumpf-DGL $\vec{a})(a_1, \dots, a_n)^T$: \begin{gather*} \dot{x}_1(t) = a_1(\vec{x})\\ \dot{x}_2(t) = a_2(\vec{x})\\ \vdots \dot{x}_n(t) = a_n(\vec{x}) \end{gather*} Dieses System kann man kürzer mit $\dot{\vec{x}}=\vec{a}(\vec{x})$ anschreiben. Es gilt folgender Satz: Sei $U \in G \subseteq \mathbb{R}^n \rightarrow \mathbb{R}$ eine stetige, nach $x_1, \dots, x_n$ differenzierbare Funktion. Dann gilt, dass $u(x_1, \dots, x_n)$ ist eine Lösung der Rumpf-DGL und ist erstes Integral des charakteristischen DGL-Systems. Beispiel: $yu_x = xu_y$ - setzen $y=x$ und $x=y$ und erhalten nach $\dot{x}=y$ und $\dot{y}=x$ die trennbare Phasen-DGL: \begin{gather*} \frac{\operatorname{d}x}{\operatorname{d}t}, \frac{\operatorname{d}y}{\operatorname{d}t}= x \qquad \Rightarrow \qquad \frac{\operatorname{d}x}{\operatorname{d}y}=\frac{y}{x} \qquad \Rightarrow \qquad x \operatorname{d}x = y\operatorname{d}y\\ \Rightarrow \qquad \frac{x^2}{2}=\frac{y^2}{2} + c_1 \qquad \Rightarrow \qquad c_1 = \underbrace{\frac{x^2}{2} - \frac{y^2}{2}}_{\varphi(x,y)} = \text{const.}\\ \Rightarrow \qquad \text{Allgemeines erstes Integral:} \qquad F(\varphi_1(x,y)) = F(\frac{x^2}{2} - \frac{y^2}{2}) \end{gather*} Die allgemeine Lösung lautet: $u(x,y)=F(\frac{x^2}{2} - \frac{y^2}{2})$. Allgemein für $n-2$: \begin{gather*} a(x,y)u_x + b(x,y)u_y + cu + d = 0\\ \text{Subst.} \,\, (x,y) \mapsto (\xi, \eta) = (\xi(x,y),\eta(x,y))\\ u(x,y)= U(\xi,\eta), a(x,y)= A(\xi, \eta), b(x,y)= B(\xi, \eta)\\ u_x = U_\xi\xi_x + U_\eta\eta_x\\ u_y = U_\xi\xi_y + U_\eta\eta_y\\ A(\xi,eta) (U_\xi\xi_x + U_\eta\eta_x) + B(\xi,eta)(U_\xi\xi_y + U_\eta\eta_y)+ c(\xi,\eta)U + D(\xi,eta)=0\\ (\underbrace{A\xi_{x} + B\xi_{y}}_{\blacktriangledown}) U_{\xi} + (A\eta_{x} + B\eta_{y})u_{\eta} + CU + D = 0 \end{gather*} Wählen in $\blacktriangledown$ $\xi$ so, dass $A\xi_x + B\xi_y=0$ (zugehörige Rumpf-DGL) - da dieser Term dann wegfällt ensteht eine gewöhnliche DGL. $\eta$ kann beliebig gewählt werden in Hinblick auf: \begin{gather*} \begin{vmatrix} \xi_x & \xi_y \\ \eta_x & \eta_y \\ \end{vmatrix} \neq 0 \end{gather*} \end{document}