Difference between revisions of "TU Wien:Mathematik 3 VO (Panholzer)/Mitschrift WS06/0-93-gesamt-LaTeX"

From VoWi
Jump to navigation Jump to search
(No difference)

Revision as of 00:22, 17 February 2007

%------------------------------------------------- % Created by Markus Diem, Markus Nemetz %------------------------------------------------- \documentclass[12pt,a4paper,titlepage]{article} \usepackage[latin1]{inputenc} %umlaute \usepackage[german]{babel} \usepackage{amsmath} \usepackage{amssymb} \usepackage[dvips]{graphicx} \usepackage[bf]{caption} % \usepackage[pdfborder= 0]{hyperref} %links zu refs ohne rahmen \usepackage{dsfont} \usepackage{listings} %codelistings \usepackage{color} \usepackage[bookmarks,ps2pdf,pdfhighlight=/O,pdfstartview=FitH]{hyperref} \usepackage{vmargin} \setpapersize{A4} \setmargins{2.5cm}{2.5cm}% % linker & oberer Rand {16cm}{22cm}% % Textbreite und -hoehe {12pt}{25pt}% % Kopfzeilenhoehe und -abstand {0pt}{30pt}% % \footheight (egal) und Fusszeilenabstand %fuer Angabe der rationalen zahlen etc. \usepackage[automark]{scrpage2} \renewcommand{\captionfont}{\footnotesize} \setlength{\belowcaptionskip}{3pt} \renewcommand{\arraystretch}{1.3} %abstand beim brechen der formeln \newcommand{\OrgSection}{} \let\OrgSection\section \renewcommand{\section}{% \clearpage \OrgSection } \definecolor{Gray}{gray}{0.9} \lstset{basicstyle=\ttfamily\scriptsize, backgroundcolor=\color{Gray}, numbers=left, numberstyle=\tiny, stepnumber=1, numbersep=5pt} \newcommand{\real}{\mathds{R}} \newcommand{\definition} {\textbf{Definition: }} \newcommand{\bsp} {\textbf{Beispiel: }} \DeclareGraphicsExtensions{.eps} \setcounter{MaxMatrixCols}{11} \title{\textbf{Mathematik 3 f{\"u}r Informatiker 0.93}\\ Prof. Panholzer. \\WS 06/07, LVA-Nr. 118180 } \author{Markus Nemetz, \emph{markus.nemetz@tuwien.ac.at}, TU Wien} \date{\emph{Herzlichen Dank an Markus Diem und Michael Birsak }\\ 16.02.2007} \begin{document} \maketitle \newpage \pagenumbering{roman} \thispagestyle{empty} \tableofcontents \newpage Dies ist eine 'gegl{\"a}ttete' Aneinanderreihung der Mitschriften zu der LVA Mathematik 3 f{\"u}r Informatiker. Diese Version 0.90. ist sozusagen eine Alpha-Version, welche zu einem Skriptum ausgearbeitet werden wird. Version 0.91 und 0.92 enthalten einige Erg{\"a}nzungen und Korrekturen, Ich möchte mich bei Andreas Kasper herzlich bedanken! Version 0.93 beinhaltet u.a.: \begin{itemize} \item Ergänzungen im Kapitel 'Integrierender Faktor' (Kap. 2.3) \item Ergänzungen im Kapitel 'Inhpomogene DGL 1. Ordnung' (Kap. 3.1) \item Überarbeitung Kapitel 'Koeffizientenvergleich - Potenzreihenentwicklung' (Kap. 4.3) \end{itemize} Das allgemeine Seitenlayout und das Inhaltsverzeichnis wurden überarbeitet. Weiters wurden alle Grafiken mit Labels versehen sowie ein Abbildungsverzeichnis hinzugefügt. \begin{flushright} Wien, Februar 2007, Markus NEMETZ \end{flushright} \newpage \section*{Allgemeines} \begin{tabbing} \textbf{Buch:} \; \= \textsc{Meyberg und Vachenauer}, \textit{H{\"o}here Mathematik 2}, \\ \> 4. Auflage, Springer, Berlin 2001 \end{tabbing} \begin{tabbing} \textbf{Stoff:} \= \textbf{Harmonische Analyse} \\ \> \; \; \= Fourier Reihen Entwicklung \\ \> \> Diskrete Fourier Transformation \\ \> \> Fourier Transformation \\ \> \textbf{Differentialgleichungen} \\ \> \> Gew{\"o}hnliche Differentialgleichung \\ \> \> Spezielle Typen \\ \> \> Laplace Transformation \\ \> \> Potenzreihenentwicklung \\ \> \> Randwertprobleme \\ \> \> Numerische L{\"o}sungsverfahren \\ \> \textbf{Partielle Differentialgleichungen} \\ \> \> Lineare und quasi lineare partielle Differentialgleichung 1. Ordnung \\ \> \> Lineare partielle Differentialgleichung 2. Ordnung (Klassifikation)\\ \> \> Separationsansatz \end{tabbing} Die letzten beiden Punkte aus dem Kapitel partielle Differentialgleichungen wurden aus Zeitmangel nicht abgehandelt. \clearpage\pagenumbering{arabic} \pagestyle{scrheadings} \section[Gew{\"o}hnliche Differentialgleichungen - Grundbegriffe]{Gew{\"o}hnliche Differentialgleichungen - theoretische Grundbegriffe} Gleichungen, in denen neben $x$ und der gesuchten Funktion $y=y(x)$ auch deren Ableitungen $y'(x),...,y^{(n)}(x)$ vorkommen, werden als Differentialgleichungen bezeichnet. Es werden hier haupts{\"a}chlich reellwertige Funktionen betrachtet. \definition \[ \begin{array}{lcl} F: \; \real^{n+2} \supseteq D \rightarrow \real \\ F(x,y,y',...,y^{(n)})= 0 \end{array} \] nennt man implizite Form einer Differentialgleichung $n$-ter Ordnung, falls $y^{(n)}$ vorkommt. Explizite Form: \[ y^{(n)}= G(x,y,y',...,y^{(n-1)}) \] \subsection{L{\"o}sungen von Differentialgleichungen} \definition Eine Funktion mit Definitionsbereich $y(x): I \rightarrow \real$ hei{\ss}t L{\"o}sung der Differentialgleichung, falls $y(x)$ die Differentialgleichung erf{\"u}llt. $y(x)$ muss dabei $n$-mal differenzierbar sein. \bsp$y'= xy + x^2$ Differentialgleichung 1. Ordnung. Sie ist linear, da $y$ und $y'$ nur linear vorkommen. L{\"o}sungen von Differentialgleichungen sind im Allgemeinen parameterabh{\"a}ngig (d.h. nicht eindeutig). \begin{itemize} \item Spezielle- bzw. Partikul{\"a}rl{\"o}sung ist eine L{\"o}sung, die nicht von Paramtern abh{\"a}ngt. \item Allgemeine L{\"o}sung einer Differentialgleichung $n$-ter Ordnung ist eine L{\"o}sung, die von $n$ frei w{\"a}hlbaren Parametern (=~Integrationskonstanten) abh{\"a}ngt. \item Vollst{\"a}ndige L{\"o}sung einer Differentialgleichung $n$-ter Ordnung, ist eine allgemeine L{\"o}sung, die alle L{\"o}sungen beinhaltet. \end{itemize} Gegeben sei eine Differentialgleichung $n$-ter Ordnung: \[ y^{(n)}= G(x,y,y',...,y^{(n-1)}) \] Die eindeutige L{\"o}sung bekommt man nur durch zus{\"a}tzliche Bedingungen. \noindent \textbf{Anfangswertproblem (AWP):} Bedingungen (=~Gleichungen) an einem Punkt $x_0$. Bei einer Differentialgleichung $n$-ter Ordnung m{\"u}ssen Bedingungen bis zur $n-1$-ten Ordnung in $x_0$ bekannt sein. \[ \begin{array}{lcl} y^{(n)} = G(x,y,y',...,y^{(n-1)}) \\ y(x_0) = y_0, \; y'(x_0)= y_1,\; ... \; ,\; y^{(n-1)}(x_0)= y_{n-1} \\ y_0,y_1, ... , y_{n-1} \in \real \end{array} \] \begin{figure}[htbp] \centering \includegraphics[width=65mm]{lokale-loesung.eps} \includegraphics[width=65mm]{lokale-loesung-fortsetzung.eps} \caption{Lokale L{\"o}sung des Anfangswertproblems (li.), Fortsetzung (re.).} \label{fig:ll} \end{figure} \definition Die lokale L{\"o}sung des Anfangswertproblems ist eine L{\"o}sung der Differentialgleichung im Intervall $(x_0-\epsilon, x_0+\epsilon)$, welche die Anfangsbedingung $y(x_0)=y_0,\;...$ erf{\"u}llt. Ein Anfangswertproblem hei{\ss}t \emph{well posed} oder sachgem{\"a}{\ss} gestellt, wenn folgende Bedingungen erf{\"u}llt sind: \begin{itemize} \item Existenz einer lokalen L{\"o}sung des Anfangswertproblems. \item Eindeutigkeit der lokalen L{\"o}sung. \item Stetige Abh{\"a}ngigkeit der L{\"o}sung von den Anfangswerten. \end{itemize} Letzteres ist besonders f{\"u}r numerische L{\"o}sungsverfahren wichtig. Von Interesse ist gegen{\"u}ber der lokalen L{\"o}sung die ganze Funktion in einem betrachteten Gebiet (Abbildung \ref{fig:ll}). \noindent \textbf{Randwertprobleme (RWP):} ) nennt man in der Mathematik eine wichtige Klasse von Problemstellungen, in denen die Lösungen zu einer vorgegebenen Differentialgleichung (DGL) gesucht werden, die auf dem Rand des Definitionsbereiches vorgegebenene Funktionswerte (Randbedingung) annehmen sollen. Der Gegensatz dazu ist das Anfangswertproblem, bei dem nur Werte zu einem anfänglichen Zeitpunkt vorgegeben werden. \subsection[Graphische Interpretation]{Graphische Interpretation einer expliziten Differentialgleichung 1. Ordnung} \[ y'= f(x,y) \varphi \] \begin{figure}[htbp] \centering \includegraphics[width=110mm]{graphische-interpretation.eps} \caption{Richtungsfeld einer Differentialgleichung.} \label{fig:gi} \end{figure} Die L{\"o}sung ist eine differenzierbare Kurve (rot in Abbildung \ref{fig:gi}), die in das Richtungsfeld passt. (d.h. Differenzierbare Kurve, deren Tangentenanstiege in jedem Punkt $(x,y)$ mit $y'= f(x,y)$ gleich sind.) Das graphische L{\"o}sungsverfahren hei{\ss}t auch Eulersches Polygonzugverfahren. Es ist ebenfalls ein numerisches L{\"o}s\-ungs\-ver\-fahr\-en f{\"u}r Differenzialgleichungen. \subsection{Existenz und Eindeutigkeit der L{\"o}sung} Gegeben sei wiederum eine Differentialgleichung $y'=f(x,y)$ \begin{itemize} \item $f(x,y)$ ist stetig. Diese Forderung muss erf{\"u}llt sein, reicht jedoch nicht aus. \item $f(x,y)$ ist differenzierbar (nach $x$ und $y$). Diese Forderung w{\"u}rde die Existenz und Eindeutigkeit einer L{\"o}sung zwar implizieren, ist jedoch zu streng formuliert. In der Praxis gilt sie oft nicht, obwohl eine L{\"o}sung existiert und eindeutig ist. Au{\ss}erdem ist sie zum Teil schwer {\"u}berpr{\"u}fbar. \item $f(x,y)$ soll Lipschitz-stetig sein. Diese Forderung garantiert die Existenz und Eindeutigkeit einer L{\"o}sung. \end{itemize} \paragraph{Lipschitz-Stetigkeit:} Es sei ein Gebiet $G \subseteq \real ^2$ gegeben. Eine Funktion $f(x,y)$ erf{\"u}llt die globale-Lipschitz Bedingung (=~sie ist global Lipschitz-stetig) in Bezug auf $y$, falls es eine positive Konstante $L > 0$ gibt, sodass die globale $L$ Bedingung gilt: \[ \begin{array}{lcl} |f(x,y_1)-f(x,y_2)| \leq L \cdot |y_1-y_2| \\ \forall x,y_1,y_2 \; \textrm{mit} \; (x,y_1) \in G, (x,y_2) \in G \end{array} \] wobei $L$ die Lipschitzkonstante ist. Ein Gebiet $G$ ist eine offene, zusammenh{\"a}ngende (d.h. Von jedem Punkt $(x,y) \in G$ f{\"u}hrt ein Weg zu einem beliebigen anderen Punkt $(x_1,y_1) \in G$.) Menge. \newpage Eine Funktion $f(x,y)$ erf{\"u}llt eine lokale $L$ Bedingung (=~ist lokal Lipschitz-stetig), wenn es f{\"u}r alle $(x,y) \in G$ eine Umgebung $U$ gibt, mit $U \subseteq G$, sodass f{\"u}r alle $(x,y_1), (x,y_2) \in U$ gilt: \[ |f(x,y_1)-f(x,y_2)| \leq L \cdot |y_1-y_2|, \; \; L > 0 \] d.h. $L$ ist abh{\"a}ngig von $(x,y_1)$ und gegebenenfalls unterschiedlich. \subsection{Existenz- und Eindeutigkeitssatz} \paragraph{Existenz- und Eindeutigkeitssatz (von Picard und Lindel{\"o}f):} Gegeben ist ein Gebiet $G \subseteq \real ^2$ und eine Differenzialgleichung $y'= f(x,y)$. Falls $f$ in Bezug auf $x$ und $y$ stetig ist und in Bezug auf $y$ eine lokale $L$ Bedingung erf{\"u}llt, dann besitzt das Anfangswertproblem mit $y(x_0)=y_0$ f{\"u}r alle $x_0,y_0$ mit $(x_0,y_0) \in G$ eine eindeutige L{\"o}sung, die sich bis an den Rand von $G$ fortsetzt. Wir betrachten das Anfangswertproblem $y'(x) = f(x,y)$ mit $y(x_0) = y_0$. $f(x,y)$ ist stetig und erf{\"u}llt eine lokale \emph{L}-Bedingung bez{\"u}glich \emph{y}. Anmerkung: Wenn $f(x,y)$ stetig nach \emph{y} differenzierbar ist, dann erf{\"u}llt es eine lokalen \emph{L}-Bedingung bez{\"u}glich y. In diesem Fall gilt f{\"u}r den Rechtecksbereich \emph{D}, der vollst{\"a}ndig in \emph{G} liegt:: Lipschitz-Konstante \begin{gather*} L = max \, | f_y(x,y) | \qquad (y \in D) \end{gather*} \begin{figure}[htbp] \centering \includegraphics[scale=0.5]{vo2_rechteck_eef.eps} \caption{Rechtecksbereich $D$ liegt vollständig in Gebiet $G$} \label{fig:gi} \end{figure} \newpage Betrachten die Beweisidee vom Existenz- und Eindeutigkeitssatz - \textbf{Picard-Iteration}: \begin{gather*} y' = f(x,y), \qquad y(x_0) = y_0 \qquad \text{Integrieren} \\ \int_{x_0}^x y'(t) \, dt = \int_{x_0}^x f(t,y(t)) \, dt \\ y |_{x_0}^{x} = \int_{x_0}^x f(t,y(t)) \, dt \\ \Rightarrow \mathbf{y(x) = y_0 + \int_{x_0}^x f(t,y(t)) \, dt} \qquad \text{'Integralgleichung'} \end{gather*} Wir wollen $y(x)$ durch die Funktion $y_0(x), y_1(x), y_2(x), \dots$ approximieren: \begin{gather*} y_0(x) = y_0 \qquad \text{konstante Funktion} \\ y_1(x) = y_0 + \int_{x_0}^x f(t,y_0(t)) \, dt \\ y_2(x) = y_0 + \int_{x_0}^x f(t,y_1(t)) \, dt \\ \\ \vdots \qquad \text{iterieren}\\ \\ y_n(x) = y_0 + \int_{x_0}^x f(t,y_{n-1}(t)) \, dt \\ \end{gather*} Die Funktionenfolge $y_n(x), n=0,1,2, \dots$ konvergiert unter der Voraussetzung des Existenz- und Eindeutigkeitssatzes in einem Intervall $y_0 - \varepsilon \leq x \leq y_0 + \varepsilon$ gleichm{\"a}ssig gegen die Grenzfunktion $y(x) = \lim_{n \rightarrow \infty} \, y_n(x)$, die auch die L{\"o}sung des Anfangswertproblems ist. \textbf{Beispiel:} Die bekannte L{\"o}sung des AWP $y' = xy, y(0) = 1$, wird mittels Picard-Iteration approximiert ($f(x,y) = xy, y_0 = 0, y_0 = 1$): \begin{alignat*}{1} y_0(x) = 1 & \\ y_1(x) = 1 & + \int_0^x t\cdot y_0(t) \, dt \, \, = 1 + \frac{x^2}{2}\\ y_2(x) = 1 & + \int_0^x t\cdot y_1(t) \, dt \, \, = 1 + \frac{x^2}{2}+ \frac{x^4}{8} \\ y_3(x) = 1 & + \int_0^x t\cdot y_2(t) \, dt \, \, = 1 + \frac{x^2}{2}+ \frac{x^4}{8} + \frac{x^6}{48} \\ y_4(x) = 1 & + \int_0^x t\cdot y_3(t) \, dt \, \, = 1 + \frac{x^2}{2}+ \frac{x^4}{8} + \frac{x^6}{48} + \frac{x^8}{384} \end{alignat*} Allgemein ergibt dies \begin{gather*} y_n(x) = \sum_{k=0}^{n} \frac{y^{2k}}{2^kk!} \end{gather*} $y_n(x)$ mit $n \rightarrow \infty$ konvergiert gegen die L{\"o}sung \begin{gather*} y(x)= e^{\frac{1}{2}x^2} = \sum_{k=0}^{\infty} \frac{y^{2k}}{2^kk!} \end{gather*} Dies kann man dadurch verifizieren, dass man $y' = xy$ auf $\frac{y'}{y} = x$ umformt und aus dieser 'trennbaren Differentialgleichung' die L{\"o}sung mittels 'Trennung der Ver{\"a}nderlichen' errechnet: \begin{gather*} \log y(x) = \frac{x^2}{2} + \widetilde{c} \qquad \Rightarrow \qquad y(x) =ce^{\frac{x^2}{2}} \\ y(0) = 1 \qquad \Rightarrow \qquad ce^{\frac{0^2}{2}} = 1 \qquad \Rightarrow \qquad y(x) = e^{\frac{x^2}{2}} \\ y(x) = e^{\frac{x^2}{2}} \underbrace{=}_{\text{Taylorreihe}} 1 + \frac{x^2}{2} + \frac{({\frac{x^2}{2}})^2}{2!} + \frac{({\frac{x^2}{2}})^3}{3!} + \dots \\ e^x \underbrace{=}_{\text{Taylorreihe}} = 1 + x + \frac{x^2}{2!} + \frac{x^3}{3!} + \dots \end{gather*} Die \textbf{stetige Abh{\"a}ngigkeit der L{\"o}sung von den Anfangswerten} besagt, dass sich zwei L{\"o}sungen auf einem beschr{\"a}nkten Intervall $[a,b]$ wenig unterscheiden, sobald nur die beiden Anfangswerte bei $a$ hinreichend nahe beieinanderliegen. \begin{figure}[htbp] \centering \includegraphics[scale=0.5]{VO2_anfangswert.eps} \caption{Stetige Abhängigkeit der Lösung von den Anfangswerten} \label{fig:gi} \end{figure} Wenn eine stetige Funktion $f$ in einem Gebiet $G \subseteq \mathbb{R}^2$ eine $L$-Bedingung ($L > 0$) erf{\"u}llt, kann man den Abstand zwischen zwei in $G$ verlaufenden L{\"o}sungen $y_1(x)$ und $y_2(x)$ wie folgt absch{\"a}tzen: \begin{gather*} |y_1(x) - y_2(x)| \leq |y_1(x_0) - y_2(x_0)|e^{L|x-x_0|} \end{gather*} Je gr{\"o}sser $L$ ist, desto weiter werden die L{\"o}sungen auseinander liegen!\\[0.3cm] Vereinfacht gesagt bedeutet die \textbf{stetige Abh{\"a}ngigkeit der L{\"o}sung von der rechten Seite}, dass kleine {\"A}nderungen der rechten Seite $f$ bei gleichen Anfangsbedingungen auch nur eine kleine {\"A}nderung der L{\"o}sung bewirken. \begin{figure}[htbp] \centering \includegraphics[scale=0.5]{VO2_rechteseite.eps} \caption{Stetige Abhängigkeit der Lösung von der rechten Seite} \label{fig:gi} \end{figure} Wenn eine stetige Funktion $f$ in einem Gebiet $G \subseteq \mathbb{R}^2$ eine $L$-Bedingung ($L > 0$) erf{\"u}llt und sich $f^\ast$ auf $G$ nur um $\varepsilon$ ($|f(x,y) - f^\ast(x,y)| < \varepsilon| \, \forall (x,y) \in G$) unterscheiden, dann gilt f{\"u}r die L{\"o}sungen $y(x)$ von $y'=f(x,y)$ und $y^\ast(x)$ von $y'=f^\ast(x,y)$, mit derselben Anfangsbedingung $y(x_0) = y^\ast(x_0) = y_0$ im Intervall $x_0 \leq x \leq x_0 + \delta$ die Absch{\"a}tzung: \begin{gather*} |y(x) - y^\ast(x)| \leq \varepsilon\delta e^{L(x-x_0)} \end{gather*} \section{Differentialgleichungen: Spezielle Typen} \subsection{Trennbare Differentialgleichungen} Ergibt sich (eventuell nach Umformung) eine Differentialgleichung in der Form \begin{gather*} y' = f(x) \cdot g(x), \end{gather*} welche stetige, auf den Intervallen $I \subseteq \mathbb{R} (x,x_0 \in I)$ und $J \subseteq \mathbb{R} (y,y_0 \in J)$ stetig definierte Funktionen $f$ und $g$ besitzt, sind zwei F{\"a}lle zu unterscheiden: \begin{enumerate} \item $g(y) \neq 0$ - durch \textbf{Trennung der Variablen (Ver{\"a}nderlichen)} ergibt sich eine exakte Differentialgleichung in der Form: \begin{gather*} f(x) - \frac{1}{g(y)}\cdot y' = 0 \end{gather*} und der Stammfunktion ($x,x_0 \in I$, $y,y_0 \in J$): \begin{gather*} U(x,y) = \int_{x_0}^{x} f(\xi) \, d\xi - \int_{y_0}^{y} \frac{d\eta}{g(\eta)} \end{gather*} \item $g(\eta) = 0, \eta \in J$ - es gilt: $y(x) = \eta$, $x \in I$ ist eine konstante L{\"o}sung. \end{enumerate} F{\"u}r trennbare Differentialgleichungen ($x_0 \in I$, $y_0 \in J$) besagt der \textbf{Existenz- und Eindeutigkeitssatz}, dass das Anfangswertproblem \begin{gather*} y'= f(x) \cdot g(x), \qquad y(x_0) = y_0, \end{gather*} lokal eindeutig l{\"o}sbar ist wenn gilt: \begin{enumerate} \item $g(y_0) \neq 0$, oder \item $|g(y)| < L \cdot |y-y0|$ in einer Umgebung von $y_0$, $L > 0$ konstant (Lipschitz). \end{enumerate} Das \textbf{L{\"o}sungsverfahren} f{\"u}r $y' = f(x) \cdot g(x)$ lautet allgemein: \begin{enumerate} \item S{\"a}mtliche Nullstellen von $\eta \in J$ bestimmen - $y(x) = \eta$ ist jeweils eine partikul{\"a}re L{\"o}sung \item Trennung der Variablen ('y, dy nach links; x, dx nach rechts') \begin{gather*} \frac{1}{g(y)} \, dy = f(x) \, dx \end{gather*} \item Unbestimmte Integration beider Seiten: \begin{gather*} G(y) \, := \, \int \frac{dy}{g(y)}, \qquad F(x) \, := \, \int f(x) \, dx. \end{gather*} Allgemeine implizite L{\"o}sung lautet: \begin{gather*} G(y) - F(x) = c, \qquad c \in \mathbb{R}. \end{gather*} \item Anfangswertprobleml{\"o}sung: Wenn $g(y_0) \neq 0, c_0 := G(y_0) - F(x_0)$. Soferne m{\"o}glich $ G(y) - F(x) = c_0$ nach $y$ aufl{\"o}sen. Wenn $g(y_0) = 0$, dann ist $y(x) = y_0$ die L{\"o}sung. \end{enumerate} \subsection{Exakte Differentialgleichungen} Exakte Differentalgleichungen stellen eine spezielle Form der Differentialgleichungen 1. Ordnung dar und entstehen durch Differentiation nach der Kettenregel aus $U(x,y) = const.$ Ihre implizite Form lautet \begin{gather*} U_x(x,y) + U_y(x,y)y' = 0, \end{gather*} und die explizite f{\"u}r $U_y \neq 0$: \begin{gather*} y'=-\frac{U_x(x,y)}{U_y(x,y} \end{gather*} Normalerweise ist die Exaktheit einer Differentialgleichung nicht auf den ersten Blick ersichtlich. Eine Differentialgleichung der Form \begin{gather*} A(x,y) + B(x,y)y' = 0 \end{gather*} ist dann exakt, wenn es eine Funktion $U$ gibt, so dass gilt: \begin{gather*} U_x = \frac{\operatorname{d} U}{\operatorname{d} x}=A, \qquad U_y = \frac{\operatorname{d} U}{\operatorname{d} y}=B \end{gather*} $\mathbf{U}$ ist dann die \textbf{Stammfunktion von} $\mathbf{A(x,y) + B(x,y)y' = 0}$ (und ist nichts anderes als die Stammfunktion des Vektorfeldes \begin{gather*} (x,y) \mapsto \begin{pmatrix} A(x,y) \\ B(x,y) \\ \end{pmatrix} \end{gather*} Der \textbf{Exaktheitstest} ergibt f{\"u}r $A(x,y) + B(x,y)y' = 0$ genau dann ein positives Resultat, wenn folgende \textbf{Integrabilit{\"a}tsbedingung} erf{\"u}llt ist: \begin{gather*} \frac{\operatorname{d}}{y}A(x,y) = \frac{\operatorname{d}}{x}B(x,y) \end{gather*} Allgemein lautet die \textbf{L{\"o}sungsmethode f{\"u}r exakte Differentialgleichung der Form} $\textbf{A(x,y) + B(x,y)y' = 0}$: \begin{enumerate} \item Best{\"a}tigen von \begin{gather*} \frac{\operatorname{d} A}{\operatorname{d} y} = \frac{\operatorname{d} B}{\operatorname{d} x} \end{gather*} \item Bestimmung einer Stammfunktion {\"u}ber den Ansatz $u_x=A$, $U_y = B$: \begin{enumerate} \item $A$ unbestimmt nach $x$ integrieren \begin{gather*} U(x,y) = \int A(x,y) \, dx + c(y) \end{gather*} \item $y$ partiell nach $y$ differenzieren, mit $B$ gleichsetzen: \begin{gather*} U_y(x,y) = (\int A(x,y) \, dx)_y + c'(y) = B \end{gather*} \item $c(y)$ durch Integration nach $y$ bestimmen \end{enumerate} Allgemeine implizite L{\"o}sung: $U(x,y) = const$. \item Implizite L{\"o}sung ist $U(x,y) = U(x_0,y_0)$ - wenn m{\"o}glich nach $y$ aufl{\"o}sen und Definitionsbereich bestimmen. \end{enumerate} \subsection{Integrierender Faktor} Eine nicht exakte Differentialgleichung in der Form \begin{gather*} A(x,y) + B(x,y)y' = 0 \end{gather*} geht durch die Multiplikation mit einer Funktion $M(x,y)$ in die exakte Differntialgleichung \begin{gather*} M(x,y) \cdot A(x,y) + M(x,y) \cdot B(x,y)y' = 0 \end{gather*} {\"u}ber. $M(x,y)$ ist der \textbf{integrierende Faktor} oder \textbf{Euler-Multiplikator}. Allgemein lautet der L{\"o}sungsweg f{\"u}r $A(x,y) + B(x,y)y' = 0$ mit integrierendem Faktor vom Typ $M(x,y) = m(u(x,y))$: \begin{enumerate} \item Berechnung von $A_y - B_x$. Wenn $0$ herauskommt, dann liegt eine exakte Differentialgleichung vor, die wie gehabt gel{\"o}st werden kann. (siehe 2.2.) \item Wenn $u(x,y)$ nicht explizit vorgegeben so versuchen wir ausgehend von folgender Konstellation: \begin{gather*} A(x,y) + B(x,y)y'=0 \end{gather*} \begin{itemize} \item Wir prüfen, ob \begin{gather*} \frac{A_y - B_x}{B} \end{gather*} nur von $x$ abhängt. Sollte das der Fall sein, setzen wir \begin{gather*} \mu_x=\frac{A_y - B_x}{B}\mu \end{gather*} und erhalten als Lösung dieser Differentialgleichung einen nur von $x$ abhängigen integrierenden Faktor $\mu$. \item Wir prüfen, ob \begin{gather*} \frac{A_y - B_x}{A} \end{gather*} nur von $y$ abhängt. Sollte das der Fall sein, setzen wir \begin{gather*} \mu_y=\frac{A_y - B_x}{A}\mu \end{gather*} und erhalten als Lösung dieser Differentialgleichung einen nur von $y$ abhängigen integrierenden Faktor $\mu$. \item Wenn der Hinweis vorhanden ist, dass der integrierende Faktor $m(x,y)$ eine bestimmte Gestalt hat, z.B. $m(x,y)=x^ay^b$, so löst man folgende Gleichung (evtl. ist Koeffizientenvergleich notwendig): \begin{gather*} A(x,y)\frac{\operatorname{d}m(x,y)}{\operatorname{d}y} - B(x,y)\frac{\operatorname{d}m(x,y)}{\operatorname{d}x}+ m(x,y)(\frac{\operatorname{d}A(x,y)}{\operatorname{d}y} - \frac{\operatorname{d}B(x,y)}{\operatorname{d}x})=0 \end{gather*} \item Sollte keiner der o.g. Punkte zutreffen, so bleibt nur die Auswahl verschiedener Funktionen $u(x,y)$ und dazu Berechnung von \begin{gather*} H(x,y) := \frac{Ay-Bx}{BU_x - Au_y} \end{gather*} Wenn $H(x,y)=h(u(x,y))$ weiter mit n{\"a}chstem Schritt, ansonsten anderes $u(x,y)$ w{\"a}hlen. Standard-Ans{\"a}tze f{\"u}r $u(x,y)$: \begin{center} \begin{tabular}{|c|c|} \hline $\mathbf{u(x,y)}$ & $\mathbf{H(x,y)}$ \\ \hline $x$ & $\frac{A_y - B_x}{B}$ \\ \hline $y$ & $\frac{A_y - B_x}{-A}$ \\ \hline $x+y$ &$\frac{A_y-B_x}{B-A}$ \\ \hline $x-y$ &$\frac{A_y-B_x}{B+A}$ \\ \hline $xy$ &$\frac{A_y-B_x}{yB-yA}$ \\ \hline $y^2 + y^2$ & $\frac{1}{2} \cdot \frac{A_y-B_x}{xB-yA}$ \\ \hline $x^2 - y^2$ & $\frac{1}{2} \cdot \frac{A_y-B_x}{xB+yA}$ \\ \hline \end{tabular} \end{center} \end{itemize} \item Berechne $m(u)=e^{\int h(u) \, du}$. $M(x,y) = m(u(x,y))$ ist der Euler-Multiplikator \item L{\"o}sung der exakten Differentialgleichung $M(x,y) \cdot A(x,y) + M(x,y) \cdot B(x,y)y' = 0$ \end{enumerate} \newpage \section{Inhomogene Lineare Differentialgleichungen 1. Ordnung} \subsection{Grundlagen} F{\"u}r inhomogene lineare Differentialgleichungen 1. Ordnung in der Form \begin{gather*} y' + f(x) \cdot y = s(x) \end{gather*} gilt: Die allgemeine L{\"o}sung ist die Summe aus der L{\"o}sung der zugeh{\"o}rigen homogenen Differentialgleichung und einer partikul{\"a}ren L{\"o}sung der zugeh{\"o}rigen inhomogenen Differentialgleichung. \begin{enumerate} \item Integration der zugeh{\"o}rigen homogenen Differentialgleichung \begin{gather*} y' + f(x) \cdot y = 0 \end{gather*} Zun{\"a}chst Trennung der Ver{\"a}nderlichen, dann Integration. Allgemeine L{\"o}sung ist schlie{\ss}lich (auch logarithmische Schreibweise m{\"o}glich): \begin{gather*} y = c \cdot e^{-\int f(x) \, dx}, \qquad c \in \mathbb{R} \end{gather*} \item Integration der zugeh{\"o}rigen inhomogenen Differentialgleichung Die aus der L{\"o}sung der homogenen Differentialgleichung gewonnene Integrationskonstante $c$ wird durch die Funktion $c(x)$ ersetzt, so dass man den L{\"o}sungsansatz \begin{gather*} y = c(x) \cdot e^{-\int f(x) \, dx} \end{gather*} erh{\"a}lt und diesen in die inhomogene Differentialgleichung einsetzt. Die so entstehende Differentialgleichung 1. Ordnung ist durch unbestimmte Integration direkt gel{\"o}st werden. \item Summe aus der L{\"o}sung der zugeh{\"o}rigen homogenen Differentialgleichung und einer partikul{\"a}ren L{\"o}sung der zugeh{\"o}rigen inhomogenen Differentialgleichung berechnen \end{enumerate} Eine andere Möglichkeit zur Lösung besteht in der \textbf{Verwendung einer Formel}: Lineare inhomogene Differentialgleichungen 1. Ordnung in der Form $y' + p(x)y = r$ ($r$ ist Störfunktion, singulär oder nur von $x$ abhängig) können mit folgender Formel aufgelöst werden: \begin{gather*} h = \int p(x) \, dx \\ y(x) = e^{-h} (\int e^hr \, dx + c) \end{gather*} Beispiel: \begin{gather*} y' + \frac{1}{x} \cdot y = x^2 \\ y' + \frac{1}{x} \cdot y = 0 \qquad \Rightarrow \qquad \frac{y'}{y}= - \frac{1}{x} \qquad \Rightarrow \qquad \ln y = \underbrace{-\ln x}_{\log{\frac{1}{x}}} + \breve{c} \\ y_h = \frac{c}{x} \\ y_p (x) = \frac{c(x)}{x} \qquad \Rightarrow \qquad y_p(x) = \frac{x^4}{5}\\ \frac{c'(x)}{x} = x^3 \qquad \Rightarrow \qquad c'(x) = x^4 \qquad \Rightarrow \qquad c(x) = \frac{x^5}{5} \\ \mathbf{y(x) = \frac{x^4}{5}} \qquad \text{Allg. Lsg.} \end{gather*} \subsection{Typen von inhomogenen linearen DGLen 1. Ordnung} \subsubsection[{\"A}hnlichkeitsdifferentialgleichung]{{\"A}hnlichkeitsdifferentialgleichung (= Homogene Differetialgleichung)} Allgemeine Gestalt: \begin{gather*} y' = f(\frac{y}{x}), \qquad x \neq 0 \end{gather*} {\"U}berf{\"u}hrung in trennbare Differentialgleichung durch Substitution: \begin{gather*} v(x) = \frac{y(x)}{x} \qquad \Rightarrow \qquad y = x \cdot v(x) \qquad \Rightarrow \qquad y' = v(x) + x \cdot v'(x) \\ v(x) + x \cdot v'(x) = f(x) \qquad \Rightarrow \qquad \mathbf{v'(x) = \frac{f(v) - v}{x}} \end{gather*} Beispiel: \begin{gather*} y' = \frac{y}{x} - \sqrt{1 - \frac{y}{x}} \\ \frac{y}{x} =: v \qquad \Rightarrow \qquad y' = v + x\cdot v' \\ v + x\cdot v' = v - \sqrt{1 - v} \qquad \Rightarrow \qquad \frac{v'}{\sqrt{1-v}}= -\frac{1}{x}\\ 1 - v = u^2 \qquad \Rightarrow \qquad -dv = 2u \cdot du \\ \int \frac{1}{\sqrt{1-v}} \, dv = \int \frac{2u}{u} \, du = -2u = -2\sqrt{1-v} \\ -2\sqrt{1 - v} = -\ln x + \check{c} \qquad \Rightarrow \qquad \underline{1 - \frac{y}{x}} = \frac{1}{2}\ln x + c \\ \mathbf{x(1-(\frac{1}{2} \ln x + c)^2) = y(x)} \end{gather*} \subsubsection{Bernoulli-Differentialgleichung} Allgemeine Gestalt: \begin{gather*} y'(x) + a(x) \cdot y(x) = b(x) \cdot (y(x)^\alpha) \end{gather*} Substitutionsmethode: \begin{gather*} \eta(x) := y(x)^{1-\alpha} \qquad \Rightarrow \qquad \eta'(x) = (1-\alpha) \cdot y(x)^{-\alpha}\cdot y'(x)\\ \underbrace{\frac{\eta'(x)}{1-\alpha} \cdot y(x)^\alpha}_{y'(x)} + a(x) \cdot \underbrace{y(x)^{1-\alpha}}_{\eta(x)} = b(x) \cdot y(x)^\alpha\\ \mathbf{\eta'(x) + (1-\alpha)a(x)\eta(x) = (1-\alpha)b(x)} \end{gather*} Substitution ergibt eine lineare Differentialgleichung 1. Ordnung, deren allgemeine Lösung man bestimmt. Abschließend macht man die Substitution mir $y(x)=\eta(x)^{\frac{1}{1-\alpha}}$ rückgängig. \subsubsection{$y$ tritt nicht explizit in Differentialgleichung auf} \begin{gather*} y''(x) = f(x,y') \\ u := y' \qquad \Rightarrow \qquad \texttt{u' = f(x,u)} \end{gather*} Substitution ergab eine lineare Differentialgleichung 1. Ordnung. \subsubsection[Autonome Differentialgleichungen]{$x$ tritt nicht explizit in Differentialgleichung auf - autonome Differentialgleichung} \begin{gather*} y''(x) = f(y,y') \\ v(y) := y' \qquad \Rightarrow \qquad y'' = \frac{dy'}{dx} = \frac{dy'}{dy}\cdot \frac{dy}{dx} = \frac{dv}{dy} \cdot v = v'(y)\cdot v(y)\\ \Rightarrow \qquad \mathbf{v(y) \cdot v'(y) = f(y,v(y)} \end{gather*} Substitution ergab eine lineare Differentialgleichung 1. Ordnung. Beispiel: \begin{gather*} y'' = -\frac{(y')^2}{5y} \qquad \Rightarrow \qquad v(y) = y' \\ v\cdot v' = - \frac{v^2}{5y} \qquad \Rightarrow \qquad \frac{v'}{v} = - \frac{1}{5y} \\ \ln v(y) = -\frac{1}{5}\cdot\ln x + \check{c} \qquad \Rightarrow \qquad v(y) = \frac{c}{y^{\frac{1}{5}}} \qquad \Rightarrow \qquad y'(x) = \mathbf{\frac{c}{y(x)^{\frac{1}{5}}}} \end{gather*} \subsection[Numerisches L{\"o}sen von Anfangswertproblemen]{Numerisches L{\"o}sen von Anfangswertproblemen f{\"u}r Differentialgleichungen 1. Ordnung} Gegeben ist das Anfangswertproblem: \begin{gather*} y'(x) = f(x,y(x)), y(x_0) = y_0 \end{gather*} Zerlegen $[x_o,x]$ in $n$ gleich grosse Teilintervalle $\Rightarrow$ Punkte $x_0, x_1, x_2, \dots, x_n$. Berechnen N{\"a}herungswerte f{\"u}r $y(x_i)$, d.h. $y_0, y_1, y_2, \dots, y_n$. Approximative L{\"o}sung $y(x)$ durch N{\"a}herung, Diskretisierung des Anfangswertproblems. \begin{figure}[htbp] \centering \includegraphics[scale=0.5]{AWP_NUM.eps} \caption{Approximative Lösung durch Näherung} \label{fig:gi} \end{figure} Prinzipielle Unterteilung: \begin{itemize} \item Einzelschrittverfahren: Zur Berechnung von $y_i$ wird auf $y_{i-1}$ Werte zur{\"u}ckgegriffen \item Mehrschrittverfahren: Zur Berechnung von $y_i$ wird auf mehrere zur{\"u}ckliegende Werte zur{\"u}ckgegriffen \end{itemize} \textbf{Einzelschrittverfahren} - Mittelwertsatz: \begin{gather*} \frac{y(x_i) - y(x_{i-1})}{x_i - x_{i-1}} = y'(\xi) \qquad \xi \in (x_{i-1},x_i) \\ y(x_i) = y(x_{i-1}) + y'(\xi) \cdot \underbrace{(x_i - x_{i-1}}_{\text{=: h ... Schrittweite}} \\ \Rightarrow y(x_i) = y(x_{i-1}) + h\cdot \underbrace{f(\xi, y(\xi))}_{\text{verwenden Ersatzfunktion}} \end{gather*} N{\"a}herungsweise Berechnung durch Verwendung von Ersatzfunktion: Explizites Einzelschrittverfahren \begin{gather*} \mathbf{y_{i+1} = y_{i} + h \cdot F(x_{i-1}, y_{i}, h)} \end{gather*} \textbf{Verfahren von Euler (Euler-Cauchy)}: verwenden f{\"u}r $F(x_i, y_i, h)$ die Funktion $f(x_i, y_i)$: \begin{gather*} \mathbf{y_{i+1} = y_i + h \cdot F(x_i,y_i)} \end{gather*} \textbf{Verfahren von Heun}: \begin{gather*} K_1 = f(x_i, y_i) \\ K_2 = f(x_i + h, y_i + h \cdot f(x_i,y_i) \\ y_{i+1} = y_i + h \cdot \underbrace{F(x_i,y_i)}_{\frac{1}{2} \cdot (K_1 + K_2)} \end{gather*} \textbf{Verfahren von Runge-Kutta}: Verwende zus{\"a}tzlichen Zwischenwert $x_i + \frac{h}{2}$, gewichtetes Mittel aus Funktionswerten an den Stellen $x_i, x_i + \frac{h}{2}, x_i + h$: \begin{gather*} K_1 = f(x_i, y_i)\\ K_2 = f(x_i + \frac{h}{2}, y_i + \frac{h}{2}K_1)\\ K_3 = f(x_i + \frac{h}{2}, y_i + \frac{h}{2}K_2)\\ K_4 = f(x_i + \frac{h}{2}, y_i + \frac{h}{2}K_3)\\ \mathbf{y_{i+1} = y_i + h \cdot \frac{1}{6} \cdot (K_1 + 2K_2 + 2K_3 + K_4)} \end{gather*} \textbf{Konsistenzma{\ss}e}: Ein Einzelschrittverfahren besitzt die Konsistenzordnung $p$, wenn es ein $c \cdot h_0 > 0$ gibt, so dass gilt: \begin{gather*} |\frac{y(x+h)-y(x)}{h} - F(x,y,h)| \leq c \cdot h^p \end{gather*} $p$ ist konkret f{\"u}r folgende Verfahren: \begin{itemize} \item Euler-Verfahren: 1 \item Heun-Verfahren: 2 \item Runge-Kutta-Verfahren: 4 \end{itemize} Festlegung der optimalen Schrittweite $\widetilde{h}$ durch ber{\"u}cksichtigung von Verfahrensfehlern und Rundungsfehlern: \begin{figure}[htbp] \centering \includegraphics[scale=0.5]{optim_schrittw.eps} \caption{Optimale Schrittweite} \label{fig:gi} \end{figure} \section{Potenzreihenansatz zur L{\"o}sung von Differentialgleichungen} Es liegt eine Differentialgleichung in folgender Form vor: \begin{gather*} F(x,y,y',\dots,y^{(n)})=0, \end{gather*} und wir nehmen an, dass die L{\"o}sung $x_0 = x$ in eine Potenzreihe entwickelbar ist, d.h.: \begin{gather*} y(x) = \sum_{n=0}^\infty a_n \cdot (x - x_0)^n \end{gather*} Die Bestimmung der Koeffizienten $a_1, a_2, \dots, a_n$ kann auf zwei Arten erfolgen: \subsection{Fortgesetzte Differentiation} Ausgangspunkt ist das AWP \begin{gather*} y'=f(x,y), \qquad y(x_0) = y_0 \end{gather*} Mit der Taylor-Formel gilt: \begin{gather*} a_m = \frac{y^{(n)}(x_0)}{n!}, \end{gather*} Durch fortgesetzte Differentiation der Gleichung $y'(x) = f(x,y(x))$ bei $x=x_0$ (Kettenregel) bestimmt man nacheinander die Koeffizienten: \begin{gather*} a_0 = y(x_0) = y_0 \\ a_1 = y'(x_0) = f(x_0,y_0)\\ 2!a_2 = y''(x_0) = f_x(y_0,y_0) + f_y(x_0,y_0)y'(x_0)\\ 3!a_3 = y'''(x_0) = [f_{xx} + f_{xy}y' + (f_{yx} + f_{yy})y' + f_yy'']_{x_0,y_0}\\ \vdots \end{gather*} \subsection{Koeffizientenvergleich} \begin{enumerate} \item Ableitungen bilden: \begin{gather*} y(x)= \sum_{n=0}^\infty a_n \cdot (x-x_0)^n\\ y'(x) = \sum_{n=1}^\infty n \cdot a_n \cdot (x-x_0)^{n-1}\\ y''(x) = \sum_{n=2}^\infty n \cdot (n-1) \cdot a_n \cdot (x-x_0)^{n-2} \end{gather*} \item Potenzen von $y(x)$ (($y(x))^2,(y(x))^3,\dots$) nach der Cauchy-Produktformel entwickeln: \begin{gather*} f(x) = \sum_{n=0}^\infty f_n\cdot (x-x_0)^n, \qquad g(x) = \sum_{n=0}^\infty g_n\cdot (x-x_0)^n\\ h(x) := f(x) \cdot g(x) = \sum_{n=0}^\infty \underbrace{h_n}_{h_n=\sum_{k=0}^\infty f_k \cdot g_{n-k}}\cdot (x-x_0)^n \end{gather*} \item Reihenentwicklung in Differentialgleichung einsetzen und nach Potenzen von $(x-x_0)^n$ ordnen. Dann die Koeffizienten von $(x-x_0)$ vergleichen, d.h. $F(x,y,y',\dots,y^{(n)})=0$ setzen. $\Rightarrow \,$ Gleichungssystem (unendlich dimensional) f{\"u}r $a_0, a_1, \dots$. Die Reihenentwicklung wird unter Annahme einer guten Approximation abgebrochen. \end{enumerate} Zum Beispiel die \textbf{Laguerre-Differentialgleichung}: \begin{gather*} x\cdot y'' + (1-x)\cdot y' + m \cdot y = 0, \qquad m \in \mathbb{R} \end{gather*} Wir formen den Summanden $x\cdot y''$ in eine Potenzreihe um: \begin{gather*} x\cdot y'' = x \cdot \sum_{n=2}^\infty n \cdot (n -1) \cdot a_n \cdot x^{n-2} = \sum_{n=2}^\infty n \cdot (n -1) \cdot a_n \cdot x^{\mathrm{\mathbf{n-1}}} \end{gather*} Nun verschieben wir den Summationsindex: \begin{gather*} \sum_{n=2}^\infty n \cdot (n -1) \cdot a_n x^{n-1} = \sum_{\mathrm{\mathbf{n=1}}}^\infty (n\mathrm{\mathbf{+1}}) \cdot \mathrm{\mathbf{n}} \cdot a_{\mathrm{\mathbf{n+1}}} x^{n-1}= \sum_{\mathrm{\mathbf{n=0}}}^\infty (n\mathrm{\mathbf{+1}}) \cdot \mathrm{\mathbf{n}} \cdot a_{\mathrm{\mathbf{n+1}}} x^{n} = A \end{gather*} Nun formen wir den Summanden $(1-x)\cdot y'$ in eine Potenzreihe um: \begin{gather*} (1-x)\cdot y' = (1-x)\cdot \sum_{n=1}^\infty n \cdot x^{n-1} \cdot a_n = \sum_{n=1}^\infty n \cdot x^{n-1} \cdot a_n + x \cdot \sum_{n=1}^\infty n \cdot x^{n-1} \cdot a_n =\\ \sum_{n=1}^\infty n \cdot x^{n-1} \cdot a_n + x \sum_{n=1}^\infty n \cdot x^{\mathrm{\mathbf{n}}} \cdot a_n \end{gather*} Nun verschieben wir den Summationsindex: \begin{gather*} \sum_{n=1}^\infty n \cdot x^{n-1} \cdot a_n + \sum_{n=1}^\infty n \cdot x^{n} \cdot a_n = \sum_{\mathrm{\mathbf{n=0}}}^\infty (\mathrm{\mathbf{n+1}}) \cdot x^{n} \cdot a_{n+2} + \sum_{\mathrm{\mathbf{n=0}}}^\infty (\mathrm{\mathbf{n+1}}) \cdot x^{n} \cdot a_{\mathrm{\mathbf{n+1}}} = B \end{gather*} Abschliessend formen wir den Summanden $m \cdot y$ in eine Potenzreihe um: \begin{gather*} m \cdot y = m \cdot \sum_{n=0}^\infty x^n \cdot a_n = C \end{gather*} In Kurzschreinweise: \begin{gather*} A + B + C = 0 \end{gather*} Da die Summationsindizes gleichgesetzt wurden, fallen sie weg und es ergibt sich: \begin{gather*} ((n+1)^2 \cdot a_{n+1} + (m-n) \cdot a_n) \cdot x^n = 0 \end{gather*} Wir führen den Koeffizientenvergleich f{\"u}r $(n+1)^2 \cdot a_{n+1} + (m-n) \cdot a_n$ f{\"u}r alle $n\geq 0$ durchf{\"u}hren und danach versuchen, ein Bildungsgesetz zu erkennen: \begin{enumerate} \item $n=1$: \begin{gather*} a_1 + m \cdot a_0 = 0 \qquad \Rightarrow \qquad a_1 = -m\cdot a_0 \end{gather*} $a_0$ frei w{\"a}hlbar \item $n=1$ \begin{gather*} 2^2 \cdot a^2 + (m-1)\cdot a_1 = 0 \qquad \Rightarrow \qquad a_2 = -\frac{m-1}{2} \cdot \frac{a_1}{2} =\\ (-1)\cdot (-1) \cdot \frac{(m-1)\cdot m}{2} \cdot \frac{a_0}{2} \end{gather*} \item $n=2$ \begin{gather*} 3^2 \cdot a_3 + (m-2)\cdot a_2 = 0 \qquad \Rightarrow \qquad \\ a_3 = -\frac{m-2}{3^2} \cdot a_2 = (-1)^3 \underbrace{\frac{m\cdot(m-1)\cdot(m-2)}{1\cdot2\cdot3}}_{\frac{m!}{3!(m-3)!} = \begin{pmatrix} m \\ 3 \\ \end{pmatrix}} \cdot \frac{a_0}{1\cdot 2 \cdot 3} \end{gather*} \end{enumerate} Daraus ergibt sich das \textbf{Bildungsgesetz}: \begin{gather*} a_n = (-1)^n \cdot \begin{pmatrix} m \\ n \\ \end{pmatrix} \cdot \frac{a_0}{n!} \end{gather*} Beweis m{\"u}sste mittels vollst{\"a}ndiger Induktion erfolgen. Die Funktion allgemein als Potenzreihe ausgedr{\"u}ckt (ist auch die L{\"o}sung der Differentialgleichung Lon Daguerre) lautet nun: \begin{gather*} \mathbf{y(x) = a_0 \cdot \sum_{n=0}^\infty (-1)^n \cdot \begin{pmatrix} m \\ n \\ \end{pmatrix}} \cdot \frac{x^n}{n!} \end{gather*} Falls $m \in \mathbb{N}$ bricht die Reihe bei $n > m$ ab - es bleibt das Laguerre-Polynom {\"u}brig. \subsection{Modifizierter Potenzreihenansatz f{\"u}r lineare DGL 2. Ordnung} Wenn der bisher erw{\"a}hnte Ansatz nicht zum Ziel f{\"u}hrt wird der modifizierte Potenzreihenansatz verwendet. Die DGL muss in folgender Form vorliegen: \begin{gather*} p(x) \cdot y'' + q(x) \cdot y' + r(x) \cdot y = 0 \end{gather*} $\frac{q(x)}{p(x)}$ und $\frac{r(x)}{p(x)}$ m{\"u}ssen um $x=x_0$ in eine Taylorreihe entwickelbar sein. Das Problem sind dabei die Nullstellen von $p(x)$. Wenn $p(x_0)=0$, so wird $x_0$ ein \textbf{singul{\"a}rer Punkt} genannt. Eine Nullstelle $x_0$ von $p(x)$ hei{\ss}t \textbf{regul{\"a}re Singularit{\"a}t} der DGL, falls die Funktionen $p_0(x),p_1(x),\dots$ mit $p(x)=(x-x_0)^2\cdot p_0(x), y(x)=(x-x_0)\cdot p_1(x), r=p_2(x)$ existieren, so dass $p_0(x), p_1(x), p_2(x)$ um $x_0$ in eine Taylorreihe entwickelbar sind und zus{\"a}tzlich $p_0(x_0) \neq 0$ gilt. Falls $x_0$ ist regul{\"a}re Singularit{\"a}t der DGL \begin{gather*} (x-x_0)^2\cdot p_0(x) \cdot y'' + (x-x_0)\cdot p_1(x) \cdot y' + p_2(x)\cdot y=0 \end{gather*} und $r$ eine Nullstelle der Indexgleichung \begin{gather*} r\cdot(r-1)\cdot p_0(x_0) + r\cdot p_1(x_0) + p_2(x_0) = 0 \end{gather*} ist, dann gilt die Potenzreihendarstellung: \begin{gather*} y(x)=(x-x_0)^r \cdot \sum_{n=0}^\infty a_n \cdot (x-x_0)^n \end{gather*} Beispiel: \textbf{Bessel-Differentialgleichungen}, welche die folgende Form haben: \begin{gather*} x^2\cdot y'' + x\cdot y' + (x^2 - \alpha^2)\cdot y = 0, \qquad \alpha \in \mathbb{R} \end{gather*} Wenn $x=0$, liegt regul{\"a}re Singularit{\"a}t vor - L{\"o}sung mittels Potenzreihenansatz um $x_0=0$ m{\"o}glich. Dabei unterscheiden wir zwei F{\"a}lle: (a) $\alpha = m \in \mathbb{N}$ und (b) $\alpha = m \in \mathbb{R} \setminus \mathbb{Z}$ \begin{itemize} \item $\alpha = m \in \mathbb{N}$ \begin{gather*} x^2\cdot y'' + x\cdot y' + (x^2 + m^2)\cdot y = 0 \\ p_0(x_0) = 1, \qquad p_1(x_0) = 1, \qquad p_2(x_0) = x^2 - m^2\\ \text{Indexgleichung: }\,\,\, r\cdot(r-1)\cdot 1 + r \cdot 1 - m^2=0\\ \Rightarrow \qquad r^2 -m^2 =0, \qquad \Rightarrow \qquad r_{1,2}=\pm m \end{gather*} \begin{itemize} \item $r_1=+m$ \begin{gather*} \text{Ansatz: }\,\,\, y(x) = x^m \cdot \sum_{n=0}^\infty a_n \cdot x^n = \sum_{n=0}^\infty a_n \cdot x^{n+m}\\ \sum_{n=0}^\infty (n+m) \cdot (n+m-1) \cdot a_n \cdot\mathbf{ x^{n+m}}+ \sum_{n=0}^\infty (n+m) \cdot a_n \cdot \mathbf{x^{n+m}}+ \\ + \underbrace{(x^2 - m^2) \cdot \sum_{n=0}^\infty a_n \cdot x^{n+m}}_{= \blacksquare} = 0\\ \blacksquare \underbrace{\sum_{n=0}^\infty a_n \cdot x^{n+m+2} - \sum_{n=0}^\infty m^2 \cdot a_n \cdot x^m}_{= \diamondsuit}\\ \diamondsuit \sum_{\textbf{n=2}}^\infty a_{n-2} \cdot \mathbf{x^{n+m}}-\sum_{n=0}^\infty m^2 \cdot \mathbf{x^{n+m}} \end{gather*} Durchf{\"u}hrung des Koeffizientenvergleichs: \begin{itemize} \item $n=0$ \begin{gather*} m \cdot (m -1) \cdot a_0 + m \cdot a_0 - m^2 \cdot a_0 = 0 \end{gather*} Da $0 \cdot a_0 = 0$ gilt ist $a_0$ frei w{\"a}hlbar! \item $n=1$ \begin{gather*} (m+1) \cdot m \cdot a_1 = (m+1) \cdot a_1 - m^2 \cdot a_1 = 0\\ 2\cdot(m+1) \cdot a_1 = 0 \qquad \underbrace{\Rightarrow}_{m \in \mathbb{N}} \qquad a_1 = 0 \end{gather*} \item $n\geq2$ \begin{gather*} (m+n) \cdot (n + m - 1) \cdot a_n = (m+n) \cdot a_n + a_{n-2} - m^2 \cdot a_n = 0\\ \mathbf{((n+m)^2 - m^2)\cdot a_n + a_{n-2} = 0} \end{gather*} Rekursion f{\"u}r die Bestimmung f{\"u}r $n \geq 2$ (Differenzengleichung). Mittels Induktion ergibt sich f{\"u}r die ungeraden Koeffizienten immer 0. Betrachten nun die geraden Koeffizienten ($a_{2n}$): \begin{gather*} ((2\cdot n + m)^2 -m^2) \cdot a_{2n} + a_{2\cdot n - 2} = 0\\ \Rightarrow a_{2\cdot n} = -\frac{a_{2n-2}}{(2n+m)^2 - m^2} = -\frac{a_{2n-2}}{(2n+2m)\cdot 2n} = \\ = -\frac{a_{2n-2}}{4(n+m)\cdot n} = \underbrace{\dots}_{\text{iterieren}} = \\ (-1)^n \cdot \frac{a_0 \cdot m!}{4^n \cdot n! \cdot (n+m)!} \end{gather*} Die folgende Funktion ist somit eine L{\"o}sung der Bessel-Differen-tialgleichung ($a_0 \in \mathbb{R}$): \begin{gather*} \mathbf{y(x) = x^m \cdot a_0 \cdot \sum_{n=0}^\infty (-1)^n \cdot \frac{a_0 \cdot m!}{4^n \cdot n! \cdot (n+m)!}\cdot x^{2n}} \end{gather*} Frei w{\"a}hlbares $a_0$: Mit folgendem speziellen $a_0$ ergibt sich die \textbf{Bessel-Funktion 1. Art der Ordnung $\mathbf{m}$}: \begin{gather*} a_0 = \frac{1}{2^m \cdot m!} \\ \mathbf{J_m(x) = \frac{x^m}{2^m} \sum_{n=0}^\infty (-1)^n \cdot \frac{x^{2n}}{4^n \cdot n! \cdot (n+m)!}} \end{gather*} \end{itemize} \item $r_2=-m$ Nicht in der LVA behandelt, aber der Vollst{\"a}ndigkeit halber erw{\"a}hnt. Die zweite L{\"o}sung der Differentialgleichung in der Gestalt \begin{gather*} Y_m(x) = c\cdot J_m(x) \cdot \ln x + \frac{1}{x_m} \cdot P_2(x) \end{gather*} ($c \in \mathbb{R}$,$P_2$ ist Potenzreihe um $x_0$ (singul{\"a}re Stelle)) ist die \textbf{Bessel-Funktion 2. Art der Ordnung $\mathbf{m}$}($J_m$ und $Y_m$ bilden eine L{\"o}sungs-basis). \end{itemize} \item $\alpha = m \in \mathbb{R} \setminus \mathbb{Z}$ Berechnung analog wie bei $r_1$, nur statt dessen bei letzter Umformung statt $m!$ die Gamma-Funktion $\Gamma(\alpha +1)$. Der Vollst{\"a}ndigkeit halber (nicht in VOLVA behandelt) seien der Ansatz $a_0 = \frac{1}{2^\alpha \Gamma(\alpha +1)}$ (Gamma-Funktion ist eine h{\"o}here Funktion und als $\Gamma(x)=\int_0^\infty t^{x-1} e^{-t} \mathrm{d}t$ definiert) mit der folgenden L{\"o}sung erw{\"a}hnt: \begin{gather*} y(x) = \frac{x^\alpha}{2^\alpha} \cdot \sum_{n=0}^\infty (-1)^n \cdot \frac{1}{4^n \cdot n! \cdot \Gamma(n+\alpha+1)}\cdot x^{2n} \end{gather*} \end{itemize} \textbf{Erg{\"a}nzungen} \begin{itemize} \item Die Indexgleichung ist ein quadratisches Polynom mit zwei L{\"o}sungen $r_1$,$r_2$ \begin{itemize} \item Wenn $r_1 \neq r_2 \, \, \, \wedge \, \, \, r_1 - r_2 \not\in \mathbb{Z}$ - modifizierten Potenzreihenansatz verwenden - ergibt zwei unabh{\"a}ngige L{\"o}sungen: ($P(x)$ ist Potenzreihe) \begin{enumerate} \item $(x-x_0)^{r_1} \cdot P(x)$ \item $(x-x_0)^{r_2} \cdot P(x)$ \end{enumerate} \item $r_1=r_2 \, \, \, \wedge \, \, \, r_1 - r_2 \in \mathbb{Z}$ - w{\"a}hle das 'gr{\"o}ssere' $r$ ($r=\max(r_1,r_2)$) f{\"u}r den L{\"o}sungsansatz \begin{gather*} (x-x_0)^r \cdot P(x) \end{gather*} Liefert aber keine allgemeine L{\"o}sung (nur durch Variation der Konstanten erh{\"a}ltlich) \end{itemize} \end{itemize} \section{Lineare DGL n-ter Ordnung} \subsection{Grundlagen} \begin{gather*} a_n(x) \cdot y^{n}(x) + a_{n-1}(x) \cdot y^{n-1}(x) + \dots + a_1(x) \cdot y(x)' + a_0(x) y(x) = b(x) \end{gather*} ($a_n(x) \neq 0, a_0(x),\dots$ sind stetige Funktionen in einem offenen Intervall $I \subseteq \mathbb{R}$) $b(x)$ ist die St{\"o}rfunktion (inhomogener Anteil). Ist $b=0$ liegt eine homogene DGL vor. Zum \textbf{Satz vom L{\"o}sungsraum homogener linearer DGL $\mathbf{n}$-ter Ordnung}: $\varphi_1(x)$ und $\varphi_2(x)$ seien L{\"o}sungen der homogenen DGL - dann folgt daraus, dass $\alpha\cdot \varphi_1(x) + \beta\cdot \varphi_2(x)$ auch eine L{\"o}sung ist. Die Gesamtheit aller L{\"o}sungen bildet einen $n$-dimensionalen Vektorraum {\"u}ber $\mathbb{R}$. Die allgemeine L{\"o}sung der homogenen DGL lautet: \begin{gather*} y_h = c_1\cdot \varphi_1(x) + c_2\cdot \varphi_2(x) + \dots + c_n\cdot \varphi_n(x) \end{gather*} F{\"u}r alle Werte ($(y_0, y_0', y_0'', \dots, y_0^{(n-1)}) \in \mathbb{R}^n$ und $x \in I$ gilt: Das AWP $y^n(x) + \dots + a_0(x) \cdot y(x) =0$ mit $y^{(n)}(x_0) = y_0^{k}$ hat immer eine eindeutige L{\"o}sung. Die $n$ L{\"o}sungen der DGL ($\varphi_1(x), \dots, \varphi_n(x)$) bilden genau dann eine Basis des L{\"o}sungsraums (= L{\"o}sungsbasis, Fundamentalsystem), wenn die \textbf{Wronski-Determinante} $W(x) \neq 0$ f{\"u}r \emph{ein} $x \in I$ ist: \begin{gather*} W(x) = \Phi(x) = \begin{pmatrix} \varphi_1(x) & \varphi_2(x) & \ldots & \varphi_n(x) \\ \varphi_1'(x) & \varphi_2'(x) & \ldots & \varphi_n'(x) \\ \vdots & \vdots & \ddots & \vdots \\ \varphi_1^{n-1}(x) & \varphi_2^{n-1}(x) & \ldots & \varphi_n^{n-1}(x) \\ \end{pmatrix} \end{gather*} $\Rightarrow$ Vollst{\"a}ndige L{\"o}sung $y^{(n)}(x) = c_1\varphi_1(x) + \dots + c_n\varphi_n(x)$ mit $c_1, c_2 \in \mathbb{R}$. Der \textbf{Satz {\"u}ber dem L{\"o}sungsraum}: \begin{itemize} \item \textbf{Homogene DGL} Die homogene DGL hat die Form \begin{gather*} y^{(n)} + a_{n-1}(x)y^{(n-1)} + \dots + a_1(x)y' + a_0(x)y = 0 \end{gather*} und ihre allg. L{\"o}sung hat die Form \begin{gather*} y_{[h]}(x) = c_1\varphi_1(x) + c_2\varphi_2(x) + \dots + c_n\varphi_n(x) \end{gather*} \item \textbf{Inhomogene DGL} Die inhomogene DGLhat die Form \begin{gather*} y^{(n)} + a_{n-1}(x)y^{(n-1)} + \dots + a_1(x)y' + a_0(x) = s(x) \end{gather*} $s(x)$ ist eine St{\"o}rfunktion. Angenommen $\varphi_1, \dots \varphi_n$ sind unabh. L{\"o}sungen der homogenen DGL und bekannt - wie erh{\"a}lt man die \textbf{Partikul{\"a}rl{\"o}sung} $y_{[p]}$? Die allg. L{\"o}sung ergibt sich aus: \begin{gather*} y(x) = y_{[h]}(x) + y_{[p]}(x) \end{gather*} Erhalten \emph{eine} partikul{\"a}re L{\"o}sung {\"u}ber den Ansatz '\textbf{Variation der Konstanten}' ($c \Rightarrow c(x)$): \begin{gather*} y_{[p]}(x) := c_1\mathbf{(x)}\varphi_1(x) + c_2\mathbf{(x)}\varphi_2(x)+ \dots c_n\mathbf{(x)}\varphi_n(x) \end{gather*} F{\"u}r $c_1(x),\dots,c_n(x)$ gelten folgende Bedingungen: \begin{equation*} \begin{matrix} (1) & \, \, \,& c_1'(x)\varphi_1(x) & + & c_2'(x)\varphi_2(x) & + & \dots & + & c_n'(x)\varphi_n(x) & = & 0 \\ (2) & \, \, \, & c_1'x)\varphi_1'(x) & + & c_2'(x)\varphi_2'(x) & + & \dots & + & c_n'(x)\varphi_n'(x) & = & 0 \\ \vdots & & & & & & & & & & \\ (n-1) & \, \, \, & c_1'x)\varphi_1^{(n-2)}(x) & + & c_2'(x)\varphi_2^{(n-2)}(x) & + & \dots & + & c_n'(x)\varphi_n^{(n-2)}(x) & = & 0 \\ (n) & \, \, \, & c_1'x)\varphi_1^{(n-1)}(x) & + & c_2'(x)\varphi_2^{(n-1)}(x) & + & \dots & + & c_n'(x)\varphi_n^{(n-1)}(x) & = & s(x) \\ \end{matrix} \end{equation*} Folgendes Lineare Gleichungssystem ergibt f{\"u}r $c_1'(x),\dots,c_n'(x)$ eindeutige L{\"o}sungen: \begin{gather*} \underbrace{\begin{vmatrix} \varphi_1(x) & \varphi_2(x) & \hdots & \varphi_n(x) \\ \varphi_1'(x) & \varphi_2'(x) & \hdots & \varphi_n'(x) \\ \vdots & \vdots & \ddots & \vdots \\ \varphi_1^{[n-1]}(x) & \varphi_2^{[n-1]}(x) & \hdots & \varphi_n^{[n-1]}(x) \\ \end{vmatrix}}_{\text{Fundamentalmatrix}}\cdot \begin{pmatrix} c_1'(x) \\ c_2'(x) \\ \vdots \\ c_n'(x) \\ \end{pmatrix}= \begin{pmatrix} 0 \\ \vdots \\ \vdots \\ \mathbf{s(x)} \\ \end{pmatrix} \end{gather*} Wir erhalten $c_1(x),\dots,c_n(x)$ durch die Integration der aus dem Linearen Gleichungssystem errechneten $c_1'(x),\dots,c_n'(x)$ Anmerkung: Bei einer DGL 1. Ordnung sieht dieser Ansatz einfach so aus: $\varphi_1(x) \qquad \Rightarrow \qquad \varphi_1(x)\cdot c_1'(x) = s(x)$. \end{itemize} Beispiel einer \textbf{Eulerschen DGL}: \begin{gather*} x^2y'' - 2xy' + 2y = x^3 \end{gather*} Im ersten Schritt bestimmen wir das Fundamentalsystem $\varphi_1(x),\varphi_2(x)$ der zugeh{\"o}rigen homogenen DGL., und zwar mit dem Ansatz $\varphi(x)=x^m$: \begin{gather*} y(x)=x^r, \qquad y'(x)=rx^{r-1}, \qquad y''(x)=r(r-1)x^{r-2}\\ x^2r(r-1)x^{r-2} - 2xrx^{r-1} + 2x^r=0 \\ r(r-1)x^r - 2rx^r + 2x^r = 0 \qquad | \, \cdot \frac{1}{x^r}\\ r(r-1) - 2r + 2 = 0 \qquad \text{Indexgleichung}\\ r^2-3r+2=0 \qquad \Rightarrow \qquad (r-2)(r-1)=0 \qquad \Rightarrow \qquad \mathbf{r_{1,2} = 1,2} \end{gather*} Die L{\"o}sungen der homogenen DGL sind somit: $\varphi_1(x)=x^1=x$,$\varphi_2(x)=x^2$. Mit Hilfe der Wronski-Determinante (s.4.VO) pr{\"u}fen wir die Unabh{\"a}ngigkeit der L{\"o}sungen: \begin{gather*} W(x) = \begin{vmatrix} x & x^2 \\ 1 & 2x \\ \end{vmatrix} = 2x^2 - x^2 = x^2\\ W(1) = 1^2 = 1 \neq 0 \end{gather*} Somit sind die L{\"o}sungen unabh{\"a}ng{\'\i}g und die L{\"o}sung der homogenen DGL lautet: \begin{gather*} y_{[h]}(x) = c_1x + c_2x^2 \end{gather*} Nun wenden wir die 'Variation der Konstanten' an: \begin{gather*} \mathbf{x^2}y'' - 2xy' + 2y = x^3 \qquad | \,\, _ \frac{1}{x^2}\\ \mathbf{1}y'' - \frac{2}{x}y' + \frac{2}{x^2}y=x\\ \varphi_1=x, \varphi_2=x^2\\ \text{Ansatz}\qquad y_{[p]} = c_1(x)\varphi_1(x) + c_2(x)\varphi_2(x)\\ \begin{bmatrix} x & x^2 \\ 1 & 2x \\ \end{bmatrix}\cdot \begin{pmatrix} c_1'(x) \\ c_2'(x) \\ \end{pmatrix}= \begin{pmatrix} 0 \\ \frac{x^3}{x^2}=x \end{pmatrix}\\ \text{Cramer'sche Regel anwenden}\\ c_1'(x) = \frac{\begin{vmatrix} 0 & x^2 \\ x & 2x \\ \end{vmatrix}}{W(x)} = \frac{-x^3}{x^2} = x\\ c_2'(x) = \frac{\begin{vmatrix} x & 0 \\ 1 & x \\ \end{vmatrix}}{W(x)} = \frac{x^2}{x^2} = 1\\ \end{gather*} Nach Integration ergibt sich $c_1(x) = -\frac{x^2}{2}$ und $c_2(x)=x$ und damit: \begin{gather*} y_{[p]}(x) = -\frac{x^2}{2}\cdot x + x\cdot x^2 = \frac{x^3}{2}\\ \mathbf{y(x) = \frac{x^3}{2} + c_1x + c_2x^2} \qquad \text{allg.Lsg.} \end{gather*} Eine weitere Anwendung f{\"u}r die Variation der Konstanten ist die folgende: Es sei eine homogene lineare DGL gegeben und es sei angenommen, man kenne eine L{\"o}sung $\varphi_1(x)$. In diesem Fall f{\"u}hrt man eine Reduktion der Ordnung $n$ der DGL durch den \textbf{Reduktionsansatz} \begin{gather*} y(x)=\varphi_1(x)\cdot c(x) \end{gather*} durch, was eine DGL der Ordnung $n-1$ f{\"u}r $c'(x)$ ergibt. Beispiel (s. vorhergehendes): \begin{gather*} x^2y'' - 2xy' + 2y = 0, \qquad \varphi_1(x)=x\\ \text{Ansatz} \qquad y=c(x) x \qquad \Rightarrow \qquad y' = c'(x) + c\\ y''=c''x + c' + c' = c''x + 2c'\\ x^2(c''x + 2c') - 2x(c'x + c) + 2cx=0\\ x^3c''=0 \qquad \Rightarrow \qquad c''=0 \qquad \Rightarrow \qquad c'=1 \qquad \Rightarrow \qquad \mathbf{c=x}\\ y(x)=c(x)\cdot x = x\cdot x=x^2 \qquad \Rightarrow \qquad \text{unabh. Lsg.} \end{gather*} \subsection{Lineare DGL $n$-ter Ordnung mit konstanten Koeffizienten} Die allgemeine Form (\textbf{homogen}) ist: \begin{gather*} y^{(n)} + a_{n-1}y^{(n-1)} + \dots + a_1y' + a_0(x)y = 0 \qquad a_0,\dots,a_{n-1} \in \mathbb{R} \end{gather*} Verwendug des Exponentialansatzes $\mathbf{y(x)=e^{\lambda x}}$, was das folgende charakteristische Polynom von Grad $n$ ergibt: \begin{gather*} P(\lambda)=\lambda^n + a_{n-1}\lambda^{n-1} + \dots + a_1\lambda + a_0 = 0 \end{gather*} Nullstellen (Vielfachheit $k$): \begin{gather*} P(\lambda)=(\lambda - \lambda_1)^{k_1}\cdot(\lambda - \lambda_2)^{k_2}\cdot\dots\cdot(\lambda - \lambda_i)^{k_j} \\ \lambda_i \neq \lambda_j, \qquad 1 \leq j \leq i, \qquad \lambda_i \in \mathbb{C} \end{gather*} Die L{\"o}sungsbasis $\varphi_1(x),\dots,\varphi_n(x)$ der homogenen DGL erh{\"a}lt man wie folgt: \begin{itemize} \item Falls $\lambda$ eine reelle Nullstelle mit der Vielfachheit $k$ ist: $k_i$ ist unabh{\"a}ngige L{\"o}sung, gegeben durch $e^{\lambda_ix},xe^{\lambda_ix},x^2e^{\lambda_ix},\dots, x^{k-1}e^{\lambda_ix},$ \item Falls $\lambda=\alpha - i\beta$ eine komplexe Nullstelle mit der Vielfachheit $k$ ist, dann ist auch $\lambda_j = \alpha - i\beta$ eine komplexe Nullstelle mit der Vielfachheit $k_j$. Unabh{\"a}ngige L{\"o}sung ist gegeben durch \begin{gather*} e^{\alpha x} \cos (\beta x),xe^{\alpha x}\cos (\beta x), x^2e^{\alpha x} \cos (\beta x),\dots,x^{k-1}e^{\alpha x}\cos (\beta x)\\ e^{\alpha x} \sin (\beta x),xe^{\alpha x}\sin (\beta x), x^2e^{\alpha x} \sin (\beta x),\dots,x^{k-1}e^{\alpha x}\sin (\beta x) \end{gather*} \end{itemize} Die allgemeine Form (\textbf{inhomogen}) ist: \begin{gather*} y^{(n)} + a_{n-1}y^{(n-1)} + \dots + a_1y' + a_0(x)y = s(x) \qquad a_0,\dots,a_{n-1} \in \mathbb{R} \end{gather*} Zur L{\"o}sung kann die Variation der Konstanten verwendet werden oder bei speziellen $s(x)$ verschiedene unbestimmte Ans{\"a}tze, z.B.: \begin{gather*} s(x) = (c_0 + c_1x + \dots + c_mx^m)e^{\mu x}, \qquad \mu \in \mathbb{R}\\ \text{Ansatz} \qquad y_p(x) = (A_0 + A_1x + \dots + A_mx^m)e^{\mu x} \end{gather*} $\mu$ ist die L{\"o}sung des aus der zugeh{\"o}rigen homogenen DGL resultierenden charakteristischen Polynoms $P(\lambda)$. Wenn $\mu$ eine $k$-fache Nullstelle ist, so tritt der Resonanzfall auf und es gilt: \begin{gather*} \qquad y_p(x) = (A_0 + A_1x + \dots + A_mx^m)e^{\mu x}x^k \end{gather*} Anderes Beispiel: \begin{gather*} s(x) = (c_0 + c_1x + \dots + c_mx^m)e^{\alpha x} \cos (\beta x)\\ s(x) = (c_0 + c_1x + \dots + c_mx^m)e^{\alpha x} \sin (\beta x)\\ \text{Ansatz} \qquad y_p(x) = (A_0 + A_1x + \dots + A_mx^m)e^{\alpha x} \cos (\beta x) +\\ (A_0 + A_1x + \dots + A_mx^m)e^{\alpha x} \sin (\beta x) \end{gather*} (Falls $\alpha + i\beta$ keine Nullstelle des charakteristischen Polynoms $P(\lambda)$ ist) \begin{gather*} \text{Ansatz} \qquad y_p(x) = x^k(A_0 + A_1x + \dots + A_mx^m)e^{\alpha x} \cos (\beta x) +\\ x^k(A_0 + A_1x + \dots + A_mx^m)e^{\alpha x} \sin (\beta x) \end{gather*} (Falls $\alpha + i\beta$ $k-$fache Nullstelle des charakteristischen Polynoms $P(\lambda)$ ist) \section{L{\"o}sen von DGL mittels Laplace-Transformation} \subsection{Grundlagen} Gegeben ist eine Funktion $f(t) \, \, [0,\infty) \,\, \rightarrow \,\, \mathbb{R}$. Falls das uneigentliche Integral f{\"u}r zumindest ein $s \in \mathbb{R}$ existiert, dann hei{\ss}t $F(s)$ (Bildfunktion) die \textbf{Laplace-Transformierte (L-transformierte)} von $f(t)$ (Zeitfunktion): \begin{gather*} \mathbf{F(s) = \mathcal{L} \{ f(t) \} = \int_0^\infty f(t) \cdot e^{-s\cdot t} \, dt} \end{gather*} Der \textbf{Existenz- und Eindeutigkeitssatz f{\"u}r L-transformierte}: \begin{itemize} \item Ist die Funktion $f: \, [0,\infty) \, \, \rightarrow \, \, \mathbb{R}$ auf beschr{\"a}nkten Intervallen st{\"u}ckweise stetig (d.h. sie besitzt in Intervallen nur endlich viele Sprungstellen) und $f(t)$ hat h{\"o}chstens exponentielles Wachstum, d.h. es existieren Konstanten $M,\delta > 0$ \begin{gather*} |f(t)| \leq Me^{\delta t}, \qquad t \geq 0 \end{gather*} dann gilt: \begin{itemize} \item $F(s) = \mathcal{L} \{f(t)\}$ existiert f{\"u}r alle $s > \delta$ \item Das uneigentliche Integral $\int_0^\infty f(t) \cdot e^{-s\cdot t} \, dt$ konvergiert f{\"u}r alle $s \geq s_0 > \delta$ gleichm{\"a}ssig \item $f(t)$ ist durch $F(s)$ eindeutig bestimmt (bis auf die Sprungstellen). Die R{\"u}cktransformierbarkeit ist daher gew{\"a}hrleistet \item $\lim_{s\rightarrow\infty} F(s) = 0$ \end{itemize} \end{itemize} Es gibt allerdings auch $\mathcal{L}$-transformierbare Funktionen, die o.g. Bedingungen nicht vollst{\"a}ndig gen{\"u}gen. $f(t)$ ist der . Es gilt: \begin{gather*} \mathcal{L} \{f(t)\} =: F(s) = \int_0^\infty e^{-s\cdot t}\cdot f(t) \, \operatorname{d} t \end{gather*} Inverse Transformation $\mathcal{L}^{-1} \{F(s)\}$ \begin{center} \begin{tabular}{|c|c|} % after \\: \hline or \cline{col1-col2} \cline{col3-col4} ... \hline $f(t)$ & $F(s)$ \\ \hline $1$ & $\frac{1}{s}$ \\ \hline $e^{a\cdot t}$ & $\frac{1}{s-a}$ \\ \hline $\cos(\omega \cdot t)$ & $\frac{s}{s^2 + \omega^2}$ \\ \hline $\sin(\omega \cdot t)$ & $\frac{\omega}{s^2 + \omega^2}$ \\ \hline \end{tabular} \end{center} Beispiel: \begin{gather*} e^{a\cdot t} \qquad a = \alpha + i\cdot \beta \qquad\\ F(s) = \int_0^\infty e^{a\cdot t} \cdot e^{-s\cdot t} \, \operatorname{d} t = \int_0^\infty e^{(a-s)\cdot t} \operatorname{d}_t = \frac{\overbrace{e^{(a-s)\cdot t}}^{\text{wenn } a-s < 0 \text{ dann ok}}}{a-s}|_0^\infty = \\ \lim_{t \rightarrow \infty} \underbrace{\frac{e^{(a-s)\cdot t}}{a-s}}_{\rightarrow 0} - \frac{1}{a-s} = \frac{1}{s-a}\\ \text{ }\\ \cos (\omega \cdot t), \sin (\omega \cdot t): \, \, \text{setze } \, a= 0 + i \cdot \omega\\ e^{i\omega t} = \cos (\omega \cdot t) + i \cdot \sin (\omega \cdot t)= \dots \end{gather*} \subsection{Rechenregeln} $f(t)$, $g(t)$ - Zeitfunktion $\overbrace{\longrightarrow}^{\mathcal{L}} F(s), G(s)$ \begin{itemize} \item \emph{Linearit{\"a}t} \begin{gather*} \mathcal{L} \{\alpha \cdot f(t) + \beta \cdot g(t) \} = \alpha \cdot \mathcal{L} \{f(t)\} + \beta \cdot \mathcal{L} \{g(t)\}= \alpha \cdot F(s) + \beta \cdot G(s) \end{gather*} Beispiel: \begin{gather*} \cosh t = \frac{e^t + e^{-t}}{2} \\ \mathcal{L} \{\cosh t \} = \frac{1}{2} \mathcal{L} \{e^t\} + \frac{1}{2} \mathcal{L} \{e^{-t}\} = \frac{1}{2}\frac{1}{s-1} + \frac{1}{2}\frac{1}{s+1}= \frac{s}{s^2-1}\\ \text{ }\\ \sinh t = \frac{e^t - e^{-t}}{2} \qquad \text{analog} \end{gather*} \item \emph{Streckung} \begin{gather*} \mathcal{L} \{f(c\cdot t)\} = \frac{1}{c} \cdot F(\frac{s}{c}), c > 0 \end{gather*} Beweis: Variable im Integral substituieren \item \emph{Differentiation und Integration im Zeitbereich} \begin{gather*} \mathcal{L} \{f'(t) \} = s\cdot F(s) - \underbrace{f(0^+)}_{\text{rechtsseitiger Grenzwert an der Stelle } 0 } \end{gather*} Voraussetzungen: \begin{enumerate} \item $f$,$f'$ $\mathcal{L}$-transformierbar \item $f$ stetig auf $[0,\infty)$ \end{enumerate} \begin{gather*} \mathcal{L} \{f^{(n)} (t)\} = s^n \cdot F(s) - s^{n-1}\cdot f(0^+) - s^{n-2}\cdot f'(o^+) - \dots - f^{n-1}(0^+) \end{gather*} Voraussetzungen f{\"u}r die Integration analog denen von der Differentiation: \begin{gather*} \mathcal{L} \{ \int_0^t f(\tau ) \operatorname{d}\tau \} = \frac{F(s)}{s} \end{gather*} \end{itemize} Beispiel: \begin{gather*} f(t) = t, \mathcal{L}\{t\} = ?\\ f'(t) = 1, \qquad \mathcal{L} \{f'(t)\} = s\cdot F(s) =\mathcal{L} \{1\} = \frac{1}{s}\\ s\cdot F(s) - f(0^+) = s \cdot F(s)\\ \Rightarrow \, \, F(s) \cdot s = \frac{1}{s} \, \, \Rightarrow \, \,F(s) = \frac{1}{s^2} \end{gather*} Analog: $f(t) =t^n, n = 1,2,3,\dots$ \begin{gather*} f^{(n)}(t) = n(n-1)(n-2)\dots1\cdot t^0 = n' \cdot t\\ \mathcal{L} \{f^{(n)}(t)\}=s^n\cdot F(s) \\ \mathcal{L} \{f^{(k)}(t)\}=n' \cdot \mathcal{L}\{1\} = n' \cdot \frac{1}{s}\\ \Rightarrow F(s)=\mathcal{L}\{t^n\} = \frac{n'}{s^{n+1}} \end{gather*} Weitere wichtige Eigenschaften: \begin{itemize} \item \emph{Differentiation und Integration im Bildbereich} \begin{gather*} \mathcal{L} \{t \cdot f(t) \} = -\frac{\operatorname{d}}{\operatorname{d} s}F(s) = -F'(s)\\ \mathcal{L} \{t \cdot f(t) \} = (-1)^n \cdot \frac{\operatorname{d}^n}{\operatorname{d} s^n}F(s) = (-1)^n \cdot F^{(n)}(s)\\ \mathbf{\mathcal{L} \{ \frac{f(t)}{t} \} = \int_s^\infty F(u) \cdot \operatorname{d} u} \end{gather*} Beispiel: \begin{gather*} \mathcal{L} \{t \cdot \sin (\omega t) \} = -\frac{\operatorname{d}}{\operatorname{d} s}\cdot F(s) = -\frac{\operatorname{d}}{\operatorname{d} s}\cdot \frac{\omega}{s^2+\omega^2}= \frac{2s}{(s^2-\omega^2)^2} \end{gather*} \item \emph{D{\"a}mpfung und Verschiebung} \begin{figure}[htbp] \centering \includegraphics[scale=0.3]{verschiebung.eps} \caption{Dämpfung und Verschiebung} \label{fig:gi} \end{figure} \begin{gather*} \mathcal{L} \{ e^{-\mathbf{a}t} \cdot f(t) \} = F(s+a), \qquad f(t): [0,\infty] \rightarrow \mathbb{R}, a>0\\ \mathcal{L} \{f(t-a) \cdot u (t-a)\} = e^{-as}\cdot F(s) \\ u(t) \text{ ... Heavisidische Sprungfunktion} \end{gather*} \begin{figure}[htbp] \centering \includegraphics[scale=0.8]{heaviside.eps} \caption{Heavisidische Sprungfunktion} \label{fig:gi} \end{figure} \begin{gather*} u(t) = \begin{cases} 1 & t \geq 0 \\ 0 & t < 0 \end{cases}\\ \mathcal{L} \{u(t-a)\} = e^{-as} \cdot \frac{1}{s} \end{gather*} Beispiel: $\mathcal{L}$-Transformation der Rechteckperiode $T$, Amplitiude $A$ ($T,A > 0$): \begin{figure}[htbp] \centering \includegraphics[scale=0.3]{ltraforechteck.eps} \caption{$\mathcal{L}$-Transformation der Rechteckperiode $T$, Amplitiude $A$} \label{fig:gi} \end{figure} \begin{gather*} f(t) = [2A \sum_{k=0}^\infty (-1)^k u(t- \frac{nT}{2})] - A \end{gather*} F{\"u}r jedes $t$ ist die Reihe nur eine endliche Reihe - $0 \leq t < \frac{T}{2}$, nur $n=0$ liefert: \begin{gather*} f(t)=2A\cdot\underbrace{(-1)^0}_{=1} \cdot \underbrace{u(t)}_{=1} - A = 2A - A = A \end{gather*} $\frac{T}{2} \leq t < T: n = 0$ und $n=1$ liefert: \begin{gather*} f(t)=2A\cdot\underbrace{(-1)^0}_{=1} \cdot \underbrace{u(t)}_{=1} + 2A(-1)^1 \cdot u(t-\frac{T}{2}) - A = 2A - 2A - A = -A\\ \text{ }\\ \mathcal{L} \{ f(t)= \} = 2A \mathcal{L} \{ \sum_{n=0}^\infty (-1)^n \cdot u(t-\frac{nT}{2})\} - A \cdot \mathcal{L} \{ 1 \} =\\ 2A \int_0^\infty e^{-st} \sum_{n=0}^\infty (-1)^n u(t-\frac{nT}{2}) \operatorname{d} t - \frac{A}{s} =\\ 2A \int_0^\infty \sum_{n=0}^\infty e^{-st}(-1)^n u(t-\frac{nT}{2}) \operatorname{d} t - \frac{A}{s} =\\ 2A \sum_{n=0}^\infty \int_0^\infty e^{-st}(-1)^n u(t-\frac{nT}{2}) \operatorname{d} t - \frac{A}{s} \blacksquare \end{gather*} $\blacksquare \,$ Darf man hier machen, ist aber i.A. \emph{nicht}erlaubt! \item \emph{Gleichm{\"a}{\ss}ige Konvergenz von Funktionenfolgen} Definition: Eine Funktionenfolge $f_0(x)$, $f_1(x), \dots$ heisst auf einem Intervall $I \subseteq \mathbb{R}$ gleichm{\"a}ssig konvergent gegen eine Funktion $f(x)$, wenn $\forall \epsilon > 0$ ein von $x$ unabh{\"a}ngiger Index $N = N_\epsilon > 0$ existiert, sodass \begin{gather*} n \geq N: |f_n(x) - f(x)| \leq \epsilon, \forall x \in I \end{gather*} Satz: Wenn $(f_n(x))_{n \in \mathbb{N}}$ gleichm{\"a}ssig auf $I$ gegen $f(x)$ konvergiert, dann gilt: \begin{gather*} \lim_{n \rightarrow \infty} \int_a^b f(n) \, \operatorname{d} x = \int_a^b \lim_{n \rightarrow \infty} f(n) \, \operatorname{d} x = \int_a^b f(n) \, \operatorname{d} x \end{gather*} Betrachten Reihe: \begin{gather*} \int_a^b \sum_{k=0}^\infty f_k(x) \operatorname{d} x = \sum_{k=0}^\infty \int_a^b f_k(x) \operatorname{d} x \end{gather*} Integration und Summation einer Reihe $\sum_{k=0}^\infty$ d{\"u}rfen vertauscht werden, wenn die Folge der Partialsummen \begin{gather*} s(n) (x) = \sum_{k=0}^\infty f_k(x) \end{gather*} gleichm{\"a}ssig gegen \begin{gather*} s(n) (x) = \sum_{k=0}^\infty f_k(x) \end{gather*} konvergiert. \item \emph{Weierstrass'scher M-Test} F{\"u}r gleichm{\"a}ssige Konvergenz von Funktionenreihen $\sum_{n=0}^\infty f_k(x)$: Wenn f{\"u}r jede Funktion $f_k(x)$ ein Wert $M \geq 0$ angegeben werden kann, sodass \begin{gather*} |f_k(x)| \leq M_k \qquad \forall x \in \mathbb{R} \end{gather*} und $\sum_{n=0}^\infty M_k < \infty$, dann folgt daraus: Reihe $\sum_{n=0}^\infty f_k(x)$ konvergiert gleichm{\"a}ssig auf $I$. \begin{gather*} \mathcal{L} \{ f(t) \} = 2A \int_0^\infty \sum_{n=0}^\infty e^{-st}\cdot(-1)^n \cdot u(t - \frac{n\cdot T}{2})\operatorname{d} t - \frac{A}{s} = \blacksquare \end{gather*} $\int$ und $\sum$ sind wegen gleichm{\"a}ssiger Konvergenz vertauschbar. \begin{gather*} f_k(t) = e^{-st}\cdot (-1)^k \cdot u(t-\frac{k\cdot T}{2})\\ |f_k(t)| = |\underbrace{e^{-st}}_{s > 0}|\cdot (-1)^k \cdot u(\underbrace{t-\frac{k\cdot T}{2}}_{\text{Sprungfunktion}}) \leq |e^{-s\cdot \frac{k\cdot T}{2}}|= e^{-s\cdot \frac{k\cdot T}{2}} = M_k\\ t = \frac{K\cdot t}{2}, \qquad 0 \leq t < \frac{K\cdot T}{2}\,\, \Rightarrow u(t-\frac{K\cdot T}{2})=0\\ \sum_{n=0}^\infty M_k = \sum_{n=0}^\infty {(e^{\frac{-st}{2}})}^k = \frac{1}{1 - e^{\frac{-st}{2}}}< \infty, s > 0 \, \surd \end{gather*} Fortsetzung bei $\blacksquare$: \begin{gather*} 2A \sum_{n=0}^\infty \int_0^\infty e^{-st}(-1)^k - u(t-\frac{kT}{2})\operatorname{d} t - \frac{A}{s} =\\ 2A \sum_{n=0}^\infty (-1)^k - \mathcal{L}\{u(t-\frac{kT}{2})\} - \frac{A}{s} =\\ 2A \sum_{n=0}^\infty (-1)^k - e^{-\frac{Ts}{2}} - \frac{1}{s} - \frac{A}{s} =\\ \frac{2A}{s} \sum_{n=0}^\infty e^{-\frac{Ts}{2}} - \frac{A}{s} = \frac{2A}{s} \frac{1}{1+e{-\frac{Ts}{2}}} - \frac{A}{s}\\ \frac{A}{s} \cdot (\frac{2}{1+e{-\frac{Ts}{2}}} - 1) = \frac{A}{s} \cdot \frac{1-e{-\frac{Ts}{2}}}{1+e{-\frac{Ts}{2}}} = \frac{A}{s} \tanh (\frac{sT}{k}) \end{gather*} \item \emph{Faltung} \begin{gather*} (f \ast g)(t) = \int_0^t f(\tau ) \cdot g(t-\tau) \operatorname{d}\tau \\ \mathcal{L} \{(f \ast g)(t) \} = F(s) \cdot G(s) \end{gather*} \item \emph{Umkehrformel} Gegegben $F(s)$ - g{\"u}ltig falls $F(\delta)$ existiert \begin{gather*} \underbrace{\frac{f(t^+) + f(t^-)}{2}}_{=f(t) \text{ falls stetig}}= \frac{1}{2\pi} \int_{-\infty}^{+\infty} e^{(\delta + i\omega) \cdot t} \cdot F(\delta + i\omega) \operatorname{d}\omega \end{gather*} \end{itemize} \subsection{Anwendungen der $\mathcal{L}$-Transformation} \subsubsection{AWP f{\"u}r lineare DGL mit konst. Koeffizienten} Vorteil: Die Anfangswerte werden sofort eingesetzt. Vorgangsweise: DGL $\mathcal{L}$-transformieren - ergibt eine lineare Gleichung f{\"u}r $X(s)$ (=$\mathcal{L}$-transformierbar); danach L{\"o}sung der Gleichung und Rücktransformation ($\mathcal{L}^{-1}$) mit \begin{itemize} \item Rechenregeln \item Tabellen \end{itemize} Beispiel: \begin{gather*} \ddot{x}(t) + 4x(t) = \sin(\omega t), \qquad \omega > 0, \,\, x(0)=c_1, \dot{x}=c_2 \end{gather*} $\mathcal{L}$-transformieren: \begin{gather*} \mathcal{L}\{x(t)\} := X(s)\\ \mathcal{L}\{\ddot{x} + 4x \} = \mathcal{L}\{ \sin (\omega t)\}\\ \mathcal{L}\{\underbrace{\ddot{x}}_{\square}\} + 4\mathcal{L}\{\underbrace{x}_{\blacksquare}\} = \mathcal{L}\{ \underbrace{\sin (\omega t)}_{\lozenge}\}\\ \square \qquad s^2X(s) - s\underbrace{x(0)}_{c_1} - \underbrace{x(0)}_{c_2}\\ \blacksquare \qquad 4X(s)\\ \lozenge \qquad \frac{\omega}{\omega^2 + s^2}\\ \square + \blacksquare = \lozenge\\ X(s)(s^2 + 4) = \frac{\omega}{\omega^2 + s^2}\\ X(s) = \frac{1}{s^2 + 4}[ \frac{\omega}{\omega^2 + s^2} + c_1s + c_2]=\\ \frac{c_1s}{s^2+4} + \frac{\mathbf{2}c_2}{\mathbf{2(s^2+4)}}+\frac{\omega}{\omega^2 + s^2}\\ x(t)=\mathcal{L}^{-1}\{X(s)\} = c_1\cos (2t) + \frac{c_2}{\mathbf{2}}\sin(2t) + \begin{cases}\frac{1}{2(\omega^2 -4)}(\omega\sin (2t) - 2\sin(\omega t)) & \omega \neq 2 \\\frac{1}{8}(\sin (2t) - 2t\cos(2t)) & \omega = 2 \blacklozenge \end{cases}\\ \blacklozenge \qquad \text{Resonanzfall, s. Vachenauer 2, S.72} \end{gather*} \subsubsection{AWP f{\"u}r lineare DGL mit nichtkonstanten Koeffizienten} I.A. liefert die $\mathcal{L}$-Transformation keine Erleichterung, in Spezialf{\"a}llen jedoch eine 'einfachere' DGL im Bildbereich. Beispiel: \begin{gather*} t\ddot{x} - x = 0 \end{gather*} Ist eine DGL 2. Ordnung im Zeitbereich, $\mathcal{L}\{x(t)\} := X(s)$: \begin{gather*} \mathcal{L}\{t\ddot{x} - x\} = \mathcal{L}\{t\ddot{x}\} - \mathcal{L}\{x\} = -\frac{\operatorname{d}}{\operatorname{d} s} \mathcal{L}\{\ddot{x}\} - [sX(s) - x(0)]=\\ -\frac{\operatorname{d}}{\operatorname{d} s} (s^2X(s) - sx(0) - x(0)) - sX(s) + x(0) = \\ 2sX(s) - s^2X'(s) + x(0) - sX(0) + x(0) =0\\ -s^2X'(s) - 3sX(s) = -2x(0)\\ x'(s) + \frac{3}{s}X(s) = \frac{2x(0)}{s^2}\\ \text{DGL 1.Ordnung im Bildbereich}\\ X(s)=\frac{x(0)}{s} + \frac{C}{s^3}, \qquad C \in \mathbb{R}\\ x(t)=\mathcal{L}^{-1}\{X(s)\} = x(0) + \frac{c}{2}t^2 \end{gather*} \subsubsection{Elektrische Schaltungen (RCL-Schwingkreis)} Schalelemente: Widerstand, Kondensator, Spule Spannung $u(t)=u_R(t) + u_C(t) + u_L(t)$ (Kirchhoff'sche Regel) \begin{figure}[htbp] \centering \includegraphics[scale=0.5]{RCL.eps} \caption{RCL-Schwingkreis} \label{fig:gi} \end{figure} Stromst{\"a}rke $i(t)$, $i(0)=0$ $I(s) = \mathcal{L}\{i(t)\}$, $U(s) = \mathcal{L}\{u(t)\}$ \begin{center} \begin{tabular}{|c|c|} \hline % after \\: \hline or \cline{col1-col2} \cline{col3-col4} ... Zeitbereich & Bildbereich \\ \hline $u_R(t) = Ri(t)$ & $U_R(s) = RI(s)$ \\ $u_C(t) = \frac{1}{C}\int_0^t i(\tau) \operatorname{d} \tau$ & $U_c(s) = \frac{1}{C} \cdot \frac{I(s)}{s} )0 \frac{1}{cs}I(s)$ \\ $u_L(t) = Li(t)$ & $U_L(s) = LsI(s)$ \\ \hline \end{tabular} \end{center} Im Bildbereich gilt das Ohmsche Gesetz: \begin{gather*} U(s) = H(s) \cdot I(s) \qquad \text{mit} \qquad H(s) = R + \frac{1}{cs} + Ls \end{gather*} Nach L{\"o}sung im Bildbereich R{\"u}cktransformation notwendig. \subsubsection{L{\"o}sen von Integralgleichungen} Integralgleichungen sind Funktionalgleichungen, in denen die gesuchte Funktion als Integrand in einem best. Integral vorkommt. Best. Integralgleichungstyp: \begin{gather*} y(t) + \int_0^t \kappa(\tau) y(t-\tau) \operatorname{d}\tau = f(t)\\ f(t), g(t), \qquad \underbrace{(f \ast g)(t) = \int f(\tau) \cdot g(t-\tau) \operatorname{d} t}_{\text{Faltung}} \end{gather*} $\mathcal{L}$-Transformierte: \begin{gather*} Y(s) + \kappa(s) \cdot Y(s) = F(s) \qquad \Rightarrow \qquad Y(s) = \frac{F(s)}{1+\kappa(s)} \end{gather*} Voraussetzung: $y$,$\kappa$,$f$ m{\"u}ssen $\mathcal{L}$-transformierbar sein. Beispiel: \begin{gather*} y(t) + \int_0^t y(\tau) \sin(t-\tau) \operatorname{d}\tau = 1\\ Y(s) + \frac{1}{s^2 + 1}\cdot Y(s) = \frac{1}{s}\\ Y(s) = \frac{1}{s(1+\frac{1}{s^2+1})} = \underbrace{\frac{s^2 + 1}{s(s^2+s)}}_{\bigstar} \,\, \blacktriangleright\\ \bigstar \qquad \text{Partialbruchzerlegung} \\ \frac{s^2 + 1}{s(s^2+2)} = \frac{A}{s} + \frac{Bs + C}{s^2+2}\\ s^2 + \mathbf{1} = A(s^2+2) + (Bs+C) = (A+B)s^2 + Cs + \mathbf{2A}\\ 1 = 2A \qquad \Rightarrow \qquad A = \frac{1}{2}\\ 0 = Cs \qquad \Rightarrow \qquad C = 0\\ 1 = A + B \qquad \Rightarrow \qquad B = \frac{1}{2}\\ \blacktriangleright \qquad = \frac{1}{s} + \frac{s}{2(s^2+s)}\\ y(t)=\mathcal{L}^{-1}(Y(t)) = \mathcal{L}^{-1}\{\frac{1}{2s}\} + \mathcal{L}^{-1}\{\frac{s}{2(s^2 + 2)}\}=\mathbf{\frac{1}{2} + \frac{1}{2} \cos(\sqrt{2}t)} \end{gather*} \section{RWA, RWP: Randwertaufgaben, -probleme} Definition: Treten in der Bestimmungsgleichung f{\"u}r die eindeutige Charakterisierung der L{\"o}sung einer DGL Auswertungen der gesuchten Funktion und deren Ableitungen nicht nur an einer Stelle (wie beim AWP), sondern an zwei Stellen $a \neq b$ auf, dann spricht man von einer \textbf{Randwertaufgabe (RWA)} bzw. von einem \textbf{Randwertproblem (RWP)}. Allgemeines Prinzip zur L{\"o}sung von RWA/RWP: \begin{itemize} \item Auffinden der allgemeinen L{\"o}sung der gegebenen DGL (mit Parametern $c_1, c_2, \dots, c_n$) \item Anpassen der Koeffizienten $c_1, c_2, \dots, c_n$ durch Einsetzen der Randbedingungen in die allgemeine L{\"o}sung \end{itemize} $\Rightarrow \qquad$ Gleichungssystem $c_1, c_2, \dots, c_n$ Spezialfall: DGL ist linear und Randbedingungen sind auch Linear $\qquad \Rightarrow \qquad$ Lineares Gleichungssystem f{\"u}r $c_1, c_2, \dots, c_n$. Falls nichtlineare RWA/RWP, so ist das Problem i.A. wesentlich komplizierter. Beispiel: Biegebalken \begin{figure}[htbp] \centering \includegraphics[scale=0.3]{Biegebalken_1.eps} \caption{Biegemoment und Biegesteifigkeit beim Biegebalken} \label{fig:gi} \end{figure} $y(x)$ ist dabei die Auslenkung (Elongation) an der Stelle $x$. Die das Modell beschreibende DGL f{\"u}r $y(x)$ lautet (vereinfacht): \begin{gather*} y''(x) = -\frac{M(x)}{E(x)} = -b(x) \end{gather*} Deren allgemeine L{\"o}sung ist: \begin{gather*} y(x) = c_1x + c_2 - \int_0^x\int_0^\xi b(\eta)d\eta d\xi \end{gather*} Betrrachten RWA: Tr{\"a}ger fest aufliegend \begin{figure}[htbp] \centering \includegraphics[scale=0.3]{Biegebalken_2.eps} \caption{Biegebalken: RWA-Träger fest aufliegend} \label{fig:gi} \end{figure} Am Ende fest - daraus folgt: $y(0) = 0$, $y(l)=0$. Einsetzen de Randbedingungen: \begin{gather*} 0 = y(0) = c_1 \cdot 0 - c_2 - \underbrace{y_p(0)}_{=0} \qquad \Rightarrow \qquad c_2 = 0\\ 0 = y(l) = c_1 \cdot l + \underbrace{c_2}_{=0} - y_p(l) \qquad \Rightarrow \qquad c_1 = \frac{y_p(l)}{l} \end{gather*} $\Rightarrow \qquad$ egal wie $M(x)$, $E(x)$ gew{\"a}hlt werden - die RWA hat immer eine eindeutige L{\"o}sung. RWA: an Enden eingespannt \begin{figure}[htbp] \centering \includegraphics[scale=0.3]{Biegebalken_3.eps} \caption{Biegebalken: RWA-an Enden eingespannt} \label{fig:gi} \end{figure} Es gilt: $y'(0) = \varphi_1$, $y'(l) = \varphi_2$ Allgemeine L{\"o}sung: \begin{gather*} y(x) = c_1x + c_2 - y_p(x) \end{gather*} Zwei Gleichungen ($I$,$II$): \begin{gather*} I: \qquad \varphi_1 = y(0) = c_1 - \underbrace{y_p'(0)}_{=0} = c_1\\ II: \qquad \varphi_2 = y(l) = c_1 - y_p'(l) = c_1 - y_P'(l)\\ y_p(x) = \int_0^x\int0^\xi b(\eta)\operatorname{d}\eta\operatorname{d}\xi\\ y_p'(x) = \int_0^x b(\eta) \operatorname{d}\eta \end{gather*} Es sind zwei f{\"a}lle zu Unterscheiden: $c_1 = \varphi_1$, $c_1 = \varphi_2 + y_p'(l)$: \begin{enumerate} \item $\varphi_1 \neq \varphi_2 + y_p'(l)$ - keine L{\"o}sung \item $\varphi_1 = \varphi_2 + y_p'(l)$ - unendlich viele L{\"o}sungen weil $c_2$ frei w{\"a}hlbar. \end{enumerate} Daraus folgt: \textbf{Es kann keinen EE-Satz f{\"u}r RWA/RWP geben!} Vergleiche hierzu Lineare Gleichungssysteme: $n$ Gleichungen f{\"u}r $n$ Unbekannte - $A\cdot\vec{x} = \vec{b}$ \begin{itemize} \item $det \, A \neq 0$ - LGS mit Lsg. f{\"u}r jedes $\vec{b}$ \item $det \, A = 0$ - LGS hat entweder unendlich viele L{\"o}sungen oder keine. \end{itemize} \subsection{Lineare RWA} Lineares DGL: $L[y] = y(x)^{n} + a_{n-1}\cdot y(x)^{n-1} + a_{n-2}\cdot y(x)^{n-2} + \dots + a_0\cdot y(x) = b(x)$. Lineare Randbedingungen: $n$ Gleichungen (Stelle $a$): \begin{gather*} \dot{x} = A(t) + b(t)\\ Rx(a) + Sx(b) = R, \qquad \text{Rang}(R,S) = n \end{gather*} Klassifikation: \begin{itemize} \item inhomogene lineare RWA: $b(x) \neq 0 \wedge r \neq 0$ \item vollhomogene lineare RWA: $b(x) = 0 \wedge r = 0$ \item halbhomogene lineare RWA: $b(x) = 0 \vee r = 0$ \end{itemize} Bemerkung: Vollhomogene RWP besitzen immer die triviale L{\"o}sung $x(t)=0$. Das halbhomogene RWP muss i.A. keine L{\"o}sung haben. Jede L{\"o}sung (soferne existent) $y(x)$ des inhomogenen RWP l{\"a}sst sich wie folgt schreiben (folgt dem Superpositionssatz): \begin{gather*} y(x) = y_h(x) + y_p(x) \end{gather*} Wobei $y_p(x)$ die spezielle L{\"o}sung des inhomogenen RWP ist ist; $y_h(x)$ eine L{\"o}sung des vollhomogenen RWP. \subsection{RWP - Alternativs{\"a}tze} Fall: halbhomogenes lineares RWP: \begin{itemize} \item homogene lineare DGL: $L[y] := y^{(n)}(x) + a_{n-1}y^{(n-1)}(x) + \dots + a_0y(x) = 0$ \item inhomogene lineare Randbedingung: $R=\vec{y}(a) + S\vec{y}(b) = \vec{p}$ \begin{gather*} \vec{y}(x)=\begin{pmatrix} y(x) \\ y'(x) \\ \vdots \\ y^{(n-1)}(x) \\ \end{pmatrix} \end{gather*} \end{itemize} Allg. Lsg. der homogenen linearen DGL ($\varphi_1,\dots,\varphi_n$ L{\"o}sungsbasis): \begin{gather*} y(x) + c_1\varphi_1(x) + c_2\varphi_2(x) + \dots + c_n\varphi_n(x)\\ \vec{\varphi}_i(x) = \begin{pmatrix} \varphi_i(x) \\ \varphi_i'(x) \\ \vdots \\ \varphi_i^{(n-1)}(x) \\ \end{pmatrix}\\ \Rightarrow \,\, R(c_1\vec{\varphi}_1(a) + c_2\vec{\varphi}_2(a)+ \dots + c_n\vec{\varphi}_n(a)) + \\S(c_1\vec{\varphi}_1(b) + c_2\vec{\varphi}_2(b)+ \dots + c_n\vec{\varphi}_n(b)) = \vec{p}\\ = R \Phi(a) \vec{c} + S \Phi(b) \vec{c} = \vec{p} \qquad \text{wobei}\\ \Phi(x) = (\vec{\varphi}_1(x) \, | \, \vec{\varphi}_2(x) \, | \, \dots \, | \, \vec{\varphi}_n(x)) = \begin{pmatrix} \varphi_1(x) & \varphi_2(x) & \cdots & \varphi_n(x) \\ \varphi_1'(x) & \varphi_2'(x) & \cdots & \varphi_n'(x) \\ \vdots & \vdots & & \vdots \\ \varphi_1^{(n-1)}(x) & \varphi_2^{(n-1)}(x) & \cdots & \varphi_n^{(n-1)}(x) \\ \end{pmatrix}\\ \vec{c} = \begin{pmatrix} c_1 \\ c_2 \\ \vdots \\ c_n \\ \end{pmatrix}\\ \Rightarrow \, \text{ LGS } \, \underbrace{[R\Phi(a) + S\Phi(b)]}_{\text{D}}\cdot \vec{c} = \vec{p} \qquad \mathbf{D \cdot \vec{c} = \vec{p}} \end{gather*} LGS ist mit $n$ Unbekannten $c_1, \dots, c_n$ und $n$ Gleichungen sowie mit $n\times n$ Matrix $D$. \begin{itemize} \item $\operatorname{det} \, D \neq 0$ - LGS f{\"u}r alle $\vec{p}$ eindeutig l{\"o}sbar \item $\operatorname{det} \, D = 0$ - LGS hat entweder keine oder unendlich viele Lsg. \end{itemize} \textbf{Alternativsatz}: Gegeben sei ein halbhomogenes lineares RWP $L[y]=0$, $R\cdot\vec{y}(a) + S\cdot\vec{y}(b)=\vec{p}$. Seien $\varphi_1(x), \dots, \varphi_n(x)$ eine L{\"o}sungsbasis der zugeh{\"o}rigen homogenen DGL und sei $D:=R\cdot\Phi(a) + S\cdot\Phi(b)$, $\Phi$ definiert wie oben (=Fundamentalmatrix), dann gilt: \begin{enumerate} \item Ist $\operatorname{D} \neq 0$, dann besitzt das halbhomogene RWP eine eindeutige L{\"o}sung f{\"u}r alle $\vec{p}$. \item Ist $\operatorname{D} = 0$, dann besitzt das halbhomogene RWP genau dann eine eindeutige L{\"o}sung wenn $\operatorname{rg} \, D = \operatorname{rg}(D,\vec{p})$. \item Das entsprechende vollhomogene RWP, d.h. f{\"u}r $\vec{p}=\vec{0}$, besitzt genau dann nichttriviale Lsg. $y(x) \neq 0$, falls $\operatorname{det} \, D = 0$. \end{enumerate} Bemerkung zum inhomogenen RWP $L[y] = b(x), R\cdot\vec{y}(a) + S\cdot\vec{y}(b)=\vec{p}$: Allgemeine L{\"o}sun der zugeh{\"o}rigen inhomogenen DGL ist gegeben durch \begin{gather*} y(x) = c_1\cdot\varphi_1(x) + c_2\cdot\varphi_2(x) + \dots + c_n\cdot\varphi_n(x) + y_p(x) \end{gather*} $y_p(x)$ ist die Partikul{\"a}rl{\"o}sung. Anpassen an Randbedingungen liefert wiederum LGS der Gestalt \begin{gather*} D \cdot \vec{c}=\vec{q}\\ D = R \cdot \Phi(a) + S \cdot \Phi(b)\\ \vec{q} = \vec{p} - R\cdot \vec{y}_p(a) - S\cdot \vec{y}_p(b) \end{gather*} \textbf{Alternativsatz}: Entweder ist das inhomogene RWP f{\"u}r alle $b(x)$ und $\vec{p}$ eindeutig l{\"o}sbar (falls $\operatorname{det} \, D \neq 0$), oder das entsprechende vollhomogene RWP, d.h. $b(x) = 0 \, \, \wedge \,\, \vec{p}=\vec{0}$, besitzt nichttriviale L{\"o}sung (falls $\operatorname{det} \, D = 0$).\\ Beispiel: $y'' + \omega^2y = c$, $y(0)=p_1$, $y(\pi)=p_2$. Diese homogene DGL mit konstanten Koeffizienten beistzt die charakteristische Gleichung $\lambda^2 + \omega^2 = 0$ mit den L{\"o}sungen $\lambda=\pm i \cdot \omega$ (konjugiert komplex). Die allgemeine L{\"o}sung der zugeh{\"o}rigen homogenen DGl lautet somit: \begin{gather*} y_h(t) = c_1 \cdot \sin(\omega t) + c_2 \cdot \cos(\omega t)\\ \underbrace{R=\begin{pmatrix} 1 & 0 \\ 0 & 0 \\ \end{pmatrix}}_{\text{linker Rand}}, \qquad \underbrace{S=\begin{pmatrix} 0 & 0 \\ 1 & 0 \\ \end{pmatrix}}_{\text{rechter Rand}}\\ \underbrace{\begin{bmatrix} 1 \cdot y(0) & + & 0 \\ 0 \cdot y(0) & + & 0 \\ \end{bmatrix}}_{R}\begin{matrix} y'(0) + \\ y'(0) + \\ \end{matrix} \underbrace{\begin{bmatrix} 0 \cdot y(\pi) & + & 0 \\ 1 \cdot y(\pi) & + & 0 \\ \end{bmatrix}}_{S}\begin{matrix} y'(\pi) = p_1 \\ y'(\pi) = p_2 \\ \end{matrix}\\ R\vec{y}(a) + S\vec{y}(b) = \vec{p}, \qquad \Phi(t) = \begin{pmatrix} \sin(\omega t) & \cos(\omega t) \\ \omega\cos(\omega t) & -\omega\sin(\omega t) \\ \end{pmatrix} \end{gather*} Berechnen nach Alternativsatz, betrachten \begin{gather*} D=R\Phi(0) + S\Phi(\pi)=\begin{bmatrix} 1 & 0 \\ 0 & 0 \\ \end{bmatrix} \cdot \begin{bmatrix} 0 & 1 \\ \omega & 0 \\ \end{bmatrix} + \begin{bmatrix} 0 & 0 \\ 1 & 0 \\ \end{bmatrix} \cdot \begin{bmatrix} \sin(\omega t) & \cos(\omega t) \\ \omega\cos(\omega t) & -\omega\sin(\omega t) \\ \end{bmatrix} = \\ \begin{bmatrix} 0 & 1 \\ 0 & 0 \\ \end{bmatrix} + \begin{bmatrix} 0 & 0 \\ \sin(\omega \pi) & \cos(\omega \pi) \\ \end{bmatrix} = \begin{bmatrix} 0 &10 \\ \sin(\omega \pi) & \cos(\omega \pi) \\ \end{bmatrix}\\ \operatorname{det} \, D = -\sin(\omega\pi) \end{gather*} Wann ist $\sin(\omega\pi)=0$? Wenn $\omega \in \mathbb{Z}$. Falls $\omega \not\in \mathbb{Z}$ besitzt das RWP f{\"u}r alle $p_1$ und $p_2$ eine eindeutige L{\"o}sung (da Determinante von $D$ nicht Null ist). Ist die Determinante 0 und $\omega \in \mathbb{Z}$, so gibt es entweder keine oder unendlich viele L{\"o}sungen. \begin{gather*} D\cdot\vec{c}=\vec{p} \\ \begin{bmatrix} 0 & 1 & | & p_1 \\ \underbrace{\sin(\omega\pi)}_{=0} & \cos(\omega\pi) & | & p_2 \\ \end{bmatrix} \triangleq \begin{bmatrix} 0 & 1 & | & p_1 \\ 0 & \cos(\omega\pi) & | & p_2 \\ \end{bmatrix} \triangleq \begin{bmatrix} 0 & 1 & | & p_1 \\ 0 & 0 & | & p_2 - p_1 \cdot \cos(\omega\pi)\\ \end{bmatrix} \end{gather*} Daraus folgt: $p_2 - p_1 \cdot \cos(\omega\pi) = 0$ hat unendlich viele L{\"o}sungen, $p_2 - p_1 \cdot \cos(\omega\pi) \neq 0$ hat keine L{\"o}sung. \subsection{L{\"o}sen von RWP mit Hilfe der Green-Funktion} Gegeben: halbhomogenes lineares RWP: $L[y] := y^{(n)}(x) + a_{n-1}y^{(n-1)}(x) + \dots + a_0y(x) = b(x)$, $R\cdot\vec{y}(a) + S\cdot\vec{y}(b) = \vec{0}$. \textbf{Satz {\"u}ber die Green-Funktion von RWP}: Seien $\varphi_1(x), \dots, \varphi_n(x)$ eine Basis des L{\"o}sungsraumes der zugeh{\"o}rigen homogenen DGL $L[y]=0$, gelte f{\"u}r das halbhomogene RWP, dass $\operatorname{det} \, D = \operatorname{det}(R\Phi(a) + S\Phi(b))\neq 0$. Dann existiert f{\"u}r jede St{\"o}rfunktion $b(x)$ eine eindeutige L{\"o}sung des RWP. Diese l{\"a}sst sich darstellen als \begin{gather*} y(x) = \int_a^b g(x,\omega) \cdot b(\omega) \, d\omega, \end{gather*} wobei die sog. Green-Funktion $g(x,\omega): [a,b] \times [a,b] \Rightarrow \mathbb{R}$ folgende Eigenschaften besitzt: \begin{itemize} \item $g(x,\omega)$ erf{\"u}llt f{\"u}r jedes feste $\omega$ in Bezug auf $x (x\neq \omega)$ die homogene DGL, d.h. $L[g(x,\omega)]=0$ f{\"u}r alle $x \neq \omega$. \item $g(x,\omega)$ erf{\"u}llt f{\"u}r jedes feste $\omega$, $a <\omega<b$ die homogene Randbedingung, d.h.. \begin{gather*} R\vec{g}(a,\omega) + S\vec{b}(a,\omega) = \vec{0}, \qquad \text{wobei}\\ \vec{g}(x,\omega) = (g(x,\omega),g'(x,\omega),\dots,g^{(n-1)}(x,\omega)) \qquad \text{und}\\ g^{(k)}(x,\omega)=\frac{\operatorname{d}^k}{\operatorname{d} x^k} g(x,\omega) \end{gather*} \item Die Funktionen $g(x,\omega),g'(x,\omega),\dots,g^{(n-1)}(x,\omega)$ sind stetig auf $[a,b]\times[a,b]$. Die Funktion $g^{(n-1)}(x,\omega)$ existiert f{\"u}r $x\neq\omega$ und es gilt: \begin{gather*} g^{(n-1)}(x^+,x) - g^{(n-1)}(x^-,x)=1 \end{gather*} ($x^+$ ist der rechtsseitige, $x^-$ der linksseitige Grenzwert) \end{itemize} $g(x,\omega)$ hei{\ss}t auch Einflussfunktion, weil sie den Einfluss der St{\"o}rfunktion $b(\omega)$ zur L{\"o}sung $y(x)$ im Punkt $x$ angibt.\\ Bemerkung zum praktischen Rechnen: Erste Bedingung impliziert, dass $g(x,\omega)$ folgende Gestalt hat: \begin{gather*} g(x,\omega)=\begin{cases}c_1(\omega)\cdot\varphi_1(x) + c_2(\omega)\cdot\varphi_2(x)+ \dots + c_n(\omega)\cdot\varphi_n(x)& a \leq x \leq \omega \\d_1(\omega)\cdot\varphi_1(x) + d_2(\omega)\cdot\varphi_2(x)+ \dots + d_n(\omega)\cdot\varphi_n(x)&x < x \leq b \end{cases} \end{gather*} Beispiel: Biegebalken $y''(x) = b(x)$, $0 \leq x \leq l$, RB: $y(0)=0$, $y(l)=0$. Die Determinante $D$ ist nicht Null, daher existiert eindeutige L{\"o}sung. Homogene DGL $y''(x)=0$ - Allgemeine L{\"o}sung: $y(x)=cx+d$. Daraus folgt: $y'=c$. Ansatz Green-Funktion: \begin{gather*} g(x,\omega)=\begin{cases}\int c_1(\omega)x + c_2(\omega) & 0 \leq x \leq \omega\\ \int d_1(\omega)x + d_2(\omega) & \omega < x \leq l\end{cases} \end{gather*} Randbedingungen m{\"u}ssen erf{\"u}llt sein, w{\"a}hle $\omega$ dest, $0 < \omega \leq l$: \begin{itemize} \item RB $y(0) = 0$ - $x=0$ - $c_1(\omega)x + c_2(\omega)=0$ - $c_2(\omega)=0$ \item RB $y(l) = 0$ - $x=l$ - $d_1(\omega)l + d_2(\omega)$ \end{itemize} Bei Stetigkeit von $g$ w{\"a}hle $x=\omega$: Daraus folgt $c_1(\omega)\omega + c_2(\omega)= d_1(\omega)\omega + d_2(\omega)$. Die Differenz zwischen rechtsseitigem und linksseitigem Grenzwert ist 1, daraus folgt: \begin{gather*} g'(x,\omega)=\begin{cases}c_1(\omega), & 0 \leq x \leq \omega \\ d_1(\omega) & \omega < x \leq l\end{cases} \qquad d_1(\omega) - c_2(\omega)=1 \end{gather*} $c_2(\omega)=0$ - daher ist $c_1(\omega)=d_1(\omega)-1$: \begin{gather*} \omega(d_1(\omega) - 1)=d_1(\omega)\omega - d_1(\omega)l\\ d_1(\omega)(\omega-\omega+l)=\omega \qquad \Rightarrow \qquad d_1(\omega)=\frac{\omega}{l} \end{gather*} \begin{figure}[htbp] \centering \includegraphics[scale=0.6]{vo8_biegebalken.eps} \caption{Green-Funktion} \label{fig:gi} \end{figure} $c_1(\omega) = d_1(\omega) - 1 = \frac{\omega}{l} - 1 = \frac{\omega-l}{l}$. $d_2(\omega)=-ld_1(\omega)=-\omega$ Somit gilt: \begin{gather*} g(x,\omega)=\begin{cases}\frac{\omega-l}{l}, & 0 \leq x \leq \omega \\ \frac{\omega}{l} & \omega < x \leq l\end{cases}\\ y(x)=\int_0^l g(x,\omega)\cdot(-b(\omega)) \, d\omega \end{gather*} \section{Eigenwertprobleme} Spezielle Randwertprobleme, die von einem Parameter $\lambda$ abh{\"a}ngen. Betrachte vollhomogenes lineares RWP. Die Existenz von nichttrivialer L{\"o}sung $y(x)=0$ h{\"a}ngt von der Wahl des Parameters $\lambda \in \mathbb{C}$ (oder $\lambda \in \mathbb{R}$) ab. \textbf{Definition}: Jeder Wert $\lambda$, f{\"u}r den das vollhomogene RWP nichttriviale L{\"o}sungen besitzt, hei{\ss}t Eigenwert. Die zugeh{\"o}rigen nichtrivialen L{\"o}sungen $y(x)$ hei{\ss}en Eigenfunktionen zum Eigenwert $\lambda$. Anmerkung: Aus dem Alternativsatz folgt: $\operatorname{det} \, D = 0 \,\,\Leftrightarrow\,\, \lambda$ ist Eigenwert.\\ Beispiel: 'Knickstab' - RWP: $y'' \lambda y = 0$, $y(0)=0$,$y(l)=0$. Uns interessieren die reellen Eigenwerte $\lambda > 0$ (Stab bricht). Betrachte zun{\"a}chst $\lambda=0$. Die allgemeine L{\"o}sung der zugeh{\"o}rigen DGL ergibt sich aus $\alpha^2 + \lambda = 0$ mit $\alpha_{1,2}= \pm i \sqrt{\lambda}$. Die allgemeine L{\"o}sung ist somit: $y(x)=c_1\cos(\sqrt{\lambda}x) + c_2\sin(\sqrt{\lambda}x)$. \begin{gather*} \Phi(x)=\begin{bmatrix} \cos(\sqrt{\lambda}x) & \sin(\sqrt{\lambda}x) \\ -\sqrt{\lambda}\sin(\sqrt{\lambda}x) & \sqrt{\lambda}\cos(\sqrt{\lambda}x) \\ \end{bmatrix}\\ D=R\Phi(0) + S\Phi(l) = \begin{bmatrix} 1 & 0 \\ 0 & 0 \\ \end{bmatrix} \cdot \begin{bmatrix} 1 & 0 \\ 0 & \sqrt{\lambda} \\ \end{bmatrix} + \begin{bmatrix} 0 & 0 \\ 1 & 0 \\ \end{bmatrix} \cdot \begin{bmatrix} \cos(\sqrt{\lambda}x) & \sin(\sqrt{\lambda}x) \\ -\sqrt{\lambda}\sin(\sqrt{\lambda}x) & \sqrt{\lambda}\cos(\sqrt{\lambda}x) \\ \end{bmatrix}=\\ \begin{bmatrix} 1 & 0 \\ 0 & 0 \\ \end{bmatrix} + \begin{bmatrix} 0 & 0 \\ \cos(\sqrt{\lambda}l) & \sin(\sqrt{\lambda}l) \\ \end{bmatrix} = \begin{bmatrix} 1 & 0 \\ \cos(\sqrt{\lambda}l) & \sin(\sqrt{\lambda}l) \\ \end{bmatrix} \end{gather*} $\operatorname{det} \, D = \sin(\sqrt{\lambda}l) = 0$ - d.h. $\sqrt{\lambda}=k\pi$, $k=1,2,3,\dots$. Es gibt unendlich viele Eigenwerte: $\lambda_k=(\frac{k\pi}{l})^2$. Eigenfunktion: $D \cdot \vec{c} = \vec{0}$: \begin{gather*} \begin{pmatrix} 1 & 0 \\ \cos(\sqrt{\lambda}l) & \sin(\sqrt{\lambda}l)\\ \end{pmatrix} \cdot \begin{pmatrix} c_1 \\ c_2 \\ \end{pmatrix} = \begin{pmatrix} 0 \\ 0 \\ \end{pmatrix} = \begin{pmatrix} 1 & 0 & | & 0\\ \cos(\sqrt{\lambda}l) & 0& | & 0\\ \end{pmatrix} \qquad \Rightarrow \qquad c_1=0 \end{gather*} $c_2$ kann somit beliebig gew{\"a}hlt werden. Die zugeh{\"o}rige Eigenfunktion lautet somit: \begin{gather*} y_k=c_1\cdot\cos(\sqrt{\lambda}l) + c_2 \cdot \sin(\sqrt{\lambda}l)= \mathbf{c_2 \cdot \sin(\sqrt{\lambda}l)} \end{gather*} \section{Fourier-Analysis - Fourier-Reihen} \subsection{Grundlagen - periodische Funktionen} Periodische Funktiom: $f(t): \mathbb{R} \mapsto \mathbb{C}$ Periode $T: f(t+T)=f(t), \,\, \forall t \in \mathbb{R}$. Beispiel Rechtecksschwingung: \begin{figure}[htbp] \centering \includegraphics[scale=0.4]{fourier_refunktion.eps} \caption{Rechtecksfunktion} \label{fig:gi} \end{figure} \newpage Beispiel S{\"a}gezahnschwingung: \begin{figure}[htbp] \centering \includegraphics[scale=0.4]{fourier_saegezahn.eps} \caption{Sägezahnschwingung} \label{fig:gi} \end{figure} Wichtig ist die genaue Kenntnis des Verlaufs von Sinus und Cosinus: \begin{figure}[htbp] \centering \includegraphics[scale=0.4]{sinus.eps} \includegraphics[scale=0.4]{cosinus.eps} \caption{Verläufe von Sinus und Cosinus} \label{fig:gi} \end{figure} Idee: Wir wollen periodische Funktionen durch {\"U}berlagerung von $\sin$- und $\cos$-Funktion verschiedener Amplituden und Frequenzen darstellen. $f(t)$ ist eine $T$-periodische Funktion. Aus $\omega:=\frac{2\pi}{T}$ folgt: \begin{gather*} F(x) := f(\frac{x}{\omega}) \,\, \text{ist }\, 2\pi\text{-periodische Funktion} \end{gather*} Nachweis: \begin{gather*} F(x+2\pi)=f(\frac{x+2\pi}{\omega}) = f(\frac{x}{\omega} + \frac{2\pi T}{2\pi})= f(\frac{x}{\omega}) = F(x) \end{gather*} \textbf{Trigonometrische Polynome}. Sinus-Cosinus-Term \begin{gather*} \frac{a_0}{2} + \sum_{N=1}^n a_n\cdot \cos(n \cdot \omega \cdot t) + \sum_{N=1}^n a_n\cdot \sin(n \cdot \omega \cdot t) \end{gather*} In der Exponentialform: \begin{gather*} \sum_{K=-N}^N c_K \cdot e^{i\cdot\omega\cdot k \cdot T} \end{gather*} $N$ ist dabei der Grad des trigonometrischen Polynoms. $\omega=\frac{2\pi}{T}$: Tringonometrische Polynome sind $T$-periodische Funktionen \begin{gather*} e^{i\cdot \varphi} = \cos \varphi + i\cdot \sin \varphi \end{gather*} Umrechnen zwischen beiden Formen: \begin{gather*} e^{i\cdot\omega\cdot k \cdot T} = \cos(\omega\cdot K \cdot T) + i\cdot\sin(\omega\cdot K \cdot T)\\ \sum_{K=-N}^N c_K \cdot e^{i\cdot\omega\cdot k \cdot T} = \sum_{K=-N}^N c_k \cdot \cos(\omega\cdot K \cdot T) + \sum_{K=-N}^N i \cdot c_k \cdot\sin(\omega\cdot K \cdot T)=\\ \sum_{K=1}^N c_k \cdot \cos(\omega\cdot K \cdot T) + c_0 + \sum_{K=1}^N c_k \cdot \cos(-\omega\cdot K \cdot T) + \sum_{K=1}^N i \cdot c_k \cdot\sin(\omega\cdot K \cdot T) + \\ + i \cdot \sin(0) \cdot c_0 + \sum_{K=1}^N i \cdot c_k \cdot\sin(\omega\cdot K \cdot T)\\ \Rightarrow \sum_{K=-N}^N c_K \cdot e^{i\cdot\omega\cdot k \cdot T} =\underbrace{c_0}_{\frac{a_0}{2}} + \sum_{K=1}^N \underbrace{(c_k + c_{-k})}_{a_k} \cdot \cos (\omega\cdot K \cdot T) + \sum_{K=1}^N \underbrace{(c_k - c_{-k})}_{b_k} \cdot i \cdot \sin (\omega\cdot K \cdot T) \end{gather*} \textbf{Koeffizientenvergleich}: Umrechnen $c_0=\frac{a_0}{2}$, $c_n + c_{-n} = a_n, n \geq 1$, $c_n - c_{-n} = b_n, n \geq 1$: \begin{gather*} a_n, b_n \text{ geg. } \, \, \Rightarrow \, \, c_k = \frac{a_k - i\cdot b_k}{2},\,\, c_{-k} = \frac{a_k + i\cdot b_k}{2} \end{gather*} Beispiel: Gegeben sind $\sin^3 t$, $\cos^3 t$. Gesucht sind trigonometrische Polynome, die diese darstellen. \begin{gather*} e^{i\cdot t} = \cos t + i \cdot \sin t \,\, | \, x^3\\ \cos 3 \cdot t + i \cdot \sin 3 \cdot t = (\cos t + i \cdot \sin t)^3 = \cos^3 t + 3 \cdot \cos^2 t \cdot \sin t \cdot i - 3 \cdot \cos t \cdot \sin^2t - i \cdot \sin^3 t\\ \text{Re, Im:} \,\, \cos 3\cdot t = \cos^3 t - 3 \cdot \cos t \cdot \underbrace{\sin^3 t}_{1-\cos^2 t} \,\, \square\\ \sin 3 \cdot t = \underbrace{3 \cdot \cos^2 t}_{1-\sin^2 t} \cdot \sin t - \sin^3 t \Rightarrow \dots \\ \square \,\, = \cos^3 t - 3 \cdot \cos t + 3 \cdot \cos^3 t = 4 \cdot \cos^2 - 3 \cdot \cos t\\ \Rightarrow \,\, \cos^3 t = \frac{\cos 3 \cdot t + 3 \cos t}{4}\,\, \text{trigonometr. Polynom Grad 3} \end{gather*} \textbf{Frage}: Gegebene $T$-periodische Funktion $f(t)$. Wir setzen voraus: $f(t)$ l{\"a}sst sich durch trigonometrische Polynome vom Grad $N$ darstellen. Wie bestimmt man die Koeffizienten $a_n$,$b_n$ bzw. $c_k$? Antwort: Mit Hilfe der \textbf{Formeln von Euler-Fourier}, d.h.: \begin{gather*} \mathbf{a_n = \frac{2}{T} \cdot \int f(t) \cdot \cos (n \cdot \omega \cdot t) \, dt}\\ \mathbf{b_n = \frac{2}{T} \cdot \int f(t) \cdot \sin (n \cdot \omega \cdot t)\, dt}\\ \mathbf{c_k = \frac{1}{T} \cdot \int f(t) \cdot e^{-i \cdot k \cdot \omega \cdot t} \, \operatorname{d}t} \end{gather*} Beweisidee: Funktion $\{1\} \, \cup \, \{ \cos(n\cdot\omega\cdot t), n=1,2,3,\dots\} \cup \sin(n\cdot\omega\cdot t), n=1,2,3,\dots\}$ bilden ein Orthogonalsystem bez{\"u}glich: \begin{gather*} (f(t),g(t)) \mapsto \int_0^T f(t) \cdot \overline{g(t)} \, dt\\ \text{d.h.} \,\, \int_0^T \cos (n \cdot \omega \cdot t) \, dt\cdot \cos (m \cdot \omega \cdot t) \, dt, = 0 \qquad m \neq n\\ \int_0^T \cos (n \cdot \omega \cdot t) \, dt\cdot \sin (m \cdot \omega \cdot t) \, dt = 0, \qquad \forall m,n\\ \text{d.h.} \,\, \int_0^T \sin (n \cdot \omega \cdot t) \, dt\cdot \sin (m \cdot \omega \cdot t) \, dt, = 0 \qquad m \neq n \end{gather*} Analog: Funktion $\{e^{i\cdot k \cdot \omega \cdot t}, k \in\mathbb{Z}\}$ bilden ein Orthonormalsystem, d.h.: \begin{gather*} \int e^{i\cdot k \cdot \omega \cdot t} \cdot e^{-i\cdot k \cdot \omega \cdot t}\, dt = \begin{cases} 0 & K \neq l\\ T & K = l\end{cases} \end{gather*} \textbf{Nachteil}: Trigonometrische Funktionen sind immer differenzierbare Funktionen, z.B. ... \begin{figure}[htbp] \centering \includegraphics[scale=0.4]{tringpoly1.eps} \includegraphics[scale=0.4]{tringpoly2.eps} \caption{Nicht differenzierbare trigonometrische Funktionen} \label{fig:gi} \end{figure} ... k{\"o}nnen nicht als trigonometrische Polynome dargestellt werden. \textbf{Definition trigonometrische Reihen}: \begin{gather*} \sum_{K=-\infty}^{+\infty} c_K \cdot e^{i \cdot K \cdot \omega \cdot T} := \lim_{N\rightarrow\infty} \sum_{K=1}^{+\infty}c_K \cdot e^{i \cdot K \cdot \omega \cdot T}\\ \frac{a_0}{2} + \sum_{K=1}^{+\infty}a_n \cdot \cos (n\cdot \omega \cdot t) + \sum_{K=1}^{+\infty}b_n \cdot \sin (n\cdot \omega \cdot t) \end{gather*} Nachteil: Reihen m{\"u}ssen nicht notwendigerweise konvergieren.\\ \textbf{Eigenschaften f{\"u}r $T$-periodische Funktionen $f(t)$}: \begin{itemize} \item St{\"u}ckweise stetig auf Intervall $I=[a,b]$ \begin{figure}[htbp] \centering \includegraphics[scale=0.3]{stueckwstetig.eps} \caption{St{\"u}ckweise stetige $T$-periodische Funktion} \label{fig:gi} \end{figure} Stetig auf $[a,b]$ bis auf endlich viele Punkte $t_1,t_2,\dots,t_n$ z.B. der linksseitige und rechtsseitige Grenzwert $f(t^+)$ bzw. $f(t^-)$ existiert f{\"u}r $t_1,t_2,\dots,t_n$ \item St{\"u}ckweise stetig differenzierbar auf $I=[a,b]$. Stetig differenzierbar (differenzierbar und Ableitung stetig) bis auf endlich viele Punkte $t_1,t_2,\dots,t_n$, f{\"u}r die aber die rechtsseitigen bzw. linksseitigen Grenzwerte $f(t^+)$, $f(t^-)$, $f'(t^+)$, $f'(t^-)$ existieren. \end{itemize} \textbf{Definition}: Gegeben $T$-periodische Funktion $f(t)$, die st{\"u}ckweise stetig auf $[0,T]$ sein soll. Dann ist die Fourierreihe $S_f(t)$ von $f(t)$ definiert als trigonometrische Reihe \begin{gather*} S_f(t)=\sum_{K=-\infty}^{+\infty} c_K \cdot e^{i \cdot K \cdot \omega \cdot T}, \,\, S_f(t)=\frac{a_0}{2} + \sum_{K=1}^{+\infty}a_n \cdot \cos (n\cdot \omega \cdot t) + b_n \cdot \sin (n\cdot \omega \cdot t) \end{gather*} wobei die Koeffizienten $c_K$ bzw. $a_n$, $b_n$ {\"u}ber die Formeln von Euler-Fourier berechnet werden: \begin{gather*} \mathbf{a_n = \frac{2}{T} \cdot \int f(t) \cdot \cos (n \cdot \omega \cdot t) \, dt}\\ \mathbf{b_n = \frac{2}{T} \cdot \int f(t) \cdot \sin (n \cdot \omega \cdot t)\, dt}\\ \mathbf{c_k = \frac{1}{T} \cdot \int f(t) \cdot e^{-i \cdot k \cdot \omega \cdot t} \, \operatorname{d}t} \end{gather*} Beispiel Rechtecksschwingung: \begin{gather*} f(t)=\begin{cases} 1 & 0 \leq t \leq \pi\\ -1 & \pi < t < 2pi\end{cases}\,\,\, f(t) \dots 2\pi\text{-periodisch fortges.}\\ \omega = 1 \Rightarrow \omega = \frac{2\pi}{T} \end{gather*} \begin{figure}[htbp] \centering \includegraphics[scale=0.4]{fourier-re.eps} \caption{Fourier-Reihe: Rechtecksschwingung} \label{fig:gi} \end{figure} Gesucht: Fourier-Reihe von $f(t)$ - w{\"a}hle Sinus-Cosinus-Form: \begin{gather*} a_0 = \frac{1}{\pi} \cdot [\int_0^\pi 1 \, dt + \int_\pi^{2\pi} (-1) \, dt] = \frac{1}{\pi} \cdot [t|_0^\pi + (-t)|_\pi^{2\pi}] = \frac{1}{\pi} \cdot (\pi - 0 - 2\pi + \pi)=0\\ n \geq 1: \qquad a_n=\frac{1}{\pi} \cdot [\int_0^\pi 1 \cdot \cos(n\cdot\omega \cdot t) \, dt - \int_\pi^{2\pi} (-1) \cdot \cos(n\cdot\omega \cdot t) \, dt] = \\\frac{1}{\pi} \cdot [\frac{\sin(n\cdot t)}{n}|_0^\pi - \frac{\sin(n\cdot t)}{n}|_\pi^{2\pi}]=\\ \qquad \frac{1}{\pi} \cdot \underbrace{[\frac{\sin(n\cdot \pi)}{n} - \frac{\sin(0)}{n}- \frac{\sin(2 \cdot n\cdot \pi)}{n} + \frac{\sin(n\cdot \pi)}{n}]}_{0}=0\\ b_n=\frac{1}{\pi} \cdot [\int_0^\pi 1 \cdot \sin(n\cdot\omega \cdot t) \, dt - \int_\pi^{2\pi} (-1) \cdot \sin(n\cdot\omega \cdot t) \, dt] = \\\frac{1}{\pi} \cdot [\frac{-\cos(n\cdot t)}{n}|_0^\pi + \frac{\cos(n\cdot t)}{n}|_\pi^{2\pi}]=\\ \frac{1}{n\cdot\pi} \cdot [\underbrace{-\cos(n\cdot \pi)}_{\lozenge} + \underbrace{\cos(0)}_{1} + \cos(2\cdot \pi \cdot n) - \cos(n\cdot \pi)]= \dots\\ \lozenge \qquad 1,n \,\text{gerade},\,\, -1,n \,\text{ungerade}\, \Rightarrow (-1)^n\\ \dots=\frac{1}{n\cdot\pi} \cdot [1-2\cdot(-1)^n + \underbrace{(-1)^{2\cdot n}}_{1}] = \frac{2}{n\cdot\pi} [1-(-1)^n] = \begin{cases}0 & n \, \text{ gerade} \\ \frac{4}{n\cdot \pi}& n \, \text{ ungerade}\end{cases} \end{gather*} $\Rightarrow$ Fourier-Reihe von $f(t)$ lautet: \begin{gather*} S_f(t)=\frac{4}{\pi} \cdot (\frac{\sin(t)}{1} + \frac{\sin(3\cdot t)}{3} + \frac{\sin(5\cdot t)}{5} + \dots) \end{gather*} Als \textbf{Gibbssches Ph{\"a}nomen} oder 'Ringing' bezeichnet man das typische Verhalten von Fourierreihen in der Umgebung von Sprungsstellen. Entwickelt man eine Fourierreihe aus einer unstetigen Funktion, so ergeben sich an den Unstetigkeitsstellen typische {\"U}ber- und Unterschwinger, die sich auch dann nicht verringern, wenn man versucht, die Funktion noch besser zu approximieren. Dies liegt daran, dass die Reihe an der Unstetigkeitsstelle nicht mehr gleichm{\"a}{\ss}ig, sondern nur punktweise konvergiert. Die H{\"o}he des {\"U}berschwingers in einer Richtung l{\"a}sst sich bestimmen zu: \begin{gather*} \frac{1}{\pi}\int_0^\pi \frac{\sin t}{t}\, dt - \frac{1}{2} = 0.089490\dots \end{gather*} womit sich ein prozentueller Fehler von 17,898\%, gerundet 18\%, der Sprungh{\"o}he ergibt. Der Effekt wurde nach seinem Entdecker, dem amerikanischen Physiker Josiah Willard Gibbs, benannt. \begin{figure}[htbp] \centering \includegraphics[scale=0.4]{gibbspheno.eps} \caption{Gibb'sches Phänomen} \label{fig:gi} \end{figure} \subsection{Rechenregeln f{\"u}r Fourier-Reihen} $f(t)$, $g(t)$ st{\"u}ckweise stetige Funktionen: \begin{gather*} S_f(t)=\sum_{K=-\infty}^{+\infty} c_K \cdot e^{i \cdot K \cdot \omega \cdot T}, \,\, S_g(t)=\sum_{K=-\infty}^{+\infty} d_K \cdot e^{i \cdot K \cdot \omega \cdot T} \end{gather*} \begin{itemize} \item Linearit{\"a}t \begin{gather*} \alpha \cdot f(t) + \beta \cdot g(t) \,\, \text{besitzt Fourier-Reihe} \,\, \sum_{K=-\infty}^{+\infty} (\alpha \cdot c_K + \beta \cdot d_K) \cdot e^{i \cdot K \cdot \omega \cdot T} \end{gather*} \item Zeitumkehr, Konjugation \begin{gather*} f(-t) \curvearrowright \sum_{K=-\infty}^{+\infty} c_K \cdot e^{i \cdot K \cdot \omega \cdot T}, \,\, \overline{f(t)} \curvearrowright \sum_{K=-\infty}^{+\infty} \overline{c_K} \cdot e^{i \cdot K \cdot \omega \cdot T} \end{gather*} \item Streckung \begin{gather*} f(c\cdot t) \curvearrowright \sum_{K=-\infty}^{+\infty} c_K \cdot e^{i \cdot K \cdot c \cdot \omega \cdot T} \qquad c > 0\\ f(c \cdot T) \dots \frac{T}{c}\,\,\text{-periodische Funktion} \end{gather*} \item Verschiebung im Zeitbereich \begin{gather*} f(t+a) \curvearrowright \sum_{K=-\infty}^{+\infty} (c_K \cdot e^{i \cdot a \cdot K \cdot \omega \cdot T}) \cdot e^{i \cdot K \cdot \omega \cdot T} \end{gather*} \item Verschiebung im Frequenzbereich \begin{gather*} e^{i \cdot K \cdot \omega \cdot T} \cdot f(t) \curvearrowright \sum_{K=-\infty}^{+\infty} c_{K-n} \cdot e^{i \cdot K \cdot \omega \cdot T} \end{gather*} \end{itemize} Beweise: {\"U}ber Definition des Euler-Fourier-Integrals Satz: Betrachte $f(t)$, periodisch mit Periode $T$, stetig auf $\mathbb{R}$ und st{\"u}ckweise stetig differenzierbar. $f(t)$ besitzt die Fourier-Reihe \begin{gather*} S_f(t)\sum_{K=-\infty}^{+\infty} c_K \cdot e^{i \cdot K \cdot \omega \cdot T} \end{gather*} $\Rightarrow$ Fourier-Reihe $S_{f'}(t) \curvearrowright f'(t)= \sum_{K=-\infty}^{+\infty} c_K \cdot i \cdot K \cdot \omega \cdot e^{i \cdot K \cdot \omega \cdot T}$. Satz: Betrachte periodisch mit Periode $T$, stetig auf $[0,T]$, $S_f(t)\sum_{K=-\infty}^{+\infty} c_K \cdot e^{i \cdot K \cdot \omega \cdot T}$. Fourier-Reihe der Stammfunktion: \begin{gather*} F(t)=\int_0^t f(\tau)\, d\tau \end{gather*} $F(t)$ i.A. nicht mehr periodisch, nur wenn \begin{gather*} \int_0^\tau f(t)\, dt = 0 \,\, \Leftrightarrow c_0 = 0 \,\, \Rightarrow\\ S_F(t) = -\frac{1}{T} \cdot \int:0^T f(t) \, dt + \sum_{K=-\infty, K\neq 0}^\infty \frac{c_K}{i\cdot K \cdot \omega} \cdot e^{i \cdot K \cdot \omega \cdot T} \end{gather*} \subsection{Wichtige S{\"a}tze zu Fourier-Reihen} Geg.: $f(t)$, $T$-periodisch $\sim S_f(t)$ - zusammengesetzt aus $g(t) \sim S_g(t)$,$h(t) \sim S_h(t)$. \begin{itemize} \item \textbf{Eindeutigkeitssatz} Gilt f{\"u}r zwei st{\"u}ckweise stetige Funktionen $g(t)$,$h(t)$ mit Periode $T$ die sog. Mittelwerteigenschaft \begin{gather*} \frac{f(t^+) + f(t^-)}{2}=f(t) \end{gather*} \begin{figure}[htbp] \centering \includegraphics[scale=0.3]{10_FRb.eps} \caption{Mittelwerteigenschaft bei Fourier-Reihen} \label{fig:gi} \end{figure} Falls nun $S_g(t) = S_h(t)$ so gilt $g(t)=h(t)$- \item \textbf{Darstellungssatz (f{\"u}r gleichm{\"a}ssige Konvergenz von $S_f(t)$)} Geg.: Stetige, $T$-periodische Funktion $f(t)$, deren Fourierreihe $S_f(t)$ gleichm{\"a}ssig auf $[0,T]$ konvergiert. Dann gilt: $S_f(t)=f(t), \forall t \in \mathbb{R}$ \item \textbf{Darstellungssatz (f{\"u}r st{\"u}ckweise differenzierbare Funktionen)} Geg,; $T$-periodische Funktion $f(t)$, st{\"u}ckweise stetig differenzierbar auf $[0,T]$. Dann gilt f{\"u}r die Fourier-Reihe $S_f(t)$: \begin{itemize} \item $S_f(t)$ konvergiert punktweise f{\"u}r alle $t \in \mathbb{R}$ \item \begin{gather*} \frac{f(t^+) + f(t^-)}{2}=f(t), \forall t \in \mathbb{R} \end{gather*} d.h. $S_f(t) = f(t)$, f{\"u}r alle stetigen Punkte $t \in \mathbb{R}$ \item Falls $f(t)$ stetig auf Intervall $I=[a,b]$ konvergiert $S_f(t)$ gleichm{\"a}ssig azf $I$ \item An den Unstetigkeitsstellen von $f(t)$ tritt das Gibb'sche Ph{\"a}nomen auf (= {\"U}berschwinger) \end{itemize} \end{itemize} \section{Diskrete Fourier-Transformation} \subsection{Grundlagen} Geg.: Diskrete periodische Funktion $f(t)$, periodisch mit Periode $T$, wobei wir annehmen, dass in ein Periodenintervall genau $N$ Werte der Funktion fallen. Weitere Annahme: Werte der Funktion an {\"a}quidistanten St{\"u}tzstellen, d.h.: \begin{gather*} \underbrace{f(\overbrace{0}^{t_0})}_{f_{t_0}=y_0}, \underbrace{f(\overbrace{1\cdot \triangle t}^{t_1})}_{f_{t_1}=y_1}, \underbrace{f(\overbrace{2\cdot \triangle t}^{t_2})}_{f_{t_2}=y_2}, \dots, \underbrace{f(\overbrace{(N-1)\cdot \triangle t}^{t_{N-1}})}_{f_{t_{N-1}}=y_{N-1}}, \qquad \triangle t = \frac{T}{N} \end{gather*} \begin{figure}[htbp] \centering \includegraphics[scale=0.3]{FRD-1.eps} \caption{Äquidistante Stützstellen} \label{fig:gi} \end{figure} Diese diskrete periodische Funktion ist durch $N$ Werte $(y,y_1,\dots,y_{N-1})$ vollst{\"a}ndig charakterisiert. Def.: Gegeben sind $N$ Werte $(y,y_1,\dots,y_{N-1})$ der diskreten periodischen Funktion. Dann bezeichnen wir mit \begin{gather*} \mathbf{c_k := \frac{1}{N}\sum_{j=0}^{N-1}y_j \cdot e^{-\frac{2\pi i}{N}\cdot k \cdot j}, \qquad k=0,1,\dots N-1} \end{gather*} als \textbf{Spektralkoeffizienten} (oder Fourier-Koeffizienten) von$(y,y_1,\dots,y_{N-1})$ \begin{gather*} c_k := \frac{1}{N}\sum_{j=0}^{N-1}\underbrace{y_j}_{f(t_j) = f(j\cdot \triangle t)} \cdot e^{-\frac{2\pi i}{N}\cdot k \cdot j} = \frac{1}{N \cdot \triangle t}\sum_{j=0}^{N-1}f(j \cdot \triangle t) \cdot e^{-\frac{2\pi i}{N \cdot \triangle t}\cdot k \cdot j \cdot \triangle t} \cdot \triangle t =\\ \frac{1}{T}\sum_{j=0}^{N-1}f(t_j) \cdot e^{-\frac{2\pi i}{T}\cdot k \triangle t_j} \cdot \triangle t = \frac{1}{T}\sum_{j=0}^{N-1}f(t_j) \cdot e^{-i \cdot \omega \cdot k \cdot \triangle t_j} \cdot \triangle t \end{gather*} Betrachte Fourier-Reihe: \begin{gather*} \mathbf{c_k = \frac{1}{T} \int_0^T f(t) \cdot e^{-i\cdot \omega \cdot k \cdot t} \operatorname{d}t} \end{gather*} Notation: $N$ gegeben, $\omega$ erste von $1$-verschiedene $N$-te Einheitswurzel. Es gilt: $\omega^N = 1 = e^{2\pi i}$: \begin{figure}[htbp] \centering \includegraphics[scale=0.3]{FRD-2.eps} \caption{$N$-te Einheitswuzel} \label{fig:gi} \end{figure} Fourier-Matrix: $N\times N$-Matrix \begin{gather*} F_N := \begin{pmatrix} 1 & 1 & 1 & \cdots & 1 \\ 1 & \omega & \omega^2 & \cdots & \omega^{N-1} \\ 1 & \omega^2 & \omega^4 & \cdots & \omega^{2(N-1)} \\ \vdots & \vdots & \vdots & \ddots & \vdots \\ 1 & \omega^{N-1} & \omega^{2(N-1)} & \cdots & \omega^{{(N-1)}^{2}} \\ \end{pmatrix} \end{gather*} Satz: Es gilt: \begin{gather*} F_N \cdot \overline{F_N} = \overline{F_N} \cdot F_N = N \cdot E_N \end{gather*} $E_N$ ist die Einheitsmatrix der Gr{\"o}sse $N\times N$: \begin{gather*} E_N=\begin{pmatrix} 1 & & \mathbf{0} \\ & \ddots & \\ \mathbf{0} & & 1 \\ \end{pmatrix} \end{gather*} $\overline{F_N}$ ist die konjugierte Matrix. $\overline{\omega^j} = \frac{1}{\omega^j} = \omega^{-j}$ Betrachte $\vec{c}$ (Spektralkoeffizienten) und $\vec{y}$: \begin{gather*} \vec{c} = \begin{pmatrix} c_0 \\ c_1 \\ \vdots \\ c_{N-1} \\ \end{pmatrix}, \qquad \vec{y} = \begin{pmatrix} y_0 \\ y_1 \\ \vdots \\ y_{N-1} \\ \end{pmatrix}\\ c_k=\frac{1}{N}\sum_{j=0}^{N-1} y_j \cdot \omega^{-k\cdot j} = \frac{1}{N}\sum_{j=0}^{N-1} y_j \cdot \overline{\omega^{kj}}, \qquad k=0,\dots,N-1\\ \mathbf{\vec{c}=\frac{1}{N}\cdot \overline{F_N} \cdot \vec{y}}. \qquad N \cdot F_N \cdot \vec{c} = \underbrace{F_N \cdot \overline{F_N}}_{N\cdot E_N} \cdot \vec{y} = N \cdot E_N \cdot \vec{y} = N \cdot \vec{y}\\ \Rightarrow \,\, \mathbf{F_N \cdot \vec{c}=\vec{y}} \end{gather*} Def.: Gegeben $\vec{y} = (y_0,y_1,\dots,y_{N-1})^T$. Dann wird durch DFT: $\mathbb{C}^N \rightarrow \mathbb{C}^N. \vec{y} \overbrace{\mapsto}^{\text{DFT}} \vec{c}=\frac{1}{N}\cdot \overline{F_N} \cdot \vec{y}$ eine umkehrbar eindeutige Abbildung beschrieben, die sog. \textbf{Diskrete Fourier-Transformation}. Die \textbf{Inverse Fourier-Transformation} ist gegeben durch: IDFT: $\mathbb{C}^N \rightarrow \mathbb{C}^N. \vec{y} \overbrace{\mapsto}^{\text{IDFT}} \vec{y} = F_N \cdot \vec{c}$ $\vec{c} = (c_0,c_1,\dots,c_{N-1})^T$ ist der Vektor der Spektralkoeffizienten von $\vec{y}$.\\ \newpage Beispiel: $\vec{y} = (1,0,1,0,1,0,\dots,1,0)^T$, Anmerkung: $N=2M$ gerade. Gesucht: $\vec{c} = (c_0,c_1,\dots,c_{N-1})^T$: \begin{gather*} c_k = \frac{1}{N} \sum_{j=0}^{N-1} y_j \cdot \omega^{-kj} = \frac{1}{N} \sum_{j=0}^{\frac{N}{2}-1} \underbrace{y_2j}_{=1}\cdot \omega^{-k\cdot 2\cdot j}= \frac{1}{N} \sum_{j=0}^{\frac{N}{2}-1} (\omega^{-k\cdot 2})^j\\ \text{Betrachte } \sum_{j=0}^n q^j = \begin{cases}n + 1, & q=1\\ \frac{q^{n+1} - 1}{q - 1}, & \text{sonst.}\end{cases}\\ \omega^{-2k}=1, \qquad e^{\frac{2\pi i}{N}(-2k)}=1\\ \omega^q = 1 \,\, \Leftrightarrow \,\, N|Q (\Leftrightarrow q = l\cdot N, \, l \in \mathbb{Z})\\ \omega^{-2k} = 1 \,\, \Leftrightarrow \, \begin{cases}k = 0\\k= \frac{N}{2}\end{cases}\\ \omega^{-2k} = 1 \, \Rightarrow \, c_k = \frac{1}{N} \sum_{j=0}^{\frac{N}{2}-1}(\omega^{-k\cdot 2})^j = \frac{1}{N} \sum_{j=0}^{\frac{N}{2}-1} 1 = \frac{1}{N}\cdot \frac{N}{2} = \frac{1}{2}, \qquad \forall k=0,k=\frac{N}{2}\\ \omega^{-2k} \neq 1 \, \Rightarrow \, c_k = \frac{1}{N} \sum_{j=0}^{\frac{N}{2}-1}(\omega^{-k\cdot 2})^j = \frac{1}{N} \cdot \frac{(\omega^{-2k})^{\frac{N}{2}}-1}{\underbrace{\omega^{-2k}-1}_{\neq 0 \,\, \surd}}\\ \text{betrachte: } \omega^{-2k})^{\frac{N}{2}} = \omega^{-kN}=e^{\frac{2\pi i}{N}\cdot (-k\cdot N)} = e^{-2\pi i k} = 1\\ = \frac{1}{N} \cdot \frac{1-1}{\omega^{-2k}-1} = 0, k \in \{0,\dots,N-1\} \backslash \{0,\frac{N}{2}\} \end{gather*} \subsection{Rechenregeln f{\"u}r DFT} $\operatorname{DFT}(\vec{y}=\vec{c}=(c_0,\dots,c_{N-1})^T$; f{\"u}r $\vec{y}=(y_0,\dots,y_{N-1})^T$. Periodische Funktion $(y_k)$, wobei $y_k=y_{k+N}$ f{\"u}r alle $k \in \mathbb{Z}$. \begin{itemize} \item Linearit{\"a}t \begin{gather*} \alpha\vec{y} + \beta\vec{z} \overbrace{\longrightarrow}^{\operatorname{DFT}} \alpha\vec{c}+ \beta \vec{d}, \qquad \vec{c}=\operatorname{DFT}(\vec{y}), \vec{f}=\operatorname{DFT}(\vec{z}) \end{gather*} \item Verschiebung im Zeitbereich \begin{gather*} (y_{k+N})_{k \in \mathbb{Z}} \overbrace{\longrightarrow}^{\operatorname{DFT}}(\omega^{k\cdot n} \cdot c_k)_{k \in \mathbb{Z}}, \qquad \omega = e^{\frac{2\cdot\pi\cdot i}{N}} \end{gather*} \item Verschiebung im Frequenzbereich \begin{gather*} (y_{k} \cdot \omega^{k\cdot n} )_{k \in \mathbb{Z}} \overbrace{\longrightarrow}^{\operatorname{DFT}}(c_{k-n})_{k \in \mathbb{Z}} \end{gather*} \item Periodisches Faltunsprodukt \begin{gather*} \vec{y} \ast \vec{z} = (\frac{}{^N} \cdot \sum_{j=0}^{N-1} y_j \cdot z_{k-k})_{k \in \mathbb{Z}}\\ \vec{y} \ast \vec{z} \overbrace{\longrightarrow}^{\operatorname{DFT}} (c_k \cdot d_k)_{k \in \mathbb{Z}} \end{gather*} Algorithmus mit $\mathcal{O}(N \log N)$, danach $\mathcal{O}(N)$. \end{itemize} \subsection{FFT-Algorithmus} Betrachten nur $\operatorname{IDFT}: \,\, \vec{c} \overbrace{\longrightarrow}^{\operatorname{IDFT}} \vec{y}, \,\, y_j=\sum_{k=0}^{N-1} c_k \cdot \omega^{k\cdot j}$, mit $0 \leq j \leq N-1$. Idee: 'Die Kosten', um alle Werte $(y_0, \dots, y_{N-1}$ zu berechnen ist i.A. viel geringer als das $N$-fache einer Berechnung von z.B. $y_j$. Betrachten den wichtigsten Fall, da{\ss} $N=2^r$, $r \in \mathbb{N}$. Idee ($k=2\cdot m$, gerade): \begin{gather*} y_j = \sum_{k=0}^{2^r-1} c_k \cdot e^{\frac{2\cdot r \cdot i}{2^r}\cdot k \cdot j} = \sum_{m=0}^{2^r-1} c_{2\cdot m} \cdot e^{\frac{2\cdot r \cdot i}{2^{r}}\cdot 2\cdot m \cdot j} + \sum_{m=0}^{2^r-1} c_{2\cdot m + 1} \cdot e^{\frac{2\cdot r \cdot i}{2^{r}}\cdot (2\cdot m + 1) \cdot j} =\\ \underbrace{\sum_{m=0}^{2^r-1} c_{2\cdot m} \cdot e^{\frac{2\cdot r \cdot i}{2^{r-1}}\cdot m \cdot j}}_{u(j)} + \underbrace{e^{\frac{2\cdot r \cdot i}{2^r}} \cdot j \cdot \sum_{m=0}^{2^r-1} c_{2\cdot m + 1} \cdot e^{\frac{2\cdot r \cdot i}{2^{r-1}}\cdot m \cdot j}}_{v(j)} \end{gather*} \begin{itemize} \item $u(j)$ ist Element der $\operatorname{IDFT}$ von den geraden Koeffizienten ($[c_0, c_2, \dots,c_{N-2}]$) \item $v(j)$ ist Element der $\operatorname{IDFT}$ von den ungeraden Koeffizienten ($[c_1, c_3, \dots,c_{N-1}]$) \end{itemize} Einziges Problem: $\operatorname{IDFT} [c_0, c_2, \dots,c_{N-2}]$ liefert nur $\frac{N}{2}$ Werte, analog $\operatorname{IDFT} [c_1, c_3, \dots,c_{N-1}]$; d.h. erhalte $y_j$ zun{\"a}chst f{\"u}r Werte $0 \leq j \leq 2^{r-1} - 1$. Problem ist leicht zu l{\"o}sen, weil $u(j)$ und $v(j)$ periodisch mit der Periode $\frac{N}{2}=2^{r-1}$ sind, d.h. (bitte nachrechnen!): \begin{itemize} \item $u(j + 2^{r-1}) = u(j)$ \item $v(j + 2^{r-1}) = v(j)$ \end{itemize} \textbf{Allgemeine FFT}: Um die diskrete Fouriertransformation durchzuf{\"u}hren, gen{\"u}gt es, den Vektor $ f$ mit der $ N \times N$ -Matrix $ F_N$ zu multiplizieren. Dies erfordert (neben den Additionen) $ N^2$ Multiplikationen, f{\"u}r gro{\ss}e $ N$ ein zu hoher Aufwand. Die schnelle Fouriertransformation beruht darauf, dass man im Fall $ N = 2^d$ f{\"u}r ein $ d \in \mathbb{N}$ nur $ d \cdot N = N \cdot \log_2(N)$ Multiplikationen ben{\"o}tigt, wenn man gewisse Symmetrien ausnutzt. Dies machen wir uns am Beispiel $ d = 2$ klar. Dann ist $\displaystyle \omega = \exp ( \frac{2 \pi i}{4} ) = \exp ( \frac{\pi}{2} i ) = i.$ Es ergibt sich f{\"u}r $ k = 0, \ldots, 3 $ $\displaystyle \hat{f}_k$ $\displaystyle =$ $\displaystyle f_0 + f_1 i^k + f_2 i^{2 k} + f_3 i^{3 k}$ $\displaystyle =$ $\displaystyle f_0 + f_2 (i^2)^k + i^k ( f_1 + f_3 (i^2)^k ).$ Wir setzen $ g = ( f_0 , f_2 )^t$ und $ u = ( f_1 , f_3 )^t$ . Dann l{\"a}sst sich die Gleichung f{\"u}r $ \hat{f}_k$ umformen. F{\"u}r $ k \leq 1 = N/2 - 1$ gilt $\displaystyle \hat{f}_{k, N} = \hat{g}_{k, N/2} + i^k \hat{u}_{k, N/2} .$ (Wir haben dabei durch den zus{\"a}tzlichen Index $ N$ bzw. $ N/2$ angedeutet, dass es sich um eine diskrete Fouriertransformation im $ \mathbb{C}^N$ bzw. $ \mathbb{C}^{N/2}$ handelt.) F{\"u}r $ k = 2$ bzw. $ 3$ sei $ k' = k$ mod $ N/2$ . Dann ist $ \hat{f}_{k, N} \, = \, \hat{g}_{k', N/2} + i^k \hat{u}_{k', N/2}$ . Wir haben also Fouriertransformationen in $ \mathbb{C}^{N/2}$ und eine anschlie{\ss}ende ``Zusammensetzung'' erhalten. Allgemein ergibt sich das folgende rekursive Schema: $\displaystyle g (f)$ $\displaystyle =$ $\displaystyle ( f_0 , f_2, f_4, \ldots, f_{N-2} ), u (f) = ( f_1, f_3 , \ldots, f_{N-1} )$ $\displaystyle \hat{f}_{k, N}$ $\displaystyle =$ $\displaystyle \widehat{g(f)}_{k \mbox{ \rm mod }N/2 , N/2} + \overline{\omega}^k \widehat{u(f)}_{k \mbox{ \rm mod }N/2, N/2} \quad \quad k = 0, \ldots , N-1.$ Die Rekursion kann man $ d = \log_2(N)$ mal aufrufen. Pseudocode: \begin{figure}[htbp] \centering \includegraphics[scale=0.6]{FFT-Pseudo.eps} \caption{FFT-Pseudocode} \label{fig:gi} \end{figure} \newpage \textbf{Komplexit{\"a}tsanalyse}: $M(r)$ sei die Anzahl der komplexen Multiplikationen im FFT eines Vektors der L{\"a}nge $N=2^r$: \begin{gather*} M(r) = 2^r + 2\cdot M(r-1), \qquad r > 1\\ M(0) = 0, \qquad \frac{M(r)}{2^r} = M(\frac{r-1}{2^{r-1}}) + 1 = r - \underbrace{M(0)}{=0}\\ M(r) = r \cdot 2^r = N \cdot \log_2 N = \mathcal{O}(N \cdot \log N) \end{gather*} \newpage \subsection{Beispiele f{\"u}r Anwendung der DFT} \subsubsection[Approximation der Fourier-Koeffizienten]{Approximation der Fourier-Koeffizienten einer Fourier-Reihe} Betrachten $2r$-periodische Funktion $f(t)$. Auswerten an den St{\"u}tzstellen $f(\frac{2\pi}{N}, j)$, $0 \leq j \leq N-1$: \begin{gather*} \Rightarrow \,\,\, (y_0, y_1, \dots, \underbrace{y_j}_{\frac{2r}{N}}, \dots, y_{N-1})=y \end{gather*} Betrachte $\vec{c} = (c_0, \dots, c_{N-1}) = \operatorname{DFT}(y)$. Betrachte $N$-periodische Fortsetzung ($c_k$). Es gilt: $c_k$ f{\"u}r $-\frac{N}{2} \leq l \leq \frac{N}{2}$ sind eine gute Approximation f{\"u}r Fourier-Koeffizienten der Fourier-Reihe von $f(t)$. \subsubsection{Trigonometrische Interpolation} Gegeben sind Werte $(y_0,y_1, \dots, y_{N-1})=\vec{y}$. Gesucht ist ein trigonometrisches Polynom von kleinstem Grad \begin{gather*} \sum_{k=-n}^n c_k \cdot e^{i\cdot k \cdot t}, \end{gather*} sodass dieses an den St{\"u}tzstellen $\frac{2r}{N} \cdot j$ genau die Werte $y_j$ annimmt. Falls $N$ ungerade ist, so ist das trigonometrische Polynom eindeutig bestimmt und es gilt dann $N=2n+1$. Einsetzen der Werte an den St{\"u}tzstellen liefert $N$ Gleichungen: \begin{gather*} \mathbf{y_j = \sum_{k=-n}^n c_k \cdot \omega^{k \cdot j}, \qquad 0 \leq j \leq 2n, \omega=e^{\frac{2\pi i}{N}}}\\ y_j = \sum_{k=0}^{2n} c_{k-n} \cdot \omega^{(k-n) \cdot j} = \sum_{k=0}^{2n} c_{k-n} \cdot \omega^{kj}\cdot\omega^{-nj}\\ \Rightarrow \omega^{nj} \cdot y_j = \sum_{k=0}^{2n} c_{k-n} \cdot \omega^{kj}, \qquad 0 \leq j \leq 2n = N - 2\\ \Rightarrow (\omega^{nj} \cdot y_j)_{j \in \mathbb{Z}} = \operatorname{IDFT}(c_{k-n})\\ \Rightarrow c_{k-n} = \operatorname{IDFT} ((\omega^{nj} \cdot y_j)_{j \in \mathbb{Z}}) \end{gather*} Liefert schlie{\ss}lich $(c_0. c_1, \dots, c_{n-1}, c_n, c_{n+1}, \dots, c_{2n}) = \operatorname{DFT}(y_0, y_1, \dots, y_{2n})$. \section{Fourier-Transformation} \subsection{Grundlagen} Gegeben: Funktion $f(t)$, $f: \mathbb{R} \rightarrow \mathbb{R}$. Falls der Cauchy-Hauptwert \begin{gather*} \mathcal{F}\{f(t)\} := F(\omega) := \text{(CHW)} \int_{-\infty}^{+\infty} f(t) \cdot e^{-i \cdot \omega \cdot t}\operatorname{d}t \end{gather*} f{\"u}r alle $\omega \in \mathbb{R}$ existiert, dann hei{\ss}t $F(\omega)$ die Fourier-Transformierte oder \textbf{Spektralfunktion}von $f(t)$. $f(t)$ liegt im Zeitbereich (= Originalbereich), $F(\omega)$ liegt im Frequenzebreich (= Bildbereich). Definition: Geg. ist eome Funktion $f(t)$. Der Cauchy-Hauptwert $\text{(CHW)} \int_{-\infty}^{+\infty} f(t) \operatorname{d}t$ ist folgendermassen definiert: \begin{gather*} \text{(CHW)} \int_{-\infty}^{+\infty} f(t)\operatorname{d}t= \lim_{N \rightarrow \infty} \int_{-N}^N f(t)\operatorname{d}t \end{gather*} Beispiel: $f(t)=\frac{t}{1+t^2}, \,\, \int_{-N}^N f(t)\operatorname{d}t = 0, \,\, \forall N$: \begin{figure}[htbp] \centering \includegraphics[scale=0.3]{FRD-3.eps} \caption{Fourier-Transformation} \label{fig:gi} \end{figure} Anmerkung: Falls f{\"u}r die Funktion $f(t)$ das uneigentliche Riemann-Integral $\int_{-\infty}^\infty f(t)\operatorname{d}t$ existiert, dann existiert auch $\text{(CHW)} \int_{-\infty}^{+\infty} f(t) \operatorname{d}t$ und es gilt: $\text{(CHW)} \int_{-\infty}^{+\infty} f(t) \operatorname{d}t = \int_{-\infty}^{+\infty} f(t) \operatorname{d}t$ \begin{gather*} \mathbf{F(s)=\mathcal{F}\{f(t)\} = \operatorname{(CHW)}\int_{-\infty}^{+\infty} f(t) \cdot e^{-i \cdot \omega \cdot t} \operatorname{d}t} \end{gather*} Beispiel Rechteckfunktion: \begin{gather*} \sqcap (t)=\begin{cases}0, & |t| < 1\\0, & |t|>1 \\ 1, & \text{sonst.}\end{cases}\\ \mathcal{F} \{ \sqcap (t) \} = \int_{-\infty}^{+\infty} \sqcap (t) \cdot e^{-i \cdot \omega \cdot t} \operatorname{d}t= \int_{-1}^{1} 1 \cdot e^{-i \cdot \omega \cdot t} = \frac{e^{-i \cdot \omega \cdot t}}{-i \cdot \omega}= \frac{1}{-i\cdot\omega}(e^{-i\omega} - e^{i\omega})=\\ \frac{1}{-i\cdot\omega}(\cos(-\omega) + i\sin(-\omega)-\cos(\omega) - i\sin(\omega)) = \frac{2\sin \omega}{\omega}\\ \omega \neq 0, \, (\omega = 0 \, \Rightarrow \, F(0)=2) \end{gather*} Beispiel Spaltfunktion: \begin{gather*} \mathrm{sinc}(x) = \mathrm{si}(x) := \begin{cases} \frac{\sin (x)}{x} & \mbox{falls } x \ne 0 \\ 1 & \mbox{falls } x = 0 \end{cases} \end{gather*} Die Spaltfunktion ist die Fouriertransformierte der Rechteckfunktion \begin{gather*} \mathrm{rect} \left(\frac{t}{\tau} \right) =\chi_{[-\tau/2,\tau/2]}(t) := \begin{cases}1 & |t|\le\tau/2 \\ 0 & \mathrm{sonst} \end{cases}, \end{gather*} denn es gilt \begin{gather*} \mathcal F(\chi_{[-\tau/2,\tau/2]})(\omega) = \frac1{\sqrt{2\pi}}\int \limits_{-\tau/2}^{\tau/2} e^{-\mathrm{i} \omega t}\, dt = \frac1{\sqrt{2\pi}}\,\tau \,\mathrm{sinc} \left( \frac{\omega \tau}{2} \right) \end{gather*} Wichtige Frage: Wann existiert die $\mathcal{F}$-Transformation der Funktion $f(t)$? Definition: Eine Funktion $f(t)$ heisst \textbf{absolut integrierbar}, wenn sie in jedem endlichen Intervall st{\"u}ckweise stetig ist und wenn gilt: \begin{gather*} \int_{-\infty}^\infty |f(t)| \operatorname{d}t < \infty \end{gather*} Satz: Falls eine Funktion $f(t)$ absolut integrierbar ist, dann existiert die $\mathcal{F}$-transformierte $F(\omega)$ f{\"u}r alle $\omega \in \mathbb{R}$; $F(\omega)$ ist stetig und beschr{\"a}nkt. \textbf{Erg{\"a}nzungen zum Begriff '\emph{absolut integrierbar}'} Die Behauptung, dass bei einer absolut integrierbaren Funktion $f(t)$ gelte \begin{gather*} \lim_{t \rightarrow \infty} f(t)=0 \end{gather*} ist i.A. falsch. Damit diese Behauptung gilt. m{\"u}ssen folgende Bedingungen erf{\"u}llt sein:\begin{enumerate} \item $f(t)$ absolut integrierbar \item $f(t)$ stetig \item $f'(t)$ absolut integrierbar \begin{gather*} \int_{-\infty}^\infty |f'(t)| \operatorname{d}t = c \, \, \Rightarrow \,\, \int_{-\infty}^\infty f'(t) \operatorname{d}t = \breve{c} \end{gather*} \item $f(t)$ st{\"u}ckweise stetig differenzierbar. \end{enumerate} Dan gilt: $\lim_{t \rightarrow \infty} f(t) = \lim_{t \rightarrow -\infty}f(t) = 0$. Allgemein gilt: \begin{gather*} |f(t)| = f'_+(t) + |f'_-(t)| \\ lim_{t \rightarrow \infty} f(t) - lim_{t \rightarrow -\infty} f(t)= \breve{c} \end{gather*} Weiters gilt die Plancherel-Gleichung (Energiegleichung). Der parsevalschen Gleichung f{\"u}r die Fourierreihe entspricht eine Identit{\"a}t der Fouriertransformation, die gemeinhin als Satz von Plancherel bezeichnet wird: \begin{gather*} \frac{1}{2\pi}\int_{-\infty}^{\infty} |F(\omega)|^2 \operatorname{d}\omega = \int_{-\infty}^{\infty} |f(t))|^2 \operatorname{d}t \end{gather*} Satz: \textbf{Fourier-Integraltheorem}: Ist die Funktion $f(t)$ absolut integrierbar und ist $f(t)$ auf jedem endlichen Intervall st{\"u}ckweise stetig differenzierbar, dann gilt: \begin{gather*} \frac{f(t)^+f(t)^-}{2} = \frac{1}{2\pi}\int_{-\infty}^{\infty} F(\omega)e^{i\omega t} \operatorname{d}\omega \end{gather*} Anmerkung: Falls $f(t)$ stetig ist gilt: \begin{gather*} f(t)=\frac{1}{2\pi}\int_{-\infty}^{\infty} F(\omega)e^{i\omega t} \operatorname{d}\omega=\mathcal{F}^{-1}(F(\omega)) = \frac{1}{2\pi}\mathcal{F}\{F(-\omega)\} \end{gather*} \subsection{Umkehr- und Eindeutigkeitssatz} Gilz f{\"u}r eine Funktion $f(t)$ \begin{itemize} \item $f(t)$ ist absolut integrierbar \item $f(t$ ist auf endlichen Intervallen st{\"u}ckweise stetig differenzierbar \item $f(t)$ ist Mittelwerteigenschaft $f(t)=\frac{f(t^+) + f(t^-)}{2}$ \end{itemize} \begin{figure}[htbp] \centering \includegraphics[scale=0.3]{mittelwerteigenschaft.eps} \caption{Mittelwerteigenschaft der Fourier-Transformation} \label{fig:gi} \end{figure} Dann gilt, dass neben $f(t)$ auch $F(\omega) = \mathcal{F}\{f(t)\}$ $\mathcal{F}$-transformierbar ist, und es gilt: \begin{gather*} f(t)=\mathcal{F}^{-1} \{F(\omega)\} = \frac{1}{2\pi}\mathcal{F}\{F(-\omega)\}=\frac{1}{2\pi} \text{(CHW)} \int_{-\infty}^{\infty} e^{i\omega t} \cdot F(\omega) \operatorname{d}\omega \end{gather*} \subsection{Rechenregeln f{\"u}r die $\mathcal{F}$-Transformation} $f(t)$, $g(t)$ seien absolut integrierbare Funktionen; $F(\omega)$, $G(\omega)$ entsprechende Spektralfunktionen: \begin{itemize} \item Linearit{\"a}t: \begin{gather*} \mathcal{F}\{\alpha f(t) + \beta g(t)\}= \alpha\mathcal{F}\{f(t)\} + \beta\mathcal{F}\{g(t)\}= \alpha F(\omega) + \beta G(\omega) \end{gather*} \item Streckung: \begin{gather*} \mathcal{F}\{f(c\cdot t)\} = \frac{1}{|c|}F(\frac{\omega}{c}), \qquad c\neq 0 \end{gather*} \item Verschiebung im Zeitbereich: \begin{gather*} \mathcal{F}\{f(t-a)\} = e^{-ia\omega}F(\omega), \qquad a \in \mathbb{R} \end{gather*} \item Verschiebung im Frequenzbereich: \begin{gather*} \mathcal{F}\{e^{i\Omega t}f(t)\} = F(\omega \Omega), \qquad \Omega \in \mathbb{R} \end{gather*} \item Differentiation im Zeitbereich: \begin{gather*} \mathcal{F}\{f'(t)\}=i\omega F(\omega)\\ \text{Voraussetzung; } f(t) \text{ stetig,} f'(t) \mathcal{F}\text{-transformierbar} \end{gather*} \item Differentiation im Frequenzbereich: \begin{gather*} \mathcal{F}\{t \cdot f(t)\} = i \cdot F'(\omega)\\ \text{Voraussetzung; } \,\, t \cdot f(t) \, \text{ ist } \, \mathcal{F}\text{-transformierbar} \end{gather*} \item Faltungsprodukt $f(t) \, \ast \, g(t)$ \begin{gather*} (f \, \ast \, g)(t) := \int_{-\infty}^\infty f(\tau)\cdot g(t-\tau) \operatorname{d}\tau \end{gather*} \item Faltung: \begin{gather*} \mathcal{F\{f \ast g\}}=F(\omega)\cdot G(\omega) \end{gather*} \item Konjugation: \begin{gather*} \mathcal{F}\{\overline{f(t)}\} = \mathcal{F}(-\omega) \end{gather*} \item Symmetrien: \begin{gather*} f(t) = f(-t) \qquad \Leftrightarrow \qquad F(\omega)=F(-\omega)\\ f(t) = -f(-t) \qquad \Leftrightarrow \qquad -F(\omega)=F(-\omega) \end{gather*} \end{itemize} \subsection{Anwendung der $\mathcal{F}$-Transformation} \subsubsection{Hilfsmittel zum L{\"o}sen von DGL} Anmerkung: i.A: ist $\mathcal{L}$-Transformation vorzuziehen. Ein Beispiel von Bedeutung: L{\"o}sen bestimmter PDGen, z.B. W{\"a}rmeleitungsgleichungen. \subsubsection{L{\"o}sen von Integralgleichungen} Die im Gegensatz zur $\mathcal{L}$-Transformation anmdere Form des Faltungsproduktes erm{\"o}glicht die L{\"o}sung von Integralen vom Fredholm-Typ: \begin{gather*} \int_{-\infty}^\infty k(t-\tau)x(\tau)\operatorname{d}\tau - \lambda x(t) = f(t), \qquad t \in \mathbb{R} \end{gather*} Wenn alle Funktionen absolut integrierbar sind, lautet die Gleichung f{\"u}r die zugeh{\"o}rigen Spektralfunktionen: \begin{gather*} K(\omega)X(\omega) - \lambda X(\omega) = F(\omega) \end{gather*} Wenn $x(t)$ dem Umkehr und Eindeutigkeitssatz gen{\"u}gt, erh{\"a}lt man die L{\"o}sung $X(\omega)$ dieser Gleichung mit der inversen $\mathcal{F}$-Transformation als L{\"o}sung der Integralgleichung \begin{gather*} x(t)=\frac{1}{2\pi}\int_{-\infty}^\infty \frac{F(\omega)}{K(\omega)-\lambda}e^{i\omega t} \operatorname{d}\omega \end{gather*} \subsubsection{Nachrichtentechnik} Betrachten idealen 'Tiefpassfilter': \begin{figure}[htbp] \centering \includegraphics[scale=0.3]{ntr.eps} \caption{Tiefpassfilter} \label{fig:gi} \end{figure} Wirkung eines Filters: F{\"u}r eine periodisches Eingangssignal wird nur die Amplitude des Signals ver{\"a}ndert, aber die Frequenz unver{\"a}ndert gelassen. Idealer Tiefpassfilter: Alle Frequenzen $|\omega|>\Omega$ werden gesperrt, aber alle Frequenzen $|\omega| \leq \Omega$ werden unver{\"a}ndert durchgelassen, Betrachten Spektralbereich: \begin{gather*} F(\omega)=\mathcal{F}\{f(t)\}, \, G(\omega)=\mathcal{F}\{g(t)\} \end{gather*} Wirkung: $G(\omega) = H(\omega) \cdot F(\omega)$. Dabei ist $H(\omega)$ die {\"U}bertragungsfunktion f{\"u}r den idealen Tiefpassfilter; \begin{gather*} H(\omega) := \begin{cases}1, &|\omega| \leq \Omega\\0, & |\omega|>\Omega\end{cases} \end{gather*} Betrachte $h(t)=\mathcal{F}^{-1}\{H(\omega)\}$. Im Zeitbereich liefert dies: \begin{gather*} g(t) = g(t) \, \ast \, f(t)\\ h(t)=\mathcal{F}^{-1}\{H(\omega)\} = \frac{1}{2\pi}\int_{-\infty}^\infty e^{i\omega t} \cdot H(\omega) \operatorname{d}\omega = \\ \frac{1}{2\pi}\int_{-\Omega}^\Omega 1 e^{i\omega t} \operatorname{d}\omega=\frac{1}{2\pi} \frac{e^{i\omega t}}{it}|_{-\Omega}^\Omega=\\ \frac{1}{2\pi} \cdot \frac{e^{i\Omega t}-e^{-i\Omega t}}{it}=\frac{1}{2\pi i t}(i(\sin (\Omega t)+ \sin (\Omega t))=\\ \frac{\sin (\Omega t)}{\pi t} = \frac{\Omega}{\pi} \cdot \frac{\sin (\Omega t)}{\Omega t} =\\ \frac{\Omega}{\pi} \cdot \sin (\Omega t) \end{gather*} $\sin (\Omega t)$ ist die Spaltfunktion. Daraus folgt weiter: \begin{gather*} g(t) = \frac{\Omega}{\pi} \cdot \sin (\Omega t) \ast f(t) \end{gather*} \section{Partielle Differentialgleichungen (PDG)} Eine Gleichung der Form \begin{gather*} F(x_1, \dots, x_n, u, u_{x_1}, \dots, u_{x_n}, u_x, \dots, \frac{\operatorname{d}^m}{\operatorname{d}x_{1}^{m1}x_{1}^{m2}\dots x_{1}^{mm}}u) = 0 \end{gather*} in der neben der unbekannten Funktion $u(x_1,\dots,x_n)$ auch partielle Ableitungen vorkommen hei{\ss}t PDG. Ordnung der PDG; Die gr{\"o}{\ss}te $m := m_1 + \dots + m_n$ hei{\ss}t Ordnung der PDG, Definition: EIne Funktion $u: G \subseteq \mathbb{R}^n \rightarrow \mathbb{R}$ hei{\ss}t L{\"o}sung der DGL, wenn die $m$-ten Ableitungen von $n$ existieren und $u$ auf $G$ die obige DGL erf{\"u}llt. Anmerkung: Die L{\"o}sungen $u(x,y)$ einer PDG in 2 Variablen sind Fl{\"a}chen in $\mathbb{R}^3$. (L{\"o}sungsfl{\"a}chen, Integralfl{\"a}chen). \subsection{PDGen, die sich wie gew{\"o}hnliche DGLen behandeln lassen} Einzige Schwierigkeit; Die Integrationskonstanten h{\"a}ngen i.A. von allen {\"u}brigen Variablen ab. Beispiel; Gegeben $u(x,y)$: \begin{itemize} \item $u_{xx}=0 \, \Rightarrow \, u_x = c(y)$. Daraus folgt weiter nach $\int \operatorname{d}x$: $c(y)x + \operatorname{d}y$. Dabei ist $\operatorname{d}y$ eine beliebige, differenzierbare Funktion. \item $u_{xy}=0$. Daraus folgt weiter nach $\int \operatorname{d}y$: $u_{x}=\breve{c}(x)$. Daraus folgt weiter nach $\int \operatorname{d}x$: $c(x) + \operatorname{d}y$. Dabei ist $\breve{c}(x)$ eine beliebige Funktion. \end{itemize} \subsection{Lineare PDH 1. Ordnung mit Konstanten Koeffizienten} $2$ Variablen, $a, b \in \mathbb{R}$: \begin{gather*} au_x + bu_y = f(x,y) \end{gather*} Idee: geeignete Variablensubstitution, so dass gew{\"o}hnliche DGL entsteht: \begin{gather*} \xi = bx + ay, \qquad \eta = bx - ay\\ x = \frac{\xi + \eta}{2b}, \qquad y = \frac{\xi - \eta}{2a}\\ (x,y) \mapsto (\xi, eta), \qquad U(\xi,\eta)=u(\frac{\xi + \eta}{2b}, \frac{\xi - \eta}{2a})=u(x,y)\\ \neq F(\xi, \eta) f(\frac{\xi + \eta}{2b}, \frac{\xi - \eta}{2a})=f(x,y) \end{gather*} Nach Anwendung der Kettenregel ergibt sich: \begin{gather*} F(\xi, \eta) = au_x + bu_y = a(U_\xi \xi_x + U_\eta \eta_x) + b(U_\xi + \xi_y + U_\eta \eta_y)=\\ a(U_\xi b + U_\eta b) + b(U_\xi a + U_\eta (-a)) = abU_\xi + abU_\eta + abU_\xi - abU_\eta = 2abU_\xi\\ \Rightarrow U_\xi = \frac{1}{2ab} \cdot F(\xi, \eta)\\ \Rightarrow U(\xi, \eta)=\frac{1}{2ab}\int F(\xi, \eta)\operatorname{d}\xi + G(\eta)\\ \Rightarrow u(x,y)= \frac{1}{2ab}\int F(\xi, bx-ay) \operatorname{d}\xi+ G(\eta)\\ \Rightarrow u(x,y)= \frac{1}{2ab}\int_{bx_0+ax_0}^{bx+ay} F(\xi, bx-ay) \operatorname{d}\xi+ G(\eta) \end{gather*} Beispiel: \begin{gather*} 2u_x + 3u_y = e^{x+y} \\ \xi = 3x + 2y, \qquad \eta = 3x-2y, \qquad x = \frac{\xi + \eta}{2}, \qquad y = \frac{\xi - \eta}{2}\\ U_\xi= \frac{1}{12} F(\xi, \eta) = \frac{1}{12}e^{\frac{4 + \eta}{6} + \frac{\xi - \eta}{6}}= \frac{1}{12} e^{\frac{5}{12}\xi - \frac{1}{12}\eta}\\ \Rightarrow U(\xi, \eta) = \frac{1}{12} \int e^{\frac{5}{12}\xi - \frac{1}{12}\eta} \operatorname{d}\xi + G(\eta)=\frac{1}{12}e^{-\frac{1}{12}\eta} \int e^{\frac{5}{12}\xi}\operatorname{d}\xi + G(\eta) =\\ \frac{1}{12}e^{-\frac{1}{12}\eta} \frac{e^{\frac{5}{12}\xi}}{\frac{5}{12}}+ G(\eta) = \frac{1}{5}e^{\frac{5}{12}\xi - \frac{1}{12}\eta} + G(\eta) =\\ \frac{1}{5}e^{x+y} + G(3x-2y) \end{gather*} $G$ ist eine beliebig differenzierbare Funktion. \subsection{Eindimensionale Schwingungsgleichung (Wellengleichung)} \begin{gather*} u_{tt} = c^2u_{xx} = f(x,t) \end{gather*} $u_{tt}$ ist Auslenkung (Elongation) der Saite zum Zeitpunkt $t$ an der Stelle $x$. $c^2$ ist die Ausbreitungsgeschwindigkeit. $f(x,t)$ bezeichnet den Einfluss der {\"a}usseren Kr{\"a}fte.\\ Geeignete Substitution: $\xi = x - ct$, $\tau=x + ct$. Daraus folgt weiter: $x = \frac{\xi + \tau}{2}$, $t = \frac{\xi - \tau}{2}$: \begin{gather*} U(\xi,\tau)=u(\frac{\xi + \tau}{2}, \frac{\xi - \tau}{2})=u(x,t)\\ F(\xi,\tau)=f(x,t)\\ U_t = U_\xi \cdot \xi_t + U_\tau \cdot \tau_t= U_\xi(-x) + U_\tau c = -cU_\xi + cU_\tau\\ u_{tt}=(-cU_\xi + cU_\tau) = - c(U_{\xi\xi}\xi_t + U_{\tau\xi}\tau_t)+c(c(U_{\tau\xi}\xi_t + U_{\tau\tau}\tau_t))=\\ -c(U_{\xi\xi}(-c) + U_{\tau\xi}c) + (U_{\tau\xi}(-c) + U_{\tau\tau}c)= c^2(U_{\xi\xi} - 2U_{\tau\xi}+U_{\tau\tau})\\ U_x = U_\xi\xi_x + U_\tau\tau_x = U_\xi + U_\tau\\ U_{xx}= U_{\xi\xi}\xi_x + U_{\tau\tau}\tau_x + U_{\tau\xi}\xi_x + U_{\tau\tau}\tau_x=U_{\xi\xi} + 2U_{\tau\xi}+U_{\tau\tau}\\ F(\xi,\eta) = u_{tt} - c^2u_{xx} = c^2(U_{\xi\xi} - 2U_{\xi\tau} + U_{\tau\tau}) - c^2(U_{\xi\xi} + 2U_{\xi\tau} U I_{\tau\tau})= -4c^2U_{\xi\tau}\\ \Rightarrow U_{\xi\tau}=-\frac{1}{4c^2}F(\xi,\tau) \end{gather*} Dies ist eine gew{\"o}hnliche DGL: \begin{gather*} \Rightarrow U(\xi,\tau)=-\frac{1}{4c^2} \int \int F(\xi,\tau) \operatorname{d}\xi\operatorname{d}\tau \end{gather*} Dies ergibt eine Partikul{\"a}rl{\"o}sung. Die allgemeine L{\"o}sung setzt sich aus der L{\"o}sung der zugeh{\"o}rigen homogenen DGL und einer Partikul{\"a}rl{\"o}sung zusammen (Summe). \begin{gather*} U_{\xi\tau} = 0 \Rightarrow \, \int \operatorname{d}\tau \, \Rightarrow U_\xi ) \breve{\psi}(\xi)\\ \Rightarrow \int \breve{\psi}\operatorname{d}\xi + \varphi(\tau)= U(\xi,\tau) = \varphi(\tau) + \psi(\xi)\\ u(x,t) = \varphi(x+ct) + \psi(x-ct) \end{gather*} Das ist die L{\"o}sungsformel von d'Alembert ({\"U}berlagerung zweier gegenl{\"a}ufiger Wellen). \subsection{Lineare PDG 1. Ordnung} \begin{gather*} a_1(x_1,\dots,x_n)u_{x_1} + a_2(x_1,\dots,x_n)u_{x_2} + \dots +\\ + a_n(x_1,\dots,x_n)u_{x_n} + c(x_1,\dots,x_n)u + d(x_1,\dots,x_n)= 0\\ a_1(\vec{x})u_{x_1} + a_2(\vec{x})u_{x_2} + \dots + a_n(\vec{x})u_{x_n} + c(\vec{x})u + d(\vec{x})=0 \end{gather*} F{\"u}r Funktion $u = u(x_1,\dots,x_n)$. Sonderfall: $c=d=0$ - 'Rumpf'-DGL: \begin{gather*} a_1(x_1,\dots,x_n)u_{x_1} + a_2(x_1,\dots,x_n)u_{x_2} + \dots + a_n(x_1,\dots,x_n)u_{x_n}=0 \end{gather*} Betrachten in Systemen von linearen DGL 'gekoppelte' Gr{\"o}ssen $x_1(t), x_2(t), \dots, x_n(t)$, beschierben durch ein System von DGL: \begin{gather*} \begin{matrix} x_1(t) = v_1(t,x_1,\dots,x_n) \\ x_2(t) = v_2(t,x_2,\dots,x_n) \\ \vdots \\ x_n(t) = v_n(t,x_2,\dots,x_n) \\ \end{matrix} \qquad \Rightarrow \,\, \dot{\vec{x}}(t)=\vec{v}(t,\vec{x}) \end{gather*} \textbf{Existenz- und Eindeutigkeitssatz f{\"u}r Systeme:} Wenn das Vektorfeld $\vec{v}(t,\vec{x})$ f{\"u}r alle $a < t < b$ und f{\"u}r alle $\vec{x}$ im Gebiet $D \subseteq \mathbb{R}^2$ stetig partiell nach $x_1, \dots, x_n$ differenzierbar ist, dann besitzt das AWP \begin{gather*} \dot{\vec{c}}(t) = \vec{v}(t, \vec{x}), \qquad \dot{\vec{c}}(t_0) = \vec{x}_0 \end{gather*} genau eine (maximale) L{\"o}sung.\\ Betrachten autonomes DGL-System (h{\"a}ngt nicht von $t$ ab) und setzen voraus, dass $\vec{v}(\vec{x})$ stetigt nach $x_1, \dots, x_n$ partiell differenzeirbar ist f{\"u}r $\vec{x} \in D$: \begin{gather*} \vec{x} = \vec{v}(\vec{x}) \end{gather*} Nach dem EE-Satz gibt es f{\"u}r jedes $\vec{a} \in D$ eine L{\"o}sungskurve, die f{\"u}r $t=0$ durch $\vec{a}$ geht. 'Notation' \begin{gather*} \vec{x}(t) = \Phi(t,\vec{a}) \end{gather*} Dabei ist $\Phi(t,\vec{a})$ die L{\"o}sungskurve.\\ Definition: Eine Funktion $u: D \subseteq \mathbb{R}^n \rightarrow \mathbb{R}$ hei{\ss}t \textbf{erstes Integral (=Invariante)}des DGL-Systems $\dot{\vec{x}}=\vec{v}(\vec{x})$, falls $u(\vec{a})=u(\Phi(t,\vec{a}))$ f{\"u}r alle $\vec{a} \in D$, d.h. $u$ ist konstant entlang jeder L{\"o}sungskurve: \begin{figure}[htbp] \centering \includegraphics[scale=0.3]{erstes_integral.eps} \caption{Erstes Integral} \label{fig:gi} \end{figure} Beispiel: $\dot{x}=1, \dot{y}=1$, $x(0)=0, y(0)=0$. L{\"o}sen $x(t) = t + c$ und ergibt $c=0$ (wegen ($x(0)=0$) und daraus $x(t)=t$. Analog $y(t)=t$. \begin{gather*} \begin{pmatrix} x(t) \\ y(t) \\ \end{pmatrix} = \begin{pmatrix} t \\ t \\ \end{pmatrix} \end{gather*} \begin{figure}[htbp] \centering \includegraphics[scale=0.3]{bsp_erstes_integral.eps} \caption{Erstes Integral $x(t)=t$} \label{fig:gi} \end{figure} Behauptung: $y-x$ ist erstes Integral. $u(x(t), y(t)) = t-t = 0$. Allgemein gilt: \begin{gather*} \begin{pmatrix} x(t) \\ y(t) \\ \end{pmatrix} = \begin{pmatrix} t \\ t \\ \end{pmatrix} + \begin{pmatrix} c \\ d \\ \end{pmatrix} = t + d - (t+c)= d - c = \text{const.} \end{gather*} 'Methode' zum Finden eines m{\"o}glichst allgemeinen ersten Integrals: \begin{gather*} \text{System der Phasen-DGL} (n-1) \,\, \frac{\operatorname{d}x_1}{\operatorname{d}x_n}= \frac{v_1(\vec{x})}{v_n{\vec{x}}}, \dots, \frac{\operatorname{d}x_{n-1}}{\operatorname{d}x_n}= \frac{v_{n-1}(\vec{x})}{v_n{\vec{x}}} \end{gather*} Aus den ersten $n-1$ Gleichungen gewonnen: \begin{gather*} \dot{x}_1(t) = v_1(x_1, \dots, x_n)\\ \dot{x}_2(t) = v_2(x_1, \dots, x_n)\\ \vdots\\ \dot{x}_n(t) = v_n(x_1, \dots, x_n) \end{gather*} Annahme: $v_n(x_1, \dots, x_n) \neq 0$. Nach dem Hauptsatz impliziter Funktionen l{\"o}sen wir $x_n$ nach $t$ auf, d.h. $t=x_n(t)$. Nun ersetzen wir $t$ {\"u}berall durch $x_n$ und erhalten: \begin{gather*} x_1(t) = x_1(x_n(t))=x_1\\ \vdots\\ x_{n-1}(t) = x_{n-1}(x_n(t))=x_{n-1} \end{gather*} Ergibt allgemeine L{\"o}sung mit frei w{\"a}hlbaren Parametern $c_1, \dots, c_{n-1}$: \begin{gather*} x_1(x_n)=g_1(x_n, c_1, \dots, c_{n-1})\\ x_2(x_n)=g_2(x_n, c_1, \dots, c_{n-1})\\ \vdots\\ x_{n-1}(x_n)=g_{n-1}(x_n, c_1, \dots, c_{n-1}) \end{gather*} Weiter gilt: Wir k{\"o}nnen nach $c_1, \dots, c_{n-1}$ aufl{\"o}sen: \begin{gather*} c_1 = \varphi_1(x_1(t), \dots, x_n(t))\\ c_2 = \varphi_2(x_1(t), \dots, x_n(t))\\ \vdots\\ c_{n-1} = \varphi_{n-1}(x_1(t), \dots, x_n(t)) \end{gather*} Es gilt: $\varphi_1(\vec{x}), \dots, \varphi_{n-1}(\vec{x})$ sind unabh{\"a}ngige erste Integrale von $\dot{\vec{x}} = \vec{v}(\vec{x}(t))$. Allgemein gilt: $\varphi_1(\vec{x}), \dots, \varphi_{k}(\vec{x})$sind erste Integrale - dann ist \begin{gather*} F(\varphi_1(\vec{x}), \dots, \varphi_{k}(\vec{x})) \end{gather*} erstes Integral f{\"u}r jede $k$-stellige, differenzierbare Funktion. Beispiel: $u(x,y)=y-x=\text{const.}$: Daraus folgt dass \begin{gather*} F(\varphi_1(\vec{x}), \dots, \varphi_{n-1}(\vec{x})) \end{gather*} i.A. ein erstes Integral von $\vec{x}(t)=\vec{v}(\vec{x}(t))$.\\ Weiteres Beispiel: Gegeben sei die Rumpf-DGL \begin{gather*} a_1(\vec{x})u_{x_1} + a_2(\vec{x})u_{x_2} + \dots + a_n(\vec{x})u_{x_n}= 0 \end{gather*} begr{\"u}ndet folgendes charakteristische DGL-System f{\"u}r eine Rumpf-DGL $\vec{a})(a_1, \dots, a_n)^T$: \begin{gather*} \dot{x}_1(t) = a_1(\vec{x})\\ \dot{x}_2(t) = a_2(\vec{x})\\ \vdots \dot{x}_n(t) = a_n(\vec{x}) \end{gather*} Dieses System kann man k{\"u}rzer mit $\dot{\vec{x}}=\vec{a}(\vec{x})$ anschreiben. Es gilt folgender Satz: Sei $U \in G \subseteq \mathbb{R}^n \rightarrow \mathbb{R}$ eine stetige, nach $x_1, \dots, x_n$ differenzierbare Funktion. Dann gilt, dass $u(x_1, \dots, x_n)$ ist eine L{\"o}sung der Rumpf-DGL und ist erstes Integral des charakteristischen DGL-Systems. Beispiel: $yu_x = xu_y$ - setzen $y=x$ und $x=y$ und erhalten nach $\dot{x}=y$ und $\dot{y}=x$ die trennbare Phasen-DGL: \begin{gather*} \frac{\operatorname{d}x}{\operatorname{d}t}, \frac{\operatorname{d}y}{\operatorname{d}t}= x \qquad \Rightarrow \qquad \frac{\operatorname{d}x}{\operatorname{d}y}=\frac{y}{x} \qquad \Rightarrow \qquad x \operatorname{d}x = y\operatorname{d}y\\ \Rightarrow \qquad \frac{x^2}{2}=\frac{y^2}{2} + c_1 \qquad \Rightarrow \qquad c_1 = \underbrace{\frac{x^2}{2} - \frac{y^2}{2}}_{\varphi(x,y)} = \text{const.}\\ \Rightarrow \qquad \text{Allgemeines erstes Integral:} \qquad F(\varphi_1(x,y)) = F(\frac{x^2}{2} - \frac{y^2}{2}) \end{gather*} Die allgemeine L{\"o}sung lautet: $u(x,y)=F(\frac{x^2}{2} - \frac{y^2}{2})$. Allgemein f{\"u}r $n-2$: \begin{gather*} a(x,y)u_x + b(x,y)u_y + cu + d = 0\\ \text{Subst.} \,\, (x,y) \mapsto (\xi, \eta) = (\xi(x,y),\eta(x,y))\\ u(x,y)= U(\xi,\eta), a(x,y)= A(\xi, \eta), b(x,y)= B(\xi, \eta)\\ u_x = U_\xi\xi_x + U_\eta\eta_x\\ u_y = U_\xi\xi_y + U_\eta\eta_y\\ A(\xi,eta) (U_\xi\xi_x + U_\eta\eta_x) + B(\xi,eta)(U_\xi\xi_y + U_\eta\eta_y)+ c(\xi,\eta)U + D(\xi,eta)=0\\ (\underbrace{A\xi_{x} + B\xi_{y}}_{\blacktriangledown}) U_{\xi} + (A\eta_{x} + B\eta_{y})u_{\eta} + CU + D = 0 \end{gather*} W{\"a}hlen in $\blacktriangledown$ $\xi$ so, dass $A\xi_x + B\xi_y=0$ (zugeh{\"o}rige Rumpf-DGL) - da dieser Term dann wegf{\"a}llt ensteht eine gew{\"o}hnliche DGL. $\eta$ kann beliebig gew{\"a}hlt werden in Hinblick auf: \begin{gather*} \begin{vmatrix} \xi_x & \xi_y \\ \eta_x & \eta_y \\ \end{vmatrix} \neq 0 \end{gather*} \newpage \listoffigures \end{document}