$sinx \sim_0 x$
$1 - cosx \sim_0 \frac{1}{2}x^2$
$e^x - 1 \sim_0 x$
$ln(1+x) \sim_0 x$
$(1+x)^\alpha - 1 \sim_0 \alpha x$
martedì 14 febbraio 2017
domenica 12 febbraio 2017
lunedì 6 febbraio 2017
Integrazione su altri domini
Passiamo dai domini rettangolari ai domini regolari (unione finita di insiemi semplici).
Y-semplice
$E = \{ (x,y) \in \mathbb{R} : \leq x \leq b, g_1(x) \leq y \leq g_2(x) \}$
con $g_1$ e $g_2$ funzioni continue definite in $[a,b]$.
Un dominio è detto y-semplice se due punti in $g_1$ e $g_2$ si incontrano attraverso una retta fissata in $[a,b]$.
$\int \int_E f(x,y)dxdy = \int\limits_a^b=\int\limits_a^b(\int\limits_{g_1(x)}^{g_2(x)}f(x,y)dy)dx$
X-semplice
$E=\{ (x,y) \in \mathbb{R}^2, h_1(y) \leq x \leq h_2(y), c \leq y \leq d \}$
$h_1$ e $h_2$ funzioni continue definite in $[c,d]$.
Un insieme D si dice semplice, se si può esprimere come unione finita di insiemi semplici.
Y-semplice
$E = \{ (x,y) \in \mathbb{R} : \leq x \leq b, g_1(x) \leq y \leq g_2(x) \}$
con $g_1$ e $g_2$ funzioni continue definite in $[a,b]$.
Un dominio è detto y-semplice se due punti in $g_1$ e $g_2$ si incontrano attraverso una retta fissata in $[a,b]$.
$\int \int_E f(x,y)dxdy = \int\limits_a^b=\int\limits_a^b(\int\limits_{g_1(x)}^{g_2(x)}f(x,y)dy)dx$
X-semplice
$E=\{ (x,y) \in \mathbb{R}^2, h_1(y) \leq x \leq h_2(y), c \leq y \leq d \}$
$h_1$ e $h_2$ funzioni continue definite in $[c,d]$.
Un insieme D si dice semplice, se si può esprimere come unione finita di insiemi semplici.
Integrali di funzioni a due variabili
(Integrali Doppi)
$f:A\to\mathbb{R}$, $A \subset \mathbb{R}^2$, f continua.
Utilizziamo le somme di Cauchy.
Sia $f(x,y): [a,b]x[c,d]\to\mathbb{R}$ dividiamo $[a,b]$ e $[c,d]$ ciascuno in $n$ parti uguali. Sia $\xi_{ik}$ un punto qualsiasi in $I_{ik}$.
Ogni rettangolino corrisponde all'area della superficie della curva coperta.
Somme di Cauchy
$\sum\limits_{i=1}^n area(I_{ik}) f(\xi_{ik})$ ovvero il volume del parallelepipedo avente come base il rettangolo $I_{ik}$ e altezza $f(\xi_{ik}$
$area(I_{ik})=J_ixH_k=m(I_{ik})$
Se $f:A\to\mathbb{R}$, $A \subset \mathbb{R}^2$ è continua allora esiste:
$$\lim\limits_{n\to +\infty} \sum\limits_{i=1}^n m(I_{ik} f(\xi_{ik}) $$ ed il valore di questo limite è l'integrale doppio $\int \int\limits_D f(x,y)dxdy$ per $f \geq 0$ $\int \int\limits_D f(x,y)dxdy$ rappresenta il volume della regione di spazio sottesa dalla superficie.
Integrali doppi su domini rettangolari.
$f: A\to \mathbb{R}, A \subset \mathbb{R}^2$, rettangolo $R = [a,b]x[c,d]$, $f$ continua.
$\int \int\limits_D f(x,y)dxdy$ si può calcolare mediante due integrazioni successive.
$\int \int\limits_D f(x,y)dxdy = \int\limits_a^b (\int\limits_c^d f(x,y)dy)dx$
vale anche:
$\int\limits_c^d (\int\limits_a^b f(x,y)dx)dy$
$f:A\to\mathbb{R}$, $A \subset \mathbb{R}^2$, f continua.
Utilizziamo le somme di Cauchy.
Sia $f(x,y): [a,b]x[c,d]\to\mathbb{R}$ dividiamo $[a,b]$ e $[c,d]$ ciascuno in $n$ parti uguali. Sia $\xi_{ik}$ un punto qualsiasi in $I_{ik}$.
Ogni rettangolino corrisponde all'area della superficie della curva coperta.
Somme di Cauchy
$\sum\limits_{i=1}^n area(I_{ik}) f(\xi_{ik})$ ovvero il volume del parallelepipedo avente come base il rettangolo $I_{ik}$ e altezza $f(\xi_{ik}$
$area(I_{ik})=J_ixH_k=m(I_{ik})$
Se $f:A\to\mathbb{R}$, $A \subset \mathbb{R}^2$ è continua allora esiste:
$$\lim\limits_{n\to +\infty} \sum\limits_{i=1}^n m(I_{ik} f(\xi_{ik}) $$ ed il valore di questo limite è l'integrale doppio $\int \int\limits_D f(x,y)dxdy$ per $f \geq 0$ $\int \int\limits_D f(x,y)dxdy$ rappresenta il volume della regione di spazio sottesa dalla superficie.
Integrali doppi su domini rettangolari.
$f: A\to \mathbb{R}, A \subset \mathbb{R}^2$, rettangolo $R = [a,b]x[c,d]$, $f$ continua.
$\int \int\limits_D f(x,y)dxdy$ si può calcolare mediante due integrazioni successive.
$\int \int\limits_D f(x,y)dxdy = \int\limits_a^b (\int\limits_c^d f(x,y)dy)dx$
vale anche:
$\int\limits_c^d (\int\limits_a^b f(x,y)dx)dy$
Criterio calcolo limiti
Per verificare che il limite $$\lim\limits_{(x,y)\to(0,0)}f(x,y)=l$$ possiamo procedere come segue: si considerano le coordinate polari
$\begin{cases} x=\rho cos\Theta, \\ y=\rho sin\Theta, \end{cases}$ e si effettua il cambiamento di coordinate, e si ottiene $f(\rho,\Theta)=f(\rho cos\Theta, \rho sin\Theta)$ se si riesce ad effettuare una maggiorazione del tipo $|f(\rho,\Theta)-L|\leq g(\rho)$ con g non dipendente da $\Theta$ e tale che $g(\rho)\to0$ per $\rho \to 0$ allora possiamo affermare che $$\lim\limits_{(x,y)\to(0,0)}f(x,y)=L$$
Es:
$$\lim\limits_{(x,y)\to(0,0)}\frac{x^2y^3}{x^2+y^2}$$
$f(\rho, \Theta)=\frac{\rho^5 cos^2\Theta sin^3 \Theta}{\rho ^2}$
$=\rho^3 cos^2 \Theta sin^3 \Theta$
$0 \leq |f(\rho, \Theta) - l| = \rho^3|cos^2\Theta sin^3\Theta|$
$\leq \rho^3 \to 0$ non dipende da $\Theta$. Il limite fa zero.
$\begin{cases} x=\rho cos\Theta, \\ y=\rho sin\Theta, \end{cases}$ e si effettua il cambiamento di coordinate, e si ottiene $f(\rho,\Theta)=f(\rho cos\Theta, \rho sin\Theta)$ se si riesce ad effettuare una maggiorazione del tipo $|f(\rho,\Theta)-L|\leq g(\rho)$ con g non dipendente da $\Theta$ e tale che $g(\rho)\to0$ per $\rho \to 0$ allora possiamo affermare che $$\lim\limits_{(x,y)\to(0,0)}f(x,y)=L$$
Es:
$$\lim\limits_{(x,y)\to(0,0)}\frac{x^2y^3}{x^2+y^2}$$
$f(\rho, \Theta)=\frac{\rho^5 cos^2\Theta sin^3 \Theta}{\rho ^2}$
$=\rho^3 cos^2 \Theta sin^3 \Theta$
$0 \leq |f(\rho, \Theta) - l| = \rho^3|cos^2\Theta sin^3\Theta|$
$\leq \rho^3 \to 0$ non dipende da $\Theta$. Il limite fa zero.
Funzioni continue
($f: \mathbb{R}^2 \to \mathbb{R}$)
Definizione.
Una funzione $f: \mathbb{R}^2\to \mathbb{R}$ si dice continua in un punto $(x_0, y_0)\in \mathbb{R}^2$ se $$\lim\limits_{(x,y)\to(x_0,y_0)}f(x,y) = f(x_0,y_0)$$. Continua a valere che :
somma prodotto e il quoziente di funzioni continue restano continue (dove le funzioni hanno senso) lo stesso vale per la composizione di funzioni continue.
Teoremi su funzioni continue.
Definizione Un insieme $E (\subset \mathbb{R}^2)$ si dice limitato se $\exists R > 0$ tale che, l'insieme $E \subset U_R(0,0)$.
Definizione.
Un insieme $E$ si dice connesso, se:
$\forall P,Q, \in E, \exists$ un arco di curva continua che congiunge $P$ e $Q$.
Teorema Weierstrass
Ogni funzione continua su un insieme chiuso e limitato $K$, ammette massimo e minimo (assoluti) in $K$.
Teorema di esistenza degli zeri
Sia $f: C \to R$ continua con $C$ insieme connesso di $\mathbb{R}^2$, se risulta $f(P)<0$ e $f(Q)>0$ con $P,Q \in C$ allora esisterà un terzo punto $R \in C$ tale che $f(R) = f(x_R, y_R)=0$
Esercizi
Insiemi di definizione
1)
$f(x,y)=\sqrt{y^2-x^2}+ln(1-x^2-y^2)$
$\begin{cases} y^2 -x^2 \geq 0, \\ 1-x^2-y^2>0, \end{cases}$ ovvero
$\begin{cases} (y-x)(y+x) \geq 0, \\ y=x, y=-x \end{cases}$ quindi non è continua e non è limitata.
2)
$f(x,y) = \sqrt{y^2-x^4}$
$y^2-x^4 \geq 0$
$(y-x^2)(y+x^2)\geq 0$
$y=x^2$, $y=-x^2$
Esercizi sui limiti
1)
$$\lim\limits_{(x,y)\to(0,0) (x^2+y^2)^\frac{m}{n}=0}$$ se $m,n \in \mathbb{N}, n \not= 0$
Dimostriamo che vale usando la definizione.
Dato $\epsilon > 0$ si deve determinare $\delta >0$ tale che $0<\sqrt{x^2+y^2}<\delta$
$\Rightarrow |f(x,y)|<\epsilon$.
Considero la quantità
$0<(x^2+y^2)^\frac{m}{n}=(\sqrt{x^2+y^2})^\frac{2m}{n}$
$(x,y) \not= (0,0)$
$(\sqrt{x^2+y^2})^\frac{2m}{n} < \epsilon$ se $\delta^{\frac{2m}{n}}=\epsilon$
$\delta = \epsilon^{\frac{n}{2m}}$
In generale vale
$$\lim\limits_{(x,y)\to(0,0)}(x^2+y^2)^\alpha = 0$$ se $\alpha > 0$
Definizione.
Una funzione $f: \mathbb{R}^2\to \mathbb{R}$ si dice continua in un punto $(x_0, y_0)\in \mathbb{R}^2$ se $$\lim\limits_{(x,y)\to(x_0,y_0)}f(x,y) = f(x_0,y_0)$$. Continua a valere che :
somma prodotto e il quoziente di funzioni continue restano continue (dove le funzioni hanno senso) lo stesso vale per la composizione di funzioni continue.
Teoremi su funzioni continue.
Definizione Un insieme $E (\subset \mathbb{R}^2)$ si dice limitato se $\exists R > 0$ tale che, l'insieme $E \subset U_R(0,0)$.
Definizione.
Un insieme $E$ si dice connesso, se:
$\forall P,Q, \in E, \exists$ un arco di curva continua che congiunge $P$ e $Q$.
Teorema Weierstrass
Ogni funzione continua su un insieme chiuso e limitato $K$, ammette massimo e minimo (assoluti) in $K$.
Teorema di esistenza degli zeri
Sia $f: C \to R$ continua con $C$ insieme connesso di $\mathbb{R}^2$, se risulta $f(P)<0$ e $f(Q)>0$ con $P,Q \in C$ allora esisterà un terzo punto $R \in C$ tale che $f(R) = f(x_R, y_R)=0$
Esercizi
Insiemi di definizione
1)
$f(x,y)=\sqrt{y^2-x^2}+ln(1-x^2-y^2)$
$\begin{cases} y^2 -x^2 \geq 0, \\ 1-x^2-y^2>0, \end{cases}$ ovvero
$\begin{cases} (y-x)(y+x) \geq 0, \\ y=x, y=-x \end{cases}$ quindi non è continua e non è limitata.
2)
$f(x,y) = \sqrt{y^2-x^4}$
$y^2-x^4 \geq 0$
$(y-x^2)(y+x^2)\geq 0$
$y=x^2$, $y=-x^2$
Esercizi sui limiti
1)
$$\lim\limits_{(x,y)\to(0,0) (x^2+y^2)^\frac{m}{n}=0}$$ se $m,n \in \mathbb{N}, n \not= 0$
Dimostriamo che vale usando la definizione.
Dato $\epsilon > 0$ si deve determinare $\delta >0$ tale che $0<\sqrt{x^2+y^2}<\delta$
$\Rightarrow |f(x,y)|<\epsilon$.
Considero la quantità
$0<(x^2+y^2)^\frac{m}{n}=(\sqrt{x^2+y^2})^\frac{2m}{n}$
$(x,y) \not= (0,0)$
$(\sqrt{x^2+y^2})^\frac{2m}{n} < \epsilon$ se $\delta^{\frac{2m}{n}}=\epsilon$
$\delta = \epsilon^{\frac{n}{2m}}$
In generale vale
$$\lim\limits_{(x,y)\to(0,0)}(x^2+y^2)^\alpha = 0$$ se $\alpha > 0$
2)
$$\lim\limits_{(x,y)\to(0,0)}\frac{x^2y^3}{x^2+y^2}=0$$
0
...............
domenica 5 febbraio 2017
Limiti per funzioni di due variabili
Sia $f: A \subset \mathbb{R}^2 \rightarrow \mathbb{R}$ e sia $(x_0, y_0)$ punto di accumulazione per $A$.
Il $\lim\limits_{(x,y)\to(x_0,y_0)}f(x,y)=L$ se $\forall \epsilon >0, \exists \delta$ tale che $0 < \sqrt{(x-x_0)^2+(y-y_0)^2} < \delta$ con $(x,y,) \in A$
$(x,y) \in U_\delta (x_0, y_0) \bigcup A \ \{(x_0,y_0)\}$
$\Rightarrow |f(x,y)-L|<\epsilon$
- unicità limite
- operazioni sui limiti (con le F.I.)
Osservazione importante (Condizione Necessaria)
$\lim\limits_{(x,y)\to(x_0, y_0)}f(x,y)=L \Rightarrow$ per ogni curva regolare $\gamma(t)=\begin{cases} x=x(t), \\ y=y(t), \end{cases}$
passante per $(x_0, y_0)$ si avrà $\lim\limits_{t\to t_0} f(x(t), y(t))=L$
questa osservazione è utile nel caso in cui il limite non esiste. Infatti se determiniamo due curve lungo le quali i limiti sono diversi, possiamo concludere che $\lim\limits_{(x,y)\to(x_0, y_0)}f(x,y)$ non esiste.
Cenni topologia
(in $R^2$)
Dato un punto $P_0=(x_0, y_0)$ ed $r>0$ l'intorno circolare di centro $P_0$ e raggio $r$ è:
$U_r(x_0, y_0)={(x,y) \in \mathbb{R}^2:(x-x_0)^2+(y-y_0)<r^2}$
sqrt((x-x_0)^2+(y-y_0)^2)<r
Definizione.
Un sottoinsieme $A$ di \mathbb{R}^2 si dice aperto se per ogni punto $(x_0, y_0)$ di A, esiste un intorno circolare del punto contenuto nell'insieme $U_r(x_0, y_0) \subset A$
Proprietà aperti
Dato un punto $P_0=(x_0, y_0)$ ed $r>0$ l'intorno circolare di centro $P_0$ e raggio $r$ è:
$U_r(x_0, y_0)={(x,y) \in \mathbb{R}^2:(x-x_0)^2+(y-y_0)<r^2}$
sqrt((x-x_0)^2+(y-y_0)^2)<r
Definizione.
Un sottoinsieme $A$ di \mathbb{R}^2 si dice aperto se per ogni punto $(x_0, y_0)$ di A, esiste un intorno circolare del punto contenuto nell'insieme $U_r(x_0, y_0) \subset A$
Proprietà aperti
- L'insieme vuoto e $\mathbb{R}^2$ sono aperti
- Se $A_1, A_2, ..., A_n, ...$ sono aperti, anche $\bigcup \limits_{i=1}^\infty A_i$ sarà aperto
- L'intersezione finita di aperti è aperta.
- $\forall U_r$ è aperto
Definizione
Diremo che un insieme C di $\mathbb{R}^2$ è chiuso se C è il complementare di un insieme aperto.
$C$ è chiuso $\Leftrightarrow ^c C$ è aperto.
Frontiera di un insieme $E$ di $\mathbb{R}^2$
Diremo che $(x,y) \in \mathbb{R}^2$ è un punto di frontiera per $E$ se preso comunque un intorno del punto $U_r(x,y)$ si ha:
$U_r(x,y) \bigcap E \neq \emptyset$
$U_r(x,y) \bigcap ^CE \neq \emptyset$
(ha punti di $E$ e del suo complementare
...
Frontiera di un insieme $E$ di $\mathbb{R}^2$
Diremo che $(x,y) \in \mathbb{R}^2$ è un punto di frontiera per $E$ se preso comunque un intorno del punto $U_r(x,y)$ si ha:
$U_r(x,y) \bigcap E \neq \emptyset$
$U_r(x,y) \bigcap ^CE \neq \emptyset$
(ha punti di $E$ e del suo complementare
...
Funzioni a più variabili
Funzioni a variabili reali
- $f: \mathbb{R} \ rightarrow \mathbb{R}$ funzione di variabile reale a valori reali
- $f: \mathbb{R}^n \rightarrow \mathbb{R}$ funzione di più variabili a valori reali.
Es: $f: \mathbb{R}^2 \rightarrow \mathbb{R}$ (funzione di 2 variabili)
$(x,y) \rightarrow z = f(x,y)$
- $f(x,y) = xy$
- $f(x,y) = x^2+y^2$
Funzioni a valori vettoriali
$f: \mathbb{R} \rightarrow \mathbb{R}^n$
Es: $f: \mathbb{R} \rightarrow \mathbb{R}^2$
$t \rightarrow \begin{cases} x = x(t), \\ y=y(t) \end {cases}$ posizione nel piano.
Come nella legge oraria, la posizione del punto dipende da $t$ (tempo): $(x(t), y(t))$
Es: $f: \mathbb{R} \rightarrow \mathbb{R}^3$
$t \rightarrow \begin{cases} x = x(t), \\ y=y(t), \\ z=z(t) \end {cases}$ posizione nello spazio.
Curve (funzione)
Definizione. Dato $I$ intervallo di $\mathbb{R}$, si dice curva ogni funzione continua:
$\gamma : I \rightarrow \mathbb{R}^n$
$n=2$ la curva $\gamma : [a,b] \rightarrow \mathbb{R}^2$ con $\gamma$ continua, ovvero se: $\gamma(t)=(x(t), y(t)) \in \mathbb{R}^2$ allora le componenti $x=x(t)$ e $y=y(t)$ sono continue.
La curva si dice chiuse se $\gamma (a) = \gamma (b)$............
Massimi e minimi per funzioni a due variabili
Definizione
$f: A \rightarrow \mathbb{R}$, $A \subset \mathbb{R}^2$, $(x_0, y_0) \in A$ diremo che il punto $(x_0, y_0)$ è un punto di:
$f: A \rightarrow \mathbb{R}$, $A \subset \mathbb{R}^2$, $(x_0, y_0) \in A$ diremo che il punto $(x_0, y_0)$ è un punto di:
- massimo assoluto se
- $f(x_0, y_0) \geq f(x,y) \forall (x,y) \in A$
- minimo assoluto se
- $f(x_0, y_0) \leq f(x,y) \forall (x,y) \in A$
- massimo relativo o locale se
- $\exists U(x_0, y_0)$ del punto $(x_0, y_0)$ tale che $f(x_0,y_0) \geq f(x,y)$, $\forall (x,y) \in U(x_0, y_0) \cap A$ il valore $f(x_0,y_0)$ sarà il massimo assoluto/relativo
- minimo relativo o locale se
- $\exists U(x_0, y_0)$ del punto $(x_0, y_0)$ tale che $f(x_0,y_0) \leq f(x,y)$, $\forall (x,y) \in U(x_0, y_0) \cap A$ il valore $f(x_0,y_0)$ sarà il minimo assoluto/relativo
Teorema di Fermat
Sia $f \in C^1(A)$, $f: A \rightarrow \mathbb{R}$, $A$ aperto, $(x_0, y_0) \in A$
Se $(x_0, y_0)$ è un punto di massimo o minimo, se f è derivabile in $(x_0, y_0)$, allora:
$f_x(x_0, y_0)=f_y(x_0, y_0)=0$ (equivale a $\bigtriangledown f(x_0, y_0)$ è nullo)
Dimostrazione: Suppongo $(x_0, y_0)$ punto di massimo e consideriamo la funzione di una variabile $g(t)=f(t, y_0)$ (che avrà un massimo in $t=x_0$)
g risulta derivabile in $x_0$, $g'(x_0)=0$
$g'(t)=f_x(t,y_0)$
$g'(x_0)=f_x(x_0,y_0) \Rightarrow f_x(x_0, y_0)=0$
analogo per il procedimento con $f_y$
$g(t)=f(x_0, t)$
si otterrà: $f_y(x_0, y_0)=0$
la condizione $\bigtriangledown f(x_0, y_0) = 0$ è una condizione necessaria affinché il punto sia di massimo o di minimo. La condizione non è sufficiente, esistono punti in cui $\bigtriangledown f$ è nullo che non sono di massimo o minimo.
$\bigtriangledown f(x_0, y_0) = (0,0)$ allora $(x_0, y_0)$ si dirà punto critico o stazionario.
$f \in C^1(A) \Rightarrow f$ ammette piano tangente in $(x_0, y_0)$ $[( (x_0,y_0), f(x_0, y_0) ) \in G_f(\Gamma_f)]$
$z=f(x_0,y_0) + f_x(x_0,y_0)(x-x_0)+f_y(x_0,y_0)(y-y_0)$
Se $f \in C^1(A)$ e $\bigtriangledown f(x_0,y_0)=(0,0)$
$\Rightarrow$ il piano tangente è:
$ z = f(x_0, y_0)$ cioè un piano parallelo al piano "$xy$".
Se $f \in C^1(A)$, i punti di massimo o minimo vanno ricercati tra i punti critici.
Vediamo delle condizioni (sufficienti) che permettono di classificare i punti critici per funzioni $f \in C^2(A)$
Ricordiamo la formula di Taylor del secondo ordine
$f(x_0+dx, y_0 +dy) - f(x_0, y_0) = f_x(x_0, y_0)dx + f_y(x_0, y_0)dy + \frac{1}{2}[f_{xx}(x_0,y_0)dx^2 + 2f_{xy}(x_0,y_0)dxdy+f_{yy}(x_0,y_0)dy^2]+o(dx^2+dy^2)$
Per stabilire se $(x_0,y_0)$ è un punto massimo voglio stabilire il segno dell'incremento della funzione:
$f(x_0+dx, y_0 +dy) - f(x_0, y_0) \geq 0$
Per stabilire se $(x_0,y_0)$ è un punto minimo voglio stabilire il segno dell'incremento della funzione:
$f(x_0+dx, y_0 +dy) - f(x_0, y_0) \leq 0$
Questo riconduce a stabilire il segno di $d^2f$, e quindi della forma quadratica:
$f_{xx}(x_0,y_0)dx^2+2f_{xy}(x_0, y_0)dxdy+f_{yy}(x_0,y_0)dy^2$
Matrice Hessiana: matrice associata alla forma quadratica
$H(x,y) = \left( \begin{array}{cc} f_{xx}(x,y) & f_{xy}(x,y) \\ f_{xy}(x,y) & f_{yy}(x,y) \end{array}\right)$
$det(H(x,y))=-\frac{\Delta}{4}$
Forma quadratica
$d^2f(x_0,y_0) = f_{xx}(x_0,y_0)dx^2+2f_{xy}(x_0, y_0)dxdy+f_{yy}(x_0,y_0)dy^2$
Si potrebbe schematizzare, non mi va
Forma quadratica
$d^2f(x_0,y_0) = f_{xx}(x_0,y_0)dx^2+2f_{xy}(x_0, y_0)dxdy+f_{yy}(x_0,y_0)dy^2$
- definita positiva $det(H(x_0,y_0))>0$, $f_{xx}(x_0, y_0)>0$
- definita negativa $det(H(x_0,y_0))>0$, $f_{xx}(x_0, y_0)<0$
- indefinita $det(H(x_0,y_0))<0$
- semi-definita $det(H(x_0,y_0))=0$
Esaminiamo i casi:
- Se $d^2f$ è definita positiva, possiamo scegliere un incremento $dx, dy$ così piccolo in modo che risulti: $f(x_0+dx, y_0+dy)-f(x_0,y_0) \geq 0$ $\Rightarrow f(x_0+dx, y_0+dy) \geq f(x_0,y_0)$ $\Rightarrow (x_0, y_0)$ è punto di minimo. $det(H(x_0,y_0))>0$, $f_{xx}(x_0, y_0)>0$
- Se $d^2f(x_0, y_0)$ è definita negativa $det(H(x_0,y_0))>0$, $f_{xx}(x_0, y_0)<0$ $\Rightarrow (x_0, y_0)$ è punto di massimo.
- Se $d^2f(x_0, y_0)$ è indefinita $\Rightarrow (x_0, y_0)$ non è né massimo, né minimo, ma punto di sella (colle). $det(H(x_0,y_0))<0$
- Se $d^2f(x_0,y_0)$ è semi-definita $det(H(x_0,y_0))=0$ con questo metodo non possiamo concludere.
Equazione lineare di secondo ordine a coefficienti costanti
$y'' + a y' + by=f(t)$
caso omogeneo
$y=c_1 y_1 + c_2 y_2$
caso omogeneo
$y=c_1 y_1 + c_2 y_2$
Numeri Complessi
$\mathbb{C}={a+ib, a,b \in \mathbb{R}}$ (forma algebrica)
Forma esponenziale
$z=x+iy$
$z = \rho(cos \Theta + i sin \Theta)$
Si passa alla forma esponenziale mediante la sostituzione $e^{i \Theta}=cos \Theta + i sin \Theta$
$z = \rho e^{i \Theta}$ (Forma esponenziale)
Questa forma semplifica le potenze e i prodotti:
- $i^1 = i$
- $i^2 = -1$
- $i^3 = -i$
- $i^4 = 1$
- $i^5= i$
$z = a + i b$ con $a = |z| cos \Theta$ e $b = |z| sin \Theta$
e $|z|$ è la retta costituita dai punti $(a,b)$
Coordinate Polari
$\begin {cases}
x = \rho cos \Theta, \\
y = \rho sin \Theta,
\end {cases} \Rightarrow z = \rho(cos \Theta + isin \Theta)$ (Forma trigonometrica)
Forma esponenziale
$z=x+iy$
$z = \rho(cos \Theta + i sin \Theta)$
Si passa alla forma esponenziale mediante la sostituzione $e^{i \Theta}=cos \Theta + i sin \Theta$
$z = \rho e^{i \Theta}$ (Forma esponenziale)
Questa forma semplifica le potenze e i prodotti:
- $z^3 = \rho^3 e^{i3 \Theta}$
- $z_1 z_2 = (\rho_1 \rho_2) e^{i(\Theta_1 \Theta_2)}$
$\bar{z}=\rho e^{-i \Theta} \Rightarrow \bar{z}=\rho(cos \Theta - i sin \Theta)$
$cos (-\Theta) = cos (\Theta)$
$sin (-\Theta) = - sin(\Theta)$
Formule di Eulero
$e^{i \Theta} = cos\Theta + i sin \Theta$
$e^{-i\Theta} = cos \Theta - i sin \Theta$
$\frac {e^{i \Theta}+ e^{-i \Theta}}{2} = cos \Theta$
$\frac {e^{i \Theta}- e^{-i \Theta}}{2i} = sin \Theta$
Quindi quando $\lambda^2 + a \lambda + b = 0 $ (equazione caratteristica di $y''+ay'+y=0$) ha soluzioni complesse coniugate $\lambda = \alpha \pm i \beta$ possiamo scegliere come soluzioni linearmente indipendenti:
$y_1 = e^{\alpha t} cos \beta t$
$y_2 = e^{\alpha t} sin \beta t$ in quanto combinazioni lineari delle soluzioni: $e^{(\alpha + i \beta)t}$ ed $e^{(\alpha - i \beta)t}$
$= e^{\alpha t} e^{i \beta t}$ ed $= e^{\alpha t} e^{-i \beta t}$
$e^{i \Theta} = cos\Theta + i sin \Theta$
$e^{-i\Theta} = cos \Theta - i sin \Theta$
$\frac {e^{i \Theta}+ e^{-i \Theta}}{2} = cos \Theta$
$\frac {e^{i \Theta}- e^{-i \Theta}}{2i} = sin \Theta$
Quindi quando $\lambda^2 + a \lambda + b = 0 $ (equazione caratteristica di $y''+ay'+y=0$) ha soluzioni complesse coniugate $\lambda = \alpha \pm i \beta$ possiamo scegliere come soluzioni linearmente indipendenti:
$y_1 = e^{\alpha t} cos \beta t$
$y_2 = e^{\alpha t} sin \beta t$ in quanto combinazioni lineari delle soluzioni: $e^{(\alpha + i \beta)t}$ ed $e^{(\alpha - i \beta)t}$
$= e^{\alpha t} e^{i \beta t}$ ed $= e^{\alpha t} e^{-i \beta t}$
sabato 4 febbraio 2017
Equazioni differenziali lineari di secondo ordine a coefficienti costanti
$y''+ay'+by=f(t)$, $a,b \in \mathbb{R}$
caso omogeneo:
$y''+ay'+by=0$
determiniamo due soluzioni linearmente indipendenti $y_1$ e $y_2$
cerchiamo soluzioni del tipo:
$y(t)=e^{\lambda t}$
derivando:
$y'(t)=\lambda e^{\lambda t}$
$y''(t)=\lambda^2 e^{\lambda t}$
e sostituendo:
$\lambda^2 e^{\lambda t} + a \lambda e^{\lambda t} + b e^{\lambda t} = 0$
$e^{\lambda t}(\lambda^2+a \lambda +b)=0$
$e^{\lambda t}\neq 0$ sempre, quindi valuto:
$\lambda^2+a \lambda +b=0$
che prende il nome di equazione caratteristica.
1) $\Delta>0$ trovo $\lambda_1, \lambda_2 \in \mathbb{R}$ $ \lambda_1 \neq \lambda_2$
$y = c_1 e^{\lambda_1 t}+c_2 e^{\lambda_2 t}$
2) $\Delta=0$ trovo $\lambda \in \mathbb{R}$
$y = c_1 e^{\lambda t}+c_2 t e^{\lambda t}$
3) $\Delta<0$ $\lambda = \alpha \pm i \beta \in \mathbb{C}$
$y_1 = e^{(\alpha + i \beta)t}$ $y_2 = e^{(\alpha - i \beta)t}$
$y_2 = e^{\alpha t}e^{i \beta t}$ $y_2 = e^{\alpha t}e^{-i \beta t}$
poiché:
$cos \beta t = \frac{e^{i \beta t}+e^{-i \beta t}}{2}$
$sin \beta t = \frac{e^{i \beta t}-e^{-i \beta t}}{2i}$
allora:
$y_1=e^{\alpha t} cos \beta t$ $y_2=e^{\alpha t} sin \beta t$
Es:
$y''+4y=0$
caso omogeneo:
$y''+ay'+by=0$
determiniamo due soluzioni linearmente indipendenti $y_1$ e $y_2$
cerchiamo soluzioni del tipo:
$y(t)=e^{\lambda t}$
derivando:
$y'(t)=\lambda e^{\lambda t}$
$y''(t)=\lambda^2 e^{\lambda t}$
e sostituendo:
$\lambda^2 e^{\lambda t} + a \lambda e^{\lambda t} + b e^{\lambda t} = 0$
$e^{\lambda t}(\lambda^2+a \lambda +b)=0$
$e^{\lambda t}\neq 0$ sempre, quindi valuto:
$\lambda^2+a \lambda +b=0$
che prende il nome di equazione caratteristica.
1) $\Delta>0$ trovo $\lambda_1, \lambda_2 \in \mathbb{R}$ $ \lambda_1 \neq \lambda_2$
$y = c_1 e^{\lambda_1 t}+c_2 e^{\lambda_2 t}$
2) $\Delta=0$ trovo $\lambda \in \mathbb{R}$
$y = c_1 e^{\lambda t}+c_2 t e^{\lambda t}$
3) $\Delta<0$ $\lambda = \alpha \pm i \beta \in \mathbb{C}$
$y_1 = e^{(\alpha + i \beta)t}$ $y_2 = e^{(\alpha - i \beta)t}$
$y_2 = e^{\alpha t}e^{i \beta t}$ $y_2 = e^{\alpha t}e^{-i \beta t}$
poiché:
$cos \beta t = \frac{e^{i \beta t}+e^{-i \beta t}}{2}$
$sin \beta t = \frac{e^{i \beta t}-e^{-i \beta t}}{2i}$
allora:
$y_1=e^{\alpha t} cos \beta t$ $y_2=e^{\alpha t} sin \beta t$
Es:
- $y''+y'+y=0$
la cui equazione caratteristica è
$\lambda^2+\lambda+1=0$
$\lambda = \frac{-1 \pm i \sqrt{3}}{2}=-\frac{1}{2}\pm \frac{ \sqrt{3}}{2}i$
$y_1 = e^{\frac{1}{2}t}cos\frac{\sqrt}{2}{3}t$
$y_2 = e^{\frac{1}{2}t}sin\frac{\sqrt}{2}{3}t$
$y''+4y=0$
$\lambda^2 + 4=0 \rightarrow \lambda = \pm 2i$
$y_1 = cos2t$
$y_2 = sin2t$
$y_1 = cos2t$
$y_2 = sin2t$
Determinante Wronskiano
Es:
Data $y''+4y=0$
dire se $y_1=sin2t$ ed $y_2=cos2t$ sono soluzioni linearmente indipendenti.
Verifichiamo che $y_1$ e $y_2$ sono soluzioni di $y''+4y=0$
$y_1 = sin2t$
$y_1' = 2cos2t$
$y_1'' = -4sin2t$ sostituendo:
$-4sin2t + 4sin2t = 0$
$0 = 0 \Rightarrow$ è soluzione
$y_2 = cos2t$
$y_2' = -2sin2t$
$y_2'' = -4cos2t$
$-4cos2t + 4cos2t = 0$
$0 = 0 \Rightarrow$ è soluzione
Essendo soluzioni verifichiamo ora che siano linearmente indipendenti:
$det(w(t))=$
$sin2t$ $cos2t$
$2cos2t$ $-2sin2t$
= -2
Essendo diverso $det(w(t))\neq 0$, allora sono anche linearmente indipendenti.
Data $y''+4y=0$
dire se $y_1=sin2t$ ed $y_2=cos2t$ sono soluzioni linearmente indipendenti.
Verifichiamo che $y_1$ e $y_2$ sono soluzioni di $y''+4y=0$
$y_1 = sin2t$
$y_1' = 2cos2t$
$y_1'' = -4sin2t$ sostituendo:
$-4sin2t + 4sin2t = 0$
$0 = 0 \Rightarrow$ è soluzione
$y_2 = cos2t$
$y_2' = -2sin2t$
$y_2'' = -4cos2t$
$-4cos2t + 4cos2t = 0$
$0 = 0 \Rightarrow$ è soluzione
Essendo soluzioni verifichiamo ora che siano linearmente indipendenti:
$det(w(t))=$
$sin2t$ $cos2t$
$2cos2t$ $-2sin2t$
= -2
Essendo diverso $det(w(t))\neq 0$, allora sono anche linearmente indipendenti.
Integrale generale di un'equazione omogenea di secondo ordine
$y''+a(t)y'+b(t)y=0$
Definizione.
Due soluzione $y_1$ e $y_2$ definite su $[\alpha, \beta]$ si dicono linearmente indipendenti se non esistono due costanti non nulle $c_1, c_2$ per cui:
$c_1 y_1(t) + c_2 y_2(t) = 0, \forall t \in [\alpha , \beta]$
Quindi $y_1$ e $y_2$ sono linearmente indipendenti se non sono proporzionali $\forall t \in [\alpha, \beta]$
Definizione.
Date due soluzioni $y_1$ e $y_2$ definite nello stesso intervallo $[\alpha, \beta]$ queste due sono linearmente indipendenti.
$\Leftrightarrow$ il
det di
$y_1(t)$ $y_2$
$y_1'(t)$ $y_2'$ deve essere diverso da zero.
(basta verificare che tale determinante sia non nullo in un punto $t_0$)
Definizione.
Due soluzione $y_1$ e $y_2$ definite su $[\alpha, \beta]$ si dicono linearmente indipendenti se non esistono due costanti non nulle $c_1, c_2$ per cui:
$c_1 y_1(t) + c_2 y_2(t) = 0, \forall t \in [\alpha , \beta]$
Quindi $y_1$ e $y_2$ sono linearmente indipendenti se non sono proporzionali $\forall t \in [\alpha, \beta]$
Definizione.
Date due soluzioni $y_1$ e $y_2$ definite nello stesso intervallo $[\alpha, \beta]$ queste due sono linearmente indipendenti.
$\Leftrightarrow$ il
det di
$y_1(t)$ $y_2$
$y_1'(t)$ $y_2'$ deve essere diverso da zero.
(basta verificare che tale determinante sia non nullo in un punto $t_0$)
Teorema esistenza ed unicità soluzione per il problema di Cauchy
Data l'equazione $y''(t)+a(t)y'(t)+b(t)y(t)=f(t)$
con $a,b$ ed $f$ funzioni continue su un intervallo assegnato $[\alpha , \beta]$
Se $t_0 \in [\alpha , \beta]$ ed $y_0, y_1 \in \mathbb{R}$ allora il Problema di Cauchy.
$\begin{cases} y'' + a(t)y'(t)+b(t)y(t)=f(t), \\ y(t_0)=y_0, \\ y'(t_0)=y_1 \end{cases}$
ammette una e una sola soluzione (di classe $C_2$ con derivate continue fino al secondo ordine) definita in $[\alpha, \beta]$.
con $a,b$ ed $f$ funzioni continue su un intervallo assegnato $[\alpha , \beta]$
Se $t_0 \in [\alpha , \beta]$ ed $y_0, y_1 \in \mathbb{R}$ allora il Problema di Cauchy.
$\begin{cases} y'' + a(t)y'(t)+b(t)y(t)=f(t), \\ y(t_0)=y_0, \\ y'(t_0)=y_1 \end{cases}$
ammette una e una sola soluzione (di classe $C_2$ con derivate continue fino al secondo ordine) definita in $[\alpha, \beta]$.
Equazione differenziale di secondo ordine
$F(t, y(t), y'(t), y''(t))=0$
la soluzione, o curva integrale, è una funzione $f(t)$ derivabile 2 volte che verifica l'equazione.
$y''=f(t) \rightarrow $due integrazioni successive.
Es:
$y''=sint \Rightarrow y'=\int sint dt = -cost+c_1$
$\Rightarrow y=-\int cost + c dt = -sint+c_1t+c_2$
allora l'integrale generale di $y''$:
$y(t)=c_1t+c_2-sint$
questa famiglia di soluzioni dipende da 2 variabili: $\infty^2$
la soluzione, o curva integrale, è una funzione $f(t)$ derivabile 2 volte che verifica l'equazione.
$y''=f(t) \rightarrow $due integrazioni successive.
Es:
$y''=sint \Rightarrow y'=\int sint dt = -cost+c_1$
$\Rightarrow y=-\int cost + c dt = -sint+c_1t+c_2$
allora l'integrale generale di $y''$:
$y(t)=c_1t+c_2-sint$
questa famiglia di soluzioni dipende da 2 variabili: $\infty^2$
Equazione differenziale di Bernoulli
$y'+a(t)y=f(t)y^\alpha$ $\alpha \in \mathbb{R}$
equazione differenziale del primo ordine non lineare, si riconduce al caso lineare dividendo tutto per $y^\alpha$:
$\frac{y'}{y^\alpha}+a(t)y^{1-\alpha}=f(t)$ $\alpha \in \mathbb{R}$
poniamo $z=y^{1- \alpha} \rightarrow z(t)=(y(t))^{1-\alpha}$
calcolo: $z'=(1-\alpha)y^{-\alpha}y'$
da cui: $\frac{y'}{y^\alpha}=\frac{z'}{1-\alpha}$
sostituendo, ottengo:
$\frac{z'}{1-\alpha}+a(t)z=f(t)$
$z' + (1-\alpha)a(t)z=(1-\alpha)f(t)$
Esempio:
$y'+\frac{2}{t}y=-\frac{lnt}{t}y^2$ ($t>0$)
dividiamo per $y^2$:
$\frac{y'}{y^2}+\frac{2}{t}y^{-1}=-\frac{lnt}{t}$
pongo $z=y^{-1}=\frac{1}{y}$
$z'=-\frac{1}{y^2}=-y^{-2} \rightarrow -\frac{y'}{y^2}$
quindi
$-z'+\frac{2}{t}z=-\frac{lnt}{t}$
$z'-\frac{2}{t}z=\frac{lnt}{t}$
$A(t)=-2\int \frac{1}{t}dt = -2 lnt$
$y(t)=ce^{-A(t)}+e^{-A(t)}\int f(t)e^{A(t)}dt$
$y(t)=ce^{2lnt}+e^{2lnt}\int \frac{lnt}{t}e^{-2lnt}dt$
$=ct^2+t^2\int \frac{lnt}{t}\frac{1}{t^2}dt$
equazione differenziale del primo ordine non lineare, si riconduce al caso lineare dividendo tutto per $y^\alpha$:
$\frac{y'}{y^\alpha}+a(t)y^{1-\alpha}=f(t)$ $\alpha \in \mathbb{R}$
poniamo $z=y^{1- \alpha} \rightarrow z(t)=(y(t))^{1-\alpha}$
calcolo: $z'=(1-\alpha)y^{-\alpha}y'$
da cui: $\frac{y'}{y^\alpha}=\frac{z'}{1-\alpha}$
sostituendo, ottengo:
$\frac{z'}{1-\alpha}+a(t)z=f(t)$
$z' + (1-\alpha)a(t)z=(1-\alpha)f(t)$
Esempio:
$y'+\frac{2}{t}y=-\frac{lnt}{t}y^2$ ($t>0$)
dividiamo per $y^2$:
$\frac{y'}{y^2}+\frac{2}{t}y^{-1}=-\frac{lnt}{t}$
pongo $z=y^{-1}=\frac{1}{y}$
$z'=-\frac{1}{y^2}=-y^{-2} \rightarrow -\frac{y'}{y^2}$
quindi
$-z'+\frac{2}{t}z=-\frac{lnt}{t}$
$z'-\frac{2}{t}z=\frac{lnt}{t}$
$A(t)=-2\int \frac{1}{t}dt = -2 lnt$
$y(t)=ce^{-A(t)}+e^{-A(t)}\int f(t)e^{A(t)}dt$
$y(t)=ce^{2lnt}+e^{2lnt}\int \frac{lnt}{t}e^{-2lnt}dt$
$=ct^2+t^2\int \frac{lnt}{t}\frac{1}{t^2}dt$
Esercizi equazioni differenziali
3)
$y'+xy-x=0$
$y'+xy=x$$y=z+y_0$, dove $z$ è l'integrale generale dell'equazione omogenea associata e $y_0$ è l'integrale particolare dell'equazione completa.
- $z'+xz=0$
- $z'=-xz \rightarrow \frac{z'}{z}=-x$
- $\int \frac{z'}{z}dx=-\int x dx \rightarrow \int \frac{1}{z}dz=-\frac{x^2}{2}+c$
- $z=ce^{-\frac{x^2}{2}}$
- $y_0(x)=c(x)e^{-\frac{x^2}{2}}$
- $y_0'(x)=c'(x)e^{-\frac{x^2}{2}}-xc(x)e^{- \frac{x^2}{2}}$
- cerco $y_0$ soluzione particolare
- $c'(x)e^{-\frac{x^2}{2}}-xc(x)e^{-\frac{x^2}{2}}+xc(x)e^{-\frac{x^2}{2}}=x$
- $c'(x)=xe^{\frac{x^2}{2}}$
- $c(x)=\int x e^{\frac{x^2}{2}}dx=e^{\frac{x^2}{2}}$
- $y = z + y = ce^{-\frac{x^2}{2}}+c(x)e^{-\frac{x^2}{2}}=ce^{\frac{x^2}{2}}+e^{\frac{x^2}{2}}e^{-\frac{x^2}{2}}=ce^{\frac{x^2}{2}}+1$
controllare applicando la formula risolutiva.
Calcolo integrale generale
Dato $y'+a(t)y=f(t)$ sotto ipotesi di continuità per a, f,
avremo come soluzione:
$y(t)=z(t)+y_0(t)$
avremo come soluzione:
$y(t)=z(t)+y_0(t)$
- si determina l'integrale generale dell'equazione omogenea associata (EOA) $z'+a(t)z=0$
- si determina una soluzione particolare $y_0(t)$ dell'equazione completa
- $z'+a(t)z=0$ e indichiamo con $A(t)=\int a(t)dt$ una primitiva di $a(t)$.
Si tratta di una equazione a variabili separabili: $z'=-a(t)z$.
Si presenta $z=0$, che è soluzione stazionaria.
Supponendo invece $z\neq 0$, separiamo le variabili
$\frac{z'}{z}=-a(t) \rightarrow \int \frac{z'}{z}dt=-\int a(t)dt$
$\int \frac{1}{z}dz=A(t)+c$ da cui ricavo:
$ln|z|=-A(t)+c$ $\rightarrow |z| = e^{-A(t)+c} \rightarrow |z| = e^c e^{-A(t)}$ con $e^c>0$ costante
$z = \pm e^c e^{-A(t)}$ da cui recupero la soluzione $z=0$ con $c \in \mathbb{R}$
$z=ce^{-A(t)}$.
Infatti se $c=0$ recupero tale soluzione stazionaria. - Per la ricerca di una soluzione particolare $y_0(t)$ dell'equazione completa, si usa il metodo di variazione della costante.
Si cerca una soluzione del tipo $y_0=c(t)e^{-A(t)}$.
Si vuole determinare $c(t)$ in modo che $y_0$ soddisfa l'equazione completa.
Derivo: $y_0'(t)=c'(t)e^{-A(t)}-c(t)a(t)e^{-A(t)}$ e sostituisco:
$c'(t)e^{-A(t)}-c(t)a(t)e^{-A(t)}+c(t)a(t)e^{A(t)}=f(t)$ $c'(t)e^{-A(t)}=f(t)$ da cui ricavo
$c'(t)=f(t)e^{A(t)}$
integrando $c(t) = \int f(t) e^{A(t)}dt$
$y_0(t)=e^{-A(t)}\int f(t) e^{A(t)}dt$.
Quindi l'integrale generale: $y=z+y_0$ si scrive:
$y=ce^{-A(t)}+e^{-A(t)} \int f(t) e^{A(t)} dt$
venerdì 3 febbraio 2017
Equazioni differenziali del primo ordine
(in forma normale)
$y'=f(t, y(t))$
Equazioni differenziabili a variabili separabili:
$y'(t) = a(t) b(y(t))$
con a,b continue in $I \subset \mathbb{R}$
Es:
$y'=2t(y-1)^2$ $y=1$ è una soluzione stazionaria
In generale, se esiste un valore $y_0$ per cui $b(y_0)=0$ allora $y=y_0$ è una soluzione dell'equazione (stazionaria)
$b(y)=0$ genera le soluzioni stazionarie
supponendo ora $b(y)\neq 0$, possiamo separare le variabili
$\frac{y'}{b(y)}=a(t)$ integrando rispettivamente a t.
$\rightarrow \int \frac{y'}{b(y)}dt=\int a(t)dt$
poiché $y'(t)dt=dy(t)$, posso scrivere
$\int \frac{1}{b(y)}= \int a(t) dt = A(t)+c, b(y)=0$
definisce implicitamente le $y(t)$ (soluzioni)
Es: Risolviamo $y'=2t(y-1)^2$
$(y-1)^2=0 \rightarrow y=1$ soluzione stazionaria
supponendo $y \neq 1$, separando le variabili, otteniamo:
$\frac{y'}{(y-1)^2}=2t \rightarrow \int \frac{y'}{(y-1)^2}dt = 2 \int t dt$
$int \frac{1}{(y-1)^2}=t^2+c \rightarrow -\frac{1}{y-1}=t^2+c$
passando ai reciproci per esplicitare la funzione $y(t)$, otteniamo
$y-1=-\frac{1}{t^2+c}$
$y=1-\frac{1}{t^2+c}$ $c \in \mathbb{R}, y=1$
La funzione incognita $y(t)$ e la sua derivata $y'(t)$ compaiono linearmente.
$y'+a(t)y=f(t)$ a questa equazione si associa
$z'+a(t)z=0$ (equazione omogenea associata)
è dato da $y(t)=z(t)+y_0(t)$
dove $z=z(t)$ è l'integrale generale dell'equazione omogenea associata (EOA) ed $y^{(t)}=y_0(t)$ è una soluzione particolare dell'equazione completa.
Dimostrazione:
Sia $y(t)$ soluzione di $y'+a(t)y=f(t)$ ed $y_0(t)$ una soluzione particolare $y'_0+a(t)y_0=f(t)$
$\Rightarrow (y-y_0)'+a(t)(y-y_0)=0$
$\Rightarrow z=y-y_0$ è soluzione dell'EOA.
$y=z+y_0$
D'altro canto, se $z(t)$ è soluzione di $z'+a(t)z=0$, ed $y_0$ è soluzione particolare di $y'_0+a(t)y_0=f(t)$.
Se metto a sistema e sommo le due equazioni, ottengo che:
$y=z+y_0$ è soluzione dell'equazione completa.
$y'=f(t, y(t))$
Equazioni differenziabili a variabili separabili:
$y'(t) = a(t) b(y(t))$
con a,b continue in $I \subset \mathbb{R}$
Es:
$y'=2t(y-1)^2$ $y=1$ è una soluzione stazionaria
In generale, se esiste un valore $y_0$ per cui $b(y_0)=0$ allora $y=y_0$ è una soluzione dell'equazione (stazionaria)
$b(y)=0$ genera le soluzioni stazionarie
supponendo ora $b(y)\neq 0$, possiamo separare le variabili
$\frac{y'}{b(y)}=a(t)$ integrando rispettivamente a t.
$\rightarrow \int \frac{y'}{b(y)}dt=\int a(t)dt$
poiché $y'(t)dt=dy(t)$, posso scrivere
$\int \frac{1}{b(y)}= \int a(t) dt = A(t)+c, b(y)=0$
definisce implicitamente le $y(t)$ (soluzioni)
Es: Risolviamo $y'=2t(y-1)^2$
$(y-1)^2=0 \rightarrow y=1$ soluzione stazionaria
supponendo $y \neq 1$, separando le variabili, otteniamo:
$\frac{y'}{(y-1)^2}=2t \rightarrow \int \frac{y'}{(y-1)^2}dt = 2 \int t dt$
$int \frac{1}{(y-1)^2}=t^2+c \rightarrow -\frac{1}{y-1}=t^2+c$
passando ai reciproci per esplicitare la funzione $y(t)$, otteniamo
$y-1=-\frac{1}{t^2+c}$
$y=1-\frac{1}{t^2+c}$ $c \in \mathbb{R}, y=1$
La funzione incognita $y(t)$ e la sua derivata $y'(t)$ compaiono linearmente.
$y'+a(t)y=f(t)$ a questa equazione si associa
$z'+a(t)z=0$ (equazione omogenea associata)
TeoremaL'integrale generale dell'equazione completa $y'+a(t)y=f(t)$
è dato da $y(t)=z(t)+y_0(t)$
dove $z=z(t)$ è l'integrale generale dell'equazione omogenea associata (EOA) ed $y^{(t)}=y_0(t)$ è una soluzione particolare dell'equazione completa.
Dimostrazione:
Sia $y(t)$ soluzione di $y'+a(t)y=f(t)$ ed $y_0(t)$ una soluzione particolare $y'_0+a(t)y_0=f(t)$
$\Rightarrow (y-y_0)'+a(t)(y-y_0)=0$
$\Rightarrow z=y-y_0$ è soluzione dell'EOA.
$y=z+y_0$
D'altro canto, se $z(t)$ è soluzione di $z'+a(t)z=0$, ed $y_0$ è soluzione particolare di $y'_0+a(t)y_0=f(t)$.
Se metto a sistema e sommo le due equazioni, ottengo che:
$y=z+y_0$ è soluzione dell'equazione completa.
Equazione differenziale di secondo ordine riconducibili al primo
Es:
L'equazione
$y''=\lambda y'$ è di secondo ordine. Poiché non compare la funzione y(non derivata) possiamo ridurre questa equazione a una del primo ordine, ponendo $z(t)=y'(t)$
$z(t)=y'(t)$
$z'(t)=y''(t)$
ottengo: $z'(t)=\lambda z(t)$
la cui soluzione/il cui integrale generale è $z(t)=C_1 e^{\lambda t}, C \in \mathbb{R}$
$y'(t)=C_1 e^{\lambda t}$ da cui integrando otteniamo
$y(t)=C_1 \int e^{\lambda t}dt$
Allora l'integrale generale dipenderà da due costanti.
$y(t)= \frac{C_1}{\lambda}e^{\lambda t} + C_2$
Ovvero abbiamo infinite soluzioni che dipendono da due parametri: $\infty ^2$ soluzioni
L'equazione
$y''=\lambda y'$ è di secondo ordine. Poiché non compare la funzione y(non derivata) possiamo ridurre questa equazione a una del primo ordine, ponendo $z(t)=y'(t)$
$z(t)=y'(t)$
$z'(t)=y''(t)$
ottengo: $z'(t)=\lambda z(t)$
la cui soluzione/il cui integrale generale è $z(t)=C_1 e^{\lambda t}, C \in \mathbb{R}$
$y'(t)=C_1 e^{\lambda t}$ da cui integrando otteniamo
$y(t)=C_1 \int e^{\lambda t}dt$
Allora l'integrale generale dipenderà da due costanti.
$y(t)= \frac{C_1}{\lambda}e^{\lambda t} + C_2$
Ovvero abbiamo infinite soluzioni che dipendono da due parametri: $\infty ^2$ soluzioni
Esempio equazione differenziale
Es:
$y'=4y$ $y'-4y=0$
Se $y \neq 0$: considero $\frac{y'}{y}=4$
ma osservo che $y=0$ è soluzione dell'equazione
risolvo $\frac{y'}{y}=4$
integrando
$\int\frac{y'(t)}{y(t)}dt=4\int dt$
poiché il differenziale $dy(t)=y'(t)dt$
$\int \frac{dy}{y}=4 \int dt \rightarrow ln|y|+c'=4t+c'' \rightarrow ln|y|=4t+c$
elevo ad e: $|y|=e^{4t+c}=e^{4t}+e^c
$|y|$ è sempre positivo, $e^{4t}$ e $e^c$ anche.
$y(t)=\pm e^c e^{4t}$ e^c non è mai nulla $\Rightarrow$
$=Ce^{4t}, C \in \mathbb{R}$
Scrivendo $C$, permetto alla costante di assumere valore $0$, quindi ho trovato anche la soluzione $y(t)=0$ temporaneamente scartata.
$y(t)=C e^{4t}$
$y'(t)=4C e^{4t}$
$y'=4y$
$y'=4y$ $y'-4y=0$
Se $y \neq 0$: considero $\frac{y'}{y}=4$
ma osservo che $y=0$ è soluzione dell'equazione
risolvo $\frac{y'}{y}=4$
integrando
$\int\frac{y'(t)}{y(t)}dt=4\int dt$
poiché il differenziale $dy(t)=y'(t)dt$
$\int \frac{dy}{y}=4 \int dt \rightarrow ln|y|+c'=4t+c'' \rightarrow ln|y|=4t+c$
elevo ad e: $|y|=e^{4t+c}=e^{4t}+e^c
$|y|$ è sempre positivo, $e^{4t}$ e $e^c$ anche.
$y(t)=\pm e^c e^{4t}$ e^c non è mai nulla $\Rightarrow$
$=Ce^{4t}, C \in \mathbb{R}$
Scrivendo $C$, permetto alla costante di assumere valore $0$, quindi ho trovato anche la soluzione $y(t)=0$ temporaneamente scartata.
$y(t)=C e^{4t}$
$y'(t)=4C e^{4t}$
$y'=4y$
Problema di Cauchy
Oltre all'equazione differenziale $y'(t)=g(t)$ possiamo considerare la stessa equazione differenziale con la condizione che la soluzione cercata passi per un punto assegnato.
$\begin{cases} y'(t)=g(t), \\ y(t_0)=y_0, \end{cases}$
$t_0 \in [a,b]$ e $y_0$ è un valore assegnato per l'equazione $y'=g(t)$, con il problema di Cauchy con la condizione iniziale $y(t_0)=y_0$ equivale:
$y(t)=y_0+\int_{t_0}^{t}g(s)ds$
$\begin{cases} y'(t)=tsint, \\y(0)=1, \end{cases}$
$y(t) = 1 + \int_{0}^t s sin(s)ds$
e l'integrale $\int_{0}^t s sin(s)ds$ si risolve per parti:
$\int fg'=fg-\int f'g$
$s sin(s)ds=-s cos(s)-\int-cos(s)ds=-s cos(s)+\int cos(s)ds$
$1+[-s cos(s)+sin(s)]_0^t$
$1+(-t cos(t)+sin(t))=1-tcos(t)+sin(t)$
$y(t)=1-tcos(t)+sin(t)$ per verificare $y(t)$ (e ottenere $g(t)$) oppure $cos(t)$
-------------------------------------
Dato un problema di Cauchy del tipo:
$\begin{cases} y'=a(t)b(y), \\y(t_0)=y_0, \end{cases}$
se $a(t)$ è continua in un intero di $t_0$ e $b(y)$ è di classe $C^1$ in un intorno di $y_0$, allora esiste una sola soluzione $y(t)$ in un opportuno intorno di $t_0$.
[Vedi classi di analisi 1]
Es:
$\begin{cases} y'=2t(y-1)^2, \\y(0)=2, \end{cases}$
$y(0)=1 -\frac{1}{c}$ trovo $c$ imponendo $y(0)=2$
$1-\frac{1}{c}=2$ $\frac{1}{c}=-1$ $c=-1$
$y(t) = 1-\frac{1}{t^2-1}$
-------------------------------------
Dato un problema di Cauchy del tipo:
$\begin{cases} y'=a(t)y=f(t), \\y(t_0)=y_0, \end{cases}$
$y(t)=y_0e^{-A(t)}+e^{-A(t)}\int_{t_0}^t f(t) e^{A(t)}dt$
-------------------------------------
Il problema di Cauchy con le equazioni differenziali di secondo ordine, richiede due condizioni iniziali:
$\begin{cases} y(t_0)=y_0, \\ y'(t_0)=y_1, \end{cases}$ $y_0$ e $y_1 \in \mathbb{R}$ sono dei valori assegnati.
[grafico per capire il significato della derivata prima e del coefficiente angolare... c'è una retta con $m = y_1$ passante per $(t_0, y_0)$]
Visto che nel punto $y(t_0)=y_0$ passano $\infty$ soluzioni, noi cerchiamo la soluzione che, in quel punto abbia coefficiente angolare $m=y_1$
$\begin{cases} y'(t)=g(t), \\ y(t_0)=y_0, \end{cases}$
$t_0 \in [a,b]$ e $y_0$ è un valore assegnato per l'equazione $y'=g(t)$, con il problema di Cauchy con la condizione iniziale $y(t_0)=y_0$ equivale:
$y(t)=y_0+\int_{t_0}^{t}g(s)ds$
$\begin{cases} y'(t)=tsint, \\y(0)=1, \end{cases}$
$y(t) = 1 + \int_{0}^t s sin(s)ds$
e l'integrale $\int_{0}^t s sin(s)ds$ si risolve per parti:
$\int fg'=fg-\int f'g$
$s sin(s)ds=-s cos(s)-\int-cos(s)ds=-s cos(s)+\int cos(s)ds$
$1+[-s cos(s)+sin(s)]_0^t$
$1+(-t cos(t)+sin(t))=1-tcos(t)+sin(t)$
$y(t)=1-tcos(t)+sin(t)$ per verificare $y(t)$ (e ottenere $g(t)$) oppure $cos(t)$
-------------------------------------
Dato un problema di Cauchy del tipo:
$\begin{cases} y'=a(t)b(y), \\y(t_0)=y_0, \end{cases}$
se $a(t)$ è continua in un intero di $t_0$ e $b(y)$ è di classe $C^1$ in un intorno di $y_0$, allora esiste una sola soluzione $y(t)$ in un opportuno intorno di $t_0$.
[Vedi classi di analisi 1]
Es:
$\begin{cases} y'=2t(y-1)^2, \\y(0)=2, \end{cases}$
$y(0)=1 -\frac{1}{c}$ trovo $c$ imponendo $y(0)=2$
$1-\frac{1}{c}=2$ $\frac{1}{c}=-1$ $c=-1$
$y(t) = 1-\frac{1}{t^2-1}$
-------------------------------------
Dato un problema di Cauchy del tipo:
$\begin{cases} y'=a(t)y=f(t), \\y(t_0)=y_0, \end{cases}$
$y(t)=y_0e^{-A(t)}+e^{-A(t)}\int_{t_0}^t f(t) e^{A(t)}dt$
-------------------------------------
Il problema di Cauchy con le equazioni differenziali di secondo ordine, richiede due condizioni iniziali:
$\begin{cases} y(t_0)=y_0, \\ y'(t_0)=y_1, \end{cases}$ $y_0$ e $y_1 \in \mathbb{R}$ sono dei valori assegnati.
[grafico per capire il significato della derivata prima e del coefficiente angolare... c'è una retta con $m = y_1$ passante per $(t_0, y_0)$]
Visto che nel punto $y(t_0)=y_0$ passano $\infty$ soluzioni, noi cerchiamo la soluzione che, in quel punto abbia coefficiente angolare $m=y_1$
Equazioni Differenziali
Data $y(t)$ della variabile $t$, si dice equazione differenziale un'equazione del tipo
$F(t, y(t), y'(t), ..., y^n(t))=0$ in cui compaiono la funzione incognita $y(t)$ ed alcune delle sue derivate.
Si dice ordine di un'equazione differenziale l'ordine massimo di derivazione con cui compare la funzione incognita.
L'equazione si dice di tipo normale:
$y^{(n)}=f(t, y(t), ..., y^{(n-1)}(t))$
se la derivata di ordine massimo si può esplicitare (in funzione delle altre variabili).
Una funzione $\rho(t)$ (continua) derivabile sino all'ordine $"n"$ si dice soluzione o integrale della equazione differenziale di $F(t, \rho(t), \rho'(t), ..., \rho^n(t))=0$
Es: Dire se $y(t)=sin(2t)$ è un integrale/una soluzione dell'equazione differenziale:
$y''(t)+4y(t)=0$
$y''+4y=0$ (brevemente)
$y(t)=sin(2t)$
$y'(t)=2cos(2t)$
$y''(t)=-4sin(2t)$
sostituendo in $y''+4y=0$
$-4sin(2t)+4sin(2t)=0$ Sì!
Es: $g(t)$ continua definita in $[a,b]$
$y'=g(t)$
Cerchiamo una funzione $y(t)$ di cui è assegnata la derivata. Integrando:
$y(t)=\int g(t)dt$
$y'=\frac{1}{1+t^2}$ $y(t)=\int \frac{1}{1+t^2}dt=arctg(t)+c$
la famiglia di funzioni: $y(t)=arctg(t)+c$
prende il nome di integrale generale dell'equazione differenziale.
$y'=cost$
$y(t)=sint+c$ integrale generale
[grafo]
$F(t, y(t), y'(t), ..., y^n(t))=0$ in cui compaiono la funzione incognita $y(t)$ ed alcune delle sue derivate.
Si dice ordine di un'equazione differenziale l'ordine massimo di derivazione con cui compare la funzione incognita.
L'equazione si dice di tipo normale:
$y^{(n)}=f(t, y(t), ..., y^{(n-1)}(t))$
se la derivata di ordine massimo si può esplicitare (in funzione delle altre variabili).
Una funzione $\rho(t)$ (continua) derivabile sino all'ordine $"n"$ si dice soluzione o integrale della equazione differenziale di $F(t, \rho(t), \rho'(t), ..., \rho^n(t))=0$
Es: Dire se $y(t)=sin(2t)$ è un integrale/una soluzione dell'equazione differenziale:
$y''(t)+4y(t)=0$
$y''+4y=0$ (brevemente)
$y(t)=sin(2t)$
$y'(t)=2cos(2t)$
$y''(t)=-4sin(2t)$
sostituendo in $y''+4y=0$
$-4sin(2t)+4sin(2t)=0$ Sì!
Es: $g(t)$ continua definita in $[a,b]$
$y'=g(t)$
Cerchiamo una funzione $y(t)$ di cui è assegnata la derivata. Integrando:
$y(t)=\int g(t)dt$
$y'=\frac{1}{1+t^2}$ $y(t)=\int \frac{1}{1+t^2}dt=arctg(t)+c$
la famiglia di funzioni: $y(t)=arctg(t)+c$
prende il nome di integrale generale dell'equazione differenziale.
$y'=cost$
$y(t)=sint+c$ integrale generale
[grafo]
Iscriviti a:
Post (Atom)