domenica 9 aprile 2017

Formulario

Addizione - Sottrazione
$sin(\alpha + \beta) = sin(\alpha)cos(\beta)+cos(\alpha)sin(\beta)$
$sin(\alpha - \beta) = sin(\alpha)cos(\beta)-cos(\alpha)sin(\beta)$
$cos(\alpha + \beta) = cos(\alpha)cos(\beta)-sin(\alpha)sin(\beta)$
$cos(\alpha - \beta) = cos(\alpha)cos(\beta)+sin(\alpha)sin(\beta)$
$tan(\alpha \pm \beta) = \frac{tan(\alpha)\pm tan(\beta)}{1 \mp tan(\alpha)tan(\beta)}$

Duplicazione
$sin(2\alpha)=2sin(\alpha)cos(\alpha)$


Logaritmi
$a^{log_ab} = b$
$log_a(bc)=log_ab+log_ac$
$log_a(b^c)=clog_ab$
$log_a(\frac{b}{c})=log_ab-log_ac$
$log_ab=\frac{log_cb}{log_ca}$
$log_ab=\frac{1}{log_ba}$

Derivate
$D[k] = 0$
$D[kx]=k$
$D[k x^n]=k n x^{n-1}$
$D[ln {f(x)}]=\frac{f'(x)}{f(x)}$
$D[e^{f(x)}]=f'(x)e^{f(x)}$
$D[a^{f(x)}]=f'(x)a^{f(x)}lna$
$D[ln_ax]=\frac{1}{xlna}$
$D[\sqrt[n]{(f(x))^m}] = \frac{m f'(x)}{n \sqrt[n]{(f(x))^{n-m}}}$
$D[(f(x))^n]=n(f(x))^{n-1}f'(x)$
$D[kf(x)]=kf'(x)$
$D[f(x)+g(x)]=f'(x)+g'(x)$
$D[f(x)g(x)]=f'(x)g(x)+f(x)g'(x)$
$D[\frac{f(x)}{g(x)}]=\frac{f'(x)g(x)-f(x)g'(x)}{(g(x))^2}$
$D[f(g(x))]=f'(g(x))g'(x)$






martedì 14 febbraio 2017

Limiti :: stime asintotiche

$sinx \sim_0 x$
$1 - cosx \sim_0 \frac{1}{2}x^2$
$e^x - 1 \sim_0 x$
$ln(1+x) \sim_0 x$
$(1+x)^\alpha - 1 \sim_0 \alpha x$

domenica 12 febbraio 2017

lunedì 6 febbraio 2017

Integrazione su altri domini

Passiamo dai domini rettangolari ai domini regolari (unione finita di insiemi semplici).

Y-semplice
$E = \{ (x,y) \in \mathbb{R} : \leq x \leq b, g_1(x) \leq y \leq g_2(x) \}$
con $g_1$ e $g_2$ funzioni continue definite in $[a,b]$.

Un dominio è detto y-semplice se due punti in $g_1$ e $g_2$ si incontrano attraverso una retta fissata in $[a,b]$.
$\int \int_E f(x,y)dxdy = \int\limits_a^b=\int\limits_a^b(\int\limits_{g_1(x)}^{g_2(x)}f(x,y)dy)dx$

X-semplice
$E=\{ (x,y) \in \mathbb{R}^2, h_1(y) \leq x \leq h_2(y), c \leq y \leq d \}$
$h_1$ e $h_2$ funzioni continue definite in $[c,d]$.

Un insieme D si dice semplice, se si può esprimere come unione finita di insiemi semplici.

Integrazione per parti

$\int f(x)g'(x)dx = f(x)g(x) - \int f'(x)g(x)dx + c$

Integrali di funzioni a due variabili

(Integrali Doppi)

$f:A\to\mathbb{R}$, $A \subset \mathbb{R}^2$, f continua.
Utilizziamo le somme di Cauchy.
Sia $f(x,y): [a,b]x[c,d]\to\mathbb{R}$ dividiamo $[a,b]$ e $[c,d]$ ciascuno in $n$ parti uguali. Sia $\xi_{ik}$ un punto qualsiasi in $I_{ik}$.
Ogni rettangolino corrisponde all'area della superficie della curva coperta.

Somme di Cauchy
$\sum\limits_{i=1}^n area(I_{ik}) f(\xi_{ik})$ ovvero il volume del parallelepipedo avente come base il rettangolo $I_{ik}$ e altezza $f(\xi_{ik}$
$area(I_{ik})=J_ixH_k=m(I_{ik})$
Se $f:A\to\mathbb{R}$, $A \subset \mathbb{R}^2$ è continua allora esiste:
$$\lim\limits_{n\to +\infty} \sum\limits_{i=1}^n m(I_{ik} f(\xi_{ik}) $$ ed il valore di questo limite è l'integrale doppio $\int \int\limits_D f(x,y)dxdy$ per $f \geq 0$ $\int \int\limits_D f(x,y)dxdy$ rappresenta il volume della regione di spazio sottesa dalla superficie.

Integrali doppi su domini rettangolari.
$f: A\to \mathbb{R}, A \subset \mathbb{R}^2$, rettangolo $R = [a,b]x[c,d]$, $f$ continua.

$\int \int\limits_D f(x,y)dxdy$ si può calcolare mediante due integrazioni successive.
$\int \int\limits_D f(x,y)dxdy = \int\limits_a^b (\int\limits_c^d f(x,y)dy)dx$
vale anche:
$\int\limits_c^d (\int\limits_a^b f(x,y)dx)dy$







Criterio calcolo limiti

Per verificare che il limite $$\lim\limits_{(x,y)\to(0,0)}f(x,y)=l$$ possiamo procedere come segue: si considerano le coordinate polari
$\begin{cases} x=\rho cos\Theta, \\ y=\rho sin\Theta, \end{cases}$ e si effettua il cambiamento di coordinate, e si ottiene $f(\rho,\Theta)=f(\rho cos\Theta, \rho sin\Theta)$ se si riesce ad effettuare una maggiorazione del tipo $|f(\rho,\Theta)-L|\leq g(\rho)$ con g non dipendente da $\Theta$ e tale che $g(\rho)\to0$ per $\rho \to 0$ allora possiamo affermare che $$\lim\limits_{(x,y)\to(0,0)}f(x,y)=L$$

Es:
$$\lim\limits_{(x,y)\to(0,0)}\frac{x^2y^3}{x^2+y^2}$$
$f(\rho, \Theta)=\frac{\rho^5 cos^2\Theta sin^3 \Theta}{\rho ^2}$
$=\rho^3 cos^2 \Theta sin^3 \Theta$

$0 \leq |f(\rho, \Theta) - l| = \rho^3|cos^2\Theta sin^3\Theta|$
$\leq \rho^3 \to 0$ non dipende da $\Theta$. Il limite fa zero.

Funzioni continue

($f: \mathbb{R}^2 \to \mathbb{R}$)
Definizione.
Una funzione $f: \mathbb{R}^2\to \mathbb{R}$ si dice continua in un punto $(x_0, y_0)\in \mathbb{R}^2$ se $$\lim\limits_{(x,y)\to(x_0,y_0)}f(x,y) = f(x_0,y_0)$$. Continua a valere che :
somma prodotto e il quoziente di funzioni continue restano continue (dove le funzioni hanno senso) lo stesso vale per la composizione di funzioni continue.

Teoremi su funzioni continue.
Definizione Un insieme $E (\subset \mathbb{R}^2)$ si dice limitato se $\exists R > 0$ tale che, l'insieme $E \subset U_R(0,0)$.

Definizione.
Un insieme $E$ si dice connesso, se:
$\forall P,Q, \in E, \exists$ un arco di curva continua che congiunge $P$ e $Q$.

Teorema Weierstrass
Ogni funzione continua su un insieme chiuso e limitato $K$, ammette massimo e minimo (assoluti) in $K$.

Teorema di esistenza degli zeri
Sia $f: C \to R$ continua con $C$ insieme connesso di $\mathbb{R}^2$, se risulta $f(P)<0$ e $f(Q)>0$ con $P,Q \in C$ allora esisterà un terzo punto $R \in C$ tale che $f(R) = f(x_R, y_R)=0$

Esercizi
Insiemi di definizione
1)
$f(x,y)=\sqrt{y^2-x^2}+ln(1-x^2-y^2)$
$\begin{cases} y^2 -x^2 \geq 0, \\ 1-x^2-y^2>0, \end{cases}$ ovvero
$\begin{cases} (y-x)(y+x) \geq 0, \\ y=x, y=-x \end{cases}$ quindi non è continua e non è limitata.

2)
$f(x,y) = \sqrt{y^2-x^4}$
$y^2-x^4 \geq 0$
$(y-x^2)(y+x^2)\geq 0$
$y=x^2$, $y=-x^2$

Esercizi sui limiti 
1)
$$\lim\limits_{(x,y)\to(0,0) (x^2+y^2)^\frac{m}{n}=0}$$ se $m,n \in \mathbb{N}, n \not= 0$
Dimostriamo che vale usando la definizione.
Dato $\epsilon > 0$ si deve determinare $\delta >0$ tale che $0<\sqrt{x^2+y^2}<\delta$
$\Rightarrow |f(x,y)|<\epsilon$.
Considero la quantità
$0<(x^2+y^2)^\frac{m}{n}=(\sqrt{x^2+y^2})^\frac{2m}{n}$
$(x,y) \not= (0,0)$
$(\sqrt{x^2+y^2})^\frac{2m}{n} < \epsilon$ se $\delta^{\frac{2m}{n}}=\epsilon$
$\delta = \epsilon^{\frac{n}{2m}}$
In generale vale
$$\lim\limits_{(x,y)\to(0,0)}(x^2+y^2)^\alpha = 0$$ se $\alpha > 0$


2)
$$\lim\limits_{(x,y)\to(0,0)}\frac{x^2y^3}{x^2+y^2}=0$$
0

...............

domenica 5 febbraio 2017

Limiti per funzioni di due variabili

Sia $f: A \subset \mathbb{R}^2 \rightarrow \mathbb{R}$ e sia $(x_0, y_0)$ punto di accumulazione per $A$.
Il $\lim\limits_{(x,y)\to(x_0,y_0)}f(x,y)=L$ se $\forall \epsilon >0, \exists \delta$ tale che $0 < \sqrt{(x-x_0)^2+(y-y_0)^2} < \delta$ con $(x,y,) \in A$
$(x,y) \in U_\delta (x_0, y_0) \bigcup A \ \{(x_0,y_0)\}$
$\Rightarrow |f(x,y)-L|<\epsilon$
  • unicità limite 
  • operazioni sui limiti (con le F.I.)
Osservazione importante (Condizione Necessaria)
$\lim\limits_{(x,y)\to(x_0, y_0)}f(x,y)=L \Rightarrow$ per ogni curva regolare $\gamma(t)=\begin{cases} x=x(t), \\ y=y(t), \end{cases}$ 
passante per $(x_0, y_0)$ si avrà $\lim\limits_{t\to t_0} f(x(t), y(t))=L$

questa osservazione è utile nel caso in cui il limite non esiste. Infatti se determiniamo due curve lungo le quali i limiti sono diversi, possiamo concludere che $\lim\limits_{(x,y)\to(x_0, y_0)}f(x,y)$ non esiste.

Cenni topologia

(in $R^2$)
Dato un punto $P_0=(x_0, y_0)$ ed $r>0$ l'intorno circolare di centro $P_0$ e raggio $r$ è:
$U_r(x_0, y_0)={(x,y) \in \mathbb{R}^2:(x-x_0)^2+(y-y_0)<r^2}$
sqrt((x-x_0)^2+(y-y_0)^2)<r

Definizione.
Un sottoinsieme $A$ di \mathbb{R}^2 si dice aperto se per ogni punto $(x_0, y_0)$ di A, esiste un intorno circolare del punto contenuto nell'insieme $U_r(x_0, y_0) \subset A$

Proprietà aperti

  1. L'insieme vuoto e $\mathbb{R}^2$ sono aperti
  2. Se $A_1, A_2, ..., A_n, ...$ sono aperti, anche $\bigcup \limits_{i=1}^\infty A_i$ sarà aperto
  3. L'intersezione finita di aperti è aperta.
  4. $\forall U_r$ è aperto
Definizione
Diremo che un insieme C di $\mathbb{R}^2$ è chiuso se C è il complementare di un insieme aperto.
$C$ è chiuso $\Leftrightarrow ^c C$ è aperto.


Frontiera di un insieme $E$ di $\mathbb{R}^2$
Diremo che $(x,y) \in \mathbb{R}^2$ è un punto di frontiera per $E$ se preso comunque un intorno del punto $U_r(x,y)$ si ha:
$U_r(x,y) \bigcap E \neq \emptyset$
$U_r(x,y) \bigcap ^CE \neq \emptyset$
(ha punti di $E$ e del suo complementare
...

Funzioni a più variabili

Funzioni a variabili reali

  1. $f: \mathbb{R} \ rightarrow \mathbb{R}$ funzione di variabile reale a valori reali
  2. $f: \mathbb{R}^n \rightarrow \mathbb{R}$ funzione di più variabili a valori reali.
Es: $f: \mathbb{R}^2 \rightarrow \mathbb{R}$ (funzione di 2 variabili)
$(x,y) \rightarrow z = f(x,y)$
  • $f(x,y) = xy$
  • $f(x,y) = x^2+y^2$

Funzioni a valori vettoriali
$f: \mathbb{R} \rightarrow \mathbb{R}^n$ 

Es: $f: \mathbb{R} \rightarrow \mathbb{R}^2$
$t \rightarrow \begin{cases} x = x(t), \\ y=y(t) \end {cases}$ posizione nel piano.
Come nella legge oraria, la posizione del punto dipende da $t$ (tempo): $(x(t), y(t))$

Es: $f: \mathbb{R} \rightarrow \mathbb{R}^3$
$t \rightarrow \begin{cases} x = x(t), \\ y=y(t), \\ z=z(t) \end {cases}$ posizione nello spazio.


Curve (funzione)
Definizione. Dato $I$ intervallo di $\mathbb{R}$, si dice curva ogni funzione continua:
$\gamma : I \rightarrow \mathbb{R}^n$

$n=2$ la curva $\gamma : [a,b] \rightarrow \mathbb{R}^2$ con $\gamma$ continua, ovvero se: $\gamma(t)=(x(t), y(t)) \in \mathbb{R}^2$ allora le componenti $x=x(t)$ e $y=y(t)$ sono continue.

La curva si dice chiuse se $\gamma (a) = \gamma (b)$............

Massimi e minimi per funzioni a due variabili

Definizione
$f: A \rightarrow \mathbb{R}$, $A \subset \mathbb{R}^2$, $(x_0, y_0) \in A$ diremo che il punto $(x_0, y_0)$ è un punto di:

  •  massimo assoluto se
    • $f(x_0, y_0) \geq f(x,y) \forall (x,y) \in A$
  • minimo assoluto se
    • $f(x_0, y_0) \leq f(x,y) \forall (x,y) \in A$
  • massimo relativo o locale se
    • $\exists U(x_0, y_0)$ del punto $(x_0, y_0)$ tale che $f(x_0,y_0) \geq f(x,y)$, $\forall (x,y) \in U(x_0, y_0) \cap A$ il valore $f(x_0,y_0)$ sarà il massimo assoluto/relativo
  • minimo relativo o locale se
    • $\exists U(x_0, y_0)$ del punto $(x_0, y_0)$ tale che $f(x_0,y_0) \leq f(x,y)$, $\forall (x,y) \in U(x_0, y_0) \cap A$ il valore $f(x_0,y_0)$ sarà il minimo assoluto/relativo

Teorema di Fermat
Sia $f \in C^1(A)$, $f: A \rightarrow \mathbb{R}$, $A$ aperto, $(x_0, y_0) \in A$

Se $(x_0, y_0)$ è un punto di massimo o minimo, se f è derivabile in $(x_0, y_0)$, allora:
$f_x(x_0, y_0)=f_y(x_0, y_0)=0$ (equivale a $\bigtriangledown f(x_0, y_0)$ è nullo)

Dimostrazione: Suppongo $(x_0, y_0)$ punto di massimo e consideriamo la funzione di una variabile $g(t)=f(t, y_0)$ (che avrà un massimo in $t=x_0$)
g risulta derivabile in $x_0$, $g'(x_0)=0$ 
$g'(t)=f_x(t,y_0)$
$g'(x_0)=f_x(x_0,y_0) \Rightarrow f_x(x_0, y_0)=0$ 
analogo per il procedimento con $f_y$
$g(t)=f(x_0, t)$
si otterrà: $f_y(x_0, y_0)=0$
la condizione $\bigtriangledown f(x_0, y_0) = 0$ è una condizione necessaria affinché il punto sia di massimo o di minimo. La condizione non è sufficiente, esistono punti in cui $\bigtriangledown f$ è nullo che non sono di massimo o minimo.

$\bigtriangledown f(x_0, y_0) = (0,0)$ allora $(x_0, y_0)$ si dirà punto critico o stazionario.

$f \in C^1(A) \Rightarrow f$ ammette piano tangente in $(x_0, y_0)$ $[( (x_0,y_0), f(x_0, y_0) ) \in G_f(\Gamma_f)]$

$z=f(x_0,y_0) + f_x(x_0,y_0)(x-x_0)+f_y(x_0,y_0)(y-y_0)$
Se $f \in C^1(A)$ e $\bigtriangledown f(x_0,y_0)=(0,0)$
$\Rightarrow$ il piano tangente è: 
$ z = f(x_0, y_0)$ cioè un piano parallelo al piano "$xy$".

Se $f \in C^1(A)$, i punti di massimo o minimo vanno ricercati tra i punti critici.
Vediamo delle condizioni (sufficienti) che permettono di classificare i punti critici per funzioni $f \in C^2(A)$
Ricordiamo la formula di Taylor del secondo ordine
$f(x_0+dx, y_0 +dy) - f(x_0, y_0) = f_x(x_0, y_0)dx + f_y(x_0, y_0)dy + \frac{1}{2}[f_{xx}(x_0,y_0)dx^2 + 2f_{xy}(x_0,y_0)dxdy+f_{yy}(x_0,y_0)dy^2]+o(dx^2+dy^2)$

Per stabilire se $(x_0,y_0)$ è un punto massimo voglio stabilire il segno dell'incremento della funzione: 
$f(x_0+dx, y_0 +dy) - f(x_0, y_0) \geq 0$
Per stabilire se $(x_0,y_0)$ è un punto minimo voglio stabilire il segno dell'incremento della funzione: 
$f(x_0+dx, y_0 +dy) - f(x_0, y_0) \leq 0$

Questo riconduce a stabilire il segno di $d^2f$, e quindi della forma quadratica:
$f_{xx}(x_0,y_0)dx^2+2f_{xy}(x_0, y_0)dxdy+f_{yy}(x_0,y_0)dy^2$

Matrice Hessiana: matrice associata alla forma quadratica

$H(x,y) = \left( \begin{array}{cc} f_{xx}(x,y) & f_{xy}(x,y) \\ f_{xy}(x,y) & f_{yy}(x,y) \end{array}\right)$
$det(H(x,y))=-\frac{\Delta}{4}$

Forma quadratica
$d^2f(x_0,y_0) = f_{xx}(x_0,y_0)dx^2+2f_{xy}(x_0, y_0)dxdy+f_{yy}(x_0,y_0)dy^2$

  1. definita positiva $det(H(x_0,y_0))>0$, $f_{xx}(x_0, y_0)>0$
  2. definita negativa $det(H(x_0,y_0))>0$, $f_{xx}(x_0, y_0)<0$
  3. indefinita $det(H(x_0,y_0))<0$
  4. semi-definita $det(H(x_0,y_0))=0$
Esaminiamo i casi: 
  1. Se $d^2f$ è definita positiva, possiamo scegliere un incremento $dx, dy$ così piccolo in modo che risulti: $f(x_0+dx, y_0+dy)-f(x_0,y_0) \geq 0$ $\Rightarrow f(x_0+dx, y_0+dy) \geq f(x_0,y_0)$ $\Rightarrow (x_0, y_0)$ è punto di minimo.  $det(H(x_0,y_0))>0$, $f_{xx}(x_0, y_0)>0$
  2. Se $d^2f(x_0, y_0)$ è definita negativa $det(H(x_0,y_0))>0$, $f_{xx}(x_0, y_0)<0$ $\Rightarrow (x_0, y_0)$ è punto di massimo.
  3. Se $d^2f(x_0, y_0)$ è indefinita $\Rightarrow (x_0, y_0)$ non è né massimo, né minimo, ma punto di sella (colle). $det(H(x_0,y_0))<0$
  4. Se $d^2f(x_0,y_0)$ è semi-definita $det(H(x_0,y_0))=0$ con questo metodo non possiamo concludere.

Si potrebbe schematizzare, non mi va


Equazione lineare di secondo ordine a coefficienti costanti

$y'' + a y' + by=f(t)$
caso omogeneo
$y=c_1 y_1 + c_2 y_2$

Numeri Complessi

$\mathbb{C}={a+ib, a,b \in \mathbb{R}}$ (forma algebrica)

  • $i^1 = i$
  • $i^2 = -1$
  • $i^3 = -i$
  • $i^4 = 1$
  • $i^5= i$
$z = a + i b$ con $a = |z| cos \Theta$ e $b = |z| sin \Theta$ 
e $|z|$ è la retta costituita dai punti $(a,b)$


Coordinate Polari
$\begin {cases} x = \rho cos \Theta, \\ y = \rho sin \Theta, \end {cases} \Rightarrow z = \rho(cos \Theta + isin \Theta)$ (Forma trigonometrica)


Forma esponenziale
$z=x+iy$
$z = \rho(cos \Theta + i sin \Theta)$
Si passa alla forma esponenziale mediante la sostituzione $e^{i \Theta}=cos \Theta + i sin \Theta$
$z = \rho e^{i \Theta}$ (Forma esponenziale)
Questa forma semplifica le potenze e i prodotti:

  • $z^3 = \rho^3 e^{i3 \Theta}$
  • $z_1 z_2 = (\rho_1 \rho_2) e^{i(\Theta_1 \Theta_2)}$
$\bar{z}=\rho e^{-i \Theta} \Rightarrow \bar{z}=\rho(cos \Theta - i sin \Theta)$
$cos (-\Theta) = cos (\Theta)$
$sin (-\Theta) = - sin(\Theta)$


Formule di Eulero
$e^{i \Theta} = cos\Theta + i sin \Theta$
$e^{-i\Theta} = cos \Theta - i sin \Theta$

$\frac {e^{i \Theta}+ e^{-i \Theta}}{2} = cos \Theta$

$\frac {e^{i \Theta}- e^{-i \Theta}}{2i} = sin \Theta$

Quindi quando $\lambda^2 + a \lambda +  b = 0 $ (equazione caratteristica di $y''+ay'+y=0$) ha soluzioni complesse coniugate $\lambda = \alpha \pm i \beta$ possiamo scegliere come soluzioni linearmente indipendenti:
$y_1 = e^{\alpha t} cos \beta t$
$y_2 = e^{\alpha t} sin \beta t$ in quanto combinazioni lineari delle soluzioni: $e^{(\alpha + i \beta)t}$ ed $e^{(\alpha - i \beta)t}$
$= e^{\alpha t} e^{i \beta t}$ ed $= e^{\alpha t} e^{-i \beta t}$

sabato 4 febbraio 2017

Equazioni differenziali lineari di secondo ordine a coefficienti costanti

$y''+ay'+by=f(t)$,   $a,b \in \mathbb{R}$

caso omogeneo:
$y''+ay'+by=0$
determiniamo due soluzioni linearmente indipendenti $y_1$ e $y_2$
cerchiamo soluzioni del tipo:
$y(t)=e^{\lambda t}$
derivando:
$y'(t)=\lambda e^{\lambda t}$
$y''(t)=\lambda^2 e^{\lambda t}$

e sostituendo:
$\lambda^2 e^{\lambda t} + a \lambda e^{\lambda t} + b e^{\lambda t} = 0$
$e^{\lambda t}(\lambda^2+a \lambda +b)=0$
$e^{\lambda t}\neq 0$ sempre, quindi valuto:
$\lambda^2+a \lambda +b=0$
che prende il nome di equazione caratteristica.

1) $\Delta>0$  trovo $\lambda_1, \lambda_2 \in \mathbb{R}$ $ \lambda_1 \neq \lambda_2$
$y = c_1 e^{\lambda_1 t}+c_2 e^{\lambda_2 t}$

2) $\Delta=0$ trovo $\lambda \in \mathbb{R}$
$y = c_1 e^{\lambda t}+c_2 t e^{\lambda t}$

3) $\Delta<0$ $\lambda = \alpha \pm i \beta \in \mathbb{C}$
$y_1 = e^{(\alpha + i \beta)t}$ $y_2 = e^{(\alpha - i \beta)t}$
$y_2 = e^{\alpha t}e^{i \beta t}$ $y_2 = e^{\alpha t}e^{-i \beta t}$
poiché:
$cos \beta t = \frac{e^{i \beta t}+e^{-i \beta t}}{2}$
$sin \beta t = \frac{e^{i \beta t}-e^{-i \beta t}}{2i}$

allora:
$y_1=e^{\alpha t} cos \beta t$ $y_2=e^{\alpha t} sin \beta t$


Es:

  • $y''+y'+y=0$

la cui equazione caratteristica è
$\lambda^2+\lambda+1=0$
$\lambda = \frac{-1 \pm i \sqrt{3}}{2}=-\frac{1}{2}\pm \frac{ \sqrt{3}}{2}i$

$y_1 = e^{\frac{1}{2}t}cos\frac{\sqrt}{2}{3}t$
$y_2 = e^{\frac{1}{2}t}sin\frac{\sqrt}{2}{3}t$


$y''+4y=0$
$\lambda^2 + 4=0 \rightarrow \lambda = \pm 2i$

$y_1 = cos2t$
$y_2 = sin2t$

Determinante Wronskiano

Es:
Data $y''+4y=0$
dire se $y_1=sin2t$ ed $y_2=cos2t$ sono soluzioni linearmente indipendenti.

Verifichiamo che $y_1$ e $y_2$ sono soluzioni di $y''+4y=0$

$y_1 = sin2t$
$y_1' = 2cos2t$
$y_1'' = -4sin2t$  sostituendo:
$-4sin2t + 4sin2t = 0$
$0 = 0 \Rightarrow$ è soluzione

$y_2 = cos2t$
$y_2' = -2sin2t$
$y_2'' = -4cos2t$
$-4cos2t + 4cos2t = 0$
$0 = 0 \Rightarrow$ è soluzione

Essendo soluzioni verifichiamo ora che siano linearmente indipendenti:
$det(w(t))=$
$sin2t$ $cos2t$
$2cos2t$ $-2sin2t$
= -2

Essendo diverso $det(w(t))\neq 0$, allora sono anche linearmente indipendenti.

Integrale generale di un'equazione omogenea di secondo ordine

$y''+a(t)y'+b(t)y=0$

Definizione.
Due soluzione $y_1$ e $y_2$ definite su $[\alpha, \beta]$ si dicono linearmente indipendenti se non esistono due costanti non nulle $c_1, c_2$ per cui:
$c_1 y_1(t) + c_2 y_2(t) = 0, \forall t \in [\alpha , \beta]$

Quindi $y_1$ e $y_2$ sono linearmente indipendenti se non sono proporzionali $\forall t \in [\alpha, \beta]$

Definizione.
Date due soluzioni $y_1$ e $y_2$ definite nello stesso intervallo $[\alpha, \beta]$ queste due sono linearmente indipendenti.

$\Leftrightarrow$ il
det di
$y_1(t)$ $y_2$
$y_1'(t)$ $y_2'$ deve essere diverso da zero.

(basta verificare che tale determinante sia non nullo in un punto $t_0$)



Teorema esistenza ed unicità soluzione per il problema di Cauchy

Data l'equazione $y''(t)+a(t)y'(t)+b(t)y(t)=f(t)$
con $a,b$ ed $f$ funzioni continue su un intervallo assegnato $[\alpha , \beta]$
Se $t_0 \in [\alpha , \beta]$ ed $y_0, y_1 \in \mathbb{R}$ allora il Problema di Cauchy.

$\begin{cases} y'' + a(t)y'(t)+b(t)y(t)=f(t), \\ y(t_0)=y_0, \\ y'(t_0)=y_1 \end{cases}$
ammette una e una sola soluzione (di classe $C_2$ con derivate continue fino al secondo ordine) definita in $[\alpha, \beta]$.

Equazioni del secondo ordine lineari

$y''(t)+a(t)y'(t)+b(t)y(t)=f(t)$

Equazione differenziale di secondo ordine

$F(t, y(t), y'(t), y''(t))=0$
la soluzione, o curva integrale, è una funzione $f(t)$ derivabile 2 volte che verifica l'equazione.

$y''=f(t) \rightarrow $due integrazioni successive.

Es:
$y''=sint \Rightarrow y'=\int sint dt = -cost+c_1$
$\Rightarrow y=-\int cost + c dt = -sint+c_1t+c_2$

allora l'integrale generale di $y''$:
$y(t)=c_1t+c_2-sint$

questa famiglia di soluzioni dipende da 2 variabili: $\infty^2$

Equazione differenziale di Bernoulli

$y'+a(t)y=f(t)y^\alpha$ $\alpha \in \mathbb{R}$
equazione differenziale del primo ordine non lineare, si riconduce al caso lineare dividendo tutto per $y^\alpha$:

$\frac{y'}{y^\alpha}+a(t)y^{1-\alpha}=f(t)$ $\alpha \in \mathbb{R}$

poniamo $z=y^{1- \alpha} \rightarrow z(t)=(y(t))^{1-\alpha}$

calcolo: $z'=(1-\alpha)y^{-\alpha}y'$
da cui: $\frac{y'}{y^\alpha}=\frac{z'}{1-\alpha}$

sostituendo, ottengo:
$\frac{z'}{1-\alpha}+a(t)z=f(t)$

$z' + (1-\alpha)a(t)z=(1-\alpha)f(t)$


Esempio:
$y'+\frac{2}{t}y=-\frac{lnt}{t}y^2$ ($t>0$)

dividiamo per $y^2$:
$\frac{y'}{y^2}+\frac{2}{t}y^{-1}=-\frac{lnt}{t}$

pongo $z=y^{-1}=\frac{1}{y}$
$z'=-\frac{1}{y^2}=-y^{-2} \rightarrow -\frac{y'}{y^2}$
quindi
$-z'+\frac{2}{t}z=-\frac{lnt}{t}$
$z'-\frac{2}{t}z=\frac{lnt}{t}$

$A(t)=-2\int \frac{1}{t}dt = -2 lnt$
$y(t)=ce^{-A(t)}+e^{-A(t)}\int f(t)e^{A(t)}dt$
$y(t)=ce^{2lnt}+e^{2lnt}\int \frac{lnt}{t}e^{-2lnt}dt$
$=ct^2+t^2\int \frac{lnt}{t}\frac{1}{t^2}dt$



Esercizi equazioni differenziali

3)
$y'+xy-x=0$
$y'+xy=x$

$y=z+y_0$, dove $z$ è l'integrale generale dell'equazione omogenea associata e $y_0$ è l'integrale particolare dell'equazione completa.


    • $z'+xz=0$
      • $z'=-xz \rightarrow \frac{z'}{z}=-x$
      • $\int \frac{z'}{z}dx=-\int x dx \rightarrow \int \frac{1}{z}dz=-\frac{x^2}{2}+c$
      • $z=ce^{-\frac{x^2}{2}}$
    • $y_0(x)=c(x)e^{-\frac{x^2}{2}}$
      • $y_0'(x)=c'(x)e^{-\frac{x^2}{2}}-xc(x)e^{- \frac{x^2}{2}}$
      • cerco $y_0$ soluzione particolare
      • $c'(x)e^{-\frac{x^2}{2}}-xc(x)e^{-\frac{x^2}{2}}+xc(x)e^{-\frac{x^2}{2}}=x$
      • $c'(x)=xe^{\frac{x^2}{2}}$
      • $c(x)=\int x e^{\frac{x^2}{2}}dx=e^{\frac{x^2}{2}}$
    • $y = z + y = ce^{-\frac{x^2}{2}}+c(x)e^{-\frac{x^2}{2}}=ce^{\frac{x^2}{2}}+e^{\frac{x^2}{2}}e^{-\frac{x^2}{2}}=ce^{\frac{x^2}{2}}+1$

controllare applicando la formula risolutiva.

Calcolo integrale generale

Dato $y'+a(t)y=f(t)$ sotto ipotesi di continuità per a, f,
avremo come soluzione:
$y(t)=z(t)+y_0(t)$


  1. si determina l'integrale generale dell'equazione omogenea associata (EOA) $z'+a(t)z=0$
  2. si determina una soluzione particolare $y_0(t)$ dell'equazione completa

  1.  $z'+a(t)z=0$ e indichiamo con $A(t)=\int a(t)dt$ una primitiva di $a(t)$.
    Si tratta di una equazione a variabili separabili: $z'=-a(t)z$.
    Si presenta $z=0$, che è soluzione stazionaria.
    Supponendo invece $z\neq 0$, separiamo le variabili
    $\frac{z'}{z}=-a(t) \rightarrow \int \frac{z'}{z}dt=-\int a(t)dt$
    $\int \frac{1}{z}dz=A(t)+c$ da cui ricavo:
    $ln|z|=-A(t)+c$ $\rightarrow |z| = e^{-A(t)+c} \rightarrow |z| = e^c e^{-A(t)}$ con $e^c>0$ costante
    $z = \pm e^c e^{-A(t)}$ da cui recupero la soluzione $z=0$ con $c \in \mathbb{R}$
    $z=ce^{-A(t)}$.
    Infatti se $c=0$ recupero tale soluzione stazionaria.
  2. Per la ricerca di una soluzione particolare $y_0(t)$ dell'equazione completa, si usa il metodo di variazione della costante.
    Si cerca una soluzione del tipo $y_0=c(t)e^{-A(t)}$.
    Si vuole determinare $c(t)$ in modo che $y_0$ soddisfa l'equazione completa.
    Derivo: $y_0'(t)=c'(t)e^{-A(t)}-c(t)a(t)e^{-A(t)}$ e sostituisco:
    $c'(t)e^{-A(t)}-c(t)a(t)e^{-A(t)}+c(t)a(t)e^{A(t)}=f(t)$ $c'(t)e^{-A(t)}=f(t)$ da cui ricavo
    $c'(t)=f(t)e^{A(t)}$
    integrando $c(t) = \int f(t) e^{A(t)}dt$
    $y_0(t)=e^{-A(t)}\int f(t) e^{A(t)}dt$.
    Quindi l'integrale generale: $y=z+y_0$ si scrive:
    $y=ce^{-A(t)}+e^{-A(t)} \int f(t) e^{A(t)} dt$

venerdì 3 febbraio 2017

Equazioni differenziali del primo ordine

(in forma normale)
$y'=f(t, y(t))$

Equazioni differenziabili a variabili separabili:
$y'(t) = a(t) b(y(t))$

con a,b continue in $I \subset \mathbb{R}$

Es:
$y'=2t(y-1)^2$     $y=1$ è una soluzione stazionaria

In generale, se esiste un valore $y_0$ per cui $b(y_0)=0$ allora $y=y_0$ è una soluzione dell'equazione (stazionaria)
$b(y)=0$ genera le soluzioni stazionarie
supponendo ora $b(y)\neq 0$, possiamo separare le variabili
$\frac{y'}{b(y)}=a(t)$ integrando rispettivamente a t.
$\rightarrow \int \frac{y'}{b(y)}dt=\int a(t)dt$
poiché $y'(t)dt=dy(t)$, posso scrivere
$\int \frac{1}{b(y)}= \int a(t) dt = A(t)+c, b(y)=0$

definisce implicitamente le $y(t)$ (soluzioni)


Es: Risolviamo $y'=2t(y-1)^2$
$(y-1)^2=0 \rightarrow y=1$ soluzione stazionaria
supponendo $y \neq 1$, separando le variabili, otteniamo:
$\frac{y'}{(y-1)^2}=2t \rightarrow \int \frac{y'}{(y-1)^2}dt = 2 \int t dt$
$int \frac{1}{(y-1)^2}=t^2+c \rightarrow -\frac{1}{y-1}=t^2+c$
passando ai reciproci per esplicitare la funzione $y(t)$, otteniamo
$y-1=-\frac{1}{t^2+c}$

$y=1-\frac{1}{t^2+c}$   $c \in \mathbb{R}, y=1$


La funzione incognita $y(t)$ e la sua derivata $y'(t)$ compaiono linearmente.

$y'+a(t)y=f(t)$ a questa equazione si associa
$z'+a(t)z=0$    (equazione omogenea associata)



Teorema
L'integrale generale dell'equazione completa $y'+a(t)y=f(t)$
è dato da $y(t)=z(t)+y_0(t)$
dove $z=z(t)$ è l'integrale generale dell'equazione omogenea associata (EOA) ed $y^{(t)}=y_0(t)$ è una soluzione  particolare dell'equazione completa.

Dimostrazione:
Sia $y(t)$ soluzione di $y'+a(t)y=f(t)$ ed $y_0(t)$ una soluzione particolare $y'_0+a(t)y_0=f(t)$
$\Rightarrow (y-y_0)'+a(t)(y-y_0)=0$
$\Rightarrow z=y-y_0$ è soluzione dell'EOA.
$y=z+y_0$
D'altro canto, se $z(t)$ è soluzione di $z'+a(t)z=0$, ed $y_0$ è soluzione particolare di $y'_0+a(t)y_0=f(t)$.
Se metto a sistema e sommo le due equazioni, ottengo che:
$y=z+y_0$ è soluzione dell'equazione completa.





Equazione differenziale di secondo ordine riconducibili al primo

Es:
L'equazione
$y''=\lambda y'$ è di secondo ordine. Poiché non compare la funzione y(non derivata) possiamo ridurre questa equazione a una del primo ordine, ponendo $z(t)=y'(t)$

$z(t)=y'(t)$
$z'(t)=y''(t)$

ottengo: $z'(t)=\lambda z(t)$

la cui soluzione/il cui integrale generale è $z(t)=C_1 e^{\lambda t}, C \in \mathbb{R}$

$y'(t)=C_1 e^{\lambda t}$ da cui integrando otteniamo
$y(t)=C_1 \int e^{\lambda t}dt$

Allora l'integrale generale dipenderà da due costanti.

$y(t)= \frac{C_1}{\lambda}e^{\lambda t} + C_2$

Ovvero abbiamo infinite soluzioni che dipendono da due parametri: $\infty ^2$ soluzioni


Esempio equazione differenziale

Es:
$y'=4y$     $y'-4y=0$
Se $y \neq 0$: considero $\frac{y'}{y}=4$
ma osservo che $y=0$ è soluzione dell'equazione
risolvo $\frac{y'}{y}=4$
integrando
$\int\frac{y'(t)}{y(t)}dt=4\int dt$

poiché il differenziale $dy(t)=y'(t)dt$
$\int \frac{dy}{y}=4 \int dt \rightarrow ln|y|+c'=4t+c'' \rightarrow ln|y|=4t+c$
elevo ad e: $|y|=e^{4t+c}=e^{4t}+e^c

$|y|$ è sempre positivo, $e^{4t}$ e $e^c$ anche.
$y(t)=\pm e^c e^{4t}$      e^c non è mai nulla $\Rightarrow$
$=Ce^{4t}, C \in \mathbb{R}$

Scrivendo $C$, permetto alla costante di assumere valore $0$, quindi ho trovato anche la soluzione $y(t)=0$ temporaneamente scartata.
    $y(t)=C e^{4t}$
    $y'(t)=4C e^{4t}$
    $y'=4y$

Problema di Cauchy

Oltre all'equazione differenziale $y'(t)=g(t)$ possiamo considerare la stessa equazione differenziale con la condizione che la soluzione cercata passi per un punto assegnato.

$\begin{cases} y'(t)=g(t), \\ y(t_0)=y_0, \end{cases}$
$t_0 \in [a,b]$ e $y_0$ è un valore assegnato per l'equazione $y'=g(t)$, con il problema di Cauchy con la condizione iniziale $y(t_0)=y_0$ equivale:
$y(t)=y_0+\int_{t_0}^{t}g(s)ds$


$\begin{cases} y'(t)=tsint, \\y(0)=1, \end{cases}$
$y(t) = 1 + \int_{0}^t s sin(s)ds$
e l'integrale $\int_{0}^t s sin(s)ds$ si risolve per parti:
$\int fg'=fg-\int f'g$
$s sin(s)ds=-s cos(s)-\int-cos(s)ds=-s cos(s)+\int cos(s)ds$
$1+[-s cos(s)+sin(s)]_0^t$

$1+(-t cos(t)+sin(t))=1-tcos(t)+sin(t)$

$y(t)=1-tcos(t)+sin(t)$ per verificare $y(t)$ (e ottenere $g(t)$) oppure $cos(t)$


-------------------------------------
Dato un problema di Cauchy del tipo:
$\begin{cases} y'=a(t)b(y), \\y(t_0)=y_0, \end{cases}$

se $a(t)$ è continua in un intero di $t_0$ e $b(y)$ è di classe $C^1$ in un intorno di $y_0$, allora esiste una sola soluzione $y(t)$ in un opportuno intorno di $t_0$.

[Vedi classi di analisi 1]

Es:
$\begin{cases} y'=2t(y-1)^2, \\y(0)=2, \end{cases}$

$y(0)=1 -\frac{1}{c}$ trovo $c$ imponendo $y(0)=2$
$1-\frac{1}{c}=2$ $\frac{1}{c}=-1$  $c=-1$

$y(t) = 1-\frac{1}{t^2-1}$

-------------------------------------
Dato un problema di Cauchy del tipo:
$\begin{cases} y'=a(t)y=f(t), \\y(t_0)=y_0, \end{cases}$
$y(t)=y_0e^{-A(t)}+e^{-A(t)}\int_{t_0}^t f(t) e^{A(t)}dt$

-------------------------------------

Il problema di Cauchy con le equazioni differenziali di secondo ordine, richiede due condizioni iniziali:
$\begin{cases} y(t_0)=y_0, \\ y'(t_0)=y_1, \end{cases}$ $y_0$ e $y_1 \in \mathbb{R}$ sono dei valori assegnati.

[grafico per capire il significato della derivata prima e del coefficiente angolare... c'è una retta con $m = y_1$ passante per $(t_0, y_0)$]

Visto che nel punto $y(t_0)=y_0$ passano $\infty$ soluzioni, noi cerchiamo la soluzione che, in quel punto abbia coefficiente angolare $m=y_1$




Equazioni Differenziali

Data $y(t)$ della variabile $t$, si dice equazione differenziale un'equazione del tipo
$F(t, y(t), y'(t), ..., y^n(t))=0$ in cui compaiono la funzione incognita $y(t)$ ed alcune delle sue derivate.
Si dice ordine di un'equazione differenziale l'ordine massimo di derivazione con cui compare la funzione incognita.

L'equazione si dice di tipo normale:
$y^{(n)}=f(t, y(t), ..., y^{(n-1)}(t))$
se la derivata di ordine massimo si può esplicitare (in funzione delle altre variabili).
Una funzione $\rho(t)$ (continua) derivabile sino all'ordine $"n"$ si dice soluzione o integrale della equazione differenziale di $F(t, \rho(t), \rho'(t), ..., \rho^n(t))=0$

Es: Dire se $y(t)=sin(2t)$ è un integrale/una soluzione dell'equazione differenziale:
$y''(t)+4y(t)=0$
$y''+4y=0$ (brevemente)

$y(t)=sin(2t)$
$y'(t)=2cos(2t)$
$y''(t)=-4sin(2t)$

sostituendo in $y''+4y=0$
$-4sin(2t)+4sin(2t)=0$ Sì!

Es: $g(t)$ continua definita in $[a,b]$
$y'=g(t)$

Cerchiamo una funzione $y(t)$ di cui è assegnata la derivata. Integrando:
$y(t)=\int g(t)dt$
$y'=\frac{1}{1+t^2}$ $y(t)=\int \frac{1}{1+t^2}dt=arctg(t)+c$
la famiglia di funzioni: $y(t)=arctg(t)+c$
prende il nome di integrale generale dell'equazione differenziale.

$y'=cost$
$y(t)=sint+c$ integrale generale

[grafo]