Alle nostre famiglie
Cesare Parenti · Alberto Parmeggiani
Algebra lineare ed equazioni differenziali ordinarie
Cesare Parenti Dipartimento di Scienze dell’Informazione Università di Bologna
ISBN 978-88-470-1787-0 DOI 10.1007/978-88-470-1788-7
Alberto Parmeggiani Dipartimento di Matematica Università di Bologna
e-ISBN 978-88-470-1788-7
Springer Milan Dordrecht Heidelberg London New York © Springer-Verlag Italia 2010 Quest’opera è protetta dalla legge sul diritto d’autore e la sua riproduzione è ammessa solo ed esclusivamente nei limiti stabiliti dalla stessa. Le fotocopie per uso personale possono essere effettuate nei limiti del 15% di ciascun volume dietro pagamento alla SIAE del compenso previsto dall’art. 68. Le riproduzioni per uso non personale e/o oltre il limite del 15% potranno avvenire solo a seguito di specifica autorizzazione rilasciata da AIDRO, Corso di Porta Romana n. 108, Milano 20122, e-mail
[email protected] e sito web www.aidro.org. Tutti i diritti, in particolare quelli relativi alla traduzione, alla ristampa, all’utilizzo di illustrazioni e tabelle, alla citazione orale, alla trasmissione radiofonica o televisiva, alla registrazione su microfilm o in database, o alla riproduzione in qualsiasi altra forma (stampata o elettronica) rimangono riservati anche nel caso di utilizzo parziale. La violazione delle norme comporta le sanzioni previste dalla legge. L’utilizzo in questa publicazione di denominazioni generiche, nomi commerciali, marchi registrati, ecc. anche se non specificatamente identificati, non implica che tali denominazioni o marchi non siano protetti dalle relative leggi e regolamenti. 9 8 7 6 5 4 3 2 1 Layout copertina: Beatrice B., Milano Impaginazione: PTP-Berlin, Protago TEX-Production GmbH, Germany (www.ptp-berlin.eu) Stampa: Signum, Bollate (MI) Stampato in Italia Springer-Verlag Italia S.r.l., Via Decembrio 28, I-20137 Milano Springer-Verlag fa parte di Springer Science+Business Media (www.springer.com)
Prefazione
Questo libro è frutto in parte della nostra esperienza didattica e della nostra esperienza di ricerca. Speriamo colga nel segno che ci siamo preposti: quello di colmare un “gap” tra la preparazione di base e quella più avanzata, e di indicare al lettore un possibile percorso di esplorazione di discipline così importanti quali sono l’algebra lineare e le equazioni differenziali ordinarie. Desideriamo ringraziare gli amici e colleghi Cosimo Senni ed Andrea Tommasoli per l’aiuto fondamentale nel preparare le figure presenti nel testo ed i preziosi consigli sull’esposizione. Ringraziamo infine, anticipatamente, ogni lettore che vorrà segnalarci errori ed imprecisioni, che un testo come questo inevitabilmente contiene.
Bologna, maggio 2010
Cesare Parenti Alberto Parmeggiani
Indice
1 Introduzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1
Parte I Algebra Lineare 2 Diagonalizzabilità e forme normali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.1 Autovalori, autovettori, polinomio caratteristico, molteplicità algebrica e geometrica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.2 Complessificazione e realificazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.3 Prodotto interno e basi ortonormali. Mappa trasposta, mappa aggiunta e loro proprietà . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.4 Forme quadratiche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.5 Trasformazioni normali, ortogonali, unitarie e loro proprietà. Decomposizione polare e Teorema di Lyapunov . . . . . . . . . . . . . . . . . 2.6 Spazio duale a mappa duale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.7 Trasformazioni e matrici nilpotenti. Forma canonica di Jordan: I parte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.8 Teorema di Hamilton-Cayley. Forma canonica di Jordan: II parte . . .
5 5 15 21 29 36 50 53 58
3 Alcune applicazioni all’analisi matriciale . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.1 Funzioni di matrici e di trasformazioni lineari . . . . . . . . . . . . . . . . . . . 3.2 Equazioni matriciali. Crescita del risolvente . . . . . . . . . . . . . . . . . . . . . 3.3 Introduzione di parametri e fibrati vettoriali . . . . . . . . . . . . . . . . . . . . .
65 65 77 85
4 Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
95
Parte II Equazioni Differenziali 5 Equazioni differenziali ordinarie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103 5.1 Preliminari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103 5.2 Dipendenza dai dati iniziali e sue conseguenze . . . . . . . . . . . . . . . . . . 112
VIII
Indice
5.3 5.4 5.5 5.6 5.7 5.8
Sistemi lineari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Soluzioni periodiche di sistemi lineari. Teorema di Floquet . . . . . . . . Il metodo delle caratteristiche. Equazione di Hamilton-Jacobi . . . . . . Stabilità dei punti di equilibrio. Funzione di Lyapunov . . . . . . . . . . . . Stabilità delle orbite periodiche. Mappa e Teorema di Poincaré . . . . . Applicazioni del Teorema di Poincaré. Esistenza di orbite periodiche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
129 138 143 159 171 186
6 Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 203 Indice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 207
1 Introduzione
Il testo che qui proponiamo, frutto in parte di esperienze didattiche, è motivato da una convinzione e da una constatazione. Innanzi tutto la convinzione, maturata attraverso la nostra attività di ricerca nell’ambito dell’analisi geometrica delle equazioni alle derivate parziali, che nulla o quasi nulla si possa fare in analisi matematica (e non solo) senza una buona conoscenza dell’algebra lineare e delle equazioni differenziali ordinarie. La constatazione è, a nostro avviso, l’esistenza, oggi certa, di uno iato tra la preparazione di base sugli argomenti in questione che uno studente di matematica o fisica (per esempio) acquisisce nel triennio formativo, e quanto si suppone egli sappia quando affronterà corsi della laurea magistrale o successivamente del dottorato. Raramente ciò che non è stato fatto “prima” viene esplicitamente ed esaurientemente trattato “poi”: sovente allo studente volonteroso viene lasciato di supplire con il lavoro personale alle lacune esistenti. Ovviamente sono disponibili ottimi testi specialistici sugli argomenti qui trattati. Ci è sembrato tuttavia utile scrivere un testo di dimensioni contenute che, pur salvaguardando il necessario rigore espositivo, si collochi tra il livello elementare ed il livello più propriamente specialistico. La scelta degli argomenti riflette inevitabilmente i nostri gusti e le nostre convinzioni. Ad esempio, è facile constatare che la parte di algebra lineare è stata scritta avendo in prospettiva problemi e metodi dell’analisi funzionale in infinite dimensioni. In questo senso il lettore trova argomenti quali funzioni di matrice, dipendenza da parametri, equazioni matriciali, crescita del risolvente, ecc. Quanto alla parte di equazioni differenziali, abbiamo scelto di non trattare argomenti più sofisticati quali i metodi asintotici, privilegiando lo studio della stabilità dei punti di equilibrio e delle orbite periodiche di un sistema dinamico. Mantenendo la trattazione ad un livello elementare, nella parte dedicata alle equazioni ordinarie abbiamo dato una prova della dipendenza liscia della soluzione dalle condizioni iniziali, una prova del Teorema di Poincaré sulla stabilità delle orbite periodiche, ed è stato anche trattato il metodo delle caratteristiche per equazioni alle derivate parziali del primo ordine (per esempio l’equazione di Hamilton-Jacobi). Parenti C., Parmeggiani A.: Algebra lineare ed equazioni differenziali ordinarie. c Springer-Verlag Italia 2010, Milano
2
1 Introduzione
Oltre che per uno studio personale, pensiamo quindi che le due parti del testo possano essere usate anche indipendentemente per corsi della laurea magistrale o del dottorato di ricerca. Un testo di questo genere perderebbe la sua efficacia se non contenesse almeno un po’ di esercizi, al fine di permettere al lettore di verificare la sua comprensione degli argomenti. Pur non essendo questo un “testo di esercizi”, ciascuna delle due parti si conclude con un breve elenco di problemi proposti, alcuni molto semplici ed altri più articolati (a volte si tratta di complementi) che richiedono un certo lavoro personale. Di più, nel testo stesso il lettore viene frequentemente invitato a completare i dettagli e ad esaminare possibili generalizzazioni. Per concludere, è opportuno spiegare che cosa supponiamo il lettore conosca. Ci siamo sforzati di limitare i presupposti a nulla più di quanto viene usualmente svolto nel triennio di base. Più specificatamente: • le nozioni di spazio vettoriale, dipendenza lineare, basi e dimensioni, sottospazio vettoriale ed esistenza di un supplementare, rappresentazione delle mappe lineari tramite matrici, le proprietà del nucleo (Ker) ed immagine (Im), determinante e sue proprietà elementari, il Teorema di Cramer ed il Teorema di Rouché-Capelli; • il calcolo differenziale in una o più variabili, ed in particolare il Teorema di Dini; • i primi rudimenti della teoria delle funzioni olomorfe di una variabile complessa, in particolare il Teorema dei Residui ed il Teorema di Rouché.
Avvertenza sui requisiti • Gli spazi considerati sono sempre sul campo K, K = R oppure K = C, e di dimensione finita, salvo avviso contrario. • M(p, q; K) sono le matrici p × q su K, M(n; K) sono le matrici n × n su K, In è la matrice identità n × n, GL(n; K) sono le matrici n × n invertibili su K.
Parte I
Algebra Lineare
2 Diagonalizzabilità e forme normali
2.1 Autovalori, autovettori, polinomio caratteristico, molteplicità algebrica e geometrica Definizione 2.1.1. Dati uno spazio vettoriale V su K (K = R oppure C) ed una applicazione lineare f : V −→ V , si dice che λ ∈ K è un autovalore di f se esiste v ∈ V, v = 0, tale che f (v) = λ v. (2.1) Ogni vettore v = 0 soddisfacente (2.1) si chiama autovettore di f relativo a λ . Se per ogni λ ∈ K si pone Eλ := Ker(λ 1V − f ),
(2.2)
dire che λ è un autovalore di f equivale dunque a dire che Eλ è un sottospazio non banale di V , i cui elementi non nulli sono tutti e soli gli autovettori di f relativi a λ . Il sottospazio Eλ si chiamerà allora l’autospazio di f relativo all’autovalore λ . Definizione 2.1.2. Data f : V −→ V lineare, chiameremo spettro di f l’insieme Spec( f ) := {λ ∈ K; λ è autovalore di f }.
(2.3)
Inoltre, dato λ ∈ Spec( f ), chiameremo molteplicità geometrica dell’autovalore λ il numero (2.4) mg (λ ) := dimK Eλ . Si noti che si ha sempre 1 ≤ mg (λ ) ≤ dimK V e che mg (λ ) = dimK V ⇐⇒ Eλ = V, i.e. f = λ 1V .
Parenti C., Parmeggiani A.: Algebra lineare ed equazioni differenziali ordinarie. c Springer-Verlag Italia 2010, Milano
6
2 Diagonalizzabilità e forme normali
Un risultato utile è il seguente. Lemma 2.1.3. Se λ , μ ∈ Spec( f ) con λ = μ , allora Eλ ∩ Eμ = {0}. Più in generale, se λ1 , λ2 , . . ., λk (k ≥ 2) sono k autovalori tra loro distinti di f e se 0 = v j ∈ Eλ j , j = 1, . . ., k, allora v1 , v2 , . . ., vk sono linearmente indipendenti. Dimostrazione. La prima affermazione è immediata, giacché se v ∈ Eλ ∩ Eμ allora f (v) = λ v = μ v, da cui (μ − λ )v = 0, e quindi v = 0. Per provare la seconda affermazione procediamo per induzione su k. Il caso k = 2 è quanto abbiamo appena visto. Supposto vera l’affermazione per un certo k ≥ 2, proviamola per k + 1. Siano dunque λ1 , λ2, . . ., λk , λk+1 k + 1 autovalori tra loro distinti di f , e siano 0 = v j ∈ Eλ j , j = 1, . . ., k + 1, relativi autovettori. Se a j ∈ K, mostriamo che a j = 0 per ogni j. Se λ1 = 0, allora
∑ a j v j = 0,
j=0
k+1
k+1
j=1
j=2
f ( ∑ a jv j ) =
k+1
∑ λ j a j v j = 0,
da cui per induzione λ j a j = 0 per j = 2, . . ., k + 1, e quindi, essendo i λ j = 0 per 2 ≤ j ≤ k + 1, a2 = a3 = . . . = ak+1 = 0, e quindi anche a1 = 0. Se invece λ1 = 0, allora anche k+1
aj
∑ λ1 v j = 0,
j=1
e quindi
k+1 λ aj j v j) = ∑ a j v j. λ λ 1 j=1 1 j=1
k+1
0 = f (∑ Ne segue, per differenza, che k+1
∑ aj j=2
λ
j
λ1
− 1 v j = 0,
λj λj − 1) = 0, 2 ≤ j ≤ k + 1, e poiché − 1 = 0 per 2 ≤ λ1 λ1 j ≤ k + 1, ne segue a2 = a3 = . . . = ak+1 = 0 e quindi, di nuovo, anche a1 = 0.
e quindi per induzione a j (
Una conseguenza importante del lemma precedente è che se dimK V = n e f : V −→ V è lineare allora Spec( f ) è finito e ha al più n elementi. Definizione 2.1.4. Sia A ∈ M(n; K). Chiameremo polinomio caratteristico di A il polinomio complesso di grado n C z −→ pA (z) := det(A − zIn ) ∈ C.
(2.5)
2.1 Autovalori, autovettori, polinomio caratteristico
7
Lemma 2.1.5. Se A, B ∈ M(n; K) sono due matrici simili, cioè esiste T ∈ GL(n; K) tale che B = T −1 AT, allora pA(z) = pB(z), per ogni z ∈ C. Dimostrazione. Si ha
B − zIn = T −1 (A − zIn )T,
sicché pB (z) = det T −1 (A − zIn )T = det(T −1 )pA (z) det(T ) = pA (z).
Una conseguenza fondamentale del lemma precedente è il fatto seguente. Data f : V −→ V lineare, siano A e B le matrici di f nelle basi v = (v1 , . . ., vn ) e, rispettivamente, w = (w1 , . . ., wn) di V . Allora pA = pB . Ciò segue dal fatto, noto, che A e B sono simili. Per comodità ricordiamone una prova. Poiché v e w sono basi di V , esiste ed è unica una matrice invertibile T = [th j ]1≤h, j≤n tale che wj =
n
∑ th j vh ,
j = 1, . . ., n.
(2.6)
h=1
Ne segue che, scrivendo B = [bk j ]1≤k, j≤n e A = [ak j]1≤k, j≤n, f (w j ) =
n
n
k=1
k=1
n
∑ bk jwk = ∑ bk j ∑ thk vh
=
h=1
n
n
∑ ∑ thk bk j
vh , 1 ≤ j ≤ n.
h=1 k=1
D’altra parte, ancora da w j = ∑n=1 t j v segue che f (w j ) =
n
n
=1
=1
n
∑ t j f (v ) = ∑ t j ∑ ah vh h=1
=
n
n
∑ ∑ aht j
vh , 1 ≤ j ≤ n.
h=1 =1
Per confronto se ne deduce che n
∑ thk bk j =
k=1
n
∑ aht j,
=1
∀h, j = 1, . . ., n,
cioè che T B = AT e quindi B = T −1 AT , che è quanto si voleva dimostrare.
L’osservazione precedente giustifica la seguente definizione. Definizione 2.1.6. Data f : V −→ V lineare, chiamiamo polinomio caratteristico di f il polinomio complesso di grado n p f (z) := pA (z), z ∈ C, dove A ∈ M(n; K) è la matrice di f in una qualunque base di V .
(2.7)
8
2 Diagonalizzabilità e forme normali
Abbiamo ora il seguente risultato cruciale. Teorema 2.1.7. Data f : V −→ V lineare, si ha • λ ∈ Spec( f ) ⇐⇒ λ ∈ K e p f (λ ) = 0. • Se λ ∈ Spec( f ) e ma (λ ) è la molteplicità algebrica dell’autovalore λ , cioè la molteplicità di λ come radice del polinomio p f , allora mg (λ ) ≤ ma (λ ),
(2.8)
e in (2.8) vale l’uguaglianza se e solo se Ker(λ 1V − f ) = Ker (λ 1V − f )2 .
(2.9)
Dimostrazione. Se A ∈ M(n; K) è la matrice di f nella base v = (v1 , . . ., vn ) di V , allora il vettore v = ∑nj=1 ξ j v j , ξ1 , . . ., ξn ∈ K, soddisfa l’equazione f (v) = λ v se e solo se si ha ⎡ ⎤ ξ1 ⎢ . ⎥ n ⎥ (A − λ In )ξ = 0, ξ = ⎢ (2.10) ⎣ .. ⎦ ∈ K . ξn Dal Teorema di Rouché-Capelli si sa che il sistema lineare (2.10) ha una soluzione non banale ξ = 0 (e quindi v = 0) se e solo se la matrice A − λ In non è invertibile, i.e. pA (λ ) = 0, il che prova il primo asserto. Si noti che, allora, mg (λ ) = n −rank(A− λ In ). Per provare il secondo punto, procediamo come segue. Se Eλ = V non c’è nulla da dimostrare perché allora f = λ 1V . Supponiamo quindi che Eλ = V. Fissiamo un supplementare W di Eλ in V , cioè W è un sottospazio di V tale che V = Eλ ⊕W con dimK W = n − dimK Eλ = n − mg (λ ), e fissiamo una base (e1 , . . ., emg (λ ) ) di Eλ ed una base (ε1 , . . ., εn−mg (λ ) ) di W . La matrice A di f nella base (e1 , . . ., emg (λ ) , ε1 , . . ., εn−mg (λ ) ) di V ha banalmente la forma a blocchi seguente: A=
λ Img (λ ) C 0
D
,
(2.11)
con C ∈ M(mg (λ ), n − mg (λ ); K), D ∈ M(n − mg (λ ); K), e con 0 la matrice nulla (n − mg (λ )) × mg (λ ). Ne segue che p f (z) = pA (z) = det(A − zIn ) = (λ − z)mg (λ ) det(D − zIn−mg (λ ) ) =
(2.12)
= (λ − z)mg (λ ) pD (z), il che prova (2.8). Da (2.12) segue che ma (λ ) = mg (λ ) se e solo se pD (λ ) = 0. Proviamo ora che ciò equivale a dire che vale la (2.9). A tal fine indichiamo con f˜ : W −→ W la mappa lineare definita da f˜ := πW ◦ ( f W ),
2.1 Autovalori, autovettori, polinomio caratteristico
9
dove πW è la proiezione di V su W parallelamente ad Eλ . Notiamo che D è la matrice di f˜ nella base (ε1 , . . ., εn−mg (λ ) ). Ci basterà dunque provare che λ ∈ Spec( f˜) ⇐⇒ Ker(λ 1V − f ) Ker (λ 1V − f )2 . Supponiamo λ ∈ Spec( f˜) e sia w ∈ W un autovettore di f˜ relativo a λ . Ora f (w) = v + f˜(w) = v + λ w per un certo v ∈ Eλ , con v = 0. Poiché (λ 1V − f )w = −v, ne segue che w ∈ Ker (λ 1V − f )2 \ Eλ . Viceversa, sia u ∈ Ker (λ 1V − f )2 \ Eλ . Scriviamo u = v+w, con v ∈ Eλ , w ∈ W e w = 0. Si ha che λ u − f (u) = λ w − f (w).
Scrivendo
f (w) = v + f˜(w), v ∈ Eλ ,
se ne deduce che
λ u − f (u) = λ w − f˜(w) − v = −v + (λ w − f˜(w)), da cui λ w − f˜(w) ∈ Eλ e anche λ w − f˜(w) ∈ W, e quindi
λ w − f˜(w) = 0, i.e. λ ∈ Spec( f˜).
Osservazione 2.1.8. Poiché V ha dimensione finita, se g : V −→ V è una qualunque mappa lineare, allora giacché per ogni k = 1, 2, . . . si ha Ker(gk ) ⊂ Ker(gk+1) ⊂ V , ne segue che esiste un ben determinato k0 ≤ n tale che Ker(gk0 −1 ) Ker(gk0 ) = Ker(gk0 + ), ∀ ≥ 1. Poiché, d’altra parte, per ogni k Im(gk ) V /Ker(gk ), ne segue che k0 è anche il minimo numero naturale per cui Im(gk0 + ) = Im(gk0 ) Im(gk0 −1 ), ∀ ≥ 1. Quindi precedente poniamo g = λ 1V − f , da Ker(λ 1V − f ) = se nel teorema Ker (λ 1V − f )2 segue che Ker(λ 1V − f ) = Ker (λ 1V − f ) j per ogni j ≥ 1. È importante notare che la condizione (2.9) può non essere soddisfatta, e cioè che può accadere che si abbia mg (λ ) < ma (λ ). Ad esempio, se f : K2 −→ K2 è definita come f (x1 , x2 ) = (x1 + x2 , x2 ), allora Spec( f ) = {1} e mg (1) = 1, ma ma (1) = 2.
10
2 Diagonalizzabilità e forme normali
Diamo ora la definizione, fondamentale, di diagonalizzabilità. Definizione 2.1.9. Data f : V −→ V lineare, diremo che f è diagonalizzabile se c’è una base di V formata da autovettori di f . Se A ∈ M(n; K), diremo che A è diagonalizzabile su K se la mappa lineare da Kn in Kn associata ad A, ⎡ ⎤ ξ1 ⎢ n . ⎥ ⎥ Kn ξ = ⎢ ⎣ .. ⎦ −→ Aξ ∈ K , ξn
è diagonalizzabile. La diagonalizzabilità è caratterizzata dal teorema seguente. Teorema 2.1.10. Data f : V −→ V , sono equivalenti le affermazioni: (i) f è diagonalizzabile; (ii) tutte le radici del polinomio caratteristico p f di f appartengono a K e p f (λ ) = 0 =⇒ mg (λ ) = ma (λ ).
Dimostrazione. Supponiamo che f sia diagonalizzabile, e sia v = (v1 , . . ., vn ) una base di V formata da autovettori di f . Posto f (v j ) = λ j v j , dove λ j ∈ K, 1 ≤ j ≤ n, si ha che la matrice di f nella base v è la matrice diagonale ⎡ ⎤ λ1 0 . . . 0 ⎢ 0 λ2 . . . 0 ⎥ ⎢ ⎥ A = ⎢ . . . . ⎥, ⎣ .. .. . . .. ⎦ 0 0 . . . λn da cui
n
p f (z) = ∏ (λ j − z), j=1
e dunque tutte le radici di p f stanno in K. D’altra parte si può riscrivere p f come k
p f (z) = ∏ (μ j − z)ma ( μ j ) , j=1
dove μ j , 1 ≤ j ≤ k (1 ≤ k ≤ n), sono le radici distinte di p f , con molteplicità algebrica ma (μ j ). Dopo una eventuale permutazione dei v j , si riconosce che A è simile alla matrice diagonale ⎡ ⎤ μ1 Ima (μ1) 0 ... 0 ⎢ ⎥ 0 μ2 Ima (μ2 ) . . . 0 ⎢ ⎥ ⎥, B=⎢ (2.13) . . . ⎢ ⎥ .. . . . ⎣ ⎦ . . . . 0 0 . . . μk Ima ( μk )
2.1 Autovalori, autovettori, polinomio caratteristico
11
e quindi, banalmente, mg (μ j ) = ma (μ j ), 1 ≤ j ≤ k. Viceversa, supponiamo che valga (ii) e siano μ j ,1 ≤ j ≤ k (1 ≤ k ≤ n) le radici distinte di p f . Siccome μ j ∈ K, dal Teorema 2.1.7 segue che μ j è un autovalore di f , e per l’autospazio corrispondente, Eμ j ⊂ V , si ha dimK Eμ j = mg (μ j ) = ma (μ j ), 1 ≤ j ≤ k. Poiché k
k
j=1
j=1
∑ dimK Eμ j = ∑ ma (μ j ) = n, dal Lemma 2.1.3 segue che V = E μ1 ⊕ E μ2 ⊕ . . . ⊕ E μ k , il che prova (i) prendendo una base di V costruita scegliendo una base di Eμ1 , di Eμ2 , . . ., di Eμk .
Una condizione sufficiente (ma non necessaria!) per la diagonalizzabilità è espressa dal corollario seguente. Corollario 2.1.11. Se le radici di p f sono tutte in K e sono tutte semplici (i.e. p f (λ ) = 0 =⇒ ma (λ ) = 1) allora f è diagonalizzabile. Dal teorema precedente segue che se f : V −→ V è diagonalizzabile, allora, definendo f k per k = 0, 1, 2, . . ., come f 0 = 1V ,
f k = f ◦ . . .◦ f , se k ≥ 1, k volte
anche f k è diagonalizzabile poiché ogni base di autovettori per f è anche una base di autovettori per f k (se f (v) = λ v allora f k (v) = λ k v). Lo stesso dunque accade per α f k , con α ∈ K. Ne segue che se P(z) = ∑dk=0 αk zk ∈ K[z] è un qualunque polinomio a coefficienti in K, allora ogni base di autovettori per f è una base di autovettori per la mappa lineare P( f ) :=
d
∑ αk f k : V −→ V.
k=0
Siccome λ ∈ Spec( f ) e f (v) = λ v implica P( f )v = P(λ )v, se ne conclude anche che Spec(P( f )) = {P(λ ); λ ∈ Spec( f )}. Ci si può porre ora la domanda seguente. Date f , g : V −→ V due mappe lineari entrambe diagonalizzabili, sotto quali condizioni è possibile trovare una base di V costituita da vettori che siano simultaneamente autovettori per f e g? Quando ciò accade diremo che f e g sono simultaneamente diagonalizzabili.
12
2 Diagonalizzabilità e forme normali
Il teorema seguente dà la risposta a questa domanda. Teorema 2.1.12. Date f , g : V −→ V lineari e diagonalizzabili, f e g sono simultaneamente diagonalizzabili se e solo se f e g commutano, i.e. [ f , g] := f ◦ g − g ◦ f = 0.
(2.14)
Dimostrazione. La necessità è ovvia, giacché se (v1 , . . ., vn ) è una base di V fatta di autovettori per f e g simultaneamente, e f (v j ) = λ j v j , g(v j ) = μ j v j , 1 ≤ j ≤ n, allora per 1 ≤ j ≤ n [ f , g]v j = f (g(v j )) − g( f (v j )) = f (μ j v j ) − g(λ j v j ) = (λ j μ j − μ j λ j )v j = 0, cioè [ f , g] è la mappa nulla. Dimostriamo ora la sufficienza. Siano λ1 , . . ., λk ∈ K (1 ≤ k ≤ n) gli autovalori distinti di f . Per ipotesi V=
k
Eλ j ( f ).
j=1
Poiché g commuta con f , è immediato verificare che per ogni j si ha g(Eλ j ( f )) ⊂ Eλ j ( f ), sicché sono ben definite le mappe lineari g j := gE ( f ) : Eλ j ( f ) −→ Eλ j ( f ), 1 ≤ j ≤ k. λj
Se proviamo che ogni g j è diagonalizzabile, allora, essendo f E ( f )= λ j 1Eλ ( f ), λj
j
ne segue che prendendo per ogni j = 1, . . ., k una base di autovettori per g j si ottiene una base di V fatta da autovettori simultaneamente di f e di g. Per provare che ciascuna g j è diagonalizzabile, fissiamo una base di ciascun autospazio di f . Si ottiene così una base di V relativamente alla quale la matrice di g ha la forma a blocchi ⎤ ⎡ G1 0 . . . 0 ⎢ 0 G2 . . . 0 ⎥ ⎥ ⎢ ⎥ G=⎢ ⎢ .. .. . . .. ⎥ , ⎣ . . . . ⎦ 0 0 . . . Gk dove G j ∈ M(ma (λ j ); K) è la matrice di g j , j = 1, . . ., k. Ne segue che k
k
j=1
j=1
pg (z) = pG (z) = ∏ pG j (z) = ∏ pg j (z),
2.1 Autovalori, autovettori, polinomio caratteristico
13
e quindi le radici di pg j (z) stanno per ipotesi in K. Resta da provare che se μ ∈ Spec(g j ) allora la molteplicità geometrica di μ come autovalore di g j è uguale alla molteplicità algebrica di μ come radice di pg j . Se ciò non fosse, dal Teorema 2.1.10 e dal Teorema 2.1.7 ne verrebbe che Ker(μ 1Eλ ( f ) − g j ) Ker (μ 1Eλ ( f ) − g j )2 , j
e quindi che
j
Ker(μ 1V − g) Ker (μ 1V − g)2 ,
contro l’ipotesi di diagonalizzabilità di g. Ciò conclude la prova.
Una conseguenza significativa del teorema precedente è che se f e g sono diagonalizzabili e commutano allora, fissato un qualunque polinomio P(x, y) =
d
∑
αhk xh yk ∈ K[x, y],
h,k=0
la trasformazione lineare P( f , g) :=
d
∑
αhk f h ◦ gk : V −→ V
h,k=0
è diagonalizzabile e, di più, ogni base di V che diagonalizza simultaneamente f e g diagonalizza anche P( f , g). La sola esistenza di una tale base garantisce che Spec P( f , g) = {P(λ , μ ); λ ∈ Spec( f ), μ ∈ Spec(gE ( f ))} = λ
= {P(λ , μ ); μ ∈ Spec(g), λ ∈ Spec( f Eμ (g) )} ⊂
⊂ {P(λ , μ ); λ ∈ Spec( f ), μ ∈ Spec(g)}. In particolare, dunque, se f e g sono diagonalizzabili e commutano, f + g è pure diagonalizzabile. Va però osservato che è possibile che f , g e f + g siano diagonalizzabili anche quando f e g non commutano. Per esempio ciò accade per le matrici A, B ∈ M(2; C), 0 1 a 0 , , A= −1 0 0 b dove a, b ∈ R con a = b e (a − b)2 = 4. Il lettore faccia la verifica per esercizio. Il Teorema 2.1.10 pone almeno due problemi naturali. Primo problema. Supposto che le radici di p f stiano tutte in K, e che per almeno una di esse, λ , si abbia mg (λ ) < ma (λ ), sappiamo che non è possibile trovare una base di autovettori di f , cioè non è possibile trovare una base di V rispetto alla quale la matrice di f sia diagonale! Ci si domanda se sia possibile trovare una base di V rispetto alla quale la matrice di f , pur non diagonale, sia “ragionevolmente semplice”.
14
2 Diagonalizzabilità e forme normali
Secondo problema. Data una matrice A ∈ M(n; R) è possibile che questa non sia diagonalizzabile su R. Tuttavia, poiché ovviamente M(n; R) ⊂ M(n; C), è possibile che A sia diagonalizzabile su C. Un esempio è dato dalla matrice 0 1 . A= −1 0 Infatti in questo caso pA (z) = (z2 + 1), con radici semplici z = ±i ∈ C \ R. i 0 ). (Esercizio. Trovare una matrice T ∈ GL(2; C) tale che T −1 AT = 0 −i Ci si domanda quale sia la ragione “geometrica” responsabile di questo fatto. Definizione 2.1.13. Data f : V −→ V lineare, con dimK V = n, diremo che una base v = (v1 , . . ., vn ) è una base a ventaglio per f se per ciascun j = 1, . . ., n, f Span{v1 , . . ., v j } ⊂ Span{v1 , . . ., v j }. In questo caso diremo anche che f ammette una base a ventaglio.
Dunque una base v = (v1 , . . ., vn ) di V è una base a ventaglio per f se e solo se per ogni j = 1, . . ., n, f (v j ) è una combinazione lineare di v1 , v2, . . ., v j , i.e. j
f (v j ) =
∑ αk jvk ,
1 ≤ j ≤ n.
(2.15)
k=1
Quindi, rispetto ad una base a ventaglio per f , la matrice di f è una matrice triangolare superiore (i.e. gli elementi di matrice sotto la diagonale principale sono tutti nulli). Abbiamo il seguente teorema. Teorema 2.1.14. Data f : V −→ V lineare, con dimK V = n, c’è una base a ventaglio per f se e solo se tutte le radici di p f stanno in K. Dimostrazione. Se f ammette una base a ventaglio v = (v1 , . . ., vn ), vale (2.15) e quindi n
p f (z) = ∏ (αkk − z), k=1
le cui radici α11 , . . ., αnn stanno tutte in K. Proviamo ora il viceversa per induzione sulla dimensione n di V . Quando n = 1 il teorema è ovviamente vero: se v ∈ V è non nullo, allora è una base di V e quindi necessariamente f (v) = λ v per un certo λ ∈ K. Supponiamo dunque vero il teorema in dimensione n e dimostriamolo quando dimK V = n + 1. Sia λ ∈ K una radice di p f e sia v ∈ V, v = 0, un autovettore di f relativamente a λ . Sia W ⊂ V un supplementare del sottospazio unidimensionale generato da v, sicché V = Span{v} ⊕W.
2.2 Complessificazione e realificazione
15
Di nuovo definiamo f˜ : W −→ W l’applicazione lineare f˜ = πW ◦ ( f W ). Cominciamo col provare che tutte le radici di p f˜ stanno in K. Infatti, scelta una base qualunque w = (w1 , . . ., wn) di W , la matrice A di f relativa alla base (v, w1 , . . ., wn ) di V è del tipo a blocchi seguente ⎡ ⎤ λ a12 . . . a1n ⎢ ⎥ ⎢0 ⎥ ⎥, A=⎢ ⎢ .. ⎥ ⎣. ⎦ A 0 dove A ∈ M(n; K) è la matrice di f˜ relativa alla base w. Poiché p f (z) = pA (z) = (λ − z)pA (z) = (λ − z)p f˜(z), dall’ipotesi segue che tutte le radici di p f˜ stanno in K. Per induzione, c’è dunque una base (v1 , . . ., vn ) di W che è una base a ventaglio per f˜, sicché (v, v1 , . . ., vn ) è allora una base a ventaglio per f .
Corollario 2.1.15. Ogni mappa lineare di uno spazio vettoriale complesso in sè ammette una base a ventaglio. Dunque, equivalentemente, ogni matrice quadrata complessa è simile ad una matrice triangolare superiore. Il Teorema 2.1.14 dà dunque una prima risposta al primo problema. Vedremo più avanti come, nelle ipotesi del teorema, sia possibile trovare una base a ventaglio per f relativamente alla quale la matrice A = [αk j ]1≤k, j≤n di f non solo è triangolare superiore, i.e. αk j = 0 se k > j, ma anche i termini sopra la codiagonale sono nulli, i.e. αk j = 0 se k + 1 < j.
2.2 Complessificazione e realificazione Lo stesso procedimento, tramite il quale si costruisce C a partire da R, può essere seguito per costruire, a partire da uno spazio vettoriale reale V con dimR V = n, uno spazio vettoriale complesso CV con dimC CV = n. Lo spazio CV si chiama il complessificato di V . La definizione di CV è la seguente. Si consideri il prodotto cartesiano V 2 = V ×V e si definiscano le operazioni (v, v ) + (w, w) := (v + w, v + w ), in
CV
in V
(2.16)
in V
se λ = a + ib ∈ C,
λ · (v, v ) = (a + ib)(v, v) := (av − bv , av + bv).
(2.17)
in CV
Lasciamo come esercizio al lettore verificare che, con le operazioni (2.16) e (2.17), V 2 diviene uno spazio vettoriale su C, che indicheremo d’ora innanzi con CV (il complessificato di V ). Si osservi che se (v, v ) ∈ CV si ha
16
2 Diagonalizzabilità e forme normali
(v, v ) = (v, 0) + (0, v ) = (v, 0) + i(v , 0), e quindi, se conveniamo di identificare il vettore (v, 0) ∈ CV con il vettore v ∈ V , ogni vettore (v, v ) ∈ CV si può riscrivere come (v, v ) = v + iv . Vediamo ora che in effetti se dimR V = n allora dimC CV = n. Sia (v1 , . . ., vn ) una base di V . Allora (v1 + i0, . . ., vn + i0) è una base di CV . Infatti dato v + iv ∈ CV , scriviamo v = ∑nj=1 α j v j e v = ∑nj=1 β j v j , con gli α j , β j ∈ R univocamente determinati. Allora v + iv =
n
n
j=1
j=1
∑ α j v j + i ∑ β jv j =
n
∑ (α j + iβ j)(v j + i0). j=1
Ciò prova che i vettori v j + i0, j = 1, . . ., n, generano CV . Vedere che essi sono anche C-linearmente indipendenti è lasciato come esercizio. Si noti dunque che C = C R e, più in generale, che Cn = C Rn . Ora se f : V −→ W è una mappa R-lineare tra due spazi vettoriali reali V e W , si definisce la complessificata C f : CV −→ CW di f come C
f (v + iv ) = f (v) + i f (v ).
(2.18)
Il lettore verifichi che C f è effettivamente C-lineare. È importante osservare quanto segue. Se dimR V = n, dimR W = m e A ∈ M(m, n; R) è la matrice di f relativa alle basi (v1 , . . ., vn ) di V e (w1 , . . ., wm) di W , allora la matrice di C f relativa alle basi (v1 + i0, . . ., vn + i0) di CV e (w1 + i0, . . ., wm + i0) di CW è ancora A. Questa osservazione dà una spiegazione a quanto cisi domandava nel secondo 0 1 può essere pensata problema della sezione precedente. Infatti la matrice A = −1 0 sia come la matrice della mappa lineare f : R2 (x1 , x2 ) −→ (x2 , −x1 ) ∈ R2 che come la matrice della sua complessificata C
f : C2 (z1 , z2 ) −→ (z2 , −z1 ) ∈ C2 .
Poiché pC f (z) = z2 + 1, con radici semplici z = ±i, il Corollario 2.1.11 garantisce che C f è diagonalizzabile, e quindi che A è diagonalizzabile su C (ma non su R). Un’ulteriore importante osservazione è la seguente. Analogamente a quanto avviene in C, in cui per ogni numero complesso z = a +ib (a, b ∈ R) è definito il complesso coniugato z¯ = a − ib, così sul complessificato CV di V è definita la mappa
2.2 Complessificazione e realificazione
J : CV −→ CV , J(v + iv ) = v + i(−v ) =: v − iv .
17
(2.19)
Si noti che J 2 = 1CV e che J non è C-lineare. D’ora innanzi se u = v + iv ∈ CV scriveremo u¯ (il coniugato di u) in luogo di J(u), in completa analogia con il caso unidimensionale. Il seguente lemma verrà usato spesso. Lemma 2.2.1. Sia V uno spazio vettoriale reale di dimensione n ≥ 2. Sia W ⊂ CV un sottospazio con dimC W = k < n. Allora W = C S, dove S è un sottospazio di V con dimR S = k, se e solo J(W ) =: W¯ = W. In tal caso si dirà che S è la parte reale di W e si scriverà S = ReW. Dimostrazione. Se W = C S, allora ogni w ∈ W è della forma w = v + iv con v, v ∈ S e dunque anche w¯ = v − iv sta in W . Ciò prova che W¯ = W. Viceversa, supponiamo W¯ = W. Definiamo S := {v ∈ V ; v + i0 ∈ W }. Ovviamente S è un sottospazio di V . Basta dunque provare che C S = W. L’inclusione C S ⊂ W è ovvia. Per provare l’inclusione opposta, sia v + iv ∈ W. Dall’ipotesi segue che v − iv ∈ W , e quindi che anche 1 1 (v + iv ) + (v − iv ) = v + i0 ∈ W, 2 2 sicché v ∈ S. D’altra parte anche 1 1 (v + iv ) − (v − iv ) = v + i0 ∈ W, 2i 2i e dunque anche v ∈ S, provando così l’inclusione opposta. Ciò conclude la dimostrazione.
Un esempio significativo del Lemma 2.2.1 è il seguente. Esempio 2.2.2. Si consideri, per n ≥ 2, Cn = C Rn . Ricordiamo che in Cn è definito un prodotto hermitiano canonico ⎡ ⎤ ⎡ ⎤ ζ1 z1 n ⎢ . ⎥ ⎢ . ⎥ ⎥,ζ = ⎢ . ⎥ z=⎢ := z j ζ¯j . . ∑ ⎣ . ⎦ ⎣ . ⎦ Cn j=1 zn ζn Fissiamo α ∈ Cn , α = 0, e consideriamo l’iperpiano (complesso) W di Cn definito da W = {z ∈ Cn ; z, α Cn = 0}. Il lettore verifichi che dimC W = n − 1.
18
2 Diagonalizzabilità e forme normali
Il lemma precedente dice che W è il complessificato di un iperpiano (reale) S di Rn se e solo se W = W¯ . Siccome, banalmente, ¯ = {z ∈ Cn ; z, α¯ Cn = 0}, W si ha quindi che W = W¯ se e solo se α e α¯ sono C-linearmente dipendenti, i.e. α¯ = μα , per un certo μ = a + ib ∈ C, necessariamente con | μ | = (a2 + b2 )1/2 = 1. Proviamo che ciò è possibile se e solo se α = γβ , con 0 = β ∈ Rn e 0 = γ ∈ C. Se α = γβ , allora γ¯ γ¯ ¯ = γβ = α . α¯ = γβ γ γ Viceversa, supposto α¯ = μα , con μ = a + ib, a2 + b2 = 1, scriviamo α = p + iq, con p, q ∈ Rn . La condizione α¯ = μα si riscrive nella forma ⎧ ⎨ (a − 1)p = bq ⎩
(a + 1)q = −bp.
Se b = 0 allora α = p quando a = 1, e α = iq quando a = −1. Se poi b = 0, allora a = ±1 e, per esempio, a−1 p, q= b da cui a − 1 p, α = 1+i b il che prova l’asserto.
Si noti inoltre che siccome S = ReW = {v ∈ Rn ; v + i0 ∈ W } e siccome v + i0, α Cn = v + i0, γβ Cn = γ¯v + i0, β Cn = γ¯v, β Rn (dove ·, ·Rn è il prodotto interno canonico di Rn ), ReW è l’iperpiano di Rn ortogonale a β . Una conseguenza del Lemma 2.2.1 è la seguente. Dato lo spazio vettoriale V reale (dimR V = n ≥ 2), sia E ⊂ CV un sottospazio ¯ è chiaro che W = W¯ . Ci domandiamo quale tale che E ∩ E¯ = {0}. Posto W := E ⊕ E, sia una base di ReW. Il lemma seguente fornisce la risposta. Lemma 2.2.3. In questo caso, se v j = vj + ivj , 1 ≤ j ≤ k (k = dimC E) è una base di E, allora (2.20) (v1 , v1 , v2 , v2 , . . ., vk , vk ) è una base di ReW .
2.2 Complessificazione e realificazione
19
Dimostrazione. Dal Lemma 2.2.1 sappiamo che dimR ReW = dimC W = 2k (perché E ∩ E¯ = {0}). D’altra parte vj , vj ∈ ReW, 1 ≤ j ≤ k. Basterà dunque provare che i vettori in (2.20) sono R-linearmente indipendenti. Se k
∑ (α j vj + β j vj ) = 0,
α j , β j ∈ R,
j=1
allora k
∑
1
j=1
1 (α j − iβ j )v j + (α j + iβ j )v¯ j = 0, 2 2
da cui α j = β j = 0 per ogni j.
Una conseguenza importante del Lemma 2.2.1 e del Lemma 2.2.3 è il teorema seguente. Teorema 2.2.4. Sia f : V −→ V lineare con V reale di dimensione n (con n ≥ 2). Consideriamo le radici (in C) del polinomio caratteristico p f di f (che è un polinomio a coefficienti reali!), e supponiamo che •
p f abbia h radici reali distinte λ1 , . . ., λh (λ j con molteplicità ma (λ j ), j = 1, . . ., h), e 2k radici complesse (non reali) distinte μ j = α j + iβ j , μ¯ j = α j − iβ j , j = 1, . . ., k (μ j e μ¯ j con molteplicità ma (μ j ) = ma (μ¯ j ), j = 1, . . ., k).
Se C f : CV −→ CV è diagonalizzabile, allora c’è una base di V relativamente alla quale la matrice di f è della forma a blocchi seguente ⎡
λ1 Ima (λ1 ) ⎢ . ⎢ . ⎢ . ⎢ ⎢ 0 ⎢ ⎢ 0 ⎢ ⎢ .. ⎢ ⎣ . 0
... ..
0 . . .
. . . . λh Ima (λh ) ... 0 .. ... . ... 0
0 . . . 0 B1 .. . 0
⎤ ... 0 . ⎥ . ⎥ ... . ⎥ ⎥ ... 0 ⎥ ⎥, ... 0 ⎥ ⎥ ⎥ . . .. ⎥ . . ⎦ . . . Bk
(2.21)
dove B j ∈ M(2ma (μ j ); R), j = 1, . . ., k, ha la struttura a blocchi seguente ⎡
αj βj 0 ⎢ −β j α j ⎢ ⎢ αj βj ⎢ 0 ⎢ − βj αj Bj = ⎢ ⎢ . . ⎢ . . ⎢ . . ⎢ ⎣ 0 0
⎤ ... ... ..
.
...
0
⎥ ⎥ ⎥ ⎥ 0 ⎥ ⎥. ⎥ . ⎥ . ⎥ . ⎥ αj βj ⎦ −β j α j
(2.22)
20
2 Diagonalizzabilità e forme normali
Dimostrazione. Poiché E¯λ j = Eλ j , 1 ≤ j ≤ h, e Eμ¯ j = E¯μ j , 1 ≤ j ≤ k, per il Teorema 2.1.10 la diagonalizzabilità di C f equivale a dire che C
V=
h
Eλ j ⊕
j=1
k
(Eμ j ⊕ E¯μ j ),
j=1
e quindi, dal Lemma 2.2.1 e Lemma 2.2.3, V=
h
Re Eλ j ⊕
j=1
k
Re(Eμ j ⊕ E¯ μ j ).
j=1
Ora, se 0 = v ∈ Re Eλ j , allora f (v) = λ j v e se 0 = v = v + iv ∈ Eμ j , allora C
f (v) = f (v ) + i f (v ) = μ j v = (α j + iβ j )(v + iv ) = = (α j v − β j v ) + i(β j v + α j v ),
sicché
f (v ) = α j v − β j v , f (v ) = β j v + α j v .
Ciò conclude la prova.
Abbiamo dimostrato il teorema precedente quando h, k sono entrambi ≥ 1. Se h = 0 (cioè p f non ha radici reali) nella matrice (2.21) compaiono solo i blocchi B j . Se k = 0 (cioè p f ha solo radici reali) la diagonalizzabilità di C f equivale a quella di f , ed in (2.21) non compaiono i blocchi B j . Abbiamo così visto in cosa consiste la complessificazione di uno spazio vettoriale reale. Vediamo ora come a partire da uno spazio vettoriale complesso V , con dimC V = n, si definisca uno spazio vettoriale reale RV , con dimR RV = 2n, che si chiamerà il realificato di V . La definizione precisa è la seguente: • i vettori di RV sono esattamente i vettori di V . La somma tra vettori in RV è la somma in V , mentre la moltiplicazione per scalare è definita sugli scalari reali come λ · v := (λ + i0) · v. in RV
in CV
Vediamo ora che se v = (v1 , . . ., vn ) è una base di V allora vR = (v1 , . . ., vn , iv1 , . . ., ivn ) è una base di RV . Se v ∈ RV allora, come vettore di V , v si scrive v=
n
∑ (α j + iβ j)v j
j=1
per certi α j , β j ∈ R univocamente determinati. Ma allora in RV si ha v=
n
n
j=1
j=1
∑ α j v j + ∑ β j iv j ,
2.3 Prodotto interno e basi ortonormali
21
il che prova che RV = Span{v1 , . . ., vn , iv1, . . ., ivn}. Riconoscere poi che i vettori di vR sono R-linearmente indipendenti viene lasciato come esercizio.
Data ora una mappa lineare f : V −→ W con V,W complessi e dimC V = n, dimC W = m, resta definita una mappa R f : RV −→ RW , la realificata di f , nel modo seguente: ⎧R ⎨ f (v) = f (v), v ∈ V, ⎩R
f (λ v) = f (λ + i0)v , v ∈ V, λ ∈ R.
Ne segue che se A ∈ M(m, n; C) è la matrice di f relativamente alle basi v = (v1 , . . ., vn ) di V e w = (w1 , . . ., wm) di W , allora, scrivendo A = α + iβ , con α , β ∈ M(m, n; R), la matrice di R f nelle basi vR e wR è la matrice a blocchi A ∈ M(2m, 2n; R) α −β . A = β α Ciò è subito visto usando il fatto che f (v j ) =
m
∑ (αk j + iβk j)wk ,
1 ≤ j ≤ n,
k=1
e quindi che f (iv j ) =
m
∑ (−βk j + iαk j)wk ,
1 ≤ j ≤ n.
k=1
È opportuno notare che se V è uno spazio vettoriale reale con dimR V = n, allora è identificabile con V ×V come spazio vettoriale reale di dimensione 2n. D’altra parte, se V è complesso con dimC V = n, allora CRV è identificabile ancora con V ×V , ma questa volta come spazio vettoriale complesso di dimensione 2n. Dunque le operazioni V −→ CV e V −→ RV non sono l’una inversa dell’altra. RCV
2.3 Prodotto interno e basi ortonormali. Mappa trasposta, mappa aggiunta e loro proprietà In questa sezione ci occuperemo di alcune classi importanti di trasformazioni (e matrici) diagonalizzabili. Per far questo occorre definire cosa si intende per prodotto interno su uno spazio vettoriale V . Definizione 2.3.1. Dato uno spazio vettoriale V su K, chiamiamo prodotto interno su V una mappa V ×V (v, v ) −→ v, v ∈ K, tale che: (i) λ v + μ w, v = λ v, v + μ w, v , per ogni v, w, v ∈ V e λ , μ ∈ K;
22
2 Diagonalizzabilità e forme normali
(ii) se K = R, v, v = v , v, per ogni v, v ∈ V ; se K = C, v, v = v , v, per ogni v, v ∈ V ; (iii) v, v ≥ 0 per ogni v ∈ V , e v, v = 0 se e solo se v = 0. (Si noti che da (ii) segue che v, v ∈ R per tutti i v ∈ V ). Nel caso K = R un prodotto interno su V si dirà anche un prodotto scalare; nel caso K = C un prodotto interno su V si dirà anche un prodotto hermitiano su V . Se ·, · è un prodotto interno su V , diremo che v, w ∈ V sono ortogonali (relativamente al prodotto interno) quando v, w = 0. Dato poi un sottospazio W ⊂ V , chiameremo ortogonale di W (in V , rispetto al prodotto interno) il sottospazio di V definito come W ⊥ := {v ∈ V ; v, w = 0, ∀w ∈ W }. (2.23) Chiameremo infine norma indotta dal prodotto interno la mappa V v −→ ||v|| = v, v ∈ [0, +∞).
(2.24)
Valgono le seguenti proprietà: |v, w| ≤ ||v||||w||, ∀v, w ∈ V (disuguaglianza di Cauchy-Schwarz), ⎧ ||λ v|| = |λ |||v||, ∀v ∈ V, ∀λ ∈ K, ⎪ ⎪ ⎪ ⎪ ⎨ ||v + w|| ≤ ||v|| + ||w||, ∀v, w ∈ V (disuguaglianza triangolare), ⎪ ⎪ ⎪ ⎪ ⎩ ||v|| = 0 ⇐⇒ v = 0.
(2.25)
(2.26)
Proveremo la disuguaglianza di Cauchy-Schwarz, lasciando al lettore la verifica di (2.26). Facciamo la prova di (2.25) nel caso K = C (il caso K = R è un caso particolare di quanto segue). È ovvio che (2.25) vale quando uno dei due vettori è 0. Possiamo dunque supporre v, w = 0. Per ogni λ ∈ C abbiamo 0 ≤ ||λ v + w||2 = λ v + w, λ v + w = |λ |2 ||v||2 + 2 Re λ v, w + ||w||2. (2.27) Poiché v, w = |v, w|eiθ , per un certo θ ∈ [0, 2π ), ne segue che, posto μ = λ eiθ , da (2.27) si ha 0 ≤ | μ |2 ||v||2 + 2|v, w|Re μ + ||w||2, ∀μ ∈ C, e quindi, in particolare, per ogni μ ∈ R. Pertanto |v, w|2 − ||v||2 ||w||2 ≤ 0. Osserviamo che se in (2.25) vale l’uguaglianza, allora l’argomento precedente dà anche che
2.3 Prodotto interno e basi ortonormali
23
2
0 ≤ ||λ v + w||2 = Re(λ eiθ )||v|| + ||w|| + (Im(λ eiθ ))2 ||v||2 = 0 se e solo se
Im(λ eiθ ) = 0, e Re(λ eiθ ) = −||w||/||v||.
Per un siffatto λ si ha quindi
λ v + w = 0,
cioè i due vettori sono uno multiplo dell’altro.
Definizione 2.3.2. Se ·, · è un prodotto interno su V , con dimK V = n, diremo che una base (v1 , . . ., vn ) di V è ortonormale se ⎧ ⎨ 0 se j = k, j, k = 1, . . ., n. (2.28) v j , vk = δ jk = ⎩ 1 se j = k, Il risultato seguente garantisce l’esistenza di basi ortonormali. Teorema 2.3.3. Data una qualunque base v = (v1 , . . ., vn ) di V e dato un prodotto interno su V , si può sempre costruire una base w = (w1 , . . ., wn) ortonormale di V . Di più, per ogni j = 1, . . ., n, si ha j
wj =
∑ αk jvk
(2.29)
k=1
per una ben determinata matrice trangolare superiore invertibile [αk j ]1≤k, j≤n. Dimostrazione. La dimostrazione è costruttiva e basata sul procedimento di ortonormalizzazione di Gram-Schmidt. Osserviamo innanzitutto che data la base (v1 , . . ., vn ) basterà costruire una base (u1 , . . ., un) di vettori due a due ortogonali, e tale che per ogni j = 1, . . ., n, j
uj =
∑ βk jvk ,
(2.30)
k=1
per una ben determinata matrice triangolare superiore invertibile [βk j ]1≤k, j≤n. Avendo gli u j , basterà poi porre wj =
uj , 1 ≤ j ≤ n, ||u j ||
per avere una base ortonormale (w1 , . . ., wn) e
αk j =
βk j , 1 ≤ k, j ≤ n. ||u j ||
24
2 Diagonalizzabilità e forme normali
Poniamo u1 := v1 e, supposto di aver già costruito per h < n i vettori u1 , u2 , . . ., uh con le suddette proprietà, costruiamo uh+1 . Poniamo vh+1 , uk uk . 2 k=1 ||uk || h
uh+1 = vh+1 − ∑ Per costruzione
uh+1 , u j = 0, j = 1, . . ., h. Poiché d’altra parte vh+1 , uk uk ∈ Span{v1 , . . ., vh }, 2 k=1 ||uk || h
−∑
ne segue che uh+1 = 0, ed è esso stesso della forma (2.30). Ciò conclude la dimostrazione.
Una conseguenza importante del teorema precedente è che se (w1 , . . ., wn) è una base ortonormale di V allora ogni vettore v ∈ V si scrive come v=
n
∑ v, w jw j ,
(2.31)
j=1
e quindi ||v||2 =
n
∑ |v, w j|2.
(2.32)
j=1
I vettori v, w j w j sono le proiezioni di v lungo i w j , 1 ≤ j ≤ n, ed i numeri v, w j , 1 ≤ j ≤ n, si chiamano coefficienti di Fourier di v rispetto alla base ortonormale (w1 , . . ., wn). Osservazione 2.3.4. Fissiamo V con dimK V = n. (1) Fissata una base v = (v1 , . . ., vn ) di V , esiste ed è unico un prodotto interno ·, ·v su V rispetto al quale la base v è ortonormale. Dimostrazione. L’unicità di ·, ·v è ovvia. Per provare l’esistenza, si consideri l’isomorfismo lineare f v : V −→ Kn definito ponendo f v (v j ) = e j , 1 ≤ j ≤ n, dove (e1 , . . ., en ) è la base canonica di Kn . Basta allora porre v, wv := f v (v), f v (w)Kn , dove ·, ·Kn è il prodotto interno canonico in Kn .
(2) Se W ⊂ V è un sottospazio di V allora W ⊕W ⊥ = V.
(2.33)
2.3 Prodotto interno e basi ortonormali
25
Dimostrazione. La prova è ovvia se W = V o W = {0}. Supponiamo dunque 1 ≤ dimK W = k < n. È ovvio che W ∩W ⊥ = {0}, e dunque W ⊕W ⊥ è un sottospazio di V . Per i Teorema 2.3.3 possiamo trovare una base ortonormale (v1 , . . ., vn ) di V tale che (v1 , . . ., vk ) sia una base ortonormale di W . Ma allora per ogni j > k, v j ∈ W ⊥ , sicché dimK W ⊥ ≥ n − k, e dunque la tesi.
(3) Se W ⊂ V è un sottospazio di V allora (W ⊥ )⊥ = W.
(2.34)
Se W1 ,W2 ⊂ V sono sottospazi di V , allora (W1 +W2 )⊥ = W1⊥ ∩ W2⊥ , (W1 ∩ W2 )⊥ = W1⊥ +W2⊥ .
(2.35)
Dimostrazione. La (2.34) è una conseguenza immediata della (2.33). Per quanto riguarda le uguaglianze in (2.35), la prima si vede mostrando la doppia inclusione mentre la seconda è conseguenza della prima e della (2.34).
(4) Se W ⊂ V è un sottospazio di V con dimK W = k, la proiezione di V su W parallela a W ⊥ si chiamerà proiezione ortogonale di V su W , ΠW : V −→ W. Si ha allora che
ΠW (v) =
k
∑ v, w jw j ,
(2.36)
j=1
dove (w1 , . . ., wk ) è una qualunque base ortonormale di W .
Abbiamo il seguente risultato. Teorema 2.3.5. Dati due spazi vettoriali su K, V di dimensione n e W di dimensione m, rispettivamente con prodotti interni ·, ·V e ·, ·W , e data un’applicazione lineare f : V −→ W, esiste ed è unica un’applicazione lineare g : W −→ V tale che f (v), wW = v, g(w)V , ∀v ∈ V, ∀w ∈ W.
(2.37)
Quando K = R, g sarà chiamata la trasposta di f ed indicata con t f ; quando K = C, g sarà chiamata l’aggiunta di f ed indicata con f ∗ . Di più, se A = [ak j]1≤k≤m è la matrice di f relativa ad una base ortonormale v = 1≤ j≤n
(v1 , . . ., vn ) di V ed una base ortonormale w = (w1 , . . ., wm) di W , allora: • Nel caso K = R la matrice di t f relativa a w e v è la matrice trasposta di A, che si ottiene scambiando in A le righe con le colonne, cioè t
A = [a˜ jk] 1≤ j≤n , a˜ jk = ak j . 1≤k≤m
• Nel caso K = C la matrice di f ∗ relativa a w e v è la matrice aggiunta di A, che si ottiene scambiando in A le righe con le colonne e prendendo il complesso coniugato, cioè A∗ = tA¯ = [a˜ jk ] 1≤ j≤n , a˜ jk = a¯k j . 1≤k≤m
26
2 Diagonalizzabilità e forme normali
Dimostrazione. L’unicità di g è ovvia perché se ce ne fosse un’altra, g , da (2.37) avremmo v, g(w)V = v, g(w)V , ∀v ∈ V, ∀w ∈ W, e quindi
g(w) = g (w), ∀w ∈ W.
Per fissare le idee proviamo l’esistenza di g nel caso K = C. Fissate due basi v e w come nell’enunciato, e detta A la matrice di f relativa a tali basi, definiamo g : W −→ V come l’applicazione lineare la cui matrice relativa alle basi w e v è la matrice aggiunta A∗ di A, cioè g(wk ) :=
n
n
j=1
j=1
∑ a˜ jkv j = ∑ a¯k jv j ,
k = 1, . . ., m.
Proviamo che g così definita soddisfa la proprietà (2.37). Se v = ∑nj=1 α j v j e w = ∑m k=1 βk wk , allora da una parte f (v), wW =
m
j=1
k=1
∑ α j f (v j ), ∑ βk wk
= =
m
n
∑ ∑ ah j α j
h=1 j=1
n
n
j=1
h=1
m
m
∑ α j ∑ a h j w h , ∑ βk w k
= W
m
wh , ∑ β k wk
m
∑
=
k=1
h,k=1
W
k=1
= W
n
β¯k ∑ ah j α j wh , wk W = j=1
=
m
n
∑ ∑ ak jα j β¯k ,
k=1 j=1
e dall’altra v, g(w)V = =
n
n
m
j=1
k=1
∑ α j v j , ∑ βk g(wk ) n
m
∑ α j v j , ∑ ∑ a¯khβk j=1
h=1 k=1
= V
=
vh V
n
m
j=1
k=1
n
∑ α j v j , ∑ βk ∑ a¯khvh n
∑
αj
j,h=1
h=1
=
V
m
∑ akhβ¯k v j , vhV =
k=1
=
m
n
∑ ∑ ak jα j β¯k .
k=1 j=1
Questo prova la (2.37) e conclude la dimostrazione.
Valgono le proprietà seguenti, la cui prova viene lasciata al lettore. • •
f , e rispettivamente ( f ∗ )∗ = f . f + μ g) = λ t f + μ tg (per ogni λ , μ ∈ R), e risp. (λ f + μ g)∗ = λ¯ f ∗ + μ¯ g∗ (per ogni λ , μ ∈ C).
t (t f ) = t (λ
2.3 Prodotto interno e basi ortonormali
27
• Se f è invertibile allora anche t f , risp. f ∗ , lo è e si ha t ( f −1 ) = (t f )−1 , risp. ( f −1 )∗ = ( f ∗ )−1 . f
g
• Se V −→ W −→ Z sono applicazioni lineari e se su V,W e Z sono fissati dei prodotti interni, allora t
• Si ha e quindi
(g ◦ f ) = t f ◦ tg, risp. (g ◦ f )∗ = f ∗ ◦ g∗ .
pt f (z) = p f (z), e p f ∗ (z) = p f (¯z), ∀z ∈ C, Spec(t f ) = Spec( f ), e Spec( f ∗ ) = Spec( f ).
Definizione 2.3.6. Data f : V −→ V lineare, e fissato su V un prodotto interno ·, ·: • diciamo, nel caso K = R, che f è simmetrica se t f = f ; • diciamo, nel caso K = C, che f è autoaggiunta se f ∗ = f . Dunque dire che f è simmetrica, risp. autoaggiunta, significa che f (v), v = v, f (v ), ∀v, v ∈ V.
(2.38)
Una matrice A ∈ M(n; R) si dirà simmetrica quando tA = A; una matrice A ∈ M(n; C) si dirà autoaggiunta quando A∗ = A. È opportuno osservare che la proiezione ortogonale di V su un suo sottospazio W è simmetrica (nel caso K = R), rispettivamente autoaggiunta (nel caso K = C). Ciò è una conseguenza immediata di (2.36). Vale il seguente teorema fondamentale. Teorema 2.3.7. Dato V spazio vettoriale complesso con un prodotto hermitiano ·, ·, e data f : V −→ V lineare ed autoaggiunta, allora: (i) Spec( f ) ⊂ R; (ii) se λ , μ ∈ Spec( f ) e λ = μ , allora: v, v = 0, ∀v ∈ Eλ , ∀v ∈ Eμ ; (iii) f è diagonalizzabile e quindi, detti λ1 , . . ., λk gli autovalori distinti di f , e detta Π j la proiezione ortogonale di V su Eλ j , 1 ≤ j ≤ k, si ha f=
k
∑ λ jΠ j.
(2.39)
j=1
Dimostrazione. Per provare (i), sia λ ∈ Spec( f ) e sia v = 0 con f (v) = λ v. Poiché f ∗ = f , da (2.38) si ha
λ v, v = f (v), v = v, f (v) = v, λ v = λ¯ v, v,
28
2 Diagonalizzabilità e forme normali
e quindi (λ − λ¯ )||v||2 = 0, da cui λ = λ¯ , i.e. λ ∈ R. Per provare (ii), usando ancora (2.38), si ha
λ v, v = f (v), v = v, f (v ) = v, μ v = μ v, v (λ e μ sono reali per il punto (i)!), da cui (λ − μ )v, v = 0, e quindi v, v = 0. Proviamo infine (iii). Siano λ1 , . . ., λk le radici distinte (reali, come conseguenza di (i)) del polinomio caratteristico p f di f . Si tratta di provare che V = non fosse, il sottospazio W :=
k
Eλ j
⊥
k
Eλ j . Se così
j=1
sarebbe non banale. Come conseguenza
j=1
dell’autoaggiunzione di f , avremmo f (W ) ⊂ W . Infatti se v ∈ W e v ∈ Eλ j per un qualche j, allora f (v), v = v, f (v ) = λ j v, v = 0. Ma allora il polinomio caratteristico di f W dovrebbe avere almeno una radice, cioè f W dovrebbe avere almeno un autovalore che necessariamente, come autovalore di f , dovrebbe essere uno dei λ j , il che porterebbe ad una contraddizione. Dunque V=
k
Eλ j , e la (2.39) ne consegue banalmente.
j=1
Ci domandiamo cosa si può dire nel caso K = R. Per quanto già sappiamo, la cosa non è a priori ovvia. Tuttavia nel caso simmetrico vale il seguente teorema. Teorema 2.3.8. Dato V spazio vettoriale reale con un prodotto scalare ·, ·, e data f : V −→ V lineare e simmetrica, allora f è diagonalizzabile e valgono (i), (ii) e (iii) del Teorema 2.3.7. Dimostrazione. Proviamo che f è diagonalizzabile. Consideriamo il complessificato CV di V e la complessificata C f di f . A partire dal prodotto scalare ·, · su V , definiamo un prodotto hermitiano ·, ·C su CV nel modo seguente: v + iv , w + iwC := v, w + v , w + i v , w − v, w . Il lettore verifichi per esercizio che questo è effettivamente un prodotto hermitiano (detto “il complessificato” di ·, ·). Proviamo ora che C f è autoaggiunta rispetto al prodotto hermitiano ·, ·C. Infatti C f (v + iv ), w + iwC = f (v) + i f (v ), w + iwC = = f (v), w + f (v ), w + i f (v ), w − f (v), w = (per la (2.38)) = v, f (w) + v , f (w) + i v , f (w) − v, f (w) = = v + iv, f (w) + i f (w)C = v + iv , C f (w + iw)C .
2.4 Forme quadratiche
29
Per il Teorema 2.3.7, C f è diagonalizzabile e valgono le proprietà (i)–(iii). Poiché gli autovalori di C f sono reali, dal Teorema 2.2.4 segue la diagonalizzabilità di f , e che anche per f si hanno le proprietà (i)–(iii).
È importante osservare che ogniqualvolta sia stato fissato un prodotto interno su uno spazio vettoriale, ogni altro prodotto interno è esprimibile in termini di quello originario. Si ha infatti il seguente risultato. Teorema 2.3.9. Sia ·, · un prodotto interno su V , e sia β : V × V −→ K un altro prodotto interno. Allora esiste ed è unica f : V −→ V con f = t f , nel caso K = R, risp. f = f ∗ , nel caso K = C (la simmetria, risp. autoaggiunzione, sono relative a ·, ·), e con Spec( f ) ⊂ (0, +∞), tale che
β (u, v) = f (u), v, ∀u, v ∈ V.
(2.40)
Dimostrazione. L’unicità è ovvia. Proviamo l’esistenza di f nel caso K = C. Si fissi una base w = (w1 , . . ., wn ) con w j , wk = δ jk , 1 ≤ j, k ≤ n. Allora β u=
n
n
j=1
k=1
∑ ξ j w j, v = ∑ ηk wk
=
n
∑
β (w j , wk )ξ j η¯ k .
j,k=1
Definiamo dunque f : V −→ V come la mappa lineare la cui matrice A nella base w è A = [a jk]1≤ j,k≤n, con a jk := β (wk , w j ). Ovviamente f = f ∗ , e poiché f (u), u = β (u, u) > 0 se u = 0, ne segue che Spec( f ) ⊂ (0, +∞).
2.4 Forme quadratiche Un oggetto particolarmente importante associato ad una trasformazione simmetrica/autoaggiunta è la relativa forma quadratica. Definizione 2.4.1. Se f : V −→ V è una mappa lineare simmetrica (nel caso K = R) o autoaggiunta (nel caso K = C) rispetto ad un fissato prodotto interno ·, · su V , si chiama forma quadratica associata ad f la mappa V v −→ q(v) := f (v), v ∈ R.
(2.41)
30
2 Diagonalizzabilità e forme normali
Si dice che: • q è definita positiva, risp. semidefinita positiva, se q(v) > 0, ∀v = 0, risp. q(v) ≥ 0, ∀v, e scriveremo f > 0, risp. f ≥ 0. • q è definita negativa, risp. semidefinita negativa, se q(v) < 0, ∀v = 0, risp. q(v) ≤ 0, ∀v, e scriveremo f < 0, risp. f ≤ 0. • q è indefinita se esistono v, v tali che q(v) > 0, q(v ) < 0. Si chiama radicale della forma quadratica q l’insieme Rad(q) := {v ∈ V ; q(v) = 0}. Posto
ν±(q) :=
∑
(2.42)
ma (λ ),
(2.43)
λ ∈Spec( f ) ±λ >0
si chiama segnatura di q la coppia (ν+ (q), ν−(q)) ed indice d’inerzia di q l’intero i(q) := ν+ (q) − ν−(q). Il lettore verifichi per esercizio le proprietà seguenti: (i) Rad(q) = Ker f (dunque Rad(q) è un sottospazio di V ); (ii) se λ1 < λ2 < . . . < λk sono gli autovalori distinti di f e v ∈ V , v = ∑kj=1 v j con v j ∈ Eλ j , allora q(v) =
k
∑ λ j||v j ||2.
(2.44)
j=1
Dunque q è definita positiva, risp. definita negativa, se e solo se λ1 > 0, risp. λk < 0; q è semidefinita positiva, risp. semidefinita negativa, se e solo se λ1 ≥ 0, risp. λk ≤ 0; q è indefinita se e solo se λ1 < 0 e λk > 0. Il seguente importante teorema fornisce un metodo “variazionale” per calcolare gli autovalori di f a partire dalla forma quadratica associata q. Teorema 2.4.2 (Principio di mini-max). Siano λ1 < λ2 < . . . < λk gli autovalori distinti di f . Allora λ1 = min q(v), λk = max q(v), (2.45) ||v||=1
||v||=1
e per 2 ≤ j ≤ k − 1
λj =
max
||v||=1 v∈(Eλ ⊕...⊕Eλ )⊥ j+1 k
q(v) =
min
||v||=1 v∈(Eλ ⊕...⊕Eλ 1
q(v). j−1
)⊥
(2.46)
2.4 Forme quadratiche
31
Dimostrazione. Proviamo solo la (2.46). Se v ha norma 1 ed è ortogonale a Eλ j+1 ⊕ . . .⊕ Eλk , da (2.44) si ha q(v) =
j
j
k
=1
=1
=1
∑ λ ||v||2 ≤ λ j ∑ ||v ||2 = λ j ∑ ||v ||2 = λ j ,
e quindi q(v) ≤ λ j e q(v) = λ j se v ∈ Eλ j . Se poi v ha norma 1 ed è ortogonale a Eλ1 ⊕ . . . ⊕ Eλ j−1 , sempre da (2.44) si ha q(v) =
k
k
k
= j
= j
=1
∑ λ ||v||2 ≥ λ j ∑ ||v ||2 = λ j ∑ ||v||2 = λ j ,
e quindi q(v) ≥ λ j e q(v) = λ j se v ∈ Eλ j .
Il teorema precedente suggerisce un algoritmo per calcolare gli autovalori di f . Si calcola λ1 := min f (v), v. ||v||=1
Il teorema dice che λ1 = min Spec( f ). Si calcola Eλ1 = Ker(λ1 1V − f ). Se Eλ1 = V l’algoritmo si arresta perché f = λ1 1V . Se Eλ1 V allora si calcola λ2 := min f (v), v = min f E ⊥ (v), v. ||v||=1 v∈Eλ⊥ 1
||v||=1 v∈Eλ⊥
λ1
1
Il teorema precedente garantisce che λ2 > λ1 . Basta ora ripetere questo ragionamento partendo da Eλ⊥ ed f E ⊥ . 1
λ1
È chiaro che dopo un numero finito di passi si ottiene Spec( f ). Il lettore formuli un algoritmo analogo partendo dal calcolo di max f (v), v. ||v||=1
L’algoritmo precedente richiede comunque di saper calcolare il minimo (o il massimo) di una forma quadratica e di saper calcolare gli autospazi di f . Vogliamo ora mostrare come dalla sola conoscenza del polinomio caratteristico di f sia possibile dedurre una informazione non banale sulla dislocazione dello spettro di f . Teorema 2.4.3 (di Cartesio). Sia f : V −→ V un’applicazione lineare tale che il polinomio caratteristico p f (z) abbia solo radici reali. Fissata una qualunque base di V , sia A la matrice di f relativa a questa base. Scriviamo p f (z) := det(A − zIn ) = (−1)n P(z), dove
n
P(z) = zn + ∑ α j zn− j . j=1
32
2 Diagonalizzabilità e forme normali
Allora (i) α j ∈ R, per ogni j = 1, . . ., n; (ii) Spec( f ) ⊂ (−∞, 0) ⇐⇒ α j > 0, per ogni j = 1, . . ., n; (iii) Spec( f ) ⊂ (0, +∞) ⇐⇒ (−1) j α j > 0, per ogni j = 1, . . ., n. La dimostrazione è basata sui due lemmi seguenti. Lemma 2.4.4. Se il polinomio caratteristico pg (z), z ∈ C, di una qualunque applicazione lineare g : V −→ V ha tutte le sue radici in R, i.e. z ∈ C, pg (z) = 0 =⇒ z ∈ R, allora tutti i coefficienti del polinomio sono reali. Lemma 2.4.5. Poniamo n
P(z) = zn + ∑ α j zn− j ∈ R[z], n ≥ 2. j=1
Se tutte le radici di P(z) sono reali e contenute in un intervallo [a, b], allora anche dP (z) sono pure reali e contenute in [a, b]. tutte le radici del polinomio P (z) = dz Dimostrazione (del Lemma 2.4.4). È banale, perché se μ1 ,. . ., μk ∈ R sono tutte le radici di pg (z) con molteplicità m1 , . . ., mk , allora k
pg (z) = (−1)n ∏ (z − μ j )m j , j=1
e ciò prova che i coefficienti di pg (z) sono reali.
Dimostrazione (del Lemma 2.4.5). È banale anche in questo caso, tenuto conto dei due fatti seguenti: • Se α , β ∈ R con α < β sono due radici di P(z), allora per il Teorema di Rolle si ha P (t) = 0 per almeno un t ∈ (α , β ). • Se α è una radice di P(z) di molteplicità m ≥ 2, allora α è pure una radice di P (z) di molteplicità m − 1.
Dimostrazione (del Teorema 2.4.3). Il punto (i) è conseguenza del Lemma 2.4.4. Proviamo ora (ii). Se α j > 0 per tutti i j, allora P(z) > 0 per tutti gli z ≥ 0, e quindi P−1 (0) = Spec( f ) ⊂ (−∞, 0). Viceversa, se P−1 (0) ⊂ (−∞, 0), allora P(z) ha segno costante per z ≥ 0, e poiché P(z) → +∞ per z → +∞, ne segue che P(0) = αn > 0. D’altra parte, se n ≥ 2, dal Lemma 2.4.5 segue che anche P (z) ha tutte le radici in (−∞, 0), e poiché ancora P (z) → +∞ per z → +∞, ne segue che P (0) = αn−1 > 0. Ripetendo lo stesso ragionamento a partire da P (z), se ne deduce che α j > 0 per 1 ≤ j ≤ n.
2.4 Forme quadratiche
33
Proviamo ora (iii). Definiamo il polinomio Q(z) come n Q(z) := P(−z) = (−1)n zn + ∑ (−1) j α j zn− j . j=1
Poiché
Q−1 (0) ⊂ (−∞, 0) ⇐⇒ P−1 (0) ⊂ (0, +∞),
dal punto precedente ciò equivale a dire che (−1) j α j > 0 per tutti i j.
Osservazione 2.4.6. Con le notazioni del teorema, se 0 ∈ Spec( f ), i.e. P(0) = 0, e se non è vero né che α j > 0 per ogni j, né che (−1) j α j > 0 per ogni j, ne segue che Spec( f ) ∩ (−∞, 0) = 0/ = Spec( f ) ∩ (0, +∞). Si noti che il teorema precedente, qualora f sia simmetrica, risp. autoagginta, rispetto ad un prodotto interno fissato, dà una informazione sul segno della forma quadratica associata. Un altro risultato che permette di studiare il segno di una forma quadratica è conseguenza del teorema seguente. Teorema 2.4.7 (di Jacobi). Sia V uno spazio vettoriale reale, risp. complesso, con un prodotto interno ·, ·, e sia f : V −→ V una mappa lineare e simmetrica, risp. autoaggiunta. Sia v = (v1 , . . ., vn ) una base ortonormale di V e sia A = [a jk ]1≤ j,k≤n la matrice di f in tale base. Posto A := [a jk]1≤ j,k≤, e Δ := det(A ), 1 ≤ ≤ n, si noti che Δ ∈ R per 1 ≤ ≤ n. Supponiamo si abbia Δ = 0 per = 1, . . ., n. Allora c’è una base w = (w1 , . . ., wn) di V tale che, scrivendo ogni u ∈ V nella forma u =
n
∑ ξ j w j, risulta
j=1
f (u), u = Δ1 |ξ1 |2 +
Δ2 Δ3 Δn |ξ2 |2 + |ξ3 |2 + . . .+ |ξn |2 . Δ1 Δ2 Δn−1
(2.47)
Dimostrazione. Facciamo la dimostrazione nel caso complesso. Costruiamo w defik−1
nendo w1 := v1 , e per 2 ≤ k ≤ n, wk := vk + ∑ βk j v j , con i βk j da scegliere opporj=1
tunamente. Si noti che, quale che sia la scelta dei βk j, w = (w1 , . . ., wn) è una base di V . La scelta dei βk j avviene imponendo che si abbia per k ≥ 2 f (wk ), v = 0, = 1, . . ., k − 1.
(2.48)
Per definizione dei wk ciò equivale a risolvere il sistema di equazioni k−1
∑ βk j f (v j ), v = − f (vk ), v,
j=1
1 ≤ ≤ k − 1.
(2.49)
34
2 Diagonalizzabilità e forme normali
Poiché f (v j ), v = a j , la matrice dei coefficienti del sistema (2.49) è invertibile in quanto il suo determinante è proprio Δk−1 , che è = 0 per ipotesi. Ciò determina univocamente i βk j , 2 ≤ k ≤ n, 1 ≤ j ≤ k − 1. Ora osserviamo che si ha: (i) f (wk ), w j = 0, se 2 ≤ k ≤ n e 1 ≤ j ≤ k − 1;
(ii) Δ = ∏ f (w j ), w j , = 1, . . ., n. j=1
Poiché per 1 ≤ j ≤ k − 1 si ha che w j ∈ Span{v1 , . . ., v j }, da (2.48) segue immediatamente la (i). Proviamo la (ii). Per = 1 la cosa è ovvia, giacché f (w1 ), w1 = f (v1 ), v1 = a11 = Δ1 . Per ≥ 2, da (i) e dal fatto che f è autoaggiunta segue intanto che [ f (w j ), wk ]1≤ j,k≤ = diag( f (w j ), w j )1≤ j≤, e quindi
det([ f (w j ), wk ]1≤ j,k≤) = ∏ f (w j ), w j . j=1
D’altra parte, se poniamo ⎡
1 β21 ⎢0 1 ⎢ ⎢0 0 B := ⎢ ⎢. . ⎢. . ⎣. . 0 0
β31 β32 1 . . . 0
. . . β−11 . . . β−12 . . . β−13 . .. . .. ... 0
⎤ β1 β2 ⎥ ⎥ β3 ⎥ ⎥ , 2 ≤ ≤ n, . ⎥ . ⎥ . ⎦ 1
per costruzione si ha diag( f (w j ), w j )1≤ j≤ = B∗ A B , 2 ≤ ≤ n, ed essendo det B = det B∗ = 1, anche la (ii) segue. Infine, scritto u =
n
∑ ξ j w j , si ha da (i) e (ii) che j=1
f (u), u =
n
∑
ξ j ξ¯k f (w j ), w j =
j,k=1
= f (w1 ), w1|ξ1 |2 + f (w2 ), w2|ξ2 |2 + . . . + f (wn ), wn|ξn |2 = = Δ1 |ξ1 |2 + Ciò conclude la prova.
Δ2 Δn |ξ2 |2 + . . .+ |ξn |2 . Δ1 Δn−1
2.4 Forme quadratiche
35
Corollario 2.4.8. Nelle ipotesi del teorema precedente la forma quadratica q(u) := f (u), u è: (i) definita positiva se e solo se Δ > 0, 1 ≤ ≤ n; (ii) definita negativa se e solo se (−1) Δ > 0, 1 ≤ ≤ n; (iii) indefinita in tutti gli altri casi. Dimostrazione. Dal teorema segue che
Δ |ξ |2 , Δ −1 =2 n
q(u) = f (u), u = Δ1 |ξ1 |2 + ∑
e quindi la prova è ovvia.
Osservazione 2.4.9. Data A = [a jk]1≤ j,k≤n matrice n × n con A = tA, risp. A = A∗ , le matrici × A := [a jk]1≤ j,k≤, = 1, . . ., n, si chiamano i minori principali di A, ed i numeri reali Δ = det(A ) sono dunque i determinanti dei minori principali. L’ipotesi del Teorema 2.4.7 che in una qualche base ortonormale v = (v1 , . . ., vn ) di V la matrice A di f abbia tutti i minori principali invertibili equivale a dire che, posto V := Span{v1 , . . ., v} ed f : V −→ V , f := ΠV ◦ ( f V ), 1 ≤ ≤ n, le f sono tutte invertibili per = 1, . . ., n. Ciò se gue dal fatto che A è la matrice di f nella base ortonormale (v1 , . . ., v ) di V . In particolare, dunque, A = An è invertibile. Siccome p f (z) = pA(z), da una parte p f (0) = pA (0) = det A = 0, e dall’altra se λ1 , . . ., λn sono gli autovalori di f , ripetuti n
n
j=1
j=1
secondo la loro molteplicità, p f (z) = (−1)n ∏ (z − λ j ), quindi p f (0) = ∏ λ j , e dunque dire che A è invertibile equivale a dire che tutti gli autovalori di f sono diversi da 0. Dunque l’ipotesi del Teorema di Jacobi può essere riespressa dicendo che c’è una base ortonormale di V rispetto alla quale gli autovalori di ogni f , 1 ≤ ≤ n, sono tutti diversi da zero. Occorre guardarsi dal credere che la sola ipotesi 0 ∈ Spec( f ) basti per dire che la matrice di f in una qualsiasi base ortonormale di V abbia tutti i minori principali 3 3 invertibili. Un ⎤ C la cui matrice nella base ⎤ è dato dalla mappa ⎡f : C −→ ⎡ esempio 2 0 0 0 1 0 canonica è ⎣ 1 0 0 ⎦ (qui Δ1 = 0), oppure ⎣ 0 0 1 ⎦ (qui Δ2 = 0). 0 1 0 0 0 2
36
2 Diagonalizzabilità e forme normali
2.5 Trasformazioni normali, ortogonali, unitarie e loro proprietà. Decomposizione polare e Teorema di Lyapunov È opportuno introdurre ora la classe delle trasformazioni (e matrici) normali. Definizione 2.5.1. Sia V uno spazio vettoriale complesso con un prodotto hermitiano ·, · e sia f : V −→ V un’applicazione lineare. Si dice che f è normale se f ◦ f∗ = f∗ ◦ f. Una matrice A ∈ M(n; C) si dice normale se AA∗ = A∗ A. Abbiamo il seguente teorema. Teorema 2.5.2. Siano dati V ed f come nella definizione precedente. (a) Sono equivalenti le affermazioni seguenti: (i) f è normale, i.e. f ◦ f ∗ = f ∗ ◦ f ; (ii) || f (v)|| = || f ∗ (v)||, per ogni v ∈ V ; (iii) f = p + iq, p, q : V −→ V lineari con p = p∗ , q = q∗ , e [p, q] = p ◦ q − q ◦ p = 0. (b) Se f è normale allora f è diagonalizzabile e scritto V =
λ1 , . . ., λk ∈ C sono gli autovalori distinti di f , si ha: (i) Eλ ( f ) e Eλ ( f ) sono ortogonali per λ = λ ; (ii) Eλ ( f ) = Eλ¯ ( f ∗ ).
k
Eλ j ( f ), dove
j=1
Dimostrazione. Proviamo il punto (a). Intanto (i)=⇒(ii) banalmente, perché || f (v)||2 = f (v), f (v) = ( f ∗ ◦ f )(v), v = ( f ◦ f ∗ )(v), v = = f ∗ (v), f ∗ (v) = || f ∗ (v)||2 , ∀v ∈ V. Proviamo ora che (ii)=⇒(i). Osserviamo che per ogni v, w ∈ V si hanno le identità di polarizzazione ⎧ 1 2 2 ⎪ ||v + w|| Re v, w = − ||v − w|| ⎪ ⎨ 4 (2.50) ⎪ ⎪ 1 ⎩ Im v, w = ||v + iw||2 − ||v − iw||2 . 4 Allora per ogni v, w ∈ V ( f ◦ f ∗)(v), w = f ∗ (v), f ∗ (w) =
=
1 ∗ || f (v + w)||2 − || f ∗ (v − w)||2 + i || f ∗ (v + iw)||2 − || f ∗ (v − iw)||2 = 4
2.5 Trasformazioni normali, ortogonali, unitarie e loro proprietà
=
1 4
37
|| f (v + w)||2 − || f (v − w)||2 + i || f (v + iw)||2 − || f (v − iw)||2 = = f (v), f (w) = ( f ∗ ◦ f )(v), w,
il che prova (i). Che (iii) implichi (i) è una verifica immediata in virtù del fatto che p e q commutano. Viceversa, ogni f può essere scritta nella forma 1 1 f = ( f + f ∗) + i ( f − f ∗) . 2 2i
(2.51)
Posto
1 1 p = ( f + f ∗ ), e q = ( f − f ∗ ), 2 2i ovviamente p = p∗ e q = q∗ . Inoltre p◦q =
1 2 1 f − ( f ∗ )2 + f ∗ ◦ f − f ◦ f ∗ , ( f + f ∗ )( f − f ∗ ) = 4i 4i
e q◦ p =
1 2 f − ( f ∗ )2 − f ∗ ◦ f + f ◦ f ∗ , 4i
sicché
1 ∗ [f , f] = 0 2i per ipotesi. Ciò conclude la prova del punto (a). Proviamo ora il punto (b). Usando (a)(iii), il Teorema 2.3.7 ed il Teorema 2.1.12 si ha che f è diagonalizzabile. Occorre provare ora (i) ed (ii). Scritta f = p + iq come in (a)(iii), dire che v ∈ Eλ ( f ) è equivalente a dire che v ∈ ERe λ (p) ∩ EIm λ (q). Ciò è conseguenza della prova del Teorema 2.1.12, giacché [p, q] =
V=
α ∈Spec(p)
Eα (p), e
Eα (p) =
β ∈Spec(q
Eβ (q). Eα (p)
)
Ne segue che se λ è un autovalore di f con λ = λ allora o Re λ = Re λ oppure Im λ = Im λ , e d’altra parte gli autospazi di una trasformazione autoaggiunta corrispondenti ad autovalori distinti sono ortogonali, ciò che prova il punto (i). Poiché f ∗ = p − iq e gli autospazi di q sono esattamente anche gli autospazi di −q, la (ii) segue immediatamente.
Una classe importante di trasformazioni normali è costituita dalle trasformazioni unitarie. Definizione 2.5.3. Sia V uno spazio vettoriale complesso con un prodotto hermitiano ·, ·, e sia f : V −→ V un’applicazione lineare. Si dice che f è unitaria se f ◦ f ∗ = f ∗ ◦ f = 1V .
38
2 Diagonalizzabilità e forme normali
Una matrice A ∈ M(n; C) si dice unitaria se AA∗ = A∗ A = In . È opportuno osservare che le condizioni seguenti sono equivalenti: ⎧ ⎨ (i) f è unitaria; ⎩
(2.52) (ii) f (v), f (w) = v, w, ∀v, w ∈ V.
Che da (i) segua (ii) è banale. Viceversa, se vale (ii) allora v, w = f (v), f (w) = ( f ∗ ◦ f )(v), w, ∀v, w ∈ V, sicché f ∗ ◦ f = 1V , ma allora f è iniettiva e dunque invertibile con inversa f ∗ , per cui vale anche f ◦ f ∗ = 1V .
Da (2.52) segue che se f è unitaria allora Spec( f ) ⊂ {λ ∈ C; |λ | = 1}, e dal Teorema 2.5.2 segue che f è diagonalizzabile. Il lettore verifichi per esercizio le proprietà seguenti. • Le trasformazioni lineari da V in sé unitarie rispetto ad un prodotto hermitiano fissato formano un gruppo rispetto alla composizione. • Posto U(n; C) := {A ∈ M(n; C); A è unitaria}, (2.53) si ha che U(n; C) è un gruppo (non commutativo per n ≥ 2) rispetto al prodotto tra matrici. • Una matrice A ∈ M(n; C) è unitaria se e solo se le colonne (equivalentemente, le righe) di A formano una base ortonormale di Cn rispetto al prodotto hermitiano canonico. Vale il seguente teorema. 2
Teorema 2.5.4. Munito M(n; C) della topologia indotta da Cn , vale a dire la topologia indotta dalla metrica dist(A, B) =
n
∑
|a jk − b jk |2
1/2
,
j,k=1
A = [a jk]1≤ j,k≤n, B = [b jk ]1≤ j,k≤n, allora U(n; C) è connesso per archi.
2.5 Trasformazioni normali, ortogonali, unitarie e loro proprietà
39
Dimostrazione. Data A ∈ U(n; C), basta provare che esiste una mappa φ : [0, 1] −→ U(n; C) continua tale che φ (0) = In , φ (1) = A. A tal fine sia (ζ (1) , . . ., ζ (n)) una base ortonormale di Cn , rispetto al prodotto hermitiano canonico, costituita da autovettori di A, pensata come mappa unitaria di Cn in sé. Poiché Aζ ( j) = λ j ζ ( j), λ j ∈ C, |λ j | = 1, 1 ≤ j ≤ n,
(2.54)
detta T = [ζ (1)| . . .|ζ (n)] la matrice le cui colonne sono i vettori ζ (1) , . . ., ζ (n), si ha: ⎡
⎤ λ1 0 . . . 0 ⎢ 0 λ2 . . . 0 ⎥ ⎢ ⎥ ⎥ (ii) AT = T Λ , dove Λ = ⎢ ⎢ .. .. . . .. ⎥ . ⎣ . . . . ⎦ 0 0 . . . λn Il punto (ii) segue ovviamente da (2.54). Quanto al punto (i), si osservi che ⎤ ⎡ tζ (1) ⎥ ⎢ ⎢ tζ (2) ⎥ ⎥ ⎢ ⎥, T∗ = ⎢ ⎥ ⎢ .. ⎥ ⎢. ⎦ ⎣ (i) T è unitaria;
tζ (n)
sicché, per l’ortonormalità degli ζ ( j), il prodotto T ∗ T = In (= T T ∗ ). Poiché si può scrivere λ j = eiθ j , con θ j ∈ [−π , π ), 1 ≤ j ≤ n, a questo punto basta porre ⎡ it θ ⎤ e 1 0 ... 0 ⎢ 0 eit θ2 . . . 0 ⎥ ⎢ ⎥ ∗ φ (t) := T ⎢ T , t ∈ [0, 1]. . . . ⎥ ⎢ .. .. . . .. ⎥ ⎣ . ⎦ 0 0 . . . eit θn Ciò conclude la dimostrazione.
Una conseguenza importante del Teorema 2.5.4 è la seguente. In M(n; C) consideriamo l’insieme A(n; C) := {A ∈ M(n; C); A = A∗ , A invertibile}, con la topologia indotta da M(n; C) precedentemente definita. Per ogni A = A∗ definiamo la segnatura (ν+ (A), ν−(A)) di A come la segnatura della forma quadratica su Cn associata ad A (si veda (2.43)). Vale il risultato seguente. Teorema 2.5.5. Le componenti connesse di A(n; C) sono esattamente i sottoinsiemi A(ν+ ,ν− ) (n; C) := {A ∈ A(n; C); ν±(A) = ν±}, al variare degli interi ν+, ν−, con ν+, ν− ≥ 0 e ν+ + ν− = n.
(2.55)
40
2 Diagonalizzabilità e forme normali
Dimostrazione. Cominciamo col provare che ciascun A(ν+ ,ν− ) (n; C) è connesso per archi. Facciamo la prova nel caso in cui ν+ e ν− sono entrambi ≥ 1 (la prova quando ν+ o ν− è zero è più semplice). Poniamo Iν+ 0 I(ν+ ,ν− ) := . 0 −Iν− Per provare la connessione per archi di A(ν+ ,ν− ) (n; C) basterà provare che per ogni A ∈ A(ν+ ,ν−) (n; C) c’è una mappa continua φ : [0, 1] −→ A(ν+ ,ν− ) (n; C) tale che φ (0) = I(ν+ ,ν− ) , φ (1) = A. Sia T ∈ U(n; C) che diagonalizza A, cioè ⎡
λ1 ⎢ . ⎢ . ⎢ . ⎢ ⎢ 0 T ∗ AT = ⎢ ⎢ ⎢ ⎢ ⎢ ⎣
... 0 . . .. . . . . . λν+ 0
⎤ 0 −μ1 .. . 0
...
0 . .. . .. . . . −μν−
⎥ ⎥ ⎥ ⎥ ⎥ ⎥ =: Λ 0 , ⎥ 0 −M ⎥ ⎥ ⎥ ⎦
con λ j > 0, 1 ≤ j ≤ ν+, e μk > 0, 1 ≤ k ≤ ν−. Consideriamo la mappa continua 0 (1 − t)Iν+ + t Λ T ∗. ψ : [0, 1] −→ T 0 −(1 − t)Iν− − tM Osserviamo che ψ (t) = ψ (t)∗ , per tutti i t ∈ [0, 1], con autovalori (1 − t) + t λ j , 1 ≤ j ≤ ν+ , e −(1 −t)−t μk , 1 ≤ k ≤ ν− , sicché ψ (t) ∈ A(ν+ ,ν−) (n; C) per tutti i t ∈ [0, 1] e ψ (1) = A, ψ (0) = T I(ν+ ,ν− ) T ∗ . Dal Teorema 2.5.4 sappiamo che c’è una mappa continua σ : [0, 1] −→ U(n; C) tale che σ (0) = In e σ (1) = T, sicché t −→ σ (t)∗ deforma con continuità l’identità In in T ∗ . Basta allora porre ⎧ ⎨ σ (2t)I(ν+ ,ν− ) σ (2t)∗ , t ∈ [0, 1/2], φ (t) = ⎩ ψ (2t − 1), t ∈ [1/2, 1]. A questo punto osserviamo che A(n; C) =
! ν+ +ν− =n ν± ≥0
A(ν+ ,ν− ) (n; C),
e A(ν+ ,ν− ) (n; C) ∩ A(ν+ ,ν− ) (n; C) = 0/ se
(ν+, ν−) = (ν+ , ν− ).
Mostriamo che ogni A(ν+ ,ν− ) (n; C) è aperto in A(n; C). Si tratta di provare che data A ∈ A(ν+ ,ν− ) (n; C) esiste ε > 0 tale che {B ∈ A(n; C); dist(B, A) < ε } ⊂ A(ν+ ,ν− ) (n; C).
2.5 Trasformazioni normali, ortogonali, unitarie e loro proprietà
41
L’idea è di usare il Teorema di Rouché. In primo luogo si osserva che se {B j } j≥1 è una successione di matrici in M(n; C) che converge ad una matrice B, allora la successione {pB j } j≥1 dei relativi polinomi caratteristici converge a pB uniformemente sui compatti di C (lasciamo al lettore la prova di questo fatto). Fissiamo ora due curve semplici chiuse Γ± ⊂ {z ∈ C; ±Re z > 0} tali che Γ+ , rispettivamente Γ− , racchiude gli zeri > 0, rispettivamente < 0, di pA(z). Posto 0 < δ := min |pA(z)|, la proz∈Γ+ ∪Γ−
prietà di continuità menzionata sopra garantisce che esiste ε > 0 tale che per ogni B ∈ M(n; C) con dist(B, A) < ε si ha max |pB(z) − pA (z)| < δ . Dal Teorema di z∈Γ+ ∪Γ−
Rouché segue allora che pB (z) ha ν− radici (contate con la loro molteplicità) racchiuse da Γ− , e ν+ radici (contate con la loro molteplicità) racchiuse da Γ+ . Poiché ν+ + ν− = n, ne segue che B ∈ GL(n; C) e, se B = B∗ , che la segnatura di B è (ν+ , ν−). Ciò prova che A(ν+ ,ν− ) (n; C) è aperto in A(n; C). D’altra parte lo stesso argomento di continuità prova anche che A(ν+ ,ν− ) (n; C) è chiuso in A(n; C).
Un’altra importante osservazione a proposito delle trasformazioni normali è la seguente. Sia f : V −→ V una trasformazione normale rispetto ad un prodotto hermitiano fissato su V . Detti λ1 , . . ., λk ∈ C gli autovalori distinti di f , il Teorema 2.5.2 garantisce che f=
k
∑ λ jΠ j, j=1
dove Π j è il proiettore ortogonale di V su Eλ j ( f ) = Ker(λ j 1V − f ). Data una qualunque funzione F : Spec( f ) −→ C, possiamo definire la trasformazione lineare F( f ) : V −→ V ponendo F( f ) :=
k
∑ F(λ j)Π j .
(2.56)
j=1
k
Poiché Π ∗j = Π j , 1 ≤ j ≤ k, ne segue che F( f )∗ = ∑ F(λ j )Π j , e quindi F( f ) è essa j=1 stessa normale, commuta con f e Spec F( f ) = F Spec( f ) . Si noti che se F è a valori reali, allora F( f ) è autoaggiunta. Questa costruzione può essere naturalmente tradotta per matrici normali A ∈ M(n; C). Si scriva A =
k
∑ λ j Pj , dove λ1, . . ., λk ∈ C sono le radici distinte di pA (z) e j=1
le Pj sono le matrici autoaggiunte corrispondenti ai proiettori ortogonali di Cn sugli autospazi di A (pensata come mappa lineare di Cn in sé). Data F come sopra si pone F(A) =
k
∑ F(λ j )Pj .
(2.57)
j=1
Una conseguenza significativa di questa costruzione è il teorema seguente, la cui dimostrazione viene lasciata per esercizio al lettore.
42
2 Diagonalizzabilità e forme normali
Teorema 2.5.6. Sia dato uno spazio vettoriale complesso V con prodotto hermitiano fissato. Si ponga lin. X := { f : V −→ V ; f = f ∗ }, lin.
Y := {g : V −→ V ; g unitaria}. Posto F : C −→ C, F(z) = eiz , consideriamo la mappa
χ : X f −→ ei f := F( f ) ∈ Y. Allora χ è suriettiva e data g ∈ Y , con g =
k
∑ λ j Π j , λ j = λ j se j = j, si ha
j=1
χ −1 (g) = { f =
k
∑ θ jΠ j ; θ j ∈ R, eiθ j = λ j}. j=1
Osserviamo che la non-iniettività di χ è causata dal fatto che la funzione z −→ eiz non è iniettiva. Abbiamo ora il seguente risultato fondamentale. Teorema 2.5.7 (Decomposizione polare). Data A ∈ GL(n; C), esistono e sono uniche P ∈ M(n; C) con P = P∗ > 0, Q ∈ U(n; C) tali che A = PQ. La dimostrazione del teorema si basa sul lemma seguente. Lemma 2.5.8. Data T ∈ M(n; C) con T = T ∗ > 0, esiste ed è unica S ∈ M(n; C) con S = S∗ > 0 e S2 = T. Si scriverà S = T 1/2 e si dirà che S è la radice quadrata positiva di T . Dimostrazione (del lemma). Scriviamo T =
k
∑ λ j Pj , dove λ1, λ2, . . ., j=1
λk > 0 sono le radici distinte di pT e P1 , . . ., Pk sono le matrici dei proiettori ortogonali k " sugli autospazi corrispondenti. Posto S := ∑ λ j Pj , si ha ovviamente che S = S∗ > j=1
0 e S2 = T. D’altra parte se R ∈ M(n; C) è tale che R = R∗ > 0 e R2 = T, ne segue che R commuta con T (perché RT = RR2 = R2 R = T R). Dunque T ed R possono essere simultaneamente diagonalizzate, i.e. c’è una matrice Q ∈ U(n; C) tale che Q∗ T Q = Λ := diag(λ j Im j )1≤ j≤k , m j = ma (λ j ) = mg (λ j ), Q∗ RQ = M := diag(μ )1≤≤n , μ > 0. Da R2 = T si ricava M 2 = Λ e quindi, in virtù della positività di M, " M = diag( λ j Im j )1≤ j≤k . Dunque R =
k
∑
j=1
"
λ j Pj , ciò che prova l’unicità.
2.5 Trasformazioni normali, ortogonali, unitarie e loro proprietà
43
Dimostrazione (del teorema). Se A = PQ con P = P∗ > 0 e Q ∈ U(n; C), allora deve essere AA∗ = PQQ∗ P = P2 . Poiché AA∗ è autoaggiunta positiva, dal lemma precedente segue che P = (AA∗ )1/2 , e quindi, giacché PQ = A, si ha Q = P−1 A, che si verifica facilmente essere una matrice unitaria.
Corollario 2.5.9. Con la topologia indotta da M(n; C), GL(n; C) è connesso per archi. Dimostrazione. Data A ∈ GL(n; C), usando la decomposizione polare, scriviamo A = PQ con P = P∗ > 0 e Q ∈ U(n; C). Per il Teorema 2.5.4 c’è φ : [0, 1] −→ U(n; C) ⊂ GL(n; C) continua, tale che φ (0) = Q e φ (1) = In . Dunque la mappa [0, 1] t −→ Pφ (t) ∈ GL(n; C) deforma con continuità A in P. D’altra parte il fatto che P = P∗ > 0 permette di definire la mappa continua, ψ : [0, 1] −→ GL(n; C), ψ (t) = tIn + (1 − t)P φ (t), sicché ψ (0) = PQ = A e ψ (1) = In .
Un’altra conseguenza molto importante del Teorema 2.5.7 di decomposizione polare è il Teorema di Lyapunov, che tratta il seguente problema generale. • Data una matrice A ∈ M(n; C), che relazione c’è tra Spec(A) (A pensata come mappa lineare da Cn in sé) e l’insieme dei valori della funzione Cn ζ −→ Aζ , ζ ∈ C, dove ·, · è il prodotto hermitiano canonico di Cn ? Ad esempio, sapendo che Spec(A) ⊂ {z ∈ C; Rez > 0}, si puó concludere che ReAζ , ζ > 0, per ogni 0 = ζ ∈ Cn ? Quando A è normale ciò è certamente vero. Infatti, scritta A =
poiché
j=1
Re λ j > 0 per ogni j, si ha Re Aζ , ζ =
k
∑ λ jPj ,
k
∑ Re λ j ||Pjζ ||2 > 0,
se ζ = 0.
j=1
Tuttavia, se A non è normale, ciò può essere falso. Si prenda ad esempio α β , α > 0, β , γ ∈ R con β γ < 0. A= γ α È subito visto che Spec(A) = {α ± i |β γ |}, e che Spec(A + A∗ ) = {2α ± |β + γ |}. Dunque, se α , β e γ sono tali che α > 0, β γ < 0 e 2α − |β + γ | < 0, ne segue che non è vero che 1 ReAζ , ζ = (A + A∗ )ζ , ζ > 0, ∀ζ ∈ C2 , ζ = 0. 2 Il fenomeno osservato è conseguenza del voler considerare il solo prodotto hermitiano canonico nel valutare Aζ , ζ . La domanda naturale è se basti cambiare il prodotto hermitiano. Il Teorema di Lyapunov dà appunto una risposta a questa domanda.
44
2 Diagonalizzabilità e forme normali
Teorema 2.5.10 (di Lyapunov). Sia Γ ⊂ C\ {0} un cono convesso aperto tale che la sua chiusura Γ non sia un semipiano (i.e. l’apertura di Γ è < π ). Data A ∈ M(n; C), sono equivalenti le affermazioni seguenti: (i) Spec(A) ⊂ Γ ; (ii) esiste H ∈ M(n; C), con H = H ∗ > 0, tale che HAζ , ζ ∈ Γ , ∀ζ ∈ Cn , ζ = 0 (dove ·, · è il prodotto hermitiano canonico di Cn ). Di più, l’insieme delle matrici H = H ∗ > 0 per cui vale (ii) è un aperto convesso di A(n,0) (n; C). Dimostrazione. Che (ii) implichi (i) è banale. Infatti se λ ∈ Spec(A) e 0 = ζ ∈ Cn è tale che Aζ = λ ζ , allora HAζ , ζ = λ H ζ , ζ ∈ Γ , ed essendo H ζ , ζ > 0 e Γ un cono, ne segue che λ ∈ Γ . Assai più delicato è provare il viceversa. Cominciamo col provarlo quando A è normale. In tal caso sappiamo che A = k
∑ λ j Pj , con λ j ∈ Γ per ogni j. Presa H = In si ha per ζ = 0 j=1
Aζ , ζ =
k
∑ λ j||Pj ζ ||2. j=1
Poiché ogni ||Pj ζ ||2 ≥ 0 e
k
∑ ||Pj ζ ||2 = ||ζ ||2 > 0, e poiché Γ è un cono convesso, si j=1
conclude che Aζ , ζ ∈ Γ per ogni ζ = 0. Facciamo ora la prova, nel caso un po’ più generale, quando A è solo diagonalizzabile. Dunque esiste T ∈ GL(n; C) tale che T −1 AT = Λ := diag(λ1 , . . ., λn),
(2.58)
dove i λ j ∈ Γ sono ora gli autovalori di A ripetuti secondo la loro molteplicità. Per il Teorema 2.5.7 possiamo scrivere T = PQ, con P = P∗ > 0 e Q ∈ U(n; C). Da (2.58) si ha allora che A = T Λ T −1 = PQΛ Q∗ P−1 . Scegliendo ora H = (P−1 )2 (notare che H = H ∗ > 0), si ha HA = P−1 QΛ Q∗ P−1 , e quindi per ogni ζ ∈ Cn HAζ , ζ = Λ η , η , con η = Q∗ P−1 ζ . Poiché Λ η , η ∈ Γ per ogni η = 0, se ne deduce (ii).
2.5 Trasformazioni normali, ortogonali, unitarie e loro proprietà
45
Resta da considerare il caso in cui A non è diagonalizzabile. Cominciamo col provare (ii) quando, per qualche γ > 0, si ha Γ = Γγ dove
Γγ := {z ∈ C; Re z > 0, |Imz| < γ Re z}. Per il Teorema 2.1.14 sappiamo che c’è una base (v1 , . . ., vn ) a ventaglio per A. Posto T = [v1 |v2 | . . .|vn ] ∈ GL(n; C) la matrice le cui colonne sono i v j , si avrà T −1 AT = Λ + D, dove Λ = diag(λ1 , . . ., λn ) è come sopra (con i λ j ∈ Γ ) e D = [d jk ]1≤ j,k≤n = 0 è una matrice strettamente triangolare superiore (i.e. d jk = 0 se j ≥ k). Osserviamo che per ogni fissato 0 < ε ≤ 1, se si pone Tε := [v1 |ε v2 | . . .|ε n−1 vn ] (che è ancora invertibile!) si ha Tε−1 ATε = Λ + ε Dε , (ε )
dove Dε = [d jk ]1≤ j,k≤n è ancora strettamente triangolare superiore e n
∑
(ε )
|d jk |2 ≤
j,k=1
n
∑
|d jk|2 =: L2 , L > 0.
j,k=1
Nuovamente scriviamo Tε = Pε Qε , con Pε = Pε∗ > 0 e Qε ∈ U(n; C), cosicché A = Tε (Λ + ε Dε )Tε−1 = Pε Qε (Λ + ε Dε )Q∗ε Pε−1 . Come prima fissiamo Hε = (Pε−1 )2 . Allora per ogni ζ ∈ Cn \ {0} si ha Hε Aζ , ζ = Λ η , η + ε Dε η , η , con η = Q∗ε Pε−1 ζ . Osserviamo ora che c’è 0 < γ < γ tale che λ j ∈ Γ γ per ogni j. Si ha quindi |ImHε Aζ , ζ | ≤ |ImΛ η , η | + ε |ImDε η , η | ≤ ≤ γ
γ Re λ j + ε L |η j |2 .
n
n
j=1
j=1
∑ Re λ j |η j|2 + ε L||η ||2 = ∑
D’altra parte
γ ReHε Aζ , ζ = γ
n
n
j=1
j=1
∑ Re λ j |η j|2 + εγ ReDε η , η ≥ ∑
γ Re λ j − εγ L |η j |2 .
Quindi Hε Aζ , ζ ∈ Γγ se per ogni j si ha
γ Re λ j + ε L < γ Re λ j − εγ L, cioè
γ − γ min Re λ j . (2.59) (1 + γ )L 1≤ j≤n Perciò se ε viene fissato sin dall’inizio in modo tale che valga (2.59), si ha la conclusione. 0 0 tale che Heiθ Aζ , ζ ∈ Γγ , ∀ζ = 0. Ma siccome Heiθ Aζ , ζ = eiθ HAζ , ζ , la tesi segue. Dimostriamo infine l’ultima affermazione del teorema. L’insieme delle H = H ∗ > 0 per cui (ii) è vera è ovviamente un sottoinsieme di A(n,0) (n; C), e che sia convesso è banale tenuto conto che Γ è un cono convesso. Resta da vedere che tale insieme è aperto. Data H = H ∗ > 0 per cui vale (ii), si tratta di vedere che se K = K ∗ > 0 e dist(H, K) < ε , con ε > 0 opportunamente piccolo, allora anche KAζ , ζ ∈ Γ , per ogni ζ = 0, e chiaramente basterà provarlo quando ||ζ || = 1 e quando Γ = Γγ per un certo γ > 0. Ora, |ImKAζ , ζ | ≤ |ImHAζ , ζ | + |Im(K − H)Aζ , ζ | ≤ |ImHAζ , ζ | + ε ||A||, dove ||A|| :=
n
∑
|a jk |2
1/2
se A = [a jk]1≤ j,k≤n. Analogamente
j,k=1
ReKAζ , ζ ≥ ReHAζ , ζ − ε ||A||. Il fatto che HAζ , ζ ∈ Γ per ogni ζ = 0 garantisce che per qualche γ ∈ (0, γ ) |ImHAζ , ζ | ≤ γ ReHAζ , ζ , ∀ζ = 0. Quindi KAζ , ζ ∈ Γ se
γ ReHAζ , ζ + ε ||A|| ≤ γ ReHAζ , ζ − εγ ||A||, e ciò avviene se 0 0} oppure, rispettivamente, Spec(A) ⊂ {z ∈ C; Im z > 0}, implica l’esistenza di una H = H ∗ > 0 tale che 1 1 (HA + A∗ H) > 0 oppure, risp., (HA − A∗ H) > 0. 2 2i • È infine importante notare che la prova fatta può essere estesa al caso in cui le entrate della matrice A dipendono con continuità da un parametro. Finora abbiamo trattato trasformazioni (e matrici) normali ed unitarie. Cosa succede nel caso reale? Abbiamo le seguenti definizioni naturali. Definizione 2.5.12. Sia V uno spazio vettoriale reale con un prodotto scalare ·, · fissato. Una trasformazione lineare f : V −→ V si dirà normale quando f ◦tf = tf ◦ f. In particolare si dirà che f è ortogonale quando f ◦ t f = t f ◦ f = 1V . Se A ∈ M(n; R), diremo che A è normale, rispettivamente ortogonale, quando A tA = risp. A tA = tAA = In . Con O(n; R) indicheremo l’insieme delle matrici n × n ortogonali.
tAA,
L’osservazione cruciale che stabilisce un legame tra il caso reale e quello complesso è la seguente. Lemma 2.5.13. Sia V uno spazio vettoriale reale con prodotto scalare ·, · fissato. Si consideri il complessificato CV ed il prodotto hermitiano ·, ·C su CV , complessificato di ·, ·: (2.60) u + iv, u + iv C = u, u + v, v + i v, u − u, v . Allora f : V −→ V è normale, risp. ortogonale, se e solo se normale, risp. unitaria.
C
f : CV −→ CV è
Dimostrazione. Siccome C f (u + iv) = f (u) + i f (v), allora da (2.60) segue subito che (C f )∗ = C (t f ), e poiché C ( f ◦ g) = C f ◦ Cg (il lettore lo verifichi), il lemma è dimostrato.
Il lettore verifichi per esercizio le proprietà seguenti. • Le trasformazioni lineari da V in sé (V reale) ortogonali rispetto ad un fissato prodotto scalare formano un gruppo rispetto alla composizione.
48
2 Diagonalizzabilità e forme normali
• O(n; R) è un gruppo (non commutativo per n ≥ 2) rispetto al prodotto tra matrici. Notare che O(n; R) è un sottogruppo di U(n; C). • Una matrice A ∈ M(n; R) è ortogonale se e solo se le colonne (equivalentemente le righe) di A formano una base ortonormale di Rn rispetto al prodotto scalare canonico. Prendiamo allora una trasformazione lineare f : V −→ V , V reale, normale rispetto ad un fissato prodotto scalare ·, ·. Il Lemma 2.5.13 garantisce che C f è normale su CV rispetto al prodotto hermitiano (2.60). Si noti che p f (z) = p C f (z). Supponiamo che •
p f abbia h radici reali distinte λ1 , . . ., λh (λ j con molteplicità ma (λ j ), j = 1, . . ., h), e 2k radici complesse (non reali) distinte μ j = α j +iβ j , μ¯ j = α j −iβ j , j = 1, . . ., k (μ j e μ¯ j con molteplicità ma (μ j ) = ma (μ¯ j ), j = 1, . . ., k).
Per il Teorema 2.5.2 C f è diagonalizzabile, e, di più, si ha la decomposizione ·, ·Cortogonale h
C
V=
Eλ j ⊕
j=1
dove Eλ j = Eλ j posizione
(C f )
e Eμ j = E μ j V=
h j=1
(C f ).
k
(Eμ j ⊕ E¯μ j ),
j=1
Da ciò segue, per il Teorema 2.2.4, la decom-
Re Eλ j ⊕
k
Re(Eμ j ⊕ E¯ μ j ).
j=1
Proviamo che tale decomposizione è ·, ·-ortogonale. Per fare ciò basterà provare che se W = W¯ e U = U¯ sono due sottospazi di CV ortogonali per ·, ·C, allora ReW e ReU sono ortogonali in V per ·, ·. Infatti se w ∈ ReW e u ∈ ReU, allora w + i0 ∈ W e u + i0 ∈ U e dunque 0 = w + i0, u + i0C = w, u, il che prova l’asserto.
Osserviamo ora che ogni base ·, ·-ortonormale di ciascun Re Eλ j = Eλ j ( f ) dà luogo ad una base ·, ·C-ortonormale di Eλ j (tramite il passaggio w −→ w + i0). D’altra parte, se (w1 + iw1 , w2 + iw2 , . . ., wr + iwr ) è una base ·, ·C-ortonormale di Eμ j , proviamo che √ √ √ √ √ √ ( 2 w1 , 2 w1 , 2 w2 , 2 w2 , . . ., 2 wr , 2 wr ) è una base ·, ·-ortonormale di Re(Eμ j ⊕ E¯μ j ). Per vederlo, si osserva che non solo si ha wj + iwj , wk + iwk C = δ jk, ma anche che wj + iwj , wk − iwk C = 0 per tutti i j, k (perché Eμ j è ·, ·C-ortogonale e E¯ μ j = Eμ¯ j ). Allora, da ⎧ ⎨ δ jk = w j + iw j , wk + iwk C = w j , wk + w j , wk , ∀ j, k, ⎩
0 = wj + iwj , wk − iwk C = wj , wk − wj , wk , ∀ j, k,
2.5 Trasformazioni normali, ortogonali, unitarie e loro proprietà
49
si ha wj , wk = wj , wk = 0, ∀ j, k, j = k, 1 wj , wj = wj , wj = , ∀ j, 2 e quindi la tesi.
La conclusione è dunque che c’è una base ·, ·-ortogonale di V relativamente alla quale la matrice di f ha la forma a blocchi (2.21). Ha particolare interesse esaminare più precisamente il caso in cui f è ortogonale. Poiché C f è unitaria, con le notazioni usate prima, avremo
λ j = +1 oppure − 1, 1 ≤ j ≤ h, | μ j | = |α j + iβ j | = 1, 1 ≤ j ≤ k. Per certi angoli 0 < θ j < 2π , θ j = π , scriviamo α j + iβ j = e−iθ j , sicché i blocchi B j in (2.22) sono dati da ⎡
cos θ j ⎢ sin θ j ⎢ ⎢ ⎢ ⎢ Bj = ⎢ ⎢ ⎢ ⎢ ⎢ ⎣
− sin θ j cos θ j 0 . .. 0
⎤ 0
...
cos θ j − sin θ j ... sin θ j cos θ j . .. .. . 0
...
0
⎥ ⎥ ⎥ ⎥ 0 ⎥ ⎥. ⎥ . ⎥ .. ⎥ ⎥ cos θ j − sin θ j ⎦ sin θ j cos θ j
(2.61)
L’informazione geometrica racchiusa in questa struttura è la seguente. C’è una decomposizione di V in sottospazi ortogonali W che sono rette (cioè unidimensionali) oppure piani (cioè bidimensionali) su ciascuno dei quali f agisce così: (i) f W = 1W oppure f W = −1W (dimR W = 1); (ii) f W è una rotazione elementare, cioè rappresentata dalla matrice
cos θ − sin θ , 0 < θ < 2π , θ = π (dimR W = 2). sin θ cos θ
Si osservi che se dimR V è dispari il caso (i) ha sicuramente luogo (p f (z) ha sicuramente almeno una radice reale). Si noti inoltre che se A ∈ O(n; R), allora det A = +1 oppure −1, e dunque che l’insieme O+ (n; R) := {A ∈ O(n; R); det A = 1} è un sottogruppo di O(n; R).
(2.62)
50
2 Diagonalizzabilità e forme normali
Come conseguenza della discussione precedente abbiamo il seguente teorema. Teorema 2.5.14. O+(n; R) è connesso per archi. Dimostrazione. Come al solito, basta provare che ogni matrice A ∈ O+ (n; R) può essere deformata con continuità (dentro O+(n; R)) nell’identità In . La discussione sulla struttura delle trasformazioni di Rn ortogonali per il prodotto scalare canonico assicura che c’è una matrice T ∈ O(n; R) tale che t T AT = B, dove B ha la forma a blocchi del tipo ⎤ ⎡ In1 0 0 . . . 0 ⎢ 0 −In 0 . . . 0 ⎥ 2 ⎥ ⎢ ⎢ 0 0 B1 . . . 0 ⎥ ⎥, B=⎢ ⎢ . .. .. . .. ⎥ ⎥ ⎢ . ⎣ . . . .. . ⎦ 0 0 0 . . . Bk dove ogni blocco B j è della forma (2.61). Poiché det B = det A = 1, allora o n2 = 0 oppure n2 è pari. Ragionando in questo ultimo caso, possiamo scrivere ⎡ ⎤ cos π − sin π . . . 0 ⎢ sin π cos π ⎥ ⎢ ⎥ ⎢ ⎥ . . ⎢ ⎥, .. −In2 = ⎢ . . ⎥ . . . ⎢ ⎥ ⎣ cos π − sin π ⎦ 0 ... sin π cos π cos π − sin π è n2 /2. Definiamo allora dove il numero dei blocchi sin π cos π
φ : [0, 1] −→ O+ (n; R), φ (s) = t T Bs T, dove la matrice Bs è ottenuta sostituendo in B: cos sπ − sin sπ cos π − sin π con i blocchi , • i blocchi sin π cos π sin sπ cos sπ cos θ j − sin θ j cos sθ j − sin sθ j • ed i blocchi con i blocchi , sin θ j cos θ j sin sθ j cos sθ j terminando così la prova poiché det Bs = 1 per ogni s ∈ [0, 1].
2.6 Spazio duale a mappa duale In questa sezione esamineremo l’importante nozione di spazio duale (algebrico) di uno spazio vettoriale V sul campo K. Definizione 2.6.1. Dato V spazio vettoriale su K, si chiama spazio duale di V l’insieme delle forme lineari su V , i.e. V := {φ : V −→ K; φ è lineare}.
2.6 Spazio duale a mappa duale
51
Si rende V uno spazio vettoriale su K definendo per ogni φ , ψ ∈ V e per ogni λ ∈ K
φ + ψ : V −→ K, (φ + ψ )(v) := φ (v) + ψ (v), ∀v ∈ V, λ φ : V −→ K, (λ φ )(v) := λ φ (v), ∀v ∈ V. Il risultato seguente fornisce le prime proprietà fondamentali di V . Teorema 2.6.2. Sia dimK V = n < +∞. Si hanno i fatti seguenti. (i) Data una base ε = (ε1 , . . ., εn ) di V , per j = 1, . . ., n definiamo φ j ∈ V nel modo seguente: n
φ j ( ∑ λk εk ) := λ j . k=1
Allora φ = (φ1 , . . ., φn) è una base di V , detta la base duale di ε . (ii) dimK V = dimK V . (iii) (V ) (il biduale di V ) è canonicamente isomorfo a V . Precisamente, l’isomorfismo canonico è realizzato dalla mappa : V −→ (V ) , (v)(φ ) := φ (v), ∀v ∈ V, ∀φ ∈ V . Dimostrazione. Proviamo (i). La prova che φ1 , . . ., φn sono linearmente indipendenti viene lasciata al lettore. Si noti che
φ j (εk ) = δ jk, 1 ≤ j, k ≤ n. Data ora φ ∈ V , è banale provare che
φ=
n
∑ φ (ε j )φ j , j=1
ciò che prova (i), e anche, di conseguenza, (ii). Quanto a (iii), basterà dimostrare che la mappa è iniettiva, i.e. (v) = 0 =⇒ v = 0. Ciò è banale, perché (v) = 0 significa φ (v) = 0 per ogni φ ∈ V , e quindi per (i) si ha v = 0.
Osservazione 2.6.3. Nel caso in cui dimK V < +∞, (ii) dice che dimK V = dimK V , e dunque V e V sono certamente isomorfi. Tuttavia non c’è un isomorfismo canonico tra V e V (ogni isomorfismo dipende dalla scelta di una base di V ). Osserviamo anche che l’indentificazione di V con il suo biduale (V ) vista in (iii) non è vera in generale quando V ha dimensione infinita (la mappa come in (ii) continua ad essere ben definita ed iniettiva; il problema risiede nella sua suriettività).
52
2 Diagonalizzabilità e forme normali
Accanto alla nozione di spazio duale si introduce quella di mappa duale. Definizione 2.6.4. Siano V,W due spazi vettoriali sullo stesso K, e sia f : V −→ W lineare. Definiamo f : W −→ V , f (ψ )(v) := ψ ( f (v)), ∀v ∈ V, ∀ψ ∈ W . La mappa f è ovviamente lineare, e viene detta mappa duale di f .
Osservazione 2.6.5. Se dimK V = n, dimK W = m e detta A ∈ M(m, n; K) la matrice di f relativa alle basi v = (v1 , . . ., vn ) di V e w = (w1 , . . ., wn) di W , la matrice di f relativa alle rispettive basi duali è la trasposta di A, t A ∈ M(n, m; K) (il lettore si convinca che ciò è vero). L’osservazione ora fatta fa sorgere spontanea la domanda se ci sia una relazione (e che tipo di relazione sia) tra la mappa duale f e la mappa trasposta t f , risp. aggiunta f ∗ viste in precedenza. La connessione è chiarita dal seguente Teorema di rappresentazione di F. Riesz delle forme lineari. Ci limitiamo al caso di dimensione finita. Teorema 2.6.6. Sia V una spazio vettoriale su K, con dimK V = n, e si supponga dato su V un prodotto interno ·, ·. La mappa j : V −→ V , j(v)(w) := w, v, v, w ∈ V, è biettiva, lineare quando K = R, ed antilineare quando K = C (antilinearità significa qui che j(λ v) = λ¯ j(v), v ∈ V , λ ∈ C). Dimostrazione. Che si abbia j(v1 + v2 ) = j(v1 ) + j(v2 ), per ogni v1 , v2 ∈ V , è ovvio, e che si abbia j(λ v) = λ j(v) per ogni v ∈ V e λ ∈ R, quando K = R, e rispettivamente j(λ v) = λ¯ j(v) per ogni v ∈ V e λ ∈ C, quando K = C, è pure ovvio. Proviamo che j è in ogni caso iniettiva. Infatti j(v) = 0 ⇐⇒ w, v = 0 ∀w ∈ V ⇐⇒ v = 0. Si noti che, essendo dimK V = dimK V , nel caso K = R ciò basta per concludere che j è un isomorfismo lineare. Proviamo direttamente che in ogni caso j è suriettiva. Sia v = (v1 , . . ., vn ) una base ortonormale di V e sia φ = (φ1 , . . ., φn) la relativa base duale. Data ora φ ∈ V e scritta φ = ∑nj=1 λ j φ j , consideriamo il vettore v := ∑nj=1 λ¯ j v j . Allora, per ogni w = ∑nj=1 α j v j ∈ V, n
j(v)(w) = w, ∑ λ¯ j v j = j=1
D’altra parte
φ (w) =
n
n
j=1
j=1
∑ λ jw, v j = ∑ λ j α j .
n
n
j=1
j=1
∑ λ jφ j (w) = ∑ λ j α j ,
da cui j(v) = φ . Ciò conclude la dimostrazione.
2.7 Trasformazioni e matrici nilpotenti. Forma canonica di Jordan: I parte
53
Osservazione 2.6.7. Si noti che l’identificazione j : V −→ V non è canonica, in quanto dipende dall’aver fissato un prodotto interno su V . Siano ora V,W due spazi vettoriali su K con dimK V = n, dimK W = m, e si supponga che su V , risp. W , sia fissato un prodotto interno ·, ·V , risp. ·, ·W . Per il Teorema 2.6.6 abbiamo le corrispondenti identificazioni jV : V −→ V e jW : W −→ W . Data ora f : V −→ W lineare, e considerata la corrispondente mappa duale f : W −→ V , si ha il seguente diagramma commutativo di spazi vettoriali e mappe lineari V
f
W
jV−1
V
jW f
W
da cui la mappa jV−1 ◦ f ◦ jW : W −→ V. Lasciamo al lettore la cura di verificare che tale mappa coincide con: • •
quando K = R, f ∗ , quando K = C.
tf,
2.7 Trasformazioni e matrici nilpotenti. Forma canonica di Jordan: I parte Una delle proprietà più significative dell’algebra delle trasformazioni lineari di uno spazio V in sé è che se dimK V ≥ 2 allora ci sono elementi nilpotenti, ci sono cioè delle f : V −→ V non nulle tali che una loro potenza opportuna è la trasformazione nulla. Come esempio tipico si consideri f : K2 −→ K2 , f (x1 , x2 ) = (x2 , 0). In questo paragrafo considereremo solo spazi vettoriali di dimensione ≥ 2. Definizione 2.7.1. Sia f : V −→ V lineare. Diremo che f è nilpotente se esiste un intero k ≥ 2 tale che f k−1 = 0,
f k = 0.
(2.63)
L’intero k si chiama indice di nilpotenza di f . Analogamente, una matrice A ∈ M(n; K), n ≥ 2, si dirà nilpotente se esiste un intero k ≥ 2 tale che Ak−1 = 0, Ak = 0. L’intero k si chiama indice di nilpotenza di A. Abbiamo subito il lemma seguente.
(2.64)
54
2 Diagonalizzabilità e forme normali
Lemma 2.7.2. Se f : V −→ V è nilpotente allora il suo indice di nilpotenza è ≤ n = dimK V e, di più, Spec( f ) = {0} e f non è diagonalizzabile. Dimostrazione. Basta fare la prova nel caso K = C, in quanto, se V è reale, f : V −→ V è nilpotente se e solo se C f : CV −→ CV lo è, ed in tal case f ed C f hanno lo stesso indice di nilpotenza. Per il Teorema 2.1.14 sappiamo che c’è una base a ventaglio per f rispetto alla quale la matrice A = [a j]1≤ j,≤n di f è triangolare superiore (i.e. a j = 0 se j > ). Poiché la matrice associata a f k è Ak , f è nilpotente se e solo se A è nilpotente (con lo stesso indice). D’altra parte Ak , che è pure triangolare superiore, ha come elementi sulla diagonale principale gli akj j, 1 ≤ j ≤ n. Dunque A è nilpotente se e solo se A è strettamente triangolare superiore (i.e. a j = 0 se j ≥ ). Bastano ora al più n iterazioni per ottenere la matrice nulla, i.e. k ≤ n. Infine, poiché p f (z) = pA (z) =
n
∏ (a j j − z) = (−1)n zn,
ne segue che Spec( f )
j=1
= {0} e, poiché f = 0, 0 < dimKer f < dimKer f 2 ≤ n, sicché per il Teorema 2.1.10 f non è diagonalizzabile.
Ciò che ci proponiamo ora è studiare la struttura delle trasformazioni nilpotenti per poterle rappresentare nella forma più semplice possibile. Definizione 2.7.3. Dato intero ≥ 2, chiamiamo matrice elementare di Jordan dimensionale la matrice J ∈ M(; R) definita da ⎤ ⎡ 0 1 ... 0 ⎥ ⎢ 0 1 ⎥ ⎢. . ⎢. .. . ⎥ ⎢. . 0 . ⎥ ⎥, (2.65) J = ⎢ .. ⎥ ⎢ . 1 ⎥ ⎢ ⎥ ⎢ ⎣ 0 1 ⎦ 0 ... 0 cioè tutti gli elementi di J sono nulli tranne quelli sulla diagonale immediatamente sopra quella principale, che sono uguali a 1. Si noti che J ha indice di nilpotenza . Abbiamo il primo importante teorema di struttura. Teorema 2.7.4 (di Jordan, prima parte). Sia f : V −→ V lineare nilpotente con indice k (2 ≤ k ≤ n = dimK V ). Allora: (i) {0} = Ker f Ker f 2 . . . Ker f k−1 Ker f k = V. (ii) Posto n1 = dimKer f , n2 = dimKer f 2 − dimKer f , e così via fino a nk = dimKer f k − dimKer f k−1, si ha n1 + n2 + . . .+ nk = n, n1 ≥ n2 ≥ . . . ≥ nk−1 ≥ nk .
(2.66)
(iii) Esiste una base di V (detta base di Jordan) relativamente alla quale la matrice di f ha la forma diagonale a blocchi seguente (detta forma canonica di Jordan):
2.7 Trasformazioni e matrici nilpotenti. Forma canonica di Jordan: I parte
55
• ci sono nk blocchi Jk ; • se nk−1 > nk , e solo in tal caso, ci sono nk−1 − nk blocchi Jk−1; • se nk−2 > nk−1 , e solo in tal caso, ci sono nk−2 − nk−1 blocchi Jk−2, e così via, fino a • se n2 > n3 , e solo in tal caso, ci sono n2 − n3 blocchi J2 ; • se n1 > n2 , e solo in tal caso, c’è un blocco (n1 − n2 ) × (n1 − n2 ) di zeri. Dimostrazione. La proprietà (i) è subito provata tenendo conto che se per un qualche p si ha Ker f p = Ker f p+1 , allora Ker f p = Ker f p+ per ogni ≥ 1, e poiché Ker f k−1 V = Ker f k , ciascuna delle inclusioni in (i) deve essere stretta, e, d’altra parte, Ker f = {0} perché f non è invertibile. Veniamo ora al punto (ii). L’uguaglianza n1 + n2 + . . . + nk = n è una verifica banale. Proviamo ora che n1 ≥ n2 ≥ . . . ≥ nk . Cominciamo con lo scrivere V = Ker f k = Ker f k−1 ⊕W1, per un certo sottospazio W1 con dimW1 = nk . Proviamo che si ha: (•) f (W1) ⊂ Ker f k−1 e la restrizione f W è iniettiva; (••) f (W1 ) ∩ Ker f k−2 = {0}.
1
L’inclusione f (W1 ) ⊂ Ker f k−1 è ovvia. Se poi v ∈ W1 e f (v) = 0, allora anche f k−1(v) = 0, sicché v ∈ W1 ∩ Ker f k−1 = {0}. Quanto a (••), sia ζ ∈ f (W1) ∩ Ker f k−2. Poiché ζ = f (v) per un ben determinato v ∈ W1 , e poiché f k−2 (ζ ) = 0, ne segue, di nuovo, v ∈ W1 ∩ Ker f k−1 = {0}, e quindi ζ = 0. Come conseguenza si ha quindi che f (W1 ) ⊕ Ker f k−2 ⊂ Ker f k−1, e dunque nk−1 = dimKer f k−1 − dimKer f k−2 ≥ dim f (W1 ) = dimW1 = nk . Sia allora W2 un supplementare di f (W1 )⊕Ker f k−2 in Ker f k−1. Si noti che dimW2 = nk−1 − nk , e quindi W2 non è banale se e solo se nk−1 > nk . Ragionando come sopra si prova che: (•) f f (W1 ) ⊕W2 ⊂ Ker f k−2 e la restrizione f f (W )⊕W è iniettiva; 1 2 (••) f 2 (W1 ) ⊕ f (W2 ) ∩ Ker f k−3 = {0}. Ne consegue che f 2 (W1 ) ⊕ f (W2 ) ⊕ Ker f k−3 ⊂ Ker f k−2, da cui nk−2 ≥ dim f 2 (W1 ) + dim f (W2 ) = nk + (nk−1 − nk ) = nk−1. Sia allora W3 un supplementare di f 2 (W1 ) ⊕ f (W2 ) ⊕ Ker f k−3 in Ker f k−2. Si noti che dimW3 = nk−2 − nk−1 e quindi W3 non è banale se e solo se nk−2 > nk−1 . Il passo successivo consiste nel provare che: (•) f f 2 (W1 ) ⊕ f (W2 ) ⊕ W3 ⊂ Ker f k−3 e la restrizione f f 2(W )⊕ f (W )⊕W è 1 2 3 iniettiva; (••) f 3 (W1 ) ⊕ f 2 (W2 ) ⊕ f (W3 ) ∩ Ker f k−4 = {0}.
56
2 Diagonalizzabilità e forme normali
Ciò si vede ragionando come prima. Di nuovo questo prova che nk−3 ≥ dim f 3 (W1 ) + dim f 2 (W2 ) + dim f (W3 ) = = nk + (nk−1 − nk ) + (nk−2 − nk−1 ) = nk−2. Proseguendo in tale maniera costruiamo dunque sottospazi W1 , W2 , . . ., Wk−1 di V con dimW1 = nk , dimW2 = nk−1 − nk , . . ., dimWk−1 = n2 − n3 (si tenga presente che, per j ≥ 2, W j non è banale se e solo se nk− j+1 − nk− j+2 > 0), tali che Ker f 2 = f k−2(W1 ) ⊕ f k−3(W2 ) ⊕ . . . ⊕ f (Wk−2) ⊕Wk−1 ⊕ Ker f . Ancora si prova che: ⎧ k−2 (W ) ⊕ . . . ⊕ f (W ⎪ 1 k−2) ⊕Wk−1 ⊂ Ker f , e che ⎨f f (•) ⎪ ⎩ f è iniettiva. f k−2 (W )⊕...⊕ f (W )⊕W 1
k−2
k−1
Allora n1 = dimKer f ≥ dim f k−1(W1 ) + dim f k−2 (W2 ) + . . .+ dim f (Wk−1) = = nk + (nk−1 − nk ) + . . .+ (n2 − n3 ) = n2 . C’è allora Wk supplementare di f k−1(W1 ) ⊕ . . . ⊕ f (Wk−1) in Ker f (non banale se e solo se n1 > n2 ). Dunque V può essere scritto nella forma seguente V = f k−1(W1 ) ⊕ f k−2(W1 ) ⊕ . . .⊕ f (W1 ) ⊕W1 ⊕ ⊕ f k−2(W2 ) ⊕ f k−3 (W2 ) ⊕ . . .⊕ f (W2 ) ⊕W2 ⊕ . . . ⊕ f (Wk−1) ⊕Wk−1 ⊕Wk . Si noti che se, per j ≥ 2, W j è banale allora la stringa f k− j(W j ) ⊕ f k− j−1(W j ) ⊕ . . .⊕ f (W j ) ⊕W j è pure banale, e quindi non appare nella decomposizione di V . Definito allora per j = 1, . . ., k, V j := f k− j (W j ) ⊕ f k− j−1(W j ) ⊕ . . .⊕ f (W j ) ⊕W j , si ha V = V1 ⊕V2 ⊕ . . .⊕Vk . Come viene ora fissata una base di Jordan per V ? Ovviamente, fissata una base v j per ciascun V j (non banale), si otterrà la base v = (v1 , v2 , . . ., vk ) di V.
2.7 Trasformazioni e matrici nilpotenti. Forma canonica di Jordan: I parte
57
Come si fissa allora ogni v j ? Si fissi una base (e1 j , e2 j , . . ., eν j j ) di W j (ν j = dimW j = nk− j+1 − nk− j+2), e si definisca la base v j := f k− j(e1 j ), f k− j−1(e1 j ), . . ., f (e1 j ), e1 j , f k− j (e2 j ), f k− j−1(e2 j ), . . ., f (e2 j ), e2 j , . . ., f k− j (eν j j ), f k− j−1(eν j j ), . . ., f (eν j j ), eν j j . Per concludere la prova del teorema si tratta ora di riconoscere che la matrice di f nella base v ha la struttura a blocchi enunciata in (iii). Osserviamo che per costruzione ogni V j è invariante per f (i.e. f (V j ) ⊂ V j ) e, in particolare, che f (Vk ) = f (Wk ) = {0}. Quindi la matrice di f nella base v è costituita dai blocchi dati dalle matrici delle restrizioni f V nelle basi v j di V j , 1 ≤ j ≤ k. j Ora, subito, se Vk non è banale, la matrice di f è la matrice nulla (n1 − n2 ) × Vk
(n1 − n2 ). Per ogni 1 ≤ j ≤ k − 1 (per cui V j non è banale), osserviamo che la matrice di f V è essa stessa costituita da ν j blocchi quadrati (k − j + 1) × (k − j + 1), ottenuti j considerando la restrizione di f a ciascun sottospazio di V j dato da Span{ f k− j(e j ), f k− j−1(e j ), . . ., f (e j ), e j }, = 1, . . ., ν j . È immediato ora riconoscere che la matrice di f ristretta a ciascuno di questi sottospazi è una matrice di Jordan Jk− j+1. Ciò conclude la prova.
Come esercizio calcoliamo ora le possibili forme canoniche di Jordan di una matrice 5 × 5 nilpotente A, a seconda dell’indice di nilpotenza k. • Caso k = 5. Poiché n1 + n2 + . . . + n5 = 5 e n1 ≥ n2 ≥ . . . ≥ n5 ≥ 1 ne consegue che n1 = n2 = . . . = n5 = 1, sicché la forma di Jordan di A è J5 . • Caso k = 4. Si ha n1 + n2 + n3 + n4 = 5 e n1 ≥ n2 ≥ n3 ≥ n4 ≥ 1. Dunque, necessariamente, n4 = n3 = n2 = 1 e n1 = 2, e quindi la forma di Jordan di A è J4 0 . 0 01×1 • Caso k = 3. Si ha n1 + n2 + n3 = 5 e n1 ≥ n2 ≥ n3 ≥ 1. Allora necessariamente n3 = 1 e quindi n1 + n2 = 4, con n1 ≥ n2 ≥ 1. Ci sono due possibilità: n1 = 3, n2 = 1, oppure n1 = n2 = 2. Da qui le corrispondenti forme J3 0 J3 0 , . 0 02×2 0 J2
58
2 Diagonalizzabilità e forme normali
• Caso k = 2. Si ha n1 + n2 = 5 e n1 ≥ n2 ≥ 1. Si hanno le seguenti possibilità: n2 = 1, n1 = 4, oppure n2 = 2, n1 = 3, da cui le corrispondenti forme
⎡ ⎤ J2 0 0 J2 0 , ⎣ 0 J2 0 ⎦ . 0 03×3 0 0 01×1
Il lettore è invitato a studiare il caso in cui A è 8 × 8.
2.8 Teorema di Hamilton-Cayley. Forma canonica di Jordan: II parte Dato V , spazio vettoriale su K con dimK V = n, e f : V −→ V lineare, sia L (V ) l’algebra delle trasformazioni lineari di V in sé. Consideriamo allora la mappa F : K[z] −→ L (V ), definita così: se q(z) = α0 + α1 z + α2 z2 + . . . + αr zr ∈ K[z] allora F(q) =: q( f ) = α0 1V + α1 f + α2 f 2 + . . .+ αr f r ∈ L (V ). È immediato verificare che F ha le proprietà seguenti: • F(q1 + q2 ) = F(q1 ) + F(q2 ), F(α q) = α F (q), ∀α ∈ K, ∀q, q1, q2 ∈ K[z]; • F(q1 q2 ) = F(q1 ) ◦ F(q2 ) = F(q2 ) ◦ F(q1 ) = F(q2 q1 ), ∀q1 , q2 ∈ K[z]; • F(1) = 1V (e dunque F(α ) = α 1V , ∀α ∈ K). Un’osservazione fondamentale è che F non è iniettiva. Ciò è conseguenza del fatto che K[z], come spazio vettoriale su K, ha dimensione infinita, mentre dimK L (V ) = n2 . Dunque l’insieme (2.67) JF := {q ∈ K[z]; F(q) = 0} è non banale e, per le proprietà precedenti di F, è un ideale di K[z]. Abbiamo intanto il seguente teorema fondamentale. Teorema 2.8.1 (Hamilton-Cayley). Il polinomio caratteristico p f di f appartiene a JF , i.e. p f ( f ) = 0. (2.68) Dimostrazione. Cominciamo col caso K = C. Per il Teorema 2.1.14, esiste una base v = (v1 , . . ., vn ) a ventaglio per f . Detta A = [a jk]1≤ j,k≤n la matrice di f nella base v, n
si ha che p f (z) = pA(z) = ∏ (a j j − z). Ne segue che j=1
p f ( f ) = (a11 1V − f ) ◦ (a22 1V − f ) ◦ . . .◦ (ann 1V − f ),
2.8 Teorema di Hamilton-Cayley. Forma canonica di Jordan: II parte
59
e, di più, se σ : {1, 2, . . ., n} −→ {1, 2, . . ., n} è una qualsiasi permutazione, allora si ha anche p f ( f ) = (aσ (1)σ (1) 1V − f ) ◦ (aσ (2)σ (2)1V − f ) ◦ . . .◦ (aσ (n)σ (n) 1V − f ). Possiamo perciò scrivere, senza pericolo di ambiguità, n
p f ( f ) = ∏ (a j j1V − f ). j=1
Ci basterà dunque provare che p f ( f )v j = 0, per 1 ≤ j ≤ n. Ora, f (v1 ) = a11 v1 , e quindi n p f ( f )v1 = ∏ (a j j 1V − f ) ◦ (a11 1V − f )v1 = 0. j=2
Ancora, f (v2 ) = a12 v1 + a22 v2 , e quindi (a11 1V − f ) ◦ (a221V − f )v2 = (a11 1V − f )(a12 v1 ) = 0, da cui p f ( f )v2 = 0. Iterando questo procedimento si ha l’asserto. Se K = R, poiché p f (z) = pC f (z), da quanto provato prima segue p f (C f ) = 0. Ma è banale riconoscere che per ogni q ∈ R[z] si ha C (q( f )) = q(C f ). Dunque C(p f ( f )) = 0 e quindi p f ( f ) = 0.
Si osservi in particolare che se A ∈ M(2; K), allora poiché pA (z) = z2 − Tr(A)z + det(A), si ha (2.69) A2 − Tr(A)A + det(A)I2 = 0. Il fatto che p f ∈ JF non implica che p f generi l’ideale JF . Si sa che esiste ed è unico un polinomio monico non nullo m f (z) = α0 + α1 z + . . . + αr−1 zr−1 + zr tale che JF = {qm f ; q ∈ K[z]}. Il polinomio m f si chiama polinomio minimo di f . Poiché dal teorema precedente m f è un divisore di p f , ne segue che r = deg(m f ) ≤ n = deg(p f ). Vedremo tra poco come si calcola esplicitamente m f . Il lemma seguente sarà utile. Lemma 2.8.2. Siano q1 , q2 ∈ K[z] due polinomi primi tra loro e tali che q1 q2 ∈ JF . Si ha allora che V = Ker F(q1 ) ⊕ Ker F(q2 ). Dimostrazione. Poiché q1 e q2 sono primi tra loro ne segue che per certi polinomi h1 , h2 ∈ K[z] si ha h1 (z)q1 (z) + h2 (z)q2 (z) = 1, ∀z.
60
2 Diagonalizzabilità e forme normali
Il fatto che Ker F(q1 ) ∩ Ker F(q2 ) = {0} è banale perché h1 ( f ) ◦ q1 ( f ) + h2 ( f ) ◦ q2( f ) = 1V . Dato ora v ∈ V si ha che h1 ( f ) q1 ( f )v ∈ Ker q2 (f ) in quanto q2 ( f ) ◦ q1 ( f ) è la mappa nulla per ipotesi. Per lo stesso motivo h2 ( f ) q2 ( f )v ∈ Ker q1 ( f ). Poiché v = h1 ( f ) q1 ( f )v + h2 ( f ) q2 ( f )v ,
si ha dunque la conclusione.
Poniamoci ora nel caso K = C, e siano λ1 , . . ., λk ∈ C gli autovalori distinti di f , con molteplicità algebriche m1 = ma (λ1 ), . . ., mk = ma (λk ). Poiché p f (z) =
k
k
∏(λ j − z)m j , dal Teorema 2.8.1 segue che ∏ (λ j 1V − f )m j = 0. j=1
Definiamo
j=1
V j := Ker (λ j 1V − f )m j , 1 ≤ j ≤ n,
(2.70)
che chiameremo autospazio generalizzato di f relativo all’autovalore λ j . È importante notare che Eλ j ⊂ Ker (λ j 1V − f )m j , 1 ≤ j ≤ n, e che per il Teorema 2.1.7 si ha uguaglianza se e solo se m j = mg (λ j ). k
Osserviamo ora che i due polinomi (λ1 −z)m1 e q1 (z) := ∏ (λ j − z)m j sono primi j=2
tra loro, e quindi per il Lemma 2.8.2 si ha intanto che V = V1 ⊕ Ker F(q1 ). Ora, Ker F(q1 ) è invariante per f , in quanto q1 ( f ) ◦ f = f ◦ q1 ( f ). Dunque f1 := f Ker F(q ) : Ker F(q1 ) −→ Ker F(q1 ), ed il suo polinomio caratteristico p f 1 (z) è pro1
k
k
j=2
j=3
prio q1 (z) := ∏ (λ j − z)m j . Poiché (λ2 − z)m2 e q2 (z) := ∏ (λ j − z)m j sono primi tra loro e q1 ( f 1 ) = 0, ancora dal Lemma 2.8.2 se ne deduce che Ker F(q1 ) = V1 ⊕ Ker F(q2 ). Procedendo in questo modo si conclude che (2.71) V = V1 ⊕V2 ⊕ . . .⊕Vk , dimV j = m j , 1 ≤ j ≤ k. Per la restrizione f V si ha che f V = λ j 1V j + g j , per una certa g j : V j −→ V j che j
m
j
per ipotesi verifica g j j = 0. Ora se m j = mg (λ j ), e solo in questo caso, si ha g j = 0, altrimenti g j = 0 è nilpotente con indice di nilpotenza ν j , 2 ≤ ν j ≤ m j . Applicando il Teorema 2.7.4 a ciascuna g j (nel caso non banale di nilpotenza), si conclude che c’è una base di V (detta base di Jordan) relativamente alla quale la matrice A di f ha la struttura a blocchi seguente:
2.8 Teorema di Hamilton-Cayley. Forma canonica di Jordan: II parte
⎡ ⎢ ⎢ A=⎢ ⎢ ⎣
λ1 Im1 + B1 0 0 λ2 Im2 + B2 . . .. .. 0 0
61
⎤
... ...
0 ⎥ 0 ⎥ ⎥, . ⎥ .. .. ⎦ . . . . λk Imk + Bk
(2.72)
dove B j = 0 se e solo se m j = mg (λ j ), mentre, quando m j > mg (λ j ), B j = 0 è nilpotente e ha la forma canonica prevista per g j dal Teorema 2.7.4. È naturale osservare che: • La struttura (2.72) è in perfetto accordo col Teorema 2.1.10 di diagonalizzabilità, nel senso che ogni B j = 0 se e solo se m j = mg (λ j ), j = 1, . . ., k. • Dalla (2.72) segue che il polinomio minimo m f (z) è dato da m f (z) = (−1)n ∏ (λ j − z) ∏ (λ j − z)ν j . m j =mg (λ j )
m j >mg (λ j )
Abbiamo in conclusione dimostrato il teorema seguente. Teorema 2.8.3. Data f : V −→ V lineare, con dimC V = n, siano λ1 , . . ., λk ∈ C gli autovalori distinti di f , con molteplicità algebrica m1 , . . ., mk . Allora: k V j , V j := Ker (λ j 1V − f )m j , dimC V j = m j , 1 ≤ j ≤ k; • V= j=1
• in ogni V j c’è una base v j tale che nella base complessiva v = (v1 , . . ., vk ) di V la matrice A di f ha la forma a blocchi (2.72), ove B j = 0m j ×m j se e solo se m j = mg (λ j ), mentre ogniqualvolta m j > mg (λ j ), B j non è nulla ed è nilpotente con la forma prescritta dal Teorema 2.7.4. Ci domandiamo ora cosa accade quando V è reale, cioè K = R. Come al solito, supponiamo che p f (z) abbia un certo numero k di radici reali distinte λ1 , . . ., λk (con molteplicità algebrica r1 , . . ., rk ), ed un certo numero h di coppie coniugate distinte di radici complesse, non reali, α1 ± iβ1 , . . ., αh ± iβh (con molteplicità algebrica 1 , . . ., h). Applicando il Teorema 2.8.3 a C f si ha: •
CV
=
k
Wj ⊕
(E j ⊕ E¯ j ), dove W j := Ker (λ j 1CV − C f )r j , con dimC W j =
h
j=1 j=1 r j , 1 ≤ j ≤ k, e dove E j = Ker ((α j + iβ j )1CV − C f ) j , con dimC E j = j , 1 ≤ j ≤ h; • in ogni W j , 1 ≤ j ≤ k, ed in ogni E j , 1 ≤ j ≤ h, c’è una base per cui nella base complessiva di CV la matrice A di C f ha la forma a blocchi seguente ⎤ ⎡ A0 0 . . . 0 ⎢ 0 A1 . . . 0 ⎥ ⎥ ⎢ ⎥ (2.73) A=⎢ ⎢ .. .. . . .. ⎥ , ⎣ . . . . ⎦ 0 0 . . . Ah
62
2 Diagonalizzabilità e forme normali
dove il blocco A0 ha a sua volta la struttura a blocchi r j × r j ⎡ ⎤ λ1 Ir1 + B1 . . . 0 ⎢ ⎥ .. .. ⎥, .. A0 = ⎢ ⎣ ⎦ . . . 0 . . . λk Irk + Bk ed i blocchi A j , 1 ≤ j ≤ h, hanno a loro volta la struttura a blocchi j × j (α j + β j )I j +C j 0 , Aj = 0 (α j − iβ j )I j +C j con B j = 0r j ×r j se e solo se r j = mg (λ j ), risp. C j = 0 j × j se e solo se j = mg (α j + iβ j ) = mg (α j − iβ j ), ed in tutti gli altri casi B j , risp. C j , sono matrici nilpotenti della forma prescritta dal Teorema 2.7.4. Poiché V=
k j=1
ReW j ⊕
h
Re(E j ⊕ E¯ j ),
j=1
partendo dalle basi sopra fissate si ottiene una base di V relativamente alla quale la matrice di f presenta i blocchi λ j Ir j +B j esattamente come in (2.73), mentre i blocchi (α j + iβ j )I j +C j 0 (2.74) 0 (α j − iβ j )I j +C j sono sostituiti da blocchi della forma ⎡ αj βj 0 ... 0 ⎢ −β j α j D j,1 ⎢ ⎢ αj βj ⎢ 0 D ... 0 ⎢ − β j α j j,2 ⎢ ⎢ .. .. .. .. ⎢ .. ⎢ . . . . . ⎢ ⎢ α β j j ⎢ 0 0 ... D j, j−1 ⎢ −β j α j ⎢ ⎣ αj βj 0 0 ... 0 −β j α j
⎤ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥, ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎦
(2.75)
con D j,1, D j,2, . . ., D j, j−1 blocchi 2 × 2 della forma seguente: • Se in (2.74) di α j + iβ j è seguita da un 1, allora il blocco corri un’occorrenza 10 αj βj . in (2.75) è seguito dal blocco D j,· = spondente 01 −β j α j • Se in (2.74) un’occorrenza di α j + iβ j è seguita da uno 0, allora il blocco 00 αj βj . corrispondente in (2.75) è seguito dal blocco D j,· = 00 −β j α j Lasciamo al lettore la verifica di queste proprietà e la formulazione di un enunciato analogo a quello del Teorema 2.8.3 nel caso K = R.
2.8 Teorema di Hamilton-Cayley. Forma canonica di Jordan: II parte
Ad esempio, se la matrice A di C f è del tipo ⎡ λ 1 02×3 02×3 ⎢0λ ⎢ ⎢ α + iβ 1 0 ⎢ ⎢ 03×2 α + i β 1 0 03×3 ⎢ ⎢ 0 0 α + i β ⎢ ⎢ α − iβ 1 0 ⎢ ⎣ 03×2 0 α − iβ 03×3 1 0 0 α − iβ con λ ∈ R e β = 0, allora la matrice di f è della forma ⎡ λ 1 02×6 ⎢0λ ⎢ ⎢ α β 10 ⎢ 02×2 ⎢ − β α 01 ⎢ ⎢ ⎢ 06×2 02×2 α β 1 0 ⎢ −β α 0 1 ⎢ ⎣ α β 02×2 02×2 −β α
⎤ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥. ⎥ ⎥ ⎥ ⎥ ⎦
⎤ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥, ⎥ ⎥ ⎥ ⎥ ⎦
63
3 Alcune applicazioni all’analisi matriciale
3.1 Funzioni di matrici e di trasformazioni lineari In tutta questa parte supporremo sempre K = C. Nella Sezione 2.3 abbiamo costruito F( f ) : V −→ V per una trasformazione lineare f : V −→ V che sia normale rispetto ad un fissato prodotto hermitiano su V , con F : Spec( f ) −→ C una assegnata funzione. In questa sezione ci proponiamo di costruire F( f ) per una qualsiasi trasformazione lineare f , restringendoci però ad F olomorfa in un intorno di Spec( f ) in C. Il punto di partenza è capire cosa succede nel caso delle matrici. Su M(n; C) considereremo, come già fatto in precedenza, la topologia definita 2 dalla norma euclidea di Cn nel modo seguente: se A = [a jk]1≤ j,k≤n ∈ M(n; C), ||A|| :=
n
∑
|a jk|2
1/2
.
(3.1)
j,k=1
Osserviamo che in questo modo si ha dist(A, B) = ||A−B|| e, come conseguenza della disuguaglianza di Cauchy-Schwarz, ||AB|| ≤ ||A|| ||B||, ∀A, B ∈ M(n; C). Il seguente teorema stabilisce una relazione tra le possibili norme su M(n; C) e lo spettro di una matrice A ∈ M(n; C), pensata come mappa lineare di Cn in sé, cioè p−1 A (0). Teorema 3.1.1. Data una qualunque norma A −→ | A|| in M(n; C) soddisfacente la condizione | AB|| ≤ |A|| | B|| , ∀A, B ∈ M(n; C), si hanno i fatti che seguono. Parenti C., Parmeggiani A.: Algebra lineare ed equazioni differenziali ordinarie. c Springer-Verlag Italia 2010, Milano
(3.2)
66
3 Alcune applicazioni all’analisi matriciale
(i) Esiste il limite lim | A j | 1/ j ≤ | A|| .
j→+∞
Tale limite è indipendente dalla norma | · | fissata soddisfacente (3.2), verrà indicato con r(A) e chiamato il raggio spettrale di A. (ii) Se λ ∈ C con |λ | > r(A), allora λ In − A è invertibile e (λ In − A)−1 =
∞
1
∑ λ h+1 Ah
(A0 = In ),
h=0
con convergenza rispetto ad ogni norma scelta. (iii) Si ha r(A) = max{|λ |; λ ∈ C, pA (λ ) = 0}. Dimostrazione. Proviamo (i). Ovviamente si ha 0 ≤ | A j | 1/ j ≤ | A|| , ∀ j ≥ 1. Posto t := inf{||A j| 1/ j ; j ≥ 1}, ci basterà provare che lim sup | A j | 1/ j ≤ t. Dato ε > 0, j→+∞
| Am| 1/m
sia m ∈ N tale che ≤ t + ε . Ora, ogni j > m si scrive come j = hm + , con h ≥ 1 e 0 ≤ ≤ m − 1, sicché |A j | = |Ahm A| ≤ |Am |h |A|| , e quindi hm/ j | A|| / j ≤ (t + ε )hm/ j | A|| / j . | A j| 1/ j ≤ | Am| h/ j| A|| / j = | Am| 1/m Se j → +∞ allora hm/ j → 1 e / j → 0, sicché lim sup| A j| 1/ j ≤ t + ε , j→+∞
il che prova, per l’arbitrarietà di ε , quanto si voleva. Ricordiamo ora che, siccome M(n; C) è di dimensione finita, se | · |1 e | · | 2 sono due norme su M(n; C), esiste allora c > 0 per cui 1 | A|| ≤ | A|| 2 ≤ c|| A|| 1 , ∀A ∈ M(n; C). c 1 Dunque se | · |1 e | · | 2 verificano entrambe la condizione (3.2), 1/ j
1/ j
lim | A j | 1 = lim | A j | 2 ,
j→+∞
j→+∞
e quindi r(A) non dipende dalla scelta della norma su M(n; C) (soddisfacente (3.2)).
3.1 Funzioni di matrici e di trasformazioni lineari
67
Proviamo ora (ii). Sia ε > 0 tale che |λ | ≥ r(A) + ε . Allora avremo | Ah| 1/h ≤ r(A) + ε /2, per tutti gli h sufficientemente grandi. Ne segue che per tali h avremo r(A) + ε /2 h 1 (r(A) + ε /2)h 1 | Ah| ≤ = , h+1 h+1 |λ | (r(A) + ε ) r(A) + ε r(A) + ε il che prova la convergenza in norma | · | della serie. Poiché N
1 1 h A = In − N+1 AN+1 −→ In , per N → +∞, h+1 λ λ h=0
(λ In − A) ∑
si ha la tesi. Proviamo infine (iii). Poiché λ In − A è invertibile quando |λ | > r(A), ne segue che L := max |λ | ≤ r(A). pA (λ )=0
D’altra parte λ In − A è pure invertibile se |λ | > L e la funzione λ −→ (λ In − A)−1 è olomorfa (cioè ogni elemento della matrice (λ In −A)−1 è olomorfo) per |λ | > L. Poi∞ 1 ché per |λ | > r(A) si ha (λ In − A)−1 = ∑ h+1 Ah , per l’unicità del prolungamento h=0 λ analitico tale identità è vera per |λ | > L, sicché deve essere | Ah| −→ 0 per h → +∞ |λ |h+1 quando |λ | > L. Quindi per ogni ε > 0 si avrà, scegliendo |λ | = L + ε , h+1 | Ah| < L + ε per tutti gli h abbastanza grandi. Dunque 1/ j lim | A j| ≤ L + ε ,
j→+∞
e, per l’arbitrarieà di ε , r(A) ≤ L, da cui la tesi.
Sia data ora una funzione
ψ : Ω ⊂ C −→ M(n; C), dove Ω è un aperto non vuoto di C. Supponiamo che ψ sia continua, nel senso che λ → λ0 in Ω implica ||ψ (λ ) − ψ (λ0 )|| → 0. È immediato dalla (3.1) che, scritta ψ (λ ) = [ψ jk (λ )]1≤ j,k≤n, la continuità di ψ equivale alla continuità di tutte le singole funzioni ψ jk : Ω −→ C.
68
3 Alcune applicazioni all’analisi matriciale
Fig. 3.1. Il circuito γ
D’ora innanzi diremo che γ ⊂ C è un circuito se γ è il sostegno di una curva regolare a tratti, semplice e chiusa di C, orientata in senso antiorario. È noto (Teorema di Jordan) che ogni circuito γ decompone C nella forma C = U+ (γ )∪ γ ∪U− (γ ), dove U±(γ ) sono aperti connessi non vuoti di C con frontiera comune γ , U+ (γ ) essendo la componente limitata di C \ γ (“interna” a γ ), e U− (γ ) la componente illimitata di C \ γ (“esterna” a γ ). Data allora ψ : Ω ⊂ C −→ M(n; C) continua e dato un circuito γ ⊂ Ω , resta definita la matrice # 1 # 1 ψ (λ )d λ := ψ jk (λ )d λ . (3.3) 2π i γ 2π i γ 1≤ j,k≤n Il lemma seguente è fondamentale. Lemma 3.1.2. Sia A ∈ M(n; C). Siano μ1 , . . ., μk ∈ C gli autovalori distinti di A con molteplicità algebrica m1 , . . ., mk , e sia Cn =
k
W j , W j = Ker (μ j In − A)m j
(3.4)
j=1
la decomposizione di Cn data dal Teorema 2.8.3. Sia γ ⊂ C un circuito tale che
μ j ∈ γ , j = 1, . . ., k.
(3.5)
Dunque la mappa, detta risolvente di A, C \ {μ1, . . ., μk } λ −→ (λ In − A)−1 ∈ M(n; C) è ben definita e continua. Posto allora # 1 (λ In − A)−1 d λ , Pγ (A) := 2π i γ
(3.6)
3.1 Funzioni di matrici e di trasformazioni lineari
si ha che Pγ (A) è la matrice proiezione di Cn su
69
W j . In particolare si ha
j; μ j ∈U+ (γ )
che Pγ (A) = 0n×n se { μ1 , . . ., μk } ⊂ U− (γ ), e Pγ (A) = In se { μ1 , . . ., μk } ⊂ U+ (γ ). Dimostrazione. In accordo con il Teorema 2.8.3 si fissi una base di Jordan v j in ciascun W j , e sia v = (v1 , . . ., vk ) la risultante base complessiva di Cn . Se T ∈ GL(n; C) è la matrice le cui colonne sono i vettori della base v, allora T −1 AT = Λ , dove Λ ha la forma a blocchi ⎡ ⎤ Λ1 0 . . . 0 ⎢ 0 Λ ... 0 ⎥ 2 ⎢ ⎥ ⎢ ⎥ Λ = ⎢ . . . . ⎥, ⎢ .. .. . . .. ⎥ ⎣ ⎦ 0 0 . . . Λk dove ogni blocco Λ j ∈ M(m j ; C) è della forma Λ j = μ j Im j + B j , con B j = 0m j ×m j se m j = mg (μ j ), ovvero con B j nilpotente con la struttura prevista dal Teorema 2.7.4 se m j > mg (μ j ). Ne segue che per λ ∈ γ , (λ In − A)−1 = T (λ In − Λ )−1 T −1 , ⎡
e
⎢ ⎢ ⎢ −1 (λ In − Λ ) = ⎢ ⎢ ⎢ ⎣
(λ Im1 − Λ1 )−1 0 . . .
...
0
(λ Im2 − Λ2 )−1 . . . . .. . . .
0 . . .
0
0
0
. . . (λ Imk − Λk )−1
⎤ ⎥ ⎥ ⎥ ⎥. ⎥ ⎥ ⎦
Occorre dunque calcolare (λ Im j − Λ j )−1 , 1 ≤ j ≤ k. Abbiamo due casi possibili. (i) B j = 0, e quindi Λ j = μ j Im j . In tal caso (λ Im j − Λ j )−1 =
1 Im . λ − μj j
(ii) B j = 0 e nilpotente. In tal caso B j ha a sua volta una struttura a blocchi, con blocchi del tipo J oppure 0×, per opportuni . In corrispondenza, Λ j ha una struttura a blocchi del tipo μ j I + J oppure μ j I . Allora (λ Im j − Λ j )−1 ha la medesima suddivisione a blocchi del tipo −1 1 oppure I. (λ − μ j )I − J λ − μj Nel primo caso è immediato verificare che −1 = (λ − μ j )I − J =
1 1 1 1 I + J + J2 + . . . + J −1 . λ − μ j (λ − μ j )2 (λ − μ j )3 (λ − μ j )
(3.7)
70
3 Alcune applicazioni all’analisi matriciale
A questo punto possiamo calcolare facilmente Pγ (Λ ) =
1 2π i
#
γ
(λ In − Λ )−1 d λ ,
che risulta avere la struttura a blocchi ⎡ Pγ (Λ1 ) 0 ⎢ 0 Pγ (Λ2 ) ⎢ Pγ (Λ ) = ⎢ . ⎢ .. .. ⎣ . 0 0
⎤ 0 0 ⎥ ⎥ ⎥. . .. .. ⎥ ⎦ . . . . Pγ (Λk )
... ...
Nel caso (i) si ha
⎧ ⎨ 0, se μ j ∈ U+ (γ ) 1 # 1 Pγ (Λ j ) = d λ Im j = ⎩ 2π i γ λ − μ j Im j , se μ j ∈ U+(γ ). 1 I si ha λ − μj ⎧ ⎨ 0, se μ j ∈ U+ (γ ) 1 # 1 d λ I = ⎩ 2π i γ λ − μ j I , se μ j ∈ U+ (γ ),
Nel caso (ii), per gli eventuali blocchi
−1 e per i blocchi (λ − μ j )I − J si ha 1 2π i
# γ
(λ − μ j )I − J
−1
dλ =
$ # % −1 # 1 1 1 h = d λ I + ∑ d λ J = h+1 2π i γ λ − μj h=1 γ (λ − μ j ) ⎧ ⎨ 0, se μ j ∈ U+ (γ ) 1 # 1 = d λ I = ⎩ 2π i γ λ − μ j I , se μ j ∈ U+(γ ).
In conclusione, i blocchi di Pγ (Λ ) sono Im j se μ j ∈ U+ (γ ) e 0m j ×m j se μ j ∈ U+ (γ ). Poiché Pγ (Λ )2 = Pγ (Λ ), la stessa proprietà vale per Pγ (A) = T Pγ (Λ )T −1 , sicché Pγ (A) è una matrice proiezione. Resta da vedere qual è Im Pγ (A). Ogni ξ ∈ Cn si scrive univocamente come ξ = ξ1 + ξ2 + . . .+ ξk , con ξ j ∈ W j (1 ≤ j ≤ k), e quindi Pγ (A)ξ = T Pγ (Λ )(T −1 ξ ) = T sicché ImPγ (A) =
j; μ j ∈U+ (γ )
∑
j; μ j ∈U+ (γ )
T −1 ξ j =
∑
ξj,
j; μ j ∈U+ (γ )
W j . Ciò conclude la dimostrazione.
3.1 Funzioni di matrici e di trasformazioni lineari
71
D’ora innanzi se Ω ⊂ C è un aperto (non vuoto), con O(Ω ) indicheremo l’insieme delle funzioni olomorfe su Ω . Definizione 3.1.3. Sia data A ∈ M(n; C) con autovalori distinti μ1 , . . ., μk ∈ C, e sia data F ∈ O(Ω ), con Ω ⊃ {μ1 , . . ., μk }. Preso un circuito γ ⊂ Ω tale che μ1 , . . ., μk ∈ U+(γ ), definiamo # 1 Fγ (A) := F(λ )(λ In − A)−1 d λ . (3.8) 2π i γ La matrice Fγ (A) in realtà non dipende dalla scelta di γ , fermo restando che { μ1 , . . ., μk } ⊂ U+ (γ ). Vale infatti il lemma seguente. Lemma 3.1.4. Se F ∈ O(Ω ) e γ1 , γ2 ⊂ Ω sono circuiti tali che { μ1 , . . ., μk } ⊂ U+ (γ1 ) ∩ U+(γ2 ) ∩ Ω , allora Fγ1 (A) = Fγ2 (A). Dimostrazione. Ci basta provare il lemma quando A è nella forma canonica di Jordan data dal Teorema 2.8.3. Infatti, se A non è in forma di Jordan, c’è allora una matrice T ∈ GL(n; C) tale che B := T −1 AT è in forma di Jordan. Poiché (λ In − B)−1 = T −1 (λ In − A)−1 T , ne segue che Fγ (B) = T −1 Fγ (A)T , e quindi se facciamo vedere che Fγ1 (B) = Fγ2 (B) avremo la tesi. Possiamo dunque supporre che A sia in forma diagonale a blocchi, con blocchi del tipo μ I ovvero μ I + J , con μ ∈ {μ1 , . . ., μk } e per un certo 1 ≤ ≤ ma (μ ). Ci basta dunque calcolare Fγ (μ I ) e Fγ (μ I + J ), che costituiscono i blocchi di Fγ (A). Ora, per il Teorema di Cauchy si ha 1 # 1 F(λ ) d λ I = F(μ )I . Fγ (μ I ) = 2π i γ λ −μ Nell’altro caso, dalla (3.7) si ha −1 λ In − (μ In + J ) =
1 1 1 I + J +...+ J −1 , λ − μ (λ − μ )2 (λ − μ )
e dunque
$ # % −1 # 1 F(λ ) F(λ ) h d λ I + ∑ d λ J . Fγ (μ I + J ) = h+1 2π i γ λ −μ h=1 γ (λ − μ )
Dal Teorema dei Residui si ha che per p = 1, 2, . . ., # 1 d p−1 1 F(λ ) 1 F (p−1) (μ ), d λ = F = 2π i γ (λ − μ ) p (p − 1)! d λ λ =μ (p − 1)! e quindi Fγ (μ I + J ) = Ciò conclude la prova.
−1
F (h) (μ ) h J , dove J0 = I . h! h=0
∑
72
3 Alcune applicazioni all’analisi matriciale
Il lemma precedente consente, ogniqualvolta F ∈ O(Ω ) e { μ1 , . . ., μk } ⊂ Ω , di definire F(A) := Fγ (A) dove γ ⊂ Ω è un qualsiasi circuito tale che {μ1 , . . ., μk } ⊂ U+(γ ). Le principali proprietà della costruzione A −→ F(A) sono espresse dal teorema seguente. Teorema 3.1.5. Dato Ω ⊂ C aperto con {μ1 , . . ., μk } ⊂ Ω valgono le seguenti proprietà. (i) Se F ∈ O(Ω ) allora Spec(F(A)) = {F(μ j ); j = 1, . . ., k} e k
det F(A) = ∏ F(μ j )m j . j=1
(ii) Se {Fj } j≥1 ⊂ O(Ω ) è una successione uniformemente convergente sui compatti di Ω ad F ∈ O(Ω ), allora ||Fj (A) − F(A)|| −→ 0 per j → +∞. In particolare se su Ω si ha F(λ ) = serie sui compatti di Ω , allora
∞
∑ α λ , con convergenza uniforme della
=0
F(A) =
∞
∑ α A ,
=0
con convergenza in M(n; C). (iii) Se F, G ∈ O(Ω ), allora F(A)G(A) = G(A)F(A) = (FG)(A). In particolare, se F ∈ O(Ω ) non ha zeri in Ω , allora 1 (A) = 1(A) = In , F(A) F cioè F(A) è invertibile e F(A)−1 = (1/F)(A). (iv) Se F ∈ O(Ω ), allora F(A) commuta con ogni matrice che commuta con A.
3.1 Funzioni di matrici e di trasformazioni lineari
73
(v) Data F ∈ O(Ω ) si ha che ˜ ∗ ), F(A)∗ = F(A dove F˜ ∈ O(Ω¯ ) (con Ω¯ = {¯z ∈ C; z ∈ Ω } il “coniugato” di Ω ) è così definita: ˜ λ ) := F(λ¯ ), λ ∈ Ω¯ . F(
In particolare, se { μ1 , . . ., μk } ⊂ R, F ∈ O(Ω ) con Ω = Ω¯ , e F Ω ∩R è reale, allora F(A)∗ = F(A∗ ), e dunque se A = A∗ allora F(A)∗ = F(A). Dimostrazione. La prova di (i) viene lasciata al lettore (suggerimento: si parta dal caso in cui A è in forma canonica di Jordan). Proviamo (ii). Scelto γ ⊂ Ω con {μ1 , . . ., μk } ⊂ U+ (γ ), sia L(γ ) la lunghezza di γ . Poiché ||Fj,γ (A) − Fγ (A)|| ≤
1 L(γ ) max |Fj (λ ) − F(λ )| max ||(λ In − A)−1 ||, 2π λ ∈γ λ ∈γ
la tesi segue immediatamente. Proviamo ora (iii). Scegliamo due circuiti γ1 , γ2 ⊂ Ω con { μ1 , . . ., μk } ⊂ U+(γ1 ) ⊂ U+ (γ1 ) ∪ γ1 ⊂ U+(γ2 ), e scriviamo F(A)G(A) = Fγ1 (A)Gγ2 (A) = =
1 2 # # F(λ )(λ In − A)−1 G(ζ )(ζ In − A)−1 d λ d ζ . 2π i γ1 γ2
(3.9)
Utilizziamo ora l’identità del risolvente (valida per ogni λ , ζ ∈ { μ1 , . . ., μk } con λ = ζ ) la cui prova viene lasciata al lettore: (λ In − A)−1 (ζ In − A)−1 =
1 (λ In − A)−1 − (ζ In − A)−1 . ζ −λ
(3.10)
Utilizzando (3.10) in (3.9) si ha # 1 # G(ζ ) 1 F(A)G(A) = F(λ ) d ζ (λ In − A)−1 d λ + 2π i γ 1 2π i γ 2 ζ − λ − Poiché
1 2π i
# γ2
1 2π i
#
1 # F(λ ) G(ζ ) d λ (ζ In − A)−1 d ζ . 2π i γ 1 ζ − λ γ2
G(ζ ) d ζ = G(λ ), essendo λ ∈ U+ (γ2 ), ζ −λ
74
3 Alcune applicazioni all’analisi matriciale
e
#
1 2π i
γ1
F(λ ) d λ = 0, essendo ζ ∈ U− (γ1 ), λ −ζ
si ha in conclusione che F(A)G(A) =
1 2π i
# γ1
F(λ )G(λ )(λ In − A)−1 d λ = (FG)(A),
il che termina la prova di (iii). Proviamo (iv). Se [A, B] = 0 allora anche [(λ In − A)−1 , B] = 0, per ogni λ ∈ { μ1 , . . ., μk }, e dunque [F(A), B] = 0. Proviamo infine (v). Sia F(A) =
1 2π i
# γ
F(λ )(λ In − A)−1 d λ .
Senza minore generalità possiamo supporre che γ sia parametrizzata dalla funzione [−a, a] t −→ λ (t) ∈ Ω (con a > 0), sicché F(A) =
1 2π i
& a −a
−1 F(λ (t)) λ (t)In − A λ (t)dt.
Dati ora due vettori qualsiasi u, v ∈ Cn , e detto ·, · il prodotto hermitiano canonico di Cn , si ha −1 & a −1 F(λ (t)) λ (t)In − A∗ λ (t)dt v . F(A)u, v = u, 2π i −a Posto [−a, a] s −→ μ (s) := λ (−s), si ha che questa è una parametrizzazione in senso antiorario di γ¯, che denotiamo γ¯+ , e si ha che 1 & a −1 F(μ (s)) μ (s)In − A∗ μ (s)ds v = F(A)u, v = u, 2π i −a 1 & ˜ μ )(μ In − A∗ )−1 d μ v = u, F(A ˜ ∗ )v, = u, F( 2π i γ¯ + da cui la tesi per l’arbitrarietà di u e v. La seconda parte di (v) è ora ovvia, tenuto conto del fatto che in questo caso necessariamente F˜ = F. Ciò termina la dimostrazione del teorema.
Osservazione 3.1.6. È conveniente osservare i fatti seguenti. • A proposito del punto (ii) del teorema precedente, si osservi che una condizione ∞
sufficiente affinché una serie di potenze
∑ α λ definisca una funzione olomorfa
=0
su un intorno dell’insieme degli zeri di pA (z) è che per il raggio di convergenza r della serie si abbia r > ||A||.
3.1 Funzioni di matrici e di trasformazioni lineari
75
• Se A è una matrice normale, i.e. AA∗ = A∗ A, sappiamo che A si scrive come A=
k
∑ μ j Pj , j=1
dove Pj sono le matrici proiezione ortogonale sui Ker ( μ j In − A). A suo tempo, per una qualunque mappa F : {μ1 , . . ., μk } −→ C, abbiamo definito F(A) = k
∑ F(μ j )Pj . È il caso di osservare che se F ∈ O(Ω ) con {μ1 , . . ., μk} ⊂ Ω , le j=1
due definizioni di F(A) coincidono. Infatti, preso γ come al solito, per λ ∈ γ (λ In − A)−1 =
k
1
∑ λ − μ j Pj , j=1
e quindi Fγ (A) =
1 # F(λ ) ∑ 2π i γ λ − μ j d λ Pj = j=1 k
• L’identità (ζ In − A)−1 =
∞
k
∑ F(μ j )Pj . j=1
1
∑ ζ h+1 Ah ,
h=0
valida per ogni ζ ∈ C con |ζ | > ||A||, può essere riottenuta come F(A), scegliendo 1 F(λ ) = ∈ O(C \ {ζ }). ζ −λ • Se A = A∗ > 0, sappiamo che esiste un’unica matrice B = B∗ > 0 tale che B2 = A. Abbiamo chiamato B la radica quadrata (positiva) di A, cioè B = A1/2 . La costruzione di una radice quadrata di A può essere fatta in ipotesi più generali. Ricordiamo che la funzione ˜ := {λ = ρ eiθ ; ρ > 0, −π < θ < π } λ −→ λ 1/2 = √ρ eiθ /2 C ˜ Dunque se { μ1 , . . ., μk } ⊂ C ˜ possiamo definire (con γ ⊂ C ˜ e è olomorfa su C. {μ1 , . . ., μk } ⊂ U+ (γ )) A1/2 =
1 2π i
#
γ
λ 1/2 (λ In − A)−1 d λ .
Da (iii) del Teorema 3.1.5 segue che (A1/2 )2 = A, e se A = A∗ =
k
∑ μ j Pj con j=1
μ j > 0, allora A1/2 =
k
∑
√
μ j Pj .
j=1
˜ Poiché, È interessante osservare il caso esplicito in cui A = μ In + Jn , con μ ∈ C. come già sappiamo, (λ In − A)−1 =
n−1 1 1 In + ∑ Jh , h+1 n λ −μ ( λ − μ ) h=1
76
3 Alcune applicazioni all’analisi matriciale 1/2
A
$ # % n−1# λ 1/2 1 λ 1/2 h = d λ In + ∑ d λ Jn . h+1 2π i γ λ −μ h=1 γ (λ − μ )
Ora, per p = 1, 2, . . ., 1 2π i
# γ
d p−1 1 λ 1/2 1/2 d λ = λ , (λ − μ ) p (p − 1)! d λ λ =μ
e quindi A1/2 = μ 1/2 In +
1 1 d n−1 1/2 Jn + . . . + λ Jnn−1 . 1/2 (n − 1)! d λ λ =μ 2μ
Più in generale, se definiamo ˜ λ = ρ eiθ −→ F(λ ) = ln ρ + iθ , C ˜ resta definita la matrice ln A e dunque ˜ e, se { μ1 , . . ., μk } ⊂ C, allora F ∈ O(C), anche, per ogni α ∈ C, la matrice Aα = G(A), con G(λ ) = λ α := eα ln λ . • Un caso particolarmente importante, come vedremo, si ha prendendo F(λ ) = eλ , λ ∈ C. In tal caso si ottiene la matrice eA , detta la matrice esponenziale di A. Dal Teorema 3.1.5 si ottengono immediatamente le proprietà seguenti: (i) eA ∈ GL(n; C) con (eA )−1 = e−A ; (ii) p−1 (0) = {eμ j ; 1 ≤ j ≤ k} e eA k
k
det(eA ) = ∏ (eμ j )m j = e∑ j=1
m jμj
= eTr(A) ;
j=1
(iii) si ha eA = In +
1 1 A + A2 + . . . = 1! 2!
∞
∑
j=0
1 j A, j!
∗ eA ;
(eA )∗
e quindi, anche, = (iv) se A = μ In + Jn , μ ∈ C, allora 1 1 1 eA = eμ In + Jn + Jn2 + . . .+ Jnn−1 . 1! 2! (n − 1)! Un’ulteriore importante proprietà dell’esponenziale è la seguente. Se A, B ∈ M(n; C) e [A, B] = 0, allora eA+B = eA eB = eB eA . Dimostrazione. eA+B =
∞
∑
j=0
1 (A + B) j . Se [A, B] = 0 vale per (A + B) j l’usuale j!
formula del binomio, cioè
' ( j (A + B) = ∑ A j−hBh , h h=0 j
j
e quindi l’usuale prova che ea+b = ea eb quando a, b ∈ C può essere ripetuta verbatim per concludere la tesi.
3.2 Equazioni matriciali. Crescita del risolvente
77
Lemma 3.1.7. La mappa M(n; C) B −→ eB ∈ GL(n; C) è suriettiva. Dimostrazione (del lemma). Sia data S ∈ GL(n; C). Se iθ ˜ p−1 S (0) ⊂ C = {λ ∈ C; λ = ρ e , ρ > 0, θ ∈ (−π , π )},
˜ e poiché eF (λ ) = λ per ogni giacché la funzione F(λ ) := ln ρ + iθ è olomorfa in C ˜ λ ∈ C, dal Teorema 3.1.5 si ha F(S) ∈ M(n; C), e eF (S) = S. Se invece pS (z) = 0 ha radici reali negative, si fissi μ ∈ R in modo tale che per la ˜ ˜ Poiché allora eF (S) (0) ⊂ C. = S˜ = ei μ S, ne segue che matrice ei μ S =: S˜ si abbia p−1 S˜ e−i μ In +F(S) = S. ˜
Finora abbiamo considerato F(A) per una matrice A. Facciamo vedere ora come sia possibile, data f : V −→ V lineare e dimC V = n, definire F( f ) : V −→ V lineare quando F ∈ O(Ω ) con Ω ⊃ Spec( f ). In quest’ambito il modo più “economico” di procedere è il seguente. Fissata una qualunque base v = (v1 , . . ., vn ) di V , e detta A ∈ M(n; C) la matrice di f in tale base, poiché Spec( f ) = {λ ∈ C; pA (λ ) = 0}, definiamo F( f ) : V −→ V ponendo n n n F( f ) v = ∑ ξ j v j := ∑ ∑ F(A)k j ξ j vk , j=1
k=1 j=1
cioè F( f ) è la trasformazione lineare da V in sé la cui matrice nella base v è F(A). Questa definizione è del tutto coerente perché se B è la matrice di f rispetto ad un’altra base w di V , allora B = T −1 AT per una ben determinata T ∈ GL(n; C), e dunque F(B) = T −1 F(A)T.
3.2 Equazioni matriciali. Crescita del risolvente Vediamo ora alcune applicazioni significative delle tecniche sviluppate in questa sezione. Il primo problema che vogliamo studiare è il seguente. Date due matrice A, B ∈ M(n; C) (il caso n ≥ 2 è quello significativo!) si considera la mappa lineare M(n; C) X −→ f (X) := AX + XB ∈ M(n; C).
(3.11)
Ci si domanda sotto quali condizioni (su A e B) questa mappa è invertibile e, qualora lo sia, come si può scriverne esplicitamente l’inversa.
78
3 Alcune applicazioni all’analisi matriciale
Si ha il risultato seguente. Teorema 3.2.1. Valgono: −1 (i) f è invertibile se e solo se p−1 / B (0) ∩ p−A (0) = 0; (ii) se f è invertibile allora per ogni Y ∈ M(n; C)
f −1 (Y ) =
1 2π i
# γB
1 =− 2π i
(λ In + A)−1Y (λ In − B)−1 d λ = (3.12)
#
−1
γA
−1
(λ In + A) Y (λ In − B)
dλ ,
dove γB (risp. γA) è un qualunque circuito in C tale che p−1 B (0) ⊂ U+ (γB ) e −1 −1 p−1 (0) ⊂ U ( γ ) (risp. p (0) ⊂ U ( γ ) e p (0) ⊂ U ( γ )); − B + A − A −A −A B (0) ⊂ { λ ∈ C; Re λ > 0}, allora se Y = Y ∗ > 0 ne segue (iii) se B = A∗ e p−1 A −1 −1 ∗ f (Y ) = f (Y ) > 0. Dimostrazione. Cominciamo da (i). Poiché M(n; C) ha dimensione finita, basta stu−1 diare l’iniettività di f . Proviamo come prima cosa che se p−1 / allora B (0) ∩ p−A (0) = 0 f è iniettiva, i.e. AX + XB = 0 =⇒ X = 0. Scriviamo Cn =
Ker (B − λ In )mλ ,
λ ∈p−1 B (0)
dove mλ è la molteplicità algebrica di λ . Ora, se AX + XB = 0 ne segue che per ogni λ ∈ p−1 B (0) si ha X(B − λ In )mλ = (−1)mλ (A + λ In )mλ X. Quindi se ζ ∈ Ker (B − λ In )mλ si ha (A + λ In )mλ X ζ = 0, e poiché per ipotesi A + λ In è invertibile, si ha anche X ζ = 0. Allora X : Cn −→ Cn è nulla su ciascun autospazio generalizzato di B, e dunque X = 0. −1 Viceversa, proviamo che se p−1 / allora f non è iniettiva, cioè B (0) ∩ p−A (0) = 0 esiste X = 0 tale che AX + XB = 0. Osserviamo preliminarmente che si può suppore che B sia in forma canonica di Jordan. Infatti, se così non fosse, consideriamo T ∈ GL(n; C) tale che B = T DT −1 con D in forma canonica di Jordan. Allora AX + XB = 0 ⇐⇒ AZ + ZD = 0, dove Z = XT, e dunque X = 0 se e solo se Z = 0. −1 n n Fissiamo λ ∈ p−1 per cominB (0)∩ p−A(0) e definiamo X: C −→ C imponendo, mμ Ker (B − μ In ) . Occorre ora definire ciare, che sia X ζ = 0 per ogni ζ ∈ μ ∈p−1 B (0) μ =λ
X ζ quando ζ ∈ Ker (B − λ In )mλ . Distinguiamo due casi:
3.2 Equazioni matriciali. Crescita del risolvente
79
• mλ = mg (λ ). In tal caso, detta (v1 , . . ., vmλ ) una base di Ker (B − λ In )mλ , si ha AXv j + XBv j = (A + λ In )Xv j , 1 ≤ j ≤ mλ . Per avere AXv j + XBv j = 0, 1 ≤ j ≤ mλ , basta allora definire Xv j = 0 per j = 2, . . ., mλ , ed imporre che Xv1 sia un autovettore di −A corrispondente a λ . • mλ > mg (λ ). In tal caso B ha una struttura a blocchi e tra questi c’è certamente un blocco del tipo λ I + J , dove ≥ 2 è l’indice di nilpotenza di B − λ In . Definiamo allora X nulla sui nuclei degli altri blocchi, mentre sul nucleo di λ I + J procediamo così: presi v1 , . . ., v non nulli tali che Bv1 = λ v1 , Bv2 = λ v2 + v1 , . . ., Bv = λ v + v−1 , definiamo Xv j = 0 per j = 1, . . ., − 1, e Xv essere un qualunque autovettore di −A corrispondente a λ . Ne segue che AXv j + XBv j = 0 per j = 1, . . ., . In entrambi i casi abbiamo dunque costruito una matrice X non nulla che manda Ker (B − λ In )mλ in Ker(A + λ In ), il che conclude la prova di (i). Proviamo ora la (ii), cioè la (3.12). Data Y ∈ M(n; C) e posto X :=
1 2π i
# γB
(λ In + A)−1Y (λ In − B)−1 d λ ∈ M(n; C),
dimostriamo che AX + XB = Y. Ora XB = =
1 2π i
# γB
(λ In + A)−1Y (λ In − B)−1 (B − λ In + λ In )d λ =
−1 #
# 1 (λ In + A)−1 d λ Y + λ (λ In + A)−1Y (λ In − B)−1 d λ , 2π i γB 2π i γ B =0
e AX = =Y
1 2π i
# γB
(A + λ In − λ In )(λ In + A)−1Y (λ In − B)−1 d λ =
1 # 1 # (λ In − B)−1 d λ − λ (λ In + A)−1Y (λ In − B)−1 d λ , 2 π i γB 2π i γ B =In
e dunque, sommando, si ha la tesi. Lasciamo al lettore la verifica della seconda identità in (3.12). Proviamo infine il punto (iii). Osserviamo subito che se B = A∗ la condizione −1 p−A(0)∩ p−1 / equivale a dire che p−1 / Se ciò accade, AX +XA∗ = A∗ (0) = 0 A (0)∩ iR = 0. ∗ ∗ ∗ ∗ ∗ Y se e solo se AX + X A = Y , sicché se Y = Y per unicità si ha X = X ∗ . ∗ Proviamo in conclusione che quando p−1 A (0) ⊂ {λ ∈ C; Re λ > 0} e Y = Y > 0, ne −1 −1 ∗ segue che f (Y ) = f (Y ) > 0. Sia r > 0 tale che p−1 A (0) ⊂ {λ ∈ C; Re λ > 0, |λ | ≤ r}.
80
3 Alcune applicazioni all’analisi matriciale
Per ogni R > r sia γR il circuito il cui sostegno è {0} × [−iR, iR] ∪ {λ = Reiθ ; θ ∈ [−π /2, π /2]}, orientato in senso antiorario. Dal punto (ii) segue che per ogni R > r si ha f −1 (Y ) =
1 2π i
# γR
(λ In + A)−1Y (λ In − A∗ )−1 d λ .
Poiché ||(λ In + A)−1Y (λ In − A∗ )−1 || = O
(3.13)
1 , |λ | → +∞, |λ |2
passando al limite per R → +∞ in (3.13) si ottiene f −1 (Y ) = −
1 2π
& +∞ −∞
(itIn + A)−1Y (itIn − A∗ )−1 dt.
(3.14)
∗ Poiché (itIn + A)−1 = −(itIn − A∗ )−1 , ne segue che per ogni ζ ∈ Cn f −1 (Y )ζ , ζ =
1 2π
& +∞ −∞
Y (itIn − A∗ )−1 ζ , (itIn − A∗ )−1 ζ dt.
(3.15)
Ora, per ipotesi, esiste C > 0 tale che Y η , η ≥ C||η ||2, per ogni η ∈ Cn . D’altra parte è immediato verificare che esiste C > 0 tale che ||itIn − A∗ || ≤ C (1 +t 2)1/2 , per ogni t ∈ R. Allora, poiché ||(itIn − A∗ )−1 ζ || ≥
C
√
1 ||ζ ||, ∀ζ ∈ Cn , 1 +t2
da (3.15) si conclude che f −1 (Y )ζ , ζ ≥
& +∞
C 2π C
−∞
C 1 dt ||ζ ||2 = ||ζ ||2. 1 +t2 2C
La prova del teorema è così completa.
Osservazione 3.2.2. Riconsiderando il punto 4 dell’Osservazione 2.5.11, notiamo che quanto dimostrato sopra permette di determinare tutte le matrici H = H ∗ > 0 tali che Re HA > 0 quando p−1 A (0) ⊂ {z ∈ C; Rez > 0}. Una seconda questione che vogliamo trattare è la seguente. Data A ∈ M(n; C) (n ≥ 2 è il caso significativo!) si vuole stimare la crescita del risolvente di A, cioè si vuole stimare ||(λ In − A)−1 || per λ ∈ C \ p−1 A (0). Vedremo che per |λ | → +∞ la norma di (λ In − A)−1 si comporta come 1/|λ |, mentre, quando dist(λ , p−1 A (0)) :=
min |λ − μ | → 0,
μ ∈p−1 A (0)
la divergenza di ||(λ In − A)−1 || dipende in maniera sostanziale dalla diagonalizzabilità o meno di A. Vale il seguente teorema.
3.2 Equazioni matriciali. Crescita del risolvente
81
Teorema 3.2.3. Si hanno i fatti seguenti. (i) Per ogni A ∈ M(n; C) lim |λ | ||(λ In − A)−1 || = 1.
|λ |→+∞
(ii) Se A ∈ M(n; C) è diagonalizzabile, esiste una costante C(A) ≥ 1 tale che C(A) C(A)−1 ≤ ||(λ In − A)−1 || ≤ . dist(λ , p−1 (0)) dist( λ , p−1 A A (0)) Se A = A∗ allora si può prendere C(A) = 1. (iii) Supposto A non diagonalizzabile, siano μ1 , . . ., μk ∈ C le radici distinte di pA. Per ogni j = 1, . . ., k, definiamo ⎧ ⎨ 1, se ma (μ j ) = mg (μ j ), j = ⎩ max dim dei blocchi di Jordan relativi a μ j , se ma (μ j ) > mg (μ j ), e sia = max j (notare che ≥ 2). Posto 1≤ j≤k
1 δ := min{1, min | μ j − μ j |}, 2 j= j esiste C(A) ≥ 1 tale che per ogni j = 1, . . ., k 0 < |λ − μ j | < δ =⇒
C(A)−1 C(A) ≤ ||(λ In − A)−1 || ≤ . j |λ − μ j | |λ − μ j |
Dimostrazione. Proviamo (i). Preso λ con |λ | > ||A||, poiché 1 λ In − A = λ In − A , λ si ha, usando la serie di Neumann, (λ In − A)−1 = e quindi ||(λ In − A)−1 || ≤
1 λ
1
∑ λ k Ak ,
k≥0
||A|| k 1 1 = . ∑ |λ | k≥0 |λ | |λ | − ||A||
D’altra parte, da In = (λ In − A)(λ In − A)−1 segue che ||In || ≤ ||(λ In − A)|| ||(λ In − A)−1 || ≤ |λ ||In|| + ||A|| ||(λ In − A)−1 ||, e quindi ||(λ In − A)−1 || ≥ Da queste disuguaglianze segue la (i).
||In|| . |λ |||In|| + ||A||
82
3 Alcune applicazioni all’analisi matriciale
Proviamo ora (ii). Per cominciare, mostriamo che se A è diagonale allora ||(λ In − A)−1 || =
1 . dist(λ , p−1 A (0))
Infatti, supposto A = diag(μ1 , . . ., μn ), per ogni ζ ∈ Cn ||(λ In − A)−1 ζ ||2 =
n
1
∑ | λ − μ j | 2 | ζ j |2 ≤ j=1
1 2 2 ||ζ || . dist λ , p−1 (0) A
D’altra parte, per ogni λ fissato (diverso dai μ j ) si scelga ζ = ζλ ∈ Cn \ {0} tale che (λ In − A)−1 ζ =
1 ζ, λ − μj
dove |λ − μ j | = dist(λ , p−1 A (0)). Ciò prova l’asserto in questo caso. Ora, in generale, se A è diagonalizzabile, si fissi T ∈ GL(n; C) tale che T −1 AT = Λ , con Λ = diag(μ1 , . . ., μn ). Allora, per ogni ζ ∈ Cn , (λ In − A)−1 ζ = T −1 (λ In − Λ )−1 T ζ , sicché ||(λ In − A)−1 ζ || ≤ ||T −1 || ||(λ In − Λ )−1 T ζ || ≤
||T −1 || ||T|| ||ζ ||. dist(λ , p−1 A (0))
D’altra parte, per ogni λ fissato (diverso dai μ j ) si scelga ζ = ζλ ∈ Cn \ {0} tale che (λ In − Λ )−1 T ζ =
1 Tζ, λ −μj
−1 dove |λ − μ j | = dist(λ , p−1 A (0)). Ne segue che, usando il fatto che 1 ≤ ||T || ||T ||,
||(λ In − A)−1 ζ || =
1 1 1 ||ζ || ≥ ||ζ ||, −1 −1 ||T || ||T || dist(λ , p−1 dist(λ , pA (0)) A (0))
da cui la tesi in (ii) con C(A) = ||T || ||T −1 ||. Si osservi che quando A = A∗ si può scegliere T ∈ U(n; C), per cui ||T || = ||T ∗ || = ||T −1 || = 1. Proviamo infine (iii). Come passo preliminare facciamo la stima nel caso in cui A sia, per certi μ ∈ C ed r ≥ 2, del tipo A = μ Ir + Jr . In tal caso, per λ = μ , si ha (λ Ir − A)−1 =
r 1 1 Ir + ∑ J j−1 . j r λ −μ ( λ − μ ) j=2
3.2 Equazioni matriciali. Crescita del risolvente
83
Se 0 < |λ − μ | < 1 allora per ogni ζ ∈ Cr si ha ||(λ Ir − A)−1 ζ || ≤
r 1 j−1 || + ||J || ||ζ ||. ||I r ∑ r | λ − μ |r j=2 =:Cr ≥1
D’altra parte, scelto ζ = ter , con 0 = t ∈ C, si ha ⎤ 1/(λ − μ )r ⎢ 1/(λ − μ )r−1 ⎥ ⎥ ⎢ −1 ⎥, (λ Ir − A) ζ = t ⎢ .. ⎥ ⎢ ⎦ ⎣ . 1/(λ − μ ) ⎡
e quindi ||(λ Ir − A)−1 ζ || ≥
1 ||ζ ||. | λ − μ |r
In conclusione, per ogni λ con 0 < |λ − μ | < 1 si ha Cr 1 ≤ ||(λ Ir − A)−1 || ≤ . |λ − μ |r |λ − μ |r Passiamo ora al caso generale, supponendo dapprima che A sia in forma canonica di Jordan, i.e. A = diag μ j Im j + B j ; 1 ≤ j ≤ k , m j = ma (μ j ), dove B j = 0 se m j = mg (μ j ), e altrimenti B j ha a sua volta una struttura a blocchi tra i quali figura certamente il blocco J j . Scritto ora ogni ζ ∈ Cn nella forma ⎤ ζ (1) ⎢ ζ (2) ⎥ ⎥ ⎢ ( j) mj ⎥ ζ =⎢ ⎢ .. ⎥ , ζ ∈ C , 1 ≤ j ≤ k, ⎣ . ⎦ ζ (k) ⎡
e tenuto conto della stima precedente, poiché quando 0 < |λ − μ j | < δ si ha |λ − μ j | > |λ − μ j | per j = j, otteniamo, con una costante C ≥ 1 dipendente solo da A, ||(λ In − A)−1 ζ || ≤
C ||ζ ||. |λ − μ j |
84
3 Alcune applicazioni all’analisi matriciale
D’altra parte, scelto ζ con ζ ( j ) = 0 per j = j e ⎡ ⎤ 0 ⎢.⎥ ⎢.⎥ ⎢.⎥ ⎢ ⎥ ⎢0⎥ ⎢ ⎥ mj ⎥ ζ ( j) = ⎢ ⎢t ⎥∈C , ⎢0⎥ ⎢ ⎥ ⎢ ⎥ ⎢ .. ⎥ ⎣.⎦ 0 dove 0 = t ∈ C occupa la j -esima posizione, si ha ⎡
⎤ η (1) ⎢ . ⎥ ⎥ (λ In − A)−1 ζ = η = ⎢ ⎣ .. ⎦ , η (k)
con η ( j ) = 0 per j = j e ⎤ 1/(λ − μ j ) j ⎢ 1/(λ − μ j ) j −1 ⎥ ⎥ ⎢ ⎥ ⎢ ... ⎥ ⎢ ⎥ ⎢ 1/( λ − μ ) j ( j) ⎥. ⎢ η =t⎢ ⎥ 0 ⎥ ⎢ ⎥ ⎢ . ⎥ ⎢ .. ⎦ ⎣ 0 ⎡
Ne segue allora che ||(λ In − A)−1 ζ || ≥
1 ||ζ ||. |λ − μ j | j
Infine, nel caso generale, sia T ∈ GL(n; C) tale che T −1 AT sia in forma canonica di Jordan. Da una parte si avrà, per 0 < |λ − μ j | < δ , ||(λ In − A)−1 ζ || ≤
C||T|| ||T −1 || ||ζ ||, |λ − μ j |
e dall’altra, scegliendo T −1 ζ come in precedenza, ||(λ In − A)−1 ζ || ≥
1 1 ||ζ ||. ||T || ||T −1 || |λ − μ j | j
Posto C(A) = C||T|| ||T −1 ||, si ha la tesi.
3.3 Introduzione di parametri e fibrati vettoriali
85
3.3 Introduzione di parametri e fibrati vettoriali Nelle sezioni precedenti abbiamo considerato matrici “costanti”, cioè con elementi numerici fissati. Tuttavia nelle applicazioni la situazione con la quale sovente si ha a che fare è quella di matrici che dipendono da uno o più parametri. Per fissare le idee, supponiamo di avere una matrice A(x) = [a jk (x)]1≤ j,k≤n ∈ M(n; K), dove x = (x1 , . . ., xν ) varia in un certo aperto X ⊂ Rν (ν ≥ 1), e le a jk (x) sono funzioni di classe C ∞(X) (scriveremo A ∈ C ∞(X; M(n; K))). In questa situazione, due domande che tipicamente si pongono sono le seguenti. (i) Supposto che A(x0 ), per un certo x0 ∈ X, sia diagonalizzabile, ne segue che anche A(x) lo è, almeno per tutti gli x ∈ X sufficientemente vicini a x0 ? (ii) Supposto di conoscere la forma canonica di Jordan di A(x0 ), per un certo x0 ∈ X, si può dire che A(x) ha la stessa forma di Jordan, almeno per tutti gli x ∈ X sufficientemente vicini a x0 ? Per sfortuna (o per fortuna!) entrambe queste domande hanno in generale una risposta negativa, come questi esempi elementari mostrano. 1x , x ∈ R, allora A(0) = I2 , e dunque diagonalizzabile, ma, per (i) A(x) = 01 x = 0, A(x)non lo è. x 1 (ii) A(x) = , x ∈ R, allora A(0) = J2 , mentre per 0 < |x| < 1 si ha che A(x) 0 x2 è diagonalizzabile (perché x = x2 ). Uno dei motivi che concorrono all’instabilità delle forme normali di A(x) è il fatto che per x , x ∈ X con x = x (non importa quanto “vicini” tra loro!) in generale A(x ) e A(x ) non commutano. In realtà la situazione è ancora più complessa di quanto facciano supporre le osservazioni precedenti. Ci si può porre, ad esempio, la seguente domanda: supposto K = C e A(x) = A(x)∗ per ogni x ∈ X, c’è una matrice U(x) unitaria e dipendente in maniera C ∞ da x tale che U(x)∗ A(x)U(x) ⎤ ⎡ λ1 (x) . . . 0 ⎢ . . ⎥ ⎥ sia la matrice diagonale Λ (x) = ⎢ ⎣ .. . . . .. ⎦ per ogni x ∈ X? 0 . . . λn (x) Ovviamente una condizione necessaria perché ciò accada è che le funzioni λ j ∈ C ∞(X; R) per 1 ≤ j ≤ n, e cioè che le radici del polinomio caratteristico pA(x) (z) siano C∞ in X. Questo non sempre accade, e quandanche accada, in generale non basta a garantire che la U(x) dipenda in maniera C∞ da x ∈ X, come gli esempi elementari seguenti mostrano.
86
3 Alcune applicazioni all’analisi matriciale
• Sia
α1 (x) iβ (x) A(x) = , α1 , α2 , β ∈ C ∞(X; R). −iβ (x) α2 (x) Gli autovalori sono " 1 λ±(x) = α1 (x) + α2 (x) ± (α1 (x) − α2 (x))2 + 4β (x)2 . 2
Se α1 (x)− α2 (x) e β (x) si annullano simultaneamente, è ben noto che in generale (α1 (x) − α2 (x))2 + 4β (x)2 non è in C ∞ (X). • Sia X = R2 e si consideri 2 x1 − x22 ix1 x2 . A(x1 , x2 ) = −ix1 x2 0 In tal caso gli autovalori sono
λ+ (x1 , x2 ) = x21 , λ− (x1 , x2 ) = −x22 , entrambi appartenenti a C ∞ (R2 ). Per gli autovettori corrispondenti abbiamo le equazioni −ix1 x2 ξ1 − x21 ξ2 = 0 e −ix1 x2 η1 + x22 η2 = 0. Per (x1 , x2 ) = (0, 0) abbiamo dunque (x1 , −ix2 ) (ξ1 , ξ2 ) = " x21 + x22 e
(x2 , ix1 ) (η1 , η2 ) = " . x21 + x22
Quindi per (x1 , x2 ) = (0, 0) c’è una matrice unitaria dipendente in maniera C∞ da x tale che 2 x1 0 ∗ U(x1 , x2 ) A(x1 , x2 )U(x1 , x2 ) = , (x1 , x2 ) = (0, 0). 0 −x22 Tale matrice è necessariamente del tipo seguente ⎤ ⎡ x2 x1 " f (x1 , x2 ) " g(x1 , x2 ) ⎥ ⎢ x21 + x22 x21 + x22 ⎥ ⎢ U(x1 , x2 ) = ⎢ −ix2 ⎥, ix1 ⎣" f (x1 , x2 ) " g(x1 , x2 ) ⎦ x21 + x22 x21 + x22 dove f , g ∈ C ∞(R2 \ {(0, 0)}; C) con | f (x1 , x2 )| = |g(x1 , x2 )| = 1. Nessuna scelta di f e g può far sì che U sia estendibile in maniera C ∞ a tutto R2 !
3.3 Introduzione di parametri e fibrati vettoriali
87
Le osservazioni viste sono piuttosto scoraggianti. Vogliamo tuttavia far ora vedere che, lo stesso, qualcosa si può dire delle proprietà di una matrice A ∈ C∞(X; M(n; K)). A tal fine è necessario premettere una nozione precisa di cosa si debba intendere per “famiglia di sottospazi di Kn che variano in modo C∞ rispetto ad un parametro”. Definizione 3.3.1. Dato X × Kn (X ⊂ Rν , aperto) diremo che V ⊂ X × Kn è un fibrato (vettoriale) di rango , 0 ≤ ≤ n, se (i) quando = n, V = X × Kn , e quando = 0, V = X × {0}; (ii) quando 1 ≤ < n, detta p : X × Kn −→ X la proiezione su X, si ha (a) p(V ) = X; (b) p−1 (x) ∩ V = {x} × Vx , dove Vx è un sottospazio vettoriale di Kn con dimK Vx = , per ogni x ∈ X; Vx si chiama fibra di V su x; (c) per ogni x0 ∈ X esistono un intorno aperto Ω ⊂ X di x0 ed una matrice L ∈ C∞ (Ω ; M(n, ; K)) tali che • rg L(x) = , ∀x ∈ Ω • Vx = Im L(x), ∀x ∈ Ω . La mappa Ω × K (x, ζ ) −→ (x, L(x)ζ ) ∈ V Ω := {(x, v); x ∈ Ω , v ∈ Vx } si chiama (una) trivializzazione di V su Ω . È ovvio che se E ⊂ Kn è un sottospazio di Kn con dimK E = , allora X × E è un fibrato di rango (detto fibrato prodotto di rango ). Esempi non banali sono forniti dal teorema seguente. Teorema 3.3.2. Sia A ∈ C∞ (X; M(n; K)) tale che rg A(x) = è costante per ogni x ∈ X. Allora Ker A := {(x, ζ ); x ∈ X, ζ ∈ Ker A(x)} e ImA(x) := {(x, ζ ); x ∈ X, ζ ∈ ImA(x)} sono fibrati di rango n − e , rispettivamente. Dimostrazione. Il caso = n è banale giacché allora Ker A = X × {0} e Im A = X × Kn . Alla stessa maniera il caso = 0 è pure banale, giacché allora Ker A = X × Kn e ImA = X × {0}. Supponiamo quindi che 1 ≤ < n. Cominciamo col provare che V = Ker A è un fibrato di rango n − . Che si abbia p(V ) = X e Vx di dimensione n − , per ogni x, è ovvio. Resta da provare il punto (c) della Definizione 3.3.1. Scriviamo α (x) β (x) , (3.16) A(x) = γ (x) δ (x)
88
3 Alcune applicazioni all’analisi matriciale
con α ∈ C ∞ (X; M(; K)), β ∈ C∞ (X; M(, n − ; K)), γ ∈ C ∞(X; M(n − , ; K)), δ ∈ C ∞(X; M(n − ; K)), e supponiamo che α (x0 ) sia invertibile. Sia Ω ⊂ X un intorno aperto di x0 sul quale α (x) è ancora invertibile (l’esistenza di Ω è garantita dal fatto ∞ −1 ∞ che x → det α (x) è C su X e det α (x0 ) = 0). Si noti che, allora, x → α (x) è C ζ su Ω . Ora ζ = , ζ ∈ K , ζ ∈ Kn− , sta in Ker A(x), x ∈ Ω , se e solo se ζ ⎧ ⎨ α (x)ζ + β (x)ζ = 0 ⎩
γ (x)ζ + δ (x)ζ = 0,
⎧ −1 ⎪ ⎨ ζ = −α (x) β (x)ζ ⎪ ⎩ δ (x) − γ (x)α (x)−1 β (x) ζ = 0.
i.e.
Proviamo che
δ (x) − γ (x)α (x)−1 β (x) = 0, ∀x ∈ Ω . Se ciò non fosse vero per qualche x ∈ Ω ne seguirebbe dim Ker A(x ) < n − e quindi rg A(x ) > , contro l’ipotesi. Concludendo, per x ∈ Ω * ) −α (x)−1 β (x)ζ n− ; = Ker A(x) = ζ ∈ K ζ −α (x)−1 β (x) . = Im L(x), con L(x) = In− Ciò prova il punto (c) quando α (x0 ) è invertibile. D’altra parte, per x0 fissato, poiché rg A(x0 ) = , si può sempre trovare una matrice T ∈ GL(n; K) tale che, scritta A(x)T nella forma (3.16), si abbia α (x0 ) invertibile. Ragionando come sopra, su un intorno Ω di x0 avremo Ker A(x)T = Im L(x), con L ∈ C ∞(Ω ; M(n, ; K)), sicché Ker A(x) = ImT L(x), ∀x ∈ Ω . Si noti che rg T L(x) = , per ogni x ∈ Ω . Quanto a Im A, supponendo dapprima che α (x0 ) sia invertibile, si ha che ImA(x), x ∈ Ω , se e solo se
⎧ ⎨ α (x)ζ + β (x)ζ = η ⎩
per qualche
γ (x)ζ + δ (x)ζ = η
ζ ∈ Kn , i.e. ζ ⎧ = α (x)−1 η − β (x)ζ ⎪ ζ ⎪ ⎨
⎪ ⎪ ⎩ δ (x) − γ (x)α (x)−1 β (x) ζ = η − γ (x)α (x)−1 η .
η ∈ η
3.3 Introduzione di parametri e fibrati vettoriali
89
Poiché δ (x) = γ (x)α (x)−1 β (x) su Ω , ne segue che su Ω * ) η ; = Im A(x) = η ∈ K γ (x)α (x)−1 η I = Im L(x), con L(x) = . γ (x)α (x)−1 Se poi A(x)T , con T ∈ GL(n; K), è tale che α (x0 ) è invertibile, poiché ImA(x)T = ImA(x), si conclude ancora che Im A(x) = ImL(x), per ogni x ∈ Ω . Ciò conclude la prova del teorema.
Osservazione 3.3.3. Il Teorema 3.3.2 è stato enunciato per matrici quadrate. In realtà se A ∈ C ∞ (X; M(p, q; K)) e rg A(x) = ≤ min{p, q} è costante su X, allora si prova che ImA ⊂ X × K p è un fibrato di rango , e Ker A ⊂ X × Kq è un fibrato di rango q − . Lasciamo al lettore i dettagli della prova. Definizione 3.3.4. Se V ⊂ X × Kn è un fibrato di rango , chiamiamo sezione di V su un aperto Ω ⊂ X ogni mappa ζ : Ω −→ Kn di classe C∞ tale che ζ (x) ∈ Vx , ∀x ∈ Ω . La Definizione 3.3.1, punto (c), garantisce che per ogni x0 ∈ X ci sono un intorno aperto Ω x0 e sezioni ζ j : Ω −→ Kn , j = 1, . . ., , tali che ζ1 (x), . . ., ζ (x) è una base di Vx , per ogni x ∈ Ω . A tal fine basta definire ζ j (x) = L(x)v j , 1 ≤ j ≤ , dove v1 , . . ., v è una qualsiasi base fissata di K . In generale, l’intorno Ω di x0 su cui si hanno sezioni indipendenti di V non può essere tutto X. Se ciò accade, vale a dire se esistono sezioni indipendenti di V in X, si dice che il fibrato V è banale. Si noti che, allora, la mappa
X × K (x, ξ ) −→ (x, ∑ ξ j ζ j (x)) ∈ V j=1
è un diffeomorfismo tale che per ogni x ∈ X K ξ −→
∑ ξ j ζ j(x) ∈ Vx j=1
è un isomorfismo lineare. È necessario tenere presente che in generale un fibrato non è banale. Un esempio può essere costruito nel modo seguente. Sia n pari, X = Rn+1 \ {0} e in X × Rn+1 si consideri V = {(x, ζ ); x ∈ X, ζ ∈ Rn+1 , x, ζ = 0}. È facile verificare che, poiché x = 0, V è un fibrato di rango n. Tuttavia V non è banale, i.e. non esistono n sezioni indipendenti ζ1 , . . ., ζn di V su X. Se ciò fosse possibile, la mappa ζ1 (x) ∈ Sn Sn x −→ v(x) := ||ζ1(x)||
90
3 Alcune applicazioni all’analisi matriciale
fornirebbe un campo v di vettori unitari tangenti a Sn in x, per ogni x ∈ Sn , mai nullo! È noto che quando n è pari ciò è impossibile. Per una dimostrazione elementare (ma non banale!) di questo fatto, si veda John Milnor, Analytic Proofs of the “Hairy Ball Theorem” and the Brouwer Fixed Point Theorem, The American Mathematical Monthly 85(7), 1978, pp. 521–524. Il teorema seguente contiene alcuni fatti utili. Teorema 3.3.5. Si hanno le seguenti proprietà. (i) Siano V,W ⊂ X × Kn due fibrati di rango 1 , 2 rispettivamente. Supposto che per ogni x ∈ X si abbia Vx ∩ Wx = {0}, l’insieme V ⊕W := {(x, ζ ); x ∈ X, ζ = ζ + ζ , ζ ∈ Vx , ζ ∈ Wx } ⊂ X × Kn è un fibrato di rango 1 + 2 (detto la somma diretta di V e W ). (ii) Dato un fibrato V ⊂ X ×Kn di rango , esiste un fibrato W ⊂ X ×Kn di rango n − tale che V ⊕W = X × Kn (Si dirà allora che W è un supplementare di V in X × Kn ). Dimostrazione. Proviamo (i). L’unica cosa da verificare è il punto (c) della Definizione 3.3.1. Dato x0 ∈ X, sia Ω ⊂ X un intorno aperto di x0 e per j = 1, 2 siano M j ∈ C ∞ (Ω ; M(n, j; K)) matrici tali che: • rg M j (x) = j , j = 1, 2, ∀x ∈ Ω ; • Vx = ImM1 (x), Wx = Im M2(x), ∀x ∈ Ω . Consideriamo la matrice a blocchi M(x) = [M1 (x)|M2 (x)] ∈ C ∞(Ω ; M(n, 1 + 2 ; K)). Ovviamente Im M(x) ⊂ Vx ⊕ Wx , per ogni x ∈ Ω . Ci basterà provarecherg M(x) = ζ 1 + 2 per tutti gli x ∈ X. Se per un qualche x ∈ Ω e per qualche ζ = ∈ K1 +2 ζ fosse M1 (x)ζ + M2 (x)ζ = 0, ne seguirebbe
M1 (x)ζ = M2 (x)(−ζ ) ∈ Vx ∩ Wx = {0},
da cui M1 (x)ζ = 0 e M2 (x)ζ = 0, e quindi ζ = 0 e ζ = 0, cioè ζ = 0. Proviamo (ii). Il modo forse più semplice per costruire un supplementare di V è di considerare l’insieme V ⊥ := {(x, ζ ); x ∈ X, ζ ∈ Vx⊥ } ⊂ X × Kn ,
3.3 Introduzione di parametri e fibrati vettoriali
91
dove Vx⊥ è l’ortogonale di Vx rispetto al prodotto interno canonico di Kn . Ovviamente dimVx⊥ = n − , per ogni x ∈ X. Come al solito, occorre provare la proprietà (c) della Definizione 3.3.1. Lo faremo nel caso non banale 1 ≤ < n. Dato x0 , sia Ω un intorno di x0 e L ∈ C∞(Ω ; M(n, ; K)) tale che rg L(x) = per tutti gli x ∈ Ω , e Vx = Im L(x) per ogni x ∈ Ω . Per fissare le idee sia K = C, e si consideri la matrice L∗ ∈ C ∞ (Ω ; M(, n; C)), L∗ (x) = L(x)∗ . Osserviamo che ⊥ Ker L(x)∗ ⊂ Im L(x) . Ricordando che rg L(x)∗ = rg L(x) = , per ogni x ∈ Ω , se ne deduce che ⊥ Im L(x) = Ker L(x)∗ . Perl’Osservazione 3.3.3 ne segue dunque che ogni x0 ∈ X ha un intorno Ω tale che V ⊥ Ω ⊂ Ω × Kn è un fibrato di rango n − , e quindi la tesi quando K = C. Quando K = R si considera tL(x) in luogo di L(x)∗ .
Osservazione 3.3.6. È il caso di osservare che il punto (i) del teorema precedente è un caso particolare di un fatto più generale. Precisamente, se V,W ⊂ X ×Kn sono due fibrati di rango 1 , 2 rispettivamente, e se dimK Vx ∩Wx = è costante al variare di x ∈ X, allora V ∩ W := {(x, ζ ); x ∈ X, ζ ∈ Vx ∩ Wx } ⊂ X × Kn e V +W := {(x, ζ ); x ∈ X, ζ ∈ Vx +Wx } ⊂ X × Kn sono dei fibrati di rango e 1 + 2 − , rispettivamente. Lasciamo al lettore la prova di ciò. Vediamo ora come usare gli strumenti sopra introdotti per ridurre (localmente) una generica matrice A ∈ C ∞ (X; M(n; C)) alla forma “più semplice” possibile. Fissiamo un punto x0 ∈ X e siano μ1 , . . ., μk ∈ C gli autovalori distinti di A(x0 ), con molteplicità algebrica m1 , . . ., mk . Dato un circuito γ ⊂ C tale che {μ1 , . . ., μk } ⊂ U+(γ ), consideriamo per j = 1, . . ., k dei circuiti γ j tali che, ponendo c(U+ (γ j )) := U+(γ j ) ∪ γ j (la chiusura topologica di U+(γ j )), ⎧ ⎨ μ j ∈ U+(γ j ) ⊂ c(U+ (γ j )) ⊂ U+(γ ), j = 1, = . . ., k (3.17) ⎩ / ∀ j = j . c(U+ (γ j )) ∩ c(U+ (γ j )) = 0, Per il Teorema di Cauchy 1 2π i
# γ
(λ − A(x0 ))−1 d λ =
k
1 ∑ 2π i j=1
# γj
(λ − A(x0 ))−1 d λ .
Ora, posto
δ := min |pA(x0 ) (λ )|, λ ∈γ j j=1,...,k
92
3 Alcune applicazioni all’analisi matriciale
si ha δ > 0 e dunque, per continuità, esiste un intorno Ω ⊂ X di x0 tale che max |pA(x)(λ ) − pA(x0 ) (λ )| < δ .
λ ∈γ j j=1,...,k
Il Teorema di Rouché garantisce quindi che per ogni x ∈ Ω il polinomio pA(x)(z) ha esattamente m j radici (contante con la loro molteplicità) in U+ (γ j ), j = 1, . . ., k. Sappiamo allora che per x ∈ Ω si ha In =
1 2π i
dove Pj (x) :=
# γ
(λ − A(x))−1 d λ =
1 2π i
k
∑ Pj (x), j=1
# γj
(λ − A(x))−1 d λ , x ∈ Ω .
(3.18)
Dal Lemma 3.1.2 si ha che Pj (x) è, per ogni x ∈ Ω , la matrice di proiezione di Cn su (3.19) Ker (λ In − A(x))ma (λ ) , pA(x) (λ )=0 λ ∈U+ (γ j )
e quindi rg Pj (x) = m j , per ogni x ∈ Ω . Dai Teoremi 3.3.2 e 3.3.5 si ha allora che ImPj ⊂ Ω × Cn è un fibrato di rango m j e che
Ω × Cn =
k
Im Pj .
(3.20)
j=1
A questo punto sappiamo che c’è un intorno Ω ⊂ Ω di x0 tale che per ogni j è possibile trovare m j sezioni indipendenti ζ j1, . . ., ζ jm j di Im Pj Ω . Detta allora T (x) ∈ GL(n; C) la matrice che ha per colonne i vettori
ζ11 (x), . . ., ζ1m1 (x), . . ., ζk1(x), . . ., ζkmk (x), si avrà: • T ∈ C ∞ (Ω ; GL(n; C)); ⎡ ⎤ Λ1 (x) . . . 0 ⎢ . . ⎥ ⎥ • T (x)−1 A(x)T (x) = ⎢ ⎣ .. . . . .. ⎦, 0 . . . Λk (x) per certi blocchi Λ j ∈ C ∞ (Ω ; M(m j ; C)) tali che pΛ−1(x) (0) = {λ ∈ C; pA(x) (λ ) = 0, λ ∈ U+ (γ j )}, j = 1, . . ., k, ∀x ∈ Ω . (3.21) j
Abbiamo quindi provato il seguente teorema di separazione dello spettro.
3.3 Introduzione di parametri e fibrati vettoriali
93
Teorema 3.3.7. Data A ∈ C ∞(X; M(n; C)), e fissato x0 ∈ X, siano μ1 , . . ., μk le radici distinte di pA(x0) (z) con ma (μ j ) = m j , j = 1, . . ., k. Esiste allora un intorno Ω ⊂ X di x0 ed una matrice T ∈ C ∞ (Ω ; GL(n; C)) tale che ⎤ ⎡ Λ1 (x) . . . 0 ⎢ . . ⎥ ⎥ T (x)−1 A(x)T (x) = ⎢ ⎣ .. . . . .. ⎦ , 0 . . . Λk (x) con: • Λ j ∈ C ∞ (Ω ; M(m j ; C)), j = 1, . . ., k; • pΛ j (x0 ) (z) ha la sola radice z = μ j con molteplicità m j , j = 1, . . ., k; • per x ∈ Ω , x = x0 , le radici di pΛ j (x)(z), ciascuna contata con la propria molteplicità, sono in numero di m j e sono distinte dalle radici di pΛ j (x) (z) per j = j . Una domanda naturale è se un blocco Λ j (x) possa essere ulteriormente “semplificato”. Il caso più semplice si ha quando m j = 1. In tal caso Λ j (x) si riduce ad una funzione in C∞ (Ω ; C) con Λ j (x0 ) = μ j . Quando però m j > 1, anche se mg (μ j ) = m j , non è detto che il blocco Λ j (x) sia diagonale per ogni x ∈ Ω , come mostrato dagli esempi dati all’inizio di questa sezione. Un caso in cui tuttavia Λ j (x) è diagonale per ogni x ∈ Ω , si ha qualora m pA(x)(z) = z − λ (x) j q(x; z), x ∈ Ω , dove λ ∈ C ∞ (Ω ; C) con λ (x0 ) = μ j , mg (λ (x)) = m j per ogni x ∈ Ω , e q(x; z) è un polinomio di grado n − m j in z a coefficienti C ∞(Ω ; C) tale che q(x; λ (x)) = 0 per tutti gli x ∈ Ω . A questo punto, in analogia con quanto visto nella Sezione 3.1 dove si è definita F(A) per una data matrice costante A ∈ M(n; C) e per certe funzioni olomorfe F, vogliamo definire, per una data A ∈ C ∞ (X; M(n; C)) e per certe funzioni olomorfe F, F(A) ∈ C∞ (X; M(n; C)). Per far questo, cominciamo col considerare l’insieme S := {z ∈ C; ∃x ∈ X, pA(x)(z) = 0} =
!
p−1 A(x) (0),
(3.22)
x∈X
e sia Ω ⊂ C un aperto tale che S ⊂ Ω . Data F ∈ O(Ω ), per ogni x ∈ X definiamo F(A)(x) ∈ M(n; C) nel modo seguente F(A)(x) :=
1 2π i
# γx
F(λ )(λ In − A(x))−1 d λ
dove γx ⊂ Ω è un circuito per cui p−1 A(x) (0) ⊂ U+ (γx ).
(3.23)
94
3 Alcune applicazioni all’analisi matriciale
Dal Lemma 3.1.4 segue che ad x fissato la definizione (3.23) è indipendente dalla scelta del circuito γx ⊂ Ω (ferma restando la condizione p−1 A(x) (0) ⊂ U+ (γx )), sicché in realtà stiamo definendo F(A)(x) come F(A(x)). Resta da vedere che F(A) ∈ C ∞ (X; M(n; C)). Fissato x0 ∈ X e preso un circuito γx0 come sopra, dal Teorema di Rouché segue che esiste un intorno U ⊂ X di x0 tale che p−1 (0) ⊂ U+ (γx0 ) per ogni x ∈ U (si veda la prova del Teorema 3.3.7). Dunque A(x) si ha # 1 F(A)(x) = F(λ )(λ In − A(x))−1 d λ , x ∈ U. 2π i γx0 Poiché per ogni λ ∈ γx0 la funzione U x −→ (λ In − A(x))−1 ∈ M(n; C) è di classe C ∞ , derivando sotto il segno di integrale (si verifichi che ciò è lecito), e data l’arbitrarietà di x0 , si ottiene la tesi. Il lettore è invitato a verificare che le proprietà (ii), (iii) e (v) del Teorema 3.1.5 si estendono in modo naturale al caso in cui la matrice A dipende in maniera C∞ dal parametro x ∈ X. In conclusione è conveniente notare che quanto visto al quarto e quinto punto dell’Osservazione 3.1.6 può essere esteso a matrici dipendenti da un parametro.
4 Esercizi
Esercizio 4.1.1. Costruire H del Teorema 2.5.10 di Lyapunov, nel caso in cui A = α β , con α > 0, β , γ ∈ R e β γ < 0. γ α Esercizio 4.1.2. Il lettore dimostri le proprietà seguenti. • O(n; R) ha due componenti connesse. • Date A, B ∈ O(n; R) con det A = 1 e det B = −1, si riconosca che non è possibile deformare con continuità A in B dentro O(n; R), ma che ciò è possibile dentro U(n; C). Si construisca in particolare la deformazione nel caso in cui cos θ − sin θ cos θ sin θ A= , B= , sin θ cos θ sin θ − cos θ dove θ ∈ [0, 2π ), θ = π . • (Decomposizione polare). Data A ∈ GL(n; R) esistono uniche P = tP > 0 e Q ∈ O(n; R) tali che A = PQ (si proceda come nella prova del Teorema 2.5.7). Se ne deduca che GL(n; R) ha due componenti connesse. Esercizio 4.1.3. Siano A1 , A2 ∈ M(n; R) e sia A = A1 + iA2 ∈ M(n; C). Dimostrare che: • A = A∗ ⇐⇒ A1 = tA1 e A2 = −tA2 ; • A = A∗ > 0 ⇐⇒ A1 = tA1 > 0 e |A2 x, y|
0 ⇐⇒ ⎩ pT (λ ) = 0 =⇒ λ = ±i μ con 0 ≤ μ < 1. Esercizio 4.1.4. Siano V ⊂ X × K p e W ⊂ X × Kq fibrati di rango 1 e 2 rispettivamente. Una mappa f : V −→ W si dice essere un morfismo di V in W se ha le proprietà seguenti: (i) per ogni x ∈ X e ζ ∈ Vx f (x, ζ ) = (x, f x (ζ )), dove fx : Vx −→ Wx è lineare; (ii) per ogni x0 ∈ X e per ogni intorno aperto Ω ⊂ X di x0 sul quale ci sono 1 sezioni indipendenti ζ1 , . . . ζ1 di V ed 2 sezioni indipendenti η1 , . . ., η2 di W , posto f x (ζ j (x)) =
2
∑ ak j(x)ηk (x),
1 ≤ j ≤ 1 ,
k=1
la matrice A(x) := [ak j (x)]1≤k≤2 ∈ C∞ (Ω ; M(2 , 1 ; K)). 1≤ j≤1
Si dimostri che: • la proprietà (ii) non dipende dalla scelta delle sezioni di V e W sopra Ω ; • se per ogni x ∈ X la mappa f x ha rango costante ≤ min{1 , 2 }, allora Im f := {(x, η ) ∈ W ; η ∈ Im f x } ⊂ W ⊂ X × Kq è un fibrato di rango e Ker f := {(x, ξ ) ∈ V ; ξ ∈ Ker f x } ⊂ V ⊂ X × K p è un fibrato di rango 1 − ; • se 1 = 2 e per ogni x ∈ X la mappa f x : Vx −→ Wx è un isomorfismo, allora la mappa W (x, η ) −→ f −1 (x, η ) := (x, f x−1 (η )) ∈ V è un morfismo di fibrati (detto morfismo inverso di f ). Esercizio 4.1.5. Siano date A ∈ M(n; C), B ∈ M(m; C), C ∈ M(n, m; C) e si consideri A C A = , 0 B pensata come mappa A : Cn+m −→ Cn+m . Riconosciuto che pA (z) = pA(z)pB (z), si studino gli autovettori di A in termini degli autovettori di A e B.
4 Esercizi
97
Esercizio 4.1.6. In M(n; C) (n ≥ 2) si definisca A, B := Tr(B∗ A). Mostrare che questo è un prodotto hermitiano in M(n; C), e determinare una base ortonormale di M(n; C) rispetto a questo prodotto interno. Esercizio 4.1.7. Fissato in M(n; C) il prodotto hermitiano precedente e data A ∈ M(n; C), si consideri la mappa LA : M(n; C) −→ M(n; C), LA X = [A, X] = AX − XA. (i) Mostrare che (LA )∗ = LA∗ . (ii) Supposto A diagonalizzabile, determinare Spec(LA ) e provare che LA è diagonalizzabile. Esercizio 4.1.8. Date A, B ∈ M(n; C) con: −1 (i) p−1 / −A (0) ∩ pB (0) = 0, (ii) [A, B] = 0,
dimostrare che A + B è invertibile e che (A + B)−1 =
1 2π i
# γ
(λ In + A)−1 (λ In − B)−1 d λ ,
dove γ è un qualunque circuito in C tale che: • p−1 B (0) ⊂ U+ (γ ); • (U+ (γ ) ∪ γ ) ∩ p−1 / −A (0) = 0. Esercizio 4.1.9. Mostrare che ogni spazio vettoriale complesso V è isomorfo alla complessificazione CW di un opportuno spazio vettoriale reale W . Esercizio 4.1.10. Si consideri W = {(z, z¯) ∈ C2n ; z ∈ Cn }. (i) Dimostrare che W è un sottospazio vettoriale reale di dimensione n e determinarne una base. (ii) Dimostrare che W è totalmente reale, e cioè che W ∩ iW = {0}. (iii) Determinare CW . Esercizio 4.1.11. Si discuta la seguente generalizzazione dell’esercizio preceden2n 2n te. Data A ∈ GL(2n; C) si consideri WA = {Ax; x ∈ R } ⊂ C . Si noti che il W In iIn . dell’Esercizio 4.1.10 è WA con A = In −iIn (i) Per quali A lo spazio WA è totalmente reale? (ii) Determinare CWA.
98
4 Esercizi
Esercizio 4.1.12. Data A ∈ M(m, n; R) si consideri V = {x ∈ Cn ; Ax = 0}. Osservato che V = V¯ , si determini ReV. Esercizio 4.1.13. Sia V uno spazio vettoriale reale di dimensione pari. Una struttura complessa su V è una mappa lineare J : V −→ V tale che J 2 = −idV . Si introduca in V la seguente operazione di prodotto per uno scalare complesso (a + ib)v := av + bJv, ∀v ∈ V, ∀a, b ∈ R, e sia V˜ lo spazio vettoriale così ottenuto. Mostrare che V˜ è uno spazio vettoriale complesso con dimC V˜ = 12 dimR V. Esercizio 4.1.14. Mostrare che se lo spazio vettoriale V su C è pensato, per restrizio+R . ne degli scalari, come uno spazio vettoriale VR su R, allora V = V Esercizio 4.1.15. Sia Pk,n = {p ∈ C[x1 , x2 , . . ., xn ]; grado di p ≤ k}. (i) Calcolare dimC Pk,n. (ii) Dati p = ∑ pα xα , q = |α |≤k
∑
|α |≤k
qα xα ∈ Pk,n , si definisca p, q =
∑
|α |≤k
pα q¯α ,
e si riconosca che questo è un prodotto hermitiano in Pk,n. (iii) Si prenda n = 1 e si consideri L = x2
d d2 + ax + b, a, b ∈ C. dx2 dx
• Determinare per quali a, b la mappa L : Pk,1 −→ Pk,1 è autoaggiunta rispetto al precedente prodotto hermitiano. • Determinare per quali a, b ∈ C la mappa L : Pk,1 −→ Pk,1 è autoaggiunta positiva, e determinare in tal caso L1/2 . Esercizio 4.1.16 (Trasformata di Cayley). Si consideri f : R −→ U(1; C) S1 , a−i f (a) = , e si provi che f è un omeomorfismo di R su U(1; C) \ {1}. a+i Generalizzazione. Per ogni n si ponga S(n; C) = {A ∈ M(n; C); A = A∗ }, e si definisca f : S(n; C) −→ M(n; C), f (A) = UA := (A − iIn )(A + iIn )−1 .
4 Esercizi
99
UA si chiama la trasformata di Cayley di A. Osservato che f è continua (per la topologia indotta), si provi che: • UA ∈ U(n; C) (verificare che UAUA∗ = UA∗UA = In ); • 1= pU−1A (0) (posto y = (A + iIn )x, si osservi che y −UAy = 2ix, y +UA y = 2Ax); −1 che f : S(n; C) −→ U(n; C) è iniettiva; • A= i(In +U A )(In −UA ) e quindi−1 • f S(n; C) = {U ∈ U(n; C); 1 ∈ pU (0)} e quindi che f è un omeomorfismo di S(n; C) sulla sua immagine.
Parte II
Equazioni Differenziali
5 Equazioni differenziali ordinarie
5.1 Preliminari L’oggetto di questo capitolo è lo studio delle soluzioni di un sistema differenziale del primo ordine del tipo dx =: x˙ = f (t, x), (5.1) dt dove supporremo sempre che f sia una mappa ⎤ ⎡ f 1 (t, x) ⎢ . ⎥ n ⎥ f : I × Ω (t, x) −→ f (t, x) = ⎢ (5.2) ⎣ .. ⎦ ∈ R , f n (t, x) con I intervallo aperto di R e Ω aperto di Rn , soddisfacente d’ora innanzi almeno le seguenti condizioni di regolarità: • continuità: f ∈ C 0(I × Ω ; Rn ); • locale lipschitzianità (in x): per ogni (t¯, x¯) ∈ I × Ω esistono una scatola ¯ ≤ r} Bh,r (t¯, x¯) := {(t, x); |t − t¯| ≤ h, ||x − x|| contenuta in I × Ω (h, r > 0) ed una costante L > 0 tali che ¯ || f (t, x) − f (t, x)|| ≤ L||x − x ||, ∀(t, x ), (t, x) ∈ Bh,r (t¯, x).
(5.3)
Osservazione 5.1.1. Quando ∂ f j /∂ xk esistono ed appartengono a C0 (I × Ω ; R), per ogni j, k = 1, . . ., n, la locale lipschitzianità è garantita (su ogni scatola contenuta in I × Ω ) come conseguenza del teorema del valor medio. A seconda della struttura di f , il sistema (5.1) viene variamente classificato: • Il sistema (5.1) si dice autonomo quando f : R × Ω −→ Rn è indipendente da t, sicché (5.1) si riscrive come x˙ = f (x). Parenti C., Parmeggiani A.: Algebra lineare ed equazioni differenziali ordinarie. c Springer-Verlag Italia 2010, Milano
104
5 Equazioni differenziali ordinarie
• Il sistema (5.1) si dice lineare quando f è della forma f (t, x) = A(t)x + b(t),
(5.4)
dove A ∈ C0 (I; M(n; R)) e b ∈ C 0 (I; Rn ). In questo caso Ω = Rn e la locale lipschitzianità è ovviamente soddisfatta. Più precisamente, per ogni intervallo [t¯ − h, t¯ + h] ⊂ I (h > 0) si ha || f (t, x) − f (t, x )|| ≤ L||x − x ||, ∀t ∈ [t¯ − h, t¯ + h], ∀x , x ∈ Rn , con L = max ||A(t)||. Il sistema lineare (5.4) si dice omogeneo quando b(t) = 0 |t−t¯|≤h
per ogni t ∈ I.
Definiamo ora cosa si intende per soluzione del sistema (5.1). Definizione 5.1.2. Chiameremo soluzione del sistema (5.1) ogni funzione ⎡ ⎤ φ1 (t) ⎢ . ⎥ n ⎥ J t −→ φ (t) = ⎢ ⎣ .. ⎦ ∈ R φn (t) tale che: (i) J ⊂ I è un intervallo non banale (cioè non ridotto ad un punto); (ii) φ è derivabile per ogni t ∈ J; (iii) φ (t) ∈ Ω per ogni t ∈ J e ⎤ ⎡ φ˙1 (t) ⎢ . ⎥ dφ ⎥ (t) =: φ˙ (t) = ⎢ ⎣ .. ⎦ = f (t, φ (t)), ∀t ∈ J. dt φ˙n (t) Inoltre, se φ : J1 −→ Rn , ψ : J2 −→ Rn sono soluzioni di (5.1), diremo che ψ è un prolungamento di φ (risp. φ è una restrizione di ψ ) se (iv) J1 J2 ; (v) ψ (t) = φ (t), per tutti i t ∈ J1 . Ricordiamo il seguente risultato fondamentale. Teorema 5.1.3 (Esistenza ed unicità locale). Dato il sistema (5.1) e fissati: (i) (t0 , x0 ) ∈ I × Ω ; (ii) una scatola B := Bh,r (t0 , x0 ) ⊂ I × Ω tale che: • Mh ≤ r, dove M := max || f (t, x)||; (t,x)∈B
• || f (t, x) − f (t, x)|| ≤ L||x − x ||, per ogni (t, x), (t, x ) ∈ B, e Lh < 1,
5.1 Preliminari
105
esiste un’unica soluzione φ : [t0 − h, t0 + h] −→ Rn di (5.1) tale che
φ (t0) = x0 , ||φ (t) − x0|| ≤ r, ∀t ∈ [t0 − h, t0 + h].
(5.5)
Per completezza ne ricordiamo una prova. Dimostrazione. Osserviamo che se φ : [t0 − h, t0 + h] −→ Rn è soluzione di (5.1), verificante φ (t0) = x0 , allora φ soddisfa anche l’equazione integrale seguente
φ (t) = x0 +
& t t0
f (s, φ (s))ds, |t − t0 | ≤ h.
(5.6)
Viceversa, se φ ∈ C 0 ([t0 − h, t0 + h]; Ω ) è soluzione di (5.6), allora φ (t0) = x0 e φ risolve il sistema (5.1). Basterà dunque dimostrare che nelle ipotesi del teorema esiste un’unica φ ∈ C 0 ([t0 −h, t0 +h]; Rn) soluzione di (5.6) tale che ||φ (t)−x0|| ≤ r per ogni t ∈ [t0 − h, t0 + h]. A tal fine consideriamo lo spazio X costituito da tutte le funzioni ψ ∈ C 0([t0 − h, t0 + h]; Rn) tali che ψ (t0 ) = x0 e ||ψ (t) − x0 || ≤ r per ogni t ∈ [t0 − h, t0 + h]. Su X consideriamo la metrica d(α , β ) := max ||α (t) − β (t)||, α , β ∈ X. |t−t0|≤h
(5.7)
È ben noto che (X, d) risulta essere uno spazio metrico completo. Per ogni ψ ∈ X definiamo & t (T ψ )(t) := x0 + f (s, ψ (s))ds, |t − t0 | ≤ h. (5.8) t0
Verifichiamo che T ha le seguenti proprietà: (a) T : X −→ X; (b) d(T α , T β ) ≤ Lh d(α , β ), ∀α , β ∈ X. Ovviamente per ogni ψ ∈ X si ha che (T ψ )(t0 ) = x0 e che T ψ ∈ C0 ([t0 − h, t0 + h]; Rn). D’altra parte ||(T ψ )(t) − x0 || = ||
&t t0
f (s, ψ (s))ds|| ≤ h max || f (s, ψ (s))|| ≤ hM ≤ r
per ipotesi. Ciò prova (a). Ora, se α , β ∈ X, si ha (T α )(t) − (T β )(t) =
|s−t0|≤h
& t t0
f (s, α (s)) − f (s, β (s)) ds,
e quindi d(T α , T β ) = max ||(T α )(t) − (T β )(t)|| ≤ h max || f (s, α (s)) − f (s, β (s))|| ≤ |t−t0 |≤h
|s−t0|≤h
≤ hL max ||α (s) − β (s)|| = Lh d(α , β ). |s−t0|≤h
Ciò prova (b). Poiché per ipotesi Lh < 1, si ha che T : X −→ X è una contrazione. Dal ben noto teorema del punto fisso segue allora che esiste un’unica φ ∈ X tale che T φ = φ , cioè un’unica φ che risolve (5.6).
106
5 Equazioni differenziali ordinarie
Osservazione 5.1.4. È opportuno osservare che, una volta che si è fissata una scatola Bh,r (t0 , x0 ) ⊂ I × Ω sulla quale vale (5.3), a patto di diminuire h si può sempre supporre che Mh ≤ r e Lh < 1. Il lemma seguente gioca un ruolo fondamentale. Lemma 5.1.5. Siano φ : I1 −→ Rn , ψ : I2 −→ Rn due soluzioni di (5.1). Supposto che (i) I1 ∩ I2 = 0; / (ii) esiste t0 ∈ I1 ∩ I2 tale che φ (t0) = ψ (t0 ); si ha: (a) φ (t) = ψ (t), ∀t ∈ I1 ∩ I2; (b) posto
θ (t) :=
⎧ ⎨ φ (t), t ∈ I1 , ⎩
ψ (t), t ∈ I2 ,
allora θ : I1 ∪ I2 −→ Rn è soluzione di (5.1). Dunque, quando I1 I1 ∪ I2 e I2 I1 ∪ I2 , θ è un prolungamento sia di φ che di ψ . Dimostrazione. Il punto (b) è una conseguenza banale di (a). Proviamo dunque (a). La tesi è ovvia quando I1 ∩ I2 = {t0 }. Supporremo dunque che I1 ∩ I2 non sia banale. Posto allora E := {t ∈ I1 ∩ I2; φ (t) = ψ (t)} ⊂ I1 ∩ I2 , poiché E = 0/ (t0 ∈ E), basterà dimostrare che E è (relativamente) chiuso e aperto in I1 ∩ I2 per concludere che E = I1 ∩ I2 , il che proverà (a). Che E sia chiuso è banale. Proviamo che E è aperto. Sia t¯ ∈ E e si ponga x¯ := φ (t¯) = ψ (t¯) ∈ Ω . Usando il Teorema 5.1.3 sappiamo che esistono h, r > 0 ed un’unica γ : [t¯ − h, t¯ + h] −→ Rn con γ (t¯) = x¯ e ||γ (t) − x¯|| ≤ r per ogni t ∈ [t¯ − h, t¯ + h], soluzione di (5.1). Ma allora, per la continuità di φ e ψ , esiste 0 < h ≤ h tale che per t ∈ I1 ∩ [t¯ − h , t¯ + h ] si ha ||φ (t) − x¯|| ≤ r, e per t ∈ I2 ∩ [t¯ − h , t¯ + h ] si ha ||ψ (t) − x|| ¯ ≤ r. Dunque dall’unicità di γ segue che
φ (t) = γ (t) = ψ (t), ∀t ∈ (t¯ − h , t¯ + h ) ∩ I1 ∩ I2 , il che prova che E è aperto.
Definizione 5.1.6. Diremo che una soluzione φ : J −→ Rn di (5.1) è massimale (o anche che è una curva integrale di (5.1)) se φ non ammette prolungamento alcuno.
5.1 Preliminari
107
Il teorema seguente contiene importanti proprietà delle soluzioni massimali. Teorema 5.1.7. Sia dato il sistema (5.1) con f : I × Ω −→ Rn . Allora: (i) Se φ : J −→ Rn è una soluzione massimale di (5.1), J ⊂ I è un intervallo aperto. (ii) Per ogni (t0 , x0 ) ∈ I × Ω esiste un’unica soluzione massimale φ : J −→ Rn di (5.1) tale che φ (t0) = x0 ; tale φ si dirà anche la curva integrale di (5.1) passante per (t0 , x0 ) e anche la soluzione del problema di Cauchy ⎧ ⎨ x˙ = f (t, x), ⎩
x(t0 ) = x0 .
(iii) Se φ : J −→ Rn è una soluzione massimale di (5.1) e τ+ := sup J < sup I, risp. τ− := infJ > inf I, allora per ogni compatto K ⊂ Ω esiste ε > 0 tale che
φ (t) ∈ K, ∀t ∈ (τ+ − ε , τ+ ), risp.
φ (t) ∈ K, ∀t ∈ (τ− , τ− + ε ). Dimostrazione. Cominciamo col provare (i). Basta mostrare che ogni soluzione ψ : I1 −→ Rn di (5.1) tale che I1 è chiuso a destra, risp. a sinistra, ammette un prolungamento. Se, ad esempio, I1 è chiuso a destra, con max I1 = t1 , usando il Teorema 5.1.3 sappiamo che c’è una soluzione θ : [t1 − h, t1 + h] −→ Rn di (5.1), h > 0, con θ (t1) = ψ (t1 ). Dal Lemma 5.1.5 si ha allora che ψ ammette un prolungamento. Proviamo ora (ii). Consideriamo l’insieme F di tutte le soluzioni ψ : Jψ −→ Rn di (5.1) soddisfacenti ψ (t0 ) = x0 . Il Teorema 5.1.3 garantisce che F = 0. / Poniamo dunque ! J := Jψ . ψ ∈F
Allora J è un intervallo (t0 ∈ Jψ per ogni ψ ∈ F ) e se definiamo
φ : J −→ Rn , φ (t) = ψ (t) se t ∈ Jψ , il Lemma 5.1.5 garantisce che la definizione è ben posta, che φ è una soluzione di (5.1) soddisfacente φ (t0) = x0 , e che essa è massimale. Proviamo infine (iii), nel caso in cui τ+ = sup J < sup I (l’altro caso è lasciato per esercizio). Ragioniamo per assurdo, supponendo che esista un compatto K ⊂ Ω tale che per ogni ε > 0 esiste tε ∈ (τ+ − ε , τ+ ) con φ (tε ) ∈ K. Preso ε = 1/n, n ∈ N, sia allora tn ∈ (τ+ − 1/n, τ+) una successione, che possiamo supporre strettamente crescente, tale che φ (tn) ∈ K, per ogni n ∈ N. Passando eventualmente ad una sottosuccessione di φ (tn ), possiamo supporre che φ (tn) → x¯ ∈ K per n → +∞. Fissiamo ora una scatola Bh,r (τ+ , x¯) ⊂ I × Ω sulla quale siano soddisfatte le condizioni (i), (ii) del Teorema 5.1.3. Fissiamo n tale che h r 0 < τ+ − tn ≤ , ||φ (tn) − x|| ¯ ≤ . 2 2
108
5 Equazioni differenziali ordinarie
Allora la scatola Bh/2,r/2 (tn , φ (tn)) ⊂ Bh,r (τ+ , x) ¯ e quindi per il Teorema 5.1.3 esiste un’unica ψ : [tn −h/2, tn +h/2] −→ Rn tale che ψ (tn ) = φ (tn) e ||ψ (t)− φ (tn )|| ≤ r/2 per ogni t ∈ [tn − h/2, tn + h/2]. Dal Lemma 5.1.5 segue che φ (t) = ψ (t) per ogni t con tn ≤ t < τ+ . Poiché tn + h/2 ≥ τ+ , si ha che ψ è un prolungamento di φ [t ,τ ) , e n +
dunque φ ammette un prolungamento, contro l’ipotesi. Osservazione 5.1.8. In riferimento al punto (iii) del teorema precedente è opportuno osservare che può accadere che una soluzione massimale φ del sistema (5.1) sia definita su un intervallo (τ− , τ+ ) I. Questo fenomeno è chiamato blow-up (o scoppiamento) della soluzione. In particolare, se f : I × Rn −→ Rn (i.e. Ω = Rn ), dire che τ+ < sup I (risp. τ− > infI) equivale a dire che (il lettore lo verifichi) ||φ (t)|| → +∞ per t τ+ (risp. per t τ− ). Un esempio particolarmente semplice di presenza di blow-up si ha per la seguente equazione (5.9) x˙ = x2 (x ∈ R). Fissati t0 , x0 ∈ R, la soluzione massimale φ di (5.9) tale che φ (t0) = x0 è ⎧ 0, se x0 = 0, per ogni t ∈ R, ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ 1 x0 ⎨ , se x0 > 0, per ogni t ∈ (−∞, t0 + ), φ (t) = 1 − x0 (t − t0 ) x0 ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ x0 1 ⎪ ⎩ , se x0 < 0, per ogni t ∈ (t0 + , +∞). 1 − x0 (t − t0 ) x0
(5.10)
La verifica di (5.10) è ovvia, tenuto conto che se x0 = 0 allora φ (t) non è mai nulla e & t ˙ φ (s) t0
φ (s)2
ds = t − t0.
Il risultato seguente dà una condizione sufficiente che garantisce l’assenza di blow-up. Teorema 5.1.9. Supponiamo che in (5.1) si abbia f : I × Rn −→ Rn (i.e. Ω = Rn ). Se per ogni intervallo chiuso e limitato I ⊂ I esistono M1 , M2 > 0 tali che || f (t, x)|| ≤ M1 + M2 ||x||, ∀t ∈ I , ∀x ∈ Rn ,
(5.11)
allora ogni soluzione massimale di (5.1) è definita su tutto I. Nella prova useremo il seguente lemma fondamentale. Lemma 5.1.10 (di Gronwall). Sia ψ ∈ C1 (J; Cn ), dove J ⊂ R è un intervallo. Se per qualche α ≥ 0, β > 0 si ha ||ψ˙ (t)|| ≤ α + β ||ψ (t)||, ∀t ∈ J, allora ||ψ (t)|| ≤
α
β
+ ||ψ (t0 )|| eβ |t−t0 | , ∀t, t0 ∈ J.
(5.12) (5.13)
5.1 Preliminari
109
Dimostrazione (del lemma). Scritta ψ (t) =ψ1 (t) + iψ2 (t) con ψ j ∈ C 1 (J; Rn ), j = ψ1 (t) 1, 2, e definita ψ˜ : J −→ R2n , ψ˜ (t) = , la (5.12) e la (5.13) per ψ sono equivaψ2 (t) lenti alle (5.12) e (5.13) per ψ˜ , con le stesse costanti. Sarà dunque sufficiente provare il lemma nell’ipotesi ψ ∈ C 1 (J; Rn ). Fissato γ > 0, consideriamo la funzione " J t −→ θ (t) := γ + ||ψ (t)||2 . Si ha che
ψ (t), ψ˙ (t) , θ˙ (t) = θ (t)
e quindi, per la (5.12), si ha
θ˙ (t) ≤ |θ˙ (t)| ≤
α ||ψ (t)|| + β ||ψ (t)||2 θ (t)
Allora
% $ α ||ψ (t)|| α ||ψ (t)||2 β =β + ≤β + θ (t) . θ (t) θ (t) β
θ˙ (t)
≤ β, α + θ (t) β sicché
d α + θ (t) ≤ β , ∀t ∈ J. ln dt β
Integrando, −β |t − t0| ≤ Dunque
θ (t) ≤
& t t0
$
% d α ln + θ (t) ds ≤ β |t − t0 |, ∀t, t0 ∈ J. ds β
α α + θ (t) ≤ + θ (t0) eβ |t−t0 | , ∀t, t0 ∈ J. β β
Poiché tale disuguaglianza è vera per ogni γ > 0, passando al limite per γ → 0+ si ha la (5.13).
Dimostrazione (del teorema). Ragioniamo per assurdo, supponendo che il sistema (5.1) abbia una soluzione massimale φ : J −→ Rn dove, per fissare le idee, si abbia τ+ = sup J < sup I. Preso allora un qualunque t ∈ J con t < τ+ , dalla (5.11) segue che, per certi M1 , M2 > 0, ||φ˙ (t)|| ≤ M1 + M2 ||φ (t)||, ∀t ∈ [t , τ+), e quindi dal Lemma di Gronwall si ha M 1 ||φ (t)|| ≤ + ||φ (t )|| eM2 (t−t ) , ∀t ∈ [t , τ+), M2
110
5 Equazioni differenziali ordinarie
sicché sup ||φ (t)|| < +∞,
t∈[t ,τ+ )
che contraddice l’Osservazione 5.1.8, in quanto si deve invece avere ||φ (t)|| → +∞ per t τ+ .
È il caso di osservare che la condizione di crescita (5.11) è certamente soddisfatta nel caso dei sistemi lineari (5.4). Esempio 5.1.11 (Equazioni a variabili separabili). Consideriamo l’equazione x(t) ˙ = a(t)g(x), con a ∈ C 0 (I; R), g ∈ C 1 (J; R), I e J intervalli aperti di R. Supponiamo che gli eventuali zeri di g siano isolati. Dato (t0 , x0 ) ∈ I × J, vogliamo trovare la soluzione φ del problema di Cauchy ⎧ ⎨ φ˙ (t) = a(t)g(φ (t)) (5.14) ⎩ φ (t0) = x0 . Se g(x0 ) = 0 allora φ (t) = x0 per ogni t ∈ I. Più interessante è il caso g(x0 ) = 0. Sia J ⊂ J il più grande intervallo aperto contenente x0 su cui g = 0, e sia F ∈ C 2 (J ; R) tale che F (x) = 1/g(x), x ∈ J . Poiché F è monotona, F(J ) = (α , β ), per certi α , β con −∞ ≤ α < β ≤ +∞, e F : J −→ (α , β ) è invertibile. Sia (τ− , τ+) ⊂ I l’intervallo di esistenza della soluzione φ di (5.14). Poiché si ha φ˙ (t) = a(t), ∀t ∈ (τ− , τ+ ), g(φ (t)) se ne deduce F(φ (t)) = F(x0 ) + e quindi
& t
a(s)ds, t0
& t φ (t) = F −1 F(x0 ) + a(s)ds , t0
e dunque (τ− , τ+) ⊂ I è il più grande intervallo aperto contenente t0 per cui F(x0 ) +
& t t0
a(s)ds ∈ (α , β ), ∀t ∈ (τ− , τ+).
In particolare, se a(t) ≡ 1, allora (τ− , τ+ ) = (α − F(x0 ) + t0 , β − F(x0 ) + t0 ), e dunque avremo blow-up se e solo se uno almeno tra α e β è in R.
5.1 Preliminari
111
Esempio 5.1.12 (Sistemi gradiente e sistemi hamiltoniani). Sia data F : Ω ⊂ Rn −→ R di classe C 2 . Poniamo f (t, x) := ∇F(x), t ∈ R, x ∈ Ω . Il sistema autonomo (5.1) corrispondente, che scriveremo semplicemente x˙ = ∇F(x), è detto sistema gradiente. Se φ : J −→ Rn è la curva integrale del sistema tale che φ (t0) = x0 (t0 ∈ J, x0 ∈ Ω ), si ha d F(φ (t)) = ∇F(φ (t)), φ˙ (t) = ||∇F(φ (t))||2 ≥ 0, ∀t ∈ J. dt Dunque J t −→ F(φ (t)) ∈ R è debolmente crescente. Se poi ∇F(x0 ) = 0, allora ⎧ ⎨ F(φ (t)) > F(x0 ), ∀t ∈ J, t > t0 , ⎩
F(φ (t)) < F(x0 ), ∀t ∈ J, t < t0 .
Quindi se, ad esempio, ∇F(x) = 0 per ogni x ∈ Ω , ne segue che t −→ F(φ (t)) è strettamente crescente, qualunque sia la curva integrale t −→ φ (t) considerata. Una conseguenza è che ogni curva integrale è trasversa ad ogni superficie di livello di F che incontra: detta St ⊂ Ω l’ipersuperficie definita da St = {x ∈ Ω ; F(x) = F(φ (t))}, allora φ˙ (t) ∈ Tφ (t) St , per ogni t ∈ J. Consideriamo ora il caso “hamiltoniano”. Supponiamo data una funzione F : Ω ⊂ Rny × Rnη −→ R di classe C 2 . Poniamo ∇η F(y, η ) , t ∈ R, (y, η ) ∈ Ω . f (t, x = (y, η )) := −∇y F(y, η ) Il sistema autonomo (5.1) corrispondente, che scriveremo semplicemente x˙ = HF (x), ∇η F y y˙ dove x = , è detto sistema hamiltoniano. Il campo , x˙ = e HF = −∇y F η η˙ HF è detto il campo hamiltoniano di F. Contrariamenteal caso dei sistemi gradiente, y(t) è una curva integrale per i sistemi hamiltoniani si ha che se J t −→ φ (t) = η (t) di (5.1), allora d d F(φ (t)) = F(y(t), η (t)) = ∇y F(φ (t)), y˙(t) + ∇η F(φ (t)), η˙ (t) = 0, dt dt per ogni t ∈ J. Dunque ogni curva integrale del sistema è contenuta in un insieme di livello di F. Una conseguenza importante è che se per qualche c ∈ R l’insieme di livello 0/ = F −1 (c) ⊂ Ω è un compatto di Ω , allora se una curva integrale è contenuta in F −1 (c), essa è definita per tutti i t ∈ R, come conseguenza del Teorema 5.1.7. Notiamo che se F è propria, poiché allora tutti gli insiemi di livello di F sono compatti, ogni curva integrale è definita per tutti i tempi.
112
5 Equazioni differenziali ordinarie
Osservazione 5.1.13. Finora abbiamo trattato il caso di un sistema differenziale del primo ordine (5.1). È ben noto che equazioni (o sistemi) differenziali d’ordine superiore possono essere “ricondotti” a sistemi del prim’ordine. Si consideri ad esempio l’equazione differenziale d’ordine m (m ≥ 2) y(m) = F(t, y, y(1), . . ., y(m−1) ),
(5.15)
dove F ∈ C0 (I × Ω ; R), con I ⊂ R intervallo aperto e Ω ⊂ Rm aperto. Per soluzione di (5.15) s’intende una funzione φ : J −→ Rn , J ⊂ I intervallo non banale, derivabile m volte su J tale che (φ (t), φ (1)(t), . . ., φ (m−1) (t)) ∈ Ω per ogni t ∈ J e
φ (m)(t) = F(t, φ (t), φ (1)(t), . . ., φ (m−1)(t)), ∀t ∈ J. Se poniamo ⎧ x1 = y ⎪ ⎪ ⎪ ⎪ ⎨ x2 = y(1) . ⎪ . ⎪ . ⎪ ⎪ ⎩ xm = y(m−1)
(5.16)
⎡
e
⎤ x2 ⎢ ⎥ x3 ⎢ ⎥ ⎢ ⎥ . ⎢ ⎥, f (t, x1, . . ., xm ) = ⎢ . ⎥ . ⎢ ⎥ ⎣ ⎦ xm F(t, x1, . . ., xm)
(5.17)
è immediato riconoscere che se φ : J −→ R è soluzione di (5.15) allora ψ : J −→ Rm , definita da ⎤ ⎡ φ (t) ⎢ φ (1)(t) ⎥ ⎥ ⎢ ⎥ , t ∈ J, (5.18) ψ (t) = ⎢ .. ⎥ ⎢ ⎦ ⎣ . φ (m−1)(t) è soluzione di x˙ = f (t, x), con f definita in (5.17). E viceversa se ψ : J −→ Rm è soluzione di x˙ = f (t, x), allora φ = ψ1 è soluzione di (5.15). Si noti che se F ∈ C 0(I × Ω ; R), allora f ∈ C0 (I × Ω ; Rm) e che la locale lipschitzianità (5.3) di f è garantita se si suppone (come faremo sempre d’ora innanzi) che per ogni (t¯, x) ¯ ∈ I × Ω esistono h, r, L > 0 tali che la scatola Bh,r (t¯, x¯) ⊂ I × Ω e |F(t, x) − F(t, x )| ≤ L||x − x ||, ∀(t, x ), (t, x) ∈ Bh,r (t¯, x¯).
(5.19)
Lasciamo al lettore dimostrare come, più in generale, un sistema di ordine m dato da k equazioni (k ≥ 2) di tipo (5.15) possa essere ricondotto ad un sistema del prim’ordine di mk equazioni. Lasciamo infine al lettore la cura di formulare gli analoghi dei Teoremi 5.1.7 e 5.1.9 nel caso di equazioni (o sistemi) di ordine m.
5.2 Dipendenza dai dati iniziali e sue conseguenze C’è ora una questione importante da studiare: la dipendenza da t e da x0 della soluzione del problema di Cauchy x˙ = f (t, x), x(t0 ) = x0 .
5.2 Dipendenza dai dati iniziali e sue conseguenze
113
Cominciamo con lo studiare il caso autonomo x˙ = f (x), con f : Ω ⊂ Rn −→ Rn . D’ora innanzi la soluzione del problema di Cauchy x˙ = f (x), x(0) = y ∈ Ω verrà indicata con φ (t; y), dove t ∈ I(y) = (τ− (y), τ+ (y)), l’intervallo massimale di esistenza della soluzione, con −∞ ≤ τ− (y) < 0 < τ+ (y) ≤ +∞. Poniamo U := {(t, y) ∈ R × Ω ; t ∈ I(y)},
(5.20)
e definiamo la mappa Φ : U −→ Ω , detta la mappa di flusso,
Φ t (y) := Φ (t, y) := φ (t; y).
(5.21)
Ovviamente si ha che {0} × Ω ⊂ U . Il problema che si vuole studiare è dunque quello della regolarità di Φ in dipendenza dalla regolarità di f . Diremo che per k = 0, 1, 2, . . ., la mappa f ∈ C k,1(Ω ; Rn) se f ∈ Ck (Ω ; Rn) e per ogni α ∈ Zn+ con |α | = k e per ogni disco chiuso Dr di raggio r contenuto in Ω , esiste una costante C > 0 tale che ||(∂xα f )(x ) − (∂xα f )(x )|| ≤ C||x − x ||, ∀x , x ∈ Dr . ⎡ α ⎤ ∂x f 1 ⎢ . ⎥ α k+1 n ⎥ Qui ∂x f = ⎢ ⎣ .. ⎦ . Si osservi che se f ∈ C (Ω ; R ) allora è anche f ∈ ∂xα f n k,1 n C (Ω ; R ), e quindi che f ∈ C∞ (Ω ; Rn ) se e solo se f ∈ C k,1(Ω ; Rn) per ogni k ≥ 0. Vale il teorema seguente. Teorema 5.2.1. Se f ∈ C k,1(Ω ; Rn) allora: (i) U è un aperto di R × Ω ; (ii) Φ ∈ C k (U ; Rn ); (iii) ∂ Φ /∂ t ∈ C k (U ; Rn ). Sfortunatamente la prova di questo teorema è tutt’altro che banale, e sarà ottenuta come conseguenza di una serie di lemmi. Osserviamo però che (iii) è una conseguenza immediata di (i) e (ii) in quanto ∂ Φ /∂ t(t, x) = f (Φ (t, x)) per ogni (t, x) ∈ U . Basterà dunque provare (i) e (ii). Il primo passo, fondamentale, consiste nel provare che se Φ è C k in un intorno di {0} × Ω , allora U è aperto e Φ è Ck su U (in altre parole, dalla regolarità locale di Φ per t vicino a 0 si ottiene la regolarità globale di Φ ). Lemma 5.2.2. Supponiamo che per ogni y ∈ Ω esistano h, r > 0 tali che (−h, h) × Dr (y) ⊂ U e Φ ∈ Ck ((−h, h) × Dr(y); Rn ). Allora U è aperto e Φ ∈ C k (U ; Rn). Dimostrazione. Cominciamo col provare che la mappa di flusso ha la seguente proprietà di “gruppo”. Precisamente, per ogni y ∈ Ω e per ogni s ∈ I(y) (a) I(Φ s (y)) = I(y) − s = (τ− (y) − s, τ+(y) − s);
114
5 Equazioni differenziali ordinarie
(b) per ogni t ∈ I(Φ s(y))
Φ t (Φ s (y)) = Φ t+s (y). Definiamo θ (t) := Φ t+s (y) = φ (t + s; y), t ∈ I(y) − s. Si ha dtd θ (t) = φ˙ (t + s; y) = f (φ (t + s; y)) = f (θ (t)) e θ (0) = Φ s(y) = φ (s; y). Dunque, per unicità, I(y) − s ⊂ I(Φ s(y)). Se fosse τ+ (y) − s < τ+ (Φ s(y)) (ciò che è possibile solo se τ+ (y) < +∞), poiché φ (t + s; y) = φ (t; Φ s(y)) per 0 < t < τ+ (y) − s, e poiché φ (t; Φ s(y)) è allora sicuramente definita per t = τ+ (y) − s, ne verrebbe che φ (t + s; y) ha un limite finito per t + s τ+ (y), il che è impossibile per il Teorema 5.1.7. Dunque τ+ (Φ s (y)) = τ+ (y) − s. In modo analogo si vede che τ− (Φ s(y)) = τ− (y) − s, ciò che conclude la prova di (a) e (b). Il punto successivo da provare è il seguente. Fissato ad arbitrio y0 ∈ Ω si consideri l’insieme E dei numeri b ∈ (0, τ+(y)) tali che per ogni t¯ ∈ [0, b) ci sono un intervallo aperto J t¯ e un intorno aperto U ⊂ Ω di y0 tali che J ×U ⊂ U e Φ ∈ Ck (J ×U; Rn ). Si noti che per ipotesi E = 0. / Proveremo che sup E = τ+ (y0 ). In modo analogo si considera l’insieme E dei numeri b ∈ (τ− (y), 0) tali che per ogni t¯ ∈ (b, 0] ci sono un intervallo aperto J t¯ e un intorno aperto U ⊂ Ω di y0 tali che J × U ⊂ U e Φ ∈ C k (J × U; Rn ). Si noti ancora che E = 0. / Come nel caso di E si vede che infE = τ− (y0 ). Provato questo, per l’arbitrarietà di y0 ne verrà che U è aperto e Φ ∈ C k (U ; Rn). Proviamo allora che sup E = τ+ (y0 ), lasciando al lettore la prova che infE = τ− (y0 ). Ragioniamo per assurdo, supponendo che sia sup E =: T < τ+ (y0 ). Sia y1 = Φ T (y0 ) ∈ Ω . Per ipotesi esiste a > 0 tale che (−a, a) × Da (y1 ) ⊂ U e Φ ∈ C k ((−a, a) × Da (y1 ); Rn ). Si fissi ora 0 < δ < min{a, T}, in modo tale che per t ∈ (T − δ , T) si abbia Φ t (y0 ) ∈ Da/4 (y1 ). Preso ora t1 ∈ (T − δ , T), per definizione di E esistono un intervallo aperto J1 t1 e un intorno aperto U1 ⊂ Ω di y0 tali che J1 × U1 ⊂ U , Φ ∈ C k (J1 × U1 ; Rn) e Φ (J1 × U1 ) ⊂ Da/2 (y1 ). In particolare ne segue che la mappa U1 y −→ Φ t1 (y) ∈ Da/2 (y1 ) è di classe C k . D’altra parte, per ipotesi, la mappa (−a, a) × Da (y1 ) (s, z) −→ Φ s(z) è pure di classe C k . Dunque per composizione la mappa (−a, a) ×U1 (s, y) −→ Φ s (Φ t1 (y)) è di classe Ck . Ma allora anche la mappa (t1 − a, t1 + a) × U1 (t, y) −→ Φ t−t1 (Φ t1 (y)) = Φ t (y) è di classe Ck . Poiché, per la scelta di δ , è t1 + a > T , si ha dunque che non può essere sup E < τ+ (y0 ). Ciò conclude la prova del lemma.
Si tratta ora di provare la regolarità locale di Φ a partire dalla regolarità di f . Cominciamo col provare la continuità. Lemma 5.2.3. Se f ∈ C0,1 (Ω ; Rn ) allora U è aperto e Φ ∈ C 0 (U ; Rn) (e quindi anche ∂ Φ /∂ t ∈ C 0 (U ; Rn)). Dimostrazione. Si fissi un arbitrario y0 ∈ Ω , e sia r > 0 tale che D3r (y0 ) ⊂ Ω . Poniamo || f (x ) − f (x )|| M := max || f (x)||, L := sup . ||x − x || x∈D3r (y0 ) x =x x ,x ∈D3r (y0 )
5.2 Dipendenza dai dati iniziali e sue conseguenze
115
Fissiamo poi h > 0 tale che Mh ≤ r e Lh < 1, e consideriamo E := {ψ : [−h, h] × Dr (y0 ) −→ D2r (y0 ); ψ continua}, munito della distanza d(α , β ) := max ||α (t, y) − β (t, y)||, α , β ∈ E. |t|≤h y∈Dr (y0 )
È immediato riconoscere che (E, d) è uno spazio metrico completo. Si consideri l’operatore (T ψ )(t, y) := y +
& t 0
f (ψ (s, y))ds, ψ ∈ E (dunque |t| ≤ h e y ∈ Dr (y0 )).
Le proprietà seguenti sono di verifica immediata: • T : E −→ E; • d(T α , T β ) ≤ Lh d(α , β ), ∀α , β ∈ E. Dal teorema del punto fisso segue che esiste un’unica ψ ∈ E tale che
ψ (t, y) = y +
& t 0
f (ψ (s, y))ds.
(5.22)
∂ψ (t, y) = f (ψ (t, y)) e ψ (0, y) = y, ne segue che [−h, h] × Dr (y0 ) ⊂ U e ∂t t Φ (y) = ψ (t, y) per |t| ≤ h e y ∈ Dr (y0 ). Sicché Φ ∈ C 0 ([−h, h] × Dr (y0 ); Rn), e quindi dal Lemma 5.2.2, U è aperto e Φ ∈ C0 (U ; Rn ). Ciò prova il lemma.
Poiché
È importante notare che
||ψ (t, y ) − ψ (t, y )|| ≤ ||y − y || + ||
& t 0
f (ψ (s, y )) − f (ψ (s, y )) ds|| ≤
≤ ||y − y || + Lh max ||ψ (s, y ) − ψ (s, y )||, |s|≤h
e quindi max ||ψ (t, y) − ψ (t, y )|| ≤ |t|≤h
1 ||y − y ||, ∀y , y ∈ Dr (y0 ). 1 − Lh
Incrementiamo ora la regolarità.
(5.23)
116
5 Equazioni differenziali ordinarie
Lemma 5.2.4. Se f ∈ C 1,1 (Ω ; Rn) allora Φ ∈ C1 (U ; Rn) (e quindi anche ∂ Φ /∂ t ∈ C 1(U ; Rn )). Dimostrazione. Dal lemma precedente sappiamo già che per |t| ≤ h e y ∈ Dr (y0 ) si ha Φ t (y) ∈ D2r (y0 ), e
Φ t (y) = y +
& t 0
f (Φ s(y))ds.
(5.24)
Derivando formalmente la (5.24) rispetto ad y j , 1 ≤ j ≤ n, si ottiene l’equazione
∂ t Φ (y) = e j + ∂yj
& t
f (Φ s (y))
0
∂ Φ s (y)ds, ∂yj
dove f (x) è la matrice jacobiana di f in x. L’identità precedente suggerisce di considerare lo spazio vettoriale Vh := {θ : [−h, h] × Dr(y0 ) −→ Rn ; θ continua} con la norma ||θ || := max ||θ (t, y)||, e di definire su Vh l’operatore lineare |t|≤h y∈Dr (y0 )
(Sθ )(t, y) :=
& t 0
f (Φ s(y))θ (s, y)ds, |t| ≤ h, y ∈ Dr (y0 ).
(5.25)
Posto M1 := max || f (x)||, si ha immediatamente che x∈D3r (y0 )
||Sθ || ≤ M1 h||θ ||, ∀θ ∈ Vh . Scelto allora h1 ∈ (0, h], con M1 h1 < 1, ne segue che l’operatore lineare S : Vh1 −→ Vh1 ha norma ≤ M1 h1 < 1, e quindi per ogni j fissato, 1 ≤ j ≤ n, esiste ed è unica θ j ∈ Vh1 tale che θ j − Sθ j = e j , i.e.
θ j (t, y) = e j +
& t 0
f (Φ s(y))θ j (s, y)ds, |t| ≤ h1 , y ∈ Dr (y0 ).
Poiché ||θ j || ≤ 1 + M1h1 ||θ j ||, ne segue ||θ j || ≤
1 . 1 − M1h1
Di più, posto L1 =
sup
x =x x ,x ∈D3r (y0 )
|| f (x ) − f (x )|| , ||x − x ||
(5.26)
5.2 Dipendenza dai dati iniziali e sue conseguenze
117
poiché per |t| ≤ h1 e y , y ∈ Dr (y0 ) & t f (Φ s(y ))θ j (s, y ) − f (Φ s(y ))θ j (s, y ) ds = θ j (t, y ) − θ j (t, y ) = 0
& t
f (Φ s (y )) − f (Φ s (y )) θ j (s, y )ds+ 0 & t f (Φ s (y )) θ j (s, y ) − θ j (s, y ) ds, +
=
0
si ha ||θ j (t, y ) − θ j (t, y )|| ≤ ≤ L1 h1 max ||Φ s(y ) − Φ s(y )|| ||θ j|| + M1 h1 max ||θ j (s, y ) − θ j (s, y )||. |s|≤h1
|s|≤h1
Utilizzando la (5.23) e tenendo conto del fatto che ||θ j || ≤ 1/(1 − M1 h1 ), si conclude che max ||θ j (t, y) − θ j (t, y )|| ≤ C||y − y ||, (5.27) |t|≤h1
dove
L1 h1 1 > 0. 2 (1 − M1 h1 ) 1 − Lh Occorre ora provare che Φ t (y) ammette derivata parziale rispetto ad y j , e che ∂ Φ t (y)/∂ y j = θ j (t, y). A tal fine fissiamo r1 ∈ (0, r) e, per y ∈ Dr1 (y0 ) e λ ∈ R con 0 < |λ | ≤ r − r1 e |t| ≤ h1 , consideriamo i rapporti incrementali C=
gλ (t, y) :=
Φ t (y + λ e j ) − Φ t (y) . λ
Da (5.23) si ha ||gλ (t, y)|| ≤ Dalla (5.24) si ha gλ (t, y) = e j +
1 . 1 − Lh
(5.28)
& t f (Φ s (y + λ e j )) − f (Φ s(y))
ds = λ & t f (Φ s (y) + λ gλ (s, y)) − f (Φ s(y)) = ej + ds. λ 0 Ora, Φ s(y) ∈ D2r (y0 ) e da (5.28), se 0 < |λ | ≤ r(1 − Lh), si ha anche che vale ||λ gλ (s, y)|| ≤ r. D’altra parte se ||z − y0 || ≤ 2r e ||v|| ≤ r, allora, per il teorema del valor medio, & 0
f (z + v) − f (z) =
1
0
f (z + τ v)d τ v.
(5.29)
Dunque, con la scelta di λ sopra indicata, ed usando la (5.29), si ha
dove H(s, y; λ ) :=
& 1 0
& t
H(s, y; λ )gλ (s, y)ds,
(5.30)
f (Φ s(y) + τλ gλ (s, y))d τ .
(5.31)
gλ (t, y) = e j +
0
118
5 Equazioni differenziali ordinarie
Da (5.26) e (5.31) segue che per |t| ≤ h1 e y ∈ Dr1 (y0 ) gλ (t, y) − θ j (t, y) = =
& t 0
& t 0
H(s, y; λ )gλ (s, y)ds −
& t 0
f (Φ s(y))θ j (s, y)ds =
& t H(s, y; λ ) − f (Φ s (y)) θ j (s, y)ds. H(s, y; λ ) gλ (s, y) − θ j (s, y) ds + 0
Ora ||gλ (t, y) − θ j(t, y)|| ≤ ≤ M1 h1 max ||gλ (s, y) − θ j (s, y)|| + h1 ||θ j || sup ||H(s, y; λ ) − f (Φ s (y))||. |s|≤h1
|s|≤h1
Dalla (5.28) e (5.31), per la lipschitzianità di
f ,
si ha
sup ||H(s, y; λ ) − f (Φ s (y))|| ≤
|s|≤h1
Dunque
L1 |λ |. 1 − Lh
max ||gλ (t, y) − θ j (t, y)|| ≤ C |λ |,
|t|≤h1 y∈Dr1 (y0 )
con C =
L1 h1 1 > 0. 2 (1 − M1 h1 ) 1 − Lh
In conclusione gλ → θ j per λ → 0 uniformemente su [−h1 , h1 ] × Dr1 (y0 ). Possiamo ∂ t Φ (y) esiste ed è continua per |t| ≤ h1 e y ∈ Dr1 (y0 ), con dunque concludere che ∂yj
∂ t Φ (y) = e j + ∂yj Poiché da (5.24) si ha
& t 0
f (Φ s(y))
∂ Φ s(y)ds, 1 ≤ j ≤ n. ∂yj
∂ t Φ (y) = f (Φ t (y)), ∂t
ne segue dunque che Φ ∈ C 1 ([−h1 , h1 ] ×Dr1 (y0 ); Rn). Di nuovo, per il Lemma 5.2.2, si ha allora che Φ ∈ C 1 (U ; Rn ).
Procedendo, ci si aspetta dunque di provare che da f ∈ C 2,1 (Ω ; Rn) segua Φ ∈ ; Rn ). Osserviamo che per il solo fatto che f ∈ C 1,1(Ω ; Rn ) si ha che ∂ Φ /∂ t ∈ 1 C (U ; Rn ). Abbiamo quindi, intanto, le relazioni C 2(U
∂ 2Φ ∂ Φ ∂ 2Φ ∂Φ = f ( Φ (t, y)) , (t, y) ∈ U , 1 ≤ j ≤ n. , = f (Φ (t, y)) ∂t2 ∂ t ∂ y j∂ t ∂yj D’altra parte, sempre nella sola ipotesi che f ∈ C 1,1 (Ω ; Rn), si è provato nel lemma precedente che
5.2 Dipendenza dai dati iniziali e sue conseguenze
∂Φ (t, y) = e j + ∂yj
& t 0
f (Φ (s, y))
∂Φ (s, y)ds, 1 ≤ j ≤ n, ∂yj
119
(5.32)
almeno per |t| ≤ h1 , y ∈ Dr1 (y0 ). Dunque si ha anche
∂ 2Φ ∂Φ (t, y) = f (Φ (t, y)) (t, y), |t| ≤ h1 , y ∈ Dr1 (y0 ). ∂t∂ yj ∂yj A questo punto, se l’ipotesi f ∈ C 2,1 (Ω ; Rn) ci consente di provare che le derivate parziali seconde ∂ 2 Φ /∂ y∂ y j esistono e sono continue almeno per |t| ≤ h2 e y ∈ Dr2 (y0 ), per certi h2 ∈ (0, h1], r2 ∈ (0, r1 ], ne seguirà allora che Φ ∈ C 2([−h2 , h2] × Dr2 (y0 ); Rn), sicché, ancora per il Lemma 5.2.2, potremo concludere che Φ ∈ C 2 (U ; Rn) (e quindi anche che ∂ Φ /∂ t ∈ C2 (U ; Rn)). Dunque il punto fondamentale consiste nel provare l’esistenza e continuità delle ∂ 2 Φ /∂ y ∂ y j . Ora, derivando formalmente la (5.32) si ha
∂ 2Φ (t, y) = ∂ y ∂ y j
& t 0
f (Φ (s, y))
∂ 2Φ (s, y)ds+ ∂ y ∂ y j +
dove, per x ∈ Ω , v, w ∈
& t 0
f (Φ (s, y);
(5.33)
∂Φ ∂Φ (s, y), (s, y))ds, ∂yj ∂ y
Rn ,
abbiamo usato la notazione ⎤ ⎡ Hess f 1 (x)v, w ⎥ ⎢ . ⎥. f (x; v, w) := ⎢ . ⎦ ⎣ . Hess f n (x)v, w
A questo punto, invece di procedere come nel lemma precedente mostrando che i rapporti incrementali di ∂ Φ /∂ y j nella direzione e convergono uniformemente alla soluzione dell’equazione integrale (5.33), è conveniente stabilire un lemma generale che consenta di effettuare il passo induttivo. Lemma 5.2.5. Per a > 0 e per un disco chiuso Dρ ⊂ Rn di raggio ρ > 0, siano date H ∈ C0 ([−a, a] × Dρ ; M(n; R)), K ∈ C0 ([−a, a] × Dρ ; Rn ), tali che per un certo C > 0 si abbia max ||H(t, y) − H(t, y )|| + max ||K(t, y) − K(t, y )|| ≤ C||y − y ||, ∀y , y ∈ Dρ . |t|≤a
|t|≤a
Supponiamo inoltre che per j = 1, . . ., n, si abbia
∂H ∂K ∈ C 0 ([−a, a] × Dρ ; M(n; R)), ∈ C 0 ([−a, a] × Dρ ; Rn ), ∂yj ∂yj e che per ogni ρ ∈ (0, ρ ) esista C > 0 per cui si abbia
120
5 Equazioni differenziali ordinarie
max || |t|≤a
∂H ∂H ∂K ∂K (t, y ) − (t, y)|| + max || (t, y ) − (t, y )|| ≤ C ||y − y ||, ∂yj ∂yj ∂yj |t|≤a ∂ y j
per ogni y , y ∈ Dρ , 1 ≤ j ≤ n. Supponiamo poi data θ ∈ C0 ([−a, a] × Dρ ; Rn) tale che: (i) esiste C > 0 per cui max ||θ (t, y) − θ (t, y )|| ≤ C ||y − y ||, ∀y , y ∈ Dρ ; |t|≤a
(ii) per |t| ≤ a e y ∈ Dρ e per un fissato v ∈ Rn
θ (t, y) = v +
& t 0
H(s, y)θ (s, y)ds +
&t
K(s, y)ds. 0
Allora esiste a ∈ (0, a] per cui le derivate parziali ∂ θ /∂ y j ∈ C0 ([−a , a] × Dρ ; Rn ), 1 ≤ j ≤ n, soddisfano l’equazione integrale
∂θ (t, y) = ∂yj
& t
H(s, y) 0
∂θ (s, y)ds + ∂yj
& t ∂K
∂yj
0
(s, y) +
∂H (s, y)θ (s, y) ds, ∂yj
per |t| ≤ a , y ∈ Dρ , e per ogni ρ ∈ (0, ρ ) si ha che per C > 0 vale max ||
|t|≤a
∂θ ∂θ (t, y) − (t, y )|| ≤ C ||y − y ||, ∀y , y ∈ Dρ , 1 ≤ j ≤ n. ∂yj ∂yj
Dimostrazione. Si fissi a ∈ (0, a] in modo tale che a max ||H(t, y)|| < 1. |t|≤a y∈Dρ
Per ogni ρ ∈ (0, ρ ) fissato si consideri lo spazio vettoriale X := C 0 ([−a , a] × Dρ ; Rn) munito della norma uniforme. L’operatore lineare L : X −→ X,
(Lψ )(t, y) :=
& t 0
H(s, y)ψ (s, y)ds,
ha, per costruzione, norma < 1 e quindi idX − L è invertibile. Poiché (t, y) −→
& t ∂K 0
∂yj
(s, y) +
∂H (s, y)θ (s, y) ds ∈ X, ∂yj
esiste quindi un’unica ψ j ∈ X tale che
ψ j (t, y) =
& t 0
H(s, y)ψ j (s, y)ds +
& t ∂K 0
∂yj
(s, y) +
∂H (s, y)θ (s, y) ds. ∂yj
5.2 Dipendenza dai dati iniziali e sue conseguenze
121
Lasciamo al lettore verificare che esiste C > 0 per cui max ||ψ j (t, y ) − ψ j (t, y )|| ≤ C ||y − y ||, ∀y , y ∈ Dρ .
|t|≤a
Consideriamo i rapporti incrementali
θ (t, y + λ e j ) − θ (t, y) , |t| ≤ a , y ∈ Dρ , 0 < |λ | ≤ (ρ − ρ )/2. λ Osserviamo subito che gλ (t, y) :=
sup
|t|≤a y∈Dρ 0 0 per cui 1 − a max ||H(t, y)|| max ||gλ (t, y) − ψ j (t, y)|| ≤ aC0 |λ |. |t|≤a y∈Dρ
|t|≤a y∈Dρ
Il limite per λ → 0 conclude la prova del lemma.
122
5 Equazioni differenziali ordinarie
Facciamo ora vedere come, usando il Lemma 5.2.5, si possa provare che se f ∈ C 2,1(Ω ; Rn ) allora il flusso Φ ∈ C 2 (U ; Rn ). Dal Lemma 5.2.4 sappiamo che ∂ Φ /∂ y , = 1, . . ., n, esistono, sono continue, soddisfano l’equazione integrale
∂Φ (t, y) = e + ∂ y
& t 0
f (Φ (s, y))
∂Φ (s, y)ds, |t| ≤ h1 , y ∈ Dr1 (y0 ), ∂ y
e vale (5.27), cioè ∂ Φ ∂Φ max (t, y ) − (t, y ) ≤ C||y − y ||, ∀y , y ∈ Dr1 (y0 ). ∂ y |t|≤h1 ∂ y L’idea è ora di applicare il Lemma 5.2.5 con le identificazioni a = h1 , Dρ = Dr1 (y0 ), H(t, y) = f (Φ (t, y)) e K = 0, v = e e θ (t, y) = ∂ Φ /∂ y(t, y). Tutte le ipotesi sono soddisfatte una volta che si sia provato che ∂ H/∂ y j ∈ C 0 ([−h1 , h1 ] × Dr1 (y0 ); M(n; R)) e sono lipschitziane in y, uniformemente in |t| ≤ h1 , su ogni Dr (y0 ) ⊂ Dr1 (y0 ). Poiché f è di classe C 2 e, come già sappiamo, Φ ∈ C 1 (U ; Rn ), 1 se ne deduce che
∂H ∂Φ (t, y) = f (Φ (t, y); (t, y), ·) ∈ M(n; R), ∂yj ∂yj e quindi la continuità. Quanto alla lipschitzianità, ciò è conseguenza della lipschitzianità di f (si ricordi che f ∈ C 2,1 (Ω ; Rn)) e della lipschitzianità delle ∂ Φ /∂ y j . Il lemma garantisce quindi che esistono le ∂ 2 Φ /∂ y ∂ y j , che sono continue, che soddisfano l’equazione integrale
∂ 2Φ (t, y) = ∂ y ∂ y j +
& t 0
& t 0
f (Φ (s, y))
∂ 2Φ (s, y)ds+ ∂ y ∂ y j
f (Φ (s, y);
∂Φ ∂Φ (s, y), (s, y))ds, |t| ≤ h2 , y ∈ Dr2 (y0 ), ∂yj ∂ y
(5.34)
con h2 ∈ (0, h1 ], r2 ∈ (0, r1 ) e, di più, che sono anche lipschitziane in y uniformemente in t. La discussione precedente garantisce dunque che Φ ∈ C 2(U ; Rn ). Ora, per provare che da f ∈ C3,1 (Ω ; Rn) segue Φ ∈ C 3 (U ; Rn), basta mostrare l’esistenza e continuità delle derivate parziali terze di Φ rispetto ad y. A tal fine, l’idea è di riutilizzare il Lemma 5.2.5 a partire dalla (5.34), dove, questa vol∂Φ ∂Φ (s, y), (s, y)), e θ (t, y) = ta, H(t, y) = f (Φ (t, y)) e K(t, y) = f (Φ (s, y); ∂yj ∂ y ∂ 2 Φ /∂ y∂ y j (t, y). Lasciamo al lettore la verifica delle ipotesi del lemma, e quindi concludere che esistono ∂ 3 Φ /∂ yh ∂ y ∂ y j , che sono continue, che soddisfano l’equazione integrale
∂ 3Φ (t, y) = ∂ yh ∂ y ∂ y j
& t 0
f (Φ (s, y))
∂ 2Φ (s, y)ds+ ∂ yh ∂ y ∂ y j
5.2 Dipendenza dai dati iniziali e sue conseguenze
+
$ & t 0
123
∂ 2Φ ∂ f (Φ (s, y)) (s, y)+ ∂ yh ∂ y ∂ y j
% ∂ ∂Φ ∂Φ (s, y), (s, y)) ds, f (Φ (s, y); + ∂ yh ∂yj ∂ y
per |t| ≤ h3 , y ∈ Dr3 (y0 ), con h3 ∈ (0, h2], r3 ∈ (0, r2 ), e che, di più, sono lipschitziane in y uniformemente in t. Dovrebbe essere ora chiaro come procedere per induzione, concludendo così la prova del Teorema 5.2.1. Rimarchiamo il fatto che allora, come conseguenza del Teorema 5.2.1, se f ∈ C ∞(Ω ; Rn) allora Φ ∈ C ∞ (U ; Rn). Vediamo ora una serie di conseguenze importanti del teorema precedente, supponendo che f ∈ C k,1(Ω ; Rn ), k ≥ 0. Il fatto che U = {(t, y); y ∈ Ω , τ− (y) < t < τ+ (y)} sia aperto ha due conseguenze immediate importanti. Per cominciare osserviamo che Ω y −→ τ+ (y) è semicontinua inferiormente e Ω y −→ τ− (y) è semicontinua superiormente. Proviamo ad esempio la semicontinuità inferiore di τ+ in un punto y ∈ Ω . Se τ+ (y) < +∞, dato ε > 0 arbitrario, prendiamo t ∈ R, τ− (y) < t < τ+ (y), tale che t > τ+ (y) − ε /2. Poiché (t, y) ∈ U e U è aperto, esiste 0 < δ ≤ ε /2 per cui ogni (t , y ) ∈ U se t − δ < t < t + δ e ||y − y || < δ . Allora
τ+ (y ) > t > t − δ > τ+ (y) − ε /2 − δ ≥ τ+ (y) − ε , sicché
||y − y || < δ =⇒ τ+ (y ) > τ+ (y) − ε ,
il che prova la semicontinuità inferiore in y. Se invece τ+ (y) = +∞, ci basterà provare che τ+ (y ) = +∞ per y vicino ad y. Per ipotesi, (n, y) ∈ U quale che sia n ∈ N. Di nuovo, dato ε > 0 arbitrario, sia δ > 0 tale che (t , y ) ∈ U se n − δ < t < n + δ e ||y − y|| < δ . Dunque n − δ < τ+ (y ), il che prova l’asserto per l’arbitrarietà di n. Un’altra osservazione è che per ogni t ∈ R l’insieme Ut := {y ∈ Ω ; , (t, y) ∈ U } = {y ∈ Ω ; τ− (y) < t < τ+ (y)} è pure aperto. Tale insieme ovviamente è non vuoto se e solo se −∞ ≤ inf τ− (y) < t < sup τ+ (y) ≤ +∞. y∈Ω
y∈Ω
(5.35)
Se Ut = 0/e y ∈ Ut allora Φ t (y) ∈ Us , per ogni s con τ− (y) − t < s < τ+ (y) − t e Φ s Φ t (y) = Φ s+t (y) (si vedano (a) e (b) nella prova del Lemma 5.2.2). In parti/ Dunque colare Φ t (y) ∈ U−t (giacché τ− (y) < 0 < τ+ (y)), e quindi anche U−t = 0.
124
5 Equazioni differenziali ordinarie
Φ t : Ut −→ U−t in modo iniettivo (per l’unicità). Allo stesso modo si prova che Φ −t : U−t −→ Ut in modo iniettivo. Poiché Φ t ◦ Φ −t = idU−t e Φ −t ◦ Φ t = idUt , si ha che Φ t : Ut −→ U−t è un diffeomorfismo di classe C k (omeomorfismo se k = 0). Si osservi che, come conseguenza di (5.35), l’insieme dei t ∈ R per cui Ut = 0/ è l’intervallo inf τ− (y), sup τ+ (y) . y∈Ω
y∈Ω
Poiché si è visto che Ut = 0/ se e solo se U−t = 0, / ne consegue che l’intervallo è simmetrico rispetto all’origine, e quindi inf τ− (y) = − sup τ+ (y)
y∈Ω
y∈Ω
(5.36)
(con l’ovvia convenzione che −∞ = −(+∞)). È bene notare che può accadere che sup τ+ (y) < +∞. Ad esempio sia Ω = y∈Ω
(1, +∞) e f (x) =
x2 ,
x ∈ Ω . In tal caso Φ t (y) =
y 1 con τ+ (y) = e τ− (y) = 1 − ty y
1 −1 + , da cui sup τ+ (y) = 1. y y∈Ω Una seconda conseguenza è legata all’invarianza del flusso per diffeomorfismi. Precisamente, sia f ∈ Ck,1(Ω ; Rn) e sia χ : Ω −→ Ω˜ un diffeomorfismo di classe Ck+2 (tale ipotesi è in effetti un po’ sovrabbondante, ma rende le cose un po’ più semplici) di Ω su un aperto Ω˜ ⊂ Rn . Definiamo il push-forward del campo f tramite χ come (5.37) f˜ : Ω˜ −→ Rn , f˜(z) := χ χ −1 (z) f χ −1 (z) , dove χ (y) è la matrice jacobiana di χ in y ∈ Ω . Cominciamo con l’osservare che f˜ ∈ Ck,1(Ω˜ ; Rn ). Ciò è una conseguenza immediata del lemma seguente. Lemma 5.2.6. Sia U ⊂ Rn aperto e sia F : U −→ Rn . Allora F ∈ C 0,1 (U; Rn) se e solo se F è continua e per ogni compatto K ⊂ U esiste CK > 0 tale che ||F(x ) − F(x )|| ≤ CK ||x − x ||, ∀x , x ∈ K. Dimostrazione. Se F è lipschitziana su ogni compatto, allora lo è su ogni disco chiuso di U. Dunque basta provare il viceversa. Dato il compatto K, sia δ > 0 tale che K⊂
N !
Dδ (x j ) ⊂
j=1
N !
D2δ (x j ) ⊂ U,
j=1
per certi x j ∈ U, e per un certo N ∈ N. Ora se x , x ∈ K e ||x − x || ≥ δ , allora ||F(x ) − F(x )|| ≤ 2
max ||F(x)|| x∈K
δ
||x − x ||.
5.2 Dipendenza dai dati iniziali e sue conseguenze
125
D’altra parte, se x , x ∈ K e ||x − x || ≤ δ allora x , x ∈ D2δ (x j ) per almeno un x j . Per ipotesi, per j = 1, . . ., N, esiste C j > 0 per cui ||F(x ) − F(x )|| ≤ C j ||x − x ||, per ogni x , x ∈ D2δ (x j ), e quindi ||F(x ) − F(x )|| ≤ max C j ||x − x ||, 1≤ j≤N
per ogni x , x ∈ K con ||x − x || ≤ δ .
Siano ora Φ : U ⊂ R × Ω −→ Ω la mappa flusso associata ad f e Φ˜ : U˜ ⊂ R × Ω˜ −→ Ω˜ quella associata ad f˜. Verifichiamo che si ha χ Φ t (y) = Φ˜ t χ (y) , ∀(t, y) ∈ U . (5.38) Infatti
d t χ Φ (y) = χ Φ t (y) f Φ t (y) = dt = χ χ −1 χ (Φ t (y)) f χ −1 χ (Φ t (y)) = f˜ χ (Φ t (y)) . Poiché χ Φ t (y) t=0 = χ (y), per unicità si ha la (5.38). L’invarianza del flusso permette di provare i fatti seguenti. Per semplicità supponiamo f ∈ C ∞(Ω ; Rn). • Sia S ⊂ Ω una sottovarietà (C∞) di codimensione 1 ≤ d < n, e si supponga che f (y) ∈ Ty S, per ogni y ∈ S. Allora Φ t (y) ∈ S per ogni y ∈ S e t ∈ I(y) = (τ− (y), τ+ (y)). Ciò si può provare nel modo seguente. Fissato un qualunque y0 ∈ S, esistono un in˜ con U˜ torno aperto U ⊂ Ω di y0 ed un diffeomorfismo di classe C ∞, χ : U −→ U, intorno aperto dell’origine in Rn , tali che: (i) χ (y0 ) = 0; ˜ z1 = z2 = . . . = zd = 0}. (ii) χ (U ∩ S) = {z ∈ U; Sia f˜ il push-forward di f U tramite χ . Poiché f è tangente ad S, ne segue che, scrivendo z = (z , z ) ∈ Rd × Rn−d , ˜ f˜1 (0, z ) = f˜2 (0, z ) = . . . = f˜d (0, z ) = 0, ∀(0, z ) ∈ U. ˜ la soluzione del problema di Cauchy z˙ = f˜(z), z(0) = (0, z ) è, per Dato (0, z ) ∈ U, ⎡ ⎤ f˜d+1 (0, z (t)) ⎢ ⎥ . ⎥, z (0) = z . l’unicità, z(t) = (0, z (t)), con z˙ (t) = ⎢ .. ⎣ ⎦ ˜f n (0, z (t)) Dunque Φ˜ t (0, z ) ∈ χ (U ∩ S) per ogni t del relativo intervallo massimale di esistenza, e quindi per la (5.38), Φ t (y) ∈ S per y ∈ S e |t| abbastanza piccolo. Ma allora per la proprietà gruppale del flusso si ha la tesi.
126
5 Equazioni differenziali ordinarie
• Sia S ⊂ Ω una sottovarietà (C ∞) di codimensione 1 ≤ d < n, e si supponga f (y0 ) ∈ Ty0 S, per un certo y0 ∈ S. Allora esistono un intorno (relativamente) aperto V ⊂ S di y0 ed un T > 0 tali che l’insieme {Φ t (y); y ∈ V, |t| < T } è una sottovarietà (C ∞ ) di Ω di codimensione d − 1 (immagine diffeomorfa tramite Φ di (−T, T ) ×V ; si veda la Figura 5.1). Ciò si può provare nel modo seguente. Con le notazione del punto precedente, si d
∑ f˜j (0, 0)2 > 0, e quindi su un intorno V˜
considera f˜(z). Per ipotesi
dell’origine
j=1
contenuto in Rn−d si avrà
d
∑ f˜j(0, z)2 > 0, z ∈ V˜ . Consideriamo la mappa j=1
R × V˜ (t, z ) −→ Φ˜ t (0, z ) ∈ Rn , che è certamente ben definita, e di classe C∞ (a patto eventualmente di restringere V˜ ) su (−a, a) × V˜ , per un certo a > 0. La mappa è iniettiva e, d’altra parte, la sua matrice jacobiana, che è n × (n − d + 1), ha rango massimo n − d + 1 quando t = 0. Poiché il rango non può decrescere se ne deduce, a patto eventualmente di ridurre a e restringere V˜ , che (−a, a) × V˜ (t, z ) −→ Φ˜ t (0, z ) ∈ Rn è una parametrizzazione di una sottovarietà di codimensione d − 1. Usando la (5.38) si ha la tesi. Un’ultima conseguenza che vogliamo mettere in evidenza è legata al problema seguente. Data F ∈ C ∞(Ω ; R), Ω ⊂ Rn aperto connesso (n ≥ 2), e dati a, b ∈ F(Ω ), a < b, supponiamo che ∇F(x) = 0 per ogni x ∈ F −1 (a) =: Sa e ∇F(x) = 0 per ogni x ∈ F −1 (b) =: Sb . Dunque Sa e Sb sono sottovarietà (n − 1)-dimensionali di Ω . La domanda è: Sa ed Sb sono diffeomorfe?
Fig. 5.1. Il campo trasverso ad S
5.2 Dipendenza dai dati iniziali e sue conseguenze
127
È ben noto che la risposta in generale è negativa. Ad esempio, se F(x) = x21 + x22 − x23 , x = (x1 , x2 , x3 ) ∈ R3 , F(R3 ) = R e ∇F(x) = 0 se e solo se x = 0. Ora, se c > 0 si ha che F −1 (c) è l’iperboloide ad una falda di equazione x21 + x22 − x23 = c, mentre se 2 2 2 c < 0 si ha che F −1 (c) è l’iperboloide a due falde " di equazione x1 + x2 − x3 = c, dove
le due falde sono date dalle equazioni x3 = ± x21 + x22 + |c|. Quindi se a < 0 < b, allora Sa ed Sb non sono diffeomorfe, mentre è chiaro che lo sono se 0 < a < b oppure a < b < 0. Una spiegazione di questo fenomeno risiede nel fatto che 0 è un valore critico di F (cioè, immagine di un punto in cui il gradiente di F è nullo). Abbiamo il seguente risultato generale. Lemma 5.2.7. Sia F ∈ C∞ (Rn ; R) e si supponga che ||∇F(x)|| ≤ C1 ||x|| +C2, ∀x ∈ Rn . Siano a, b ∈ F(Rn ), a < b, e si supponga che per una certa c > 0 ||∇F(x)|| ≥ c, ∀x ∈ F −1 ([a, b]). Allora Sa = F −1 (a) è diffeomorfa a Sb = F −1 (b). Dimostrazione. Consideriamo il sistema autonomo gradiente x˙ = ∇F(x). Per il Teorema 5.1.9 e per l’ipotesi di crescita di ∇F, sappiamo che la mappa flusso è definita (e C∞ ) su U = R×Rn . Dato y ∈ Sa , consideriamo la curva integrale 0 ≤ t −→ Φ t (y). Si ha che d F(Φ t (y)) = ||∇F(Φ t (y))||2 ≥ 0, dt e quindi 0 ≤ t −→ F(Φ t (y)) è debolmente crescente, e dunque F(Φ t (y)) ≥ a, per ogni t ≥ 0. Osserviamo che non può aversi F(Φ t (y)) < b, per ogni t ≥ 0. Infatti, se così fosse, avremmo b > F(Φ t (y)) = a +
& t d 0
ds
F(Φ s(y))ds ≥ a +
& t 0
c ds = a + tc, ∀t ≥ 0,
che è impossibile. Dunque esiste un ben determinato T (y) > 0 tale che Φ T(y) (y) ∈ Sb . Proviamo che T (y) è C ∞ in y ∈ Sa . L’equazione F(Φ t (y)) = b ha soluzione t = T (y) e ∂ F(Φ t (y)) = ||∇F(Φ T(y) (y))||2 > 0. ∂t t=T(y) Dunque per il Teorema di Dini la funzione Sa y −→ T (y) è C ∞. In conclusione la mappa Sa y −→ Φ T(y)(y) ∈ Sb è C ∞ ed iniettiva. Quanto alla suriettività, essa si prova ragionando come sopra, considerando per ogni z ∈ Sb la curva integrale 0 ≥ t −→ Φ t (z).
128
5 Equazioni differenziali ordinarie
Fig. 5.2. Le superfici di livello Sa ed Sb sono diffeomorfe
Il lettore è invitato a calcolare esplicitamente T (y) quando F(x) = x21 + x22 − x23 . Riprendiamo ora la discussione generale. Finora abbiamo considerato la regolarità della mappa flusso per sistemi autonomi. Cosa si può dire per un sistema non autonomo, cioè quando f : I × Ω −→ Rn non è costante in t? A tal fine ricorreremo alla cosiddetta sospensione del sistema, considerando un sistema autonomo nella t e nelle x, vale a dire il sistema ⎧ ⎨ t˙ = 1 (5.39) ⎩ x˙ = f (t, x). La mappa da considerare ora è F : I × Ω −→ R
1+d
, F(t, x) =
1 . f (t, x)
Per ogni (s, y) ∈ I × Ω indichiamo con ψ (σ ; (s, y)) la soluzione del problema di Cauchy ⎧ dψ ⎪ ⎨ ψ˙ (σ ; (s, y)) = (σ ; (s, y)) = F(ψ (σ ; (s, y))) dσ ⎪ ⎩ ψ (0; (s, y)) = (s, y). T (σ ; (s, y)) Scritta ψ (σ ; (s, y)) = ∈ R × Rn , si avrà dunque X(σ ; (s, y)) ⎧ ⎧ ˙ ⎪ ⎨ T (0, (s, y)) = s ⎨T (σ ; (s, y)) = 1 ⎪ ⎩ X( ˙ σ ; (s, y)) = f T (σ ; (s, y)), X(σ ; (s, y)) , ⎩ X(0, (s, y)) = y. Allora T (σ ; (s, y)) = s + σ , e quindi necessariamente σ ∈ I − s. D’altra parte se indichiamo con x(t; (s, y)) la soluzione del problema di Cauchy dx (t; (s, y)) = f (t, x(t; (s, y))), x(t; (s, y))t=s = y, dt
5.3 Sistemi lineari
129
è immediato riconoscere che x(s + σ ; (s, y)) = X(σ ; (s, y)). Dal Teorema 5.2.1, se F ∈ C k,1(I × Ω ; R1+n ), il che equivale a dire che f ∈ Ck,1(I × Ω ; Rn), allora la mappa di flusso ΦFσ (s, y) = (s + σ , X(σ ; (s, y))) è C k in (σ , s, y) su UF := {(σ , (s, y)); (s, y) ∈ I × Ω , σ ∈ I(s, y)}, dove I(s, y) è l’intervallo massimale di esistenza. In particolare abbiamo che X ∈ C k (UF ; Rn ) e quindi x(t; (s, y)) è C k (V ; Rn) dove V = {(t, (s, y)); (s, y) ∈ I × Ω , t ∈ I(s, y) − s}. Si noti, da ultimo, che l’ipotesi f ∈ C k,1(I × Ω ; Rn) significa che f è C k in (t, x) e che le derivate parziali in t e x di ordine k sono lipschitziane in (t, x), e non solamente in x! L’ipotesi è certamente sovrabbondante, tuttavia consente di dire che se f ∈ C∞(I × Ω ; Rn) allora le soluzioni x(t; (s, y)) sono C∞ nei parametri.
5.3 Sistemi lineari Il primo argomento che vogliamo ora trattare è lo studio delle soluzioni di un sistema lineare del tipo x˙ = Ax + b(t), A ∈ M(n; R), b ∈ C 0 (I; Rn),
(5.40)
I intervallo aperto di R. Il seguente risultato contiene le informazioni salienti sulle proprietà del sistema (5.40). Teorema 5.3.1. Si ha: (i) Per ogni (t0 , x0 ) ∈ R × Rn la soluzione del problema di Cauchy ⎧ ⎨ x˙ = Ax ⎩ è
(5.41) x(t0 ) = x0
x(t) = e(t−t0 )A x0 , t ∈ R.
(5.42)
(ii) Per ogni (t0 , x0 ) ∈ I × Rn , la soluzione del problema di Cauchy ⎧ ⎨ x˙ = Ax + b(t) ⎩
x(t0 ) = x0
è (t−t0 )A
x(t) = e
x0 +
& t t0
e(t−s)Ab(s)ds, t ∈ I.
(5.43)
130
5 Equazioni differenziali ordinarie
(iii) Dette μ1 , . . ., μk ∈ C le radici distinte di pA (z), con molteplicità algebrica m1 , . . ., mk , la soluzione del problema di Cauchy ⎧ ⎨ x˙ = Ax ⎩ è x(t) =
k
x0 =
m j −1 t
∑ eμ j t ∑
j=1
dove
x(0) = x0
=0
!
(A − μ j In ) ζ j ,
(5.44)
mj , 1 ≤ j ≤ k. ζ , ζ ∈ Ker (A − μ I ) j j j n ∑ k
j=1
Dimostrazione. Proviamo (i). Osserviamo che R t −→ e(t−t0 )A ∈ C ∞(R; M(n; R)), e che
(t − t0 )2 2 (t − t0 ) A+ A + . . ., 1! 2! con convergenza uniforme della serie e delle sue derivate sui compatti in t. Poiché d (t−t0 )A e(t−t0 )A t=t = In , e e = Ae(t−t0 )A = e(t−t0 )A A, 0 dt la (5.42) è quindi ovvia. Si noti che e(t−t0 )A = In +
e(t−t0 )A = etA e−t0 A = e−t0 A etA , perché tA commuta con t0 A. Ne segue che per ogni x0 ∈ Rn e(t−t0 )A x0 = etA e−t0 Ax0 . Poiché la matrice e−t0 A è invertibile con inversa et0 A , ne segue che per le soluzioni φ , ψ dei problemi di Cauchy ⎧ ⎧ ⎨ φ˙ = Aφ , ⎨ ψ˙ = Aψ , ⎩
φ (t0) = x0 ,
⎩
ψ (0) = x0 = e−t0 A x0 ,
vale
φ (t) = ψ (t), ∀t ∈ R. Dunque senza minore generalità ci si può limitare a considerare il problema di Cauchy (5.41) per t0 = 0. Proviamo ora (ii). Intanto I s −→ e−sA b(s) ∈ C 0 (I; Rn ),
5.3 Sistemi lineari
per cui I t −→
& t t0
131
e−sA b(s)ds ∈ C1 (I; Rn ),
con derivata prima e−tA b(t), t ∈ I. D’altra parte, poiché etA e esA commutano, si ha che & t & t e(t−s)A b(s)ds = etA e−sA b(s)ds, t ∈ I, t0
t0
con derivata prima
& t
A t0
e(t−s)Ab(s)ds + b(t), t ∈ I.
Tenuto conto di (i), la (5.43) è ora immediata. Proviamo infine (iii). Poniamo
φ (t) :=
k
∑ eμ j t
m j −1 t
j=1
∑
=0
!
(A − μ j In ) ζ j , t ∈ R,
e cominciamo col provare che φ˙ (t) = Aφ (t), per ogni t ∈ R. Si ha (con ∑−1 0 = 0 per definizione)
φ˙ (t) =
k
∑ μ j eμ j t j=1
=
k
∑ eμ j t
j=1
m j −2 t
∑
=0
!
m j −1 t
∑
=0
!
k
(A − μ j In ) ζ j + ∑ eμ jt j=1
∑
=0
!
(A − μ j In )+1 ζ j =
μ j (A − μ j In ) + (A − μ j In )+1 ζ j + k
+ ∑ μ j eμ j t j=1
Poiché
m j −2 t
t m j −1 (A − μ j In )m j −1 ζ j =: (a) + (b). (m j − 1)!
μ j (A − μ j In )m j −1 ζ j = (μ j In − A + A)(A − μ j In )m j −1 ζ j = = −(A − μ j In )m j ζ j + A(A − μ j In )m j −1 ζ j = A(A − μ j In )m j −1 ζ j ,
si ha
k
(b) = A ∑ eμ jt j=1
t m j −1 (A − μ j In )m j −1 ζ j . (m j − 1)!
D’altra parte, poiché μ j (A − μ j In ) + (A − μ j In )+1 ζ j = = (μ j In + A − μ j In )(A − μ j In ) ζ j = A(A − μ j In ) ζ j , si ha k
(a) = A ∑ eμ j t j=1
e quindi la tesi.
m j −2 t
∑
=0
!
(A − μ j In ) ζ j ,
132
5 Equazioni differenziali ordinarie
A priori φ è a valori in Cn . Mostriamo che, essendo x0 ∈ Rn , in realtà φ è a valori in Rn . Siccome φ (0) = ∑kj=1 ζ j = x0 , ciò concluderà la prova di (iii). Consideriamo
φ (t) =
k
∑ eμ¯ jt
j=1
m j −1 t
∑
=0
!
(A − μ j In )ζ j .
Poiché A è reale, da una parte si ha che (A − μ j In )ζ j = (A − μ¯ j In )ζ¯ j , e dall’altra che { μ1 , . . ., μk } = {μ¯ 1 , . . ., μ¯ k } con ma (μ j ) = ma (μ¯ j ), per ogni j. Allora, come prima, ˙ si ha che φ (t) = Aφ (t) per ogni t ∈ R. D’altronde φ (0) = ∑k ζ¯ j = x¯0 = x0 , poiché j=1
x0 ∈ Rn . Dunque la funzione φ (t) − φ (t) verifica ⎧ d ⎪ ⎨ (φ (t) − φ (t)) = A(φ (t) − φ (t)), ∀t ∈ R, dt ⎪ ⎩ (φ (t) − φ (t))t=0 = 0. Poiché ||
d (φ (t) − φ (t))|| ≤ ||A|| ||φ (t) − φ (t)||, ∀t ∈ R, dt
dal Lemma di Gronwall si conclude che φ (t) = φ (t), per ogni t ∈ R, che è quanto si voleva dimostrare.
Diamo ora alcuni esempi di applicazione della formula (5.44), invitando il lettore a supplire tutti i dettagli. ⎤ ⎡ μ 0 0 Sia A = ⎣ 0 α −β ⎦ , μ , α , β ∈ R con β > 0. Gli autovalori di A sono μ , α + iβ , 0 β α ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ 0 0 1 α −iβ e sono semplici, con corrispondenti autovettori ⎣ 0 ⎦ , ⎣ 1 ⎦ , ⎣ 1 ⎦ . Si vuole i −i 0 ⎡ ⎤ a risolvere il problema di Cauchy x˙ = Ax, x(0) = ⎣ b ⎦ ∈ R3 . Si ha c ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ 0 0 1 a b + ic b − ic ⎣ 1 ⎦+ ⎣1⎦. ⎣ b ⎦ = a⎣0 ⎦+ 2 2 −i i 0 c ζ1
ζ2
ζ3 =ζ¯2
La soluzione è allora ⎡ ⎤ aeμ t ⎥ ⎢ x(t) = eμ t ζ1 + 2eα t Re eiβ t ζ2 = ⎣ eα t b cos(β t) − c sin(β t) ⎦ , t ∈ R. eα t c cos(β t) + b sin(β t)
5.3 Sistemi lineari
133
⎤
⎡
α β 0 Sia ora A = ⎣ 0 α β ⎦ , α , β ∈ R, β = 0. Poiché A = α I3 + β J3 e I3 commuta 0 0 α con J3 , si ha etA = eα t eβ tJ3 . D’altra parte eβ tJ3 = I3 +
tβ t 2β 2 2 J3 + J , 1! 2! 3
⎡
⎤ 1 t β t 2 β 2 /2 tβ ⎦. etA = eα t ⎣ 0 1 0 0 1 ⎡ ⎤ a La soluzione del problema di Cauchy x˙ = Ax, x(0) = ⎣ b ⎦ ∈ R3 è quindi c
e quindi
⎡ ⎢ x(t) = eα t ⎣
a + t β b + t 2β 2 c/2 b + tβ c
⎤ ⎥ ⎦ , t ∈ R.
c ⎡
⎤
α −β 1 0 ⎢β α 0 1 ⎥ ⎥ Sia infine A = ⎢ ⎣ 0 0 α −β ⎦ , α , β ∈ R, β > 0. In tal caso gli autovalori 0 0 β α sono α + iβ , α − iβ con molteplicità algebrica 2 e molteplicità geometrica 1. Poiché ⎡ ⎤ −β iβ −i −1 ⎢ −iβ −β 1 −i ⎥ 2 ⎥. A − (α + iβ )I4 = 2β ⎢ ⎣ 0 0 −β iβ ⎦ 0 0 −iβ −β ⎡ ⎤ ⎡ ⎤ 0 i ⎢1⎥ ⎢0⎥ 2 ⎥ ⎢ ⎥ è data dai vettori ⎢ Una base di Ker A−(α +iβ )I4 ⎣ 0 ⎦ , ⎣ i ⎦ . Si vuole risolvere 1 0 ⎡ ⎤ a ⎢b⎥ 4 ⎥ il problema di Cauchy x˙ = Ax, x(0) = ⎢ ⎣ c ⎦ ∈ R . Si ha allora d ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ i 0 a ⎢ b ⎥ b − ia ⎢ 1 ⎥ d − ic ⎢ 0 ⎥ ⎢ ⎥+ ⎢ ⎥ + ζ2 . ⎢ ⎥= ⎣c⎦ 2 ⎣0⎦ 2 ⎣ i ⎦ 0 1 =ζ¯1 d ζ1
134
5 Equazioni differenziali ordinarie
Dunque
⎧ ⎡ ⎛ ⎤ ⎞⎫ −iβ −β 1 0 ⎪ ⎪ ⎪ ⎪ ⎨ ⎢ β −iβ 0 ⎜ ⎥ ⎟⎬ 1 (α +iβ )t ⎜ ⎢ ⎥ ⎟ x(t) = 2Re e ζ + t ζ = ⎣ 0 ⎝ 1 0 −iβ −β ⎦ 1 ⎠⎪ ⎪ ⎪ ⎪ ⎩ ⎭ 0 0 β −iβ
⎤ ⎤⎫ ⎡ a + ib c + id ⎪ ⎪ ⎥⎬ ⎢ b − ia ⎥ ⎢ ⎥ + t(cos(β t) + i sin(β t)) ⎢ d − ic ⎥ = = eα t Re (cos(β t) + i sin(β t)) ⎢ ⎣ c + id ⎦ ⎣ 0 ⎦⎪ ⎪ ⎪ ⎪ ⎭ ⎩ d − ic 0 ⎤ ⎡ (a + tc) cos(β t) − (b + td) sin(β t) ⎥ ⎢ ⎢ (b + td) cos(β t) + (a + tc) sin(β t) ⎥ αt ⎢ ⎥ , ∀t ∈ R. =e ⎢ ⎥ c cos(β t) − d sin(β t) ⎦ ⎣ ⎧ ⎪ ⎪ ⎨
⎡
d cos(β t) + c sin(β t) Una questione importante è l’analisi del comportamento delle soluzioni di x˙ = Ax per t grande, per esempio nel limite t → +∞. L’osservazione degli esempi precedenti mostra che se si vuole che ogni soluzione x(t) sia limitata (in norma) per t → +∞, è sufficiente che la parte reale degli autovalori di A sia < 0, e in tal caso ||x(t)|| → 0 per t → +∞. Il risultato seguente fornisce un’informazione precisa di natura generale. Teorema 5.3.2. Dato il sistema x˙ = Ax, A ∈ M(n; R), se per ogni soluzione R t −→ x(t) ∈ Rn esiste C > 0 tale che ||x(t)|| ≤ C||x(0)|| per ogni t ≥ 0, allora: (i) per ogni μ ∈ C radice di pA (z) deve essere Re μ ≤ 0, e per quei μ per i quali Re μ = 0 deve aversi ma (μ ) = mg (μ ). Viceversa, se vale (i) allora esiste una costante C = C(A) > 0 tale che per ogni soluzione del sistema si ha ||x(t)|| ≤ C||x(0)||, ∀t ≥ 0.
(5.45)
In particolare, qualora tutte le radici di pA (z) abbiano parte reale < 0, ||x(t)|| → 0 per t → +∞, quale che sia la soluzione x(t). Più precisamente, posto −γ = max Re μ pA ( μ )=0
(γ > 0), se per le radici μ di pA (z) con Re μ = −γ si ha ma (μ ) = mg (μ ), allora esiste C = C(A) > 0 tale che per ogni soluzione x(t) vale ||x(t)|| ≤ Ce−γ t ||x(0)||, ∀t ≥ 0.
(5.46)
Se invece per qualche radice μ di pA (z) con Re μ = −γ si ha ma (μ ) > mg (μ ), allora per ogni 0 < ε < γ esiste Cε = Cε (A) > 0 tale che per ogni soluzione x(t) vale ||x(t)|| ≤ Cε e−(γ −ε )t ||x(0)||, ∀t ≥ 0.
(5.47)
5.3 Sistemi lineari
135
Dimostrazione. Che la condizione (i) sia necessaria affinché ogni soluzione del sistema sia limitata per t ≥ 0 si può vedere ragionando per assurdo. Si supponga quindi che esista una radice μ di pA (z) con Re μ > 0 Per fissare le idee sia μ = α + iβ (α , β > 0). Scelto un autovettore ζ = ξ + iη ∈ Cn (ξ , η ∈ Rn , ξ = 0) relativo a μ , si consideri la soluzione 1 x(t) = eμ t ζ + eμ¯ t ζ¯ = eα t Re eiβ t (ξ + iη ) = 2 = eα t cos(β t)ξ − sin(β t)η , t ∈ R. Poiché ||x(t)||2 = e2α t cos(β t)2 ||ξ ||2 + sin(β t)2 ||η ||2 − sin(2β t)ξ , η , t ∈ R, si ha che
2kπ 2α 2kπ ||2 = e β ||ξ ||2 −→ +∞, per k → +∞, ||x β
il che mostra che questa soluzione non è limitata per t ≥ 0. Resta ancora da provare che se pA (μ ) = 0 e Re μ = 0 la limitatezza implica ma (μ ) = mg (μ ). Sia allora μ = iβ , β > 0 tale che pA (μ ) = 0 e supponiamo si abbia Ker(A − iβ ) Ker[(A − iβ )2 ]. Sia allora ξ + iη tale che (A − iβ )2 (ξ + iη ) = 0 e (A − iβ )(ξ + iη ) =: ζ + iσ = 0. La soluzione del sistema è in questo caso data da x(t) = Re eiβ t (ξ + iη ) + t(A − iβ )(ξ + iη ) = = cos(β t)ξ − sin(β t)η + t cos(β t)ζ − t sin(β t)σ , t ∈ R. Si ha dunque ||x(t)||2 = t 2 cos(β t)2 ||ζ ||2 + sin(β t)2 ||σ ||2 − sin(2β t)ζ , σ + o(1) , t → +∞. Se ζ = 0 allora ( ' 2kπ 2kπ 2 2 || = ||x (||ζ ||2 + o(1)) −→ +∞, per k → +∞, β β e se σ = 0 allora ' (2 2kπ + π /2 2kπ + π /2 (||σ ||2 + o(1)) −→ +∞, per k → +∞, ||x ||2 = β β che, di nuovo, mostra che questa soluzione non è limitata per t ≥ 0. Supponiamo ora che la condizione (i) sia soddisfatta. Usando la (5.44) scriviamo x(t) = φ−(t) + φ0 (t),
136
5 Equazioni differenziali ordinarie
dove k
∑
φ− (t) =
m j −1 t
∑
eμ j t
=0
j=1 Re μ j 0 tale che k
k
j=1
j=1
∑ ||ζ j|| ≤ C2|| ∑ ζ j||.
Allora da (5.48) si ha ||x(t)|| ≤ C1C2 ||x(0)||, ∀t ≥ 0. Per provare la (5.46) e la (5.47) scriviamo, usando ancora la (5.44), x(t) = φ (t) + ψ (t), dove
φ (t) =
k
∑
eμ j t
k
∑
j=1 Re μ j 0. La (5.46) e la (5.47) sono ora una conseguenza immediata di queste stime, tenuto conto della (5.49).
Alla luce del Teorema 5.3.2 è interessante osservare il fatto seguente. Data A ∈ M(n; R) si ponga $ % ma (λ ) Ker (A − λ In ) E± := Re ⊂ Rn , pA (λ )=0 ±Re λ >0
$ E0 := Re
Ker (A − λ In )
% ma (λ )
pA (λ )=0 Re λ =0
Si ha Rn = E− ⊕ E0 ⊕ E+ .
⊂ Rn .
138
5 Equazioni differenziali ordinarie
Se 0 = x0 ∈ E− , risp. E+ , la soluzione x(t) = etA x0 diverge esponenzialmente in norma per t → −∞, risp. t → +∞, e tende a 0 in norma esponenzialmente per t → +∞, risp. t → −∞. Lasciamo al lettore la prova di tali affermazioni. I sottospazi E− ed E+ sono detti rispettivamente la varietà stabile e la varietà instabile del sistema x˙ = Ax. Si noti che se 0 = x0 ∈ E0 , la soluzione x(t) = etA x0 può ancora divergere in norma sia per t → +∞ che per t → −∞, ma in modo al più polinomiale. Se poi per ogni λ ∈ C per cui pA(λ ) = 0 e Re λ = 0 si ha ma (λ ) = mg (λ ), allora sup ||x(t)|| < +∞ se x(0) ∈ E0 (il lettore lo verifichi; si veda la Figura 5.3).
t∈R
Fig. 5.3. La varietà stabile E− , la varietà instabile E+ e la varietà neutra E0
5.4 Soluzioni periodiche di sistemi lineari. Teorema di Floquet Un’altra questione importante consiste nello stabilire sotto quali condizioni il sistema x˙ = Ax ammetta soluzioni periodiche. Qui e nel seguito per funzione periodica intendiamo quanto segue. Diciamo che una funzione continua e non costante φ : R −→ Rn è periodica se per qualche τ ∈ R \ {0} si ha φ (t + τ ) = φ (t), per ogni t ∈ R. Ogni siffatto τ si dirà (un) periodo di φ . È immediato riconoscere che se φ è periodica, l’insieme Pφ := {τ ∈ R \ {0}; τ è un periodo di φ } ∪ {0} è un sottogruppo chiuso e proprio (poiché φ non è costante) di (R, +). Ne segue che esiste un unico T > 0 tale che Pφ = {kT ; k ∈ Z}. Tale T si dice il periodo minimo di φ . Vale il risultato seguente. Teorema 5.4.1. Il sistema x˙ = Ax, A ∈ M(n; R), ha soluzioni periodiche se e solo se / p−1 A (0) ∩ (iR \ {0}) = 0.
(5.50)
5.4 Soluzioni periodiche di sistemi lineari. Teorema di Floquet
139
Dimostrazione. Se vale la (5.50), preso μ = iβ , β > 0 con pA (μ ) = 0, e fissato 0 = ζ ∈ Ker(A − μ In ), ζ = ξ + iη (ξ , η ∈ Rn , ξ = 0), la soluzione x(t) =
1 iβ t e ζ + e−iβ t ζ¯ = cos(β t)ξ − sin(β t)η , t ∈ R, 2
è periodica di periodo minimo 2π /β . Resta da provare che se p−1 / non esistono soluzioni periodiche A (0)∩ (iR\ {0}) = 0 del sistema. Se pA (0) = 0, la (5.44) dice che ogni soluzione non banale del sistema è combinazione lineare di funzioni del tipo eα t cos(β t)q1 (t), eα t sin(β t)q2 (t), dove α = 0, e dove q1 , q2 sono funzioni a valori in Rn con componenti polinomiali in t. È ben noto che funzioni di questo tipo non sono periodiche. Se pA (0) = 0, le possibili soluzioni non banali del sistema sono combinazioni lineari di funzioni del tipo precedente e di funzioni q3 (t), dove q3 è una funzione a valori in Rn con componenti polinomiali in t. Anche in questo caso si conclude che non ci sono soluzioni periodiche.
Osservazione 5.4.2. La dimostrazione precedente ci dice che qualora valga (5.50), preso iβ , β > 0 con pA (iβ ) = 0, il sistema x˙ = Ax ammette tante soluzioni periodiche indipendenti, di periodo minimo 2π /β , quant’è la dimensione di Ker(A − iβ In ). Consideriamo ora il problema seguente. Data b ∈ C0 (R; Rn ) periodica con periodo T > 0, e data A ∈ M(n; R), ci si domanda se il problema di Cauchy ⎧ ⎨ x˙ = Ax + b(t), (5.51) ⎩ x(0) = y ∈ Rn , ammetta, per un’opportuna scelta di y, una soluzione periodica con periodo T. La soluzione di (5.51) è data (si veda (5.43)) da &t x(t) = etA y + e−sA b(s)ds . (5.52) 0
Si consideri ora la funzione t −→ x(t + T ). Si ha d x(t + T ) = x(t ˙ + T ) = Ax(t + T ) + b(t + T ) = Ax(t + T ) + b(t), dt sicché x(t + T ) = x(t), per ogni t ∈ R, se e solo se x(T ) = y, i.e. (In − eTA)y = eTA
& T 0
e−sA b(s)ds =: eTA η .
(5.53)
140
5 Equazioni differenziali ordinarie
Poiché eTA è invertibile, l’equazione (5.53) è univocamente risolubile, quale che sia η , se e solo se 1 non è autovalore di eTA. Siccome le radici di peTA (z) sono i numeri complessi eT λ con pA(λ ) = 0, ne consegue che In − eTA è invertibile se e solo se p−1 A (0) ∩ {i
2kπ ; k ∈ Z} = 0. / T
(5.54)
In particolare A è invertibile ed il sistema x˙ = Ax non ha soluzioni periodiche di periodi T /k, k = 1, 2, . . . (e quindi anche di periodi qT , q ∈ Q, q > 0). In tale situazione l’unica scelta possibile per y è y = (In − eTA )−1 eTA η = (In − eTA )−1 η − η .
(5.55)
Notiamo che, essendo b non costante per ipotesi, anche la soluzione x(t) non è costante. Se lo fosse dovremmo avere x(t) ˙ = 0 per ogni t ∈ R, e quindi Ax(t) + b(t) = 0 per ogni t, i.e. x(t) = −A−1 b(t), ciò che è impossibile. Può però accadere che la (5.53) sia risolubile anche quando In − eTA non è invertibile. In tal caso la condizione necessaria e sufficiente per la risolubilità di (5.53) è che sia ⊥ ∗ eTA η ∈ Ker(In − eTA ) (poiché A è reale si ha che A∗ = tA), cioè che sia
∗
eTA η , w = 0, ∀w ∈ Cn con eTA w = w. In conclusione, (5.53) è risolubile se e solo se ∗
η , w = 0, ∀w ∈ Cn con w = eTA w, da cui, ricordando il significato di η , & T 0
∗
∗
b(s), e−sA wds = 0, ∀w ∈ Cn con eTA w = w. ∗
(5.56)
∗
Notiamo che 0 = w ∈ Ker(In − eTA ), e dunque s −→ e−sA w è soluzione periodica del sistema z˙ = −A∗ z, con periodo T . Si noti che se vale (5.56), l’equazione (5.53) ha ora infinite soluzioni, ottenute sommando ad una soluzione particolare ogni soluzione dell’equazione omogenea (In − eTA )y = 0. In tal caso si hanno tante soluzioni ∗ indipendenti di (5.53) quant’è la dimensione di Ker(In − eTA ). Del fenomeno ora osservato si può dare l’interpretazione “fisica” seguente. Se il sistema omogeneo x˙ = Ax non ha soluzioni periodiche di periodo qT , q ∈ Q, q > 0, allora l’introduzione di un termine forzante b(t), periodico con periodo T , obbliga il sistema x˙ = Ax + b(t) ad avere esattamente una soluzione periodica con periodo T . Qualora invece il sistema omogeneo ammetta soluzioni di periodo qT , l’introduzione di un termine forzante può impedire che il sistema non omogeneo abbia soluzioni periodiche con periodo T , a meno che il termine forzante non verifichi un numero finito di condizioni di compatibilità (espresse dalla (5.56)), ed in tal caso il sistema ammette allora infinite soluzioni periodiche di periodo T .
5.4 Soluzioni periodiche di sistemi lineari. Teorema di Floquet
141
Consideriamo ora il caso di sistemi lineari dipendenti dal tempo. Precisamente, data t −→ A(t) ∈ C 0 (I; M(n; R)), dove I ⊂ R è un intervallo aperto, si consideri il sistema x˙ = A(t)x. (5.57) Ricordiamo che le curve integrali di (5.57) sono definite per ogni t ∈ I (assenza di blow-up). Posto ora E := {φ ∈ C1 (I; Rn); φ˙ (t) = A(t)φ (t), ∀t ∈ I},
(5.58)
è chiaro che E è un sottospazio vettoriale di C 1 (I; Rn). Vogliamo determinarne la struttura vettoriale. Lemma 5.4.3. Fissati ad arbitrio t0 ∈ I ed una base ζ1 , . . ., ζn di Rn , per j = 1, 2, . . ., n sia φ j ∈ E tale che φ j (t0 ) = ζ j . Allora φ1 , . . ., φn è una base di E (sicché dimE = n). Dimostrazione. Proviamo intanto che φ1 , . . ., φn sono indipendenti in E. Se vale ∑nj=1 α j φ j = 0, cioè ∑nj=1 α j φ j (t) = 0 per ogni t ∈ I, allora in particolare vale ∑nj=1 α j φ j (t0 ) = ∑nj=1 α j ζ j = 0, da cui α1 = . . . = αn = 0. Sia poi φ ∈ E. Poiché φ (t0) = ∑nj=1 α j ζ j per ben determinati α1 , . . ., αn, allora n
n
j=1
j=1
φ − ∑ α j φ j ∈ E e (φ − ∑ α j φ j )(t0 ) = 0, da cui, per unicità,
φ (t) = ∑nj=1 α j φ j (t),
per ogni t ∈ I.
Una conseguenza immediata, ma importante, della prova precedente è che dati n elementi ψ1 , . . ., ψn ∈ E, la dimensione del sottospazio di E generato da ψ1 , . . ., ψn è uguale alla dimensione del sottospazio di Rn generato dai vettori ψ1 (t0 ), . . ., ψn (t0 ), dove t0 è un arbitrario punto di I. Date quindi n curve integrali φ1 , . . ., φn di (5.57), consideriamo la matrice Y = [φ1|φ2 | . . .|φn ] ∈ C 1 (I; M(n; R)).
(5.59)
Dalle considerazioni precedenti si ha che Y˙ (t) = A(t)Y (t), t ∈ I, e rg(Y (t)) = rg(Y (t0 )) quale che sia t0 ∈ I. Dunque Y (t) è invertibile per ogni t ∈ I se e solo se lo è per un qualsivoglia t0 ∈ I, ed in tal caso Y ∈ C 1 (I; GL(n; R)). Vale il lemma seguente, la cui prova viene lasciata al lettore. Lemma 5.4.4. Ogni matrice Y definita in (5.59) soddisfa l’equazione d detY (t) = Tr A(t) detY (t), t ∈ I, dt e quindi & t detY (t) = detY (t0 ) exp( Tr A(s)ds), ∀t, t0 ∈ I. t0
142
5 Equazioni differenziali ordinarie
D’ora innanzi, ogni matrice Y ∈ C 1 (I; GL(n; R)) soddisfacente Y˙ (t) = A(t)Y (t), per ogni t ∈ I, sarà chiamata una soluzione fondamentale di (5.57). È importante osservare che la conoscenza di una soluzione fondamentale equivale alla conoscenza di tutte le soluzioni fondamentali. Infatti, siano t → Y1 (t) e t → Y2 (t) due soluzioni fondamentali di (5.57), e si consideri un arbitrario t0 ∈ I. Posto C := Y2 (t0 )−1Y1 (t0 ) ∈ GL(n; R), si ha Y1 (t) = Y2 (t)C per ogni t ∈ I. Infatt Y1 (t) e Y2 (t)C soddisfano la stessa equazione e coincidono al tempo t = t0 , e dunque per unicità sono uguali. La conoscenza di una soluzione fondamentale Y fornisce la seguente formula risolutiva. Lemma 5.4.5. Data b ∈ C0 (I; Rn) e dati s ∈ I, ζ ∈ Rn , si consideri il problema di Cauchy ⎧ ⎨ x˙ = A(t)x + b(t) ⎩ Si ha
x(s) = ζ .
& t −1 x(t) = Y (t) Y (s) ζ + Y (s)−1 b(s)ds .
(5.60)
s
La prova è una verifica che viene lasciata al lettore. In generale non si conoscono formule che diano esplicitamente una soluzione fondamentale. Un esempio banale in cui ciò è possibile si ha quando A(t) = ω (t)A, con ω ∈ C 0(I; R) e A ∈ M(n; R), dove A è una matrice fissata. Detta allora Ω (t) una qualunque primitiva di ω (t) in I, si ha che Y (t) = eΩ (t)A è una soluzione fondamentale del corrispondente sistema. Un sistema della forma (5.57) particolarmente interessante si ha quando A ∈ C0(R; M(n; R)) con la proprietà di essere periodica con periodo T > 0. In questa ipotesi vale il seguente risultato. Teorema 5.4.6 (di Floquet). Sia A ∈ C 0 (R; M(n; R)) periodica con periodo T > 0. Detta Y (t) una soluzione fondamentale del sistema x˙ = A(t)x esistono Z ∈ C 1(R; M(n; C)) e R ∈ M(n; C) tali che: (i) Z(t + T ) = Z(t), ∀t ∈ R; (ii) Y (t) = Z(t)etR , ∀t ∈ R. Dimostrazione. Poiché t −→ Y (t +T ) è una soluzione fondamentale del sistema, per quanto precedentemente osservato esiste un’unica C ∈ GL(n; R) tale che Y (t + T ) = Y (t)C, ∀t ∈ R.
(5.61)
5.5 Il metodo delle caratteristiche. Equazione di Hamilton-Jacobi
143
Vedremo tra un attimo che C può essere sempre scritta nella forma C = eT R , per una 2kπ i certa R ∈ M(n; C) (ovviamente non unica, perché allora anche eT (R+ T I) = C). Ammesso ciò, definiamo Z(t) := Y (t)e−tR . È ovvio che vale (ii). Quanto a (i) si osservi che Z(t + T ) = Y (t + T )e−T R e−tR = Y (t)e−tR = Z(t). Infine, che esista R tale che C = eT R è conseguenza del Lemma 3.1.7.
È importante osservare che, poiché R non è unica, anche Z(t) non lo è. Tuttavia, poiché da (5.61) si ha C = Y (0)−1Y (T ), matrice indipendente dalla scelta di Y , gli autovalori di eT R e di C (come mappe di Cn in sé) sono gli stessi, e quindi univocamente determinati. Come conseguenza abbiamo il risultato seguente. Corollario 5.4.7. Sia Y (t) una soluzione fondamentale del sistema x˙ = A(t)x, con A(t) periodica con periodo T > 0. Il sistema differenziale ha almeno una soluzione periodica con periodo T se e solo se la matrice Y (0)−1Y (T ) ha 1 come radice del polinomio caratteristico. Di più, ogni soluzione è periodica con periodo T se e solo se Y (T ) = Y (0). Dimostrazione. Dal teorema precedente sappiamo che ogni soluzione del sistema x˙ = A(t)x è della forma x(t) = Z(t)etR ζ , ζ ∈ Rn . Allora x(t + T ) = Z(t + T )e(t+T )R ζ = Z(t)etR eT R ζ e quindi x(t + T ) = x(t) se e solo se eT R ζ = ζ . Poiché eT R = Y (0)−1Y (T ), la tesi ne consegue.
Si osservi che nell’esempio in cui A(t) = ω (t)A, se ω ∈ C 0 (R; R) è periodica con periodo T > 0, allora anche A(t) lo è. Tuttavia, una soluzione fondamentale è periodica con periodo T > 0 se e solo se & T 0
ω (s)ds = 0.
5.5 Il metodo delle caratteristiche. Equazione di Hamilton-Jacobi In questa sezione vogliamo mostrare come gli strumenti sviluppati in precedenza possano essere utilizzati per risolvere certe equazioni alle derivate parziali del primo ordine, lineari e non-lineari. Non c’è qui pretesa di esaustività per questo argomento, che richiederebbe una trattazione a sé molto approfondita. Il nostro intento è semplicemente quello di dare alcuni risultati di base che dovrebbero consentire al lettore di entrare più agevolmente nell’ampia letteratura sull’argomento. Cominciamo col considerare il seguente problema di Cauchy: ⎧ n ∂u ∂u ⎪ ⎪ ⎨ Lu := ∂ t + ∑ α j (t, x) ∂ x = f (t, x) j j=1 (5.62) ⎪ ⎪ ⎩ u(0, x) = g(x),
144
5 Equazioni differenziali ordinarie
dove i coefficienti α1 , . . ., αn dell’operatore differenziale L sono assegnate funzioni reali di classe C ∞ (per fissare le idee) su un cilindro aperto (−T, T ) ×U ⊂ R × Rn , T > 0. Il problema è ora il seguente: date f ∈ C∞ ((−T, T ) ×U; C) e g ∈ C∞ (U; C) ci si domanda se esiste, unica, u ∈ C∞ ((−T, T ) ×U; C) che risolve (5.62). L’osservazione cruciale risiede nel considerare le curve integrali del sistema ⎤ ⎡ α1 (t, x) ⎥ ⎢ .. ⎥. (5.63) x˙ = α (t, x) = ⎢ ⎦ ⎣ . αn (t, x) Supponiamo per un attimo che dato y ∈ U la soluzione t → φ (t; y) del sistema (5.63) con φ (0; y) = y esista per |t| < T. Supposto che (5.62) abbia una soluzione u, calcoliamo n ∂u dφ j d ∂u u t, φ (t; y) = t, φ (t; y) + ∑ (t; y) = (5.64) t, φ (t; y) dt ∂t dt j=1 ∂ x j = (Lu) t, φ (t; y) = f t, φ (t; y) . Poiché
u t, φ (t; y) t=0 = u 0, φ (0; y) = u(0, y) = g(y),
ne segue l’identità & t f s, φ (s; y) ds. u t, φ (t; y) = g(y) +
(5.65)
0
Ciò suggerisce la via per risolvere, almeno localmente, il problema (5.62). Come conseguenza di quanto visto nella Sezione 5.1 sappiamo che per ogni fissato x0 ∈ U ci sono ρ > 0 e 0 < T ≤ T tali che per ogni y ∈ Dρ (x0 ) ⊂ U la curva integrale t → φ (t; y) del sistema (5.63), con φ (0; y) = y, è definita per |t| < T e la mappa (−T , T ) × Dρ (x0 ) (t, y) −→ t, φ (t; y) ∈ (−T , T ) ×U (5.66) è un diffeomorfismo di classe C ∞ sulla sua immagine. Ne consegue che c’è un intorno aperto U ⊂ U di x0 tale che per ogni x ∈ U e per ogni t con |t| < T esiste un’unica y = y(t; x) ∈ Dρ (x0 ) con φ t; y(t; x) = x e (t, x) −→ y(t; x) ∈ C ∞ ((−T , T ) ×U ; R). Dunque se definiamo su (−T , T ) ×U &t u(t, x) := g y(t; x) + f s, φ s; y(t; x) ds,
(5.67)
0
avremo che u è di classe C ∞, e risolve (5.62) su (−T , T ) ×U univocamente. Un esempio particolarmente semplice, ma significativo, si ha quando i coefficienti α j sono costanti, i.e. α ∈ Rn . In tal caso φ (t; y) = y +t α , sicché se f ∈ C ∞(R1+n ; C)
5.5 Il metodo delle caratteristiche. Equazione di Hamilton-Jacobi
145
Fig. 5.4. Curva caratteristica del campo L
e g ∈ C ∞(Rn ; C), allora il problema (5.62) ha un’unica soluzione u ∈ C ∞(R1+n ; C) data da u(t, x) = g(x − t α ) +
& t 0
f s, x + (s − t)α ds.
(5.68)
Naturalmente, il problema generale richiede la conoscenza delle curve integrali del sistema (5.63). Un caso un po’ più generale si ha aggiungendo ad L un termine di ordine 0: ⎧ ⎨ Lu + β (t, x)u = f (t, x) ⎩
(5.69) u(0, x) = g(x),
dove β è un’assegnata funzione in C∞ ((−T, T ) ×U; C). In tal caso la (5.64) diviene d u t, φ (t; y) + β t, φ (t; y) u t, φ (t; y) = f t, φ (t; y) , dt da cui & t 5 − 0t β s,φ (s;y) ds g(y) + f s, φ (s; y) ds , u t, φ (t; y) = e 0
e quindi la (5.67) diventa u(t, x) = e−
5t
0β
& t f s, φ (s; y(t; x)) ds . g(y(t; x)) +
s,φ (s;y(t;x)) ds
0
Quanto visto ora è un caso particolare del seguente teorema generale.
(5.70)
146
5 Equazioni differenziali ordinarie
Teorema 5.5.1. Dato su un aperto Ω ⊂ Rn+1 l’operatore differenziale P=
n+1
∂
∑ a j(x) ∂ x j + a0(x), j=1
con a1 , . . ., an+1 ∈ C∞ (Ω ; R) e a0 ∈ C ∞(Ω ; C), e data una sottovarietà C ∞ n-dimensionale S⎡⊂ Ω , sia ⎤ x0 ∈ S un punto non caratteristico per P, vale a dire il vettore a1 (x0 ) ⎢ ⎥ . ⎥ non è tangente ad S in x0 . Allora esiste un intorno Ω ⊂ Ω di x0 a(x0 ) = ⎢ . ⎣ ⎦ . an+1 (x0 ) tale che per ogni f ∈ C ∞(Ω ; C) e g ∈ C ∞ (Ω ∩ S; C) esiste un’unica u ∈ C∞ (Ω ; C) che risolve il problema di Cauchy ⎧ ⎨ Pu = f in Ω , (5.71) ⎩ u Ω ∩S = g. Dimostrazione. Sappiamo che esiste un intorno Ω ⊂ Ω di x0 ed un diffeomorfismo χ di classe C ∞ di Ω su un intorno (−T, T ) ×U dell’origine in R × Rn tale che
χ (x0 ) = (0, 0), χ (Ω ∩ S) = {0} ×U. È immediato verificare che per ogni v ∈ C ∞ ((−T, T ) ×U; C) si ha ˜ ◦ χ, P v ◦ χ = Pv
(5.72)
dove P˜ è l’operatore differenziale su (−T, T ) ×U ⎧ n+1 ∂ ⎪ ⎪ + b0 (z), ⎪ P˜ = ∑ bk (z) ⎪ ⎪ ∂ zk ⎪ k=1 ⎪ ⎪ ⎪ ⎨ n+1 (5.73) ∂ χk −1 −1 ⎪ bk (z) = ∑ χ (z) a j χ (z) , 1 ≤ k ≤ n + 1, ⎪ ⎪ ∂ x ⎪ j j=1 ⎪ ⎪ ⎪ ⎪ ⎪ ⎩ b0 (z) = a0 χ −1 (z) . ⎤ ⎡ a1 (x0 ) ⎥ ⎢ . ⎥ ∈ Tx S, ne consegue che il Ora, poiché per ipotesi il vettore a(x0 ) = ⎢ .. 0 ⎦ ⎣ an+1 (x0 ) ⎤ ⎡ b1 (0, 0) ⎥ ⎢ .. ⎥ ∈ T(0,0) χ (S ∩ Ω ) , cioè b1 (0, 0) = 0. A patto di vettore b(0, 0) = ⎢ ⎦ ⎣ . bn+1 (0, 0) restringere (−T, T ) × U, si può supporre che b1 (z) = 0, per ogni z ∈ (−T, T ) × U.
5.5 Il metodo delle caratteristiche. Equazione di Hamilton-Jacobi
147
Scritto z come (t, z ), |t| < T , z ∈ U, il problema è ricondotto a mostrare che c’è un intorno (−T , T ) ×U ⊂ (−T, T ) ×U di (0, 0) tale che per ogni F ∈ C ∞ ((−T , T ) × U ; C) e per ogni G ∈ C ∞(U ; C) esiste un’unica v ∈ C ∞ ((−T , T ) ×U ; C) tale che ⎧ ˜ = F(t, z) su (−T , T ) ×U , ⎨ Pv ⎩
v(0, z ) = G(z ), ∀z ∈ U .
˜ = F è allora equivalente a Poiché Pv F(t, z) ∂ v n+1 b j (t, z) ∂ v b0 (t, z) +∑ v = , + ∂ t j=2 b1 (t, z) ∂ zj b1 (t, z) b1 (t, z )
il risultato segue dalla discussione che precede il teorema.
Consideriamo ora un tipico problema di Cauchy non lineare: l’equazione di Hamilton-Jacobi ⎧ ∂ψ ⎪ ⎨ (t, x) = f t, x, ∇xψ (t, x) , ∂t (5.74) ⎪ ⎩ ψ (0, x) = g(x), dove f = f (t, x, ξ ) è C ∞ a valori reali definita su un aperto del tipo (−T, T ) ×U × Γ ⊂ Rt × Rnx × Rnξ , e g è una assegnata funzione C∞ su U a valori reali tale che ∇x g(x) ∈ Γ per x ∈ U. La domanda che ci poniamo è se dato x0 ∈ U ci sia 0 < T ≤ T ed un intorno U ⊂ U di x0 tali che il problema (5.74) abbia un’unica soluzione ψ ∈ C ∞((−T , T ) ×U ; R). La risposta, come vedremo, è affermativa e la prova sarà ottenuta attraverso una serie di risultati intermedi. Teorema 5.5.2. Sia Λ ⊂ RNy × RNη una sottovarietà C ∞ di dimensione N, soddisfacente le proprietà seguenti: (i) detta π : RNy × RNη −→ RNy la proiezione canonica, e π (ρ ) la relativa mappa tangente in ρ = (y, η ), π (ρ ) : Tρ Λ −→ Tπ (ρ )RN Tρ Λ
è biettiva per ogni ρ ∈ Λ ; (ii) considerata su RN × RN la forma bilineare σ (detta forma simplettica) δy δy σ v= , v = := δ η , δ y − δ η , δ y, δη δ η con v, v ∈ RN × RN , si ha
σ (v, v ) = 0, ∀v, v ∈ Tρ Λ , ∀ρ ∈ Λ .
(5.75)
Allora per ogni ρ0 = (y0 , η0 ) ∈ Λ esistono un intorno aperto Ω 1 × Ω 2 di ρ0 ed una funzione ϕ ∈ C ∞ (Ω1 ; R), unica a meno di una costante additiva, tali che: (y) ∈ Ω2 , ∀y ∈ Ω1 ; • ∇y ϕ
• Λ ∩ Ω1 × Ω2 = {(y, ∇yϕ (y)); y ∈ Ω1 }.
148
5 Equazioni differenziali ordinarie
Dimostrazione. Fissato ρ0 ∈ Λ sappiamo che esiste un intorno U ⊂ RN × RN di ρ0 ed una funzione F ∈ C ∞(U ; RN ) tale che rg JF (y, η ) = N, ∀(y, η ) ∈ U , e Λ ∩ U = {(y, η ); F(y, η ) = 0}. Posto Fy (y, η ) = [∂ Fj /∂ yk (y, η )]1≤ j,k≤N e Fη (y, η ) = [∂ Fj /∂ ηk (y, η )]1≤ j,k≤N , per ogni ρ ∈ Λ ∩ U si ha Tρ Λ =
6
7 δy ; Fy (ρ )δ y + Fη (ρ )δ η = 0 . δη
L’ipotesi (i) ha come conseguenza che Fη (ρ ) è invertibile. Dal Teorema di Dini segue allora che nell’equazione F(y, η ) = 0 è possibile, localmente, esplicitare le η come funzioni C ∞ di y. C’è dunque un intorno U1 ×U2 ⊂ U di ρ0 ed una mappa C ∞ , ω : U1 −→ U2 , tali che
ω (y0 ) = η0 e Λ ∩ (U1 ×U2 ) = {(y, ω (y)); y ∈ U1 }. Allora per ogni ρ = (y, η ) ∈ Λ ∩ (U1 ×U2 ) si ha che Tρ Λ =
6
7 δy ; δ η = Jω (y)δ y , Jω (y) = [∂ ω j /∂ yk (y)]1≤ j,k≤N . δη
(5.76)
Per la (5.75) si ha δy δ y , σ = Jω (y)δ y, δ y − Jω (y)δ y , δ y = 0, Jω (y)δ y Jω (y)δ y per ogni δ y, δ y ∈ RN . Ne segue che la matrice Jω (y) è simmetrica per ogni y ∈ U1 . Dunque la 1-forma differenziale ∑Nj=1 ω j (y)dy j su U1 è chiusa. Per il Lemma di Poincaré essa è allora localmente esatta, sicché su un opportuno intorno Ω 1 ⊂ U1 di y0 esiste unica, a meno di una costante additiva, ϕ ∈ C ∞ (Ω1 ; R) tale che ω j (y) = ∂ ϕ /∂ y j (y), per ogni y ∈ Ω1 e 1 ≤ j ≤ N, i.e. ω (y) = ∇y ϕ (y), y ∈ Ω1 . Il teorema è cosi provato (con Ω2 = U2 ).
Un corollario importante del teorema precedente è il seguente. Corollario 5.5.3. Sia Λ come nel Teorema 5.5.2, e sia data F ∈ C∞ (V ; R), V aperto di RN × RN tale che: (i) Σ := F −1 (0) = 0, / e ∇(y,η )F(y, η ) = 0, per ogni (y, η ) ∈ Σ ; (ii) Λ ⊂ Σ . Allora Λ è invariante per il flusso del campo hamiltoniano ∇η F(y, η ) . HF (y, η ) := −∇y F(y, η )
5.5 Il metodo delle caratteristiche. Equazione di Hamilton-Jacobi
149
Dimostrazione. Per quanto visto nella Sezione 5.1, basterà provare che HF (ρ ) ∈ Tρ Λ , ∀ρ ∈ Λ . Per il teorema precedente possiamo supporre che su un intorno Ω1 × Ω2 di ρ0 = (y0 , η0 ) ∈ Λ si abbia
Λ ∩ (Ω1 × Ω2 ) = {(y, ∇y ϕ (y)); y ∈ Ω 1 }. Poiché Λ ⊂ Σ si ha F y, ∇yϕ (y) = 0 per ogni y ∈ Ω 1 , e quindi ∇y F y, ∇yϕ (y) = (∇y F) y, ∇y ϕ (y) + Hess ϕ (y)(∇η F) y, ∇y ϕ (y) = 0, per ogni y ∈ Ω1 . Dalla (5.76), essendo Jω (y) = Hess ϕ (y), si ha dunque la tesi.
È il caso di osservare esplicitamente che preso ρ¯ = (y, ¯ η¯ = ∇y ϕ (y)) ¯ ∈ Λ , la curva integrale t −→ ΦHt F (ρ¯ ) è dunque interamente contenuta in Λ . Ne segue che, scritto ΦHt F (ρ¯ ) = y(t; ρ¯ ), η (t; ρ¯ ) , per ogni t con |t| abbastanza piccolo si ha la relazione (5.77) (∇y ϕ ) y(t; ρ¯ ) = η (t; ρ¯ ). In particolare, qualora F sia positivamente omogenea di grado m = 0 in η , cioè (y, η ) ∈ V =⇒ (y, λ η ) ∈ V , ∀λ > 0, e F(y, λ η ) = λ m F(y, η ), allora, per la relazione di Eulero mF(y, η ) = η , ∇η F(y, η ) (il lettori dimostri questa identità per esercizio), si ha d ϕ y(t; ρ¯ ) = (∇y ϕ ) y(t; ρ¯ ) , y˙(t; ρ¯ ) = dt = η (t; ρ¯ ), (∇η F) y(t; ρ¯ ), η (t; ρ¯ ) = mF y(t; ρ¯ ), η (t; ρ¯ ) , per tutti i t abbastanza piccoli. Dunque per |t| sufficientemente piccolo si ha che ϕ y(t; ρ¯ ) = ϕ y(0; ρ¯ ) = ϕ (y). ¯ In altre parole ϕ è costante sulle proiezioni in RNy delle curve integrali di HF contenute in Λ . Nella letteratura le curve integrali di HF sono chiamate bicaratteristiche di F, e le loro proiezioni su RNy sono chiamate caratteristiche di F. Ci occorre ancora un ulteriore importante risultato. Sia data F ∈ C∞(V ; R), V ⊂ RNy × RNη aperto, con campo hamiltoniano HF = ∇η F(y, η ) = 0, per ogni (y, η ) ∈ V . Sappiamo che per ogni fissato ρ0 = −∇y F(y, η )
150
5 Equazioni differenziali ordinarie
(y0 , η0 ) ∈ V c’è un intorno U ⊂ V di ρ0 ed un T > 0 tali che il flusso ΦHt F (ρ ) è ben definito e C ∞ per |t| < T e ρ ∈ U . Scritto ΦHt F (ρ = (y, η )) = q(t; ρ ), p(t; ρ ) , si consideri la matrice 2N × 2N A(t; ρ ) =
∂ q/∂ y(t; ρ ) ∂ q/∂ η (t; ρ )
.
∂ p/∂ y(t; ρ ) ∂ p/∂ η (t; ρ )
Vale il seguente risultato (invarianza della forma simplettica per il flusso hamiltoniano). Teorema 5.5.4. Per ogni (t, ρ ) ∈ (−T, T ) × U si ha δy δy σ A(t; ρ )v, A(t; ρ )v = σ (v, v ), ∀v = , v = ∈ RN × RN . δη δ η Dimostrazione. Cominciamo col provare che d σ A(t; ρ )v, A(t; ρ )v t=0 = 0, ∀v, v . dt
(5.78)
Poiché q(t; ˙ ρ ) = (∇η F) q(t; ρ ), p(t; ρ ) , p(t; ˙ ρ ) = −(∇y F) q(t; ρ ), p(t; ρ ) , possiamo scrivere q(t; ρ ) = q(0; ρ ) + t(∇η F) q(0; ρ ), p(0; ρ ) + O(t 2), p(t; ρ ) = p(0; ρ ) − t(∇yF) q(0; ρ ), p(0; ρ ) + O(t 2 ), e siccome q(0; ρ ), p(0; ρ ) = ρ = (y, η ), A(t; ρ ) =
IN 0 0 IN
+t
Fηy (ρ )
Fηη (ρ )
−Fyy (ρ )
−Fyη (ρ )
=:L(ρ )
+O(t 2 ).
Ne segue che
σ (A(t; ρ )v, A(t; ρ )v ) = σ (v, v ) + t σ (L(ρ )v, v ) + σ (v, L(ρ )v ) + O(t 2 ).
Ora
Fηy (ρ )δ y + Fηη (ρ )δ η δy σ (L(ρ )v, v ) = σ , = −Fyy (ρ )δ y − Fyη (ρ )δ η δ η
= −Fyy (ρ )δ y + Fyη (ρ )δ η , δ y − δ η , Fηy(ρ )δ y + Fηη (ρ )δ η .
5.5 Il metodo delle caratteristiche. Equazione di Hamilton-Jacobi
151
Poiché Fyη (ρ ) = t Fηy (ρ ) e Fηη , Fyy sono simmetriche, si ha
σ (L(ρ )v, v ) = −Fyy (ρ )δ y + Fyη (ρ )δ η , δ y − δ η , Fηy(ρ )δ y + Fηη (ρ )δ η = = σ (L(ρ )v , v) = −σ (v, L(ρ )v ). Dunque σ (A(t; ρ )v, A(t; ρ )v ) = σ (v, v ) + O(t 2 ), da cui la (5.78). Proviamo ora che da (5.78) segue che d σ (A(t; ρ )v, A(t; ρ )v) = 0, ∀v, v ∈ RN × RN , dt
(5.79)
per ogni t con |t| < T e per ogni ρ ∈ U . Per la proprietà gruppale del flusso ΦHt F si ha ΦHt+s (ρ ) = ΦHt F ΦHs F (ρ ) , F per |s| < T fissato e per |t| sufficientemente piccolo. Dunque A(t + s; ρ ) = A(t; ΦHs F (ρ ))A(s; ρ ), e quindi, per quanto provato sopra, σ A(t + s; ρ )v, A(t + s; ρ )v = σ A(t; ΦHs F (ρ ))A(s; ρ )v, A(t; ΦHs F (ρ ))A(s; ρ )v = = σ (A(s; ρ )v, A(s; ρ )v ) + t σ L(ΦHs F (ρ ))A(s; ρ )v, A(s; ρ )v + +σ A(s; ρ )v, L(ΦHs F (ρ ))A(s; ρ )v + O(t 2 ) = = σ (A(s; ρ )v, A(s; ρ )v ) + O(t 2). Ciò prova che la derivata di (5.79) calcolata per t = s è 0, da cui la tesi.
Veniamo ora al problema di Cauchy (5.74). La funzione F(t, x, τ , ξ ) := τ − f (t, x, ξ ) è definita su (−T, T ) ×U × Rτ × Γ ed è ivi C ∞. Poniamo Σ := {(t, x, τ , ξ ); τ = f (t, x, ξ )}. ⎡ ⎤ 1 ⎢ −∇ξ f ⎥ ∞ 1+n × R1+n di ⎥ Poiché HF = ⎢ ⎣ ∂ f /∂ t ⎦ = 0, si ha che Σ è una sottovarietà C di R ∇x f codimensione 1. Ricordiamo che HF (ρ ) ∈ Tρ Σ per ogni ρ ∈ Σ . Consideriamo ora l’insieme S := {(t, x, τ , ξ ); t = 0, x ∈ U, ξ = ∇x g(x), τ = f (0, x, ξ )}.
152
5 Equazioni differenziali ordinarie
Proviamo le seguenti proprietà di S: (i) S è una sottovarietà C ∞ di R1+n × R1+n di dimensione n, e S ⊂ Σ ; (ii) per ogni ρ ∈ S, HF (ρ ) ∈ Tρ S; (iii) σ (v, v ) = 0, ∀v, v ∈ Tρ S, ∀ρ ∈ S. La (i) è ovvia, e si ha ⎡ ⎤ δt 6⎢ 7 δx ⎥ ⎥ ; δ t = 0, δ ξ = Hess g(ρ )δ x, δ τ = ∇x f (ρ ), δ x + ∇ξ f (ρ ), δ ξ , Tρ S = ⎢ ⎣ δτ ⎦ δξ (5.80) per ogni ρ ∈ S. Da (5.80) segue allora immediatamente (ii). Quanto a (iii) si ha ⎤ ⎡ ⎤ ⎡ 0 0 ⎢ ⎥ ⎢ ⎥ δx δ x ⎥,⎢ ⎥ σ ⎢ ⎣ ∇x f (ρ )δ x + ∇ξ f (ρ ), δ ξ ⎦ ⎣ ∇x f (ρ )δ x + ∇ξ f (ρ ), δ ξ ⎦ = Hess g(ρ )δ x Hess g(ρ )δ x = Hess g(ρ )δ x, δ x − Hess g(ρ )δ x , δ x = 0. La trasversalità di HF nei punti di S, per quanto visto nella Sezione 5.1, permette di affermare quanto segue. Fissato ad arbitrio un punto ρ0 = (t = 0, x0, τ = f (0, x0, ∇x g(x0 )), ∇x g(x0 )) ∈ S, esiste 0 < T ≤ T ed un intorno U ⊂ U di x0 per cui, posto U := {(t = 0, x, τ = f (0, x, ∇xg(x)), ∇x g(x)); x ∈ U }, la mappa (−T , T ) × U (t, ρ ) −→ ΦHt F (ρ ) ∈ R1+n × R1+n è un diffeomorfismo sulla sua immagine, che chiameremo ΛT ,U , la quale è dunque una sottovarietà C∞ di R1+n ×R1+n di dimension n +1, ed ovviamente ΛT ,U ⊂ Σ . Vediamo ora che, a patto di restringere T ed U , ΛT ,U soddisfa le condizioni del Teorema 5.5.2. Per fare ciò, è importante determinare lo spazio tangente Tρ˜ ΛT ,U in ogni punto ρ˜ := ΦHt F (ρ ) ∈ ΛT ,U . Si ha Tρ˜ ΛT ,U = {λ HF (ρ˜ ) + (ΦHt F ) (ρ )v; λ ∈ R, v ∈ Tρ S}, (ΦHt F ) (ρ )
(5.81)
ΦHt F
dove è la mappa tangente di rispetto a ρ . Osserviamo ora che σ λ HF (ρ˜ ) + (ΦHt F ) (ρ )v, λ HF (ρ˜ ) + (ΦHt F ) (ρ )v = = λ λ σ (HF (ρ˜ ), HF (ρ˜ )) +λ σ (HF (ρ˜ ), (ΦHt F ) (ρ )v )+
=0 t +λ σ ((ΦHF ) (ρ )v, HF (ρ˜ )) + σ ((ΦHt F ) (ρ )v, (ΦHt F ) (ρ )v ). e terzo addendo sono nulli perché (ΦHt F ) (ρ )v ∈ Tρ˜ ΛT ,U ⊂ Tρ˜ Σ
Il secondo
σ (HF (ρ˜ ), w) = −(∇(t,x,τ ,ξ )F)(ρ˜ ), w = 0, ∀w ∈ Tρ˜ Σ .
e
5.5 Il metodo delle caratteristiche. Equazione di Hamilton-Jacobi
153
Infine, per il Teorema 5.5.4, l’ultimo addendo è uguale a σ (v, v ) = 0, per la proprietà (iii). Occorre ora verificare la proprietà (i) del Teorema 5.5.2. Si prenda ΦH0 F (ρ ) = ρ e calcoliamo π (ρ )T Λ : Tρ ΛT ,U −→ Tπ (ρ )R1+n = R1+n . Poiché ρ T ,U
Tρ ΛT ,U = {λ HF (ρ ) + v; λ ∈ R, v ∈ Tρ S}, ⎤ 0 ⎥ ⎢ δx ⎥ si ha, con v = ⎢ ⎣ ∇x f (ρ ), δ x + ∇ξ f (ρ ), Hessg(ρ )δ x ⎦ , che Hess g(ρ )δ x ⎡
π (ρ ) λ HF (ρ ) + v =
λ −λ ∇ξ f (ρ ) + δ x
.
Questo è nullo se e solo se λ = 0 e δ x = 0, i.e. se e solo se λ HF (ρ )+v = 0. Dunque la restrizione di π (ρ˜ ) è iniettiva nei punti ρ˜ = ρ di S. Ne segue che, a patto di restringere U e T , la restrizione di π (ρ˜ ) è iniettiva in ogni punto ρ˜ = ΦHt F (ρ ) di ΛT ,U . Il Teorema 5.5.2 permette allora di concludere (riducendo ancora, eventualmente, T e U ) che ΛT ,U è un grafico del tipo (t, x,
∂ψ (t, x), ∇xψ (t, x)) ∂t
per una funzione reale ψ (t, x) definita su (−T , T ) × U , unica a meno di una costante additiva. Per costruzione (∇x ψ )(0, x) = ∇x g(x) e dunque ψ (0, x) − g(x) è una costante c ∈ R. Ne segue che la funzione ψ (t, x) − c soddisfa il problema di Cauchy (5.74). Esaminiamo ora alcuni esempi significativi. Consideriamo il problema di Cauchy ⎧ ∂ψ ⎪ ⎨ (t, x) = ||∇x ψ (t, x)||, ∂t ⎪ ⎩ ψ (0, x) = g(x),
(5.82)
dove g ∈ C∞ (Rn ; R), con ∇x g(x) = ⎤ x. In tal caso F(t, x, τ , ξ ) = τ − ||ξ ||, ⎡ 0 per ogni 1 ⎢ −ξ /||ξ || ⎥ ⎥ , le curve integrali di HF passanti per che è C ∞ per ξ = 0. Poiché HF = ⎢ ⎦ ⎣ 0 0 ρ = (t = 0, y ∈ Rn , ||∇xg(y)||, ∇x g(y)) sono date da ∇x g(y) t, ||∇xg(y)||, ∇xg(y) , t ∈ R. t, y − ||∇x g(y)||
154
5 Equazioni differenziali ordinarie
Giacché
∇x g(y) t = ψ (0, y) = g(y), ψ t, y − ||∇x g(y)||
si tratta dunque di invertire la mappa ∇x g(y) (t, y) −→ t, y − t =x . ||∇xg(y)|| Fissato y0 c’è sicuramente un δ > 0 e T > 0 tali che per ogni x ∈ Dδ (y0 ) e per ogni |t| < T, l’equazione ∇x g(y) t=x (5.83) y− ||∇x g(y)|| ha un’unica soluzione (t, x) −→ y(t, x) di classe C∞ . Dunque la soluzione per x ∈ Dδ (y0 ) e |t| < T è data da ψ (t, x) = g y(t, x) . Ad esempio, se g(x) = x, ζ , ζ = 0, allora y(t, x) = x + t
ζ , ||ζ ||
e dunque ζ , ζ = x, ζ + t||ζ ||, ∀(t, x) ∈ R × Rn . ψ (t, x) = x + t ||ζ || Un altro esempio è il problema di Cauchy seguente: ⎧ " ∂ψ ⎪ ⎨ (t, x) = 1 − ||∇xψ (t, x)||2 , ∂t ⎪ ⎩ ψ (0, x) = g(x), n dove g ∈ C ∞ (Rn ; R), con ||∇x g(x)|| < 1 per ogni x ∈ R . ∞ 2 In tal caso⎡F(t, x, τ , ξ ) = τ ⎤ − 1 − ||ξ || , che è C per ||ξ || < 1. 1 ⎢ ξ / 1 − ||ξ ||2 ⎥ ⎥ , le curve integrali di HF passanti per il punto ρ = Poiché HF = ⎢ ⎣ ⎦ 0 0 (t = 0, y ∈ Rn , 1 − ||∇xg(y)||2 , ∇xg(y)) sono date da
" ∇x g(y) t, 1 − ||∇xg(y)||2 , ∇x g(y) , t ∈ R. t, y + 1 − ||∇x g(y)||2
5.5 Il metodo delle caratteristiche. Equazione di Hamilton-Jacobi
155
Di nuovo, fissato y0 c’è sicuramente un δ > 0 e T > 0 tali che per ogni x ∈ Dδ (y0 ) e |t| < T , l’equazione ∇x g(y) y+ t =x (5.84) 1 − ||∇xg(y)||2 ha un’unica soluzione (t, x) −→ y(t, x) ∈ Rn di classe C ∞. Per costruzione la 1-forma " 1 − ||∇xg(y(t, x))||2 dt + ∇x g y(t, x) , dx è chiusa su (−T, T ) × Dδ (y0 ), e quindi ivi esatta. Sicché per integrazione della 1forma si ottiene la ψ (t, x). Ad esempio, se g(x) = x, ζ , ||ζ || < 1, si ha la 1-forma " 1 − ||ζ ||2 dt + ζ , dx, il cui potenziale, che per t = 0 dà g, è " x, ζ + 1 − ||ζ ||2 t, ∀(t, x) ∈ R × Rn . In generale le equazioni (5.83) e (5.84) non sono esplicitamente risolubili in termini elementari. Accenniamo infine ad una applicazione importante del problema di Cauchy (5.74). Supponiamo dato su un aperto X ⊂ Rn (n ≥ 2) un operatore differenziale lineare di ordine m P = P(x, D) =
1 α α aα (x)Dα , Dα = D1 1 D2 2 . . .Dαn n , D j = ∂x j , i |α |≤m
∑
a coefficienti C ∞ (X), per il quale il simbolo principale pm (x, ξ ) :=
∑
|α |=m
aα (x)ξ α , ξ ∈ Rn ,
sia reale e soddisfi le condizioni seguenti: / (i) Σ := {(x, ξ ) ∈ X × (Rn \ {0}); pm (x, ξ ) = 0} = 0; (ii) dξ pm (ρ ) = 0, ∀ρ ∈ Σ (sicché Σ è una sottovarietà C ∞ di codimensione 1). Si è interessati a trovare una funzione reale e C ∞ , ψ (x, λ ), x ∈ X, λ ∈ Rn−1 \ {0}, positivamente omogenea di grado 1 in λ (i.e. ψ (x, t λ ) = t ψ (x, λ ), t > 0), tale che e−iψ (x,λ )P eiψ (x,λ ) = O(||λ ||m−1), per ||λ || → +∞. Un calcolo (che lasciamo al lettore) mostra che si ha e−iψ (x,λ )P eiψ (x,λ ) = pm x, ∇x ψ (x, λ ) + O(||λ ||m−1 ).
156
5 Equazioni differenziali ordinarie
Ci si riconduce così a costruire ψ tale che pm x, ∇x ψ (x, λ ) = 0. In generale non è possibile trovare una soluzione globale di questa equazione. Tuttavia è possibile risolvere l’equazione microlocalmente. Precisamente, fissato un punto ρ¯ = (x, ¯ ξ¯ ) ∈ Σ , si supponga, ad esempio, che sia ∂ pm/∂ ξ1 (ρ¯ ) = 0 e, per semplicità, sia x¯1 = 0. Dal Teorema di Dini segue allora che possiamo scrivere pm (x, ξ ) = ξ1 − f (x1 , x , ξ ) θ (x, ξ ), per |x1 | < T, x = (x2 , . . ., xn ) ∈ Dr (x¯ ) (per certi T, r > 0), e per ξ = (ξ2 , . . ., ξn ) ∈ Γ ⊂ Rn−1 \ {0}, dove Γ è un intorno conico aperto di ξ¯ (conico significa qui che se ξ ∈ Γ allora t ξ ∈ Γ , per ogni t > 0), f ∈ C∞((−T, T ) × Dr (x¯ ) × Γ ; R) e θ è una funzione C∞ reale non nulla su (−T, T ) × Dr (x¯ ) × Rξ1 × Γ . Di più f (x1 , x , t ξ ) = t f (x1 , x , ξ ), θ (x, t ξ ) = t m−1 θ (x, ξ ), ∀t > 0. A questo punto basta trovare ψ (x, λ ) tale che ⎧ ∂ψ ⎪ (x, λ ) = f x1 , x , ∇x ψ (x, λ ) , ⎨ ∂ x1 ⎪ ⎩ ψ (0, x , λ ) = x , λ , λ ∈ Γ ,
(5.85)
per avere allora pm x, ∇x ψ (x, λ ) = 0. La discussione del problema di Cauchy (5.74) garantisce che il problema di Cauchy (5.85) ha un’unica soluzione locale C ∞. L’esempio visto in (5.82) è un caso particolare di quanto discusso ora, nel caso ∂2 in cui P sia l’operatore delle onde 2 − Δ (dove Δ è il laplaciano). ∂t Da ultimo consideriamo il seguente problema di Cauchy quasilineare (si veda (5.62)): ⎧ n ∂u ∂u ⎪ ⎪ ⎨ Lu := ∂ t + ∑ α j (t, x, u) ∂ x = f (t, x, u), j j=1 (5.86) ⎪ ⎪ ⎩ u(0, x) = g(z), dove ora i coefficienti α1 , . . ., αn dell’operatore L ed il “termine noto” f sono assegnate funzioni reali di classe C ∞ (per fissare le idee) su un cilindro aperto Ω := (−T, T ) ×U × R ⊂ Rt × Rnx × Ru . Come al solito, il problema consiste nel provare l’esistenza e unicità (locale) di una soluzione di (5.86). L’osservazione cruciale è la seguente. Consideriamo su Ω il campo vettoriale C∞ ⎤ ⎡ 1 ⎤ ⎡ ⎢ α1 (t, x, z) ⎥ ⎥ ⎢ ⎢ ⎥⎥ ⎢ ⎥, . ⎥ ⎢ (5.87) v : Ω −→ R × Rn × R, v(t, x, z) = ⎢ .. ⎢ α (t, x, z) = ⎣ ⎦⎥ ⎥ ⎢ ⎣ αn (t, x, z) ⎦ f (t, x, z)
5.5 Il metodo delle caratteristiche. Equazione di Hamilton-Jacobi
157
e prendiamo φ ∈ C ∞ (V ; R), dove V ⊂ (−T, T )×U è aperto. Considerato poi il grafico di φ Γφ := {(t, x, z) ∈ Ω ; (t, x) ∈ V, z = φ (t, x)}, (5.88) l’osservazione è che Lφ = f (t, x, φ ) se e solo se il campo v è tangente a Γφ in ogni suo punto. Infatti, se ρ = (t, x, z) ∈ Γφ , lo spazio tangente Tρ Γφ di Γφ in ρ è dato da ⎡ ⎤ δt ∂φ (t, x)δ t + ∇x φ (t, x), δ x}, (5.89) Tρ Γφ = {⎣ δ x ⎦ ; δ z = ∂t δz e dire che v(ρ ) ∈ Tρ Γφ significa che f (t, x, φ (t, x)) =
∂φ (t, x) + α (t, x, φ (t, x)), ∇xφ (t, x) = (Lφ )(t, x). ∂t
Ne consegue che se φ risolve Lφ = f (t, x, φ ), fissato un qualunque ρ ∈ Γφ , e considerata la curva integrale di v passante per ρ , quest’ultima è contenuta in Γφ . L’idea naturale è quindi di considerare il sistema differenziale ⎧ ⎧ ⎨ t˙ = 1 ⎨ t(0) = 0 x˙ = α (t, x, z) x(0) = y (5.90) ⎩ ⎩ z(0) = g(y). z˙ = f (t, x, z), Per quanto sappiamo, fissato y0 ∈ U, esistono un intorno U0 ⊂ U di y0 ed un tempo 0 < T0 ≤ T tali che per ogni y ∈ U0 il problema di Cauchy (5.90) ha un’unica soluzione (t, x(t; y), z(t; y)) definita per |t| < T0 e C∞ in tutte le variabili. Dunque se φ ∈ C ∞((−T0 , T0 ) ×U0 ; R) risolve il problema di Cauchy (5.86), allora
φ (t, x(t; y)) = z(t; y) per ogni (t, y) ∈ (−T0 , T0 ) ×U0 . Ne consegue che
φ (t, x(t; y)) = g(y) +
& t 0
f (s, x(s; y), z(s; y))ds.
(5.91)
Ora, poiché la mappa (−T0 , T0) ×U0 (t, y) −→ (t, x(t; y)) ∈ (−T0 , T0) ×U è localmente invertibile vicino a (0, y0 ), con inversa che denotiamo (t, x) −→ (t, y(t; x)) ∈ (−T0 , T0) ×U0 definita su un intorno (−T1 , T1) ×U1 ⊂ (−T0 , T0 ) ×U0 di (0, y0 ), la (5.91) si riscrive come & t φ (t, x) = g(y(t; x)) + f (s, x(s; y(t; x)), z(s; y(t; x)))ds. (5.92) 0
158
5 Equazioni differenziali ordinarie
Viceversa, lasciamo al lettore di verificare che la funzione definita in (5.92) è effettivamente soluzione, e quindi la soluzione, del problema di Cauchy (5.86), per (t, x) ∈ (−T1 , T1) ×U1 . Vediamo ora in un esempio semplice, ma significativo, come questo metodo funzioni. Consideriamo l’equazione di Burgers ⎧ ∂u ∂u ⎪ ⎨ (t, x) − u(t, x) (t, x) = 0 ∂t ∂x , (t, x) ∈ R × R. (5.93) ⎪ ⎩ u(0, x) = g(x) In questo caso il sistema (5.90) è ) x(t) ˙ = z(t) z˙(t) = 0,
)
x(0) = y z(0) = g(y),
da cui x(t; y) = y − g(y)t. Per fissare le idee poniamoci in un intorno di (0, 0) e sia (t, x) −→ (t, y(t; x)) l’inversa di (t, y) −→ (t, x(t; y)). Definendo allora
φ (t, x) := g(y(t; x)) si ha la soluzione di (5.93). Ad esempio, se g(x) = x, allora x(t; y) = (1 − t)y, e quindi y(t; x) =
x = φ (t, x), 1 −t
che è ben definita per (t, y) ∈ (−∞, 1) × R. Dunque la soluzione “esplode” a t = 1. Ancora, se g(x) = x2 , allora x(t; y) = y−y2 t. La soluzioneC ∞ dell’equazione y−y2 t = xè √ ⎧ 1 − 1 − 4tx ⎪ ⎨ , t = 0 e 4tx < 1, 2t y(t; x) = ⎪ ⎩ x, t = 0, da cui
2 φ (t, x) = y(t; x) .
Si noti che per x > 0 la soluzione esiste per t < 1 . esiste per t > − 4|x|
1 4x ,
mentre per x < 0 la soluzione
A questo punto, per fare un parallelo con quanto è stato fatto nel passaggio dall’equazione lineare all’equazione di Hamilton-Jacobi, sarebbe naturale considerare la seguente equazione di Hamilton-Jacobi
5.6 Stabilità dei punti di equilibrio. Funzione di Lyapunov
159
⎧ ∂ψ ⎪ ⎨ = f (t, x, ψ (t, x), ∇xψ (t, x)) ∂t ⎪ ⎩ ψ (0, x) = g(x), per la trattazione della quale rinviamo alla letteratura specialistica.
5.6 Stabilità dei punti di equilibrio. Funzione di Lyapunov In questa sezione ci occuperemo, senza pretesa alcuna di esaustività, degli aspetti più elementari della stabilità per un sistema autonomo del tipo x˙ = f (x). Nel seguito f : Ω ⊂ Rn −→ Rn è supposta essere almeno di classe C1 . Dato y ∈ Ω , con t −→ Φ t (y) ∈ Ω indichiamo la soluzione del problema di Cauchy x˙ = f (x), x(0) = y. L’intervallo di esistenza di tale soluzione verrà indicato, come al solito, con I(y) = (τ− (y), τ+ (y)), −∞ ≤ τ− (y) < 0 < τ+ (y) ≤ +∞. Cominciamo con il considerare il caso più semplice: la stabilità dei punti di equilibrio. Definizione 5.6.1. Un punto a ∈ Ω si dice di equilibrio per il sistema x˙ = f (x) se f (a) = 0. Con C f := {a ∈ Ω ; f (a) = 0} indichiamo l’insieme dei punti di equilibrio.
Se C f = 0/ e a ∈ C f , allora per la curva integrale t −→ Φ t (a) si ha Φ t (a) = a, per ogni t reale. L’idea intuitiva di stabilità per un punto di equilibrio a è che se si prendono dati iniziali y sufficientemente vicini ad a allora l’evoluzione Φ t (y) rimane vicina ad a, almeno per tutti i t ≥ 0 (stabilità nel futuro, o secondo Lyapunov). La definizione precisa è la seguente. Definizione 5.6.2. Un punto a ∈ C f di equilibrio per il sistema x˙ = f (x) si dice stabile se esiste r > 0 tale che: (i) Dr (a) ⊂ Ω ; (ii) per ogni 0 < r < r esiste 0 < r ≤ r tale che per ogni y ∈ Dr (a) si ha τ+ (y) = +∞ e Φ t (y) ∈ Dr (a), per ogni t ≥ 0. Si dirà che a ∈ C f è instabile se non è stabile.
Osservazione 5.6.3. (a) Si noti che come conseguenza del Teorema 5.1.7 non è possibile avere in (ii) della Definizione 5.6.2 Φ t (y) ∈ Dr (a) per 0 ≤ t < τ+ (y) < +∞. Dunque una condizione necessaria per la stabilità di un punto di equilibrio a ∈ C f è che per un qualche δ > 0, con Dδ (a) ⊂ Ω , per ogni y ∈ Dδ (a) si abbia τ+ (y) = +∞. Ad esempio, per il sistema x˙ = x2 , x ∈ R, l’unico punto di equilibrio è l’origine, e questo è instabile (si osservi che per y > 0 vale Φ t (y) = y/(1 −ty), t ∈ (−∞, 1/y)).
160
5 Equazioni differenziali ordinarie
(b) La nozione di stabilità è invariante per diffeomorfismi. Precisamente, se f : Ω ⊂ Rn −→ Rn è il campo dato, e χ : Ω −→ Ω˜ ⊂ Rn è un diffeomorfismo, almeno di classe C 2 , abbiamo chiamato push-forward di f il campo f˜ : Ω˜ −→ Rn definito da f˜(z) = χ χ −1 (z) f (χ −1 (z)) (χ è la matrice jacobiana di χ ). Il lettore verifichi che C f˜ = χ (C f ) e che a ∈ C f è stabile per x˙ = f (x) se e solo se χ (a) ∈ C f˜ è stabile per z˙ = f˜(z). Una nozione più fine di stabilità è la stabilità asintotica di un punto di equilibrio. Definizione 5.6.4. Un punto a ∈ C f di equilibrio per il sistema x˙ = f (x) si dice asintoticamente stabile se è stabile e, per di più, con le notazioni della Definizione 5.6.2, si ha ∀y ∈ Dr (a), Φ t (y) −→ a, per t → +∞. Il lettore verifichi che anche la nozione di stabilità asintotica è invariante per diffeomorfismi. Si osservi anche che se a ∈ C f è asintoticamente stabile allora necessariamente a è un punto isolato di C f . Un primo risultato fondamentale è il seguente. Teorema 5.6.5. Dato il sistema lineare x˙ = Ax, A ∈ M(n; R), e considerato il punto di equilibrio x = 0, si ha: (i) x = 0 è stabile se e solo se p−1 A (0) ⊂ {λ ∈ C; Re λ ≤ 0}, e per ogni λ ∈ p−1 A (0) con Re λ = 0 si ha ma (λ ) = mg (λ ); (ii) x = 0 è asintoticamente stabile se e solo se p−1 A (0) ⊂ {λ ∈ C; Re λ < 0}. Infine se 0 = a ∈ Ker A, a è stabile se e solo se 0 è stabile. Dimostrazione. La prova è in realtà una conseguenza del Teorema 5.3.2. Vediamo perché. Cominciamo col provare (i). Se p−1 A (0) ⊂ {λ ∈ C; Re λ ≤ 0}, e ma (λ ) = mg (λ ) quando λ ∈ p−1 (0) con Re λ = 0, allora si è dimostrato che esiste C = C(A) > A 0 tale che ||Φ t (y)|| ≤ C||y||, ∀y ∈ Rn , ∀t ≥ 0, ciò che prova la stabilità dell’origine. Viceversa, la dimostrazione del Teorema 5.3.2 prova che se qualche λ ∈ p−1 A (0) ha Re λ > 0 oppure Re λ = 0 ma ma (λ ) > mg (λ ), allora l’origine è instabile, in
5.6 Stabilità dei punti di equilibrio. Funzione di Lyapunov
161
quanto è possibile scegliere dati iniziali 0 = y, con ||y|| arbitrariamente piccola, per cui ||Φ t (y)|| → +∞ quando t → +∞. Ciò conclude la prova di (i). Quanto a (ii), ricordiamo che se p−1 A (0) ⊂ {λ ∈ C; Re λ < 0}, allora, come conseguenza delle (5.46) e (5.47) esistono δ ,C > 0 tali che ||Φ t (y)|| ≤ Ce−δ t ||y||, ∀y ∈ Rn , ∀t ≥ 0, il che prova la stabilità asintotica dell’origine. Viceversa, se λ ∈ p−1 A (0) con Re λ > 0, il punto (i) mostra che l’origine è instabile e dunque non può essere asintoticamente stabile. Se poi 0 ∈ p−1 A (0), allora C f = Ker A = {0}, sicché 0 non è un punto isolato di C f , e dunque non può essere asintoticamente stabile. Infine se λ ∈ p−1 A (0) con λ = 0 e Re λ = 0, allora il Teorema 5.4.1 garantisce l’esistenza di soluzioni periodiche Φ t (y) con 0 = y ∈ Ker (A − λ In ), e ||y|| arbitrariamente piccola. Pertanto, di nuovo, l’origine non può essere asintoticamente stabile. Da ultimo, supposto Ker A = {0}, e preso 0 = a ∈ Ker A, si consideri la traslazione T : Rn x −→ z = x − a ∈ Rn . Il push-forward del sistema x˙ = Ax è z˙ = A(z + a) = Az + Aa = Az, il che prova che a è stabile se e solo se l’origine è stabile.
Quando si passa da un sistema lineare ad un sistema non lineare la prima idea naturale per lo studio della stabilità è la seguente. Dato a ∈ C f , usando la formula di Taylor, si consideri f (x) = f (a)(x − a) + o(||x − a||), dove f (a) è la matrice jacobiana di f in a. L’idea quindi è di congetturare che la stabilità di a per il sistema x˙ = f (x) sia “legata” alla stabilità dell’origine per il sistema lineare x˙ = f (a)x. L’implementazione di questa idea dipende evidentemente dalla possibilità di “controllare” il termine o(||x − a||). A tal fine, un metodo che si è dimostrato particolarmente efficace per lo studio della stabilità è quello della “funzione di Lyapunov”. Definizione 5.6.6. Dato il sistema autonomo x˙ = f (x), f : Ω ⊂ Rn −→ Rn , ed un suo punto di equilibrio a ∈ C f , diremo che una funzione g ∈ C 1 (U; R), dove U è un aperto con a ∈ U ⊂ Ω , è una funzione di Lyapunov per f (relativamente ad a) se (i) g(a) = 0 e g(x) > 0 per ogni x ∈ U \ {a}; (ii) ∇g(x), f (x) ≤ 0, per ogni x ∈ U. Qualora valgano (i) e (ii)’ ∇g(x), f (x) < 0, per ogni x ∈ U \ {a}, si dirà che g è una funzione di Lyapunov forte.
Vale il seguente risultato. Teorema 5.6.7. Se a ∈ C f è un punto di equilibrio per x˙ = f (x) e se c’è una funzione di Lyapunov, rispettivamente di Lyapunov forte, per f relativamente ad a, allora a è stabile, rispettivamente asintoticamente stabile.
162
5 Equazioni differenziali ordinarie
Fig. 5.5. La natura di alcuni punti di equilibrio
Dimostrazione. Sia g ∈ C 1 (U; R) (a ∈ U ⊂ Ω ) una funzione di Lyapunov per f . Preso ad arbitrio r > 0 con Dr (a) ⊂ U, sia 0 < m := min g. Si fissi ora 0 < r < r ∂ Dr (a)
per cui g(x) < m, per tutti gli x ∈ Dr (a). Dato y ∈ Dr (a), dimostriamo che τ+ (y) = +∞ e Φ t (y) ∈ Dr (a) per ogni t ≥ 0. Si consideri l’insieme (non vuoto!) {t > 0; Φ s(y) ∈ Dr (a), ∀s ∈ [0, t)}, e sia T il sup di tale insieme. Basterà provare che T = +∞. A tal fine osserviamo che si ha d g(Φ t (y)) = ∇g(Φ t (y)), f (Φ t (y)) ≤ 0, ∀t ∈ [0, T), dt e quindi t −→ g(Φ t (y)) è decrescente, sicché g(Φ t (y)) ≤ g(y) < m, ∀t ∈ [0, T). Se T < +∞, allora, presa una qualunque successione 0 < tν T , poiché Φ tν (y) ∈ Dr (a) per ogni ν , passando eventualmente ad una sottosuccessione avremo che
5.6 Stabilità dei punti di equilibrio. Funzione di Lyapunov
163
Φ tν (y) → z per ν → +∞, per un qualche z ∈ Dr (a). Ma allora z dovrà necessariamente appartenere a ∂ Dr (a). Poiché g(Φ tν (y)) → g(z) ≥ m per ν → +∞, ciò porta ad una contraddizione. Questo prova la stabilità. Quando g è di Lyapunov forte, si tratta di provare che Φ t (y) → a per t → +∞, quale che sia a = y ∈ Dr (a). In questo caso [0, +∞) t −→ g(Φ t (y)) è strettamente decrescente. Se proviamo che g(Φ t (y)) → 0 per t → +∞ abbiamo concluso. Infatti, per una qualunque successione tν → +∞ per cui Φ tν (y) converga ad un punto z (necessariamente in Dr (a)), si dovrà allora avere g(z) = 0, e quindi z = a. Se per assurdo fosse g(Φ t (y)) → γ > 0, per t → +∞, si avrebbe allora che per un qualche tγ > 0 e per tutti i t ≥ tγ 3 γ ≤ g(Φ t (y)) ≤ γ , 2 2 e pertanto Φ t (y) ∈ g−1 ([γ /2, 3γ /2]) ∩ Dr (a), per t ≥ tγ , che è un compatto disgiunto da a, sicché esisterà C > 0 per cui ∇g(Φ t (y)), f (Φ t (y)) ≤ −C, ∀t ≥ tγ . Ma allora 0 < g(Φ t (y)) = g(Φ tγ (y)) +
& t tγ
∇g(Φ s(y)), f (Φ s(y))ds ≤ ≤ g(Φ tγ (y)) −C(t − tγ ), ∀t ≥ tγ ,
il che è assurdo. Ciò conclude la dimostrazione.
Anche per provare l’instabilità di un punto di equilibrio si può ricorrere al metodo della funzione di Lyapunov. Precisamente si ha il seguente teorema. Teorema 5.6.8. Sia a ∈ C f un punto di equilibrio per x˙ = f (x), e si supponga che esista una funzione h ∈ C1 (U; R), a ∈ U ⊂ Ω , U aperto, tale che: (i) h(a) = 0 e h(x) > 0 , ∀x ∈ U \ {a}; (ii) ∇h(x), f (x) > 0, ∀x ∈ U \ {a}. Allora a è instabile. Dimostrazione. Ragioniamo per assurdo, supponendo a stabile. Per definizione, sia r > 0 con Dr (a) ⊂ U tale che per ogni 0 < r < r ci sia 0 < r ≤ r per cui Φ t (y) ∈ Dr (a) per ogni t ≥ 0 e per ogni y ∈ Dr (a). Preso y ∈ Dr (a) \ {a}, consideriamo la funzione [0, +∞) t −→ h(Φ t (y)). Poiché d h(Φ t (y)) = ∇h(Φ t (y)), f (Φ t (y)) > 0, ∀t ≥ 0, dt ne segue che 0 < h(Φ t (y)) è strettamente crescente. Dunque
164
5 Equazioni differenziali ordinarie
Φ t (y) ∈ h−1 [h(y), +∞) ∩ Dr (a), che è compatto, sicché esisterà C > 0 tale che (d/dt)h(Φ t (y)) ≥ C, per ogni t ≥ 0. Quindi & t d h(Φ s(y))ds ≥ h(y) +Ct, ∀t ≥ 0, h(Φ t (y)) = h(y) + 0 ds il che porta ad una contraddizione.
Siamo ora in grado di dare un primo risultato generale. Teorema 5.6.9. Si consideri il sistema x˙ = f (x) con f ∈ C 2 (Ω ; Rn), e sia a ∈ C f . Consideriamo f (a), la matrice jacobiana di f in a. (i) Se a è stabile per x˙ = f (x) allora p−1 (0) ⊂ {λ ∈ C; Re λ ≤ 0}. f (a)
(ii) Se p−1 f (a) (0) ⊂ {λ ∈ C; Re λ < 0} allora a è asintoticamente stabile per x˙ = f (x). Dimostrazione. Cominciamo col provare (ii), che è la parte “facile” del teorema. Senza minore generalità (tenuto conto dell’invarianza per diffeomorfismi) possiamo supporre a = 0. Posto f (0) = A ∈ M(n; R), possiamo scrivere f (x) = Ax + G(x), x ∈ Ω , per una certa G ∈ C 2 (Ω ; Rn ), tale che ||G(x)|| = O(||x||2 ) per x → 0. Per ipotesi p−1 A (0) è contenuto in un cono Γ ⊂ C \ {0} tale che Γ \ {0} ⊂ {λ ∈ C; Re λ < 0}. Dal Teorema di Lyapunov (Teorema 2.5.10) segue allora che esiste H ∈ M(n; C) con H = H ∗ > 0 tale che HAζ , ζ Cn ∈ Γ , per ogni 0 = ζ ∈ Cn . In particolare ReHAζ , ζ Cn < 0, per ogni 0 = ζ ∈ Cn . Scritta H = H1 + iH2 , con H1 , H2 ∈ M(n; R) e tH1 = H1 , tH = −H , avremo H > 0 e 2 2 1 H1 Aξ , ξ < 0, ∀ξ ∈ Rn \ {0} (·, · è qui il prodotto scalare in Rn ). Consideriamo ora la funzione g : Rn −→ R, g(x) := H1 x, x/2. È chiaro che g(0) = 0 e g(x) > 0 per ogni x ∈ Rn \ {0}. D’altra parte, per ogni x ∈ Ω , ∇g(x), f (x) = H1 x, Ax + G(x) = H1 Ax, x + H1 x, G(x). Sia C > 0 tale che
H1 Ax, x ≤ −C||x||2 , ∀x ∈ Rn .
Fissato ad arbitrio r > 0 con Dr (0) ⊂ Ω , esiste C > 0 per cui |H1 x, G(x)| ≤ C ||x||3 , ∀x ∈ Dr (0). Dunque, per x ∈ Dr (0), si avrà ∇g(x), f (x) ≤ (−C +C ||x||)||x||2.
5.6 Stabilità dei punti di equilibrio. Funzione di Lyapunov
165
Ne segue che per un certo 0 < r ≤ r si avrà C ∇g(x), f (x) ≤ − ||x||2 , ∀x ∈ Dr (0). 2 Allora gD (0) è una funzione di Lyapunov forte per il sistema x˙ = f (x), il che, in r virtù del Teorema 5.6.7, conclude la prova di (ii). Passiamo ora alla prova di (i). Ancora possiamo supporre che a = 0. Poniamo come prima A = f (0) ∈ M(n; R), e ragioniamo per assurdo mostrando che se p−1 / allora l’origine è instabile per il sistema x˙ = f (x). A (0) ∩ {λ ∈ C; Re λ > 0} = 0 Faremo la dimostrazione nel caso più generale in cui il polinomio caratteristico pA di A ha anche radici con parte reale negativa e radici puramente immaginarie (in quanto la dimostrazione negli altri casi è più semplice). Come conseguenza del Teorema 2.8.3 (e della successiva discussione) e del Teorema di Lyapunov, senza minor gen n n neralità possiamo supporre che Rnx = Rξ+ × Rη− × Rζ0 , e che in corrispondenza A abbia la forma a blocchi seguente: ⎤ ⎡ A+ ⎦ , 0 < ε ≤ 1, A− A=⎣ (5.94) Bε −1 dove p−1 A± (0) ⊂ {λ ∈ C; ±Re λ > 0}, e pBε (0) ⊂ {λ ∈ C; Re λ = 0}, e dove inoltre Bε ha a sua volta la forma a blocchi Bε (5.95) Bε = Bε
(come usuale, i blocchi non scritti sono blocchi di zeri). Qui p−1 (0) = {0} e Bε ha Bε tutti gli elementi di matrice nulli fatta al più eccezione per gli elementi della diagonale superiore alla diagonale principale che sono o 0 o ε , e p−1 (0) ⊂ iR \ {0} e Bε ha la Bε struttura a blocchi ⎡
0 α1 ∗ ⎢ −α1 0 ⎢ ⎢ 0 α2 ⎢ ∗ ⎢ −α 2 0 ⎢ ⎢ .. .. Bε = ⎢ ⎢ . . ⎢ ⎢ 0 αν −1 ⎢ ⎢ −αν −1 0 ⎢ ⎣
⎤ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ∗ ⎥ ⎥ 0 αν ⎦ −α ν 0
(5.96)
0 0 con α j > 0 (non necessariamente distinti), 1 ≤ j ≤ ν (per un certo ν ), e ∗ = 0 0 ε 0 oppure , tutti gli altri elementi di matrice essendo nulli. La scelta di ε verrà 0 ε
166
5 Equazioni differenziali ordinarie
fatta tra un momento, ed occorre tener presente che le matrici A± non dipendono da ε . Usando di nuovo il Teorema di Lyapunov, fissiamo H± ∈ M(n± ; R) tali che ⎧t H± = H± > 0, ⎪ ⎪ ⎪ ⎪ ⎨ (5.97) A+ ξ , H+ ξ > 0, ∀ξ ∈ Rn+ \ {0}, ⎪ ⎪ ⎪ ⎪ ⎩ A− η , H−η < 0, ∀η ∈ Rn− \ {0}. Definiamo ora ψ : Rn −→ R
ψ (x = (ξ , η , ζ )) :=
1 −H+ ξ , ξ + H− η , η + ||ζ ||2 . 2
(5.98)
Vale il lemma seguente. Lemma 5.6.10. È possibiile fissare ε ∈ (0, 1] e ρ > 0 in modo tale che per un certa costante L > 0 sull’insieme {x; ψ (x) ≤ 0} ∩ Dρ (0) si abbia:
ψ (x), f (x) ≤ −L||x||2 ; (i) ∇⎡ H ξ⎤ + (ii) ⎣ 0 ⎦ , f (ξ , η , ζ ) ≥ L||x||2 , 0 dove x = (ξ , η , ζ ) e ||x||2 = ||ξ ||2 + ||η ||2 + ||ζ ||2. Dimostrazione (del lemma). Conviene scrivere f (x) = Ax + G(x) dove, per fissare le idee, si può supporre (5.99) ||G(x)|| ≤ C1 ||x||2 , per ogni x di un opportuno disco DR(0) ⊂ Ω , con C1 > 0 indipendente da x. Si ha ∇ψ (x), Ax + G(x) = = −H+ ξ , A+ ξ + H− η , A−η + ζ , Bε ζ + ∇ψ (x), G(x). Da (5.99), su DR (0) abbiamo |∇ψ (x), G(x)| ≤ C2 ||x||3 , per una opportuna C2 > 0. Poiché ψ (ξ , η , ζ ) ≤ 0 ⇐⇒ H− η , η + ||ζ ||2 ≤ H+ ξ , ξ , si ha che sull’insieme di negatività di ψ risulta ||η ||2 + ||ζ ||2 ≤ C3 ||ξ ||2 ,
(5.100)
per una opportuna C3 > 0. D’altra parte esiste C4 > 0 tale che si ha anche ⎧ ⎨ −H+ ξ , A+ ξ ≤ −C4 ||ξ ||2 , ∀ξ ∈ Rn+ , ⎩
(5.101) H− ξ , A− ξ ≤ −C4 ||η ||2, ∀η ∈ Rn− .
5.6 Stabilità dei punti di equilibrio. Funzione di Lyapunov
167
Dunque, sull’insieme di negatività di ψ , si ha −H+ ξ , A+ ξ + H− η , A−η + ζ , Bε ζ ≤ ≤−
C4 C4 C4 ||ξ ||2 − ( +C4 )||η ||2 − ( − ε )||ζ ||2 . 2 2C3 2C3
Fissiamo ora ε = min{1,C4/4C3}. Si conclude allora che su {x; ψ (x) ≤ 0} −H+ ξ , A+ ξ + H− η , A−η + ζ , Bε ζ ≤ ≤ −C5 (||ξ ||2 + ||η ||2 + ||ζ ||2) = −C5 ||x||2, per una opportuna C5 > 0. Dunque su {x; ψ (x) ≤ 0} ∩ DR(0) si ha che ∇ψ (x), Ax + G(x) ≤ −C5 ||x||2 +C2 ||x||3 = = −(C5 −C2 ||x||)||x||2 ≤ −
C5 ||x||2 , 2
se ||x|| ≤ min{R,C5/2C2 } =: R . Infine ⎤ ⎤ ⎡ ⎡ H+ ξ H+ ξ ⎣ 0 ⎦ , Ax + G(x) = H+ ξ , A+ ξ + ⎣ 0 ⎦ , G(x) , 0 0 e quindi su DR (0) si ha che ⎡ ⎤ H+ ξ ⎣ 0 ⎦ , G(x) ≤ C6 ||ξ || ||x||2, 0 per un’opportuna costante C6 > 0. D’altra parte, per la (5.100), sull’insieme di negatività di ψ si ha che H+ ξ , A+ ξ ≥ C7 ||x||2 , per un’opportuna costante C7 > 0. In conclusione su {x; ψ (x) ≤ 0} ∩ DR(0) si ha ⎡ H ξ ⎤ + ⎣ 0 ⎦ , f (x) ≥ C7 ||x||2 −C6 ||x||3 = (C7 −C6 ||x||)||x||2 ≥ C7 ||x||2 , 2 0 se ||x|| ≤ min{R,C7 /2C6} =: R . La scelta ρ = min{R , R } conclude la prova del lemma.
Mostriamo ora che l’origine è instabile. Lo facciamo vedere provando che quale che sia il dato iniziale y = (ξ , 0, 0), con ξ = 0, prossimo quanto si vuole all’origine, la soluzione Φ t (y) non può rimanere indefinitamente in Dρ (0) (con il ρ del lemma). Supposto per assurdo che invece questo accada, cominciamo con l’osservare che ψ (Φ t (y)) ≤ 0 per ogni t ≥ 0. Infatti, poiché ψ (Φ 0 (y) = y) < 0, se ψ (Φ t (y))
168
5 Equazioni differenziali ordinarie
non fosse sempre ≤ 0, dovrebbe esistere t0 > 0 per cui ψ (Φ t (y)) < 0 per t < t0 , ψ (Φ t0 (y)) = 0 e ψ (Φ t (y)) > 0 se t > t0 e abbastanza vicino a t0. Avremmo allora la contraddizione d ψ (Φ t (y)) − ψ (Φ t0 (y)) 0 ≤ lim = ψ (Φ t (y)) = t→t0 + t − t0 dt t=t0 = ∇ψ (Φ t0 (y)), f (Φ t0 (y)) ≤ −L||Φ t0 (y)||2 < 0. Resta così provato che ψ (Φ t (y)) ≤ 0 per ogni t ≥ 0. Consideriamo ora la funzione 1 g(ξ , η , ζ ) = H+ ξ , ξ . 2 Osserviamo che g(y = (ξ , 0, 0)) > 0 e dunque, per il lemma visto, se Φ t (y) = (ξ (t), η (t), ζ (t)) ∈ Dρ (0) per ogni t ≥ 0, si avrà ⎤ ⎡ H+ ξ d t t ⎦ ⎣ g(Φ (y)) = 0 , f (Φ (y)) ≥ L||Φ t (y)||2 > 0. dt 0 Ne consegue che g(Φ t (y)) è strettamente crescente. Presa allora una successione t j +∞ in corrispondenza della quale Φ t j (y) → z ∈ Dρ (0), si avrà g(Φ t j (y)) → g(z) > 0 per j → +∞ e dunque esisteranno T > 0 e 0 < δ < ρ per cui
δ ≤ ||Φ t (y)|| ≤ ρ , ∀t ≥ T. Ma allora g(Φ t (y)) = g(Φ T (y)) +
& t d T
ds
g(Φ s(y))ds ≥ g(Φ T (y)) + Lδ 2 (t − T ), ∀t ≥ T,
il che è assurdo. Con ciò il teorema è dimostrato.
Alla luce del teorema precedente è naturale porsi le seguenti domande. • Il punto (i) del teorema dice che a è stabile per x˙ = f (x) soltanto se p−1 f (a) (0) ⊂ {λ ∈ C; Re λ ≤ 0}. È possibile avere l’informazione più precisa che l’origine deve allora essere stabile per il sistema linearizzato x˙ = f (a)x, vale a dire che per gli eventuali autovalori λ di C f (a) con Re λ = 0 deve aversi ma (λ ) = mg (λ )? Per quanto ne sappiamo, una risposta a questa domanda non è nota. È il caso di notare che la stabilità dell’origine per il linearizzato x˙ = f (a)x non implica, in generale, che a sia stabile per x˙ = f (x). Il controesempio più semplice è x˙ = x2 (x ∈ R, a = 0). • Il punto (ii) del teorema garantisce che a è asintoticamente stabile per x˙ = f (x) se l’origine è asintoticamente stabile per il sistema linearizzato x˙ = f (a)x. È quest’ultima una condizione anche necessaria per l’asintotica stabilità di a? Anche in tal caso non ci è nota una risposta.
5.6 Stabilità dei punti di equilibrio. Funzione di Lyapunov
169
Consideriamo ora la stabilità dei punti di equilibrio quando il sistema x˙ = f (x) è di tipo gradiente o di tipo hamiltoniano. Supponiamo data F ∈ C ∞ (Ω ; R) (Ω ⊂ Rn aperto) e sia a ∈ Ω un punto tale che: (i) a è un punto di massimo forte per F (i.e. F(x) < F(a) per tutti gli x = a sufficientemente vicini ad a); (ii) a è un punto critico isolato di F (i.e. ∇F(x) = 0 per tutti gli x = a sufficientemente vicini ad a). In tal caso, per qualche r > 0, la funzione g(x) := F(a) − F(x), x ∈ Dr (a), è una funzione di Lyapunov forte relativamente ad a per il sistema gradiente x˙ = ∇F(x). Infatti g(a) = 0, e g(x) > 0 per tutti gli x ∈ Dr (a) \ {a} e ∇g(x), ∇F(x) = −||∇F(x)||2 < 0, ∀x ∈ Dr (a) \ {a}. Dunque, per il Teorema 5.6.7, a è asintoticamente stabile. Un caso in cui le condizioni (i) e (ii) sono soddisfatte è contenuto nel seguente teorema. Teorema 5.6.11. Sia F ∈ C∞ (Ω ; R) (Ω ⊂ Rn aperto) e sia a ∈ Ω con ∇F(a) = 0 ed Hess F(a) invertibile. Allora: (i) a è un punto di equilibrio isolato per x˙ = ∇F(x), cioè ∇F(x) = 0 per ogni x = a sufficientemente vicino ad a; (ii) a è stabile per x˙ = ∇F(x) se e solo se è asintoticamente stabile, cioè se e solo se la matrice simmetrica Hess F(a) è definita negativa. Dimostrazione. Il punto (i) è una conseguenza ovvia del seguente importante lemma. Lemma 5.6.12 (di Morse). Nelle ipotesi del teorema, esiste un diffeomorfismo χ : U −→ V , U ⊂ Ω intorno aperto di a, V ⊂ Rn intorno aperto dell’origine, di classe C ∞ con χ (a) = 0 e tale che 1 F(χ −1 (z)) = F(a) + Az, z, dove A = Hess F(a). 2 Dimostrazione (del lemma). Per la formula di Taylor possiamo scrivere 1 F(x) = F(a) + A(x)(x − a), x − a, 2
(5.102)
almeno per x ∈ Dr (a) ⊂ Ω , con x −→ A(x) di classe C ∞ a valori in Sym(n; R), le matrici simmetriche reali n × n, e A = A(a) = Hess F(a). L’idea è di cercare x −→ T (x) di classe C∞ a valori in M(n; R) tale che t T (x)AT (x) = A(x), almeno per x vicino ad a. Necessariamente T (a) = In . Trovata T (x), si porrà z = χ (x) := T (x)(x − a). Poiché χ (a) = 0 e χ (a) = T (a) = In , χ sarà un diffeomorfismo tra un opportuno intorno aperto U ⊂ Ω di a ed un opportuno intorno aperto V ⊂ Rn di 0. Da (5.102) segue allora che
170
5 Equazioni differenziali ordinarie
1 F(x) = F(a) + AT (x)(x − a), T (x)(x − a), 2 e dunque la tesi. Per trovare T (x) consideriamo la seguente mappa di classe C∞ L : Dr (a) × M(n; R) (x, T ) −→ L(x, T ) := t T AT − A(x) ∈ Sym(n; R).
(5.103)
Poiché L(a, In ) = 0, se proviamo che il differenziale di L rispetto a T calcolato in (a, In) lineare LT (a, In) : M(n; R) −→ Sym(n; R) è suriettivo, per il Teorema di Dini esisterà localmente un’unica mappa x −→ T (x) ∈ M(n; R) di classe C ∞ con T (a) = In , che risolve l’equazione L(x, T (x)) = t T (x)AT (x) − A(x) = 0. È banale verificare che si ha LT (a, In)h = t hA + Ah, h ∈ M(n; R). Data allora una qualsiasi B ∈ Sym(n; R), basta porre 1 h = A−1 B 2 per risolvere t hA + Ah = B, il che prova la suriettività, e quindi il lemma.
Il punto (ii) del teorema è una consequenza ovvia del Teorema 5.6.9. Ciò conclude la dimostrazione del teorema.
Se il punto a non è di massimo forte per F, non ci si aspetta in generale che a sia stabile. Ad esempio, se F(x = (x1 , x2 )) = x41 ± x42 , l’origine (0, 0) è instabile (il lettore lo verifichi). Passando ai sistemi hamiltoniani, sia data F ∈ C∞ (Ω ; R), dove Ω ⊂ Rnx × Rnξ = R2n z è aperto, e si consideri il sistema hamiltoniano x˙ ∇ξ F(x, ξ ) z˙ = ˙ = HF (z) = . −∇x F(x, ξ ) ξ Sia a = (x, ¯ ξ¯ ) ∈ Ω un punto tale che: (i) a è un punto di max/min forte per F; (ii) a è un punto critico isolato di F. In tal caso a è stabile ma non asintoticamente stabile. Infatti, per qualche r > 0 si consideri la funzione g(z) = F(a) − F(z), nel caso in cui a è di massimo, ovvero la funzione g(z) = F(z) − F(a), nel caso in cui a è di minimo, con z ∈ Dr (a). Allora, in ogni caso, g(a) = 0 e g(z) > 0 per z ∈ Dr (a) \ {a}, e ∇z g(z), HF (z) = 0 per ogni z ∈ Dr (a). Per il Teorema 5.6.7 ciò prova che a è stabile. D’altra parte, se, come
5.7 Stabilità delle orbite periodiche. Mappa e Teorema di Poincaré
171
possiamo supporre, ∇z F(z) = 0 per ogni z ∈ Dr (a) \ {a}, per ogni b ∈ Dr (a) \ {a} l’insieme di livello SF(b) = {z ∈ Dr (a); F(z) = F(b)} è una sottovarietà di classe C∞ che ha distanza positiva da a, in quanto F(z) < F(a) (risp. F(z) > F(a)) per ogni z ∈ SF(b) . Poiché, preso comunque z0 ∈ SF(b) , si ha che ΦHt F (z0 ) ∈ SF(b) per ogni t ≥ 0, se ne deduce che a non può essere asintoticamente stabile. Se poi a non è né di massimo né di minimo per F, allora in generale non si avrà stabilità (l’esempio tipico è dato in R2 da F(x, ξ ) = x2 − ξ 2 ).
5.7 Stabilità delle orbite periodiche. Mappa e Teorema di Poincaré Dopo aver considerato la stabilità dei punti di equilibrio di un sistema autonomo x˙ = f (x), vogliamo ora esaminare il caso, più delicato ma parimenti naturale, della stabilità delle orbite periodiche. Per semplicità considereremo nel seguito un sistema autonomo x˙ = f (x), con f ∈ C∞(Ω ; Rn ) (Ω aperto di Rn ). Supponiamo poi che il sistema possieda un’orbita periodica. Precisamente, esiste x0 ∈ Ω per cui R t −→ Φ t (x0 ) è periodica di periodo minimo T > 0 e poniamo
γ := {Φ t (x0 ); t ∈ [0, T]} = {Φ t (x0 ); t ∈ R}. Il problema che ci poniamo allora è di studiare la “stabilità” dell’orbita γ . Poiché nessun punto di γ è un punto di equilibrio per il sistema (poiché T > 0), è necessario specificare in che senso si debba intendere la stabilità. La definizione naturale è la seguente. Definizione 5.7.1. Diremo che γ è stabile se per ogni aperto U con γ ⊂ U ⊂ Ω , esiste un aperto V con γ ⊂ V ⊂ U, tale che per ogni y ∈ V si abbia che t −→ Φ t (y) è definita almeno per tutti i t ≥ 0 e Φ t (y) ∈ U, per ogni t ≥ 0. Si dirà che γ è instabile se non è stabile. Si dirà poi che γ è asintoticamente stabile, o che è un attrattore, se γ è stabile e, con le notazioni usate sopra, per ogni y ∈ V dist(Φ t (y), γ ) = inf ||Φ t (y) − z|| → 0 per t → +∞. z∈γ
(5.104)
È bene osservare che (5.104) non implica che Φ t (y) tenda ad un punto di γ per t → +∞. La definizione di stabilità richiede necessariamente che in un intorno di γ il flusso sia definito almeno per tutti i t ≥ 0 (se questa condizione non è soddisfatta γ è instabile). Nel seguito, nello studio della stabilità di un’orbita periodica γ , supporremo dunque questa condizione soddisfatta, e tutte le considerazioni verranno fatte restringendosi a lavorare in un intorno di γ sul quale il flusso è definito almeno per tutti i t ≥ 0.
172
5 Equazioni differenziali ordinarie
In generale lo studio della stabilità di un’orbita periodica è estremamente difficile. Ciò che faremo nel seguito è di introdurre un metodo, dovuto ad H. Poincaré, che consente, in linea di principio, di trattare questo problema. L’idea fondamentale di questo metodo consiste nel fissare una ipersuperficie S passante per x0 e trasversa all’orbita periodica γ , e nello studiare l’evoluzione Φ t (y), t ≥ 0, dei punti y ∈ S sufficientemente vicini ad x0 . Sia S ⊂ Ω una sottovarietà n − 1 dimensionale di classe C∞ tale che: • x0 ∈ S; • f (x0 ) ∈ Tx0 S. Diremo allora che S è una varietà trasversa a γ in x0 . Il lemma seguente precisa l’intuizione sopra accennata. Lemma 5.7.2. Date una varietà S trasversa a γ in x0 , esistono un intorno aperto V ⊂ Ω di x0 , un δ > 0 (con T − δ > δ > 0), ed una ben determinata mappa C ∞ V y −→ T (y) ∈ (T − δ , T + δ ), tali che: (i) Φ T (y)(y) ∈ S, ∀y ∈ V ; (ii) Φ t (y) ∈ S, ∀y ∈ V ∩ S, ∀t ∈ (0, T (y)). La mappa C ∞ S ∩ V y −→ PS (y) := Φ T(y) (y) ∈ S si chiama mappa di Poincaré relativa ad S ed x0 , ed il relativo tempo T (y), y ∈ V ∩ S, tempo di volo di y. Dimostrazione. Sappiamo che su un intorno aperto U ⊂ Ω di x0 c’è una funzione C ∞, ψ : U −→ R, tale che U ∩ S = {x ∈ U; ψ (x) = 0}, con ∇ψ U = 0. La trasversalità di S a γ in x0 si riesprime dicendo che ∇x ψ (x0 ), f (x0 ) = 0. Senza minor generalità supporremo ∇x ψ (x0 ), f (x0 ) > 0. Poiché ψ (Φ T (x0 )) = ψ (x0 ) = 0, la funzione (t, y) −→ ψ (Φ t (y)) è sicuramente ben definita e di classe C ∞ per y ∈ V ⊂ U, opportuno intorno aperto di x0 , e per t ∈ (T − δ , T + δ ), per un opportuno δ > 0 (con T − δ > δ > 0). Ora si ha che
5.7 Stabilità delle orbite periodiche. Mappa e Teorema di Poincaré
173
∂ ψ (Φ t (y)) t=T = ∇x ψ (x0 ), f (x0 ) > 0. ∂t y=x0 Dunque, per il Teorema di Dini, a patto di restringere V e di ridurre δ , esiste un’unica funzione C ∞ , V y −→ T (y) ∈ (T − δ , T + δ ), tale che per ogni y ∈ V si abbia ψ (Φ t (y)) = 0 se e solo se t = T (y), il che prova già la (i). Ciò di per sè non garantisce però ancora che (ii) sia soddisfatta quando y ∈ V ∩ S. Poiché ∇x ψ (x0 ), f (x0 ) > 0, a patto di restringere di nuovo V e di ridurre δ si può supporre che per una certa costante C > 0 si abbia (∇x ψ )(Φ t (y)), f (Φ t (y)) ≥ C > 0, ∀y ∈ V ∩ S, ∀t ∈ [0, δ ) ∪ (T − δ , T + δ ). Proviamo allora che, ancora restringendo eventualmente V , vale la (ii). Se così non fosse esisterebbe una successione di punti y j ∈ V ∩ S con y j → x0 ed una successione di tempi t j ∈ (0, T(y j )) tali che ψ (Φ t j (y j ) = 0, per ogni j. Necessariamente si deve allora avere che δ ≤ t j ≤ T − δ , per ogni j. Infatti se si avesse t j < δ allora 0 = ψ (Φ t j (y j )) = ψ (Φ 0 (y j )) +
& tj ∂
∂s
0
ψ (Φ s (y j ))ds ≥ Ct j ,
che è assurdo perché t j > 0, e, d’altra parte, se fosse t j > T − δ , allora 0 = ψ (Φ
T (y j )
(y j )) = ψ (Φ (y j )) + tj
& T (y j ) ∂ tj
∂s
ψ (Φ s (y j ))ds ≥ C(T (y j ) − t j ),
che è assurdo perché t j < T (y j ). Passando eventualmente ad una sottosuccessione dei t j , si può allora supporre che per j → +∞ t j → t¯ ∈ [δ , T − δ ]. Ma allora avremmo ψ (Φ t¯(x0 )) = 0 con t¯ ∈ (0, T ), che è impossibile, perché T > 0 è il periodo minimo.
Avendo definito la mappa di Poincaré PS da un intorno di x0 in S a valori in S, ci interessa considerarne il differenziale in x0 come mappa lineare dPS (x0 ) : Tx0 S −→ Tx0 S (poiché S è una sottovarietà di Rn , Tx0 S è pensato come un sottospazio n −1 dimensionale di Rn ). Per prima cosa è fondamentale mettere in evidenza il legame tra dPS (x0 ) ed il differenziale del flusso Φ t . Precisamente, si consideri H := (dx Φ T )(x0 ) ∈ M(n; R), e si noti che, come conseguenza del Teorema 5.2.1, Φ T (·) è un diffeomorfismo di UT in U−T , sicché H ∈ GL(n; R).
174
5 Equazioni differenziali ordinarie
Fig. 5.6. La mappa di Poincaré
Vale il seguente risultato. Lemma 5.7.3. Si ha: (i) H f (x0 ) = f (x0 ), e quindi 1 ∈ p−1 H (0); (ii) per ogni v ∈ Tx0 S dPS (x0 )v = Hv − λ f (x0 ), dove
λ=
Hv, ∇ψ (x0 ) ; f (x0 ), ∇ψ (x0 )
(5.105)
(iii) dPS (x0 ) : Tx0 S −→ Tx0 S è un isomorfismo. Dimostrazione. Cominciamo col provare (i) dimostrando che si ha (dx Φ t )(x0 ) f (x0 ) = f (Φ t (x0 )), ∀t ∈ R.
(5.106)
Infatti la (i) è allora una conseguenza di (5.106) prendendo t = T . Si noti che (dx Φ t )(x0 ) è ben definito per ogni t ∈ R in quanto Ut = 0/ per ogni t ∈ R (x0 ∈ Ut !). Ora, la (5.106) è vera per t = 0, in quanto Φ 0 (x0 ) = x0 , e dx Φ 0 (x0 ) = In . Posto A(t) := dx Φ t (x0 ), osserviamo che da una parte d f (Φ t (x0 )) = f (Φ t (x0 ))Φ˙ t (x0 ) = f (Φ t (x0 )) f (Φ t (x0 )), dt e d’altra parte d f (x0 ) = dx ( f (Φ t (x))) f (x0 ) = A(t) f (x0 ) = dx Φ˙ t (x) dt x=x0 x=x0 = f (Φ t (x0 ))A(t) f (x0 ). Dunque A(t) f (x0 ) e f (Φ t (x0 )) soddisfano lo stesso sistema differenziale e coincidono per t = 0, e quindi, per l’unicità, la (5.106) vale per tutti i tempi.
5.7 Stabilità delle orbite periodiche. Mappa e Teorema di Poincaré
175
Proviamo ora (ii). Dal Lemma 5.7.2 si ha che su un intorno aperto V ⊂ Ω di x0 , la mappa V x −→ Φ T(x) (x) ∈ S ⊂ Rn è C ∞ . Calcoliamone il differenziale rispetto ad x nel punto x0 : dx Φ T(x)(x) = dx Φ t (x) x=x0 +Φ˙ t (x)x=x0 dx T (x)x=x = 0 x=x0
t=T (x0 )=T
t=T
= H + f (x0 )dx T (x0 ). Dunque per ogni v ∈ Tx0 S dx Φ T(x) (x)
x=x0
v = dPS (x0 )v = Hv + μ f (x0 ),
dove μ = dx T (x0 )v = ∇T (x0 ), v ∈ R, e quindi dPS (x0 )v, ∇ψ (x0 ) = Hv, ∇ψ (x0 ) + μ f (x0 ), ∇ψ (x0 ), da cui (ii) e la (5.105). Resta da provare l’invertibilità di dPS (x0 ). Se per qualche 0 = v ∈ Tx0 S si avesse dPS (x0 )v = 0, allora da (ii) di avrebbe Hv = λ f (x0 ), e quindi da (i) che H(v − λ f (x0 )) = 0. Allora, per l’invertibilità di H, v = λ f (x0 ), ma ciò è impossibile per la trasversalità di S. Questo conclude la prova del lemma.
È opportuno osservare che la quantità λ = Hv, ∇ψ (x0 )/ f (x0 ), ∇ψ (x0 ) non dipende dalla scelta dell’equazione locale ψ = 0 che definisce S (il lettore lo verifichi), e dunque λ ha un significato geometrico. A questo punto è il caso di fare un paio di osservazioni importanti. Per prima cosa osserviamo che di varietà trasverse a γ in x0 ce ne sono infinite! Dunque, scelte due di queste, siano esse S ed S , abbiamo in corrispondenza i differenziali dPS (x0 ) : Tx0 S −→ Tx0 S e dPS (x0 ) : Tx0 S −→ Tx0 S delle due diverse mappe di Poincaré associate (si noti che Tx0 S e Tx0 S non sono necessariamente uguali). Vale il seguente risultato. Lemma 5.7.4. C’è un isomorfismo lineare L : Tx0 S −→ Tx0 S tale che dPS (x0 ) = L−1 ◦ dPS (x0 ) ◦ L.
(5.107)
Dimostrazione. Poniamo ν := f (x0 )/|| f (x0 )||. Sia W = (Rν )⊥ e si ponga E := x0 + W . È chiaro che E è una varietà trasversa a γ in x0 con Tx0 E = W. Consideriamo la mappa πS : Tx0 S −→ Tx0 E = W, ζ −→ ζ − ζ , ν ν . Si noti che πS è invertibile. Se proviamo che
πS ◦ dPS (x0 ) = dPE (x0 ) ◦ πS , allora avremo anche
πS ◦ dPS (x0 ) = dPE (x0 ) ◦ πS ,
(5.108)
176
5 Equazioni differenziali ordinarie
e dunque
−1 ◦ dPS (x0 ) ◦ (πS−1 dPS (x0 ) = (πS−1 ◦ πS ) ◦ πS ),
e quindi la tesi con L = πS−1 ◦ πS . Resta da provare la (5.108). Dato ζ ∈ Tx0 S, dal punto (ii) del Lemma 5.7.3 si ha dPS (x0 )ζ = H ζ + μν , per un ben determinato μ ∈ R. Dunque dPS (x0 )ζ = H ζ − H ζ , ν ν + (H ζ , ν + μ )ν = πS H ζ + μ ν , e quindi (πS ◦ dPS (x0 ))ζ = πS (H ζ ). D’altra parte, sempre per il Lemma 5.7.3, possiamo scrivere (dPE (x0 ) ◦ πS )ζ = H(πS ζ ) + μ ν , per un ben determinato μ ∈ R. Ora H(πS ζ ) = H(ζ − ζ , ν ν ) = H ζ − ζ , ν ν = = H ζ − H ζ , ν ν + (H ζ , ν − ζ , ν )ν = πS (H ζ ) + (H ζ , ν − ζ , ν )ν , da cui
(dPE (x0 ) ◦ πS )ζ = πS (H ζ ) + (H ζ , ν − ζ , ν + μ )ν ,
e siccome dPE (x0 )(πS ζ ) ∈ W , si conclude che (dPE (x0 ) ◦ πS )ζ = πS (H ζ ) = (πS ◦ dPS (x0 ))ζ ,
che è quanto si voleva.
Veniamo ora alla seconda osservazione. Finora abbiamo considerato la mappa di Poincaré PS relativa ad una (qualunque) varietà S trasversa a γ in x0 . D’altra parte x0 non è un punto privilegiato di γ . Infatti, fissato un tempo t1 ∈ (0, T) e posto x1 = Φ t1 (x0 ), si ha, allo stesso modo, che
γ = {Φ t (x1 ); t ∈ [0, T]} = {Φ t (x1 ); t ∈ R}. Dunque si può ripetere la costruzione della mappa di Poincaré a partire da x1 , vale a dire, si fissa una varietà S1 trasversa a γ in x1 e, procedendo come prima, si costruisce PS1 : V1 ∩ S1 −→ S1 , dove V1 ⊂ Ω è un opportuno intorno aperto di x1 , e in corrispondenza si considera l’isomorfismo lineare dPS1 (x1 ) : Tx1 S1 −→ Tx1 S1 .
5.7 Stabilità delle orbite periodiche. Mappa e Teorema di Poincaré
177
Si ha il risultato seguente. Lemma 5.7.5. Considerate S, risp. S1 , varietà trasverse a γ in x0 , risp. x1 , c’è un isomorfismo lineare M : Tx0 S −→ Tx1 S1 tale che dPS (x0 ) = M −1 ◦ dPS1 (x1 ) ◦ M.
(5.109)
Dimostrazione. Consideriamo S1 , e prendiamone, localmente vicino ad x1 , un’equazione definitoria θ (x) = 0. La trasversalità di S1 a γ in x1 è dunque espressa da ∇θ (x1 ), f (x1 ) = 0. La mappa di Poincaré PS1 è una mappa C ∞ , PS1 : V1 ∩ S1 −→ S1 , per un opportuno intorno aperto V1 ⊂ U−t1 = Φ t1 (Ut1 ) di x1 , definita da PS1 (x) = Φ T1(x) (x), dove T1 ∈ C ∞(V1 ; (T − δ , T + δ )) è la mappa definita implicitamente dall’equazione θ (Φ t (x)) = 0 per t vicino a T e x vicino a x1 . Definiamo ora S := Φ −t1 (S1 ). Poiché la mappa Φ −t1 : U−t1 −→ Ut1 è un diffeomorfismo, S è una varietà C ∞ di dimensione n − 1 passante per x0 , localmente definita dall’equazione θ (Φ t1 (x)) = 0. Osserviamo che S è trasversa a γ in x0 . Infatti , f (x0 ) = t(dx Φ t1 (x0 ))∇x θ (x1 ), f (x0 ) = ∇x θ (Φ t1 (x)) x=x0
= ∇θ (x1 ), dx Φ t1 (x0 ) f (x0 ) = (dalla (5.106)) = ∇θ (x1 ), f (x1 ) = 0. La mappa di Poincaré PS può allora essere definita come PS (x) = (Φ −t1 ◦ PS1 ◦ Φ t1 )(x), per x ∈ Φ −t1 (V1 ∩ S1 ). Dunque
dPS (x0 ) = dx Φ −t1 (x1 ) ◦ dPS1 (x1 ) ◦ dx Φ t1 (x0 ).
Poiché Φ −t1 ◦ Φ t1 = idUt1 , si ha dx Φ −t1 (x1 = Φ t1 (x0 )) = (dx Φ t1 (x0 ))−1 , e quindi dPS (x0 ) = (dx Φ t1 (x0 ))−1 ◦ dPS1 (x1 ) ◦ dx Φ t1 (x0 ). Ora, se S è una qualunque varietà trasversa a γ in x0 , dal Lemma 5.7.4 segue che c’è un isomorfismo lineare L : Tx0 S −→ Tx0 S tale che dPS (x0 ) = L−1 ◦ dPS (x0 ) ◦ L, e dunque si ha la (5.109) con M = dx Φ t1 (x0 ) ◦ L.
Una conseguenza fondamentale dei due lemmi precedenti è che lo spettro del complessificato C dPS (x) non dipende né dalla scelta del punto x ∈ γ , né dalla scelta della varietà S trasversa a γ in x. Il lemma seguente stabilisce una importante relazione tra lo spettro di C dPS (x) e gli autovalori del differenziale del flusso. Lemma 5.7.6. Con H = dx Φ T (x0 ), si ha: (a) Spec(C dPS (x0 )) \ {1} = p−1 H (0) \ {1}; (b) 1 ∈ Spec(C dPS (x0 )) ⇐⇒ 1 è uno zero multiplo di pH (z). Dimostrazione. Faremo la prova nel caso in cui le radici dei polinomi caratteristici di H e dPS (x0 ) siano reali, lasciando al lettore le necessarie modifiche nel caso generale.
178
5 Equazioni differenziali ordinarie
Proviamo (a). Sia 1 = μ ∈ Spec(dPS (x0 )) e sia 0 = v ∈ Tx0 S tale che dPS (x0 )v = μ v. Allora, per (ii) del Lemma 5.7.3, Hv = dPS (x0 )v + λ f (x0 ) = μ v + λ f (x0 ). Se λ = 0 non c’è nulla da dimostrare, in quanto Hv = μ v = dPS (x0 )v. Altrimenti per ogni γ ∈ R \ {0} λ +γ H v + γ f (x0 ) = μ v + (λ + γ ) f (x0 ) = μ v + f (x0 ) . μ Scelto γ per cui (λ + γ )/μ = γ , i.e. γ = λ /(μ − 1), abbiamo che μ ∈ p−1 H (0) perché v + γ f (x0 ) = 0. n Viceversa, sia 1 = μ ∈ p−1 H (0) e sia 0 = u ∈ R con Hu = μ u. Si ha u = v + τ f (x0 ), per un ben determinato 0 = v ∈ Tx0 S (perché μ = 1). Ora, per l’invarianza dello spettro di dPS (x0 ) rispetto ad S, scegliamo come S la varietà affine x0 +W, W = Span{ f (x0 )}⊥ , e scegliamo un’equazione locale ψ (x) = 0 di S tale che ∇ψ (x0 ) ∈ R f (x0 ) = W ⊥ (il lettore verifichi che ciò è sempre possibile). Poiché da Hu = μ u segue Hu = H v + τ f (x0 ) = Hv + τ f (x0 ) = μ v + μτ f (x0 ), allora Hv = μ v + (μ − 1)τ f (x0 ). D’altra parte, per la (5.105), dPS (x0 )v = Hv −
Hv, ∇ψ (x0 ) f (x0 ) = f (x0 ), ∇ψ (x0 ) Hv, ∇ψ (x0 ) f (x0 ). = μ v + (μ − 1)τ − f (x0 ), ∇ψ (x0 )
Ora Hv, ∇ψ (x0 ) = μ v, ∇ψ (x0 ) + (μ − 1)τ f (x0 ), ∇ψ (x0 ) = = (μ − 1)τ f (x0 ), ∇ψ (x0 ), per la scelta di ψ , essendo v ∈ W. In conclusione dPS (x0 )v = μ v, 0 = v ∈ Tx0 S. Ciò conclude la prova di (a). Proviamo ora (b). Detta m la molteplicità algebrica di 1 come radice di pH , cominciamo col mostrare che se m = 1 allora 1 ∈ Spec(C dPS (x0 )). Se m = 1, possiamo allora scrivere Rn = Ker(idRn − H) ⊕ E = R f (x0 ) ⊕ E,
5.7 Stabilità delle orbite periodiche. Mappa e Teorema di Poincaré
179
dove E è un sottospazio (n − 1)-dimensionale, ovviamente trasverso a f (x0 ), ed invariante per H. Possiamo allora scegliere come S la varietà affine x0 + E, e sceglierne un’equazione locale ψ (x) = 0 con ∇ψ (x0 ) ∈ E ⊥ . Non è possibile che esista 0 = v ∈ Tx0 S = E con dPS (x0 )v = v. Infatti per la (5.105) dPS (x0 )v = Hv −
Hv, ∇ψ (x0 ) f (x0 ) = Hv, f (x0 ), ∇ψ (x0 )
perché Hv ∈ E, e dunque avremmo Hv = v, che è impossibile. Resta da provare che se m > 1, allora 1 ∈ Spec(C dPS (x0 )). Consideriamo dapprima il caso in cui m = dimKer(idRn − H). Scriviamo Rn = Ker(idRn − H) ⊕ E, con dimE = n − m e H(E) ⊂ E. D’altra parte si ha anche Ker(idRn − H) = R f (x0 ) ⊕ E , con dimE = m − 1 e H(E ) ⊂ E . Scegliamo ora come S la varietà affine x0 + (E ⊕ E), e di nuovo ψ con ∇ψ (x0 ) ∈ (E ⊕ E)⊥ . Prendiamo 0 = v ∈ E con Hv = v. Allora dPS (x0 )v = Hv −
Hv, ∇ψ (x0 ) f (x0 ) = v, f (x0 ), ∇ψ (x0 )
e quindi 1 ∈ Spec(dPS (x0 )). Supponiamo ora che sia m > dimKer(idRn − H). Usando la forma di Jordan (Teorema 2.7.4) per idRn − H, possiamo scrivere Rn = R f (x0 ) ⊕W, dimW = n −1, e c’è almeno un vettore 0 = z ∈ W tale che Hz = z+ f (x0 ). Scegliendo di nuovo S = x0 +W , con ∇ψ (x0 ) ∈ W ⊥ , abbiamo dPS (x0 )z = Hz −
Hz, ∇ψ (x0 ) f (x0 ) = Hz − f (x0 ) = z, f (x0 ), ∇ψ (x0 )
e quindi, di nuovo, 1 ∈ Spec(dPS (x0 )). Ciò conclude la prova del lemma.
Abbiamo ora l’importante risultato seguente. Teorema 5.7.7 (di Poincaré). Si ha: (i) se γ è stabile, allora Spec(C dPS (x)) ⊂ {λ ∈ C; |λ | ≤ 1}; (ii) se Spec(C dPS (x)) ⊂ {λ ∈ C; |λ | < 1}, allora γ è asintoticamente stabile. Dimostrazione. Cominceremo col dimostrare (ii) del teorema. A tal fine abbiamo bisogno di alcuni risultati preliminari.
180
5 Equazioni differenziali ordinarie
Lemma 5.7.8. Sia V uno spazio vettoriale complesso di dimensione N, sia L : V −→ V lineare, e sia := max |λ |. λ ∈Spec(L)
Per ogni > c’è un prodotto hermitiano ·, ·V in V tale che nella relativa norma | · |V si ha |L|V →V := sup |Lu|V ≤ . |u|V ≤1
Dimostrazione (del lemma). Fissiamo δ , ε ∈ (0, 1) in modo tale che (1 + δ 2)2 + ε 2 (1 + δ −2 ) ≤ . 2
Dal Teorema 2.8.3 sappiamo che esiste una base v1 , . . ., vN di V relativamente alla quale la matrice di L è ⎡ ⎤ λ1 σ1 0 . . . 0 0 ⎢ 0 λ2 σ2 . . . 0 0 ⎥ ⎢ ⎥ ⎢ 0 0 λ3 . . . 0 0 ⎥ ⎢ ⎥ Λ =⎢ , . . ⎥ ⎢ .. .. .. . . . ⎥ ⎢ . . . . .. ⎥ . ⎢ ⎥ ⎣ 0 0 0 . . . λN−1 σN−1 ⎦ 0 0 0 ... 0 λN dove λ1 , . . ., λN sono gli autovalori di L e σ j = 0 oppure σ j = ε , 1 ≤ j ≤ N − 1. Su V definiamo un prodotto hermitiano nel modo seguente: se v = ∑Nj=1 ζ j v j e w = ∑Nj=1 η j v j , poniamo v, wV :=
N
∑ ζ jη¯ j . j=1
Allora Lv, LvV =
N−1
∑ |λ jζ j + σ j ζ j+1|2 + |λN |2|ζN |2 ≤ j=1
≤
N−1
∑
2 |ζ j |2 + 2ε |ζ j ||ζ j+1| + ε 2 |ζ j+1|2 + 2 |ζN |2 ≤
j=1
≤
N−1
∑
j=1
2 |ζ j |2 + ε 2 |ζ j+1|2 + δ 2 2 |ζ j+1|2 +
ε2 2 | ζ | + 2 |ζN |2 ≤ j δ2
2 ≤ (1 + δ 2)2 + ε 2 (1 + δ −2 ) |v|V2 ≤ |v|V2 ,
e quindi
|L|V →V ≤ .
Ciò conclude la prova del lemma. Si noti che se L è diagonalizzabile allora si può scegliere = .
5.7 Stabilità delle orbite periodiche. Mappa e Teorema di Poincaré
181
Corollario 5.7.9. Sia W uno spazio vettoriale reale di dimensione N, sia L : W −→ W lineare, e sia = max |λ |. λ ∈Spec(CL)
Per ogni > c’è un prodotto scalare ·, ·W in W tale che nella relativa norma | · |W si ha |L|W →W ≤ . Dimostrazione. Si pone V = CW e si applica il Lemma 5.7.8 a CL : V −→ V . Se ·, ·V è il prodotto hermitiano ottenuto, si ponga u, vW := u + i0, v + i0V , u, v ∈ W. Poiché L è reale si ha 2 , Lu, LvW = |Lu + i0|V2 = |CL(u + i0)|V2 ≤ |CL|V2 →V |u + i0|V2 = |CL|V2 →V |u|W
da cui la tesi.
Corollario 5.7.10. Sia W uno spazio vettoriale su K (K = R o C) di dimensione N, e sia L : W −→ W lineare con min
λ ∈Spec(CL)
|λ | = δ > 0.
Per ogni 0 < δ < δ c’è un prodotto interno ·, ·W in W tale che nella relativa norma | · |W si ha |L|W →W ≥ δ . Dimostrazione. Dal Lemma 5.7.8 e dal Corollario 5.7.9 segue che c’è un prodotto interno ·, ·W in W , tale che nella norma relativa si ha |L−1 |W →W ≤ 1/δ . Dunque
|u|W = |L−1 (Lu)|W ≤ |L−1 |W →W |Lu|, ∀u ∈ W.
Da qui la tesi, perché |L|W →W ≥
1 |L−1 |W →W
.
Lemma 5.7.11. Sia W un sottospazio di Rn di dimensione k, 1 ≤ k < n, e sia F ∈ C 1(U;W ), dove U ⊂ W è un intorno (aperto in W ) dell’origine. Supponiamo che si abbia: (i) F(0) = 0; (ii) Spec(CF (0)) ⊂ {λ ∈ C; |λ | < 1}, dove F (0) : W −→ W è la mappa tangente di F in 0.
182
5 Equazioni differenziali ordinarie
Allora c’è un prodotto interno ·, ·W in W tale che, detta | · |W la relativa norma, esistono 0 < r, α < 1 tali che: (a) Br (0) := {v ∈ W ; |v|W < r} ⊂ U; (b) |F(v) − F(w)|W ≤ α |v − w|W , ∀v, w ∈ Br (0); (c) per ogni ρ ∈ (0, r], F(Bρ (0)) ⊂ Bαρ (0). Dimostrazione (del lemma). Basta provare (a) e (b), in quanto (c) è una conseguenza banale di (b) e di (i). Dal Corollario 5.7.9 segue l’esistenza di un prodotto interno ·, ·W tale che |F (0)|W →W < 1. Poiché F ∈ C 0(U; L(W,W)), ne segue l’esistenza di due numeri r, α ∈ (0, 1) tali che: • Br (0) ⊂ U; • |F (z)|W →W ≤ α , ∀z ∈ Br (0). Presi ora v, w ∈ Br (0), poiché F(v) − F(w) =
& 1 0
F (w + t(v − w))(v − w)dt,
la tesi segue.
Tornando alla prova del teorema, proviamo ora (ii). Senza minore generalità possiamo supporre che l’orbita γ passi per l’origine di Rn , e fissare come varietà trasversa a γ in 0 il sottospazio W = Span{ f (0)}⊥ . Indichiamo con P = PW la relativa mappa di Poincaré. Per ipotesi P : U −→ W , dove U ⊂ W è un opportuno intorno (relativamente aperto) dell’origine in W e Spec(C dP(0)) ⊂ {λ ∈ C; |λ | < 1}. Applicando il Lemma 5.7.11 sappiamo che in W c’è una norma | · |W ed esistono r, α ∈ (0, 1) tali che ⎧ Br (0) := {y ∈ W ; |y|W < r} ⊂ U, ⎪ ⎪ ⎪ ⎪ ⎨ |P(y1 ) − P(y2 )|W ≤ α |y1 − y2 |W , ∀y1 , y2 ∈ Br (0), ⎪ ⎪ ⎪ ⎪ ⎩ P(Bρ (0)) ⊂ Bαρ (0), ∀ρ ∈ (0, r]. Poniamo ora, per ogni ρ ∈ (0, r],
Γρ := {Φ t (y); y ∈ Bρ (0), 0 ≤ t ≤ T (y)}. Si noti che γ ⊂ Γρ , per ogni ρ . Cominciamo col mostrare che i Γρ hanno le proprietà seguenti: 1. Φ s(Γρ ) ⊂ Γρ , ∀s ≥ 0; 2. per ogni z ∈ Γρ , dist(Φ s (z), γ ) −→ 0 per s → +∞.
5.7 Stabilità delle orbite periodiche. Mappa e Teorema di Poincaré
183
Fissato y ∈ Bρ (0), poniamo s1 = T (y), s2 = T (P(y)), . . ., sk = T (Pk−1 (y)), . . .. Poiché per ogni z ∈ U si ha 0 < δ < T − δ < T (z), se ne deduce che N
∑ sk −→ +∞
per N → +∞.
k=1
Di più, P(y) ∈ Bαρ (0), e quindi P2 (y) ∈ Bα 2 ρ (0) e così via, da cui |Pk−1(y)|W −→ 0 per k → +∞, sicché sk = T (Pk−1 (y)) −→ T (0) = T per k → +∞. Per provare (1) consideriamo Φ s(z) con s ≥ 0 e z ∈ Γρ . Per definizione z = Φ t (y), per un y ∈ Bρ (0) ed un t ∈ [0, T(y)]. Se s +t ≤ T (y) non c’è nulla da dimostrare. Sia quindi s + t > T (y). Allora per un certo N si avrà N
N+1
k=1
k=1
∑ sk ≤ s + t < ∑ sk ,
e quindi s + t = ∑Nk=1 sk + τ , con τ ∈ [0, sN+1). Allora per le proprietà gruppali del flusso Φ s (z) = Φ s+t (y) = Φ τ Φ sN Φ sN−1 . . . Φ s1 (y) . . . . Ora Φ s1 (y) = Φ T (y)(y) = P(y), Φ s2 (P(y)) = Φ T(P(y))(P(y)) = P2 (y), . . ., e così via, sicché Φ sN Φ sN−1 . . . Φ s1 (y) . . . = PN (y) ∈ Bρ (0), e quindi
Φ s (z) = Φ τ (PN (y)), 0 ≤ τ < T (PN (y)),
cioè Φ s(z) ∈ Γρ . Ciò prova (1). Quanto a (2), scritto Φ s(z) = Φ s+t (y) con y ∈ Bρ (0) e t ∈ [0, T(y)], osserviamo N+1 sk si ha che per ∑Nk=1 sk ≤ s < ∑k=1 N N Φ s(z) = Φ s−∑k=1 sk Φ ∑k=1 sk (z) . Ora N N N Φ ∑k=1 sk (z) = Φ ∑k=1 sk Φ t (y) = Φ t Φ ∑k=1 sk (y) = = Φ t (PN (y)) −→ Φ t (0) ∈ γ , per N → +∞.
184
5 Equazioni differenziali ordinarie
D’altra parte N
0 ≤ s − ∑ sk < sN+1 = T (PN (y)) −→ T, per N → +∞. k=1
In conclusione, per s → +∞ si ha Φ s (z) −→ Φ T Φ t (0) = Φ t Φ T (0) = Φ t (0) ∈ γ . Ciò prova (2), ma anche, di più, che z = Φ t (y) ∈ Γρ =⇒ Φ s (z) −→ Φ t (0) per s → +∞. Per concludere la prova di (ii) ci basta ora provare i due fatti seguenti: (3) per ogni aperto ω di Rn con γ ⊂ ω ⊂ Ω c’è un ρ per cui Γρ ⊂ ω ; (4) per ogni ρ sufficientemente piccolo, Γρ è un intorno di γ . Infatti, se valgono (3) e (4), tenuto conto di (1) e (2), si ha che γ è un attrattore. Il punto (3) viene dimostrato per assurdo. Supponiamo che per un certo intorno ω ⊃ γ e per ogni ρ ∈ (0, r] esista zρ ∈ Γρ \ ω . Per definizione zρ = Φ tρ (yρ ) con yρ ∈ Bρ (0) e tρ ∈ [0, T(yρ )]. Senza minore generalità possiamo supporre che yρ −→ 0 per ρ → 0+ e, poiché tρ ∈ [0, T + δ ], di nuovo possiamo supporre che tρ −→ t¯ ∈ [0, T + δ ] per ρ → 0 + . Dunque zρ −→ Φ t¯(0) ∈ γ per ρ → 0 + . Ma ciò è impossibile. Resta da vedere (4). Supponiamo di aver provato che se ρ è sufficientemente piccolo, Γρ contiene un intorno ω0 dell’origine in Rn . Allora preso Φ t (0) ∈ γ , con 0 < t < T , poiché Φ t è un diffeomorfismo, Φ t (ω0 ) è un intorno di Φ t (0) in Rn , e, per il punto (1), Φ t (ω0 ) ⊂ Φ t (Γρ ) ⊂ Γρ . Dimostriamo dunque l’esistenza di ω0 . Poiché f (0) è trasversa a W , usando una delle conseguenze del Teorema 5.2.1, esistono un tempo τ ∈ (0, δ ) ed un ρ0 ∈ (0, r) tali che per ogni ρ ∈ (0, ρ0 ] la mappa (−τ , τ ) × Bρ (0) (t, y) −→ Φ t (y) ∈ Ω è un diffeomorfismo di (−τ , τ )×Bρ (0) sulla sua immagine, che è dunque un intorno di 0 in Ω . Ora, se t ∈ [0, τ ), allora, poiché τ < δ < T (y), si ha per definizione che Φ t (y) ∈ Γρ . Se invece t = −s, con 0 < s < τ , si tratta di riconoscere che Φ −s(y) ∈ Γρ . Prendiamo z ∈ P−1 (Bρ (0)) tale che P(z) = y, i.e. y = Φ T (z)(z). Allora
Φ −s(y) = Φ T (z)−s(z), e dunque, poiché 0 < T (z) − s < T (z), si ha Φ −s(y) ∈ Γρ . Ciò conclude la prova di (4), e quindi di (ii).
5.7 Stabilità delle orbite periodiche. Mappa e Teorema di Poincaré
185
Proviamo ora (i) ragionando per assurdo, i.e. supponendo che C dP(0) abbia almeno un autovalore di modulo > 1. Faremo la prova nel caso (più generale) in cui C dP(0) abbia anche autovalori di modulo ≤ 1 (se tutti gli autovalori sono di modulo > 1 la prova è più semplice). Come in (ii) possiamo supporre che γ passi per l’origine, e scegliere di nuovo W := Span{ f (0)}⊥ come varietà trasversa a γ in 0. Per comodità scriviamo semplicemente P per indicare la mappa di Poincaré PW relativa a W in 0. Utilizzando il Teorema 2.7.4 possiamo supporre di avere una decomposizione W = W1 ⊕W2 in sottospazi invarianti per dP(0) e tale che Spec C (dP(0) ) = Spec(C P(0)) ∩ {λ ∈ C; |λ | > 1}, W1
Spec C (dP(0) ) = Spec(C P(0)) ∩ {λ ∈ C; |λ | ≤ 1}. W2
Per i Corollari 5.7.9 e 5.7.10 possiamo fissare sui W j , j = 1, 2, prodotti scalari ·, ·W j tali che nella relativa norma | · |W j si abbia |dP(0)|W1 →W1 =: α > 1, |dP(0)|W2 →W2 =: β ≥ 1, e α > β . Su W consideriamo il prodotto scalare u, vW := u1 , v1 W1 + u2 , v2 W2 , se u = u1 + u2 e v = v1 + v2 . Per comodità indichiamo semplicemente con | · | la relativa norma in W . Si noti che se u = u1 +u2 , u j ∈ W j , |u|2 = |u1|2 +|u2 |2 . Fissiamo ora R > 0 sufficientemente piccolo in modo tale che: • P : BR (0) −→ W , P(y) = Φ T(y)(y), sia ben definita; • per y ∈ BR (0) si abbia P(y) = dP(0)y + G(y), con |G(y)| ≤ C|y|2 , con C > 0 indipendente da y; • α := α − 2CR > 1, α > β := β + 2CR. Dato ora σ ≥ α /β , poniamo Eσ := {y ∈ W ; y = y1 + y2 , |y1 | ≥ σ |y2 |}. A questo punto è cruciale osservare che se γ è stabile allora, come conseguenza, deve aversi che per ogni ρ ∈ (0, R) c’è ρ ∈ (0, ρ ] tale che y ∈ Bρ (0) =⇒ Pk (y) ∈ Bρ (0), ∀k ≥ 1.
(5.110)
Infatti, preso un intorno U ⊂ Ω di γ con U ∩ W = Bρ (0), se γ è stabile deve esserci un intorno V ⊂ U di γ tale che Φ t (y) ∈ U per ogni t ≥ 0 e per ogni y ∈ V. Preso allora ρ ∈ (0, ρ ] tale che Bρ (0) ⊂ V ∩ W , la (5.110) ne consegue. Se ora mostriamo che (5.110) non può essere soddisfatta, avremo dunque provato l’instabilità di γ . Prendiamo y = y1 + y2 ∈ Bρ (0) ∩ Eσ . Allora P(y) = P(y)1 + P(y)2 , P(y) j ∈ W j ,
186
e si ha
5 Equazioni differenziali ordinarie
|P(y)1 | = |dP(0)y1 + G(y)1 | ≥ α |y1 | −C |y1 |2 + |y2 |2 ≥ CR ≥ (α −CR)|y1 | −CR|y2 | ≥ α −CR − |y1 | ≥ α |y1 |, σ
e
|P(y)2 | = |dP(0)y2 + G(y)2 | ≤ β |y2 | +C |y1 |2 + |y2 |2 ≤ ≤
CR β |y1 | +CR|y1 | + |y1 | ≤ (β + 2CR)|y1 | = β |y1 |. σ σ
Dunque |P(y)2 | ≤ β |y1 | =
1 β β α |y | ≤ |P(y)1 | ≤ |P(y)1 |, 1 α α σ
e quindi P(y) ∈ Eσ . A questo punto da (5.110) si ha che P(y) ∈ Bρ (0)∩ Eσ . Ripetendo il ragionamento appena fatto si prova che P2 (y) ∈ Eσ e dunque, sempre per (5.110), P2 (y) ∈ Bρ (0) ∩ Eσ . Ma allora se vale (5.110) si ha, per induzione, y ∈ Bρ (0) ∩ Eσ =⇒ Pk (y) ∈ Bρ (0) ∩ Eσ , ∀k ≥ 1.
(5.111)
Ciò porta immediatamente ad una contraddizione perché se 0 = y = y1 +y2 ∈ Bρ (0)∩ Eσ , allora |Pk (y)| ≥ |Pk (y)1 | ≥ (α )k |y1 | −→ +∞ per k → +∞. Ciò conclude la prova di (i) e quindi del teorema.
Per quanto riguarda l’evidente “gap” tra la condizione necessaria (i) e quella sufficiente (ii) del Teorema 5.7.7, possiamo ripetere l’osservazione fatta a proposito del Teorema 5.6.9.
5.8 Applicazioni del Teorema di Poincaré. Esistenza di orbite periodiche Vogliamo ora dare alcune applicazioni del Teorema di Poincaré. Un’ovvia questione preliminare è il sapere quando un sistema x˙ = f (x) possiede (almeno) un’orbita periodica. Questa questione non è affatto banale! Ad esempio, il lettore è invitato a provare che un sistema gradiente x˙ = ∇F(x) non possiede orbita periodica alcuna! Nel caso più semplice di tutti, quello di un sistema lineare x˙ = Ax, A ∈ M(n; R), sappiamo (Teorema 5.4.1) che l’esistenza di orbite periodiche è equivalente a richiedere che p−1 / A (0) ∩ (iR \ {0}) = 0. In tal caso, il passo successivo è di decidere della stabilità di tali orbite. Vale il seguente risultato.
5.8 Applicazioni del Teorema di Poincaré. Esistenza di orbite periodiche
187
Teorema 5.8.1. Sia dato il sistema lineare x˙ = Ax, A ∈ M(n; R), con p−1 A (0) ∩ (iR \ {0}) = 0. / Allora: (i) nessuna orbita periodica è un attrattore; (ii) la stabilità di una qualunque orbita periodica equivale alla stabilità di ogni orbita periodica, ed equivale alla stabilità dell’origine come punto di equilibrio del sistema, i.e. valgono le condizioni p−1 A (0) ⊂ {λ ∈ C; Re λ ≤ 0},
λ ∈ p−1 A (0) ∩ iR =⇒ ma (λ ) = mg (λ ). / garantisce l’esistenDimostrazione. Sappiamo che l’ipotesi p−1 A (0) ∩ (iR \ {0}) = 0 za di almeno un’orbita periodica. Sia, per un certo 0 = x0 ∈ Rn , γ := {etA x0 ; 0 ≤ t ≤ T } una tale orbita. In questo caso H = (dx Φ T )(x0 ) = eTA . Notiamo allora subito che 1 è radice almeno doppia di pH , poiché pH (z) = 0 ⇐⇒ pH (¯z) = 0. In virtù del Lemma 5.7.6 e del Teorema di Poincaré, l’orbita γ è stabile soltanto se p−1 (0) ⊂ {λ ∈ C; |λ | ≤ 1}, che equivale a dire p−1 A (0) ⊂ {λ ∈ C; Re λ ≤ 0}. eTA Supporremo quindi questa condizione soddisfatta. Poniamo ora p−1 A (0) ∩ (iR \ {0}) = {±i μ j ; 1 ≤ j ≤ k}, con 0 < μ1 < μ2 < . . . < μk , e sia m j = ma (±i μ j ), j = 1, . . ., k. Per trattare il caso più generale supponiamo poi pA (0) = 0 con ma (0) =: m0 e p−1 A (0) ∩ {λ ∈ C; Re λ < 0} = 0. / Dal Teorema di Jordan possiamo decomporre Rn in somma diretta di sottospazi invarianti per A Rn = W1 ⊕W2 ⊕ . . .⊕Wk ⊕W0 ⊕W− , (5.112) con dimW j = 2m j , 1 ≤ j ≤ k, dimW0 = m0 e dimW− = n − m0 − 2(m1 + . . . + mk ), tali che, pensando A come mappa lineare di Rn in sé: • Spec( C (AW )) = p−1 A (0) ∩ {λ ∈ C; Re λ < 0}; − C • Spec( (A )) = {0}, e la matrice di A in una base opportuna di W0 è del tipo W0
W0
⎡
0 ⎢. ⎢. B0 = ⎢ ⎢. ⎣0 0 dove ∗ = 0 oppure 1; • per ogni j = 1, . . ., k,
⎤ ∗ ... 0 . . .⎥ . .. . ⎥ . .⎥ ⎥ ∈ M(m0 ; R), 0 ... ∗⎦ 0 ... 0
Spec( C (AW )) = {±i μ j }, j
e la matrice di AW in una base opportuna di W j è del tipo j
188
5 Equazioni differenziali ordinarie
⎡
0 μj ∗ ⎢ −μ j 0 ⎢ ⎢ 0 μj .. ⎢ . ⎢ − μj 0 ⎢ Bj = ⎢ ⎢ .. ⎢ . ⎢ ⎣ 10 00 . oppure dove ∗ = 01 00
⎤ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ∈ M(2m j ; R), ⎥ ⎥ ⎥ ∗ ⎥ 0 μj ⎦ −μ j 0
Indicata con πW la proiezione di Rn sul sottospazio W (W essendo uno qualunque dei sottospazi in (5.112)), osserviamo che πW A = AπW e quindi, per ogni x ∈ Rn e t ∈ R, d πW etA x = AW πW etA x . dt
(5.113)
Dunque, considerando γ , abbiamo che per ogni W πW etA x0 =: ΦWt (x0 ) = Φ t (πW (x0 )) soddisfa il sistema precedente e, di più, ΦWt+T (x0 ) = ΦWt (x0 ), per ogni t ∈ R. Ci sono due eventualità: o t −→ ΦWt (x0 ) è costante (= πW (x0 )), ovvero t −→ ΦWt (x0 ) è essa stessa una funzione periodica di cui T è un periodo. Quando W = W0 oppure W = W−, il Teorema 5.4.1 ci dice che solo la prima eventualità può aver luogo, e quindi πW0 (x0 ) ∈ Ker AW , e πW− (x0 ) = 0 (perché AW è invertibile). Si osservi al− 0 lora che πW0 (x0 ), risp. πW− (x0 ), sono punti di equilibrio per il relativo sistema indotto (5.113). Per un generico W j , se t −→ ΦWt j (x0 ) è costante allora, poiché B j è invertibile, di nuovo πW j (x0 ) = 0 e dunque di equilibrio. Dovrebbe ora essere evidente dalle considerazioni precedenti che la stabilità di γ equivale alla stabilità di tutte le proiezioni πW (γ ). Dal Teorema 5.6.5 la stabilità (addirittura asintotica) dell’origine per AW è garantita, e per ogni y ∈ Ker AW la stabilità è equivalente a richiedere che la − 0 molteplicità algebrica di 0 sia uguale a quella geometrica. Possiamo allora soffermare la nostra attenzione sul generico blocco B j . Osserviamo che il sistema indotto su W j ha sempre una soluzione periodica di periodo minimo 2π / μ j , precisamente ⎤ ⎡ a cos(μ j t) + b sin(μ j t) ⎢ b cos(μ j t) − a sin(μ j t) ⎥ ⎥ ⎢ ⎥ ⎢ 0 ⎥ ∈ R2m j , a, b ∈ R, a2 + b2 > 0, (5.114) t −→ ⎢ ⎥ ⎢ . ⎥ ⎢ . ⎦ ⎣ . 0 la cui stabilità che m j = mg (±i μ j ). Infatti se fosse m j > mg (±i μ j ), e cioè richiede 10 , sappiamo che è possibile trovare 0 = ξ ∈ R2m j , vicino quanto qualche ∗ = 01
5.8 Applicazioni del Teorema di Poincaré. Esistenza di orbite periodiche
189
⎡ ⎤ a ⎢b⎥ ⎢ ⎥ ⎢0⎥ t ⎥ si vuole a ⎢ ⎢ . ⎥ tale che ||ΦW j (ξ )|| −→ +∞ per t → +∞. Poiché l’orbita (5.114) è ⎢.⎥ ⎣.⎦ 0 chiaramente ottenibile come proiezione su W j di un’orbita periodica del sistema x˙ = Ax, la stabilità di una generica orbita periodica di x˙ = Ax richiede che necessariamente si abbia m j = mg (±i μ j ), 1 ≤ j ≤ k, e m0 = mg (0). In tal caso le matrici B j , 1 ≤ j ≤ k, sono diagonali a blocchi e B0 = 0 (la matrice nulla m0 × m0 ). La stabilità di una qualunque orbita periodica di x˙ = Ax è ora immediata. Si noti infine che nessuna orbita periodica può essere un attrattore.
Vogliamo ora discutere una conseguenza notevole del Teorema 5.8.1. In R2n z = consideriamo la funzione (somma di oscillatori armonici)
Rnx × Rnξ
F(x, ξ ) =
1 2
n
∑ (α j x2j + β j ξ 2j ),
α j , β j > 0, j = 1, . . ., n,
(5.115)
j=1
e l’associato sistema hamiltoniano z˙ = HF (z) descritto dalle equazioni ) x˙ j = β j ξ j , j = 1, . . ., n. ξ˙ j = −α j x j ,
(5.116)
Ovviamente il sistema z˙ = HF (z) è un sistema lineare del tipo z˙ = Az dove 0 β A= ∈ GL(2n; R), (5.117) −α 0 e dove α = diag( α1 , . . ., αn ) e β = diag(β1 , . . ., βn ). È immediato riconoscere che p−1 (0) = {±i α j β j ; 1 ≤ j ≤ n}. Dunque il sistema (5.116) ha orbite periodiche. A Dette ±iμh , 1 ≤ h ≤ k, le radici distinte di pA , è immediato verificare che ma (±i μh ) = mg (±i μh ), per ogni h. Quindi il Teorema 5.8.1 permette di concludere che ogni orbita periodica è stabile ma non asintoticamente stabile. Un caso più generale si ha quando 1 F(x, ξ ) = α x, x + β ξ , ξ , (5.118) 2 con 0 < α = t α ∈ M(n; R) e 0 < β = t β ∈ M(n; R). In tal caso il sistema z˙ = HF (z) è ancora della forma z˙ = Az, con A data da (5.117)macon α e β non più diagonali x 2n (in generale). Per calcolare p−1 A (0), cerchiamo z = ξ ∈ C e λ ∈ C \ {0} tali che Az = λ z, cioè λ x = β ξ , λ ξ = −α x, x, ξ = 0.
190
5 Equazioni differenziali ordinarie
Se ne ricava il sistema equivalente 1 β α x = −λ 2 x, ξ = − α x. λ
(5.119)
Detta 0 < α 1/2 ∈ Sym(n; R) la radice quadrata positiva di α , il sistema (5.119) equivale a α 1/2 β α 1/2 ζ = −λ 2 ζ , ζ := (α 1/2 )−1 x. (5.120) Poiché α 1/2 β α 1/2 è simmetrica positiva, detti μ1 , . . ., μk gli zeri distinti di √ pα 1/2 β α 1/2 , si ricava da (5.119) che p−1 A (0) = {±i μh ; 1 ≤ h ≤ k}. Di nuovo, il Teorema 5.4.1 garantisce l’esistenza di orbite periodiche per z˙ = HF (z) e poiché, come è √ √ immediato vedere, ma (±i μh ) = mg (±i μh ), 1 ≤ h ≤ k, il Teorema 5.8.1, di nuovo, permette di concludere che ogni orbita periodica è stabile ma non asintoticamente stabile. Osserviamo che se il commutatore [α , β ] = 0, allora α e β possono essere simultaneamente diagonalizzate, e quindi (5.115) è un push-forward di (5.118). Si noti anche che se γ è un’orbita periodica di z˙ = HF (z) con periodo minimo T > 0, il (complessificato del) differenziale della mappa di Poincaré relativa a γ ha spettro contenuto in {λ ; |λ | = 1}. È naturale ora domandarsi se questo fenomeno dipenda dalla natura particolare della hamiltoniana (5.118). Il teorema seguente mostra che questo fatto è assolutamente generale. n Teorema 5.8.2. Sia F ∈ C ∞ (Ω ; R) con Ω ⊂ R2n z = Rz × Rξ aperto. Si consideri il ) x˙ = ∇ξ F(x, ξ ) , e si supponga che tale sisistema hamiltoniano z˙ = HF (z), i.e. ˙ ξ = −∇x F(x, ξ ) stema possegga un’orbita periodica γ . Detta P la mappa di Poincaré relativa a γ , vale γ stabile =⇒ Spec( C dP) ⊂ {λ ∈ C; |λ | = 1}.
Dimostrazione. Sia z0 ∈ γ e sia S una varietà trasversa a γ in z0 . Posto H = (dzΦ T )(z0 ), sappiamo che Spec( C dPS (z0 )) \ {1} = p−1 H (0) \ {1}.
(5.121)
D’altra parte il Teorema 5.5.4 dice che il prodotto simplettico
σ (Hv, Hv ) = σ (v, v ), ∀v, v ∈ R2n . Siccome
x x , w = = ξ , x Rn − ξ , xRn = σ w= ξ ξ x x 0 In , , ∀w, w ∈ R2n , = −In 0 ξ ξ R2n =:J
(5.122)
5.8 Applicazioni del Teorema di Poincaré. Esistenza di orbite periodiche
191
la (5.122) può allora essere riscritta come JHv, Hv = Jv, v , da cui, per l’arbitrarietà di v e v , t
HJH = J.
Poiché H e J sono invertibili, si ottiene H −1 = J −1 tHJ. Ma allora pH −1 (λ ) = det(H −1 − λ I2n ) = det( tH − λ I2n ) = pH (λ ), ∀λ ∈ C. Essendo
1 (0) = { ; λ ∈ p−1 p−1 H (0)}, H −1 λ
se ne deduce che
1 pH (λ ) = 0 ⇐⇒ pH ( ) = 0. λ Ora, se γ è stabile, per il Teorema di Poincaré deve aversi
(5.123)
Spec( CdPS (z0 )) ⊂ {λ ∈ C; |λ | ≤ 1}. Ma allora da (5.121) e (5.123) si ha la tesi.
Il teorema precedente fornisce una condizione necessaria per la stabilità di un’orbita periodica di un sistema hamiltoniano. Si potrebbe essere indotti a ritenere che la conservazione dell’energia garantisca a priori la stabilità di un’eventuale orbita periodica. Ecco quale potrebbe essere un ragionamento “plausibile”. Supponiamo n n F ∈ C ∞ (R2n z = Rx ×Rξ ; R) tale che F sia propria (i.e. |F(z)| −→ +∞ per ||z|| → +∞, o, equivalentemente, la controimmagine dei compatti è compatta), e sia E ∈ R un valore non critico di F, i.e. SE = {z ∈ R2n ; F(z) = E} = 0/ e HF (z) = 0 per ogni z ∈ SE (l’esistenza di un tale E è garantita dal Teorema di Sard). SE è quindi una sottovarietà C∞ compatta di R2n di dimensione 2n − 1. Proviamo che per ogni intorno aperto U di SE esiste ε > 0 (sufficientemente piccolo) tale che F −1 (E − ε , E + ε ) ⊂ U (naturalmente F −1 (E − ε , E + ε ) è esso stesso un intorno aperto di SE , tanto più “vicino” ad SE quanto più ε è piccolo). Se così non fosse, potremmo trovare 0 < ε j 0 ed in corrispondenza z j ∈ F −1 ([E − ε j , E + ε j ]) \ U per ogni j. Poiché F(z j ) −→ E per j → +∞, e poiché {z j } j ⊂ F −1 ([E − ε1 , E + ε1 ]), che è un compatto, passando eventualmente ad una sottosuccessione avremmo z j −→ z0 ∈ SE per j → +∞, ciò che porta ad una contraddizione. Supponiamo ora ci sia un’orbita periodica γ per z˙ = HF (z) contenuta in SE . Certamente, dalla conservazione dell’energia, ogni curva integrale del sistema che parta da un punto di F −1 (E − ε , E + ε ) resta ivi contenuta. Il punto ora è che F −1 (E − ε , E + ε )
192
5 Equazioni differenziali ordinarie
è sì un intorno “arbitrariamente piccolo” di SE , ma poiché γ è unidimensionale (topologicamente è una circonferenza!), se 2n − 1 > 1 allora F −1 (E − ε , E + ε ) non è un intorno “arbitrariamente piccolo” di γ . Per questo tipo di hamiltoniane l’argomento ora fatto prova la stabilità di γ soltanto quando 2n − 1 = 1, cioè n = 1! Mostriamo ora, nel caso n = 1, una classe significativa di hamiltoniane che ammettono orbite periodiche. In R2z = Rx × Rξ consideriamo F(x, ξ ) =
ξ2 +V (x), 2
doveV ∈ C ∞ (R2 ; R) è tale che V (x) −→ +∞ per |x| → +∞. Allora F : R2 −→ R è propria ed F(R2 ) = [m, +∞), dove m = minR V. Consideriamo il sistema hamiltoniano z˙ = HF (z), i.e. 8 x˙ = ξ ξ˙ = −V (x). Si noti che il sistema è equivalente all’equazione di Newton x¨ = −V (x), ˙ L’insieme dei punti critici di F, cioè dei punti di equilibrio di HF , ove si pone ξ = x. è C = {(x, ξ ); ξ = 0, V (x) = 0}. Poiché C è chiuso ed F è propria, F(C) è chiuso e, per il Teorema di Sard, è di misura nulla secondo Lebesgue in R. Sia E ∈ [m, +∞) \ F(C). Allora F −1 (E) è una sottovarietà di dimensione 1, compatta e C ∞ di R2 che ha dunque un numero finito di componenti connesse. Sia γ una qualunque di tali componenti (γ è diffeomorfa ad una circonferenza!). Mostriamo che γ è un’orbita periodica del sistema z˙ = HF (z). La curva γ è simmetrica rispetto all’asse x e la sua proiezione sull’asse x è necessariamente un intervallo del tipo [a, b] con a < b (il lettore spieghi perché; si veda la Figura 5.7). Si noti che V (a) = V (b) = E, che V (a),V (b) = 0 e che V (x) < E per x ∈ (a, b). Definiamo T > 0 mediante l’uguaglianza T = 2
& b a
dτ . 2(E −V (τ ))
Si noti che l’integrale generalizzato è convergente. Poiché la funzione [a, b] x −→
& x a
dτ 2(E −V (τ ))
è strettamente crescente, esiste un unico x¯ ∈ (a, b) tale che & x¯ a
dτ = 2(E −V (τ ))
& b x¯
dτ T = . 4 2(E −V (τ ))
5.8 Applicazioni del Teorema di Poincaré. Esistenza di orbite periodiche
Posto in corrispondenza
193
2(E −V (x)) ¯ > 0, ¯ ξ¯ ) =: (ψ (t), ψ˙ (t)). Si noti che consideriamo la curva integrale R t −→ ΦHt F (x, ψ (t) ∈ [a, b] per ogni t ∈ R. Se proviamo che ψ è periodica di periodo (minimo) T , abbiamo finito. Sia (−t1 , t2), con t1 , t2 > 0, il più grande intervallo contenente t = 0 sul quale ψ˙ (t) > 0. Su tale intervallo la funzione t −→ ψ (t) è strettamente crescente a valori in [a, b], e si ha t+
ξ¯ =
T = 4
& ψ (t) a
dτ , ∀t ∈ (−t1 , t2). 2(E −V (τ ))
¯ e hanno Ciò è immediato in quanto i due membri coincidono per t = 0 (ψ (0) = x) la stessa derivata (= 1). Prendendo il limite per t → −t1 e t → t2 , si deduce che t1 = t2 = T /4. Proviamo ora che per ogni s ∈ R si ha
ψ(
T T T T + s) = ψ ( − s) e ψ (− + s) = ψ (− − s). 4 4 4 4
Infatti i due membri, in entrambe le uguaglianze, coincidono per s = 0, hanno la stessa derivata prima (= 0) per s = 0, e soddisfano la stessa equazione d2 T T (ψ ( j ± s)) = −V (ψ ( j ± s)), j = ±. ds2 4 4 Dunque
T T T T T ψ ( ) = ψ ( + ) = ψ ( − ) = ψ (0) = x, ¯ 2 4 4 4 4 T T T T T ψ (− ) = ψ (− − ) = ψ (− + ) = ψ (0) = x. ¯ 2 4 4 4 4 Ora, se indichiamo con t −→ ψ˜ (t) il prolungamento periodico di periodo T della restrizione di ψ a [−T /2, T/2], si vede immediatamente che ψ (t) = ψ˜ (t), per ogni t ∈ R, giacché ψ (0) = ψ˜ (0) = x, ¯ ψ˙ (0) = ψ˙˜ (0) = ξ¯ , ed entrambe soddisfano la stessa equazione di Newton. Ciò prova quanto si voleva dimostrare. Si noti che dalla discussione precedente segue che γ è stabile, ma non asintoticamente stabile. Giunti a questo punto, il lettore può osservare che non abbiamo ancora fornito un solo esempio di sistema x˙ = f (x) che possegga un’orbita periodica attrattiva! A tal fine, consideriamo in R2 = Rx × Ry il seguente sistema (di Van der Pol1 ) ⎧ ⎨ x˙ = α x − α y − β x(x2 + y2 ) (5.124) ⎩ y˙ = α x + α y − β y(x2 + y2 ), con α , β ∈ R, e αβ > 0. 1 Balthasar Van der Pol,
ingegnere elettrico della Philips; il sistema risale al 1927.
194
5 Equazioni differenziali ordinarie
Fig. 5.7. Curve di livello del potenziale e soluzioni periodiche dell’equazione di Newton
Il lettore verifichi che (5.124) non è né un sistema gradiente né un sistema hamiltoniano. Cominciamo con l’osservare che (0, 0) è un punto di equilibrio per (5.124). Poiché α −α f (0, 0) = , α α le radici del polinomio caratteristico sono α ± i|α |, e quindi: • se α < 0, l’origine è asintoticamente stabile; • se α > 0, l’origine è instabile. Poniamo ora
γ = {(x, y) ∈ R2 ; x2 + y2 = α /β }, e osserviamo che γ èun’orbita periodica di (5.124) con periodo minimo T = 2π /|α |. Infatti, preso z0 = ( α /β , 0), il lettore può facilmente verificare che
Φ t (z0 ) =
9 α
β
9 cos(α t),
α sin(α t) , t ∈ R. β
(5.125)
Si tratta ora di decidere della stabilità o dell’instabilità di γ . Prendiamo (0, 0) = z0 ∈ γ e consideriamo la curva integrale
Φ t (z0 ) =: (x(t), y(t)), t ∈ (−τ− (z0 ), τ+(z0 )) =: I(z0 ).
5.8 Applicazioni del Teorema di Poincaré. Esistenza di orbite periodiche
195
Notiamo che per ogni t ∈ I(z0 ) si ha (0, 0) = Φ t (z0 ) ∈ γ . È conveniente considerare la funzione d(t) := x(t)2 + y(t)2 = ||Φ t (z0 )||2 . Usando la (5.124) si scopre che
˙ = 2β d(t) α − d(t) , ∀t ∈ I(z0 ). d(t) β
(5.126)
Distinguiamo ora i due casi: (i) 0 < d(0) < α /β ; (ii) d(0) > α /β . Nel caso (i) avremo allora sempre 0 < d(t) < α /β , per tutti i t ∈ I(z0 ). L’equazione (5.126) può essere esplicitamente integrata (il lettore lo faccia!), e si ha d(t) =
α d(0) . β d(0) + (α /β − d(0))e−2α t
(5.127)
Ora, se α , β > 0, d(t) (e quindi x(t) ed y(t)) è definita per ogni t ∈ R (i.e. τ− (z0 ) = τ+ (z0 ) = +∞) e, di più, α per t → +∞, d(t) β d(t) 0 per t → −∞. Quando invece α , β < 0, d(t) è ancora definita per ogni t ∈ R, ma ora d(t) 0 per t → +∞, d(t)
α per t → −∞. β
Nel caso (ii) avremo sempre d(t) > α /β per ogni t ∈ I(z0 ). Di nuovo, d(t) =
α d(0) . β d(0) − (d(0) − α /β )e−2α t
Quando α , β > 0, d(t) (e quindi x(t) ed y(t)) è definita solo per tempi t>−
d(0) 1 ln = −τ− (z0 ), 2α d(0) − α /β
sicché τ+ (z0 ) = +∞ e si ha d(t)
α per t → +∞, β
d(t) +∞ per t → −τ− (z0 ).
(5.128)
196
5 Equazioni differenziali ordinarie
Quando invece α , β < 0, d(t) è definita solo per tempi t
0, γ è un attrattore; • se α < 0, γ è instabile. La stessa informazione può essere ottenuta usando la mappa di Poincaré. Prendiamo z0 = ( α /β , 0) ∈ γ , e come varietà trasversa scegliamo l’asse x. Sia P la relativa mappa di Poincaré. Per calcolarne lo spettro, usiamo la matrice H = (dz Φ T )(z0 ). Quindi, posto Φ t (z) =: (x(t; z), y(t; z)), per z vicino a z0 si tratta di calcolare la matrice
∇z x(t; z) H= . ∇z y(t; z) t=T =2π /|α |, z=z0 Si scriva allora
8
d(t; z)cos(θ (t; z)), y(t; z) = d(t; z)sin(θ (t; z)), x(t; z) =
dove, come prima, d(t; z) = ||Φ t (z)||2 , e • •
θ (t; z) = arctan(y(t; z)/x(t; z)) quando y(t; z) ≥ 0 e x(t; z) > 0; θ (t; z) = 2π + arctan(y(t; z)/x(t; z)) quando y(t; z) ≤ 0 e x(t; z) > 0.
Il lettore faccia i calcoli, per scoprire che il polinomio caratteristico di H ha le due radici 1 e e−2α T , sicché: • se α > 0, e−2α T = e−4π < 1; • se α < 0, e−2α T = e4π > 1, e ciò conferma quanto osservato prima. Finora abbiamo studiato la stabilità delle orbite periodiche di un fissato sistema x˙ = f (x). È fisicamente rilevante domandarsi che succede quando il sistema venga perturbato in un sistema x˙ = fε (x), dove ε è un piccolo parametro, il parametro di perturbazione, e f 0 (x) = f (x). Problema: il sistema x˙ = f ε (x) ha ancora orbite periodiche (per 0 = ε piccolo)? Ed in caso affermativo, sono stabili/instabili? Gli esempi che andiamo a mostrare fanno vedere che la sola ipotesi di un’orbita periodica di x˙ = f (x) non basta né a garantire la sopravvivenza di orbite periodiche di x˙ = f ε (x), né eventualmente la loro stabilità.
5.8 Applicazioni del Teorema di Poincaré. Esistenza di orbite periodiche
197
Fig. 5.8. Comportamento delle curve integrali del sistema di Van der Pol
Ecco due esempi. ) (i) In R2
:
x˙1 = x2 . In tal caso tutte le orbite con dato iniziale non nullo sono x˙2 = −x1
periodiche di periodo 2π e stabili. Tuttavia il sistema perturbato 8
x˙1 = x2 + ε x1 , x˙2 = −x1 + ε x2 ,
quale che sia ε = 0 non possiede orbite periodiche.
198
5 Equazioni differenziali ordinarie
⎧ x˙1 = x2 ⎪ ⎪ ⎨ x˙2 = −x1 4 (ii) In R : . Anche in tal caso tutte le orbite con dato iniziale non ⎪ x˙3 = x4 ⎪ ⎩ x˙4 = −x3 nullo sono periodiche di periodo 2π e stabili. Tuttavia il sistema perturbato ⎧ x˙1 = x2 + ε x1 , ⎪ ⎪ ⎨ x˙2 = −x1 + ε x2 , ⎪ ⎪ ⎩ x˙3 = x4 , x˙4 = −x3 , ha sì per ε = 0 orbite periodiche, ma, ad esempio, ⎤ ⎡ ⎡ ⎤ 0 0 ⎢ ⎥ ⎢ ⎥ 0⎥ ⎢ 0 ⎥ Φt ⎢ ⎣ 1 ⎦ = ⎣ cost ⎦ , sint 0 definisce un’orbita periodica del sistema perturbato che è instabile quale che sia ε = 0. È il caso di notare che negli esempi (i) e (ii) le orbite periodiche del sistema imperturbato sono stabili ma non asintoticamente stabili. Il risultato seguente fornisce ora una condizione sufficiente a garantire che un’orbita periodica asintoticamente stabile di x˙ = f (x) venga perturbata in un’orbita periodica ancora asintoticamente stabile di x˙ = f ε (x). Fissiamo le notazioni e le ipotesi. Sia f ∈ C ∞ (Ω ; Rn), 0 ∈ Ω ⊂ Rn , e supponiamo che: (i) il flusso Φ t (·) del sistema x˙ = f (x) è definito per ogni t ∈ R ed il sistema ha un’orbita periodica γ passante per 0 di periodo T > 0; (ii) posto H = (dx Φ T )(0), si ha (a) 1 è uno zero semplice di pH , (b) p−1 H (0) \ {1} ⊂ {λ ∈ C; |λ | < 1}. Per i teoremi visti, γ è quindi un’orbita asintoticamente stabile di x˙ = f (x). Sia data ora, per un certo δ > 0, una mappa C ∞ (−δ , δ ) × Ω (ε , x) −→ g(ε , x) ∈ Rn , tale che g(0, x) = 0, per ogni x ∈ Ω (ε è il parametro di perturbazione). Posto f ε (x) := f (x) + g(ε , x), si consideri il sistema x˙ = f ε (x), e si supponga (per semplicità) che il flusso corrispondente Φεt (·) sia pure definito per ogni t ∈ R e per ogni ε ∈ (−δ , δ ).
5.8 Applicazioni del Teorema di Poincaré. Esistenza di orbite periodiche
199
Vale allora il risultato seguente. Teorema 5.8.3. In queste ipotesi esistono 0 < δ < δ , un intorno aperto U ⊂ Ω di 0 ed una mappa C∞ (−δ , δ ) ε −→ x(ε ) ∈ U ∩ W, W = (R f (0))⊥ , con x(0) = 0, tali che per |ε | < δ il sistema x˙ = f ε (x) ha un’orbita periodica γε asintoticamente stabile passante per x(ε ), di periodo T (ε ), con (−δ , δ ) ε −→ T (ε ) > 0 di classe C∞ e T (0) = T , tale che γ0 = γ . Dimostrazione. Fissiamo un intorno V ⊂ Ω di 0 e 0 < δ¯ ≤ δ in modo tale che f ε (x), f (0) = 0, ∀(ε , x) ∈ (−δ¯ , δ¯ ) ×V. Consideriamo poi la mappa F ∈ C ∞ (V × (−δ¯ , δ¯ ) × (−δ¯ , δ¯ ); Rn × R) (x, τ , ε ) −→ F(x, τ , ε ) := x − ΦεT +τ (x), f (0), x . Osserviamo che F(0) = F(0, 0, 0) = (0, 0). Dimostriamo ora che la mappa lineare (d(x,τ )F)(0) : Rn+1 −→ Rn+1 è invertibile. La matrice di (d(x,τ )F)(0) è In − H − f (0) . t f (0) 0 Basta quindi verificare che per ogni (w, ) ∈ Rn × R il sistema 8 v − Hv − s f (0) = w f (0), v = ha una soluzione (v, s) ∈ Rn × R. Per l’ipotesi (a), Ker(In − H) = R f (0), e dunque Im(In − H) è (n − 1)-dimensionale. Fissato 0 = η ∈ (Im(In − H))⊥ , il sistema v − Hv = w + s f (0) ha soluzione se e sole se w + s f (0), η = 0, e questa condizione è soddisfatta fissando s = −w, η / f (0), η (si tenga conto del fatto che, sempre per (a), f (0) ∈ Im(In − H)). Detta dunque v una soluzione particolare di v − Hv = w + s f (0), ogni soluzione di tale sistema sarà del tipo v + μ f (0), μ ∈ R. Se prendiamo μ = ( − f (0), v)/|| f (0)||2 avremo quindi f (0), v + μ f (0) = . Con ciò resta provata la suriettività, e quindi l’invertibilità, di (d(x,τ ) F)(0). Possiamo ora applicare il Teorema di Dini in virtù del quale nell’equazione F(x, τ , ε ) = (0, 0) è possibile esplicitare univocamente le variabili x, τ come funzioni C∞ di ε , almeno per |ε | < δ ≤ δ¯ (δ opportuno), con ε −→ x(ε ) a valori in U ∩W, U ⊂ V intorno opportuno di 0, e con x(0) = 0, e ε −→ τ (ε ) a valori in un opportuno intervallo centrato in 0, in modo tale che τ (0) = 0 e T + τ (ε ) > 0 per |ε | < δ . Preso quindi x(ε ) ∈ U ∩W e posto T (ε ) := T + τ (ε ), la soluzione t −→ Φεt (x(ε )) (che non è costante giacché d t T (ε ) Φε (x(ε )) = f ε (x(ε )) = 0) è periodica in quanto Φε (x(ε )) = x(ε ), e quindi dt t=0 abbiamo un’orbita periodica γε di x˙ = f ε (x). T(ε ) Quanto alla stabilità di γε , osserviamo che, posto Hε := (dx Φε )(x(ε )), si ha Hε −→ H per ε → 0, e quindi pHε −→ pH per ε → 0 uniformemente sui compatti di C. Le ipotesi (a) e (b) su H permettono allora di concludere che, a patto di ridurre (se
200
5 Equazioni differenziali ordinarie
necessario) δ , per ogni ε con |ε | < δ , Hε soddisfa pure le ipotesi (a) e (b), e quindi che γε è asintoticamente stabile.
Concludiamo questa trattazione facendo osservare che i punti di equilibrio e le orbite periodiche sono casi particolari della nozione più generale di insieme invariante di un sistema x˙ = f (x). Precisamente, con f : Ω ⊂ Rn −→ Rn , si dice che un insieme chiuso A ⊂ Ω è invariante per il sistema x˙ = f (x) se • per ogni x ∈ A la curva integrale t −→ Φ t (x) è definita almeno per tutti i t ≥ 0, e, di più, Φ t (x) ∈ A per ogni t ≥ 0. La nozione naturale di stabilità per un insieme invariante è, come il lettore può ben immaginare, la seguente: • A è stabile se per ogni aperto U con A ⊂ U ⊂ Ω esiste un aperto V con A ⊂ V ⊂ U tale che per ogni x ∈ V la curva integrale t −→ Φ t (x) è definita per ogni t ≥ 0 e Φ t (x) ∈ U per ogni t ≥ 0. Si dice che A è instabile quando non è stabile. Si dice poi che A è asintoticamente stabile, o che è un attrattore, quando è stabile e, con le notazioni precedenti, dist(Φ t (x), A) = inf ||Φ t (x) − a|| −→ 0 per t → +∞. a∈A
Osserviamo che la nozione di insieme invariante è effettivamente più generale di quelle di punto di equilibrio e di orbita periodica. Diamo un paio di esempi per convincere il lettore. Consideriamo un sistema x˙ = f (x), f ∈ C ∞ (Ω ; Rn), e sia A ⊂ Ω una sottovarietà ∞ C n-dimensionale con bordo ∂ A. Supponiamo che: • per ogni x ∈ A le curve integrali t −→ Φ t (x) esistano per tutti i t ∈ R; • per ogni x ∈ ∂ A si ha f (x), ν (x) ≤ 0, dove ν (x) è la normale unitaria esterna di A in x. Il lettore verifichi che allora A è un insieme invariante del sistema x˙ = f (x). Ad esempio, riconsiderando il sistema di Van der Pol (5.124), posto A = {(x, y) ∈ R2 ; x2 + y2 ≤ α /β }, tale insieme è invariante per il sistema ed il lettore può verificare che: • A è asintoticamente stabile quando α > 0; • A è instabile quando α < 0. Un altro esempio, completamente diverso dal precedente, è il seguente. Si consideri in R4 il sistema ⎧ x˙ = α x2 ⎪ ⎪ ⎨ 1 x˙2 = −α x1 , α , β > 0. x˙3 = β x4 ⎪ ⎪ ⎩ x˙4 = −β x3
5.8 Applicazioni del Teorema di Poincaré. Esistenza di orbite periodiche
201
Posto
γ1 := {(cos(α t), sin(α t)); t ∈ R} ⊂ R2x1 ,x2 e
γ2 := {(cos(β t), sin(β t)); t ∈ R} ⊂ R2x3 ,x4 , è chiaro che γ1 × γ2 ⊂ R4 è un insieme invariante del sistema. Tuttavia la mappa t −→ (cos(α t), sin(α t), cos(β t), sin(β t)) è periodica se e solo se α /β ∈ Q (il lettore lo verifichi). Per lo studio della stabilità/instabilità degli insiemi invarianti rimandiamo alla letteratura specialistica sull’argomento.
6 Esercizi
Esercizio 6.1.1. Sia f ∈ C ∞(Rn ; Rn) tale che f (0) = 0 e f (x) = 0 per ogni x con ||x|| ≥ C > 0, per una certa costante C > 0. Si consideri il sistema x˙ = f (x) e si provi che le soluzioni massimali sono definite per tutti i tempi, e che per ogni t fissato la mappa Φ t è un diffeomorfismo C∞ di Rn in sè. Esercizio 6.1.2. Data A ∈ M(n; R) con A = tA > 0, si consideri il problema di Cauchy in Rn ⎧ ⎨ x¨ + Ax = 0 x(0) = α ⎩ x(0) ˙ = β. Dimostrare che: (i) la soluzione del problema di Cauchy è x(t) = cos(tA1/2 )α + A−1/2 sin(tA1/2 )β , t ∈ R; (ii) la soluzione nulla del sistema x¨ +Ax = 0 è stabile ma non asintoticamente stabile; (iii) ogni soluzione non banale del sistema x¨ + Ax = 0 è periodica se e solo se " λi , λ j ∈ p−1 (0) =⇒ λi /λ j ∈ Q; A (iv) se f : R −→ Rn è continua e periodica di periodo T > 0, il sistema x¨ + Ax = f (t) ha un’unica soluzione periodica di periodo T se e solo se √ T λ λ ∈ p−1 (0) =⇒ ∈ N. A 2π Esercizio 6.1.3. Data A ∈ M(n; R) con A = tA > 0, e dato α > 0, si consideri il sistema 1 Ax. x˙ = ||x||α Detta x(t; y) la soluzione che passa per y = 0 al tempo t = 0, si dimostri che l’intervallo massimale I(y) è dato da Parenti C., Parmeggiani A.: Algebra lineare ed equazioni differenziali ordinarie. c Springer-Verlag Italia 2010, Milano
204
6 Esercizi
||y||α I(y) = − , +∞ , cα dove 0 < c = min Ax, x, e che ||x(t; y)|| −→ +∞ quando t → +∞, ||x(t; y)|| −→ 0 ||x||=1
quanto t → −||y||α /cα . Esercizio 6.1.4. Fissati λ ∈ C ed m ∈ Z+ , si definisca Em (λ ) := {eλ t p(t); p ∈ C[t] con grado ≤ m}, e si consideri l’operatore differenziale L=
d k k−1 d j + a j j , a j ∈ R, k ∈ N. dt k ∑ j=0 dt
k−1
Posto L(ζ ) = ζ k + ∑ a j ζ j , ζ ∈ C, si dimostri che: j=0
(i) L(λ ) = 0 =⇒ L : Em (λ ) −→ Em (λ ) è un isomorfismo per ogni m; (ii) se λ è radice di molteplicità ν del polinomio L(ζ ), allora L : Em+ν (λ ) −→ Em (λ ) è suriettivo qualunque sia m. Esercizio 6.1.5. Si consideri in Rdx × Rm y il sistema 8
x˙ = A(y)x 1 y˙ = ∇y A(y)x, x , 2
t ¯ si consideri dove A ∈ C1 (Rm y ; M(d; R)), A(y) = A(y) > 0 per ogni y. Dati x¯ = 0 ed y, la curva integrale t −→ (x(t), y(t)) del sistema, passante per (x, ¯ y¯) al tempo t = 0. Si dimostri che per ogni δ , M > 0 non esiste T > 0 per cui
||x(t)|| ≤ δ , ||y(t)|| ≤ M, ∀t ≥ T. Dedurre che i punti di equilibrio del sistema del tipo (x = 0, y) sono instabili. Esercizio 6.1.6. Sia data in Rx ×Rξ l’hamiltoniana F(x, ξ ) = 12 e−(x +ξ ) . Si dimostri x˙ che le soluzioni del sistema hamiltoniano associato ˙ = HF (x, ξ ) contenute in un ξ fissato livello di energia E ∈ (0, 1/2) sono periodiche di periodo minimo 2π /E. 2
2
Esercizio 6.1.7. Si consideri il sistema x˙ = Ax + γ ||x||2 α , dove A = tA ∈ M(n; R) è invertibile, α ∈ Rn \ {0} è un autovettore di A, e 0 = γ ∈ R. Dimostrare che il sistema ammette due soli punti di equilibrio e che essi non possono essere entrambi stabili. Esercizio 6.1.8. Sia F : R −→ R di classe C ∞ con le seguenti proprietà: (a) esistono a, M > 0 tali che F(x) = −ax2 per |x| > M; (b) F (x) = 0 =⇒ F (x) = 0.
6 Esercizi
205
Considerata l’equazione differenziale ordinaria x˙ = F (x) si provi che: (i) per ogni y ∈ R la curva integrale Φ t (y) è definita per ogni t ∈ R; (ii) posto C = {x ∈ R; F (x) = 0}, C è un insieme finito non vuoto; (iii) x ∈ C è stabile se e solo se è asintoticamente stabile, e che card {x ∈ C; x è stabile} = card {x ∈ C; x è instabile} + 1. Cosa succede nel caso F : Rn −→ R con n > 1? Esercizio 6.1.9 (Equivalenza topologica dei flussi lineari). Siano date A1 , A2 ∈ −1 M(n; R) tali che p−1 A1 (0) ∪ pA2 (0) ⊂ {Re λ > 0}. Usando il Teorema di Lyapunov (Teorema 2.5.10) si osservi che esistono H1 , H2 simmetriche e definite positive tali che Ak x, Hk x > 0, ∀x = 0, k = 1, 2. In Rn si considerino, per k = 1, 2, i prodotti scalari x, yk := x, Hk y e le rispettive norme || · ||k . Posto Sk := {x ∈ Rn ; ||x||k = 1} si fissi un qualunque omeomorfismo χ : S1 −→ S2 . Si provino i seguenti fatti. (i) Per ogni x = 0 esiste un unico T (x) reale tale che eT (x)A1 x ∈ S1 (conviene calcolare d tA 2 ||e x||1 ), e la mappa x −→ T (x) è C ∞. dt (ii) Definita ) h(0) = 0 n n h : R −→ R , h(x) := e−T (x)A2 χ eT (x)A1 x , x = 0, allora h è un omeomorfismo di Rn in sè (la cui regolarità su Rn \ {0} è la regolarità di χ ) e vale h(etA1 x) = etA2 h(x), ∀x ∈ Rn , ∀t ∈ R (equivalenza topologica dei flussi etA1 , etA2 ). (iii) Ammesso che χ sia C1 , allora h non può essere C 1 nell’origine se A1 ed A2 non sono simili. (iv) Generalizzazione. Siano A, B ∈ M(n; R) tali che −1 / e (p−1 A (0) ∪ pB (0)) ∩ iR = 0,
∑
Re λ >0 pA (λ )=0
ma (λ ) =
∑
Re μ >0 pB ( μ )=0
ma (μ ).
Allora c’è un omemorfismo h : Rn −→ Rn tale che h(0) = 0 e h(etA x) = etB h(x), ∀x ∈ Rn , ∀t ∈ R. n A A B B A (Suggerimento: scrivere R = E − ⊕ E+ = E− ⊕ E+ , dove si è posto E∓ = ma (λ ) Re Ker (A − λ In ) ecc.). ±Re λ