Teorema spettrale: differenze tra le versioni
Contenuto cancellato Contenuto aggiunto
Nessun oggetto della modifica |
era sbagliata la forma |
||
(31 versioni intermedie di 20 utenti non mostrate) | |||
Riga 1:
In [[algebra lineare]] e [[analisi funzionale]] il '''teorema spettrale''' si riferisce a una serie di risultati relativi agli [[operatore lineare|operatori lineari]] oppure alle [[matrice (matematica)|matrici]]. In termini generali il teorema spettrale fornisce condizioni sotto le quali un operatore o una matrice possono essere [[diagonalizzazione|diagonalizzati]], cioè rappresentati da una [[matrice diagonale]] in una
In [[dimensione (spazio vettoriale)|dimensione]] finita, il teorema spettrale asserisce che per ogni [[endomorfismo simmetrico]] di uno [[spazio vettoriale reale]] dotato di un [[prodotto scalare]]
In dimensione infinita esistono diverse formulazioni.
Il teorema spettrale fornisce anche una decomposizione canonica dello spazio vettoriale, chiamata '''decomposizione spettrale''' o '''decomposizione agli autovalori'''.
Riga 12:
Il teorema spettrale può essere enunciato per spazi vettoriali reali o complessi muniti di prodotto scalare. L'enunciato è essenzialmente lo stesso nei due casi.
Il teorema nel caso reale può anche essere interpretato come il caso particolare della versione complessa. Come molti altri risultati in [[algebra lineare]], il teorema può essere enunciato in due forme diverse: usando il linguaggio delle [[applicazione lineare|applicazioni lineari]] o delle [[matrice|matrici]]. Nel caso complesso l'enunciato per [[spazio vettoriale complesso|spazi vettoriali complessi]] muniti di un [[prodotto hermitiano]] è analogo a quello reale, ma sotto ipotesi più deboli: anziché
==== Caso reale ====
Sia <math>T</math> un [[endomorfismo]] su uno [[spazio vettoriale reale]] <math>V</math> di [[dimensione (spazio vettoriale)|dimensione]] ''n'', dotato di un [[prodotto scalare]] [[definito positivo]]. Allora <math>T</math> è [[Operatore autoaggiunto|autoaggiunto]] [[se e solo se]] esiste una [[base ortonormale]] di <math>V</math> fatta di [[autovettore|autovettori]] per <math>T</math>.<ref>{{Cita|S. Lang|Pag. 245|lang}}.</ref>
Una versione equivalente del teorema, enunciata con le matrici, afferma che ogni
Come conseguenza del teorema, per ogni matrice simmetrica <math>S</math> esistono una matrice ortogonale <math>M</math> (cioè tale che <math>M^TM = I</math>) ed una matrice diagonale <math>D</math> per cui:<ref>{{Cita|S. Lang|Pag. 246|lang}}.</ref>
:<math> D = M^{-1} S M = M^T S M \ </math>
Riga 26:
==== Caso complesso ====
Sia <math>T</math> un operatore lineare su uno [[spazio vettoriale complesso]] <math>V</math> di dimensione ''n'', dotato di un [[Forma_sesquilineare#Prodotto_hermitiano|prodotto hermitiano]], cioè di una
Nel linguaggio matriciale, il teorema afferma che ogni [[matrice normale]] è [[matrice simile|simile]] ad una [[matrice diagonale]] tramite una [[matrice unitaria]]. In altre parole, per ogni matrice normale <math>H</math> esistono una matrice unitaria <math>U</math> ed una diagonale <math>D</math> per cui:
Riga 34:
Un operatore è quindi normale se e solo se è unitariamente diagonalizzabile.
Come corollario segue che
In particolare, gli autovalori di una [[matrice hermitiana]] sono tutti reali, mentre quelli di una [[matrice unitaria]] sono di modulo 1.
Riga 41:
Nel dimostrare il teorema spettrale è sufficiente considerare il caso complesso, e per provare l'esistenza di una base di autovettori si utilizza il [[principio d'induzione]] sulla dimensione di <math>V</math>.
Se la dimensione di <math>V</math> è pari a 1 non c'è nulla da dimostrare. Si ponga che l'enunciato valga per gli spazi vettoriali di dimensione ''n'' - 1: si vuole mostrare che questo implica la validità del teorema per gli spazi di dimensione ''n''. Poiché <math>\
:<math> W = \mathcal{L}(v)^{\perp} </math>
Riga 53:
essendo <math>v</math> e <math>w</math> ortogonali per ipotesi.
La restrizione <math>T_{|W}</math> di <math>T</math> a <math>W</math> è ancora un endomorfismo normale di <math>W</math>
:<math> \langle T^{*}(w), v \rangle = \langle w, T(v) \rangle = \lambda \langle w, v \rangle = 0 \qquad \forall w \in W </math>
Riga 76:
:<math> S(\varphi)(t) = t\cdot\varphi(t) </math>
è continuo e non ha autovettori.
:<math> [T \psi] (x) = f(x) \psi(x) \quad </math>
il cui dominio è lo spazio delle funzioni <math>\psi</math> per le quali il membro di destra della precedente relazione è in <math>L^2</math>. Il teorema stabilisce allora che ogni operatore autoaggiunto è [[
Nel ===Operatori limitati===
Riga 91 ⟶ 93:
:<math>U:H \to \bigoplus_{n=1}^N L^2(\R,d\mu_n)</math>
tali che:<ref>{{Cita|Reed, Simon|Pag. 227|reed}}.</ref>
:<math>(UAU^{-1} \psi)_n (\lambda) = \lambda \psi_n(\lambda) \ </math>
Riga 105 ⟶ 107:
:<math>U:H \to L^2(M,d\mu)</math>
tali che:<ref>{{Cita|Reed, Simon|Pag. 221|reed}}.</ref>
:<math>(UAU^{-1} f)(x) = F(x)f(x) \ </math>
Riga 116 ⟶ 118:
:<math>U:H \to L^2(M,d\mu)</math>
ed esiste una funzione <math>f:M \to \R</math> misurabile [[quasi ovunque]] tali che:<ref>{{Cita|Reed, Simon|Pag. 261|reed}}.</ref>
* <math>\psi \in D(A)</math> se e solo se:
Riga 139 ⟶ 141:
Equivalentemente, si ha:
:<math>
con <math> \delta_{\lambda\mu} </math> il [[Delta di Kronecker]] e <math>P_\lambda</math> la proiezione ortogonale su <math>V_\lambda</math>. Inoltre, se:
:<math>\sum_{j\in A} P_j =
con <math> A </math> [[insieme numerabile]], l'insieme dei proiettori <math> \{P_j\}_{j \in A} </math> è ortogonale e completo. La decomposizione spettrale è un caso particolare della [[decomposizione di Schur]]. È anche un caso particolare della [[decomposizione ai valori singolari]].
===Caso infinito-dimensionale===
Riga 151 ⟶ 153:
Sia <math>A</math> un [[operatore normale]] limitato definito su uno spazio di Hilbert <math>H</math>. Il teorema di decomposizione spettrale per operatori normali afferma che esiste un'unica misura a valori di proiettore <math>P^A</math> tale per cui:
:<math>A = \int_{\sigma(A)} z dP^A(x,y) \qquad z := (x,y) \to x+iy \in \
dove <math>\sigma(A) = \mbox{supp}(P^A)</math> è lo [[Spettro (matematica)|spettro]] di <math>A</math>. Si dice che <math>P^A</math> è la misura a valori di proiettore associata ad <math>A</math>.
Riga 163 ⟶ 165:
:<math>A = \int_{\sigma(A)} \lambda d P^A \qquad f(A) = \int_{\sigma(A)} f(\lambda) d P^A</math>
La formula a sinistra è detta ''diagonalizzazione'' di <math>A</math>.<ref>{{Cita|Reed, Simon|Pag. 234|reed}}.</ref>
Se da un lato è possibile definire univocamente un operatore autoaggiunto (o, più in generale, un operatore normale) <math>A</math> a partire da una misura a valori di proiettore, dall'altro se è possibile diagonalizzare <math>A</math> tramite una misura a valori di proiettore limitata <math>P^A</math> allora <math>P^A</math> è la misura a valori di proiettore associata univocamente ad <math>A</math>.
Riga 171 ⟶ 173:
Si consideri un operatore autoaggiunto <math>A</math> non limitato. Attraverso la trasformata di Cayley <math>U(A)</math> associata ad <math>A</math>:
:<math> U(A) = (A - \
è possibile definire, a partire da <math>A</math>, una misura a valori di proiettore <math>P^{U(A)}</math> nel modo seguente:
Riga 177 ⟶ 179:
:<math>P^A(\Omega) := P^{U(A)}(U(\Omega)) \qquad \Omega \subset \sigma(A)</math>
L'insieme <math>\Omega</math> è un
Si dimostra che se la [[funzione identità]], definita su <math>\sigma(A)</math>, è di classe <math>L^2</math> rispetto alla misura <math>(x,P^A(\Omega)x)</math>, allora <math>P^{U(A)}</math> definisce una misura a valori di proiettore su <math>\sigma(A)</math>.
Riga 191 ⟶ 193:
== Bibliografia ==
* {{cita libro | cognome= Lang| nome= Serge | titolo= Algebra lineare| editore= Bollati Boringhieri| città= Torino| anno= 1992|
*
*
| editore= Springer<!--|ed = riveduta-->| città= Berlin| anno= 2013|ed=2|
==Voci correlate==
* [[Autovettore e autovalore]]
* [[Decomposizione di Jordan]]
* [[Decomposizione di una matrice]]
* [[Operatore autoaggiunto]]
* [[Operatore lineare limitato]]
Riga 207 ⟶ 210:
== Collegamenti esterni ==
* {{
{{Algebra lineare}}
{{Portale|matematica}}
[[Categoria:Teoremi dell'algebra lineare|Spettrale]]
[[Categoria:Teoria spettrale]]
[[Categoria:Decomposizione matriciale]]
|