Algebra lineare: differenze tra le versioni
Contenuto cancellato Contenuto aggiunto
m Annullate le modifiche di 176.200.163.246 (discussione), riportata alla versione precedente di LauBot Etichetta: Rollback |
fix delle fonti |
||
(37 versioni intermedie di 24 utenti non mostrate) | |||
Riga 17:
|}
|}
L
Con l'algebra lineare si studiano completamente tutti i fenomeni [[fisica|fisici]] "lineari", cioè quelli in cui intuitivamente non entrano in gioco [[distorsione (fisica)|distorsioni]], turbolenze e fenomeni [[teoria del caos|caotici]] in generale. Anche fenomeni più complessi, non solo della fisica ma anche delle [[scienze naturali]] e [[scienze sociali|sociali]], possono essere studiati e ricondotti con le dovute approssimazioni a un modello lineare.
Riga 23:
== Storia ==
La storia dell'algebra lineare moderna inizia
== Introduzione elementare ==
[[File:Vector space illust.svg|thumb|Uno spazio vettoriale è una collezione di oggetti, chiamati "vettori", che possono essere sommati e riscalati.]]
L'algebra lineare ha le sue origini nello studio dei vettori negli spazi [[coordinate cartesiane|cartesiani]] a due e a tre dimensioni. Un vettore, in questo caso, è un [[segmento]] orientato, caratterizzato da lunghezza (o magnitudine), direzione e verso. I vettori possono essere usati per rappresentare determinate entità fisiche come le [[forza|forze]], e possono essere sommati fra loro e moltiplicati per uno [[Scalare (matematica)|scalare]], formando quindi il primo esempio di [[spazio vettoriale]] sui [[numero reale|reali]].
L'algebra lineare moderna è stata estesa per comprendere spazi di dimensione arbitraria o infinita. Uno spazio vettoriale di dimensione ''n'' è chiamato ''n''-spazio. Molti dei risultati utili nel 2-spazio e nel 3-spazio possono essere estesi agli spazi di dimensione maggiore. Anche se molte persone non sanno visualizzare facilmente i vettori negli ''n''-spazi, questi vettori o [[n-upla|n-uple]] sono utili per rappresentare dati. Poiché i vettori, come ''n''-uple, sono liste ''ordinate'' di ''n'' componenti, molte persone comprendono e manipolano i dati efficientemente in questa struttura.
Riga 36:
L'insieme di tutte queste trasformazioni è anch'esso uno spazio vettoriale.
Se è fissata una [[base (algebra lineare)|base]] per uno spazio vettoriale, ogni trasformazione lineare può essere rappresentata da una tabella chiamata [[matrice (matematica)|matrice]].
Nell'algebra lineare si studiano quindi le proprietà delle matrici, e gli [[algoritmo|algoritmi]] per calcolare delle quantità importanti che le caratterizzano, quali il [[rango (algebra lineare)|rango]], il [[Determinante (algebra)|determinante]] e l'insieme dei suoi [[autovalore|autovalori]].
Uno spazio vettoriale (o spazio lineare), come concetto puramente astratto sul quale si provano [[teorema|teoremi]], è parte dell'[[algebra]] astratta, e ben integrato in questo campo: alcuni oggetti algebrici correlati ad esempio sono l'[[anello (algebra)|anello]] delle [[applicazione lineare|mappe lineari]] da uno spazio vettoriale in sé, o il [[gruppo (matematica)|gruppo]] delle [[applicazione lineare|mappe lineari]] (o [[matrice (matematica)|matrici]]) invertibili.
L'algebra lineare gioca anche un ruolo importante in [[analisi matematica|analisi]], specialmente nella descrizione delle [[derivata|derivate]] di ordine superiore nell'analisi vettoriale e nella risoluzione delle [[equazione differenziale|equazioni differenziali]].
Concludendo, si può dire semplicemente che i problemi lineari della matematica - quelli che esibiscono "linearità" nel loro comportamento - sono quelli più facili da risolvere, e che i problemi "non lineari" vengono spesso studiati approssimandoli con situazioni lineari. Ad esempio nell'[[analisi matematica|analisi]], la [[derivata]] è un primo tentativo di [[approssimazione lineare]] di una funzione. La differenza rispetto ai problemi non lineari è molto importante in pratica: il metodo generale di trovare una formulazione lineare di un problema, in termini di algebra lineare, e risolverlo, se necessario con calcoli matriciali, è uno dei metodi più generali applicabili in matematica.
== Nozioni di base ==
Riga 47:
{{vedi anche|Spazio vettoriale}}
[[File:Scalar multiplication of vectors.svg|thumb|Un vettore <math>a</math> può essere riscalato, cioè moltiplicato per un numero. Qui sono mostrati i vettori <math>2a</math> e <math>-a</math>, ottenuti moltiplicando <math>a</math> rispettivamente per 2 e -1.]]
La nozione più importante in algebra lineare è quella di [[spazio vettoriale]]. Uno spazio vettoriale è un insieme <math>V</math> di elementi, detti ''vettori'', aventi delle proprietà che li rendono simili ai vettori applicati in un punto fissato (l{{'}}''origine'') del piano o dello spazio.
Più precisamente, sono definite su <math>V</math> un paio di [[operazione binaria|operazioni binarie]]:<ref>{{Cita libro|nome=Gatto,|cognome=Letterio.|titolo=Lezioni di algebra lineare e geometria per l'ingegneria : i veri appunti del corso|url=https://worldcat.org/oclc/956082822|accesso=19 marzo 2019|data=2013|editore=CLUT|oclc=956082822|ISBN=9788879923439}}</ref>
* due vettori <math>v</math> e <math>w</math> possono essere ''sommati'', dando così luogo ad un nuovo vettore <math>v+w</math>,▼
*la somma vettoriale è ''[[Distributività|distributiva]] rispetto al prodotto'', mentre il prodotto è ''distributivo rispetto alla somma.''
▲
Il numero <math>k</math> (detto ''[[Scalare (matematica)|scalare]]'') appartiene ad un [[campo (matematica)|campo]] che viene fissato fin dall'inizio: questo può essere ad esempio il campo <math>\R</math> dei [[numeri reali]] o il campo <math>\mathbb C</math> dei [[numeri complessi]].
Il [[piano cartesiano]] è l'esempio fondamentale di spazio vettoriale. Ogni punto del piano è in realtà identificato univocamente come una coppia <math>(x,y)</math> di numeri reali. L'origine è il punto <math>(0,0)</math>. Il punto <math>(x,y)</math> può essere interpretato alternativamente come punto del piano o come vettore applicato nell'origine che parte da <math>(0,0)</math> e arriva in <math>(x,y)</math>.
Riga 67:
{{vedi anche|Trasformazione lineare}}
[[File:Rotation illustration2.svg|thumb|Una [[rotazione]] del [[piano cartesiano]] centrata nell'origine (0,0) è una trasformazione lineare.]]
:<math>f:V\to W</math>
che sia compatibile con le operazioni definite su entrambi. Devono cioè valere le proprietà seguenti:
:<math>f(v+w) = f(v)+f(w)</math>
:<math>f(kv) = kf(v).</math>
per ogni coppia di vettori <math>v,w</math> in <math>V</math> e ogni scalare <math>k</math>. I termini "applicazione", "funzione", "trasformazione", "mappa" e "[[omomorfismo]]" sono in questo contesto tutti sinonimi. Il termine "lineare" sta a indicare la compatibilità con le operazioni. Un'applicazione lineare manda necessariamente l'origine (di <math>V</math>) nell'origine (di <math>W</math>):
:<math>f(0) = 0.</math>
Riga 101:
{{vedi anche|Prodotto scalare}}
[[File:Scalarproduct.gif|thumb|Il prodotto scalare euclideo nel piano fra due vettori <math>A</math> e <math>B</math> è definito come il prodotto delle lunghezze di <math>B</math> e della proiezione di <math>A</math> su <math>B</math>. Esistono però molti altri modi utili di definire un prodotto scalare, in spazi di dimensione arbitraria.]]
Due vettori <math>v</math> e <math>w</math> di uno spazio vettoriale possono essere ''sommati'': il risultato è un vettore <math>v+w</math>. Inoltre un vettore <math> v</math> e uno scalare <math>k</math> possono essere ''moltiplicati'': il risultato è un vettore <math>kv</math>. Nella definizione di spazio vettoriale non è però prevista
In alcuni contesti è però utile aggiungere
Nella definizione di spazio vettoriale non è inoltre neppure prevista una nozione di ''lunghezza'' (equivalentemente, ''norma'') per i vettori, né di ''angolo'' fra due di questi. Entrambe le nozioni di lunghezza e angolo risultano però definite se è fissato un opportuno prodotto scalare.<ref>Più precisamente, questo accade per uno spazio vettoriale reale dotato di un [[prodotto scalare definito positivo]].</ref>
Riga 116:
L'algebra lineare fornisce molti [[algoritmo|algoritmi]] per determinare le soluzioni di un sistema lineare. Il legame fra i sistemi di equazioni e l'algebra lineare sta nel fatto che la matrice <math>A</math> può essere interpretata come applicazione lineare da <math>\R^n</math> in <math>\R^k</math>: secondo questa interpretazione, le soluzioni <math>x</math> sono esattamente le [[controimmagine|controimmagini]] di <math>b</math>.
Il [[teorema di Rouché-Capelli]] fornisce un metodo per contare le soluzioni, senza necessariamente determinarle completamente.<ref>Lo spazio delle soluzioni di un sistema è uno [[spazio affine]], ed il teorema di Rouché-Capelli fornisce un metodo per calcolarne la dimensione. Il numero di soluzioni può essere solo 0, 1 o infinito.</ref> Nel caso in cui il sistema sia quadrato e abbia una sola soluzione, questa può essere scritta esplicitamente usando la [[regola di Cramer]]. Però tale soluzione teorica è praticamente utilizzabile solo per risolvere sistemi molto piccoli.<ref>[[Regola di Cramer#Problemi nell.27applicazione|Problemi computazionali che limitano l'uso della Regola di Cramer]]</ref> Mentre i metodi di eliminazione (es. [[metodo di eliminazione di Gauss|Gauss]]) e quelli iterativi (es. [[Metodo di Gauss-Seidel|Gauss-Seidel]]) consentono di calcolare effettivamente le soluzioni di un sistema lineare, anche di grandi dimensioni.
=== Geometria analitica ===
[[File:Parallel Lines.svg|thumb|left|Una retta nel [[piano cartesiano]] è descritta da
[[File:Secretsharing-3-point.png|thumb|Tre piani nello spazio possono avere varie configurazioni differenti: in questo caso si intersecano in un punto. Ciascun piano è descritto da
In [[geometria analitica]] una retta o un piano sono descritti da sistemi di equazioni lineari: come si è appena visto, questi possono essere agevolmente studiati con gli strumenti dell'algebra lineare. Si possono quindi affrontare problemi quali le posizioni reciproche di due rette (o piani) nello spazio (che possono essere incidenti, paralleli o sghembi), e come queste variano per trasformazioni lineari.
Riga 131:
=== Analisi funzionale ===
Molti problemi dell'[[analisi funzionale]], quali la ricerca di una soluzione per
Esempi di spazi di funzioni includono gli [[spazio Lp|spazi Lp]] e gli [[spazio di Sobolev|spazi di Sobolev]].
Riga 137:
=== Meccanica quantistica ===
[[File:HAtomOrbitals.png|thumb|Le [[funzione d'onda|funzioni d'onda]] associate agli stati di un [[elettrone]] in un [[atomo di idrogeno]] sono gli [[autovettore|autovettori]] di alcuni particolari [[operatore autoaggiunto|operatori autoaggiunti]] usati in meccanica quantistica.]]
La [[meccanica quantistica]] fa ampio uso dei teoremi più avanzati dell'algebra lineare. Il [[modello matematico]] usato in questo settore della fisica (formalizzato principalmente da [[Paul Dirac]] e [[John Von Neumann]]) descrive i possibili stati di un sistema quantistico come elementi di un particolare [[spazio di Hilbert]] e le grandezze osservabili (quali posizione, velocità, etc.) come [[operatore autoaggiunto|operatori autoaggiunti]]. I valori che possono assumere queste grandezze quando vengono effettivamente misurate sono gli [[autovalore|autovalori]] dell'operatore.
L'introduzione e l'uso di questi concetti matematici non banali nella fisica quantistica è stato uno dei maggiori stimoli allo sviluppo dell'algebra lineare nel [[XX secolo]].
Riga 154:
=== Eliminazione di Gauss ===
{{vedi anche|Eliminazione di Gauss}}
L'[[eliminazione di Gauss]] è un algoritmo che consente di ridurre una matrice in una forma più semplice tramite opportune mosse sulle righe. Questo algoritmo è usato principalmente per determinare le soluzioni di un sistema di equazioni lineari, ma ha anche applicazioni più interne all'algebra lineare: con l'eliminazione di Gauss si può determinare il [[rango (algebra lineare)|rango]], il [[Determinante (algebra)|determinante]] o l'[[matrice inversa|inversa]] di una matrice, si può estrarre una base da un [[insieme di generatori]].
=== Determinante ===
{{vedi anche|Determinante (algebra)}}
[[File:Determinant Example.png|thumb|left|upright=1.4|Una [[trasformazione lineare]] del [[piano cartesiano]] descritta da una [[matrice quadrata]] <math>2\times 2</math>. Il determinante della matrice fornisce delle informazioni sulla trasformazione: il [[valore assoluto]] descrive il cambiamento di area, mentre il segno descrive il cambiamento di [[orientazione]]. Nell'esempio qui riportato, la matrice ha determinante -1: quindi la trasformazione preserva le aree (un [[Quadrato (geometria)|quadrato]] di area 1 si trasforma in un [[parallelogramma]] di area 1) ma inverte l'orientazione del piano (cambia il verso della freccia circolare).]]
Il [[Determinante (algebra)|determinante]] è un numero associato ad una [[matrice quadrata]] <math>A</math>, generalmente indicato come <math>\det A</math>. Da un punto di vista algebrico, il determinante è importante perché vale zero precisamente quando la matrice non è [[matrice invertibile|invertibile]]; quando non è zero, fornisce inoltre un metodo per descrivere la [[matrice inversa]] tramite la [[regola di Cramer]].
Da un punto di vista geometrico, il determinante fornisce molte informazioni sulla trasformazione associata ad <math>A</math>: il suo segno (sui numeri reali) indica se la trasformazione mantiene l'[[orientazione]] dello spazio, ed il suo [[valore assoluto]] indica come cambiano le aree degli oggetti dopo la trasformazione.
=== Autovalori e autovettori ===
{{vedi anche|
[[File:Eigen.jpg|thumb|upright=1.2|In questa trasformazione lineare della [[Gioconda]], l'immagine è modificata ma l'asse centrale verticale rimane fisso. Il vettore blu ha cambiato lievemente direzione, mentre quello rosso no. Quindi il vettore rosso è un autovettore della trasformazione e quello blu no.]]
Per caratterizzare un endomorfismo è utile studiare alcuni vettori, chiamati [[autovettore|autovettori]]. Geometricamente, un autovettore è un vettore che non cambia direzione. Da un punto di vista algebrico, si tratta di un vettore <math>v</math> tale che
Riga 193:
=== Teorema della dimensione ===
{{vedi anche|Teorema della dimensione}}
Il [[teorema della dimensione]] (o ''del rango,'' o anche ''di nullità più rango'') è un teorema che mette in relazione le dimensioni del [[nucleo (matematica)|nucleo]] e dell'[[immagine (matematica)|immagine]] di un'applicazione lineare <math>f</math>, secondo la formula:
:<math>\dim \operatorname{Im}(f) + \dim \operatorname{Ker}(f) = n. </math>
Qui Im e Ker denotano immagine e nucleo, mentre <math>n</math> è la dimensione del [[dominio (matematica)|dominio]] di <math>f</math>. Questo risultato è anche chiamato ''teorema del rango'', perché tradotto nel linguaggio delle matrici assume la forma seguente:
Riga 230:
== Bibliografia ==
*
* [[Serge Lang]] (2014): ''Algebra lineare'', Boringhieri
* {{en}} [[Steven Roman]] (1992): ''Advanced linear algebra'', Springer, ISBN 0-387-97837-2
* {{Cita libro|lingua=en
* {{en}} Rife, Susan A,
* {{en}} Delatorre, Anthony R. e Cooke, William K.,
* {{Cita libro|lingua=en
* {{Cita libro|lingua=en
* {{Cita libro|lingua=en
* {{Cita libro|lingua=en
* {{Cita libro|lingua=en
== Voci correlate ==
Riga 245 ⟶ 246:
* [[Autovalore e autovettore]]
* [[Base (algebra lineare)]]
* [[Determinante (algebra)|Determinante]]
* [[Dimensione (spazio vettoriale)]]
* [[Eliminazione di Gauss]]
Riga 261 ⟶ 262:
== Altri progetti ==
{{interprogetto|
== Collegamenti esterni ==
* {{Collegamenti esterni}}
* {{Cita web|lingua=en
* {{Cita web|lingua=en
▲* {{en}} [http://www.math.odu.edu/~bogacki/lat/ Linear Algebra Toolkit].
▲* {{en}} [http://www.algebra.com/algebra/college/linear/ Linear Algebra Workbench]: moltiplica e inverte matrici, risolve sistemi, trova autovalori, ecc.
{{Geometria}}▼
{{algebra lineare}}
{{Aree della matematica}}
▲{{Geometria}}
{{Controllo di autorità}}
{{Portale|matematica}}
|