Algebra lineare: differenze tra le versioni

Contenuto cancellato Contenuto aggiunto
EnzoBot (discussione | contributi)
m Determinante
fix delle fonti
 
(26 versioni intermedie di 18 utenti non mostrate)
Riga 17:
|}
|}
L<nowiki>{{'</nowiki>}}'''algebra lineare''' è la branca della [[matematica]] che si occupa dello studio dei [[vettore (matematica)|vettori]], [[spazio vettoriale|spazi vettoriali]] (o spazi lineari), [[trasformazione lineare|trasformazioni lineari]] e [[sistema di equazioni lineari|sistemi di equazioni lineari]]. Gli spazi vettoriali sono un tema centrale nella [[matematica]] moderna; l'algebra lineare è usata ampiamente nell'[[algebra astratta]], nella [[geometria]] e nell'[[analisi funzionale]]. L'algebra lineare ha inoltre una rappresentazione concreta nella [[geometria analitica]].
 
Con l'algebra lineare si studiano completamente tutti i fenomeni [[fisica|fisici]] "lineari", cioè quelli in cui intuitivamente non entrano in gioco [[distorsione (fisica)|distorsioni]], turbolenze e fenomeni [[teoria del caos|caotici]] in generale. Anche fenomeni più complessi, non solo della fisica ma anche delle [[scienze naturali]] e [[scienze sociali|sociali]], possono essere studiati e ricondotti con le dovute approssimazioni a un modello lineare.
Riga 23:
== Storia ==
 
La storia dell'algebra lineare moderna inizia neglifra anniil [[1843]] e il [[1844]]. Nel 1843, [[William Rowan Hamilton]] (che ha introdotto il termine ''vettore'') inventò i [[quaternione|quaternioni]]. Nel 1844, [[Hermann Grassmann]] pubblicò il suo libro ''[[Die lineale Ausdehnungslehre]].''. [[Arthur Cayley]] introdusse le [[matrice (matematica)Matrice|matrici]] (2×2), una delle idee fondamentali dell'algebra lineare, nel [[1857]].
 
== Introduzione elementare ==
[[File:Vector space illust.svg|thumb|Uno spazio vettoriale è una collezione di oggetti, chiamati "vettori", che possono essere sommati e riscalati.]]
L'algebra lineare ha le sue origini nello studio dei vettori negli spazi [[coordinate cartesiane|cartesiani]] a due e a tre dimensioni. Un vettore, in questo caso, è un [[segmento]] orientato, caratterizzato da lunghezza (o magnitudine), direzione e verso. I vettori possono essere usati per rappresentare determinate entità fisiche come le [[forza|forze]], e possono essere sommati fra loro e moltiplicati per uno [[Scalare (matematica)|scalare]], formando quindi il primo esempio di [[spazio vettoriale]] sui [[numero reale|reali]].
 
L'algebra lineare moderna è stata estesa per comprendere spazi di dimensione arbitraria o infinita. Uno spazio vettoriale di dimensione ''n'' è chiamato ''n''-spazio. Molti dei risultati utili nel 2-spazio e nel 3-spazio possono essere estesi agli spazi di dimensione maggiore. Anche se molte persone non sanno visualizzare facilmente i vettori negli ''n''-spazi, questi vettori o [[n-upla|n-uple]] sono utili per rappresentare dati. Poiché i vettori, come ''n''-uple, sono liste ''ordinate'' di ''n'' componenti, molte persone comprendono e manipolano i dati efficientemente in questa struttura.
Riga 41:
L'algebra lineare gioca anche un ruolo importante in [[analisi matematica|analisi]], specialmente nella descrizione delle [[derivata|derivate]] di ordine superiore nell'analisi vettoriale e nella risoluzione delle [[equazione differenziale|equazioni differenziali]].
 
Concludendo, si può dire semplicemente che i problemi lineari della matematica - quelli che esibiscono "linearità" nel loro comportamento - sono quelli più facili da risolvere, e che i problemi "non lineari" vengono spesso studiati approssimandoli con situazioni lineari. Ad esempio nell'[[analisi matematica|analisi]], la [[derivata]] è un primo tentativo di [[approssimazione lineare]] di una funzione. La differenza rispetto ai problemi non lineari è molto importante in pratica: il metodo generale di trovare una formulazione lineare di un problema, in termini di algebra lineare, e risolverlo, se necessario con calcoli matriciali, è uno dei metodi più generali applicabili in matematica.
 
== Nozioni di base ==
Riga 47:
{{vedi anche|Spazio vettoriale}}
[[File:Scalar multiplication of vectors.svg|thumb|Un vettore <math>a</math> può essere riscalato, cioè moltiplicato per un numero. Qui sono mostrati i vettori <math>2a</math> e <math>-a</math>, ottenuti moltiplicando <math>a</math> rispettivamente per 2 e -1.]]
La nozione più importante in algebra lineare è quella di [[spazio vettoriale]]. Uno spazio vettoriale è un insieme <math>V</math> di elementi, detti ''vettori'', aventi delle proprietà che li rendono simili ai vettori applicati in un punto fissato (l{{'}}''origine'') del piano o dello spazio.
 
Più precisamente, sono definite su <math>V</math> un paio di [[operazione binaria|operazioni binarie]]:<ref>{{Cita libro|nome=Gatto,|cognome=Letterio.|titolo=Lezioni di algebra lineare e geometria per l'ingegneria : i veri appunti del corso|url=https://worldcat.org/oclc/956082822|accesso=2019-03-19 marzo 2019|data=2013|editore=CLUT|OCLCoclc=956082822|ISBN=9788879923439}}</ref>
 
* due vettori <math>v</math> e <math>w</math> possono essere sommati, dando così luogo ad un nuovo vettore <math>v+w</math>. Le proprietà della somma vettoriale sono ''[[associatività]], [[commutatività]], esistenza deldell'[[elemento neutro]], esistenza dell'[[elemento inverso]]'';
* un vettore <math>v</math> può essere riscalato, cioè moltiplicato per uno [[Scalare (matematica)|scalare]], cioè un numero <math>k</math>, dando così luogo ad un nuovo vettore <math>kv</math>. le proprietà della moltiplicazione per scalare sono ''associatività, esistenza di un neutro;''
*la somma vettoriale è ''[[Distributività|distributiva]] rispetto al prodotto'', mentre il prodotto è ''distributivo rispetto alla somma.''
 
[[File:Vector addition3.svg|thumb|left|Due vettori <math>v</math> e <math>w</math> possono essere sommati usando la [[regola del parallelogramma]].]]
Il numero <math>k</math> (detto ''[[Scalare (matematica)|scalare]]'') appartiene ad un [[campo (matematica)|campo]] che viene fissato fin dall'inizio: questo può essere ad esempio il campo <math>\R</math> dei [[numeri reali]] o il campo <math>\mathbb C</math> dei [[numeri complessi]].
 
Il [[piano cartesiano]] è l'esempio fondamentale di spazio vettoriale. Ogni punto del piano è in realtà identificato univocamente come una coppia <math>(x,y)</math> di numeri reali. L'origine è il punto <math>(0,0)</math>. Il punto <math>(x,y)</math> può essere interpretato alternativamente come punto del piano o come vettore applicato nell'origine che parte da <math>(0,0)</math> e arriva in <math>(x,y)</math>.
Riga 72:
:<math>f(v+w) = f(v)+f(w)</math>
:<math>f(kv) = kf(v).</math>
per ogni coppia di vettori <math>v,w</math> in <math>V</math> e ogni scalare <math>k</math>. I termini "applicazione", "funzione", "trasformazione", "mappa" e "[[omomorfismo]]" sono in questo contesto tutti sinonimi. Il termine "lineare" sta a indicare la compatibilità con le operazioni. Un'applicazione lineare manda necessariamente l'origine (di <math>V</math>) nell'origine (di <math>W</math>):
:<math>f(0) = 0.</math>
 
Riga 116:
L'algebra lineare fornisce molti [[algoritmo|algoritmi]] per determinare le soluzioni di un sistema lineare. Il legame fra i sistemi di equazioni e l'algebra lineare sta nel fatto che la matrice <math>A</math> può essere interpretata come applicazione lineare da <math>\R^n</math> in <math>\R^k</math>: secondo questa interpretazione, le soluzioni <math>x</math> sono esattamente le [[controimmagine|controimmagini]] di <math>b</math>.
 
Il [[teorema di Rouché-Capelli]] fornisce un metodo per contare le soluzioni, senza necessariamente determinarle completamente.<ref>Lo spazio delle soluzioni di un sistema è uno [[spazio affine]], ed il teorema di Rouché-Capelli fornisce un metodo per calcolarne la dimensione. Il numero di soluzioni può essere solo 0, 1 o infinito.</ref> Nel caso in cui il sistema sia quadrato e abbia una sola soluzione, questa può essere scritta esplicitamente usando la [[regola di Cramer]]. Però tale soluzione teorica è praticamente utilizzabile solo per risolvere sistemi molto piccoli.<ref>[[Regola di Cramer#Problemi nell.27applicazione|Problemi computazionali che limitano l'uso della Regola di Cramer]]</ref> Mentre i metodi di eliminazione (es. [[metodo di eliminazione di Gauss|Gauss]]) e quelli iterativi (es. [[Metodo di Gauss-Seidel|Gauss-Seidel]]) consentono di calcolare effettivamente le soluzioni di un sistema lineare, anche di grandi dimensioni.
 
=== Geometria analitica ===
Riga 137:
=== Meccanica quantistica ===
[[File:HAtomOrbitals.png|thumb|Le [[funzione d'onda|funzioni d'onda]] associate agli stati di un [[elettrone]] in un [[atomo di idrogeno]] sono gli [[autovettore|autovettori]] di alcuni particolari [[operatore autoaggiunto|operatori autoaggiunti]] usati in meccanica quantistica.]]
La [[meccanica quantistica]] fa ampio uso dei teoremi più avanzati dell'algebra lineare. Il [[modello matematico]] usato in questo settore della fisica (formalizzato principalmente da [[Paul Dirac]] e [[John Von Neumann]]) descrive i possibili stati di un sistema quantistico come elementi di un particolare [[spazio di Hilbert]] e le grandezze osservabili (quali posizione, velocità, etc.) come [[operatore autoaggiunto|operatori autoaggiunti]]. I valori che possono assumere queste grandezze quando vengono effettivamente misurate sono gli [[autovalore|autovalori]] dell'operatore.
 
L'introduzione e l'uso di questi concetti matematici non banali nella fisica quantistica è stato uno dei maggiori stimoli allo sviluppo dell'algebra lineare nel [[XX secolo]].
Riga 157:
 
=== Determinante ===
{{vedi anche|Determinante (algebra)}}
[[File:Determinant Example.png|thumb|left|upright=1.4|Una [[trasformazione lineare]] del [[piano cartesiano]] descritta da una [[matrice quadrata]] <math>2\times 2</math>. Il determinante della matrice fornisce delle informazioni sulla trasformazione: il [[valore assoluto]] descrive il cambiamento di area, mentre il segno descrive il cambiamento di [[orientazione]]. Nell'esempio qui riportato, la matrice ha determinante -1: quindi la trasformazione preserva le aree (un [[Quadrato (geometria)|quadrato]] di area 1 si trasforma in un [[parallelogramma]] di area 1) ma inverte l'orientazione del piano (cambia il verso della freccia circolare).]]
 
Riga 165:
 
=== Autovalori e autovettori ===
{{vedi anche|AutovaloreAutovettore e autovettoreautovalore}}
[[File:Eigen.jpg|thumb|upright=1.2|In questa trasformazione lineare della [[Gioconda]], l'immagine è modificata ma l'asse centrale verticale rimane fisso. Il vettore blu ha cambiato lievemente direzione, mentre quello rosso no. Quindi il vettore rosso è un autovettore della trasformazione e quello blu no.]]
Per caratterizzare un endomorfismo è utile studiare alcuni vettori, chiamati [[autovettore|autovettori]]. Geometricamente, un autovettore è un vettore che non cambia direzione. Da un punto di vista algebrico, si tratta di un vettore <math>v</math> tale che
Riga 193:
=== Teorema della dimensione ===
{{vedi anche|Teorema della dimensione}}
Il [[teorema della dimensione]] (o ''del rango,'' o anche ''di nullità più rango'') è un teorema che mette in relazione le dimensioni del [[nucleo (matematica)|nucleo]] e dell'[[immagine (matematica)|immagine]] di un'applicazione lineare <math>f</math>, secondo la formula:
:<math>\dim \operatorname{Im}(f) + \dim \operatorname{Ker}(f) = n. </math>
Qui Im e Ker denotano immagine e nucleo, mentre <math>n</math> è la dimensione del [[dominio (matematica)|dominio]] di <math>f</math>. Questo risultato è anche chiamato ''teorema del rango'', perché tradotto nel linguaggio delle matrici assume la forma seguente:
Riga 230:
 
== Bibliografia ==
* {{it}} Ciro Ciliberto (1994): ''Algebra lineare'', Boringhieri
* {{it}} [[Serge Lang]] (2014): ''Algebra lineare'', Boringhieri
* {{en}} [[Steven Roman]] (1992): ''Advanced linear algebra'', Springer, ISBN 0-387-97837-2
* {{Cita libro|lingua=en}}|cognome= de Boor,|nome= Carl, [|url=http://digital.library.wisc.edu/1793/11635 |titolo=Applied Linear Algebra],|editore= (University of Wisconsin-Madison,|anno= 2002).}}
* {{en}} Rife, Susan A, {{Collegamento interrotto|1=[http://handle.dtic.mil/100.2/ADA316035 Matrix Algebra.] |date=maggio 2019 |bot=InternetArchiveBot }} (Naval Postgraduate School, Monterey, California, 1996)
* {{en}} Delatorre, Anthony R. e Cooke, William K., {{Collegamento interrotto|1=[http://handle.dtic.mil/100.2/ADA350689 Matrix Algebra.] |date=maggio 2019 |bot=InternetArchiveBot }} (Naval Postgraduate School, Monterey, California, 1998)
* {{Cita libro|lingua=en}}|cognome= Beezer,|nome= Rob, [|url=http://linear.ups.edu/index.html |titolo=''A First Course in Linear Algebra''], licenza [[GNU Free Documentation License|GFDL]].}}
* {{Cita libro|lingua=en}}|autore= J. H. M. Wedderburn ''[|url=http://www.ams.org/online_bks/coll17/ |titolo=Lectures on Matrices]''|urlarchivio=https://web.archive.org/web/20061206040234/http://www.ams.org/online_bks/coll17/ (|editore=American Mathematical Society,|città= Providence,|anno= 1934)| ISBN= 0-8218-3204-2}}
* {{Cita libro|lingua=en}}|cognome= Fearnley-Sander,|nome= Desmond, [|url=http://matrix.skku.ac.kr/nla/main/CreationLA.pdf |titolo=Hermann Grassmann and the Creation of Linear Algebra],|editore= American Mathematical Monthly '''86''' (|anno=1979), |pp.&nbsp;809&nbsp;– 817.=809–817}}
* {{Cita libro|lingua=en}}|cognome= Grassmann,|nome= Hermann, ''[|url=http://books.google.com/books?id=bKgAAAAAMAAJ |titolo=Die lineale Ausdehnungslehre ein neuer Zweig der Mathematik: dargestellt und durch Anwendungen auf die übrigen Zweige der Mathematik, wie auch auf die Statik, Mechanik, die Lehre vom Magnetismus und die Krystallonomie erläutert]'',||editore= O. Wigand,|città= Leipzig,|anno= 1844.}}
* {{Cita libro|lingua=en}}|autore= [[Igor' Rostislavovič Šafarevič|Shafarevich, Igor R.]], Remizov,e Alexey O. ''[Remizov|url=https://www.springer.com/mathematics/algebra/book/978-3-642-30993-9 |titolo=Linear Algebra and Geometry]'',|editore= Springer,|anno= 2012,| ISBN= 978-3-642-30993-9}}
 
== Voci correlate ==
Riga 262:
 
== Altri progetti ==
{{interprogetto|v=Materia:Algebra lineare|wikt|preposizione=sull'}}
 
== Collegamenti esterni ==
* {{Collegamenti esterni}}
* {{Cita web|lingua=en}} [|url=http://www.math.odu.edu/~bogacki/lat/ |titolo=Linear Algebra Toolkit].}}
* {{springerEOM|titolo=Linear algebra|autore= I.V. Proskuryakov}}
* {{Cita web|lingua=en}} [|url=http://www.algebra.com/algebra/college/linear/ |titolo=Linear Algebra Workbench]|postscript=nessuno}}: moltiplica e inverte matrici, risolve sistemi, trova autovalori, ecc.
* {{en}} [http://www.math.odu.edu/~bogacki/lat/ Linear Algebra Toolkit].
* {{en}} [http://www.algebra.com/algebra/college/linear/ Linear Algebra Workbench]: moltiplica e inverte matrici, risolve sistemi, trova autovalori, ecc.
 
{{Geometria}}
{{algebra lineare}}
{{Aree della matematica}}
{{Geometria}}
{{Controllo di autorità}}
{{Portale|matematica}}