Algebra lineare: differenze tra le versioni

Contenuto cancellato Contenuto aggiunto
Altri progetti: Interlink Wikiversità
fix delle fonti
 
(36 versioni intermedie di 23 utenti non mostrate)
Riga 17:
|}
|}
L<nowiki>{{'</nowiki>}}'''algebra lineare''' è la branca della [[matematica]] che si occupa dello studio dei [[vettore (matematica)|vettori]], [[spazio vettoriale|spazi vettoriali]] (o spazi lineari), [[trasformazione lineare|trasformazioni lineari]] e [[sistema di equazioni lineari|sistemi di equazioni lineari]]. Gli spazi vettoriali sono un tema centrale nella [[matematica]] moderna; l'algebra lineare è usata ampiamente nell'[[algebra astratta]], nella [[geometria]] e nell'[[analisi funzionale]]. L'algebra lineare ha inoltre una rappresentazione concreta nella [[geometria analitica]].
 
Con l'algebra lineare si studiano completamente tutti i fenomeni [[fisica|fisici]] "lineari", cioè quelli in cui intuitivamente non entrano in gioco [[distorsione (fisica)|distorsioni]], turbolenze e fenomeni [[teoria del caos|caotici]] in generale. Anche fenomeni più complessi, non solo della fisica ma anche delle [[scienze naturali]] e [[scienze sociali|sociali]], possono essere studiati e ricondotti con le dovute approssimazioni a un modello lineare.
Riga 23:
== Storia ==
 
La storia dell'algebra lineare moderna inizia neglifra anniil [[1843]] e il [[1844]]. Nel 1843, [[William Rowan Hamilton]] (che ha introdotto il termine ''vettore'') inventò i [[quaternione|quaternioni]]. Nel 1844, [[Hermann Grassmann]] pubblicò il suo libro ''[[Die lineale Ausdehnungslehre]].''. [[Arthur Cayley]] introdusse le [[matrice (matematica)Matrice|matrici]] (2×2), una delle idee fondamentali dell'algebra lineare, nel [[1857]].
 
== Introduzione elementare ==
[[File:Vector space illust.svg|thumb|Uno spazio vettoriale è una collezione di oggetti, chiamati "vettori", che possono essere sommati e riscalati.]]
L'algebra lineare ha le sue origini nello studio dei vettori negli spazi [[coordinate cartesiane|cartesiani]] a due e a tre dimensioni. Un vettore, in questo caso, è un [[segmento]] orientato, caratterizzato da lunghezza (o magnitudine), direzione e verso. I vettori possono essere usati per rappresentare determinate entità fisiche come le [[forza|forze]], e possono essere sommati fra loro e moltiplicati per uno [[Scalare (matematica)|scalare]], formando quindi il primo esempio di [[spazio vettoriale]] sui [[numero reale|reali]].
 
L'algebra lineare moderna è stata estesa per comprendere spazi di dimensione arbitraria o infinita. Uno spazio vettoriale di dimensione ''n'' è chiamato ''n''-spazio. Molti dei risultati utili nel 2-spazio e nel 3-spazio possono essere estesi agli spazi di dimensione maggiore. Anche se molte persone non sanno visualizzare facilmente i vettori negli ''n''-spazi, questi vettori o [[n-upla|n-uple]] sono utili per rappresentare dati. Poiché i vettori, come ''n''-uple, sono liste ''ordinate'' di ''n'' componenti, molte persone comprendono e manipolano i dati efficientemente in questa struttura.
Riga 36:
L'insieme di tutte queste trasformazioni è anch'esso uno spazio vettoriale.
Se è fissata una [[base (algebra lineare)|base]] per uno spazio vettoriale, ogni trasformazione lineare può essere rappresentata da una tabella chiamata [[matrice (matematica)|matrice]].
Nell'algebra lineare si studiano quindi le proprietà delle matrici, e gli [[algoritmo|algoritmi]] per calcolare delle quantità importanti che le caratterizzano, quali il [[rango (algebra lineare)|rango]], il [[Determinante (algebra)|determinante]] e l'insieme dei suoi [[autovalore|autovalori]].
 
Uno spazio vettoriale (o spazio lineare), come concetto puramente astratto sul quale si provano [[teorema|teoremi]], è parte dell'[[algebra]] astratta, e ben integrato in questo campo: alcuni oggetti algebrici correlati ad esempio sono l'[[anello (algebra)|anello]] delle [[applicazione lineare|mappe lineari]] da uno spazio vettoriale in sé, o il [[gruppo (matematica)|gruppo]] delle [[applicazione lineare|mappe lineari]] (o [[matrice (matematica)|matrici]]) invertibili.
L'algebra lineare gioca anche un ruolo importante in [[analisi matematica|analisi]], specialmente nella descrizione delle [[derivata|derivate]] di ordine superiore nell'analisi vettoriale e nella risoluzione delle [[equazione differenziale|equazioni differenziali]].
 
Concludendo, si può dire semplicemente che i problemi lineari della matematica - quelli che esibiscono "linearità" nel loro comportamento - sono quelli più facili da risolvere, e che i problemi "non lineari" vengono spesso studiati approssimandoli con situazioni lineari. Ad esempio nell'[[analisi matematica|analisi]], la [[derivata]] è un primo tentativo di [[approssimazione lineare]] di una funzione. La differenza rispetto ai problemi non lineari è molto importante in pratica: il metodo generale di trovare una formulazione lineare di un problema, in termini di algebra lineare, e risolverlo, se necessario con calcoli matriciali, è uno dei metodi più generali applicabili in matematica.
 
== Nozioni di base ==
Riga 47:
{{vedi anche|Spazio vettoriale}}
[[File:Scalar multiplication of vectors.svg|thumb|Un vettore <math>a</math> può essere riscalato, cioè moltiplicato per un numero. Qui sono mostrati i vettori <math>2a</math> e <math>-a</math>, ottenuti moltiplicando <math>a</math> rispettivamente per 2 e -1.]]
La nozione più importante in algebra lineare è quella di [[spazio vettoriale]]. Uno spazio vettoriale è un insieme <math>V</math> di elementi, detti ''vettori'', aventi delle proprietà che li rendono simili ai vettori applicati in un punto fissato (l{{'}}''origine'') del piano o dello spazio.
 
Più precisamente, sono definite su <math>V</math> un paio di [[operazione binaria|operazioni binarie]]:<ref>{{Cita libro|nome=Gatto,|cognome=Letterio.|titolo=Lezioni di algebra lineare e geometria per l'ingegneria : i veri appunti del corso|url=https://worldcat.org/oclc/956082822|accesso=19 marzo 2019|data=2013|editore=CLUT|oclc=956082822|ISBN=9788879923439}}</ref>
* due vettori <math>v</math> e <math>w</math> possono essere ''sommati'', dando così luogo ad un nuovo vettore <math>v+w</math>,
* un vettore <math>v</math> può essere ''riscalato'', cioè moltiplicato per un numero <math>k</math>, dando così luogo ad un nuovo vettore <math>kv</math>.
 
[[File:Vector* addition3.svg|thumb|left|Duedue vettori <math>v</math> e <math>w</math> possono essere sommati, usandodando lacosì luogo ad un nuovo vettore <math>v+w</math>. Le proprietà della somma vettoriale sono ''[[regolaassociatività]], del[[commutatività]], parallelogrammaesistenza dell'[[elemento neutro]]., esistenza dell'[[elemento inverso]]'';
Il* numeroun vettore <math>kv</math> (dettopuò ''scalare'')essere appartieneriscalato, adcioè unmoltiplicato per uno [[campoScalare (matematica)|camposcalare]], checioè vieneun fissatonumero fin<math>k</math>, dall'inizio:dando questocosì può essereluogo ad esempioun ilnuovo campovettore <math>\Rkv</math>. deile [[numeriproprietà reali]]della omoltiplicazione ilper camposcalare <math>\mathbbsono C</math>''associatività, deiesistenza [[numeridi complessi]].un neutro;''
*la somma vettoriale è ''[[Distributività|distributiva]] rispetto al prodotto'', mentre il prodotto è ''distributivo rispetto alla somma.''
 
*[[File:Vector dueaddition3.svg|thumb|left|Due vettori <math>v</math> e <math>w</math> possono essere ''sommati'', dandousando cosìla luogo[[regola addel un nuovo vettore <math>v+w</math>,parallelogramma]].]]
Le due operazioni devono soddisfare una lunga lista di [[assioma (matematica)|assiomi]]. Ad esempio, la somma fra vettori deve essere [[proprietà associativa|associativa]] e [[proprietà commutativa|commutativa]]. Deve inoltre esistere un [[elemento neutro]] per la somma, ovvero un particolare vettore, chiamato ''origine'', ''vettore nullo'', O oppure 0, tale che <math>0+v = v</math> per ogni vettore <math>v</math>.
Il numero <math>k</math> (detto ''[[Scalare (matematica)|scalare]]'') appartiene ad un [[campo (matematica)|campo]] che viene fissato fin dall'inizio: questo può essere ad esempio il campo <math>\R</math> dei [[numeri reali]] o il campo <math>\mathbb C</math> dei [[numeri complessi]].
 
Il [[piano cartesiano]] è l'esempio fondamentale di spazio vettoriale. Ogni punto del piano è in realtà identificato univocamente come una coppia <math>(x,y)</math> di numeri reali. L'origine è il punto <math>(0,0)</math>. Il punto <math>(x,y)</math> può essere interpretato alternativamente come punto del piano o come vettore applicato nell'origine che parte da <math>(0,0)</math> e arriva in <math>(x,y)</math>.
Riga 67:
{{vedi anche|Trasformazione lineare}}
[[File:Rotation illustration2.svg|thumb|Una [[rotazione]] del [[piano cartesiano]] centrata nell'origine (0,0) è una trasformazione lineare.]]
Una Un'[[applicazione lineare]] è una [[funzione (matematica)|funzione]] fra due spazi vettoriali
:<math>f:V\to W</math>
che sia compatibile con le operazioni definite su entrambi. Devono cioè valere le proprietà seguenti:
:<math>f(v+w) = f(v)+f(w)</math>
:<math>f(kv) = kf(v).</math>
per ogni coppia di vettori <math>v,w</math> in <math>V</math> e ogni scalare <math>k</math>. I termini "applicazione", "funzione", "trasformazione", "mappa" e "[[omomorfismo]]" sono in questo contesto tutti sinonimi. Il termine "lineare" sta a indicare la compatibilità con le operazioni. Un'applicazione lineare manda necessariamente l'origine (di <math>V</math>) nell'origine (di <math>W</math>):
:<math>f(0) = 0.</math>
 
Riga 101:
{{vedi anche|Prodotto scalare}}
[[File:Scalarproduct.gif|thumb|Il prodotto scalare euclideo nel piano fra due vettori <math>A</math> e <math>B</math> è definito come il prodotto delle lunghezze di <math>B</math> e della proiezione di <math>A</math> su <math>B</math>. Esistono però molti altri modi utili di definire un prodotto scalare, in spazi di dimensione arbitraria.]]
Due vettori <math>v</math> e <math>w</math> di uno spazio vettoriale possono essere ''sommati'': il risultato è un vettore <math>v+w</math>. Inoltre un vettore <math> v</math> e uno scalare <math>k</math> possono essere ''moltiplicati'': il risultato è un vettore <math>kv</math>. Nella definizione di spazio vettoriale non è però prevista una un'operazione di prodotto fra due vettori.
 
In alcuni contesti è però utile aggiungere una un'ulteriore [[operazione binaria]] fra vettori, che si comporti come un prodotto. Il risultato di questo prodotto può essere a sua volta un vettore o uno scalare. Nel primo caso, questa operazione si chiama [[prodotto vettoriale]], e nel secondo [[prodotto scalare]]. L'operazione di prodotto vettoriale risulta però interessante solo in dimensione tre, mentre i prodotti scalari esistono (e sono utili) in tutte le dimensioni: per questo motivo questi ultimi sono molto più studiati.
 
Nella definizione di spazio vettoriale non è inoltre neppure prevista una nozione di ''lunghezza'' (equivalentemente, ''norma'') per i vettori, né di ''angolo'' fra due di questi. Entrambe le nozioni di lunghezza e angolo risultano però definite se è fissato un opportuno prodotto scalare.<ref>Più precisamente, questo accade per uno spazio vettoriale reale dotato di un [[prodotto scalare definito positivo]].</ref>
Riga 116:
L'algebra lineare fornisce molti [[algoritmo|algoritmi]] per determinare le soluzioni di un sistema lineare. Il legame fra i sistemi di equazioni e l'algebra lineare sta nel fatto che la matrice <math>A</math> può essere interpretata come applicazione lineare da <math>\R^n</math> in <math>\R^k</math>: secondo questa interpretazione, le soluzioni <math>x</math> sono esattamente le [[controimmagine|controimmagini]] di <math>b</math>.
 
Il [[teorema di Rouché-Capelli]] fornisce un metodo per contare le soluzioni, senza necessariamente determinarle completamente.<ref>Lo spazio delle soluzioni di un sistema è uno [[spazio affine]], ed il teorema di Rouché-Capelli fornisce un metodo per calcolarne la dimensione. Il numero di soluzioni può essere solo 0, 1 o infinito.</ref> Nel caso in cui il sistema sia quadrato e abbia una sola soluzione, questa può essere scritta esplicitamente usando la [[regola di Cramer]]. Però tale soluzione teorica è praticamente utilizzabile solo per risolvere sistemi molto piccoli.<ref>[[Regola di Cramer#Problemi nell.27applicazione|Problemi computazionali che limitano l'uso della Regola di Cramer]]</ref> Mentre i metodi di eliminazione (es. [[metodo di eliminazione di Gauss|Gauss]]) e quelli iterativi (es. [[Metodo di Gauss-Seidel|Gauss-Seidel]]) consentono di calcolare effettivamente le soluzioni di un sistema lineare, anche di grandi dimensioni.
 
=== Geometria analitica ===
[[File:Parallel Lines.svg|thumb|left|Una retta nel [[piano cartesiano]] è descritta da una un'equazione lineare del tipo <math>ax+by+c=0</math>. Due rette distinte sono parallele se il sistema formato dalle loro due equazioni non ha soluzione.]]
[[File:Secretsharing-3-point.png|thumb|Tre piani nello spazio possono avere varie configurazioni differenti: in questo caso si intersecano in un punto. Ciascun piano è descritto da una un'equazione. Il punto di intersezione è ottenuto come soluzione di un sistema con 3 equazioni e 3 variabili.]]
In [[geometria analitica]] una retta o un piano sono descritti da sistemi di equazioni lineari: come si è appena visto, questi possono essere agevolmente studiati con gli strumenti dell'algebra lineare. Si possono quindi affrontare problemi quali le posizioni reciproche di due rette (o piani) nello spazio (che possono essere incidenti, paralleli o sghembi), e come queste variano per trasformazioni lineari.
 
Riga 131:
 
=== Analisi funzionale ===
Molti problemi dell'[[analisi funzionale]], quali la ricerca di una soluzione per una un'[[equazione differenziale]], vengono affrontati analizzando un particolare [[spazio di funzioni]]. Uno spazio di funzioni è uno [[spazio vettoriale]] i cui elementi sono funzioni di un certo tipo (ad esempio continue, integrabili, derivabili... definite su un dominio fissato). Spazi di questo tipo sono generalmente di dimensione infinita, e sono dotati di alcune strutture aggiuntive, quali ad esempio un [[prodotto scalare]] (negli [[spazio di Hilbert|spazi di Hilbert]]), una [[norma (matematica)|norma]] (negli [[spazio di Banach|spazi di Banach]]) o una più generale [[spazio topologico|topologia]] (negli [[spazio vettoriale topologico|spazi vettoriali topologici]]).
 
Esempi di spazi di funzioni includono gli [[spazio Lp|spazi Lp]] e gli [[spazio di Sobolev|spazi di Sobolev]].
Riga 137:
=== Meccanica quantistica ===
[[File:HAtomOrbitals.png|thumb|Le [[funzione d'onda|funzioni d'onda]] associate agli stati di un [[elettrone]] in un [[atomo di idrogeno]] sono gli [[autovettore|autovettori]] di alcuni particolari [[operatore autoaggiunto|operatori autoaggiunti]] usati in meccanica quantistica.]]
La [[meccanica quantistica]] fa ampio uso dei teoremi più avanzati dell'algebra lineare. Il [[modello matematico]] usato in questo settore della fisica (formalizzato principalmente da [[Paul Dirac]] e [[John Von Neumann]]) descrive i possibili stati di un sistema quantistico come elementi di un particolare [[spazio di Hilbert]] e le grandezze osservabili (quali posizione, velocità, etc.) come [[operatore autoaggiunto|operatori autoaggiunti]]. I valori che possono assumere queste grandezze quando vengono effettivamente misurate sono gli [[autovalore|autovalori]] dell'operatore.
 
L'introduzione e l'uso di questi concetti matematici non banali nella fisica quantistica è stato uno dei maggiori stimoli allo sviluppo dell'algebra lineare nel [[XX secolo]].
Riga 154:
=== Eliminazione di Gauss ===
{{vedi anche|Eliminazione di Gauss}}
L'[[eliminazione di Gauss]] è un algoritmo che consente di ridurre una matrice in una forma più semplice tramite opportune mosse sulle righe. Questo algoritmo è usato principalmente per determinare le soluzioni di un sistema di equazioni lineari, ma ha anche applicazioni più interne all'algebra lineare: con l'eliminazione di Gauss si può determinare il [[rango (algebra lineare)|rango]], il [[Determinante (algebra)|determinante]] o l'[[matrice inversa|inversa]] di una matrice, si può estrarre una base da un [[insieme di generatori]].
 
=== Determinante ===
{{vedi anche|Determinante (algebra)}}
[[File:Determinant Example.png|thumb|left|upright=1.4|Una [[trasformazione lineare]] del [[piano cartesiano]] descritta da una [[matrice quadrata]] <math>2\times 2</math>. Il determinante della matrice fornisce delle informazioni sulla trasformazione: il [[valore assoluto]] descrive il cambiamento di area, mentre il segno descrive il cambiamento di [[orientazione]]. Nell'esempio qui riportato, la matrice ha determinante -1: quindi la trasformazione preserva le aree (un [[Quadrato (geometria)|quadrato]] di area 1 si trasforma in un [[parallelogramma]] di area 1) ma inverte l'orientazione del piano (cambia il verso della freccia circolare).]]
 
Il [[Determinante (algebra)|determinante]] è un numero associato ad una [[matrice quadrata]] <math>A</math>, generalmente indicato come <math>\det A</math>. Da un punto di vista algebrico, il determinante è importante perché vale zero precisamente quando la matrice non è [[matrice invertibile|invertibile]]; quando non è zero, fornisce inoltre un metodo per descrivere la [[matrice inversa]] tramite la [[regola di Cramer]].
 
Da un punto di vista geometrico, il determinante fornisce molte informazioni sulla trasformazione associata ad <math>A</math>: il suo segno (sui numeri reali) indica se la trasformazione mantiene l'[[orientazione]] dello spazio, ed il suo [[valore assoluto]] indica come cambiano le aree degli oggetti dopo la trasformazione.
 
=== Autovalori e autovettori ===
{{vedi anche|AutovaloreAutovettore e autovettoreautovalore}}
[[File:Eigen.jpg|thumb|upright=1.2|In questa trasformazione lineare della [[Gioconda]], l'immagine è modificata ma l'asse centrale verticale rimane fisso. Il vettore blu ha cambiato lievemente direzione, mentre quello rosso no. Quindi il vettore rosso è un autovettore della trasformazione e quello blu no.]]
Per caratterizzare un endomorfismo è utile studiare alcuni vettori, chiamati [[autovettore|autovettori]]. Geometricamente, un autovettore è un vettore che non cambia direzione. Da un punto di vista algebrico, si tratta di un vettore <math>v</math> tale che
Riga 193:
=== Teorema della dimensione ===
{{vedi anche|Teorema della dimensione}}
Il [[teorema della dimensione]] (o ''del rango,'' o anche ''di nullità più rango'') è un teorema che mette in relazione le dimensioni del [[nucleo (matematica)|nucleo]] e dell'[[immagine (matematica)|immagine]] di un'applicazione lineare <math>f</math>, secondo la formula:
:<math>\dim \operatorname{Im}(f) + \dim \operatorname{Ker}(f) = n. </math>
Qui Im e Ker denotano immagine e nucleo, mentre <math>n</math> è la dimensione del [[dominio (matematica)|dominio]] di <math>f</math>. Questo risultato è anche chiamato ''teorema del rango'', perché tradotto nel linguaggio delle matrici assume la forma seguente:
Riga 230:
 
== Bibliografia ==
* {{en}}Ciro [[Serge Lang]]Ciliberto (20021994): ''Algebra. Revised 3rd editionlineare'', Springer, ISBN 0-387-95385-XBoringhieri
* [[Serge Lang]] (2014): ''Algebra lineare'', Boringhieri
* {{en}} [[Steven Roman]] (1992): ''Advanced linear algebra'', Springer, ISBN 0-387-97837-2
* {{Cita libro|lingua=en}}|cognome= de Boor,|nome= Carl, [|url=http://digital.library.wisc.edu/1793/11635 |titolo=Applied Linear Algebra],|editore= (University of Wisconsin-Madison,|anno= 2002).}}
* {{en}} Rife, Susan A, [http://handle.dtic.mil/100.2/ADA316035 Matrix Algebra.] (Naval Postgraduate School, Monterey, California, 1996)
* {{en}} Delatorre, Anthony R. e Cooke, William K., [http://handle.dtic.mil/100.2/ADA350689 Matrix Algebra.] (Naval Postgraduate School, Monterey, California, 1998)
* {{Cita libro|lingua=en}}|cognome= Beezer,|nome= Rob, [|url=http://linear.ups.edu/index.html |titolo=''A First Course in Linear Algebra''], licenza [[GNU Free Documentation License|GFDL]].}}
* {{Cita libro|lingua=en}}|autore= J. H. M. Wedderburn ''[|url=http://www.ams.org/online_bks/coll17/ |titolo=Lectures on Matrices]''|urlarchivio=https://web.archive.org/web/20061206040234/http://www.ams.org/online_bks/coll17/ (|editore=American Mathematical Society,|città= Providence,|anno= 1934)| ISBN= 0-8218-3204-2}}
* {{Cita libro|lingua=en}}|cognome= Fearnley-Sander,|nome= Desmond, [|url=http://matrix.skku.ac.kr/nla/main/CreationLA.pdf |titolo=Hermann Grassmann and the Creation of Linear Algebra],|editore= American Mathematical Monthly '''86''' (|anno=1979), |pp.&nbsp;809&nbsp;– 817.=809–817}}
* {{Cita libro|lingua=en}}|cognome= Grassmann,|nome= Hermann, ''[|url=http://books.google.com/books?id=bKgAAAAAMAAJ |titolo=Die lineale Ausdehnungslehre ein neuer Zweig der Mathematik: dargestellt und durch Anwendungen auf die übrigen Zweige der Mathematik, wie auch auf die Statik, Mechanik, die Lehre vom Magnetismus und die Krystallonomie erläutert]'',||editore= O. Wigand,|città= Leipzig,|anno= 1844.}}
* {{Cita libro|lingua=en}}|autore= [[Igor' Rostislavovič Šafarevič|Shafarevich, Igor R.]], Remizov,e Alexey O. ''[httpRemizov|url=https://www.springer.com/mathematics/algebra/book/978-3-642-30993-9 |titolo=Linear Algebra and Geometry]'',|editore= Springer,|anno= 2012,| ISBN= 978-3-642-30993-9}}
 
== Voci correlate ==
Riga 245 ⟶ 246:
* [[Autovalore e autovettore]]
* [[Base (algebra lineare)]]
* [[Determinante (algebra)|Determinante]]
* [[Dimensione (spazio vettoriale)]]
* [[Eliminazione di Gauss]]
Riga 261 ⟶ 262:
 
== Altri progetti ==
{{interprogetto|v=Materia:Algebra lineare|commons=Category:Linear algebra|wikt|preposizione=sull'}}
 
== Collegamenti esterni ==
* {{Collegamenti esterni}}
* {{Cita web|lingua=en}} [|url=http://www.math.odu.edu/~bogacki/lat/ |titolo=Linear Algebra Toolkit].}}
* {{springerEOM|titolo=Linear algebra|autore= I.V. Proskuryakov}}
* {{Cita web|lingua=en}} [|url=http://www.algebra.com/algebra/college/linear/ |titolo=Linear Algebra Workbench]|postscript=nessuno}}: moltiplica e inverte matrici, risolve sistemi, trova autovalori, ecc.
* {{en}} [http://www.math.odu.edu/~bogacki/lat/ Linear Algebra Toolkit].
* {{en}} [http://www.algebra.com/algebra/college/linear/ Linear Algebra Workbench]: moltiplica e inverte matrici, risolve sistemi, trova autovalori, ecc.
* {{en}} [http://mathworld.wolfram.com/topics/LinearAlgebra.html Linear Algebra] su [[MathWorld]].
* [http://www.treccani.it/enciclopedia/algebra-lineare_%28Enciclopedia-Italiana%29/]
 
{{Geometria}}
{{algebra lineare}}
{{Aree della matematica}}
{{Geometria}}
{{Controllo di autorità}}
{{Portale|matematica}}