Controllo automatico: differenze tra le versioni
Contenuto cancellato Contenuto aggiunto
Aggiungi 1 libro per la Wikipedia:Verificabilità (20211010)) #IABot (v2.0.8.2) (GreenC bot |
m Bot: numeri di pagina nei template citazione |
||
(12 versioni intermedie di 10 utenti non mostrate) | |||
Riga 7:
Il controllo automatico di un sistema è possibile solo se il sistema stesso è raggiungibile e [[Osservabilità|osservabile]], cioè se è possibile sia portarlo in un dato stato interno agendo sui suoi ingressi sia risalire allo stato attuale del sistema basandosi sulle sue uscite.
==
[[File:Boulton and Watt centrifugal governor-MJ.jpg|thumb|left|[[Regolatore centrifugo]] in un motore del 1788 di Boulton e Watt.]]
Il primo esempio di applicazione della teoria dei controlli è dato dal [[
| autore = Maxwell, J.C.
| anno = 1867
Riga 16:
| rivista = Proceedings of the Royal Society of London
| volume = 16
| pp =
| url = https://links.jstor.org/sici?sici=0370-1662(1867%2F1868)16%3C270%3AOG%3E2.0.CO%3B2-1
| accesso=14 aprile 2008
Riga 58:
{{vedi anche|Analisi dei sistemi dinamici}}
La
Il controllo può avvenire solo in un regime temporale. Spesso lo studio matematico con [[Modello matematico|modelli matematici]] nel [[Dominio (matematica)|dominio]] del tempo diventa molto difficile, causa la necessità di risolvere [[equazione differenziale|equazioni differenziali]]. Quindi attraverso delle trasformazioni, le
===Ingressi e uscite===
Ogni sistema può avere uno o più ingressi e una o più uscite. Con il termine
Ad ogni variazione delle variabili in ingresso segue una determinata risposta del sistema, ovvero un certo comportamento di altre variabili all'uscita. Le variazioni delle variabili in ingresso più comuni sono: l'[[Delta di Dirac|impulso di Dirac]], il [[variazione a gradino|gradino]], la [[variazione a rampa|rampa]] e la [[sinusoide]]).
Riga 77:
</div>
Le
*
*
Tra le
*
*
La misura diretta delle variabili da controllare viene detta
===Controllo ad anello aperto===
Riga 92:
Un sistema automatico di controllo può funzionare essenzialmente in due modi: come ''controllo ad anello aperto'' o come ''controllo in retroazione''.
Il
In questo caso è fondamentale avere un buon modello matematico che descriva con buona precisione il comportamento del sistema. Tanto più il modello matematico su cui si basa l'azione del controllo feedforward è esatto, tanto più questo tipo di controllo è affidabile.
Riga 98:
I motori elettrici della maggior parte dei ventilatori oggi in vendita sono controllati mediante un sistema di asservimento di questo tipo.
===Controllo ad anello chiuso (
{{vedi anche|Retroazione}}
[[File:Controlloretro.gif|right|Schema del controllo in retroazione]]
Il
In questo caso l'anello di controllo riporta all'ingresso del processo che si vuole controllare o rendere stabile una funzione dell'uscita che va sommata algebricamente al segnale già presente in ingresso.
Riga 115:
===Controllo in retroazione di sistemi L.T.I. e L.I.T.===
Ogni blocco componente di un
* dalla cascata di controllore <math>C(s)</math> o <math>C(z)</math> e processo <math>P(s)</math> o <math>P(z)</math> il cui ingresso è l'errore <math>E(s)</math> o <math>E(z)</math> tra riferimento <math>R(s)</math> o <math>R(z)</math> e uscita del processo <math>Y(s)</math> o <math>Y(z)</math>; le funzioni [[analisi complessa|complesse]] in ''s'' o in ''z'' sono rispettivamente le trasformate di Laplace o Zeta dei sistemi che rappresentano i blocchi e le trasformate di Laplace o Zeta dei segnali in ingresso e in uscita ai blocchi stessi.
* dal processo <math>P(s)</math> o <math>P(z)</math> la cui uscita <math>Y(s)</math> o <math>Y(z)</math> è prelevata da un [[compensatore dinamico]] <math>C(s)</math> (o <math>C(z)</math>) ottenuto come sintesi di un [[osservatore dello stato]] e di un [[controllo in retroazione dallo stato]], per esempio il [[regolatore lineare quadratico]], che genera l'ingresso di controllo <math>U(s)</math> o <math>U(z)</math> che si somma al riferimento <math>R(s)</math> o <math>R(z)</math>.
Le posizioni nel [[piano complesso]] dei [[Polo (analisi complessa)|poli]] e degli zeri della funzione di trasferimento determinano i [[modi di risposta]] e in particolare la [[Stabilità (teoria dei sistemi)|stabilità]] del sistema. Nei
Due proprietà fondamentali dei sistemi LTI sono la
Esistono differenti tipi di controllori. Le prime tecnologie di controllori si basavano essenzialmente su circuiti analogici (
== Componenti di un sistema di controllo ==
Riga 145:
=== Controllo ''sliding mode'' ===
{{vedi anche | Controllo sliding mode}}
Può essere considerato come una estensione del controllo on/off utilizzato per la regolazione della temperatura di caldaie e frigoriferi. Sfruttando la teoria di [[stabilità secondo Lyapunov]] e la possibilità di applicare segnali di controllo in alta frequenza, permette di ottenere controllori semplici ed estremamente robusti. Il limite principale è rappresentato dalla frequenza massima del segnale di controllo e dalla presenza di oscillazioni sull'uscita, note come ''chatter''. Tuttavia la teoria alla base del
=== Controllo adattativo ===
{{vedi anche| Controllo adattativo}}
In questa categoria rientrano gli algoritmi di controllo con capacità di adattarsi ai cambiamenti delle condizioni di funzionamento del sistema da controllare.<ref name=sap/> Esistono diverse forme di adattabilità che vanno dalla modifica dei parametri di controllo lungo opportune curve (''[[gain scheduling]]'') alla possibilità di cambiare completamente o parzialmente la struttura del controllore. Rispetto alle soluzioni di controllo che non prevedono una variabilità nei parametri o nella struttura, scontano un maggiore peso computazionale che ne rende difficile l'implementazione su hardware commerciale, ma offrono come contropartita migliori prestazioni e una maggiore robustezza.
=== Controllo ottimo ===
Riga 155:
Il [[controllo ottimo]] si prefigge di stabilizzare il [[sistema dinamico]] tramite l'ottimizzazione di una funzione di costo <math>J(x,u)</math>, dove per <math>x</math> si intende lo stato del sistema e per u il controllo generato da un opportuno controllore ottenuto a seguito della minimizzazione. Minimizzando la funzione di costo <math>J</math> e manipolando opportuni parametri si riesce ad ottenere un controllore che rende la dinamica del controllo grande e veloce o piccola e lenta. Minimizzare <math>J</math> significa far tendere <math>x</math> a zero, ovvero stabilizzarlo, in tempo finito o infinito e di conseguenza anche <math>u</math> che è un controllo in retroazione dallo stato, quindi un'opportuna combinazione lineare delle variabili di stato. Il controllo ottimo è efficace sotto ipotesi di controllabilità e di osservabilità del sistema. Se il sistema è osservabile, cioè se lo stato <math>x</math> va stimato, è necessario un osservatore anch'esso ottimo: il [[filtro di Kalman]].
La teoria sviluppata per il
=== Controllo robusto ===
Riga 162:
È una soluzione di controllo che permette di imporre sia le prestazioni nominali, sia le prestazioni robuste sotto ipotesi di incertezze parametriche sul modello del sistema. Valido solo per sistemi lineari, giunge alla definizione di una serie di vincoli che il controllore deve garantire. {{Chiarire| In tal senso non è una soluzione di controllo robusta per natura (come il Controllo sliding mode), ma semplicemente un'imposizione di vincoli su un controllore in retroazione di stato.}}
Nel caso lineare
=== Controllo deadbeat ===
Riga 172:
;<nowiki>Strutture di controllo:</nowiki>
:*
:*
:*
:*
;<nowiki>Tipi di controllo:</nowiki>
:*
:*
:*
:*
:*
== Applicazioni ==
Riga 218:
* {{Cita libro | lingua=en| autore= Vannevar Bush | titolo= Operational Circuit Analysis | editore= John Wiley and Sons, Inc. | anno= 1929 }}
* {{Cita libro | lingua=en| autore= Robert F. Stengel | titolo= Optimal Control and Estimation | editore= Dover Publications | anno= 1994 | ISBN= 0-486-68200-5 }}
* {{Cita libro |lingua=en |cognome=Franklin et al. |nome= |titolo=Feedback Control of Dynamic Systems |url=https://archive.org/details/feedbackcontrolo0000fran_t1l4 |edizione=4 |data= |anno=2002 |editore=Prentice Hall |città=New Jersey |ISBN=0-13-032393-4 }}
* {{Cita libro |lingua=en | autore= Joseph L. Hellerstein, Dawn M. Tilbury, and Sujay Parekh | titolo= Feedback Control of Computing Systems |url=https://archive.org/details/feedbackcontrolo0000unse_k1n9 | editore= John Wiley and Sons | anno= 2004 | ISBN= 0-471-26637-X }}
* {{Cita libro |lingua=en | autore= [[Diederich Hinrichsen]] e Anthony J. Pritchard | titolo= Mathematical Systems Theory I - Modelling, State Space Analysis, Stability and Robustness |url=https://archive.org/details/mathematicalsyst0000hinr | editore= Springer | anno= 2005 | ISBN= 978-3-540-44125-0 }}
* {{Cita pubblicazione |lingua=en |autore= Andrei, Neculai |titolo= Modern Control Theory - A historical Perspective |data= 2005 |url= http://www.ici.ro/camo/neculai/history.pdf |urlmorto= sì |urlarchivio= https://web.archive.org/web/20081217010039/http://www.ici.ro/camo/neculai/history.pdf |dataarchivio= 17 dicembre 2008 }}
* {{Cita libro |lingua=en | cognome = Sontag | nome = Eduardo | wkautore = Eduardo D. Sontag | anno = 1998 | titolo = Mathematical Control Theory: Deterministic Finite Dimensional Systems. Second Edition | editore = Springer | ISBN = 0-387-98489-5 }}
Riga 256:
== Altri progetti ==
{{interprogetto|
==Collegamenti esterni==
|