Controllo automatico: differenze tra le versioni

Contenuto cancellato Contenuto aggiunto
Nessun oggetto della modifica
FrescoBot (discussione | contributi)
m Bot: numeri di pagina nei template citazione
 
(24 versioni intermedie di 16 utenti non mostrate)
Riga 1:
IlIn [[scienza dell'''controlloautomazione]], diil tipo'''controllo '''''[[automa]]tico''automatico''' di un dato [[sistema dinamico]] è(ad esempio un tipo[[motore]], diun previsione[[impianto eindustriale]] modificao deluna [[comportamentofunzione biologica]] delcome sistemail che[[cuore|battito hacardiaco]]) losi scopoprefigge di otteneremodificare deiil risultati[[comportamento]] del sistema da controllare (ovvero delle sue "uscite") attraverso la manipolazione di opportuniopportune [[Input|datiGrandezza in ingressofisica|grandezze]] o d'[[alimentazioneInput|ingresso]].
Viene studiato dalla [[scienza dell'automazione]].
 
SiIn parteparticolare, conpuò lo studio di come ottenererichiedersi che il risultatol'uscita rimanga costante suad un valore prefissato al variare dell'ingresso (controllo semplice o '''[[regolazione]]'''<ref name="sap">[http://www.sapere.it/enciclopedia/contr%C3%B2llo+autom%C3%A0tico.html sapere.it - contròllo automàtico]</ref>) oppure segua fedelmente la dinamica dell'ingresso stesso ([[sistema di asservimento]] o comando<ref name="sap" />) a meno di amplificazioni e ritardi.
 
Il controllo del sistema in esame viene affidato ad un altro sistema costruito appositamente, detto "sistema controllante" o "'''sistema di controllo'''", che viene progettato dopo uno studio preliminare del sistema da controllare per individuarne un [[modello matematico]] sufficientemente preciso servendosi degli strumenti messi a punto dalla [[teoria dei sistemi]].
 
Il controllo automatico di un sistema presupponeè chepossibile essosolo siase il sistema stesso è '''[[Raggiungibilità|raggiungibile]]''' e '''[[Osservabilità|osservabile]]''':, cioè devese essereè possibile potersia influireportarlo sullain condizioneun internadato delstato sistema (il suo ''stato'')interno agendo sui suoi ingressi, sia risalire allaallo condizionestato inattuale cui si trova ildel sistema conoscendobasandosi isulle prodottisue del sistemauscite.
 
==Cenni storiciStoria ==
[[File:Boulton and Watt centrifugal governor-MJ.jpg|thumb|left|[[Regolatore centrifugo]] in un motore del 1788 di Boulton e Watt.]]
 
Il primo esempio di applicazione della teoria dei controlli è dato dal [[Regolatoreregolatore centrifugo]] sul quale [[James Clerk Maxwell]] affrontò uno studio di analisi dinamica nel suo scritto del [[1868]] intitolato ''On Governors''.<ref name=Maxwell1867>{{Cita pubblicazione
| autore = Maxwell, J.C.
| anno = 1867
Line 17 ⟶ 16:
| rivista = Proceedings of the Royal Society of London
| volume = 16
| pp = 270–283270-283
| url = https://links.jstor.org/sici?sici=0370-1662(1867%2F1868)16%3C270%3AOG%3E2.0.CO%3B2-1
| accesso=14 aprile 2008
Line 35 ⟶ 34:
| anno = 1877
| titolo = A Treatise on the Stability of a Given State of Motion, Particularly Steady Motion: Particularly Steady Motion
| url = https://archive.org/details/atreatiseonstab00routgoog
| editore = Macmillan and co.
| id=ISBN
Riga 58:
{{vedi anche|Analisi dei sistemi dinamici}}
 
La '''teoria dei controlli''' è quella branca della [[scienza]] ed [[ingegneria]] che studia il comportamento di un [[Sistema (fisica)|sistema]] le cui grandezze siano soggette a variazioni nel [[tempo]]. Questa scienza, che ha un vastissimo campo di applicazione, è nata nell'ambito dell'[[elettronica]] [[industria]]le e dell'automazione.
 
Il controllo può avvenire solo in un regime temporale. Spesso lo studio matematico con [[Modello matematico|modelli matematici]] nel [[Dominio (matematica)|dominio]] del tempo diventa molto difficile, causa la necessità di risolvere [[equazione differenziale|equazioni differenziali]]. Quindi attraverso delle trasformazioni, le ''trasformate'' di cui le più famose sono quelle di [[Trasformata di Fourier|Fourier]] e quelle di [[Trasformata di Laplace|Laplace]], si studia lo stesso sistema con tecniche di tipo [[algebra|algebrico]] nel ''dominio della frequenza'' e una volta ottenuto il risultato si antitrasforma per tornare nel dominio del tempo.
 
===Ingressi e uscite===
 
Ogni sistema può avere uno o più ingressi e una o più uscite. Con il termine '''SISO''' (acronimo di ''single input - single output'') si intende un sistema a singolo ingresso e a singola uscita, mentre con il termine '''MIMO''' (acronimo di ''multi input - multi output'') si intende un sistema a ingressi multipli e a uscite multiple.
 
Ad ogni variazione delle variabili in ingresso segue una determinata risposta del sistema, ovvero un certo comportamento di altre variabili all'uscita. Le variazioni delle variabili in ingresso più comuni sono: l'[[Delta di Dirac|impulso di Dirac]], il [[variazione a gradino|gradino]], la [[variazione a rampa|rampa]] e la [[sinusoide]]).
Riga 77:
</div>
 
Le ''variabili in ingresso'' (o ''in entrata'') si differenziano in:
* '''variabili manipolabili''' (o '''variabili di controllo''' o '''variabili di manipolazione'''): hanno la caratteristica di essere sempre misurabili
* '''disturbi''' (o '''sollecitazioni esterne'''): possono essere anche non misurabili e la loro presenza è indesiderata dal punto di vista del controllo.
 
Tra le ''variabili in uscita'' si hanno:
* '''variabili di prestazione''': sono le variabili controllate, da non confondere con le variabili di controllo, e possono essere misurabili direttamente o indirettamente
* '''variabili intermedie''': sono delle variabili fisiche misurabili che possono essere utilizzate per la misura indiretta delle variabili di prestazione.
 
La misura diretta delle variabili da controllare viene detta ''misura (o misurazione) primaria'', mentre la misura indiretta delle variabili da controllare viene detta ''misura (o misurazione) secondaria''. Esempi di misurazione secondaria sono il [[controllo in cascata]], il [[controllo adattativo]] e il [[controllo inferenziale]].
 
===Controllo ad anello aperto===
Riga 92:
Un sistema automatico di controllo può funzionare essenzialmente in due modi: come ''controllo ad anello aperto'' o come ''controllo in retroazione''.
 
Il '''controllo ad anello aperto''' (o '''in avanti''' o '''predittivo''' o '''''feedforward''''') si basa su una elaborazione degli ingressi eseguita senza conoscere il valore dell'uscita del sistema controllato, essendo note alcune proprietà del sistema da controllare.
 
In questo caso è fondamentale avere un buon modello matematico che descriva con buona precisione il comportamento del sistema. Tanto più il modello matematico su cui si basa l'azione del controllo feedforward è esatto, tanto più questo tipo di controllo è affidabile.
Riga 98:
I motori elettrici della maggior parte dei ventilatori oggi in vendita sono controllati mediante un sistema di asservimento di questo tipo.
 
===Controllo ad anello chiuso ([[retroazione]])===
{{vedi anche|Retroazione}}
[[File:Controlloretro.gif|right|Schema del controllo in retroazione]]
 
Il '''controllo ad anello chiuso''' (o '''retroazionato'''retrazionato o '''all'indietro''' o '''''feedback'''''), più complesso ma molto più flessibile del primo, può rendere [[Stabilità (teoria dei sistemi)|stabile]] un sistema che di per sé non lo è affatto.
 
In questo caso l'anello di controllo riporta all'ingresso del processo che si vuole controllare o rendere stabile una funzione dell'uscita che va sommata algebricamente al segnale già presente in ingresso.
Riga 115:
 
===Controllo in retroazione di sistemi L.T.I. e L.I.T.===
Ogni blocco componente di un sistema [[Sistemasistema dinamico lineare stazionario|L.T.I.]] (LTI) può essere rappresentato tramite una [[funzione di trasferimento]] applicando al sottosistema che modella il blocco stesso rispettivamente la [[trasformata di Laplace]] o la [[trasformata Zeta]], a seconda che si tratti di sistemi a tempo continuo o a [[tempo discreto]]. Perciò il controllo LTI in [[retroazione]] è essenzialmente un sistema di controllo formato:
* dalla cascata di controllore <math>C(s)</math> o <math>C(z)</math> e processo <math>P(s)</math> o <math>P(z)</math> il cui ingresso è l'errore <math>E(s)</math> o <math>E(z)</math> tra riferimento <math>R(s)</math> o <math>R(z)</math> e uscita del processo <math>Y(s)</math> o <math>Y(z)</math>; le funzioni [[analisi complessa|complesse]] in ''s'' o in ''z'' sono rispettivamente le trasformate di Laplace o Zeta dei sistemi che rappresentano i blocchi e le trasformate di Laplace o Zeta dei segnali in ingresso e in uscita ai blocchi stessi.
* dal processo <math>P(s)</math> o <math>P(z)</math> la cui uscita <math>Y(s)</math> o <math>Y(z)</math> è prelevata da un [[compensatore dinamico]] <math>C(s)</math> (o <math>C(z)</math>) ottenuto come sintesi di un [[osservatore dello stato]] e di un [[controllo in retroazione dallo stato]], per esempio il [[regolatore lineare quadratico]], che genera l'ingresso di controllo <math>U(s)</math> o <math>U(z)</math> che si somma al riferimento <math>R(s)</math> o <math>R(z)</math>.
Le posizioni nel [[piano complesso]] dei [[Polo (analisi complessa)|poli]] e degli [[zeri]] della funzione di trasferimento determinano i [[modi di risposta]] e in particolare la [[Stabilità (teoria dei sistemi)|stabilità]] del sistema. Nei ''sistemi causali'' LTI, quali i [[sistemi fisici]] LTI, ovvero nei sistemi LTI le cui uscite non dipendono dai valori futuri degli ingressi, gli elementi della matrice di trasferimento sono frazionari ed hanno un [[polinomio]] a [[denominatore]] di [[Polinomio|grado]] non inferiore al grado del polinomio a [[numeratore]]. Se gli [[zeri]] dei denominatori, detti ''poli'' della trasformata, appartengono al semipiano a [[parte reale]] positiva del [[piano complesso]] il sistema è ''instabile'' e la [[risposta all'impulso]] ''y<sub>&delta;</sub>(t)'' [[Limite (matematica)|tende]] all'[[infinito (matematica)|infinito]] al crescere di ''t''. Se invece i ''poli'' della trasformata appartengono al semipiano a parte reale negativa del [[piano complesso]] il sistema è ''asintoticamente stabile'' e ''y<sub>&delta;</sub>(t)'' tende [[asintoto|asintoticamente]] a 0 al crescere di ''t''. Infine seSe infine i ''poli'' della trasformata appartengono alla retta verticale a parte reale nulla del [[piano complesso]] ed hanno [[Radice (matematica)#Molteplicità di una radice|molteplicità]] singola, il sistema è ''semplicemente stabile'' e ''y<sub>&delta;</sub>(t)'' è maggiorata in [[valore assoluto]] da un certo valore al crescere di ''t''. Per determinare come variano le posizioni dei poli e degli zeri al variare della funzione di trasferimento del compensatore si usano particolari grafici quali il [[diagramma di Bode]], il [[diagramma di Nyquist]] e il [[luogo delle radici]].
 
Due proprietà fondamentali dei sistemi LTI sono la '''[[raggiungibilità]]''' e l''''[[osservabilità]]'''. Se queste due proprietà sono verificate allora per il sistema di controllo, cioè il sistema ottenuto retroazionando il sistema dinamico LTI con un controllore LTI, esiste sempre un controllore che rende il sistema di controllo asintoticamente stabile.
 
Esistono differenti tipi di controllori. Le prime tecnologie di controllori si basavano essenzialmente su circuiti analogici (''[[reti correttrici]]'') appositamente creati per un dato problema. Attualmente vengono utilizzati sistemi di controllo digitale che permettono di sfruttare le potenzialità dei computer garantendo un minor costo e una maggiore versatilità.
 
== Componenti di un sistema di controllo ==
Riga 145:
=== Controllo ''sliding mode'' ===
{{vedi anche | Controllo sliding mode}}
Può essere considerato come una estensione del controllo on/off utilizzato per la regolazione della temperatura di caldaie e frigoriferi. Sfruttando la teoria di [[stabilità secondo Lyapunov]] e la possibilità di applicare segnali di controllo in alta frequenza, permette di ottenere controllori semplici ed estremamente robusti. Il limite principale è rappresentato dalla frequenza massima del segnale di controllo e dalla presenza di oscillazioni sull'uscita, note come ''chatter''. Tuttavia la teoria alla base del '''controllo sliding mode''' permette di svilupparne varianti leggermente più complesse, prive di ''chatter'' e allo stesso tempo robuste anche per sistemi con caratterizzazioni fortemente non lineari.
 
=== Controllo adattativo ===
{{vedi anche| Controllo adattativo}}
In questa categoria rientrano gli algoritmi di controllo con capacità di adattarsi ai cambiamenti delle condizioni di funzionamento del sistema da controllare.<ref name=sap/> Esistono diverse forme di adattabilità che vanno dalla modifica dei parametri di controllo lungo opportune curve (''[[gain scheduling]]'') alla possibilità di cambiare completamente o parzialmente la struttura del controllore. Rispetto alle soluzioni di controllo che non prevedono una variabilità nei parametri o nella struttura, scontano un maggiore peso computazionale che ne rende difficile l'implementazione su hardware commerciale, ma offrono come contropartita migliori prestazioni e una maggiore robustezza.
 
=== Controllo ottimo ===
Riga 155:
Il [[controllo ottimo]] si prefigge di stabilizzare il [[sistema dinamico]] tramite l'ottimizzazione di una funzione di costo <math>J(x,u)</math>, dove per <math>x</math> si intende lo stato del sistema e per u il controllo generato da un opportuno controllore ottenuto a seguito della minimizzazione. Minimizzando la funzione di costo <math>J</math> e manipolando opportuni parametri si riesce ad ottenere un controllore che rende la dinamica del controllo grande e veloce o piccola e lenta. Minimizzare <math>J</math> significa far tendere <math>x</math> a zero, ovvero stabilizzarlo, in tempo finito o infinito e di conseguenza anche <math>u</math> che è un controllo in retroazione dallo stato, quindi un'opportuna combinazione lineare delle variabili di stato. Il controllo ottimo è efficace sotto ipotesi di controllabilità e di osservabilità del sistema. Se il sistema è osservabile, cioè se lo stato <math>x</math> va stimato, è necessario un osservatore anch'esso ottimo: il [[filtro di Kalman]].
 
La teoria sviluppata per il '''controllo ottimo''' permette la sintesi di controllori noto il modello ed esclusivamente per sistemi lineari.
 
=== Controllo robusto ===
Riga 162:
È una soluzione di controllo che permette di imporre sia le prestazioni nominali, sia le prestazioni robuste sotto ipotesi di incertezze parametriche sul modello del sistema. Valido solo per sistemi lineari, giunge alla definizione di una serie di vincoli che il controllore deve garantire. {{Chiarire| In tal senso non è una soluzione di controllo robusta per natura (come il Controllo sliding mode), ma semplicemente un'imposizione di vincoli su un controllore in retroazione di stato.}}
 
Nel caso lineare ''MIMO'' il sistema P<sub>0</sub>, detto ''processo nominale'', viene controllato con un apposito compensatore K in retroazione dallo stato stimato, quindi il sistema di controllo sarà costituito da un controllore vero e proprio e da un osservatore dello stato. La matrice K viene sintetizzata tramite appositi algoritmi di [[controllo robusto]] che, assegnati i vincoli di prestazione, forniscono un compensatore ottimo tramite sintesi [[Regolatore lineare quadratico|LQR]] - [[Loop transfer recovery|LTR]] (anche detta [[controllo LQG|LQG]]), tramite sintesi in [[H-infinito]] o tramite i classici metodi della compensazione di sistemi ''SISO'' previa operazione di [[disaccoppiamento del sistema]].
 
=== Controllo deadbeat ===
Riga 172:
 
;<nowiki>Strutture di controllo:</nowiki>
:*'''Controllo feedback''' - ''Vantaggi'': robustezza, controlla anche i disturbi non misurabili o imprevisti - ''Svantaggi'': essendo in anello chiuso può introdurre instabilità nella risposta se tarato male, non agisce in tempo reale
:*'''Controllo feedforward''' - ''Vantaggi'': agisce prima che il sistema risenta del disturbo, non introduce instabilità nella risposta - ''Svantaggi'': il sistema deve scostarsi poco dal modello, è richiesta una buona conoscenza del sistema, il disturbo deve essere misurabile, non sono controllati i disturbi imprevisti o non misurabili
:*'''Controllo misto''' - Unisce i vantaggi delle singole soluzioni senza presentare svantaggi significativi.
:*'''Controllo in cascata''' - ''Vantaggi'': Sforzo di taratura minore, maggiore robustezza ai disturbi
 
;<nowiki>Tipi di controllo:</nowiki>
:*'''Controllo PID''' - ''Vantaggi'': Semplice e funzionale, implementabile in diverse tecnologie - ''Svantaggi'': Prestazioni modeste con sistemi fortemente non lineari, come gli LTV.
:*'''Controllo adattativo''' - ''Vantaggi'': Sforzo di taratura ridotto, prestazioni elevate anche al variare dei parametri per fenomeni di invecchiamento. - ''Svantaggi'': Costo computazionale maggiore, implementazione possibile solo con dispositivi elettronici digitali.
:*'''Controllo Sliding Mode''' - ''Vantaggi'': Basso costo computazionale, elevata robustezza - ''Svantaggi'': Alcune soluzioni possono essere affette da 'chatter'.
:*'''Controllo Ottimo''' - ''Vantaggi'': Permette di sintetizzare un controllore basandosi su un indice di costo, valido anche per sistemi lineari MIMO - ''Svantaggi'': Peso computazione delle operazioni di sintesi elevato, valido solo per sistemi lineari.
:*'''Controllo Robusto''' - ''Vantaggi'': Robustezza a variazioni parametriche - ''Svantaggi'': Valido solo per sistemi lineari
 
== Applicazioni ==
Riga 196:
 
=== Controllo dell'assetto degli aeromobili ===
{{...|tecnologia}}
 
=== Controllo dei processi industriali ===
[[File:Auxostat schematic.svg|thumb|upright=1.4|Esempio di schema di controllo di un [[reattore chimico CSTR]].]]
{{...|tecnologia}}
 
{{...}}
 
==Note==
Line 208 ⟶ 207:
==Bibliografia==
* Paolo Bolzern, Riccardo Scattolini, Nicola Schiavoni, ''Fondamenti di controlli automatici'', McGraw-Hill Companies, giugno 2008. ISBN 978-88-386-6434-2.
* {{Cita libro | cognome = Marro | nome = Giovanni | anno = 1997 | titolo = Controlli automatici, 4<sup>a</sup>ª edizione| editore = Zanichelli | ISBN = 88-08-00015-X}}
* Gottardo Marco, ''Let's program a PLC !!!'', seconda edizione (2.1), editore online LULU, 14 novembre 2012, ISBN 978-1-291-18932-2.
* {{Cita testo|titolo=Il controllo automatico dei sistemi|url=https://archive.org/details/ilcontrolloautomaticodeisistemi|autore=Neil M. Schmitt, Robert F. Farwell|editore=Gruppo Editoriale Jackson|anno=1985|ISBN=88-7056-227-1}}
Line 219 ⟶ 218:
* {{Cita libro | lingua=en| autore= Vannevar Bush | titolo= Operational Circuit Analysis | editore= John Wiley and Sons, Inc. | anno= 1929 }}
* {{Cita libro | lingua=en| autore= Robert F. Stengel | titolo= Optimal Control and Estimation | editore= Dover Publications | anno= 1994 | ISBN= 0-486-68200-5 }}
* {{Cita libro |lingua=en |cognome=Franklin et al. |nome= |titolo=Feedback Control of Dynamic Systems |url=https://archive.org/details/feedbackcontrolo0000fran_t1l4 |edizione=4 |data= |anno=2002 |editore=Prentice Hall |città=New Jersey |ISBN=0-13-032393-4 }}
* {{Cita libro |lingua=en | autore= Joseph L. Hellerstein, Dawn M. Tilbury, and Sujay Parekh | titolo= Feedback Control of Computing Systems |url=https://archive.org/details/feedbackcontrolo0000unse_k1n9 | editore= John Wiley and Sons | anno= 2004 | ISBN= 0-471-26637-X }}
* {{Cita libro |lingua=en | autore= [[Diederich Hinrichsen]] e Anthony J. Pritchard | titolo= Mathematical Systems Theory I - Modelling, State Space Analysis, Stability and Robustness |url=https://archive.org/details/mathematicalsyst0000hinr | editore= Springer | anno= 2005 | ISBN= 978-3-540-44125-0 }}
* {{Cita pubblicazione |lingua=en |autore= Andrei, Neculai |titolo= Modern Control Theory - A historical Perspective |data= 2005 |url= http://www.ici.ro/camo/neculai/history.pdf |urlmorto= sì |urlarchivio= https://web.archive.org/web/20081217010039/http://www.ici.ro/camo/neculai/history.pdf |dataarchivio= 17 dicembre 2008 }}
* {{Cita libro |lingua=en | cognome = Sontag | nome = Eduardo | wkautore = Eduardo D. Sontag | anno = 1998 | titolo = Mathematical Control Theory: Deterministic Finite Dimensional Systems. Second Edition | editore = Springer | ISBN = 0-387-98489-5 }}
Line 257 ⟶ 256:
 
== Altri progetti ==
{{interprogetto|wikibookspreposizione=Controlsul|wikt=controllo Systemsautomatico}}
 
==Collegamenti esterni==