Controllo automatico: differenze tra le versioni

Contenuto cancellato Contenuto aggiunto
Ensahequ (discussione | contributi)
FrescoBot (discussione | contributi)
m Bot: numeri di pagina nei template citazione
 
(279 versioni intermedie di oltre 100 utenti non mostrate)
Riga 1:
IlIn [[scienza dell'automazione]], il '''controllo automatico''' di un dato [[Sistemasistema dinamico (teoria dei sistemi)|sistema]] (diad esempio un [[motore]], di un [[impianto industriale]], dio una [[funzione biologica]] come il [[cuore|battito cardiaco]]) si prefigge di modificare il [[comportamento]] del sistema controllatoda controllare (o meglioovvero delle sue ''"uscite''") attraverso la manipolazione delledi grandezzeopportune identificate[[Grandezza come suoifisica|grandezze]] d''ingressi''[[Input|ingresso]].
 
In particolare, può richiedersi che l'uscita rimanga costante ad un valore prefissato al variare dell'ingresso (controllo semplice o '''regolazione'''<ref name="sap">[http://www.sapere.it/enciclopedia/contr%C3%B2llo+autom%C3%A0tico.html sapere.it - contròllo automàtico]</ref>) oppure segua fedelmente la dinamica dell'ingresso stesso ([[sistema di asservimento]] o comando<ref name="sap" />) a meno di amplificazioni e ritardi.
Per esempio, nel caso del motore a scoppio possono essere identificate come ''grandezze di ingresso'' il rapporto aria/benzina, la durata e l'anticipo della scintilla della candela nel motore, il momento dell'iniezione della benzina nella camera di scoppio, mentre possiamo identificare come ''grandezze di uscita'' i giri al minuto, la coppia, la composizione dei gas di scarico; il sistema controllante è la classica ''centralina''.
 
Il controllo del sistema in esame viene affidato ad un altro sistema costruito appositamente, detto ''"sistema controllante''" o "''controllore'sistema di controllo'''", che viene progettato dopo uno studio preliminare del sistema da controllare per individuarne ilun [[modello matematico]] esatto,sufficientemente preciso servendosi degli strumenti messi a punto dalla [[teoria dei sistemi]].

Il controllo automatico di un sistema è possibile solo nella misura in cuise il sistema stesso è ''raggiungibile'' e ''[[Osservabilità|osservabile'']], cioè nella misura in cuise è possibile sia portarlo in un dato stato interno agendo sui suoi ingressi, esia risalire allo stato attuale del sistema basandosi sulle sue uscite.
 
== Storia ==
[[File:Boulton and Watt centrifugal governor-MJ.jpg|thumb|left|[[Regolatore centrifugo]] in un motore del 1788 di Boulton e Watt.]]
 
Il primo esempio di applicazione della teoria dei controlli è dato dal [[regolatore centrifugo]] sul quale [[James Clerk Maxwell]] affrontò uno studio di analisi dinamica nel suo scritto del [[1868]] intitolato ''On Governors''.<ref name=Maxwell1867>{{Cita pubblicazione
| autore = Maxwell, J.C.
| anno = 1867
| titolo = On Governors
| rivista = Proceedings of the Royal Society of London
| volume = 16
| pp = 270-283
| url = https://links.jstor.org/sici?sici=0370-1662(1867%2F1868)16%3C270%3AOG%3E2.0.CO%3B2-1
| accesso=14 aprile 2008
| doi = 10.1098/rspl.1867.0055
}}</ref>
 
In seguito [[Edward John Routh]], allievo di Maxwell, generalizzò le conclusioni di Maxwell per la classe dei sistemi lineari.<ref name=Routh1975>{{Cita libro
| autore = Routh, E.J.
| coautori = Fuller, A.T.
| anno = 1975
| titolo = Stability of motion
| editore = Taylor & Francis
| id=ISBN
}}</ref> Indipendentemente da Routh, [[Adolf Hurwitz]] analizzò nel [[1877]] la stabilità del sistema servendosi di [[equazioni differenziali]]. Il risultato di Routh e Hurwitz è noto come [[teorema di Routh-Hurwitz]].<ref>
{{Cita libro
| autore = Routh, E.J.
| anno = 1877
| titolo = A Treatise on the Stability of a Given State of Motion, Particularly Steady Motion: Particularly Steady Motion
| url = https://archive.org/details/atreatiseonstab00routgoog
| editore = Macmillan and co.
| id=ISBN
}}</ref><ref>
{{Cita pubblicazione
| autore = Hurwitz, A.
| anno = 1964
| titolo = On The Conditions Under Which An Equation Has Only Roots With Negative Real Parts
| rivista = Selected Papers on Mathematical Trends in Control Theory
}}</ref>
 
Negli [[anni 1890]] [[Aleksandr Michajlovič Ljapunov]] elabora le basi della [[Stabilità secondo Lyapunov|teoria della stabilità]].
 
Negli [[anni 1930]] [[Harry Nyquist]] elabora il [[Criterio di Nyquist|criterio di stabilità di Nyquist]] che permette di studiare la stabilità di un sistema in retroazione unitaria.
 
Con la [[Seconda guerra mondiale]] la teoria dei controlli espanse il suo campo di applicazione ai sistemi di [[puntamento]], ai [[Sistema di guida|sistemi di guida]], e all'[[elettronica]]. Con la [[corsa allo spazio]] anche la guida dei veicoli spaziali divenne oggetto di studio della teoria dei controlli.
 
Negli [[Anni 1940|anni quaranta]] anche l'[[informatica]] diventa studio della teoria dei controlli grazie agli studi sulla [[programmazione dinamica]] di [[Richard Bellman]]. Sempre negli anni '40 nasce la [[cibernetica]], una scienza multidisciplinare che sfrutta i risultati della teoria dei controlli.
 
Negli [[Anni 1950|anni cinquanta]] [[John R. Ragazzini]] contribuisce introducendo i concetti di [[controllo digitale]] e la [[trasformata zeta]]. Altri campi di applicazione della teoria dei controlli sono l'[[economia]] e l'[[ingegneria chimica]].
 
==Teoria dei controlli==
{{vedi anche|Analisi dei sistemi dinamici}}
 
La '''teoria dei controlli''' è quella branca della [[scienza]] ed [[ingegneria]] che studia il comportamento di un [[Sistema (fisica)|sistema]] chele cui grandezze siasiano interessatosoggette a variazioni nel [[tempo]].<br> Questa scienza, che ha un vastissimo campo di applicazione, è nata nell'ambito dell'[[elettronica]] [[industria]]le e dell'automazione.
Il controllo può avvenire solo in un regime temporale. Spesso lo studio (matematico, con [[Modello matematico|modelli matematici]]) nel [[regime del tempo]] diventa molto difficile. Quindi, attraverso delle trasformazioni (in gergo, le ''trasformate'', di cui le più famose sono quelle di [[Trasformata di Fourier|Fourier]] e quelle di [[Trasformata di Laplace|Laplace]]) si studia lo stesso sistema nel [[regime della frequenza]], detto anche ''dominio della frequenza'', e -ottenuto il risultato- si ritrasforma ([[antitrasformata]]) nel regime del tempo.<br>
Ogni sistema può avere uno o più [[ingresso|ingressi]] e può avere una o più [[uscita|uscite]], se si interessa l'ingresso con una variazione anche l'uscita avrà una variazione.
 
Il controllo può avvenire solo in un regime temporale. Spesso lo studio matematico con [[Modello matematico|modelli matematici]] nel [[Dominio (matematica)|dominio]] del tempo diventa molto difficile, causa la necessità di risolvere [[equazione differenziale|equazioni differenziali]]. Quindi attraverso delle trasformazioni, le trasformate di cui le più famose sono quelle di [[Trasformata di Fourier|Fourier]] e quelle di [[Trasformata di Laplace|Laplace]], si studia lo stesso sistema con tecniche di tipo [[algebra|algebrico]] nel dominio della frequenza e una volta ottenuto il risultato si antitrasforma per tornare nel dominio del tempo.
Questa scienza, che può essere applicata a tutto, di fatto nasce per l'[[elettronica]] [[industria]]le e per l'automazione dove ha la massima applicazione.
 
===Ingressi e uscite===
{{vedi anche|Analisi dei sistemi di controllo}}
 
Ogni sistema può avere uno o più ingressi e una o più uscite. Con il termine SISO (acronimo di single input - single output) si intende un sistema a singolo ingresso e a singola uscita, mentre con il termine MIMO (acronimo di multi input - multi output) si intende un sistema a ingressi multipli e a uscite multiple.
===Un esempio pratico===
 
Ad ogni variazione delle variabili in ingresso segue una determinata risposta del sistema, ovvero un certo comportamento di altre variabili all'uscita. Le variazioni delle variabili in ingresso più comuni sono: l'[[Delta di Dirac|impulso di Dirac]], il [[variazione a gradino|gradino]], la [[variazione a rampa|rampa]] e la [[sinusoide]]).
Un esempio pratico può essere questo; consideriamo un [[Filtro (elettronica)|filtro]], una [[resistenza elettrica|resistenza]] o un [[motore]]: sono tutti dei sistemi.<br>
Se applichiamo dei segnali [[elettricità|elettrici]] (tra i più comuni: l'[[impulso]], il [[gradino]], la [[rampa]] e la [[sinusoide]]), il sistema reagirà in una maniera determinata per ogni tipo di segnale applicato di conseguenza.
 
<div align="center">
===Le applicazioni della teoria del controllo===
<gallery>
Immagine:Dirac distribution PDF.svg|Impulso di Dirac.
Immagine:Dirac distribution CDF.svg|Variazione a gradino.
Immagine:Ramp function.svg|Variazione a rampa.
Immagine:Función Trigonométrica R100.svg|Variazione sinusoidale.
</gallery>
</div>
 
Le variabili in ingresso (o in entrata) si differenziano in:
[[Immagine:Oil heater.jpg|thumb|200px|Termosifone a olio]]
* variabili manipolabili (o variabili di controllo o variabili di manipolazione): hanno la caratteristica di essere sempre misurabili
Con lo studio del [[tempo]] di [[Reazione (fisica)|reazione]], del [[moto (fisica)|movimento]], della risposta in uscita del sistema, si ottengono dei parametri che permettono di "regolare" la risposta con una [[retroazione]] o controreazione e quindi si andrà a variare anche l'ingresso per modularne l'uscita.
* disturbi (o sollecitazioni esterne): possono essere anche non misurabili e la loro presenza è indesiderata dal punto di vista del controllo.
 
Tra le variabili in uscita si hanno:
L'applicazione di questo studio attraverso [[sensore|sensori]], [[attuatore|attuatori]], comandi, controllori, dà origine a quella che in ingegneria si chiama "regolazione".
* variabili di prestazione: sono le variabili controllate, da non confondere con le variabili di controllo, e possono essere misurabili direttamente o indirettamente
* variabili intermedie: sono delle variabili fisiche misurabili che possono essere utilizzate per la misura indiretta delle variabili di prestazione.
 
La misura diretta delle variabili da controllare viene detta misura (o misurazione) primaria, mentre la misura indiretta delle variabili da controllare viene detta misura (o misurazione) secondaria. Esempi di misurazione secondaria sono il [[controllo in cascata]], il [[controllo adattativo]] e il [[controllo inferenziale]].
Nelle automazioni, nel [[condizionamento (termotecnica)|condizionamento]], nel [[Caldaia (riscaldamento)|riscaldamento]] si applica la teoria dei controlli e quindi si fa la regolazione.
 
===Controllo ad anello aperto===
Nell'ingegneria [[energia termica|termica]] e del condizionamento, la regolazione è fondamentale e può far [[risparmio|risparmiare]] dal 30 al 60% dei consumi, per tutta la vita dell'impianto, ma è importantissimo che gli impianti nascano già con l'idea della regolazione.
[[File:Controllodiretto.gif|right|Schema del controllo diretto]]
 
Un sistema automatico di controllo può funzionare essenzialmente in due modi: come ''controllo ad anello aperto'' o come ''controllo in retroazione''.
===Controllo ad Anello aperto===
[[Immagine:Controllodiretto.gif|right]]
Un sistema automatico di controllo può essere posto in opera in due modi: come controllo diretto o come controllo in retroazione.
Il '''controllo ad anello aperto''', '''in avanti''', '''predittivo''', o '''''feed-forward''''' si basa su una elaborazione degli ingressi eseguita senza conoscere il valore dell'uscita del sistema controllato, essendo note alcune proprietà del sistema da controllare.
I motori elettrici della maggior parte dei ventilatori oggi in vendita sono controllati mediante un sistema di
asservimento di questo tipo.
 
Il controllo ad anello aperto (o in avanti o predittivo o ''feedforward'') si basa su una elaborazione degli ingressi eseguita senza conoscere il valore dell'uscita del sistema controllato, essendo note alcune proprietà del sistema da controllare.
 
In questo caso è fondamentale avere un buon modello matematico che descriva con buona precisione il comportamento del sistema. Tanto più il modello matematico su cui si basa l'azione del controllo feedforward è esatto, tanto più questo tipo di controllo è affidabile.
===Controllo in [[retroazione]]===
 
[[Immagine:Controlloretro.gif|right]]
I motori elettrici della maggior parte dei ventilatori oggi in vendita sono controllati mediante un sistema di asservimento di questo tipo.
Il '''controllo in retroazione''', '''retroazionato''', '''all'indietro''', o '''''feed-back''''', più complesso ma molto più flessibile del primo, può rendere [[stabilità (sistema)|stabile]] un sistema che di per sé non lo era affatto. Molto semplicemente il sistema si basa sul fatto essenziale di riportare all'ingresso del processo che si vuole controllare (o al limite rendere stabile) una funzione dell'uscita che va sommata (con somma algebrica) al segnale già presente in ingresso. Se chiamiamo <math>y_{ref}</math> il segnale in ingresso al sistema prima dell'innesto della retroazione, <math>y_{out}</math> il segnale in uscita dal sistema da controllare, <math>y_{fb}</math> il segnale in uscita dal controllore (che quindi dipende da <math>y_{out}</math> e dalla struttura dello stesso controllore), si può fare una grande distinzione della retroazione in due classi:
 
===Controllo ad anello chiuso (retroazione)===
{{vedi anche|Retroazione}}
[[File:Controlloretro.gif|right|Schema del controllo in retroazione]]
 
Il controllo ad anello chiuso (o retrazionato o all'indietro o ''feedback''), più complesso ma molto più flessibile del primo, può rendere [[Stabilità (teoria dei sistemi)|stabile]] un sistema che di per sé non lo è affatto.
 
In questo caso l'anello di controllo riporta all'ingresso del processo che si vuole controllare o rendere stabile una funzione dell'uscita che va sommata algebricamente al segnale già presente in ingresso.
 
Chiamando <math>y_{ref}</math> il segnale in ingresso al sistema prima dell'innesto della retroazione detto anche segnale di riferimento, <math>y_{out}</math> il segnale in uscita dal sistema da controllare, <math>y_{fb}</math> il segnale in uscita dal controllore (che quindi dipende da <math>y_{out}</math> e dalla struttura dello stesso controllore), si può distinguere il controllo in:
* [[retroazione positiva]]: al segnale <math>y_{ref}</math> viene sommato <math>y_{fb}</math>, e la somma viene inviata in ingresso al sistema;
* [[retroazione negativa]]: al segnale <math>y_{ref}</math> viene sottratto <math>y_{fb}</math>, in modo da avere in ingresso al sistema il cosiddetto ''segnale errore'', <math>e_f</math>
 
Il segnale di riferimento viene chiamato così in quanto nei sistemi di asservimento si vuole che l'uscita lo segua il più fedelmente possibile per alcune classi di segnali di riferimento. Per questo motivo la differenza tra riferimento e uscita viene chiamata errore o errore di inseguimento
A seconda della tipologia della retroazione si possono fare considerazioni profondamente diverse circa la stabilità del sistema complessivo ottenuto (oscillazioni ed energia del segnale in uscita); ad un livello molto generale si può affermare che la retroazione positiva porta a sistemi instabili, mentre la retroazione negativa apre la strada a strategie di controllo molto efficaci per il raggiungimento della stabilità del sistema complessivo.
 
In generale la retroazione positiva porta a sistemi instabili, mentre la retroazione negativa apre la strada a strategie di controllo molto efficaci per il raggiungimento della stabilità del sistema e il miglioramento delle prestazioni del sistema: velocità nel raggiungere il valore di uscita desiderata, errore nullo nel caso di ingresso costante o di ingresso con variazioni lineari nel tempo, ecc.
===Tipologie di sistemi in retroazione===
Il controllo [[Sistemi_dinamici_lineari_tempo_invarianti|L.T.I.]] o [[Sistemi_dinamici_lineari_invarianti_alla_traslazione|L.I.T.]] in [[retroazione]] è essenzialmente un sistema di controllo formato:
* dalla cascata di controllore <math>C(s)</math> e processo <math>P(s)</math> il cui ingresso è l'errore <math>E(s)</math> tra riferimento <math>R(s)</math> e uscita del processo <math>Y(s)</math>
* dal processo <math>P(s)</math> la cui uscita <math>Y(s)</math> è prelevata da un [[compensatore dinamico]] <math>C(s)</math> (ottenuto come sintesi di un [[osservatore dello stato]] e di un [[controllo in retroazione dallo stato]]) che genera l'ingresso di controllo <math>U(s)</math> che andrà sommato al riferimento <math>R(s)</math>.
Esistono differenti tipologie di controllori. Le prime tecnologie di controllori si basavano essenzialmente su circuiti analogici appositamente creati per un dato problema. Attualmente vengono utilizzati sistemi di controllo digitale che permettono di sfruttare le potenzialità dei computer garantendo un minor costo e una maggiore versatilità.
 
===Controllo in retroazione di sistemi L.T.I. e L.I.T.===
===Esempio: controllo della temperatura===
Ogni blocco componente di un [[sistema dinamico lineare stazionario]] (LTI) può essere rappresentato tramite una [[funzione di trasferimento]] applicando al sottosistema che modella il blocco stesso rispettivamente la [[trasformata di Laplace]] o la [[trasformata Zeta]], a seconda che si tratti di sistemi a tempo continuo o a [[tempo discreto]]. Perciò il controllo LTI in [[retroazione]] è essenzialmente un sistema di controllo formato:
Esempio classico di controllo in retroazione è un sistema di controllo di temperatura di una stanza. Supponiamo di voler mantenere la temperatura di una stanza a 20°C. Un termostato controlla la temperatura e comanda l'afflusso di acqua ai caloriferi della stanza. Il valore a cui vogliamo tenere la temperatura viene defnito in un sistema di controllo ''Set Point''. A seconda della temperatura letta dal sensore quindi si apre o si chiude l'afflusso dell'acqua al calorifero. La temperatura della stanza oscillerà così attorno ai 20°C a seconda della dissipazione del calore e della capacità dei caloriferi. Un tipo di regolazione in retroazione in questo senso può essere definito ''Regolazione On-Off'' in quanto prevede come retroazione un semplice comando acceso-spento. Un tipo di controllo siffatto può essere usato per la regolazione del riscaldamento di una stanza di una abitazione, dove oscillazioni di 1°C sono tollerate da chi dovrà utilizzare la stanza.
* dalla cascata di controllore <math>C(s)</math> o <math>C(z)</math> e processo <math>P(s)</math> o <math>P(z)</math> il cui ingresso è l'errore <math>E(s)</math> o <math>E(z)</math> tra riferimento <math>R(s)</math> o <math>R(z)</math> e uscita del processo <math>Y(s)</math> o <math>Y(z)</math>; le funzioni [[analisi complessa|complesse]] in ''s'' o in ''z'' sono rispettivamente le trasformate di Laplace o Zeta dei sistemi che rappresentano i blocchi e le trasformate di Laplace o Zeta dei segnali in ingresso e in uscita ai blocchi stessi.
* dal processo <math>P(s)</math> o <math>P(z)</math> la cui uscita <math>Y(s)</math> o <math>Y(z)</math> è prelevata da un [[compensatore dinamico]] <math>C(s)</math> (o <math>C(z)</math>) ottenuto come sintesi di un [[osservatore dello stato]] e di un [[controllo in retroazione dallo stato]], per esempio il [[regolatore lineare quadratico]], che genera l'ingresso di controllo <math>U(s)</math> o <math>U(z)</math> che si somma al riferimento <math>R(s)</math> o <math>R(z)</math>.
Le posizioni nel [[piano complesso]] dei [[Polo (analisi complessa)|poli]] e degli zeri della funzione di trasferimento determinano i [[modi di risposta]] e in particolare la [[Stabilità (teoria dei sistemi)|stabilità]] del sistema. Nei sistemi causali LTI, quali i [[sistemi fisici]] LTI, ovvero nei sistemi LTI le cui uscite non dipendono dai valori futuri degli ingressi, gli elementi della matrice di trasferimento sono frazionari ed hanno un [[polinomio]] a [[denominatore]] di [[Polinomio|grado]] non inferiore al grado del polinomio a [[numeratore]]. Se gli [[zeri]] dei denominatori, detti ''poli'' della trasformata, appartengono al semipiano a [[parte reale]] positiva del [[piano complesso]] il sistema è ''instabile'' e la [[risposta all'impulso]] ''y<sub>&delta;</sub>(t)'' [[Limite (matematica)|tende]] all'[[infinito (matematica)|infinito]] al crescere di ''t''. Se invece i ''poli'' della trasformata appartengono al semipiano a parte reale negativa del [[piano complesso]] il sistema è ''asintoticamente stabile'' e ''y<sub>&delta;</sub>(t)'' tende [[asintoto|asintoticamente]] a 0 al crescere di ''t''. Se infine i ''poli'' della trasformata appartengono alla retta verticale a parte reale nulla del [[piano complesso]] ed hanno [[Radice (matematica)#Molteplicità di una radice|molteplicità]] singola, il sistema è ''semplicemente stabile'' e ''y<sub>&delta;</sub>(t)'' è maggiorata in [[valore assoluto]] da un certo valore al crescere di ''t''. Per determinare come variano le posizioni dei poli e degli zeri al variare della funzione di trasferimento del compensatore si usano particolari grafici quali il [[diagramma di Bode]], il [[diagramma di Nyquist]] e il [[luogo delle radici]].
 
Due proprietà fondamentali dei sistemi LTI sono la [[raggiungibilità]] e l'[[osservabilità]]. Se queste due proprietà sono verificate allora per il sistema di controllo, cioè il sistema ottenuto retroazionando il sistema dinamico LTI con un controllore LTI, esiste sempre un controllore che rende il sistema di controllo asintoticamente stabile.
==[[Controllo ottimo]]==
Il [[controllo ottimo]] si prefigge di stabilizzare il [[Sistema dinamico (teoria dei sistemi)|sistema dinamico]] (ovvero sintetizzare un compensatore opportuno) tramite l'ottimizzazione di una funzione di costo <math>J(x,u)</math> (dove per <math>x</math> si intende lo stato del sistema e per u il controllo generato da un opportuno controllore ottenuto a seguito della minimizzazione). Minimizzando la funzione di costo <math>J</math> e manipolando opportuni parametri si riesce ad ottenere un controllore che rende la dinamica del controllo grande e veloce o piccola e lenta. Minimizzare <math>J</math> significa far tendere <math>x</math> a zero in tempo finito o infinito (e quindi anche <math>u</math> che è un controllo in retroazione dallo stato) e quindi stabilizzare <math>x</math>. Il controllo ottimo è efficace sotto ipotesi di stabilizzabilità del sistema e di rilevabilità del sistema. Se il sistema è rilevabile (cioè se lo stato <math>x</math> va stimato) è necessario un osservatore anche esso ottimo: il [[filtro di Kalman]]
 
Esistono differenti tipi di controllori. Le prime tecnologie di controllori si basavano essenzialmente su circuiti analogici ([[reti correttrici]]) appositamente creati per un dato problema. Attualmente vengono utilizzati sistemi di controllo digitale che permettono di sfruttare le potenzialità dei computer garantendo un minor costo e una maggiore versatilità.
==[[Controllo robusto]]==
Negli ultimi anni si stanno diffondendo nuove modalità di approccio del controllo di un qualsiasi sistema. È questo il controllo robusto che si basa sull'abbattimento delle inevitabili incertezze collegate ai parametri di un sistema.
Tali incertezze minano alla base la capacità del controllore di essere reiettivo e performato in alcune situazioni.
Si ricorda che un tale tipo di controllo cerca di avvicinarsi alla perfezione, senza tuttavia arrivarci.
Tale tipologia di controllo è inoltre utilizzata nei sistemi di controllo dei vari oggetti spaziali della [[NASA]].
Lo schema completo ricalca in massima parte il controllo a controreazione, ma i blocchi questa volta non indicano singoli elementi (come ad esempio un ritardo esponenziale) piuttosto sono un insieme di equazioni differenziali a coefficienti non costanti.
Il blocco del sistema viene di solito espresso nello spazio di stato poiché è più semplice vedere le variabili in ingresso e in uscita, così come le grandezze parametriche.
 
== Componenti di un sistema di controllo ==
Nel caso lineare MIMO il sistema P0, detto processo nominale, viene controllato con un apposito compensatore K in retroazione dallo stato stimato (conterrà quindi un controllore e un osservatore dello stato). La matrice K viene sintetizzata tramite appositi algoritmi di [[controllo robusto]] che, dati vincoli di prestazione, forniscono un compensatore ottimo tramite sintesi [[Regolatore lineare quadratico|LQR]] - [[Loop transfer recovery|LTR]] (anche detta [[controllo LQG|LQG]]), tramite sintesi in [[H-infinito]] o tramite i classici metodi della compensazione di sistemi SISO previa operazione di [[disaccoppiamento del sistema]].
{{vedi anche|Strumentazione di controllo}}
[[File:Schwenkantrieb auf klappe.jpg|thumb|Valvola a farfalla con attuatore]]
I componenti principali di un sistema di controllo sono:
* [[sensore|sensori]]: misurano la grandezza che si vuole controllare
* [[trasduttore|trasduttori]]: convertono un tipo di segnale in un altro tipo (ad esempio un segnale pneumatico in segnale elettrico)
* [[trasmettitore|trasmettitori]]: trasmettono un segnale a distanza
* [[Controllore (strumento)|controllori]]: ricevono il segnale in entrata e il setpoint, elaborano tali informazioni e producono il segnale in uscita
* [[attuatore|attuatori]]: ricevono dal controllore i comandi necessari a produrre un cambiamento della grandezza misurata (ad esempio chiudere una [[valvola di controllo|valvola]] per diminuire il flusso di liquido che passa attraverso un condotto).
 
Oltre a questi elementi, possono essere presenti ad esempio [[amplificatore (elettronica)|amplificatori]] per amplificare un segnale.
==[[Strumentazione di controllo|Strumentazione]]==
Gli strumenti per il controllo automatico includono, tra gli altri: [[misuratore|misuratori]], [[regolatore|regolatori]], [[attuatore|attuatori]], [[trasduttore|trasduttori]].
 
== Soluzioni di controllo ==
Il controllo può avvenire con strumentazione [[Pneumatica (scienza)|pneumatica]] o elettronica.
Esistono diverse tecniche per sintetizzare controllori in anello chiuso tra cui le soluzioni più note sono:
 
=== Controllo PID ===
{{vedi anche|Strumentazione di controllo}}
{{vedi anche|Controllo PID}}
Rappresenta una delle soluzioni di controllo più semplici, permette di ottenere buone prestazioni con sistemi prevalentemente lineari, mentre risulta deludente per sistemi con carattere fortemente non lineare (ad esempio: sistemi LTV<ref>Con la sigla LTV si fa riferimento a sistemi Lineari con parametri Tempo Varianti</ref>) o con caratteristiche particolari come la presenza di zeri nel semipiano di destra o di poli nell'origine o sull'asse immaginario. La semplicità delle tre azioni elementari che lo costituiscono ne rende semplice l'implementazione sia con tecnologie pneumatiche sia con tecnologie elettroniche. Per via della sua larga diffusione non è raro trovarne implementazione anche in [[controllo digitale|elettronica digitale]] dove le potenzialità della [[CPU]] permetterebbero l'implementazione di algoritmi ben più complessi.
 
=== Controllo ''sliding mode'' ===
==La normativa==
{{vedi anche | Controllo sliding mode}}
Può essere considerato come una estensione del controllo on/off utilizzato per la regolazione della temperatura di caldaie e frigoriferi. Sfruttando la teoria di [[stabilità secondo Lyapunov]] e la possibilità di applicare segnali di controllo in alta frequenza, permette di ottenere controllori semplici ed estremamente robusti. Il limite principale è rappresentato dalla frequenza massima del segnale di controllo e dalla presenza di oscillazioni sull'uscita, note come ''chatter''. Tuttavia la teoria alla base del controllo sliding mode permette di svilupparne varianti leggermente più complesse, prive di ''chatter'' e allo stesso tempo robuste anche per sistemi con caratterizzazioni fortemente non lineari.
 
=== Controllo adattativo ===
La [[legge]] n. 10 del [[1991]] e il [[Decreto del Presidente della Repubblica|DPR]] n. 412, per impianti di una certa potenza, obbligano la [[progettazione]] e la realizzazione della regolazione negli impianti termici, questo per far capire che la teoria dei controlli non è poi così lontana da noi.<br>
{{vedi anche| Controllo adattativo}}
Lo studio del controllo si applica anche al semplice componente, per rimanere in ambito termico, la [[valvola termostatica]] è un elemento che, inserito a bordo di un [[termosifone]], sente una determinata [[temperatura]] (ingresso) e di conseguenza chiude il circuito dell'[[acqua]] (uscita), regolando cosi l'afflusso dell'acqua e di conseguenza il [[calore]] speso.
In questa categoria rientrano gli algoritmi di controllo con capacità di adattarsi ai cambiamenti delle condizioni di funzionamento del sistema da controllare.<ref name=sap/> Esistono diverse forme di adattabilità che vanno dalla modifica dei parametri di controllo lungo opportune curve (''[[gain scheduling]]'') alla possibilità di cambiare completamente o parzialmente la struttura del controllore. Rispetto alle soluzioni di controllo che non prevedono una variabilità nei parametri o nella struttura, scontano un maggiore peso computazionale che ne rende difficile l'implementazione su hardware commerciale, ma offrono come contropartita migliori prestazioni e una maggiore robustezza.
 
=== Controllo ottimo ===
{{vedi anche|Controllo ottimo}}
Il [[controllo ottimo]] si prefigge di stabilizzare il [[sistema dinamico]] tramite l'ottimizzazione di una funzione di costo <math>J(x,u)</math>, dove per <math>x</math> si intende lo stato del sistema e per u il controllo generato da un opportuno controllore ottenuto a seguito della minimizzazione. Minimizzando la funzione di costo <math>J</math> e manipolando opportuni parametri si riesce ad ottenere un controllore che rende la dinamica del controllo grande e veloce o piccola e lenta. Minimizzare <math>J</math> significa far tendere <math>x</math> a zero, ovvero stabilizzarlo, in tempo finito o infinito e di conseguenza anche <math>u</math> che è un controllo in retroazione dallo stato, quindi un'opportuna combinazione lineare delle variabili di stato. Il controllo ottimo è efficace sotto ipotesi di controllabilità e di osservabilità del sistema. Se il sistema è osservabile, cioè se lo stato <math>x</math> va stimato, è necessario un osservatore anch'esso ottimo: il [[filtro di Kalman]].
 
La teoria sviluppata per il controllo ottimo permette la sintesi di controllori noto il modello ed esclusivamente per sistemi lineari.
 
=== Controllo robusto ===
{{vedi anche|Controllo robusto}}
 
È una soluzione di controllo che permette di imporre sia le prestazioni nominali, sia le prestazioni robuste sotto ipotesi di incertezze parametriche sul modello del sistema. Valido solo per sistemi lineari, giunge alla definizione di una serie di vincoli che il controllore deve garantire. {{Chiarire| In tal senso non è una soluzione di controllo robusta per natura (come il Controllo sliding mode), ma semplicemente un'imposizione di vincoli su un controllore in retroazione di stato.}}
 
Nel caso lineare MIMO il sistema P<sub>0</sub>, detto processo nominale, viene controllato con un apposito compensatore K in retroazione dallo stato stimato, quindi il sistema di controllo sarà costituito da un controllore vero e proprio e da un osservatore dello stato. La matrice K viene sintetizzata tramite appositi algoritmi di [[controllo robusto]] che, assegnati i vincoli di prestazione, forniscono un compensatore ottimo tramite sintesi [[Regolatore lineare quadratico|LQR]] - [[Loop transfer recovery|LTR]] (anche detta [[controllo LQG|LQG]]), tramite sintesi in [[H-infinito]] o tramite i classici metodi della compensazione di sistemi SISO previa operazione di [[disaccoppiamento del sistema]].
 
=== Controllo deadbeat ===
{{vedi anche | Controllo deadbeat }}
Il [[controllo deadbeat]] è una tecnica nata per sistemi tempo-continuo e poi estesa ai sistemi tempo-discreto. Consente di ottenere sistemi che garantiscono delle ottime proprietà dinamiche ed errore a regime nullo in funzione di un dato segnale in ingresso. È una tecnica sviluppata essenzialmente per sistemi lineari. Il suo utilizzo per i sistemi non lineari è ancora un problema aperto.
 
== Schema riassuntivo di confronto ==
Di seguito vengono confrontate le diverse possibilità di controllo:
 
;<nowiki>Strutture di controllo:</nowiki>
:*Controllo feedback - ''Vantaggi'': robustezza, controlla anche i disturbi non misurabili o imprevisti - ''Svantaggi'': essendo in anello chiuso può introdurre instabilità nella risposta se tarato male, non agisce in tempo reale
:*Controllo feedforward - ''Vantaggi'': agisce prima che il sistema risenta del disturbo, non introduce instabilità nella risposta - ''Svantaggi'': il sistema deve scostarsi poco dal modello, è richiesta una buona conoscenza del sistema, il disturbo deve essere misurabile, non sono controllati i disturbi imprevisti o non misurabili
:*Controllo misto - Unisce i vantaggi delle singole soluzioni senza presentare svantaggi significativi.
:*Controllo in cascata - ''Vantaggi'': Sforzo di taratura minore, maggiore robustezza ai disturbi
 
;<nowiki>Tipi di controllo:</nowiki>
:*Controllo PID - ''Vantaggi'': Semplice e funzionale, implementabile in diverse tecnologie - ''Svantaggi'': Prestazioni modeste con sistemi fortemente non lineari, come gli LTV.
:*Controllo adattativo - ''Vantaggi'': Sforzo di taratura ridotto, prestazioni elevate anche al variare dei parametri per fenomeni di invecchiamento. - ''Svantaggi'': Costo computazionale maggiore, implementazione possibile solo con dispositivi elettronici digitali.
:*Controllo Sliding Mode - ''Vantaggi'': Basso costo computazionale, elevata robustezza - ''Svantaggi'': Alcune soluzioni possono essere affette da 'chatter'.
:*Controllo Ottimo - ''Vantaggi'': Permette di sintetizzare un controllore basandosi su un indice di costo, valido anche per sistemi lineari MIMO - ''Svantaggi'': Peso computazione delle operazioni di sintesi elevato, valido solo per sistemi lineari.
:*Controllo Robusto - ''Vantaggi'': Robustezza a variazioni parametriche - ''Svantaggi'': Valido solo per sistemi lineari
 
== Applicazioni ==
 
=== Controllo della temperatura ambientale ===
[[File:Radiator op blauw-wit-gestreepte tegels.JPG|thumb|Un'applicazione pratica del controllo in retroazione è rappresentato dal sistema di riscaldamento degli ambienti domestici.]]
 
Esempio classico di controllo in retroazione è il sistema di controllo di temperatura di una stanza. Questo sistema di controllo a retroazione viene anche chiamato regolatore poiché regola l'uscita di un sistema per mantenerla il più possibile uguale all'ingresso. Si vuole mantenere la temperatura di una stanza a 20&nbsp;°C. Un [[valvola termostatica|termostato]] controlla la temperatura e comanda l'afflusso di acqua ai caloriferi della stanza. In un sistema di controllo il valore a cui si vuole mantenere la temperatura viene chiamato ''set point''. A seconda della temperatura letta dal sensore si apre o si chiude l'afflusso dell'acqua al calorifero. La temperatura della stanza oscillerà attorno ai 20&nbsp;°C a seconda della dissipazione del calore, della capacità dei caloriferi e delle condizioni a cui il regolatore apre o chiude la valvola. Un tipo di regolazione in retroazione come questo è chiamato ''regolazione on-off'' in quanto prevede come retroazione un semplice comando acceso-spento. Un tipo di controllo del genere può essere usato per la regolazione del riscaldamento di una stanza di un'abitazione dove oscillazioni di 1&nbsp;°C sono tollerate da chi dovrà utilizzare la stanza.
 
=== Controllo delle prestazioni dei motori ===
[[File:Motorsteuerung VW Golf TDI innen.jpg|thumb|[[Unità di controllo motore]] (ECU) di una [[Volkswagen Golf]] III TDI, a cui è stata rimossa la copertura di protezione]]
Per esempio in un moderno [[motore a combustione interna]] il sistema di controllo riceve in ingresso una serie di informazioni (tra cui la posizione del pedale dell'[[Acceleratore (meccanica)|acceleratore]], la velocità del veicolo, il numero di [[giri al minuto]], la temperatura del motore e la presenza di [[ossigeno]] allo scarico), li elabora e agisce su una serie di parametri (tra cui la quantità di carburante da iniettare nel motore), al fine di garantire determinate velocità e [[Coppia motrice|coppia]] in uscita e una corretta composizione dei [[gas di scarico]]. Il cuore del sistema controllante è tipicamente una [[Unità di controllo motore|centralina elettronica]], collegata ad una serie di [[Sensore|sensori]] e altri componenti del sistema di controllo.
 
=== Controllo dell'assetto degli aeromobili ===
{{...|tecnologia}}
 
=== Controllo dei processi industriali ===
[[File:Auxostat schematic.svg|thumb|upright=1.4|Esempio di schema di controllo di un [[reattore chimico CSTR]].]]
{{...|tecnologia}}
 
==Note==
<references/>
 
==Bibliografia==
* Paolo Bolzern, Riccardo Scattolini, Nicola Schiavoni, ''Fondamenti di controlli automatici'', McGraw-Hill Companies, giugno 2008. ISBN 978-88-386-6434-2.
* Eduardo D. Sontag (1990): ''Mathematical Control Theory'', Springer, ISBN 3-540-97366-4
* {{Cita libro | cognome = Marro | nome = Giovanni | anno = 1997 | titolo = Controlli automatici, 4ª edizione| editore = Zanichelli | ISBN = 88-08-00015-X}}
* Alain Bensoussan (1992): ''Stochastic Control of Partially Observable Sysytems'', Cambridge University Press, ISBN 0-521-35403-X
* Gottardo Marco, ''Let's program a PLC !!!'', seconda edizione (2.1), editore online LULU, 14 novembre 2012, ISBN 978-1-291-18932-2.
* Hector O. Fattorini (1999): ''Infinite dimensional optimization and Control theory'', Cambridge University Press, ISBN 0-521-45125-6
* {{Cita testo|titolo=Il controllo automatico dei sistemi|url=https://archive.org/details/ilcontrolloautomaticodeisistemi|autore=Neil M. Schmitt, Robert F. Farwell|editore=Gruppo Editoriale Jackson|anno=1985|ISBN=88-7056-227-1}}
* Jiongmin Yong, Xun Yu Zhou (1999): ''Stochastic Controls. Hamiltonian Systems and HJB Equations'', Springer, ISBN 0-387-98723-1
* {{en}} Katsuhiko Ogata, ''Modern Control Engineering'', Prentice Hall, 2002.
* {{en}} Eduardo D. Sontag, ''Mathematical Control Theory'', Springer, 1990. ISBN 3-540-97366-4
* {{en}} Alain Bensoussan, ''Stochastic Control of Partially Observable Sysytems'', Cambridge University Press, 1992. ISBN 0-521-35403-X
* {{en}} Hector O. Fattorini, ''Infinite dimensional optimization and Control theory'', Cambridge University Press, 1999. ISBN 0-521-45125-6
* {{en}} Jiongmin Yong, Xun Yu Zhou, ''Stochastic Controls. Hamiltonian Systems and HJB Equations'', Springer, 1999. ISBN 0-387-98723-1
* {{Cita libro | lingua=en| autore= Christopher Kilian | titolo= Modern Control Technology | editore= Thompson Delmar Learning | anno= 2005 | ISBN= 1-4018-5806-6 }}
* {{Cita libro | lingua=en| autore= Vannevar Bush | titolo= Operational Circuit Analysis | editore= John Wiley and Sons, Inc. | anno= 1929 }}
* {{Cita libro | lingua=en| autore= Robert F. Stengel | titolo= Optimal Control and Estimation | editore= Dover Publications | anno= 1994 | ISBN= 0-486-68200-5 }}
* {{Cita libro |lingua=en |cognome=Franklin et al. |nome= |titolo=Feedback Control of Dynamic Systems |url=https://archive.org/details/feedbackcontrolo0000fran_t1l4 |edizione=4 |data= |anno=2002 |editore=Prentice Hall |città=New Jersey |ISBN=0-13-032393-4 }}
* {{Cita libro |lingua=en | autore= Joseph L. Hellerstein, Dawn M. Tilbury, and Sujay Parekh | titolo= Feedback Control of Computing Systems |url=https://archive.org/details/feedbackcontrolo0000unse_k1n9 | editore= John Wiley and Sons | anno= 2004 | ISBN= 0-471-26637-X }}
* {{Cita libro |lingua=en | autore= [[Diederich Hinrichsen]] e Anthony J. Pritchard | titolo= Mathematical Systems Theory I - Modelling, State Space Analysis, Stability and Robustness |url=https://archive.org/details/mathematicalsyst0000hinr | editore= Springer | anno= 2005 | ISBN= 978-3-540-44125-0 }}
* {{Cita pubblicazione |lingua=en |autore= Andrei, Neculai |titolo= Modern Control Theory - A historical Perspective |data= 2005 |url= http://www.ici.ro/camo/neculai/history.pdf |urlmorto= sì |urlarchivio= https://web.archive.org/web/20081217010039/http://www.ici.ro/camo/neculai/history.pdf |dataarchivio= 17 dicembre 2008 }}
* {{Cita libro |lingua=en | cognome = Sontag | nome = Eduardo | wkautore = Eduardo D. Sontag | anno = 1998 | titolo = Mathematical Control Theory: Deterministic Finite Dimensional Systems. Second Edition | editore = Springer | ISBN = 0-387-98489-5 }}
 
== Voci correlate ==
{{Div col|cols=2|small=no}}
* [[Analisi dei sistemi dinamici]]
* [[Automazione]]
* [[Controllabilità]]
* [[Controllo in cascata]]
* [[Controllo industriale]]
* [[Controllo lineare quadratico gaussiano]]
* [[Controllo ottimo]]
* [[Controllo PID]]
* [[Controllo robusto]]
* [[Controllo vincolato]]
* [[Controllore (strumento)]]
* [[Diagramma di Bode]]
* [[Equilibrio (Teoria dei sistemi)]]
* [[H-infinito]]
* [[Loop transfer recovery]]
* [[Diagramma di Nyquist]]
* [[Regolatore lineare quadratico]]
* [[Sensore]]
* [[Sistema dinamico lineare stazionario]]
* [[Sistema di controllo distribuito]]
* [[Sistema dinamico]]
* [[Strumentazione di controllo]]
* [[SCADA]]
* [[Servomeccanismo]]
* [[Termostato]]
* [[Teoria dei sistemi]]
* [[Teoria del caos]]
{{Div col end}}
 
== Altri progetti ==
{{interprogetto|preposizione=sul|wikt=controllo automatico}}
 
==Collegamenti esterni==
==Voci correlate==
* {{Collegamenti esterni}}
*[[Analisi dei sistemi di controllo]]
* {{cita web | 1 = http://www.dsi.unifi.it/~angeli/lezioni/Lez01.pdf | 2 = Analisi e simulazione dei sistemi dinamici. | accesso = 19 dicembre 2008 | urlarchivio = https://web.archive.org/web/20070117082036/http://www.dsi.unifi.it/%7Eangeli/lezioni/Lez01.pdf | dataarchivio = 17 gennaio 2007 | urlmorto = sì }}
*[[Automazione]]
* [http://ieeexplore.ieee.org/iel5/37/29513/01337846.pdf People in control] (tratto da: ''Control Systems Magazine'', IEEE, volume 24, articolo 5, ottobre 2004 pagine 12-15).
*[[Controllabilità_(Teoria_dei_sistemi)|Controllabilità]] di un sistema dinamico.
* {{cita web|http://www.isa.org/|ISA, the International Society for Measurement and Control}}
*[[Controllo lineare quadratico gaussiano]]
*[[Controllo ottimo]]
*[[Controllo robusto]]
*[[Controllori PID]]
*[[Diagramma di Bode]]
*[[Equilibrio_(Teoria_dei_sistemi)|Equilibrio]] di un sistema dinamico.
*[[H-infinito|Controllo in H-inf]]
*[[Loop transfer recovery]]
*[[Nyquist]]
*[[Proprietà dei sistemi lineari tempo invarianti]]
*[[Regolatore lineare quadratico]]
*[[Sistemi dinamici lineari invarianti alla traslazione]]
*[[Sistemi dinamici lineari tempo invarianti]]
*[[Sistemi dinamici]]
*[[Strumentazione di controllo]]
*[[Teoria dei sistemi]]
*[[Teoria del caos]]
*[[Testi sulla teoria del controllo]]
 
{{Controllo di autorità}}
[[categoria:Ingegneria_dell%27automazione]]
{{Portale|Controlli automatici}}
[[categoria:Sistemi di controllo]]
{{Portale|Ingegneria}}
 
[[Categoria:Controlli automatici| ]]
[[ar:نظرية التحكم]]
[[cs:Teorie řízení]]
[[de:Regelungstheorie]]
[[en:Control theory]]
[[eo:Fermitcikla regilo]]
[[es:Teoría de control]]
[[fi:Säätötekniikka]]
[[fr:Régulation]]
[[ja:制御理論]]
[[ko:제어이론]]
[[nl:Meet- en regeltechniek]]
[[pl:Teoria sterowania]]
[[ru:Теория управления]]
[[th:ทฤษฎีระบบควบคุม]]
[[uk:Теорія керування]]