Controllo automatico: differenze tra le versioni

Contenuto cancellato Contenuto aggiunto
Botcrux (discussione | contributi)
m riformulati alcuni periodi per renderli più chiari, eliminato metalinguaggio e linguaggio in prima persona, corretto uso delle virgole eliminando quelle sbagliate che separano verbo da soggetto o da complemento principale e quelle inutili
Riga 1:
In [[scienza dell'automazione]], il '''controllo automatico''' di un dato [[sistema dinamico]] (di un [[motore]], di un [[impianto industriale]], di una [[funzione biologica]] come il [[cuore|battito cardiaco]]) si prefigge di modificare il [[comportamento]] del sistema da controllare, (ovvero ledelle sue [[Output|uscite]]), attraverso la manipolazione delle [[Grandezza fisica|grandezze]] d'[[Input|ingresso]]. Ad esempio può richiedersi che l'uscita rimanga costante ad un valore prefissato al variare dell'ingresso (controllo semplice) oppure segua fedelmente la dinamica dell'ingresso stesso ([[sistema di asservimento]]) a meno di amplificazioni e ritardi.
 
Il controllo del sistema in esame viene affidato ad un altro sistema costruito appositamente, detto ''sistema controllante'' o [[Controllore (strumento)|controllore]], che viene progettato dopo uno studio preliminare del sistema da controllare per individuarne ilun modello matematico esatto,sufficientemente preciso servendosi degli strumenti messi a punto dalla [[teoria dei sistemi]]. Il controllo automatico di un sistema è possibile solo se il sistema stesso è ''raggiungibile'' e ''[[Osservabilità|osservabile]]'', cioè se è possibile sia portarlo in un dato stato interno agendo sui suoi ingressi, esia risalire allo stato attuale del sistema basandosi sulle sue uscite.
 
==Esempio di sistema di controllo==
InPer esempio in un moderno [[motore a combustione interna]], ad esempio, il sistema riceve in ingresso la posizione del pedale dell'acceleratore o un setpoint di velocità ed alcuni dati ambientali e deve garantire determinate velocità e coppia in uscita ede unala corretta composizione dei gas di scarico. Il sistema controllante è tipicamente una centralina che elabora i dati di ingresso quali velocità di rotazione, portata di alimentazione, presenza di ossigeno allo scarico... e agisce su una serie di grandezze fisiche come posizione della valvola a farfalla, istante e durata dell'iniezione di carburante, istante di accensione, eventuale anticipo variabile della [[Distribuzione (meccanica)|distribuzione]], eccetera.
Il sistema controllante è tipicamente una centralina che elabora i dati di ingresso e quelli di feedback (velocità di rotazione, portata di alimentazione, presenza di ossigeno allo scarico...) ed agisce su una serie di grandezze fisiche come posizione della valvola a farfalla, istante e durata dell'iniezione di carburante, istante di accensione, eventuale anticipo variabile della [[Distribuzione (meccanica)|distribuzione]], eccetera.
 
==Cenni storici==
[[File:Boulton and Watt centrifugal governor-MJ.jpg|thumb|left|[[Regolatore centrifugo]] in un motore del 1788 di Boulton e Watt.]]
 
Il primo esempio di applicazione della teoria dei controlli è dato dal [[Regolatore centrifugo]], sul quale [[James Clerk Maxwell]] affrontò uno studio di analisi dinamica nel suo scritto del [[1868]] intitolato ''On Governors''.<ref name=Maxwell1867>{{Cita pubblicazione
| autore = Maxwell, J.C.
| anno = 1867
Riga 22 ⟶ 21:
}}</ref>
 
In seguito [[Edward John Routh]], (allievo di Maxwell), generalizzò le conclusioni di Maxwell per la classe dei sistemi lineari.<ref name=Routh1975>{{Cita libro
| autore = Routh, E.J.
| coautori = Fuller, A.T.
Riga 29 ⟶ 28:
| editore = Taylor & Francis
| id=ISBN
}}</ref> Indipendentemente da Routh, [[Adolf Hurwitz]] analizzò nel [[1877]] la stabilità del sistema servendosi di [[equazioni differenziali]]. Il risultato di Routh e Hurwitz è noto come [[teorema di Routh-Hurwitz]].<ref>
}}</ref>
Indipendentemente da Routh, [[Adolf Hurwitz]] analizzò nel [[1877]] la stabilità del sistema servendosi di [[equazioni differenziali]]. Il risultato di Routh e Hurwitz è noto come [[teorema di Routh-Hurwitz]].
<ref>
{{Cita libro
| autore = Routh, E.J.
Riga 38 ⟶ 35:
| editore = Macmillan and co.
| id=ISBN
}}</ref><ref>
<ref>
{{Cita pubblicazione
| autore = Hurwitz, A.
Riga 49 ⟶ 45:
Negli [[anni 1890]] [[Aleksandr Michajlovič Ljapunov]] elabora le basi della [[Stabilità secondo Lyapunov|teoria della stabilità]].
 
Negli [[anni 1930]] [[Harry Nyquist]] elabora il [[Criterio di Nyquist|criterio di stabilità di Nyquist]], che permette di studiare la stabilità di un sistema in retroazione unitaria.
 
Con la [[Seconda guerra mondiale]] la teoria dei controlli espanse il suo campo di applicazione ai sistemi di [[puntamento]], ai [[Sistema di guida|sistemi di guida]], e all'[[elettronica]]. Con la [[corsa allo spazio]] anche la guida dei veicoli spaziali divenne oggetto di studio della teoria dei controlli.
 
Negli [[Anni 1940|anni quaranta]] anche l'[[informatica]] diventa studio della teoria dei controlli, grazie agli studi sulla [[programmazione dinamica]] di [[Richard Bellman]]. Sempre negli anni '40 nasce la [[cibernetica]], una scienza multidisciplinare che sfrutta i risultati della teoria dei controlli.
 
Negli [[Anni 1950|anni cinquanta]] [[John R. Ragazzini]] contribuisce introducendo i concetti di [[controllo digitale]] e la [[trasformata zeta]]. Altri campi di applicazione della teoria dei controlli sono l'[[economia]] e l'[[ingegneria chimica]].
Altri campi di applicazione della teoria dei controlli sono l'[[economia]] e l'[[ingegneria chimica]].
 
==Teoria dei controlli==
 
La '''teoria dei controlli''' è quella branca della [[scienza]] ed [[ingegneria]] che studia il comportamento di un [[Sistema (fisica)|sistema]] chele siacui interessatograndezze siano soggette a variazioni nel [[tempo]]. Questa scienza, che ha un vastissimo campo di applicazione, è nata nell'ambito dell'[[elettronica]] [[industria]]le e dell'automazione.
Questa scienza, che ha un vastissimo campo di applicazione, è nata nell'ambito dell'[[elettronica]] [[industria]]le e dell'automazione.
 
Il controllo può avvenire solo in un regime temporale. Spesso lo studio (matematico, con [[Modello matematico|modelli matematici]]) nel [[Dominio (matematica)|dominio]] del tempo diventa molto difficile, causa la necessità di risolvere [[equazione differenziale|equazioni differenziali]]. Quindi, attraverso delle trasformazioni (in gergo, le ''trasformate'', di cui le più famose sono quelle di [[Trasformata di Fourier|Fourier]] e quelle di [[Trasformata di Laplace|Laplace]]), si studia lo stesso sistema con tecniche di tipo [[algebra|algebrico]] nel ''dominio della frequenza'', e una volta ottenuto il risultato si antitrasforma ([[antitrasformata]]) per tornare nel dominio del tempo.
 
La rappresentazione grafica di un sistema o processo si attua mediante 'schemi a blocchi' oppure 'grafi di flusso' dove ogni singolo processo è individuato da una 'trasferenza' dinamica.
Riga 71 ⟶ 65:
===Ingressi e uscite===
 
Ogni sistema può avere uno o più ingressi e può avere una o più [[uscita|uscite]]. Con il termine '''SISO''' (acronimo di ''single input - single output'') si intende un sistema a singolo ingresso e a singola uscita, mentre con il termine '''MIMO''' (acronimo di ''multi input - multi output'') si intende un sistema a ingressi multipli e a uscite multiple.
 
Ad ogni variazione delle variabili in ingresso segue una determinata risposta del sistema, ovvero unaun variazionecerto comportamento di altre variabili all'uscita. Le variazioni delle variabili in ingresso più comuni sono: l'[[Delta di Dirac|impulso di Dirac]], il [[variazione a gradino|gradino]], la [[variazione a rampa|rampa]] e la [[sinusoide]]).
Le variazioni delle variabili in ingresso più comuni sono: l'[[Delta di Dirac|impulso di Dirac]], il [[variazione a gradino|gradino]], la [[variazione a rampa|rampa]] e la [[sinusoide]]).
 
<center>
Riga 90 ⟶ 83:
 
Tra le ''variabili in uscita'' si hanno:
* '''variabili di prestazione''': sono le variabili controllate, (da non confondere con le variabili di controllo), e possono essere misurabili direttamente o indirettamente
* '''variabili intermedie''': sono delle variabili fisiche misurabili, che possono essere utilizzate per la misura indiretta delle variabili di prestazione.
 
La misurazionemisura diretta delle variabili da controllare viene detta ''misura (o misurazione) primaria'', mentre la misurazionemisura indiretta delle variabili da controllare viene detta ''misura (o misurazione) secondaria''. Esempi di misurazione secondaria sono il [[controllo in cascata]], il [[controllo adattativo]] e il [[controllo inferenziale]].
 
===Controllo ad anello aperto===
[[File:Controllodiretto.gif|right|Schema del controllo diretto]]
 
Un sistema automatico di controllo può funzionare essenzialmente in due modi: come ''controllo ad anello aperto'' o come ''controllo in retroazione'' (vedi dopo).
 
Il '''controllo ad anello aperto''' (o '''in avanti''' o '''predittivo''' o '''''feedforward''''') si basa su una elaborazione degli ingressi eseguita senza conoscere il valore dell'uscita del sistema controllato, essendo note alcune proprietà del sistema da controllare.
 
In questo caso è fondamentale avere un buon modello matematico che descriva incon manierabuona abbastanza precisaprecisione il comportamento del sistema. Tanto più il modello matematico su cui si basa l'azione del controllo feedforward è esatto, tanto più questo tipo di controllo è affidabile.
 
I motori elettrici della maggior parte dei ventilatori oggi in vendita sono controllati mediante un sistema di asservimento di questo tipo.
Riga 111 ⟶ 104:
Il '''controllo ad anello chiuso''' (o '''retroazionato''' o '''all'indietro''' o '''''feedback'''''), più complesso ma molto più flessibile del primo, può rendere [[Stabilità (teoria dei sistemi)|stabile]] un sistema che di per sé non lo è affatto.
 
In questo caso l'anello di controllo riporta, all'ingresso del processo che si vuole controllare (o rendere stabile), una funzione dell'uscita che va sommata algebricamente al segnale già presente in ingresso.
 
Se chiamiamoChiamando <math>y_{ref}</math> il segnale in ingresso al sistema prima dell'innesto della retroazione detto anche segnale di riferimento, <math>y_{out}</math> il segnale in uscita dal sistema da controllare, <math>y_{fb}</math> il segnale in uscita dal controllore (che quindi dipende da <math>y_{out}</math> e dalla struttura dello stesso controllore), si può distinguere il controllo in:
* [[retroazione positiva]]: al segnale <math>y_{ref}</math> viene sommato <math>y_{fb}</math>, e la somma viene inviata in ingresso al sistema;
* [[retroazione negativa]]: al segnale <math>y_{ref}</math> viene sottratto <math>y_{fb}</math>, in modo da avere in ingresso al sistema il cosiddetto ''segnale errore'', <math>e_f</math>
 
Il segnale di riferimento viene chiamato così in quanto nei sistemi di asservimento si vuole che l'uscita lo segua il più fedelmente possibile per alcuni classi di segnali di riferimento. Per questo motivo la differenza tra riferimento e uscita viene chiamata errore o errore di inseguimento
A seconda del tipo della retroazione, si possono fare considerazioni diverse circa la stabilità del sistema complessivo ottenuto (oscillazioni ed energia del segnale in uscita); in generale si può affermare che la retroazione positiva porta a sistemi instabili, mentre la retroazione negativa apre la strada a strategie di controllo molto efficaci per il raggiungimento della stabilità del sistema.
 
In generale la retroazione positiva porta a sistemi instabili, mentre la retroazione negativa apre la strada a strategie di controllo molto efficaci per il raggiungimento della stabilità del sistema e il miglioramento delle prestazioni del sistema: velocità nel raggiungere il valore di uscita desiderata, errore nullo nel caso di ingresso costante o di ingresso con variazioni lineari nel tempo, eccetera...
 
{{vedi anche|Retroazione}}
 
===Controllo in retroazione di sistemi L.T.I. e L.I.T.===
Ogni blocco componente un sistema [[Sistema dinamico lineare stazionario|L.T.I.]] può essere rappresentato tramite una [[funzione di trasferimento]] applicando al sottosistema che modella il blocco stesso rispettivamente la [[trasformata di Laplace]] o la [[trasformata Zeta]], a seconda che si tratti di sistemi a tempo continuo o a [[tempo discreto]]. Perciò il controllo LTI in [[retroazione]] è essenzialmente un sistema di controllo formato:
* dalla cascata di controllore <math>C(s)</math> o <math>C(z)</math> e processo <math>P(s)</math> o <math>P(z)</math> il cui ingresso è l'errore <math>E(s)</math> o <math>E(z)</math> tra riferimento <math>R(s)</math> o <math>R(z)</math> e uscita del processo <math>Y(s)</math> o <math>Y(z)</math>; le funzioni [[analisi complessa|complesse]] in ''s'' o in ''z'' sono rispettivamente le trasformate di Laplace o Zeta dei sistemi che rappresentano i blocchi e le trasformate di Laplace o Zeta dei segnali in ingresso e in uscita ai blocchi stessi.
Perciò, il controllo LTI in [[retroazione]] è essenzialmente un sistema di controllo formato:
* dalladal cascata di controlloreprocesso <math>CP(s)</math> (o <math>CP(z)</math>) ela processocui uscita <math>PY(s)</math> (o <math>PY(z)</math>) ilè cuiprelevata ingressoda èun l'errore[[compensatore dinamico]] <math>EC(s)</math> (o <math>EC(z)</math>) ottenuto tracome riferimentosintesi di un [[osservatore dello stato]] e di un [[controllo in retroazione dallo stato]], per esempio il [[regolatore lineare quadratico]], che genera l'ingresso di controllo <math>RU(s)</math> (o <math>RU(z)</math>) eche uscitasi delsomma processoal riferimento <math>YR(s)</math> (o <math>YR(z)</math>); le funzioni [[analisi complessa|complesse]] in ''s'' (o in ''z'') sono rispettivamente le trasformate di Laplace (o Zeta) dei sistemi che rappresentano i blocchi e le trasformate di Laplace (o Zeta) dei segnali in ingresso e in uscita ai blocchi stessi.
Le posizioni nel [[piano complesso]] dei [[Polo (analisi complessa)|poli]] e degli [[zeri]] della funzione di trasferimento determinano i [[modi di risposta]] e in particolare la [[Stabilità (teoria dei sistemi)|stabilità]] del sistema. Nei ''sistemi causali'' LTI, quali i [[sistemi fisici]] LTI, ovvero nei sistemi LTI le cui uscite non dipendono dai valori futuri degli ingressi, gli elementi della matrice di trasferimento sono frazionari ed hanno un [[polinomio]] a [[denominatore]] di [[Polinomio|grado]] non inferiore al grado del polinomio a [[numeratore]]. Se gli [[zeri]] dei denominatori, detti ''poli'' della trasformata, appartengono al semipiano a [[parte reale]] positiva del [[piano complesso]], il sistema è ''instabile'' e la [[risposta all'impulso]] ''y<sub>&delta;</sub>(t)'' [[Limite (matematica)|tende]] all'[[infinito (matematica)|infinito]] al crescere di ''t''. Se invece i ''poli'' della trasformata appartengono al semipiano a parte reale negativa del [[piano complesso]], il sistema è ''asintoticamente [[stabile]]'' e ''y<sub>&delta;</sub>(t)'' tende [[asintoto|asintoticamente]] a 0 al crescere di ''t''. Se,Infine se infine, i ''poli'' della trasformata appartengono alla retta verticale a parte reale nulla del [[piano complesso]] ed hanno [[Radice (matematica)#Molteplicità di una radice|molteplicità]] singola, il sistema è ''semplicemente stabile'' e ''y<sub>&delta;</sub>(t)'' è maggiorata in [[valore assoluto]] da un certo valore al crescere di ''t''. Per determinare come varinovariano le posizioni dei poli e degli zeri al variare della funzione di trasferimento del compensatore che si vuole progettare, si usano particolari grafici, quali il [[diagramma di Bode]], il [[diagramma di Nyquist]] e il [[luogo delle radici]].
* dal processo <math>P(s)</math> (o <math>P(z)</math>) la cui uscita <math>Y(s)</math> (o <math>Y(z)</math>) è prelevata da un [[compensatore dinamico]] <math>C(s)</math> (o <math>C(z)</math>) (ottenuto come sintesi di un [[osservatore dello stato]] e di un [[controllo in retroazione dallo stato]]; ne è un esempio il [[regolatore lineare quadratico]]) che genera l'ingresso di controllo <math>U(s)</math> (o <math>U(z)</math>) che andrà sommato al riferimento <math>R(s)</math> (o <math>R(z)</math>).
Le posizioni nel [[piano complesso]] dei [[Polo (analisi complessa)|poli]] e degli [[zeri]] della funzione di trasferimento determinano i [[modi di risposta]] e in particolare la [[Stabilità (teoria dei sistemi)|stabilità]] del sistema. Nei ''sistemi causali'' LTI, quali i [[sistemi fisici]] LTI, ovvero nei sistemi LTI le cui uscite non dipendono dai valori futuri degli ingressi, gli elementi della matrice di trasferimento sono frazionari ed hanno un [[polinomio]] a [[denominatore]] di [[Polinomio|grado]] non inferiore al grado del polinomio a [[numeratore]]. Se gli [[zeri]] dei denominatori, detti ''poli'' della trasformata, appartengono al semipiano a [[parte reale]] positiva del [[piano complesso]], il sistema è ''instabile'' e la [[risposta all'impulso]] ''y<sub>&delta;</sub>(t)'' [[Limite (matematica)|tende]] all'[[infinito (matematica)|infinito]] al crescere di ''t''. Se invece i ''poli'' della trasformata appartengono al semipiano a parte reale negativa del [[piano complesso]], il sistema è ''asintoticamente [[stabile]]'' e ''y<sub>&delta;</sub>(t)'' tende [[asintoto|asintoticamente]] a 0 al crescere di ''t''. Se, infine, i ''poli'' della trasformata appartengono alla retta verticale a parte reale nulla del [[piano complesso]] ed hanno [[Radice (matematica)#Molteplicità di una radice|molteplicità]] singola, il sistema è ''semplicemente stabile'' e ''y<sub>&delta;</sub>(t)'' è maggiorata in [[valore assoluto]] da un certo valore al crescere di ''t''. Per determinare come varino le posizioni dei poli e degli zeri al variare della funzione di trasferimento del compensatore che si vuole progettare, si usano particolari grafici, quali il [[diagramma di Bode]], il [[diagramma di Nyquist]] e il [[luogo delle radici]].
 
Due proprietà fondamentali dei sistemi LTI sono la '''[[raggiungibilità]]''' e l''''[[osservabilità]]'''. Se queste due proprietà sono verificate allora per il sistema di controllo, (cioè il sistema ottenuto retroazionando il sistema dinamico LTI con un controllore LTI), esiste sempre un controllore che rende il sistema di controllo asintoticamente stabile.
 
Esistono differenti tipi di controllori. Le prime tecnologie di controllori si basavano essenzialmente su circuiti analogici (''[[reti correttrici]]'') appositamente creati per un dato problema. Attualmente vengono utilizzati sistemi di controllo digitale che permettono di sfruttare le potenzialità dei computer garantendo un minor costo e una maggiore versatilità.
Riga 135 ⟶ 129:
[[File:Radiator op blauw-wit-gestreepte tegels.JPG|thumb|Un'applicazione pratica del controllo in retroazione è rappresentato dal sistema di riscaldamento degli ambienti domestici.]]
 
Esempio classico di controllo in retroazione è unil sistema di controllo di temperatura di una stanza. SupponiamoQuesto sistema di volercontrollo a retroazione viene anche chiamato regolatore poiché regola l'uscita di un sistema per mantenerla il più possibile uguale all'ingresso. Si vuole mantenere la temperatura di una stanza a 20&nbsp;°C. Un [[valvola termostatica|termostato]] controlla la temperatura e comanda l'afflusso di acqua ai caloriferi della stanza. IlIn un sistema di controllo il valore a cui vogliamosi tenerevuole mantenere la temperatura viene definito in un sistema di controllochiamato ''set point''. A seconda della temperatura letta dal sensore quindi si apre o si chiude l'afflusso dell'acqua al calorifero. La temperatura della stanza oscillerà così attorno ai 20&nbsp;°C a seconda della dissipazione del calore e, della capacità dei caloriferi e delle condizioni a cui il regolatore apre o chiude la valvola. Un tipo di regolazione in retroazione income questo sensoè può essere definitochiamato ''regolazione on-off'' in quanto prevede come retroazione un semplice comando acceso-spento. Un tipo di controllo del genere può essere usato per la regolazione del riscaldamento di una stanza di un'abitazione, dove oscillazioni di 1&nbsp;°C sono tollerate da chi dovrà utilizzare la stanza.
 
== Soluzioni di controllo ==
Esistono diverse tecniche per sintetizzare controllori in anello chiuso, ditra seguito saranno illustrate brevementecui le soluzioni più note. sono:
 
=== Controllo PID ===
{{vedi anche|Controllo PID}}
Rappresenta una delle soluzioni di controllo più semplici, permette di ottenere buone prestazioni con sistemi prevalentemente lineari, mentre risulta deludente per sistemi con carattere fortemente non lineare (es.: sistemi LTV<ref>Con la sigla LTV si fa riferimento a sistemi Lineari con parametri Tempo Varianti</ref>) o con caratteristiche particolari come la presenza di zeri nel semipiano di destra o di poli nell'origine o sull'asse immaginario. La semplicità delle tre azioni elementari che lo costituiscono ne rende semplice l'implementazione sia con tecnologie pneumatiche sia con tecnologie elettroniche. Per via della sua larga diffusione non è raro trovarne implementazione anche in [[controllo digitale|elettronica digitale]] dove le potenzialità della [[CPU]] permetterebbero l'implementazione di algoritmi ben più complessi.
La semplicità delle tre azioni elementari che lo costituiscono ne rende semplice l'implementazione sia con tecnologie pneumatiche che elettroniche. Per via della sua larga diffusione non è raro trovarne implementazione anche in [[controllo digitale|elettronica digitale]] dove le potenzialità della [[CPU]] permetterebbero l'implementazione di algoritmi ben più complessi.
 
=== Controllo ''sliding mode'' ===
{{vedi anche | Controllo sliding mode}}
Utilizzando una visione elementare puòPuò essere considerato come una estensione del controllo on/off utilizzato per la regolazione della temperatura di caldaie e frigoriferi. Sfruttando la teoria di [[stabilità secondo Lyapunov]] e la possibilità di applicare segnali di controllo in alta frequenza, permette di ottenere controllori semplici ed estremamente robusti. Il limite principale è rappresentato dalla frequenza massima del segnale di controllo e dalla presenza di oscillazioni sull'uscita, note come ''chatter''. Tuttavia la teoria alla base del '''controllo sliding mode''' permette di svilupparne varianti leggermente più complesse, prive di ''chatter'' e allo stesso tempo robuste anche per sistemi con caratterizzazioni fortemente non lineari.
Tuttavia la teoria alla base del '''controllo sliding mode''' permette di svilupparne varianti leggermente più complesse, prive di ''chatter'' e allo stesso tempo robuste anche per sistemi con caratterizzazioni fortemente non lineari.
 
=== Controllo adattativo ===
{{vedi anche| Controllo adattativo}}
In questa categoria rientrano gli algoritmi di controllo con capacità di adattarsi al sistema da controllare, possono. esserciEsistono diverse forme di adattabilità che vanno dalla modifica dei parametri di controllo lungo opportune curve ([[Gain scheduling]]) alla possibilità di cambiare completamente o parzialmente la struttura del controllore. Rispetto alle soluzioni di controllo che non prevedono una variabilità nei parametri o nella struttura, scontano un maggiore peso computazionale che ne rende difficile l'implementazione su hardware commerciale, ma offrono come contropartita migliori prestazioni e una maggiore robustezza.
Rispetto alle soluzioni di controllo che non prevedono una variabilità nei parametri o nella struttura, scontano un maggiore peso computazionale che ne rende difficile l'implementazione su hardware commerciale. Offrendo come contropartita migliori prestazioni ed una maggiore robustezza.
 
=== Controllo ottimo ===
{{vedi anche|Controllo ottimo}}
Il [[controllo ottimo]] si prefigge di stabilizzare il [[sistema dinamico]] tramite l'ottimizzazione di una funzione di costo <math>J(x,u)</math>, (dove per <math>x</math> si intende lo stato del sistema e per u il controllo generato da un opportuno controllore ottenuto a seguito della minimizzazione). Minimizzando la funzione di costo <math>J</math> e manipolando opportuni parametri si riesce ad ottenere un controllore che rende la dinamica del controllo grande e veloce o piccola e lenta. Minimizzare <math>J</math> significa far tendere <math>x</math> a zero, ovvero stabilizzarlo, in tempo finito o infinito (e quindidi conseguenza anche <math>u</math> che è un controllo in retroazione dallo stato) e, quindi stabilizzareun'opportuna <math>x</math>combinazione lineare delle variabili di stato. Il controllo ottimo è efficace sotto ipotesi di stabilizzabilità del sistema e di rivelabilità del sistema. Se il sistema è rivelabile, (cioè se lo stato <math>x</math> va stimato), è necessario un osservatore anch'esso ottimo: il [[filtro di Kalman]].
 
La teoria sviluppata per il '''controllo ottimo''' permette la sintesi di controllori noto il modello ed esclusivamente per sistemi lineari.
Riga 164 ⟶ 155:
{{vedi anche|Controllo robusto}}
 
È una soluzione di controllo che permette di imporre sia le prestazioni nominali, sia le prestazioni robuste (sotto ipotesi di incertezze parametriche sul modello del sistema). Valido solo per sistemi lineari, giunge alla definizione di una serie di vincoli che il controllore dovràdeve garantire. {{Chiarire| In tal senso non è una soluzione di controllo robusta per natura (come il [[Controllo sliding mode]]), ma semplicemente un'imposizione di vincoli su un controllore in retroazione di stato.}}
 
Nel caso lineare ''MIMO'' il sistema P<sub>0</sub>, detto ''processo nominale'', viene controllato con un apposito compensatore K in retroazione dallo stato stimato (conterrà, quindi il sistema di controllo sarà costituito da un controllore vero e proprio e da un osservatore dello stato). La matrice K viene sintetizzata tramite appositi algoritmi di [[controllo robusto]] che, datiassegnati i vincoli di prestazione, forniscono un compensatore ottimo tramite sintesi [[Regolatore lineare quadratico|LQR]] - [[Loop transfer recovery|LTR]] (anche detta [[controllo LQG|LQG]]), tramite sintesi in [[H-infinito]] o tramite i classici metodi della compensazione di sistemi ''SISO'' previa operazione di [[disaccoppiamento del sistema]].
 
=== Controllo deadbeat ===
Riga 176 ⟶ 167:
 
;Strutture del controllore
:*'''Controllo feedback''' - ''Vantaggi'': robustezza, controlla anche i disturbi non misurabili o imprevisti - ''Svantaggi'': essendo in anello chiuso, può introdurre instabilità nella risposta se tarato male, non agisce in tempo reale
:*'''Controllo feedforward''' - ''Vantaggi'': agisce prima che il sistema risenta del disturbo, non introduce instabilità nella risposta - ''Svantaggi'': il sistema deve scostarsi poco dal modello, è richiesta una buona conoscenza del sistema, il disturbo deve essere misurabile, non controllosono controllati i disturbi imprevisti o non misurabili
:*'''Controllo misto''' - Unisce i vantaggi delle singole soluzioni senza presentare svantaggi significativi.
:*'''Controllo in cascata''' - ''Vantaggi'': Sforzo di taratura minore, maggiore robustezza ai disturbi