SlideShare a Scribd company logo
1 of 76
Download to read offline
UNIVERSIT`A DEGLI STUDI DI
TRIESTE
Dipartimento di Ingegneria e Architettura
Laurea Triennale in Ingegneria dell’Informazione
Studio sulle condizioni di validit`a del
criterio di Barkhausen
7 marzo 2018
Laureando Relatore
Matteo Smaila Chiar.mo Prof. Sergio Carrato
Anno Accademico 2016/2017
Di due attivit`a che gli siano state insegnate, l’uomo generalmente
preferisce la pi`u difficile: nessun giocatore di scacchi gioca a dama
—
Bertrand Russell
—
Sommario
Questo elaborato riguarda il criterio di Barkhausen e in particolare la rela-
zione che intercorre tra tale criterio e la stabilit`a di un sistema. Si riporta
innanzitutto la dimostrazione di necessariet`a del criterio di Barkhausen af-
finch´e un sistema retroazionato positivamente produca un’uscita oscillatoria
ad ampiezza costante, per un tempo indefinito. Dopodich´e si traduce in lin-
guaggio matematico il ragionamento euristico spesso utilizzato per motivare
l’estensione del criterio di Barkhausen a criterio di stabilit`a. Ci`o permette
di evidenziarne la non liceit`a e spiegare perch´e sia dunque possibile trovare
dei controesempi per tale criterio esteso. Si presenta poi una realizzazione
pratica di uno di questi controesempi, ossia un circuito elettronico che non
rispetta le previsioni effettuate dal criterio esteso. Inoltre, si esamina una
possibile condizione aggiuntiva, gi`a presentata da alcuni gruppi di ricerca
(seppur senza una motivazione, n´e fisica n´e matematica), che modifica il
criterio esteso ed amplia la classe di sistemi sui quali esso fornisce predizioni
corrette circa la loro stabilit`a. Da tale esame si evince che la condizione
trovata concorda con il criterio di Nyquist almeno due classi comuni di si-
stemi. Inoltre si propone una spiegazione di natura fisica per la validit`a di
tale condizione aggiuntiva.
i
Indice
Sommario i
Introduzione iii
1 Sistemi e Stabilit`a 1
1.1 Sistemi dinamici . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 Sistemi LTI . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.3 Stato di un sistema . . . . . . . . . . . . . . . . . . . . . . . . 3
1.4 Descrizione esterna . . . . . . . . . . . . . . . . . . . . . . . . 4
1.5 Equilibri e stabilit`a . . . . . . . . . . . . . . . . . . . . . . . . 6
2 I criteri di Nyquist e Barkhausen 9
2.1 Sistemi retroazionati . . . . . . . . . . . . . . . . . . . . . . . 9
2.2 Il criterio di Nyquist . . . . . . . . . . . . . . . . . . . . . . . 10
2.3 Il criterio di Barkhausen . . . . . . . . . . . . . . . . . . . . . 11
2.4 Il criterio esteso di Barkhausen . . . . . . . . . . . . . . . . . 12
3 L’approccio seriale 14
3.1 Un risultato preliminare . . . . . . . . . . . . . . . . . . . . . 14
3.2 L’approccio seriale per i sistemi LTI . . . . . . . . . . . . . . 22
4 Un controesempio 26
4.1 Simulazione del controesempio . . . . . . . . . . . . . . . . . 26
4.2 Il circuito . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
5 Una condizione aggiuntiva 60
5.1 Diagramma di Nyquist in funzione di K . . . . . . . . . . . . 61
5.2 Nyquist e dφ
dω < 0 . . . . . . . . . . . . . . . . . . . . . . . . . 63
5.3 Significato fisico della condizione aggiuntiva . . . . . . . . . . 65
Conclusioni 67
ii
Introduzione
Lo studio della stabilit`a dei sistemi `e oggetto d’interesse fin dai tempi della
rivoluzione industriale, ed `e fondamentale in quasi tutti i rami dell’ingegne-
ria. Un caso particolare molto utile ai fini pratici `e lo studio della stabilit`a
dei sistemi retroazionati. Intuitivamente, una retroazione negativa dovrebbe
ridurre opportunamente l’ampiezza del segnale entrante nel sistema, mante-
nendola all’interno di un range ben definito, e facendo s`ı che anche l’ampiezza
del segnale uscente rimanga entro dei limiti prefissati. Una retroazione po-
sitiva, viceversa, dovrebbe alimentare il segnale in ingresso, facendo s`ı che
questo si autosostenga, o addirittura cresca indefinitamente. Quest’ultima
trova impiego, infatti, negli oscillatori elettronici.
Heinrich Georg Barkhausen, fisico tedesco nato nel 1881 e scomparso nel
1956 [6], formula nel 1921 l’omonimo criterio, condizione necessaria affin-
ch´e un sistema retroazionato positivamente generi un segnale oscillante di
ampiezza costante. Barkhausen ricav`o questa condizione allo scopo di stabi-
lire agevolmente a quale frequenza un dispositivo dovesse oscillare, qualora
oscillasse, e non al fine di determinarne le caratteristiche di stabilit`a. Suc-
cessivamente si fece spazio in letteratura un’interpretazione non rigorosa del
criterio, basata sulla causalit`a temporale, che diede luogo ad una lettura del
criterio di Barkhausen quale criterio di stabilit`a [9]. Tale interpretazione `e
molto apprezzata, poich´e convincente da un punto di vista fisico, ma ine-
satta, come avremo modo di vedere, poich´e esistono degli esempi di sistemi
stabili che, secondo l’illecito criterio di stabilit`a derivato da Barkhausen,
dovrebbero risultare instabili (e viceversa).
Harry Theodor Nyquist (1889 - 1976), fisico svedese naturalizzato sta-
tunitense [2], formula nel 1932 quello che oggi conosciamo come Criterio
di Nyquist, e che fornisce risultati corretti sulle caratteristiche di stabilit`a
di un sistema retroazionato a partire da una rappresentazione grafica del-
la funzione di trasferimento dell’anello aperto dello stesso - il diagramma
di Nyquist. Il criterio di Nyquist, che fornisce una condizione necessaria e
sufficiente affinch´e il sistema studiato sia asintoticamente stabile, poggia su
basi matematiche pi`u complicate ed astratte rispetto al criterio di Barkhau-
sen, e non fornisce alcuna informazione sulla natura della risposta libera del
sistema stesso (in particolare, se oscilli o meno).
Da qui nasce la necessit`a di compiere ulteriori studi sull’argomento, poi-
iii
INTRODUZIONE
ch´e ad oggi manca una condizione sufficiente (che sia motivata in maniera
convincente da un punto di vista fisico) affinch´e la risposta libera di un
sistema oscilli.
iv
Capitolo 1
Sistemi e Stabilit`a
In questo primo capitolo vengono riportati, introduttivamente, concetti noti
dalla teoria dei sistemi, tratti da [3, 14, 15]. La scelta di dedicare un in-
tero capitolo a tale introduzione `e motivata dalla possibilit`a di introdurre
la simbologia e i risultati salienti in maniera organica, in modo da poter
essere citati agevolmente in tutto il resto del testo, snellendo la successiva
trattazione.
1.1 Sistemi dinamici
Con sistema dinamico a tempo continuo a parametri concentrati ci
si riferisce ad un sistema fisico descritto da un sistema di equazioni del tipo:
˙x(t) = f(x(t), u(t), t)
y(t) = g(x(t), u(t), t)
(1.1.1)
dove, dato un dominio T = [t0, t1] ⊆ R, x : T → Rn `e il vettore di stato,
u : T → Rm `e il vettore d’ingresso e y : T → Rp `e il vettore d’uscita. Pertanto
f e g sono definite su Rn × Rm × T. Per i casi da noi affrontati, sar`a T = R
e m = p = 1, ossia sistemi con solamente un ingresso e un’uscita, detti
Single Input - Single Output (abbreviato SISO). La prima equazione
viene detta equazione di stato, la seconda equazione d’uscita.
Il sistema si dice a tempo continuo poich´e il tempo `e modellizzato
con una variabile che si muove in un intervallo di R, ossia varia con con-
tinuit`a. A questo tipo di sistemi si contrappongono i sistemi a tempo
discreto, in cui il tempo viene modellizzato come una variabile k in un
dominio E = [k0, k1] ⊆ Z, ossia gli istanti di interesse sono numerabili. Tali
sistemi, invece di essere descritti da equazioni differenziali, sono descritti da
equazioni alle differenze.
La dicitura a parametri concentrati sta a significare che ciascun com-
ponente del sistema ha una propriet`a che fisicamente si pu`o considerare
concentrata in un punto, e pertanto pu`o essere descritta da uno scalare, che
1
CAPITOLO 1. SISTEMI E STABILIT`A
pu`o o meno variare nel tempo. Vi si contrappongono i sistemi a parametri
distribuiti, in cui le propriet`a fisiche sono invece distribuite nello spazio, e
pertanto devono essere descritte da funzioni il cui valore varia al variare del
punto considerato (ed eventualmente nel tempo). In questo caso le equazio-
ni che si ottengono sono alle derivate parziali. Nel mondo reale i parametri
sono sempre distribuiti, ma in caso di sistemi che operano a basse frequenze,
la minima lunghezza d’onda che pu`o interessare il sistema `e normalmente
molto maggiore delle dimensioni del sistema stesso. Pertanto si pu`o assu-
mere che ogni variazione si propaghi istantaneamente attraverso il sistema,
mentre nei sistemi a parametri distribuiti questa assunzione `e falsa.
Se in un sistema l’uscita non dipende direttamente dall’ingresso, os-
sia y(t) = g(x(t), t), il sistema si dice strettamente proprio. In caso
contrario, il sistema `e non strettamente proprio.
1.2 Sistemi LTI
Se tutti i componenti di un sistema hanno propriet`a che non variano nel
tempo, allora la f e la g in 1.1.1 non dipendono da t, e si parla di sistema
stazionario o tempo-invariante. Il sistema di equazioni diventa dunque:
˙x(t) = f(x(t), u(t))
y(t) = g(x(t), u(t))
(1.2.1)
Nel caso particolare in cui f e g siano lineari, il sistema si dice lineare e il
sistema di equazioni 1.1.1 diventa:
˙x(t) = A(t) x(t) + B(t) u(t)
y(t) = C(t) x(t) + D(t) u(t)
(1.2.2)
dove A : T → Rn×n, B : T → Rn×m, C : T → Rp×n e D : T → Rp×m.
Qualora entrambe le propriet`a siano soddisfatte, si parla di sistemi li-
neari tempo-invarianti, spesso abbreviato in sistemi LTI. Il sistema di
equazioni, in tal caso, si riduce a:
˙x(t) = A x(t) + B u(t)
y(t) = C x(t) + D u(t)
(1.2.3)
Si osservi che in questo caso A ∈ Rn×n, B ∈ Rn×m, C ∈ Rp×n e D ∈ Rp×m,
ossia le matrici sono costanti. Inoltre, il sistema `e strettamente proprio se
D = 0.
I sistemi LTI sono di fondamentale importanza in ingegneria (e in parti-
colare in questa trattazione) per due ragioni:
2
CAPITOLO 1. SISTEMI E STABILIT`A
• tranne in casi particolarissimi, si vogliono realizzare sistemi le cui pro-
priet`a fisiche rimangano idealmente inalterate con lo scorrere del tem-
po, ossia sistemi tempo-invarianti; inoltre, alcuni sistemi non stazionari
variano in funzione di t in modo cos`ı lento che si possono considerare
tempo-invarianti anche su intervalli T ragionevolmente lunghi;
• si prediligono i sistemi lineari per la semplicit`a di trattazione data dal
principio di sovrapposizione degli effetti, tanto che spesso si restrin-
ge il range di impiego di sistemi non lineari in modo tale da poterli
linearizzare in un intorno di un determinato punto di lavoro.
1.3 Stato di un sistema
Il concetto di stato distingue un sistema dinamico da uno non dinamico. In
un sistema non dinamico, l’uscita y all’istante di tempo t dipende esclusiva-
mente dal valore dell’ingresso u allo stesso istante di tempo. In un sistema
dinamico, invece, l’uscita dipende sia dall’ingresso che dal valore di alcune
altre grandezze variabili, dette variabili di stato del sistema. Presentia-
mo due esempi significativi per chiarire la necessit`a dell’introduzione di tale
concetto.
Un esempio in ambito elettrotecnico di sistema non dinamico `e il resi-
store, descritto dalla legge di Ohm:
v = R i
La differenza di potenziale (in breve d.d.p.) v ai capi di un resistore (usci-
ta) dipende unicamente dalla corrente i che scorre attraverso di esso, e dal
parametro concentrato R - la resistenza del componente. Si osservi che tale
sistema si pu`o considerare un sistema dinamico con stato costante e matrici
A, B, C nulle, mentre D = R. In pratica, i sistemi non dinamici sono un
sottoinsieme dei sistemi dinamici, e le equazioni che descrivono i sistemi non
dinamici LTI sono equazioni lineari algebriche, piuttosto che differenziali.
Rimanendo sempre nell’elettrotecnica, un esempio di sistema dinamico
`e invece il condensatore, la cui caratteristica `e:
i(t) = C1
dv
dt
(t) (1.3.1)
dove C1 `e la capacit`a del condensatore. Volendola porre nella forma riportata
in 1.2.3: 


dv
dt
(t) =
1
C1
i(t)
y(t) = v(t)
3
CAPITOLO 1. SISTEMI E STABILIT`A
ossia, lo stato `e rappresentato da v, le matrici A e C si riducono a 0 ∈ R, la
matrice B a 1
C1
e la D diventa 1 ∈ R (ossia l’uscita coincide con lo stato).
Dalla 1.3.1 si ricava facilmente che:
v(t) = v(t0) +
1
C1
t
t0
i(τ) dτ
Si osservi che la v non dipende soltanto dalla i, ma anche dal valore iniziale
v(t0) della d.d.p., che di fatto misura il livello di carica del condensatore
(poich´e C1 := Q
v ⇒ Q = C1v). Applicando la stessa corrente nel medesimo
periodo temporale a due condensatori con d.d.p. iniziale diversa (ossia che
si trovano in uno stato differente), si giunge a una d.d.p. finale diversa.
Pertanto, i sistemi fisici aventi un’inerzia o una memoria di qualche tipo,
o (pi`u rigorosamente) descritti da equazioni integrali, differenziali o integro-
differenziali, hanno evidenziato il bisogno del concetto di stato affinch´e il
modello di sistema rispecchi opportunamente la realt`a fisica.
1.4 Descrizione esterna
La notazione usata finora per descrivere un sistema viene detta descrizione
interna, poich´e presuppone la conoscenza dello stato, di come esso sia con-
dizionato dall’ingresso e da come esso condizioni se stesso e l’uscita. Vi `e la
possibilit`a di trovare una descrizione del sistema che esprima direttamente
l’uscita in funzione dell’ingresso. Per farlo `e necessario usare la trasforma-
ta di Laplace (in breve L -trasformata). La L -trasformata unilatera di
una funzione f `e una funzione F, in generale a valori complessi, definita da:
F(s) = L [f(t)] :=
+∞
0−
f(t) e−st
dt (1.4.1)
L’integrale da 0− `e un modo compatto per scrivere:
lim
E→0
+∞
−E
f(t) e−st
dt
Ci`o serve a includere nell’integrale eventuali impulsi di Dirac che si trovassero
in t = 0.
Tra le varie importanti propriet`a che caratterizzano la trasformata di
Laplace, riportiamo la seguente:
L
df
dt
(t) = sL [f(t)] − f(0+
) (1.4.2)
Applichiamola ora al sistema 1.2.3:
s X(s) − x(0+) = A X(s) + B U(s)
Y (s) = C X(s) + D U(s)
4
CAPITOLO 1. SISTEMI E STABILIT`A
Allora l’equazione di stato diventa:
X(s) (sI − A) = x(0+
) + B U(s)
Dovendo invertire (sI −A), ci si chiede per quali valori di s ci`o sia possibile,
ossia per quali valori di s si ha det(sI − A) = 0 . Poich´e il determinante
di (sI − A) `e proprio il polinomio caratteristico di A, esso sar`a di grado n.
Pertanto solo per n valori di s tale determinante `e nullo (i.e., gli autovalori
di A). Per tutti gli altri, (sI − A) `e invertibile, e possiamo scrivere:
X(s) = (sI − A)−1
(x(0+
) + B U(s))
Sostituendo nell’equazione d’uscita:
Y (s) = C (sI − A)−1
(x(0+
) + B U(s)) + D U(s)
⇒ Y (s) = C (sI − A)−1
x(0+
) + (D + C (sI − A)−1
B) U(s) (1.4.3)
Si osservi che se x(0+) = 0 (ossia lo stato iniziale `e nullo e non sono stati
applicati impulsi all’istante iniziale), allora:
Y (s) = (D + C (sI − A)−1
B) U(s) (1.4.4)
La (D + C (sI − A)−1 B) viene indicata con H(s) e detta funzione di
trasferimento (in breve f.d.t.). Nota la trasformata U del vettore d’ingresso
e nota la f.d.t. del sistema, moltiplicandole tra loro e antitrasformando il
risultato, si ottiene y funzione del tempo, detta in questo caso evoluzione
forzata dell’uscita del sistema. Per questo, vista anche l’assenza dello stato
nella 1.4.4, si parla in questo caso di descrizione esterna del sistema.
`E opportuno osservare che (sI − A)−1 ha per elementi delle funzioni
algebriche razionali fratte. Questo perch´e:
• come gi`a detto, il determinante `e il polinomio caratteristico di A (che
quindi `e di grado n), e va al denominatore di ciascun elemento;
• ciascun complemento algebrico deriva dal calcolo del minore comple-
mentare, che `e il determinante di una sottomatrice di (sI − A) di
dimensione n − 1, e quindi un polinomio di grado n − 1.
Se il sistema `e strettamente proprio, D `e la matrice nulla e gli elementi di
H(s) sono razionali fratte con grado n−1 al numeratore, n al denominatore.
Altrimenti, a causa di D, dovendo sviluppare un denominatore comune per
ogni elemento, si ottengono razionali fratte con grado n sia al numeratore che
al denominatore. Per sistemi SISO, la H(s) si riduce ad una sola funzione
razionale fratta, ossia:
5
CAPITOLO 1. SISTEMI E STABILIT`A
H(s) =
N(s)
D(s)
= K
(s − z1)(s − z2) · · · (s − zm)
(s − p1)(s − p2) · · · (s − pn)
(1.4.5)
con m pari a n − 1 o n come gi`a spiegato sopra, K ∈ C costante. Le radici
del denominatore vengono dette poli della funzione di trasferimento, quelle
del numeratore zeri. Salvo cancellazioni (ossia semplificazioni in caso di zeri
e poli coincidenti), i poli coincidono con gli autovalori di A.
Riprendendo la 1.4.3 e ponendo U(s) = 0, che `e la trasformata dell’in-
gresso nullo, si ha:
Y (s) = C (sI − A)−1
x(0+
) (1.4.6)
La C (sI − A)−1, che noi indicheremo con HL(s), esprime la proporzionalit`a
tra Y (s) e x(0+), permettendo quindi di studiare la cosiddetta evoluzione
libera dell’uscita del sistema. Per gli stessi ragionamenti fatti per la f.d.t.,
HL `e, nel caso SISO, una funzione algebrica razionale fratta del tipo:
HL(s) =
NL(s)
D(s)
= KL
(s − zL,1)(s − zL,2) · · · (s − zL,n−1)
(s − p1)(s − p2) · · · (s − pn)
(1.4.7)
Il denominatore `e, per ovvi motivi, lo stesso visto nella H(s), e quindi le due
condividono gli stessi poli (sempre salvo cancellazioni).
1.5 Equilibri e stabilit`a
L’equilibrio `e un concetto presente nella vita di tutti i giorni. Diciamo che un
corpo `e in equilibrio quando, malgrado non sia fissato saldamente al terreno,
a un edificio, o comunque a un corpo ritenuto relativamente inamovibile,
esso mantiene la sua posizione, o non cade, seppure tale eventualit`a sia
contemplata. Di tutto questo, ci`o che realmente conta `e lo stato di quiete
del corpo nonostante le sollecitazioni esterne che esso possa subire, mentre
la precariet`a o meno dell’equilibrio ricadr`a nel concetto di stabilit`a.
In riferimento a 1.1.1, fissata una funzione d’ingresso u, se esiste x ∈ Rn
tale che:
x(t0) = x ⇒ x(t) = x ∀t t0, t ∈ D (1.5.1)
esso si dice stato di equilibrio o semplicemente equilibrio. In maniera
del tutto analoga, fissata u, se esiste y ∈ Rp tale che:
y(t0) = y ⇒ y(t) = y ∀t t0, t ∈ D (1.5.2)
si parla di uscita di equilibrio.
6
CAPITOLO 1. SISTEMI E STABILIT`A
Per sistemi stazionari (vedi 1.2.1), essendo l’equazione di stato indipen-
dente da t, si ha in generale:
f(x, u(t)) = 0 ⇔ u(t) = u
e dunque `e necessario che anche l’ingresso sia costante affinch´e sia possibile
trovare degli equilibri. Per ogni stato di equilibrio, poi, si evidenzia un’uscita
di equilibrio, poich´e:
g(x, u) = y ∈ Rp
Informalmente, un equilibrio (u, x) `e stabile se, perturbato leggermente lo
stato iniziale, l’evoluzione dello stato non si discosta troppo da x. In altre
parole, per piccole variazioni dello stato iniziale si hanno piccole variazioni
del movimento dello stato (ossia di t → x(t)). L’equilibrio sar`a poi asin-
toticamente stabile se, perturbato lo stato iniziale, il movimento dello
stato tender`a nuovamente all’equilibrio. In simboli, se t0 `e l’istante iniziale,
v = (u, x) `e un equilibrio stabile se:
∀E > 0 ∃δ = δ(E, v) > 0 : x(t0) − x < δ ⇒ x(t) − x < E ∀t > t0
(1.5.3)
ed `e inoltre asintoticamente stabile se:
lim
t → +∞
x(t) − x = 0 (1.5.4)
Per i sistemi lineari (e quindi in particolare per i sistemi LTI) si pu`o
dimostrare che la stabilit`a `e una propriet`a del sistema e non dell’equilibrio.
Ci`o significa tutti gli equilibri del sistema hanno le medesime propriet`a di
stabilit`a. `E possibile dimostrare anche che la stabilit`a del sistema dipende
esclusivamente dagli autovalori della matrice A. In particolare:
• se gli autovalori hanno tutti parte reale negativa, il sistema `e asintoti-
camente stabile
• se esistono autovalori a parte reale nulla ma sono tutti distinti, il
sistema `e stabile (non asintoticamente).
• se esiste almeno un autovalore a parte reale positiva, il sistema `e
instabile
Sul caso autovalori multipli a parte reale nulla non si pu`o decretare nulla:
ci sono casi in cui il sistema `e stabile, casi in cui si rivela instabile [13].
Un altro tipo di stabilit`a `e la cosiddetta stabilit`a esterna, o stabilit`a
Bounded Input - Bounded Output (abbreviato BIBO). Un sistema `e
BIBO-stabile se a input di ampiezza limitata corrispondono sempre output
7
CAPITOLO 1. SISTEMI E STABILIT`A
di ampiezza limitata. Il nome stabilit`a esterna suggerisce una stretta corre-
lazione tra questa caratteristica e la descrizione esterna del sistema. Infatti,
un sistema LTI `e BIBO-stabile se, a seguito delle cancellazioni tra poli e zeri
nella f.d.t., non vi sono in essa poli a parte reale positiva o nulla. Questo fat-
to si dimostra banalmente scomponendo la generica f.d.t. in fratti semplici e
antitrasformando: tali fratti danno infatti luogo a componenti divergenti se
e solo se i corrispondenti poli sono a parte reale positiva, o a parte reale nulla
e con molteplicit`a maggiore di 1. Moltiplicando la f.d.t. per la trasformata
di un input, non si fa che aggiungere poli, o alzare la molteplicit`a di quelli
presenti. Se i poli dell’input sono a parte reale negativa, non si lede in alcun
modo la limitatezza dell’output. Tuttavia, se la f.d.t. avesse poli a parte
reale nulla, sarebbe possibile scegliere opportunamente degli input limitati
con poli a parte reale nulla coincidenti con quelli della f.d.t., in modo da
ottenere output illimitati.
Nel caso di sistemi LTI, la asintotica stabilit`a implica la stabilit`a BIBO,
ma non `e vero il viceversa. Ci`o `e di semplice spiegazione ricordando che,
salvo cancellazioni, i poli della f.d.t. sono gli autovalori della matrice A:
• se tutti gli autovalori sono a parte reale negativa, tutti i poli sono
a parte reale negativa (anche dopo eventuali cancellazioni); pertanto
asintotica stabilit`a ⇒ stabilit`a esterna;
• viceversa si pu`o avere stabilit`a BIBO anche con poli a parte reale nulla,
od ottenere la cancellazione di poli a parte reale positiva (che quindi
continuano a esistere come autovalori, anche se non appaiono nella
f.d.t.); pertanto stabilit`a esterna ⇒ asintotica stabilit`a.
8
Capitolo 2
I criteri di Nyquist e
Barkhausen
In questo secondo capitolo si introducono dapprima i sistemi retroazionati,
ricavandone la funzione di trasferimento. Dopodich´e si riportano il criterio
di Nyquist e il criterio di Barkhausen, entrambi con annessa dimostrazione.
Infine si introduce il ragionamento informale per cui si giunge al criterio di
stabilit`a di Barkhausen.
2.1 Sistemi retroazionati
La retroazione `e la pratica di modificare l’input tenendo conto dell’uscita
del sistema. Tale meccanismo si pu`o trovare in sistemi presenti in natura,
e spesso si tratta di retroazione negativa. Noi stessi, ad esempio, dopo aver
mosso un braccio per afferrare un oggetto (uscita), correggiamo la posizione
dello stesso in funzione di ci`o che vediamo (retroazione). Lo schema generale
di un sistema retroazionato negativamente `e il seguente:
Figura 2.1: Generico sistema retroazionato negativamente
Calcoliamone subito la funzione di trasferimento:
Y (s) = H(s) E(s)
W(s) = G(s) Y (s)
9
CAPITOLO 2. I CRITERI DI NYQUIST E BARKHAUSEN
E(s) = U(s) − W(s)
⇒ Y (s) = H(s) (U(s) − G(s) Y (s))
⇒ Y (s)(1 + H(s) G(s)) = H(s) U(s)
⇒
Y (s)
U(s)
=
H(s)
1 + H(s) G(s)
(2.1.1)
In caso di retroazione positiva, la f.d.t. diventa semplicemente:
Y (s)
U(s)
=
H(s)
1 − H(s) G(s)
(2.1.2)
Si osservi che per ottenere lo schema di sistema a retroazione positiva da
quello di sistema a retroazione negativa, `e sufficiente inserire un blocco in-
vertente in serie alla G. Vale, ovviamente, anche il viceversa. In letteratura
`e comune che si sviluppi la teoria attorno ai sistemi retroazionati negativa-
mente, poich´e l’impiego di quelli a retroazione positiva `e pi`u limitato. Nella
presente si specifica di volta in volta a quale schema fare riferimento, poich´e
in alcune situazioni l’uso di un paradigma piuttosto che dell’altro aiuta a
semplificare la trattazione.
2.2 Il criterio di Nyquist
Sia Z il numero di zeri a parte reale positiva di 1 + HG, P il numero di
poli a parte reale positiva di 1 + HG (d’ora in avanti rispettivamente zeri
instabili e poli instabili). Il criterio di Nyquist afferma che Z deve essere
0 affinch´e il sistema sia stabile, e dunque:
N = P (2.2.1)
dove N `e il numero di rotazioni in senso orario che il diagramma di Nyquist
deve compiere attorno al punto −1 + j0.
Dimostriamo dunque il criterio. Da quanto riportato nella sezione 2.1
saranno i poli della f.d.t. in 2.1.2 a determinare la stabilit`a del sistema. Tali
poli sono proprio gli zeri di 1 − H(s) G(s). In particolare, nessuno zero di
questa deve avere parte reale positiva.
Definiamo innanzitutto cos’`e un diagramma di Nyquist. Data una gene-
rica f.d.t. F, si consideri di tracciare il grafico di F(s(ξ)), dove s(ξ) `e una
curva cos`ı definita:



m{Mejξ} se ξ ∈ 0, π
2
Mej(π−ξ) se ξ ∈ π
2 , 3
2π
m{Mejξ} se ξ ∈ 3
2π, 2π
ossia una semicirconferenza di raggio M > 0 nel semipiano destro, pi`u il
10
CAPITOLO 2. I CRITERI DI NYQUIST E BARKHAUSEN
diametro sull’asse immaginario (da −jM a +jM), percorsa in senso orario.
Si dice diagramma di Nyquist della F il grafico della ξ → F(s(ξ)) nel
piano di Gauss per M → ∞.
Per la encirclement property [10] (testualmente: propriet`a di accerchia-
mento) si ha che ciascun polo di F interno alla curva s(ξ) aggiunger`a un
contributo +2π alla fase di F(s(ξ)) quando ξ passa da 0 a 2π, mentre ogni
zero di F interno alla curva ξ → s(ξ) aggiunger`a un contributo −2π nel-
la stessa situazione. Pertanto, se Zs(ξ) `e il numero di zeri circondati dalla
curva ξ → s(ξ) e Ps(ξ) `e il numero di poli circondati dalla stessa, il grafico
di ξ → F(s(ξ)) girer`a attorno all’origine in senso orario per un numero di
volte pari a N = Zs(ξ) − Ps(ξ). Detto Z il numero di zeri instabili di F e
P il numero di poli instabili di F, si ha che quando M tende a +∞, Zs(ξ)
diventa Z e Ps(ξ) diventa P. Dunque N = Z − P.
Si consideri ora un sistema retroazionato negativamente con f.d.t. come
in 2.1.1. Sia F = 1 + HG. Il criterio di Nyquist afferma che, poich´e deve
essere Z = 0 per non introdurre instabilit`a (visto che gli zeri di F sono i poli
di H
1+HG , si ha:
N = P
ossia il diagramma di Nyquist di s → 1+H(s)G(s) deve accerchiare l’origine
per un numero N = P di volte in senso orario, il che equivale a dire che il
digramma di Nyquist di s → H(s) G(s) deve accerchiare −1 per N = P
volte in senso orario, come spiegato in [11]. In particolare, se G ed H sono
`e gi`a asintoticamente stabili, il criterio diventa N = 0.
Per trattare il caso a retroazione positiva, F = 1−HG e dunque l’origine
nel diagramma di Nyquist di F `e il punto 1 nel diagramma di Nyquist di
HG. In altre parole, in questo caso N `e il numero di giri in senso orario
attorno a 1, non pi`u a −1.
Qualora vi fossero zeri/poli di HG a parte reale nulla, si provvede a
modificare il percorso ξ → s(ξ) in modo da fare delle deviazioni semicircolari
centrate in tali zeri/poli, sempre rimanendo nel semipiano destro; quindi si
fa tendere a zero il raggio di tali deviazioni quando M → ∞. In questo
modo, al limite, il percorso rimane lo stesso, ma si sono esclusi i contributi
dei poli e degli zeri a parte reale nulla.
2.3 Il criterio di Barkhausen
Il criterio di Barkhausen `e molto pi`u semplice e intuitivo del sopra citato
criterio di Nyquist. Si consideri un dispositivo descritto dal seguente schema
a blocchi:
Supponiamo che tale sistema stia oscillando sinusoidalmente a regime con
pulsazione ω, ossia il segnale u possa essere descritto da un fasore U = UejθU ,
con U e θ reali. Allora va da s´e che:
Y = H(jω) U = U |H(jω)| ej(θU + φH (jω))
11
CAPITOLO 2. I CRITERI DI NYQUIST E BARKHAUSEN
Figura 2.2: Schema a blocchi di un oscillatore
ossia l’uscita y del sistema sia a sua volta una sinusoide con stessa pulsazione
di u, di ampiezza |U| |H(jω)| e fase θY = θU + φH(jω), dove phiH(jω) `e la
fase di H(jω). Analogamente deve risultare vera:
U = G(jω) Y = |Y | |G(jω)| ej(θY + φG(jω))
=
= U |H(jω)| |G(jω)| ej(θU + φH (jω) + φG(jω))
Da cui il criterio di Barkhausen:
|H(jω)| |G(jω)| = 1
φH(jω) + φG(jω) = 2kπ k ∈ Z
(2.3.1)
Il criterio di Barkhausen `e pertanto una condizione necessaria affinch´e un
sistema retroazionato positivamente e privo di ingresso oscilli ad ampiezza
costante, e questa ne `e una dimostrazione rigorosa. In caso di retroazione
negativa, `e sufficiente modificare la condizione sulla fase in:
φH(jω) + φG(jω) = π + 2kπ k ∈ Z (2.3.2)
ossia rendere invertente uno dei due blocchi.
2.4 Il criterio esteso di Barkhausen
Spesso il criterio di Barkhausen viene spiegato mediante il ragionamento
sotto riportato ([9] che a sua volta rimanda a [5]).
Figura 2.3: Generico sistema retroazionato positivamente
Si faccia riferimento alla figura 2.3, e si supponga di essere inizialmente in
12
CAPITOLO 2. I CRITERI DI NYQUIST E BARKHAUSEN
condizione di riposo: tutti i segnali sono nulli. Si pensi di iniettare breve-
mente un segnale u sinusoidale, di pulsazione ω. Tale segnale si propagher`a
dapprima attraverso H, poi attraverso G tornando quindi all’ingresso del
sistema H. Se ω `e tale che |H(jω)| |G(jω)| `e esattamente pari a 1 e lo sfasa-
mento complessivo attraverso l’anello `e 2kπ con k ∈ Z, allora `e esattamente
pari a 1, il segnale non viene n´e amplificato, n´e attenuato, e si ripresenta
all’ingresso immutato. Ci`o prosegue all’infinito, e l’oscillazione si mantie-
ne in modo perpetuo. Se, mantenuta la condizione sulla fase, si ha per`o
|H(jω)| |G(jω)| < 1, il segnale si attenua di ciclo in ciclo, e la sua ampiezza
tende a zero (condizione di stabilit`a). Se invece |H(jω)| |G(jω)| > 1 il se-
gnale si amplifica di ciclo in ciclo, e la sua ampiezza cresce indefinitamente
(condizione di instabilit`a).
Pertanto, riassumendo:
se ∠H(jω) G(jω) = 2kπ k ∈ Z, e



|H(jω)| |G(jω)| = 1 ⇒ oscillante, ampiezza costante
|H(jω)| |G(jω)| < 1 ⇒ oscillante, stabile
|H(jω)| |G(jω)| > 1 ⇒ oscillante, instabile
(2.4.1)
Tale approccio sembra dare un spiegazione fisica a stabilit`a e instabilit`a
sfruttando la causalit`a. Sembra logico, infatti, che il segnale si propaghi in
un tempo ∆t > 0 attraverso l’anello di retroazione, e sembra logico che se nel
mentre viene amplificato, cresca indefinitamente. Tuttavia, come specificato
nella sezione 1.1, stiamo considerando un modello con tempo di propagazione
nullo. Nel capitolo 3 sfrutteremo in maniera corretta questo.
13
Capitolo 3
L’approccio seriale
In questo capitolo si mira a formalizzare il ragionamento visto nella sezione
2.4, partendo dapprima da un caso semplificato, ossia in assenza di dinamica,
per poi affrontare il caso generale. L’obiettivo `e trarre da tale approccio
informazioni corrette sul comportamento del sistema in funzione di H e G.
In particolare siamo interessati alla stabilit`a del sistema e alla presenza di
oscillazioni nella risposta libera.
3.1 Un risultato preliminare
Si consideri un sistema non dinamico, retroazionato positivamente, in cui
H(s) = H ∈ R e G(s) = G ∈ R. In questo modo, a tutte le pulsazioni ω
l’amplificazione dell’anello risulta essere H(jω) G(jω) = HG ∈ R. Se ad
esempio H = 4 e G = 0.5, calcolando il valore della f.d.t.:
F(s) =
H(s)
1 − H(s) G(s)
=
4
1 − 2
= −4
Da questa ci aspetteremmo di aver descritto un amplificatore invertente con
amplificazione pari a 4. In realt`a tale sistema `e BIBO-instabile. Questo `e
uno dei casi in cui la rimozione del ritardo di propagazione dall’anello trae
in inganno. Una volta reintrodotta, il ragionamento con cui si `e ricavato il
criterio esteso nella sezione 2.4.1 fornisce una predizione ragionevole.
Per prima cosa, modifichiamo il nostro sistema retroazionato positiva-
mente come in figura 3.1. Si dimostra facilmente che inserire un unico ritardo
nell’anello di retroazione pari alla somma dei ritardi introdotti dai singoli
rami `e equivalente a considerare il ritardo di ciascun ramo. Facendo tendere
∆t a 0, alla fine, otterremo predizioni valide per il sistema di partenza.
Rimaniamo nel dominio del tempo, e indichiamo il ritardo con ∆t. Dal
momento che il sistema `e tempo invariante, consideriamo t = 0 l’istante
iniziale senza perdere in generalit`a. Le equazioni che descrivono il sistema
14
CAPITOLO 3. L’APPROCCIO SERIALE
Figura 3.1: Sistema a retroazione positiva con ritardo di propagazione
sono: 


y(t) = He(t)
w(t) = G y(t − ∆t)
e(t) = u(t) + w(t)
Sostituendo la terza nella prima:
y(t) = H(u(t) + w(t))
E scrivendo l’espressione di w(t) come riportato nella seconda:
y(t) = H(u(t) + G y(t − ∆t))
Che, riarrangiata, diventa:
y(t) = HG y(t − ∆t) + Hu(t)
Ci si pu`o dunque ricondurre ad una rappresentazione per successioni:
yn = HG yn−1 + Hun (3.1.1)
Per prima cosa, cerchiamo un equilibrio della successione (yn)n, ossia un
valore y tale che se yn = y, allora yn+1 = y per ogni n.
y = HG y + Hun
⇐⇒ y (1 − HG) = Hun
⇐⇒ y =
H
1 − HG
un
e ci`o `e valido se e solo se un = u costante:
y =
H
1 − HG
u (3.1.2)
Se non volessimo avere un = u e yn = H
1−HG u per ogni n ∈ Z, basterebbe
imporre la condizione un = u per n 0 e y−1 = H
1−HG u. Infatti, applicando
la 3.1.1:
y0 = HG y−1 + Hu0 =
15
CAPITOLO 3. L’APPROCCIO SERIALE
= HG
H
1 − HG
u + Hu =
=
H2G u + H(1 − HG)u
1 − HG
=
=
H
1 − HG
u
e per induzione, si ha che yn = H
1−HG u ∀n ≥ −1. Ci`o `e gi`a irrealizzabile di
per s´e nel caso reale, poich´e nella realt`a fisica possiamo controllare solamente
la u: la y ne `e una conseguenza. Infatti le condizioni di studio dei sistemi
sono, usualmente, a stato nullo e ingressi nulli per istanti precedenti a quello
iniziale. Ci`o implica, grazie all’equazione d’uscita in 1.2.3 che anche l’uscita
sia nulla per istanti precedenti a quello iniziale. Ciononostante, studiamo
la stabilit`a di questo equilibrio nel senso delle successioni, per capire se
l’uscita vi tenda anche qualora la condizione sulla y−1 sopra citata non sia
soddisfatta (e in particolare per yn = 0 per n < 0.
Chiamiamo L = H
1−HG u per semplicit`a. Sia E ∈ R, e sia y−1 = L + E.
Allora:
y0 = HGy−1 + Hu0 =
= HG (L + E) + Hu =
= HG L + Hu + HGE =
= L + HGE
e quindi, induttivamente:
yn = L + (HG)n+1
E
Il che significa che se |HG| < 1, l’uscita yn tender`a a L anche se la y−1 non `e
esattamente L. Se |HG| , invece, l’uscita diverger`a. Un interessante caso
particolare si ha per u = 0. Allora L = 0 e E = yn−1.
yn = (HG)n+1
E
Dal momento che `e sempre presente del rumore termico in sistemi reali, an-
che un sistema in cui l’equilibrio dovrebbe essere l’uscita nulla sar`a instabile,
e l’uscita saturer`a in breve tempo (praticamente nullo).
Vale la pena di calcolare yn applicando ricorsivamente la 3.1.1 in condi-
zioni iniziali nulle (ossia un = yn = 0 se n < 0).
y0 = Hu0
y1 = HG(Hu0) + Hu1 = H(HGu0 + u1)
y2 = HG H(HGu0 + u1) + Hu2 = H (HG)2
u0 + HGu1 + u2)
16
CAPITOLO 3. L’APPROCCIO SERIALE
...
yn = H u0(HG)n
+ u1(HG)n−1
+ · · · + un−1(HG) + un
yn = H
n
k=0
(HG)k
un−k (3.1.3)
In particolare, sia un = u per n 0
yn = u H
n
k=0
(HG)k
Si osservi che n
k=0(HG)k `e l’ennesimo termine di una serie geometrica.
Pertanto:
• se |HG| 1 l’uscita `e illimitata
• se |HG| < 1, la serie converge a 1
1−HG , quindi:
limn → ∞yn =
H
1 − HG
u (3.1.4)
Si consideri ora di far tendere a 0 il ∆t. Questo `e equivalente ad avere infinite
propagazioni attraverso il circuito in tempo zero, e questo ad ogni istante t.
Pertanto limn → ∞yn non `e pi`u il valore dell’uscita all’istante n-esimo, bens`ı:
y(t) = limn → ∞
n
k=0
(HG)k
u(t)
Quando |HG| < 1 la serie converge ed effettivamente si ha:
y(t) =
H
1 − GH
u(t)
Quando |HG| 1, invece, la serie diverge e si potrebbe dire che, nel modello:
y(t) = +∞ ∀t 0
Nel caso reale non si ha mai ∆t = 0 e quindi l’uscita ha l’andamento di yn.
Non appare a gradini perch`e il ritardo attraverso il loop, alla velocit`a della
luce, `e dell’ordine di circa trenta picosecondi per centimetro da percorrere.
Pertanto i gradini sarebbero molto brevi anche in assenza di altri disturbi,
e a un normale strumento di misura sono impossibili da apprezzare.
Un altro importante caso particolare della 3.1.3 si ha quando u0 = 1,
un = 0 per n = 0. In questa situazione l’uscita `e:
yn = H(HG)n
(3.1.5)
17
CAPITOLO 3. L’APPROCCIO SERIALE
In altre parole, la risposta all’impulso del sistema a tempo discreto `e la
successione hn = H(HG)n per n 0. Se |HG| < 1 si ha che hn tende
a zero per n → ∞. Viceversa, per |HG| > 1 si ha hn illimitata. Per il
valore di frontiera tra i due casi, ossia |HG| = 1, hn = H, costante. Tale
condizione `e esattamente la traduzione di quanto riportato nella sezione 2.4
per ω = 0. Infatti, per quel che riguarda la stabilit`a del sistema, grazie
a quanto dimostrato precedentemente si pu`o affermare che il sistema sia
esternamente stabile se |HG| < 1, e non lo sia altrimenti. Per quel che
riguarda la stabilit`a in senso stretto, invece, si sarebbe persuasi di definire
il sistema:
• stabile quando |HG| < 1, poich`e y tende a 0 quando non si applicano
ingressi;
• marginalmente stabile quando |HG| = 1, poich`e il sistema ”oscilla a
frequenza nulla”, ossia mantiene autonomamente un’uscita costante
• instabile quando |HG| > 1, poich`e non appena un qualsiasi segnale nel
sistema dovesse discostarsi da 0, l’uscita y crescerebbe illimitatamente
in valore assoluto
Tale visione, a rigore, `e corretta solo per il sistema a tempo discreto. Infatti
per i sistemi a tempo discreto l’equazione differenziale in 1.1.1 diventa un’e-
quazione alle differenze, la quale nel nostro caso sarebbe la 3.1.3. Da ci`o si
deduce che lo stato pu`o essere rappresentato proprio dalla y.
In conclusione, la descrizione classica di questo sistema con l’imposizione
del tempo di propagazione pari a zero fornisce risultati corretti soltanto se
|HG| < 1. Quando invece |HG| 1, la f.d.t. ricavata in modo classico for-
nisce risultati scorretti sul reale comportamento del sistema, e bisognerebbe
piuttosto ricorrere all’introduzione del ritardo, per poi farlo tendere a zero.
Di seguito riportiamo delle simulazioni svolte per il circuito di cui sopra,
sia col modello di figura 2.3 (figura 3.2), sia col modello appena introdotto
(figura 3.1) e ritardi decrescenti (figure 3.3, 3.4, 3.5, 3.6, 3.7. Qualora il
lettore stesse visualizzando l’elaborato in formato pdf, per la visualizzazione
corretta dei grafici delle risposte nel tempo si consiglia un fattore di zoom
del 150% o superiore.
18
CAPITOLO 3. L’APPROCCIO SERIALE
Date/Time run: 03/05/18 18:43:33
* C:UserssimsaDocuments00 MATTEO00 Universit01 - TESISimulazioni pSpiceNon Dinamico retroaz positivoSch...
Temperature: 27.0
Date: March 05, 2018 Page 1 Time: 18:46:41
(B) Schematic1.dat (active)
Time
0s 2ms 4ms 6ms 8ms 10ms 12ms 14ms 16ms 18ms 20ms
V(H:3)
-7.0V
-6.0V
-5.0V
-4.0V
-3.0V
-2.0V
Figura 3.2: Risposta del circuito non dinamico ad ingresso costante di
ampiezza 1, modello senza ritardo di propagazione
Date/Time run: 03/05/18 19:03:31
* C:UserssimsaDocuments00 MATTEO00 Universit01 - TESISimulazioni pSpiceNon Dinamico retroaz positivo con...
Temperature: 27.0
Date: March 05, 2018 Page 1 Time: 19:04:23
(A) Schematic1.dat (active)
Time
0s 50us 100us 150us 200us 250us 300us 350us 400us 450us
V(H:3)
0V
2.0GV
4.0GV
6.0GV
8.0GV
10.0GV
Figura 3.3: Risposta del circuito non dinamico ad ingresso costante di am-
piezza 1, modello con ritardo di propagazione. ∆t = 10µs, Step ceiling =
100ns
19
CAPITOLO 3. L’APPROCCIO SERIALE
Date/Time run: 03/05/18 19:03:31
* C:UserssimsaDocuments00 MATTEO00 Universit01 - TESISimulazioni pSpiceNon Dinamico retroaz positivo con...
Temperature: 27.0
Date: March 05, 2018 Page 1 Time: 19:04:23
(A) Schematic1.dat (active)
Time
0s 50us 100us 150us 200us 250us 300us 350us 400us 450us
V(H:3)
0V
2.0GV
4.0GV
6.0GV
8.0GV
10.0GV
Figura 3.4: Risposta del circuito non dinamico ad ingresso costante di am-
piezza 1, modello con ritardo di propagazione. ∆t = 5µs, Step ceiling =
100ns
Date/Time run: 03/05/18 19:10:05
* C:UserssimsaDocuments00 MATTEO00 Universit01 - TESISimulazioni pSpiceNon Dinamico retroaz positivo con...
Temperature: 27.0
Date: March 05, 2018 Page 1 Time: 19:10:21
(A) Schematic1.dat (active)
Time
0s 40us 80us 120us 160us 200us 240us
V(H:3)
0V
2.0GV
4.0GV
6.0GV
8.0GV
10.0GV
Figura 3.5: Risposta del circuito non dinamico ad ingresso costante di am-
piezza 1, modello con ritardo di propagazione. ∆t = 1µs, Step ceiling =
10ns
20
CAPITOLO 3. L’APPROCCIO SERIALE
Date/Time run: 03/05/18 19:10:05
* C:UserssimsaDocuments00 MATTEO00 Universit01 - TESISimulazioni pSpiceNon Dinamico retroaz positivo con...
Temperature: 27.0
Date: March 05, 2018 Page 1 Time: 19:10:21
(A) Schematic1.dat (active)
Time
0s 40us 80us 120us 160us 200us 240us
V(H:3)
0V
2.0GV
4.0GV
6.0GV
8.0GV
10.0GV
Figura 3.6: Risposta del circuito non dinamico ad ingresso costante di am-
piezza 1, modello con ritardo di propagazione. ∆t = 500nss, Step ceiling =
1ns
Date/Time run: 03/05/18 19:10:05
* C:UserssimsaDocuments00 MATTEO00 Universit01 - TESISimulazioni pSpiceNon Dinamico retroaz positivo con...
Temperature: 27.0
Date: March 05, 2018 Page 1 Time: 19:10:21
(A) Schematic1.dat (active)
Time
0s 40us 80us 120us 160us 200us 240us
V(H:3)
0V
2.0GV
4.0GV
6.0GV
8.0GV
10.0GV
Figura 3.7: Risposta del circuito non dinamico ad ingresso costante di am-
piezza 1, modello con ritardo di propagazione. ∆t = 1nss, Step ceiling =
1ps
21
CAPITOLO 3. L’APPROCCIO SERIALE
Queste rispecchiano le previsioni teoriche appena presentate. Nella fat-
tispecie si noti che per le simulazioni con ritardo decrescente (figure da 3.3 a
3.7), al tendere a zero del tempo di propagazione, il tempo in cui il segnale
d’uscita diverge tende a zero.
Nella prossima sezione, estendiamo il ragionamento ai sistemi LTI ge-
nerali, evidenziando la maggior complessit`a della trattazione e ricavando
risultati pi`u generali.
3.2 L’approccio seriale per i sistemi LTI
Consideriamo il caso generale di sistema LTI, e facciamo ancora riferimento
allo schema in 3.1. Sia ∆t il ritardo di propagazione attraverso l’anello di re-
troazione. Consideriamo un segnale di ingresso u tale che la sua trasformata
di Laplace sia U. Sia Y la trasformata dell’uscita.
Consideriamo l’intervallo [0, ∆t). Durante tale intervallo, il segnale non
si `e ancora propagato attraverso il ramo di retroazione e quindi w `e ancora
nullo. La trasformata dell’uscita del sistema `e pertanto:
Y (s) = H(s)U(s)
mentre in uscita dal blocco G si ha un segnale la cui trasformata `e:
Y (s) G(s) = H(s) G(s) U(s)
All’istante ∆t finalmente il segnale w non `e pi`u nullo, e in particolare `e una
versione ritardata di ∆t secondi del segnale in uscita dal blocco G. Pertanto,
la sua trasformata `e:
W(s) = H(s) G(s) U(s) e−s∆t
Durante l’intervallo [∆t, 2∆t) , il segnale e avr`a dunque trasformata:
E(s) = U(s) + W(s) = U(s) + H(s) G(s) U(s) e−s∆t
=
= U(s) 1 + (H(s) G(s) e−s∆t
Dunque l’uscita sar`a:
Y (s) = H(s) E(s) = H(s) U(s) (1 + (H(s) G(s) e−s∆t
Ripetendo il procedimento, si ottiene che durante l’intervallo [2∆t, 3∆t) la
W `e:
W(s) = H(s) G(s) U(s) (1 + (H(s) G(s) e−s∆t
e−s∆t
=
W(s) = U(s) H(s) G(s) e−s∆t
+ H(s) G(s)
2
e−2s∆t
22
CAPITOLO 3. L’APPROCCIO SERIALE
E dunque la Y risulta essere:
Y (s) = U(s) + W(s) H(s) =
= H(s) U(s) 1 + H(s) G(s) e−s∆t
+ H(s) G(s)
2
e−2s∆t
In generale, iterando, si ottiene la trasformata di Y per l’intervallo n∆t, (n+1) ∆t :
Y (s) = H(s)
n
k=0
H(s) G(s)
k
e−ks∆t
U(s) (3.2.1)
Come si pu`o vedere, questa forma `e la versione pi`u generale della 3.1.3.
Inoltre, se ∆t → 0, la 3.2.1 tende a:
Y (s) = H(s)
n
k=0
H(s) G(s)
k
U(s) (3.2.2)
Ci sono diverse osservazioni da fare. La prima `e che la serie geometrica
per numeri complessi `e formalmente uguale a quella per numeri reali: con-
verge se, essendo ak la generatrice, si ha |a| < 1, e il limite `e 1
1−a (∈ C, in
questo caso).
La seconda e pi`u importante considerazione `e che nel risultato prelimina-
re si aveva a che fare con una serie numerica, mentre in questo caso generale
si ha a che fare con una serie di funzioni (in questo caso complesse). Si osser-
vi che, pertanto, `e necessario stabilire a priori la definizione di convergenza
da utilizzare.
La trasformata inversa di Laplace `e definita da [21]:
f(t) =
1
2πj
lim
M→∞
γ+jM
γ−jM
F(s) est
ds
e in particolare, nei casi di nostro interesse, si ha γ = 0. Supponiamo che
la serie 3.2.2 converga, per cui `e lecito scriverne il limite per n tendende
a +∞, e supponiamo che la convergenza al limite sia uniforme. Poich`e la
convergenza uniforme implica la convergenza puntuale, per unicit`a del limite
si ha, necessariamente:
lim
n→+∞
H(s)
n
k=0
H(s) G(s)
k
U(s) =
=
H(s)
1 − H(s) G(s)
U(s)
23
CAPITOLO 3. L’APPROCCIO SERIALE
per ogni s nella ROC [21] di quest’ultima. Dunque:
lim
n→+∞
H
n
k=0
H G
k
U =
=
H
1 − H G
U
dove la convergenza si intende in senso uniforme. Possiamo dunque scrivere:
L −1 H
1 − H G
U =
L −1
lim
n→+∞
H
n
k=0
H G
k
U =
=
1
2πj
+j∞
−j∞
lim
n→+∞
H(s)
n
k=0
H(s) G(s)
k
U(s) est
ds
Poich´e la convergenza `e uniforme per ipotesi, possiamo invertire il segno di
limite col segno di integrale e scrivere:
lim
n→+∞
1
2πj
+j∞
−j∞
H(s)
n
k=0
H(s) G(s)
k
U(s) est
ds =
= lim
n→+∞
n
k=0
1
2πj
+j∞
−j∞
H(s) H(s) G(s)
k
U(s) est
ds =
= lim
n→+∞
n
k=0
L −1
H(s) H(s) G(s)
k
U(s)
Riassumendo, se la serie converge uniformemente, converge alla f.d.t. e allora
la risposta del sistema al segnale u coincide con la serie delle risposte a u
dei sistemi H(HG), H(HG)2, H(HG)3. . . In simboli:
L −1 H
1 − HG
U =
∞
k=0
L −1
H H G
k
U (3.2.3)
L’uniforme convergenza `e solo condizione sufficiente affinch`e si possa
invertire il segno di limite con il segno di integrale. Pertanto, ci potrebbero
essere casi in cui nonostante la convergenza non sia uniforme, la risposta del
sistema reale si pu`o comunque calcolare con la f.d.t. intesa in senso classico.
Mentre per il caso in sezione 3.1 bastava imporre |HG| < 1 per ave-
re stabilit`a esterna e quindi stabilit`a asintotica, nel caso generale imporre
24
CAPITOLO 3. L’APPROCCIO SERIALE
|H(s) G(s)| < 1 per ogni s appartenente alla ROC non `e sufficiente, poich`e
ci`o implica solamente la convergenza puntuale. Inoltre, se anche trovassimo
una condizione affinch`e valga la 3.2.3, questo ci permetterebbe soltanto di
affermare che la risposta del sistema `e effettivamente pari a L −1 H
1−HG U ,
senza poter dedurre niente riguardo la stabilit`a esterna. A maggior ra-
gione, dunque, non pu`o essere sufficiente imporre |H(jω) G(jω)| < 1 per
ω : ∠H(jω) G(jω) = 0 per decretare alcunch´e sulla stabilit`a esterna, men
che meno su quella interna.
25
Capitolo 4
Un controesempio
Nelle pagine che seguono, si documenta la realizzazione circuitale di un si-
stema retroazionato positivamente. Il sistema in questione ha la propriet`a
di essere stabile per tutti i valori di K al di fuori di un dato intervallo, e
instabile se K appartiene a quest’ultimo.
Qualora il lettore stesse visualizzando l’elaborato in formato pdf, per la
visualizzazione corretta dei grafici delle risposte nel tempo si consiglia un
fattore di zoom del 150% o superiore.
4.1 Simulazione del controesempio
La fase preliminare di ricerca bibliografica ha portato ad esaminare gli arti-
coli [7, 16, 17, 18, 20]. In particolare, al punto 3 “Example 2” di [16] viene
presentato un circuito in cui il blocco H `e un amplificatore non inverten-
te di guadagno K, mentre il blocco G di retroazione `e realizzato come un
partitore tra una serie RC e un parallelo RC, in modo da presentare un
comportamento oscillatorio (vedasi figura 4.1, tratta da [16]). Tale circui-
to ha la propriet`a di essere asintoticamente stabile per K < 1 e K > 1.5,
mentre `e instabile se K ∈ (1, 1.5). Sulla frontiera dell’intervallo si ha mar-
ginale stabilit`a. Il fatto interessante `e che il criterio esteso di Barkhausen
prevederebbe comportamento oscillatorio instabile per K > 1.5, stabile per
K < 1.5. La funzione di trasferimento `e:
H(s) G(s) = K
1 + s2R2C2 + 2 sRC
1 + s2R2C2 + 3 sRC
(4.1.1)
In figura 4.2 il diagramma di Nyquist per il circuito per K = 1, R = 1 kΩ,
C = 1 nF. Su di esso `e riportato il punto 1
K per i valori pi`u significativi
di K (si faccia riferimento a [11], tenendo presente che nel nostro caso si
ha retroazione positiva, non negativa). Si riportano inoltre in figura 4.3 i
diagrammi di Bode per modulo e fase, tracciato per gli stessi valori di K,
R e C. Innanzitutto, il circuito `e stato simulato su pSpice 9.1 utilizzando
26
CAPITOLO 4. UN CONTROESEMPIO
Figura 4.1: Lo schema circuitale come in [16]
Figura 4.2: Il diagramma di Nyquist per il circuito in figura 4.1
lo schema circuitale di figura 4.4. Lo schema `e differente da quello visto in
figura 4.1. Si vuole dunque motivare l’introduzione di due dispositivi VCVS
(Voltage Controlled Voltage Source) in pi`u rispetto al circuito originale:
• il VCVS A `e un amplificatore ideale di tensione controllato in tensione;
fa le veci dell’amplificatore a guadagno K presentato in figura 4.1;
• il VCVS S viene usato come sommatore non invertente, in modo da
poter dare un impulso iniziale al circuito con l’ausilio del generatore Vp;
detta w l’uscita del blocco B, `e facile verificare, sfruttando la sovrap-
27
CAPITOLO 4. UN CONTROESEMPIO
Figura 4.3: I diagrammi di Bode per il circuito in figura 4.1
Figura 4.4: Lo schema circuitale ideale su pSpice 9.1
posizione degli effetti, che all’ingresso di S si ha 1
3w + 1
3Vp; pertanto il
blocco B ha guadagno pari a 3;
• il VCVS B fa da buffer non invertente, neccessario a causa dell’introu-
zione delle resistenze Rp, Rw, Rpd.
Dare un impulso iniziale al circuito `e necessario perch`e altrimenti, essendo
tutti i componenti ideali, si ha uscita nulla anche in caso di circuito instabile,
28
CAPITOLO 4. UN CONTROESEMPIO
causa le condizioni iniziali nulle. L’impulso iniziale permette di perturbare
dunque lo stato del sistema.
L’impulso iniziale utilizzato nella simulazione `e rettangolare, di durata
1µs, fronti di salita e discesa molto ripidi (tempo di salita e di discesa pari
a 10 ns), ampiezza 1V. Come previsto dall’articolo [16], il circuito esibisce
un comportamento stabile per K < 1. In particolare, si pu`o osservare dal-
le figure 4.5, 4.6, 4.7, 4.8 e 4.9 come le capacit`a nell’anello di retroazione
reagiscano ai fronti dell’impulso generando degli spike molto brevi in corri-
spondenza di essi. Tali impulsi tendono ad avere durata nulla e ampiezza
infinita quando K tende a 1 (figure 4.8 e 4.9).
Date/Time run: 03/04/18 00:51:16
* C:UserssimsaDocuments00 MATTEO00 Universit01 - TESISimulazioni pSpiceCounterexampleSchematic1.sch
Temperature: 27.0
Date: March 04, 2018 Page 1 Time: 00:51:38
(A) Schematic1.dat (active)
Time
0s 2us 4us 6us 8us 10us 12us 14us 16us 18us 20us
V(C11:2)
-0.5V
0V
0.5V
1.0V
Figura 4.5: K=0.5; Step ceiling = 100ns
29
CAPITOLO 4. UN CONTROESEMPIO
Date/Time run: 03/04/18 00:52:37
* C:UserssimsaDocuments00 MATTEO00 Universit01 - TESISimulazioni pSpiceCounterexampleSchematic1.sch
Temperature: 27.0
Date: March 04, 2018 Page 1 Time: 00:53:02
(A) Schematic1.dat (active)
Time
0s 2us 4us 6us 8us 10us 12us 14us 16us 18us 20us
V(C11:2)
-10V
-5V
0V
5V
10V
Figura 4.6: K=0.9; Step ceiling = 100ns
Date/Time run: 03/04/18 00:53:20
* C:UserssimsaDocuments00 MATTEO00 Universit01 - TESISimulazioni pSpiceCounterexampleSchematic1.sch
Temperature: 27.0
Date: March 04, 2018 Page 1 Time: 00:53:45
(A) Schematic1.dat (active)
Time
0s 2us 4us 6us 8us 10us 12us 14us 16us 18us 20us
V(C11:2)
-100V
-50V
0V
50V
100V
Figura 4.7: K=0.99; Step ceiling = 100ns
30
CAPITOLO 4. UN CONTROESEMPIO
Date/Time run: 03/04/18 00:57:27
* C:UserssimsaDocuments00 MATTEO00 Universit01 - TESISimulazioni pSpiceCounterexampleSchematic1.sch
Temperature: 27.0
Date: March 04, 2018 Page 1 Time: 00:57:59
(A) Schematic1.dat (active)
Time
0s 10ps 20ps 30ps 40ps 50ps 60ps 70ps 80ps 90ps 100ps
V(C11:2)
0V
200KV
400KV
600KV
800KV
Figura 4.8: K=0.999999; Step ceiling = 1ps
Date/Time run: 03/04/18 00:58:30
* C:UserssimsaDocuments00 MATTEO00 Universit01 - TESISimulazioni pSpiceCounterexampleSchematic1.sch
Temperature: 27.0
Date: March 04, 2018 Page 1 Time: 01:05:11
(A) Schematic1.dat (active)
Time
1.000000us 1.000002us 1.000004us 1.000006us 1.000008us 1.000010us
V(C11:2)
-600KV
-400KV
-200KV
0KV
-700KV
Figura 4.9: K=0.999999; Step ceiling = 1ps
31
CAPITOLO 4. UN CONTROESEMPIO
Per K = 1 non `e possibile ottenere una simulazione. Per K > 1 si ha
un comportamento che sembra semplicemente divergente, mentre si rive-
la essere oscillatorio e divergente via via che si impostano valori di K pi`u
elevati (si faccia riferimento alle figure da 4.10 a 4.35). Il limite a 10 GV
imposto dal simulatore, combinato con la rapidit`a con cui l’ampiezza dell’u-
scita diverge, non permette di apprezzare l’andamento oscillatorio. Questo
perch´e, raggiunta tale tensione d’uscita (comunque irrealistica, poich´e am-
plificatori reali saturerebbero a poco meno della tensione di alimentazione),
la simulazione si interrompe.
Poich´e all’aumentare di K tale crescita esponenziale diventa via via meno
brusca, da K = 1.26 (figura 4.14) si riesce a notare un leggero innalzamento
della tensione prima del crollo in negativo. Da K = 1.27 (figura 4.15) a
salire, tale andamento si rende sempre pi`u evidente. Per K = 1.35 (figura
4.23) si riescono finalmente ad apprezzare due interi periodi della sinusoide.
Via via che K approccia il valore di 1.5, il numero di cicli visibili prima che
il simulatore arrivi al suo limite d’ampiezza cresce, tendendo all’infinito.
Date/Time run: 03/04/18 01:05:56
* C:UserssimsaDocuments00 MATTEO00 Universit01 - TESISimulazioni pSpiceCounterexampleSchematic1.sch
Temperature: 27.0
Date: March 04, 2018 Page 1 Time: 01:06:55
(A) Schematic1.dat (active)
Time
0s 1ps 2ps 3ps 4ps 5ps 6ps 7ps 8ps 9ps 10ps
V(C11:2)
-10GV
-8GV
-6GV
-4GV
-2GV
0GV
Figura 4.10: K=1.000001; Step ceiling = 1ps
32
CAPITOLO 4. UN CONTROESEMPIO
Date/Time run: 03/04/18 01:07:41
* C:UserssimsaDocuments00 MATTEO00 Universit01 - TESISimulazioni pSpiceCounterexampleSchematic1.sch
Temperature: 27.0
Date: March 04, 2018 Page 1 Time: 01:08:10
(A) Schematic1.dat (active)
Time
0s 0.4us 0.8us 1.2us 1.6us 2.0us 2.4us 2.8us
V(C11:2)
-10GV
-8GV
-6GV
-4GV
-2GV
0GV
Figura 4.11: K=1.1; Step ceiling = 50ns
Date/Time run: 03/04/18 01:08:49
* C:UserssimsaDocuments00 MATTEO00 Universit01 - TESISimulazioni pSpiceCounterexampleSchematic1.sch
Temperature: 27.0
Date: March 04, 2018 Page 1 Time: 01:09:10
(A) Schematic1.dat (active)
Time
0s 1.0us 2.0us 3.0us 4.0us 5.0us 6.0us 7.0us 8.0us
V(C11:2)
-10GV
-8GV
-6GV
-4GV
-2GV
0GV
Figura 4.12: K=1.2; Step ceiling = 50ns
33
CAPITOLO 4. UN CONTROESEMPIO
Date/Time run: 03/04/18 01:09:49
* C:UserssimsaDocuments00 MATTEO00 Universit01 - TESISimulazioni pSpiceCounterexampleSchematic1.sch
Temperature: 27.0
Date: March 04, 2018 Page 1 Time: 01:11:20
(A) Schematic1.dat (active)
Time
0s 2us 4us 6us 8us 10us 12us 14us 16us 18us
V(C11:2)
-10GV
-8GV
-6GV
-4GV
-2GV
0GV
Figura 4.13: K=1.25; Step ceiling = 50ns
Date/Time run: 03/04/18 01:12:19
* C:UserssimsaDocuments00 MATTEO00 Universit01 - TESISimulazioni pSpiceCounterexampleSchematic1.sch
Temperature: 27.0
Date: March 04, 2018 Page 1 Time: 01:12:52
(A) Schematic1.dat (active)
Time
0s 4us 8us 12us 16us 20us 24us
V(C11:2)
-10GV
-8GV
-6GV
-4GV
-2GV
-0GV
2GV
Figura 4.14: K=1.26; Step ceiling = 50ns
34
CAPITOLO 4. UN CONTROESEMPIO
Date/Time run: 03/04/18 01:13:16
* C:UserssimsaDocuments00 MATTEO00 Universit01 - TESISimulazioni pSpiceCounterexampleSchematic1.sch
Temperature: 27.0
Date: March 04, 2018 Page 1 Time: 01:13:41
(A) Schematic1.dat (active)
Time
0s 5us 10us 15us 20us 25us
V(C11:2)
-10GV
-5GV
0V
5GV
Figura 4.15: K=1.27; Step ceiling = 50ns
Date/Time run: 03/04/18 01:14:22
* C:UserssimsaDocuments00 MATTEO00 Universit01 - TESISimulazioni pSpiceCounterexampleSchematic1.sch
Temperature: 27.0
Date: March 04, 2018 Page 1 Time: 01:14:45
(A) Schematic1.dat (active)
Time
0s 4us 8us 12us 16us 20us 24us 28us
V(C11:2)
-2GV
0V
2GV
4GV
6GV
8GV
10GV
Figura 4.16: K=1.28; Step ceiling = 50ns
35
CAPITOLO 4. UN CONTROESEMPIO
Date/Time run: 03/04/18 01:14:54
* C:UserssimsaDocuments00 MATTEO00 Universit01 - TESISimulazioni pSpiceCounterexampleSchematic1.sch
Temperature: 27.0
Date: March 04, 2018 Page 1 Time: 01:15:13
(A) Schematic1.dat (active)
Time
0s 4us 8us 12us 16us 20us 24us 28us
V(C11:2)
-10GV
-8GV
-6GV
-4GV
-2GV
-0GV
2GV
Figura 4.17: K=1.29; Step ceiling = 50ns
Date/Time run: 03/04/18 01:15:34
* C:UserssimsaDocuments00 MATTEO00 Universit01 - TESISimulazioni pSpiceCounterexampleSchematic1.sch
Temperature: 27.0
Date: March 04, 2018 Page 1 Time: 01:16:12
(A) Schematic1.dat (active)
Time
0s 4us 8us 12us 16us 20us 24us 28us 32us
V(C11:2)
-2GV
0V
2GV
4GV
6GV
8GV
10GV
Figura 4.18: K=1.30; Step ceiling = 50ns
36
CAPITOLO 4. UN CONTROESEMPIO
Date/Time run: 03/04/18 01:16:35
* C:UserssimsaDocuments00 MATTEO00 Universit01 - TESISimulazioni pSpiceCounterexampleSchematic1.sch
Temperature: 27.0
Date: March 04, 2018 Page 1 Time: 01:16:49
(A) Schematic1.dat (active)
Time
0s 5us 10us 15us 20us 25us 30us 35us
V(C11:2)
-10GV
-8GV
-6GV
-4GV
-2GV
-0GV
2GV
Figura 4.19: K=1.31; Step ceiling = 50ns
Date/Time run: 03/04/18 01:17:03
* C:UserssimsaDocuments00 MATTEO00 Universit01 - TESISimulazioni pSpiceCounterexampleSchematic1.sch
Temperature: 27.0
Date: March 04, 2018 Page 1 Time: 01:17:23
(A) Schematic1.dat (active)
Time
0s 5us 10us 15us 20us 25us 30us 35us 40us
V(C11:2)
-10GV
-5GV
0V
5GV
10GV
Figura 4.20: K=1.32; Step ceiling = 50ns
37
CAPITOLO 4. UN CONTROESEMPIO
Date/Time run: 03/04/18 01:17:35
* C:UserssimsaDocuments00 MATTEO00 Universit01 - TESISimulazioni pSpiceCounterexampleSchematic1.sch
Temperature: 27.0
Date: March 04, 2018 Page 1 Time: 01:17:52
(A) Schematic1.dat (active)
Time
0s 5us 10us 15us 20us 25us 30us 35us 40us 45us
V(C11:2)
-5GV
0V
5GV
10GV
Figura 4.21: K=1.33; Step ceiling = 50ns
Date/Time run: 03/04/18 01:18:17
* C:UserssimsaDocuments00 MATTEO00 Universit01 - TESISimulazioni pSpiceCounterexampleSchematic1.sch
Temperature: 27.0
Date: March 04, 2018 Page 1 Time: 01:19:02
(A) Schematic1.dat (active)
Time
0s 5us 10us 15us 20us 25us 30us 35us 40us 45us
V(C11:2)
-10GV
-5GV
0V
5GV
Figura 4.22: K=1.34; Step ceiling = 50ns
38
CAPITOLO 4. UN CONTROESEMPIO
Date/Time run: 03/04/18 01:19:14
* C:UserssimsaDocuments00 MATTEO00 Universit01 - TESISimulazioni pSpiceCounterexampleSchematic1.sch
Temperature: 27.0
Date: March 04, 2018 Page 1 Time: 01:19:33
(A) Schematic1.dat (active)
Time
0s 5us 10us 15us 20us 25us 30us 35us 40us 45us 50us
V(C11:2)
-10GV
-5GV
0V
5GV
10GV
Figura 4.23: K=1.35; Step ceiling = 50ns
Date/Time run: 03/04/18 01:20:08
* C:UserssimsaDocuments00 MATTEO00 Universit01 - TESISimulazioni pSpiceCounterexampleSchematic1.sch
Temperature: 27.0
Date: March 04, 2018 Page 1 Time: 01:20:23
(A) Schematic1.dat (active)
Time
0s 10us 20us 30us 40us 50us 60us
V(C11:2)
-10GV
-5GV
0V
5GV
10GV
Figura 4.24: K=1.36; Step ceiling = 50ns
39
CAPITOLO 4. UN CONTROESEMPIO
Date/Time run: 03/04/18 01:20:34
* C:UserssimsaDocuments00 MATTEO00 Universit01 - TESISimulazioni pSpiceCounterexampleSchematic1.sch
Temperature: 27.0
Date: March 04, 2018 Page 1 Time: 01:20:52
(A) Schematic1.dat (active)
Time
0s 10us 20us 30us 40us 50us 60us 70us
V(C11:2)
-10GV
-5GV
0V
5GV
10GV
Figura 4.25: K=1.37; Step ceiling = 50ns
Date/Time run: 03/04/18 01:21:05
* C:UserssimsaDocuments00 MATTEO00 Universit01 - TESISimulazioni pSpiceCounterexampleSchematic1.sch
Temperature: 27.0
Date: March 04, 2018 Page 1 Time: 01:21:26
(A) Schematic1.dat (active)
Time
0s 10us 20us 30us 40us 50us 60us 70us
V(C11:2)
-10GV
-5GV
0V
5GV
10GV
Figura 4.26: K=1.38; Step ceiling = 50ns
40
CAPITOLO 4. UN CONTROESEMPIO
Date/Time run: 03/04/18 01:21:37
* C:UserssimsaDocuments00 MATTEO00 Universit01 - TESISimulazioni pSpiceCounterexampleSchematic1.sch
Temperature: 27.0
Date: March 04, 2018 Page 1 Time: 01:21:55
(A) Schematic1.dat (active)
Time
0s 10us 20us 30us 40us 50us 60us 70us 80us
V(C11:2)
-10GV
-5GV
0V
5GV
10GV
Figura 4.27: K=1.39; Step ceiling = 50ns
Date/Time run: 03/04/18 01:22:05
* C:UserssimsaDocuments00 MATTEO00 Universit01 - TESISimulazioni pSpiceCounterexampleSchematic1.sch
Temperature: 27.0
Date: March 04, 2018 Page 1 Time: 01:22:26
(A) Schematic1.dat (active)
Time
0s 10us 20us 30us 40us 50us 60us 70us 80us 90us
V(C11:2)
-10GV
-5GV
0V
5GV
10GV
Figura 4.28: K=1.40; Step ceiling = 50ns
41
CAPITOLO 4. UN CONTROESEMPIO
Date/Time run: 03/04/18 01:22:46
* C:UserssimsaDocuments00 MATTEO00 Universit01 - TESISimulazioni pSpiceCounterexampleSchematic1.sch
Temperature: 27.0
Date: March 04, 2018 Page 1 Time: 01:22:59
(A) Schematic1.dat (active)
Time
0s 20us 40us 60us 80us 100us
V(C11:2)
-2.0GV
-1.0GV
0V
1.0GV
2.0GV
Figura 4.29: K=1.42; Step ceiling = 50ns
Date/Time run: 03/04/18 01:23:41
* C:UserssimsaDocuments00 MATTEO00 Universit01 - TESISimulazioni pSpiceCounterexampleSchematic1.sch
Temperature: 27.0
Date: March 04, 2018 Page 1 Time: 01:24:05
(A) Schematic1.dat (active)
Time
0s 20us 40us 60us 80us 100us 120us 140us 160us
V(C11:2)
-10GV
-5GV
0V
5GV
10GV
Figura 4.30: K=1.44; Step ceiling = 50ns
42
CAPITOLO 4. UN CONTROESEMPIO
Date/Time run: 03/04/18 01:24:46
* C:UserssimsaDocuments00 MATTEO00 Universit01 - TESISimulazioni pSpiceCounterexampleSchematic1.sch
Temperature: 27.0
Date: March 04, 2018 Page 1 Time: 01:25:04
(A) Schematic1.dat (active)
Time
0s 40us 80us 120us 160us 200us 240us
V(C11:2)
-10GV
-5GV
0V
5GV
10GV
Figura 4.31: K=1.46; Step ceiling = 50ns
Date/Time run: 03/04/18 01:25:34
* C:UserssimsaDocuments00 MATTEO00 Universit01 - TESISimulazioni pSpiceCounterexampleSchematic1.sch
Temperature: 27.0
Date: March 04, 2018 Page 1 Time: 01:25:54
(A) Schematic1.dat (active)
Time
0s 100us 200us 300us 400us 500us 600us
V(C11:2)
-10GV
-5GV
0V
5GV
10GV
Figura 4.32: K=1.48; Step ceiling = 50ns
43
CAPITOLO 4. UN CONTROESEMPIO
Date/Time run: 03/04/18 01:26:31
* C:UserssimsaDocuments00 MATTEO00 Universit01 - TESISimulazioni pSpiceCounterexampleSchematic1.sch
Temperature: 27.0
Date: March 04, 2018 Page 1 Time: 01:26:53
(A) Schematic1.dat (active)
Time
0s 0.2ms 0.4ms 0.6ms 0.8ms 1.0ms
V(C11:2)
-8.0GV
-4.0GV
0V
4.0GV
8.0GV
Figura 4.33: K=1.49; Step ceiling = 50ns
Date/Time run: 03/04/18 01:27:15
* C:UserssimsaDocuments00 MATTEO00 Universit01 - TESISimulazioni pSpiceCounterexampleSchematic1.sch
Temperature: 27.0
Date: March 04, 2018 Page 1 Time: 01:27:42
(A) Schematic1.dat (active)
Time
0s 0.4ms 0.8ms 1.2ms 1.6ms 2.0ms 2.4ms
V(C11:2)
-10GV
-5GV
0V
5GV
10GV
Figura 4.34: K=1.495; Step ceiling = 50ns
44
CAPITOLO 4. UN CONTROESEMPIO
Date/Time run: 03/04/18 01:27:53
* C:UserssimsaDocuments00 MATTEO00 Universit01 - TESISimulazioni pSpiceCounterexampleSchematic1.sch
Temperature: 27.0
Date: March 04, 2018 Page 1 Time: 01:28:34
(A) Schematic1.dat (active)
Time
0s 2ms 4ms 6ms 8ms 10ms
V(C11:2)
-5.0GV
0V
5.0GV
Figura 4.35: K=1.499; Step ceiling = 50ns
45
CAPITOLO 4. UN CONTROESEMPIO
Prevedibilmente, per il valore di 1.5 (figure 4.36 e 4.37), si ha un’oscilla-
zione ad ampiezza costante. Siamo dunque in regime di marginale stabilit`a.
Per K > 1.5 si pu`o apprezzare un’uscita oscillatoria ma tendente asintotica-
mente a zero. Tale convergenza a zero dell’ampiezza `e via via pi`u marcata,
al punto da non riuscire pi`u a notare visivamente l’oscillazione. Si osser-
vano, per K 1.5, i picchi di risposta ai fronti dell’impulso d’ingresso,
prontamente smorzati.
Date/Time run: 03/04/18 01:29:18
* C:UserssimsaDocuments00 MATTEO00 Universit01 - TESISimulazioni pSpiceCounterexampleSchematic1.sch
Temperature: 27.0
Date: March 04, 2018 Page 1 Time: 01:29:45
(A) Schematic1.dat (active)
Time
0s 10us 20us 30us 40us 50us 60us 70us 80us 90us 100us
V(C11:2)
-12V
-8V
-4V
0V
4V
8V
12V
Figura 4.36: K=1.5; Step ceiling = 50ns
46
CAPITOLO 4. UN CONTROESEMPIO
Date/Time run: 03/04/18 01:29:59
* C:UserssimsaDocuments00 MATTEO00 Universit01 - TESISimulazioni pSpiceCounterexampleSchematic1.sch
Temperature: 27.0
Date: March 04, 2018 Page 1 Time: 01:30:24
(A) Schematic1.dat (active)
Time
0s 50us 100us 150us 200us 250us 300us 350us 400us 450us 500us
V(C11:2)
-12V
-8V
-4V
0V
4V
8V
12V
Figura 4.37: K=1.5; Step ceiling = 50ns
Date/Time run: 03/04/18 01:38:43
* C:UserssimsaDocuments00 MATTEO00 Universit01 - TESISimulazioni pSpiceCounterexampleSchematic1.sch
Temperature: 27.0
Date: March 04, 2018 Page 1 Time: 01:40:12
(A) Schematic1.dat (active)
Time
0s 20us 40us 60us 80us 100us 120us 140us 160us 180us 200us
V(C11:2)
-12V
-8V
-4V
0V
4V
8V
12V
Figura 4.38: K=1.51; Step ceiling = 50ns
47
CAPITOLO 4. UN CONTROESEMPIO
Date/Time run: 03/04/18 01:40:39
* C:UserssimsaDocuments00 MATTEO00 Universit01 - TESISimulazioni pSpiceCounterexampleSchematic1.sch
Temperature: 27.0
Date: March 04, 2018 Page 1 Time: 01:40:51
(A) Schematic1.dat (active)
Time
0s 20us 40us 60us 80us 100us 120us 140us 160us 180us 200us
V(C11:2)
-10V
-5V
0V
5V
10V
Figura 4.39: K=1.52; Step ceiling = 50ns
Date/Time run: 03/04/18 01:41:25
* C:UserssimsaDocuments00 MATTEO00 Universit01 - TESISimulazioni pSpiceCounterexampleSchematic1.sch
Temperature: 27.0
Date: March 04, 2018 Page 1 Time: 01:41:37
(A) Schematic1.dat (active)
Time
0s 10us 20us 30us 40us 50us 60us 70us 80us 90us 100us
V(C11:2)
-10V
-5V
0V
5V
10V
Figura 4.40: K=1.53; Step ceiling = 50ns
48
CAPITOLO 4. UN CONTROESEMPIO
Date/Time run: 03/04/18 01:43:11
* C:UserssimsaDocuments00 MATTEO00 Universit01 - TESISimulazioni pSpiceCounterexampleSchematic1.sch
Temperature: 27.0
Date: March 04, 2018 Page 1 Time: 01:43:17
(A) Schematic1.dat (active)
Time
0s 10us 20us 30us 40us 50us 60us 70us 80us 90us 100us
V(C11:2)
-10V
-5V
0V
5V
10V
Figura 4.41: K=1.55; Step ceiling = 50ns
Date/Time run: 03/04/18 01:43:31
* C:UserssimsaDocuments00 MATTEO00 Universit01 - TESISimulazioni pSpiceCounterexampleSchematic1.sch
Temperature: 27.0
Date: March 04, 2018 Page 1 Time: 01:43:44
(A) Schematic1.dat (active)
Time
0s 10us 20us 30us 40us 50us 60us 70us 80us 90us 100us
V(C11:2)
-10V
-5V
0V
5V
Figura 4.42: K=1.6; Step ceiling = 50ns
49
CAPITOLO 4. UN CONTROESEMPIO
Date/Time run: 03/04/18 01:43:54
* C:UserssimsaDocuments00 MATTEO00 Universit01 - TESISimulazioni pSpiceCounterexampleSchematic1.sch
Temperature: 27.0
Date: March 04, 2018 Page 1 Time: 01:44:03
(A) Schematic1.dat (active)
Time
0s 10us 20us 30us 40us 50us 60us 70us 80us 90us 100us
V(C11:2)
-6.0V
-4.0V
-2.0V
0V
2.0V
Figura 4.43: K=1.8; Step ceiling = 50ns
Date/Time run: 03/04/18 01:44:26
* C:UserssimsaDocuments00 MATTEO00 Universit01 - TESISimulazioni pSpiceCounterexampleSchematic1.sch
Temperature: 27.0
Date: March 04, 2018 Page 1 Time: 01:44:39
(A) Schematic1.dat (active)
Time
0s 10us 20us 30us 40us 50us 60us 70us 80us 90us 100us
V(C11:2)
-6.0V
-4.0V
-2.0V
0V
2.0V
Figura 4.44: K=2; Step ceiling = 50ns
50
CAPITOLO 4. UN CONTROESEMPIO
Date/Time run: 03/04/18 01:44:55
* C:UserssimsaDocuments00 MATTEO00 Universit01 - TESISimulazioni pSpiceCounterexampleSchematic1.sch
Temperature: 27.0
Date: March 04, 2018 Page 1 Time: 01:45:05
(A) Schematic1.dat (active)
Time
0s 10us 20us 30us 40us 50us 60us 70us 80us 90us 100us
V(C11:2)
-2.5V
-2.0V
-1.5V
-1.0V
-0.5V
-0.0V
0.5V
Figura 4.45: K=3; Step ceiling = 50ns
Date/Time run: 03/04/18 01:45:17
* C:UserssimsaDocuments00 MATTEO00 Universit01 - TESISimulazioni pSpiceCounterexampleSchematic1.sch
Temperature: 27.0
Date: March 04, 2018 Page 1 Time: 01:45:25
(A) Schematic1.dat (active)
Time
0s 10us 20us 30us 40us 50us 60us 70us 80us 90us 100us
V(C11:2)
-2.5V
-2.0V
-1.5V
-1.0V
-0.5V
-0.0V
0.5V
Figura 4.46: K=4; Step ceiling = 50ns
51
CAPITOLO 4. UN CONTROESEMPIO
Date/Time run: 03/04/18 01:45:42
* C:UserssimsaDocuments00 MATTEO00 Universit01 - TESISimulazioni pSpiceCounterexampleSchematic1.sch
Temperature: 27.0
Date: March 04, 2018 Page 1 Time: 01:45:55
(A) Schematic1.dat (active)
Time
0s 10us 20us 30us 40us 50us 60us 70us 80us 90us 100us
V(C11:2)
-2.0V
-1.6V
-1.2V
-0.8V
-0.4V
0V
0.4V
Figura 4.47: K=5; Step ceiling = 50ns
Date/Time run: 03/04/18 01:46:06
* C:UserssimsaDocuments00 MATTEO00 Universit01 - TESISimulazioni pSpiceCounterexampleSchematic1.sch
Temperature: 27.0
Date: March 04, 2018 Page 1 Time: 01:46:15
(A) Schematic1.dat (active)
Time
0s 10us 20us 30us 40us 50us 60us 70us 80us 90us 100us
V(C11:2)
-1.6V
-1.2V
-0.8V
-0.4V
0V
0.4V
Figura 4.48: K=10; Step ceiling = 50ns
52
CAPITOLO 4. UN CONTROESEMPIO
4.2 Il circuito
Figura 4.49: Il circuito reale, realizzato su breadboard
Anche in questa sezione ricordiamo che qualora il lettore stesse visualiz-
zando l’elaborato in formato pdf, per la visualizzazione corretta dei grafici
delle risposte nel tempo si consiglia un fattore di zoom del 150% o superiore.
Il circuito `e stato realizzato su breadboard (figura 4.49) con tre operazio-
nali del tipo UA741CP, e collegato come in figura 4.50. Sono stati utilizzati
i seguenti strumenti:
• Generatore di segnali GW INSTEK SFG-1013
• Alimentatore duale Ningbo FTZ Hopewell PS23023DL
• Oscilloscopio PeakTech 1265
Le prove sono state eseguite sia senza segnale d’ingresso, sia con segnale in
ingresso ad onda quadra di periodo 100ms, ampiezza 1 V e duty-cycle del
10%, in modo da sollecitare il circuito e leggerne la risposta sull’oscilloscopio.
Al segnale `e stato aggiunto anche un opportuno offset di 1 V in modo che
assumesse i valori di 0 V e 1 V, invece di −0.5 V e 0.5 V, replicando quindi
l’impulso fornito nelle simulazioni.
I blocchi S e A della simulazione sono divenuti il blocco A di questo
circuito: infatti esso fa sia da amplificatore che da sommatore. `E immediato
53
CAPITOLO 4. UN CONTROESEMPIO
Figura 4.50: Il circuito reale, riprodotto su pSpice 9.1
vedere che, complessivamente, il blocco A ha amplificazione minima di 2
3 e
massima di 11
3 . In questo modo `e possibile studiare il comportamento del
circuito sia per K < 1 che per K > 1.5. Il buffer non invertente B1 e il
buffer non invertente B2 servono ad adattare le impedenze tra un blocco e
l’altro, in modo che il blocco composto da R1, R2, C1 e C2 veda a monte
un’impedenza d’uscita prossima a zero, e a valle un’impedenza d’ingresso
elevata.
Con R1 ed R2 pari a 1 kΩ si ottiene un comportamento stabile del circuito
per K < 1 come da previsioni teoriche e dalla simulazione del circuito in
figura 4.4. Cortocircuitando a massa l’ingresso, si ha risposta nulla finch`e K
non supera l’unit`a. Superata l’unit`a, tuttavia, non si innesca come sperato
un’oscillazione, bens`ı si ha una saturazione dell’uscita a +12 V. Inoltre, con
K anche molto maggiore di 1.5 non si ottiene nuovamente risposta nulla
del circuito. Quest’ultimo fatto si spiega facilmente: i sistemi reali hanno
sempre poli causati da capacit`a parassite alle alte frequenze. Ci`o fa s`ı che il
diagramma di Nyquist vada inesorabilmente verso l’origine degli assi quando
ω tende a +∞. Si osservi ad esempio il diagramma in figura 4.51, tracciato
per la f.d.t. 4.1.1 con l’aggiunta di un polo in s = −106. Per K > 1, in
un caso come questo, si avr`a sempre 1
K interno al diagramma di Nyquist, e
dunque instabilit`a del sistema.
Applicando il segnale d’ingresso come precedentemente specificato, si ha
54
CAPITOLO 4. UN CONTROESEMPIO
Figura 4.51: Il circuito reale, riprodotto su pSpice 9.1
una risposta analoga a quella di un filtro passa basso (si veda figura 4.52
per il fronte di salita, 4.53 per fronte di discesa). Per K maggiori di 1,
nuovamente, si ha uscita costante a 12 V.
Date/Time run: 03/05/18 17:04:22
* C:UserssimsaDocuments00 MATTEO00 Universit01 - TESISimulazioni pSpiceCounterexampleSchematic2 - True ...
Temperature: 27.0
Date: March 05, 2018 Page 1 Time: 17:05:15
(A) Schematic2 - True Circuit.dat (active)
Time
0s 0.2ms 0.4ms 0.6ms 0.8ms 1.0ms 1.2ms 1.4ms 1.6ms 1.8ms 2.0ms
V(C1:2) V(Ru:1)
0V
0.4V
0.8V
1.2V
1.6V
2.0V
2.4V
Figura 4.52: Risposta del circuito al fronte di salita dell’impulso per
R1 = R2 = 1 kΩ, K < 1
55
CAPITOLO 4. UN CONTROESEMPIO
Date/Time run: 03/05/18 17:05:52
* C:UserssimsaDocuments00 MATTEO00 Universit01 - TESISimulazioni pSpiceCounterexampleSchematic2 - True ...
Temperature: 27.0
Date: March 05, 2018 Page 1 Time: 17:06:05
(A) Schematic2 - True Circuit.dat (active)
Time
10.0ms 10.2ms 10.4ms 10.6ms 10.8ms 11.0ms 11.2ms 11.4ms 11.6ms 11.8ms 12.0ms
V(C1:2) V(Ru:1)
0V
0.4V
0.8V
1.2V
1.6V
2.0V
2.4V
Figura 4.53: Risposta del circuito al fronte di discesa dell’impulso per
R1 = R2 = 1 kΩ, K < 1
Con R1 ed R2 pari a 100 kΩ si ottiene lo stesso comportamento in termini
di stabilit`a, ma si pu`o apprezzare un comportamento oscillatorio. Tuttavia,
tale comportamento si presenta per K < 1 e per alcuni valori di K > 1,
mentre nella sezione 4.1 si riporta che l’oscillazione del circuito deve avvenire
per K > 1 soltanto.
Nella fattispecie, quando Rv + R4 `e pari a 185kΩ, ossia K = 0.95, si
osserva un andamento del tipo riportato in figura 4.54 in risposta al fronte
di discesa dell’impulso in ingresso. Inoltre, togliendo l’offset dal segnale
d’ingresso e aumentando Rv + R4 a 210 kΩ, arrivando dunque a K = 1.03,
si osserva l’innsescarsi di un’oscillazione ben pi`u evidente (vedi figure 4.55 e
4.56).
56
CAPITOLO 4. UN CONTROESEMPIO
Date/Time run: 03/05/18 17:45:15
* C:UserssimsaDocuments00 MATTEO00 Universit01 - TESISimulazioni pSpiceCounterexampleSchematic2 - True ...
Temperature: 27.0
Date: March 05, 2018 Page 1 Time: 17:46:00
(A) Schematic2 - True Circuit.dat (active)
Time
10.0ms 10.2ms 10.4ms 10.6ms 10.8ms 11.0ms 11.2ms 11.4ms 11.6ms 11.8ms 12.0ms
V(C1:2) V(Ru:1)
0V
2V
4V
6V
8V
10V
12V
Figura 4.54: Risposta del circuito al fronte di discesa dell’impulso per
R1 = R2 = 100 kΩ, K < 1
Date/Time run: 03/05/18 17:45:15
* C:UserssimsaDocuments00 MATTEO00 Universit01 - TESISimulazioni pSpiceCounterexampleSchematic2 - True ...
Temperature: 27.0
Date: March 05, 2018 Page 1 Time: 17:46:00
(A) Schematic2 - True Circuit.dat (active)
Time
10.0ms 10.2ms 10.4ms 10.6ms 10.8ms 11.0ms 11.2ms 11.4ms 11.6ms 11.8ms 12.0ms
V(C1:2) V(Ru:1)
0V
2V
4V
6V
8V
10V
12V
Figura 4.55: Risposta del circuito al fronte di discesa dell’impulso per
R1 = R2 = 100 kΩ, K = 1.03
57
CAPITOLO 4. UN CONTROESEMPIO
Date/Time run: 03/05/18 15:52:40
* C:UserssimsaDocuments00 MATTEO00 Universit01 - TESISimulazioni pSpiceCounterexampleSchematic2 - True ...
Temperature: 27.0
Date: March 05, 2018 Page 1 Time: 15:53:05
(A) Schematic2 - True Circuit.dat (active)
Time
9ms 10ms 11ms 12ms 13ms 14ms 15ms 16ms
V(C1:2) V(Ru:1)
-12V
-8V
-4V
0V
4V
8V
12V
Figura 4.56: Risposta del circuito al fronte di discesa dell’impulso senza
offset per R1 = R2 = 100 kΩ, K = 1.03
Figura 4.57: Risposta del circuito al fronte di discesa dell’impulso sen-
za offset per R1 = R2 = 100 kΩ, K di poco superiore a 1, visualizzata
sull’oscilloscopio in laboratorio
58
CAPITOLO 4. UN CONTROESEMPIO
Il discostamento del comportamento del circuito da quello previsto in 4.1
pu`o essere dovuto a vari fattori. Innanzitutto, le oscillazioni che si riescono
a visualizzare sono sempre sommate ad esponenziali decrescenti che si pos-
sono associare alla scarica dei condensatori. In particolare, si osservi figura
4.56. In essa appare evidente che il clipping introdotto dagli amplificatori
operazionali occorre troppo presto, essendo il valore medio della sinusoide
molto elevato. Di fatto, il duty-cycle del segnale onda quadra `e troppo al-
to, seppure fosse il minimo consentito dal generatore di segnali. Per prove
future, si rende necessario lo sviluppo di un generatore di impulsi di durata
ridotta. Questo si pu`o realizzare inserendo in cascata al generatore di se-
gnali un semplice derivatore, seguito da un raddrizzatore che elimini i picchi
negativi.
In secondo luogo, sar`a necessario scegliere una pi`u affidabile tecnica rea-
lizzativa del circuito. Al di l`a del gi`a discusso effetto delle propriet`a passa
basso degli amplificatori reali, il sospetto `e che le capacit`a parassite intro-
dotte dal montaggio su breadboard siano tali da modificare sensibilmente il
comportamento del sistema.
59
Capitolo 5
Una condizione aggiuntiva
Nell’articolo [4] si illustra una possibile condizione necessaria aggiuntiva da
affiancare al criterio di Barkhausen affinch´e un sistema sia oscillante e mar-
ginalmente stabile (ossia affinch´e abbia poli complessi coniugati sull’asse
complesso). La condizione `e dφ
dω (ω0) < 0, dove φ(ω) `e la fase della f.d.t. con-
siderata valutata in jω, mentre ω0 `e la pulsazione alla quale vale il criterio di
Barkhausen (2.3.1). L’analisi svolta in [4] si basa sullo studio del luogo delle
radici di alcuni sistemi, e mostra che tutti i sistemi esaminati che oscillino
alla frequenza alla quale Barkhausen `e soddisfatto, soddisfano anche dφ
dω < 0.
Viceversa, i sistemi che non oscillano alla frequenza individuata dal criterio
di Barkhausen, non soddisfano la suddetta condizione. In questo capitolo
si esaminano i diagrammi di Nyquist di sistemi comuni, evidenziando come
l’aggiunta di tale condizione, opportunamente modificata, permetta di far
funzionare il criterio esteso di Barkhausen in casi in cui esso, in assenza di
tale condizione, falliva. Inoltre, si propone un semplice ragionamento fisico
a supporto della condizione dφ
dω (ω0) < 0.
Premettiamo che un sistema retroazionato si dice a stabilit`a regolare
se `e caratterizzato da un unico valore K0 tale che il sistema `e stabile per
0 < K < K0 e instabile per K > K0. Si parla invece di sistema a stabilit`a
condizionata (o condizionatamente stabile) se vi sono pi`u valori critici di K
per cui si passa da una condizione di stabilit`a a una condizione di instabilit`a,
o viceversa. Queste due classi non coprono tutti i sistemi possibili: ve ne
sono di altri, ad esempio, che sono instabili per 0 < K < K0 e instabili per
K > K0, al contrario di quelli a stabilit`a regolare. Questi sono di interesse
perlopi`u teorico [8].
Ove non specificato diversamente, i diagrammi di Nyquist riportati in
questo capitolo sono stati tracciati con l’ausilio di Wolfram Alpha.
60
CAPITOLO 5. UNA CONDIZIONE AGGIUNTIVA
5.1 Diagramma di Nyquist in funzione di K
Come accennato nel capitolo 4, i sistemi reali hanno comportamento passa
basso, essendo sempre presenti degli effetti capacitivi parassiti che ne limi-
tano la banda. Pertanto, la prima met`a dei diagrammi di Nyquist di sistemi
F reali ha termine nell’origine, giacch´e ω → ∞ ⇒ F(jω) → 0. Ne `e un
esempio il sistema di cui il diagramma in figura 5.1, che rappresenta proprio
un passa basso (F(s) = 1
1+s). Inoltre, nelle prossime pagine, non consi-
Figura 5.1: Diagramma di Nyquist di un sistema passa basso
dereremo sistemi con comportamento passa alto. Per tali sistemi, l’origine
rappresenta il punto di partenza del diagramma, essendo F(0) = 0.
Si supponga che il diagramma in figura 5.1 sia il diagramma di una
H(s)G(s), in caso di sistema retroazionato negativamente (d’ora in poi tale
ipotesi sar`a implicita per ogni sistema preso in considerazione). Si inserisca
nell’anello anche un blocco amplificatore ideale di guadagno K. Per quanto
riportato in [11], affinch´e tale sistema sia stabile, il diagramma non deve
girare attorno a − 1
K . In simboli, il sistema `e instabile se:
0 < −
1
K
< 1
Ossia, scomponendo in due condizioni:
0 < −
1
K
⇐⇒ K < 0
−
1
K
< 1 ⇐⇒ K > −1
Tale metodo per valutare la stabilit`a mediante i diagrammi di Nyquist `e
molto comodo all’atto pratico, poich´e permette di usare un unico diagram-
ma invece di tracciarne uno per ogni valore di K, ma non rende l’idea di
come il diagramma del sistema cambi al variare di K. In figura 5.2 (im-
magine originale in [1], slide n. 26), invece, abbiamo una porzione di un
61
CAPITOLO 5. UNA CONDIZIONE AGGIUNTIVA
diagramma di Nyquist di un sistema condizionatamente stabile. Si osservi
che, al crescere di K, il diagramma diviene pi`u ampio. Con questa interpre-
Figura 5.2: Tratto finale del diagramma di Nyquist di un sistema
condizionatamente stabile al variare di K
tazione `e immediato determinare che, riferendoci alla curva A, aumentando
o riducendo opportunamente K si arriver`a ad una condizione di stabilit`a.
Per sistemi non condizionatamente stabili con comportamento passa bas-
so alle alte frequenze si ha un’unica soglia per determinare la stabilit`a del
sistema. Si faccia riferimento al grafico in figura 5.3. Si consideri il diagram-
Figura 5.3: Diagramma di Nyquist di F(s) = 1
(s+1)3
ma rappresentato quello per K = 1. Poich´e il diagramma taglia l’asse reale
in −0.125, il sistema sar`a stabile per K positivi minori di 8, mentre per K
maggiori di 8 il diagramma inglober`a il punto −1 + j0 e il sistema diverr`a
instabile.
62
CAPITOLO 5. UNA CONDIZIONE AGGIUNTIVA
Separiamo dunque i sistemi d’interesse, come da definizione in [8] gi`a
accennata all’inizio del presente capitolo, in:
• Tipo A - regolarmente stabili: sistemi il cui diagramma di Nyquist
taglia il semiasse reale negativo una sola volta, ovvero che soddisfano
la condizione sulla fase di Barkhausen (2.3.2) per una sola pulsazione
ω0
• Tipo B - condizionatamente stabili sistemi il cui diagramma di
Nyquist taglia il semiasse reale negativo pi`u di una volta, ovvero sod-
disfano la condizione sulla fase di Barkhausen (2.3.2) per pi`u pulsazioni
ωi.
Si tenga a mente la limitazione a sistemi reali, ossia passa basso. Nella prossi-
ma sezione sfruttiamo questa categorizzazione e il metodo grafico introdotto
per evidenziare come la condizione dφ
dω < 0, modificata opportunamente,
fornisca previsioni corrette circa la stabilit`a dei sistemi pi`u comuni.
5.2 Nyquist e dφ
dω < 0
Spesso ci si riferisce a −dφ
dω come al ritardo di gruppo. Non sar`a il nostro caso,
poich´e il concetto di ritardo di gruppo quale ritardo temporale `e valido per
segnali modulati, e nella fattispecie si riferisce al ritardo subito dall’inviluppo
di una portante nell’attraversare un sistema a fase lineare [19].
Per i sistemi del tipo A di interesse comune sembra sempre essere soddi-
sfatta la condizione sulla derivata della fase. Essendo per ipotesi dei passa
basso, qualunque cosa succeda alle basse frequenze, si ha comunque una
rotazione in senso orario del diagramma per frequenze tendenti a +∞. In
figura 5.4, il diagramma di Nyquist per il sistema con la seguente funzione
di trasferimento:
F(s) = 109 s + 1
(s + 10)(s + 100)(s + 1000)2
Anche casi particolari come questo sono contemplati. `E il caso dei sistemi
per cui il criterio esteso di Barkhausen era gi`a apparentemente corretto.
Per i sistemi del tipo B, invece, facciamo riferimento alla figura 5.5,
versione modificata della 5.2, poich´e `e ragionevole che il tratto finale del
diagramma abbia tale forma. La linea tratteggiata rappresenta l’andamento
del diagramma tipo per sistemi con un numero di attraversamenti dell’asse
reale superiore a 2. Asseriamo dunque che il sistema `e instabile se, alla pi`u
alta pulsazione ω0 per cui vale:
|H(jω)G(jω)| > 1
∠H(jω)G(jω) = 0
(5.2.1)
63
CAPITOLO 5. UNA CONDIZIONE AGGIUNTIVA
Figura 5.4: Caso particolare di sistema del tipo A
Figura 5.5: Rappresentazione tipica dei sistemi di tipo B
vale anche dφ
dω < 0. `E stabile, viceversa, se dφ
dω > 0.
Non si tratta di un criterio di sufficienza poich´e non vi `e dimostrazione,
ma si rimanda alla fine della sezione 5.3 per un collegamento con il concetto
in essa presentato. Tuttavia, `e interessante notare che anche sistemi con-
dizionatamente stabili come quello in figura 5.6, per cui non vale l’ipotesi
di passa basso, valga comunque il nuovo criterio esteso (a patto di poter
considerare +∞ come ω0). Delimitare con rigore le classi di funzioni per cui
questa estensione del criterio fornisce risultati corretti sar`a uno scopo del
proseguimento degli studi sull’argomento, e si dovr`a per certo partire dalla
ricerca di possibili controesempi.
64
CAPITOLO 5. UNA CONDIZIONE AGGIUNTIVA
Figura 5.6: Caso particolare di sistema condizionatamente stabile
5.3 Significato fisico della condizione aggiuntiva
Si propone infine una possibile spiegazione fisica del perch´e la condizione
aggiuntiva potrebbe effettivamente rivelarsi una condizione necessaria, as-
sieme al criterio di Barkhausen, affinch´e il sistema oscilli. In particolare, si
vuole sottolineare una sorta di funzione di stabilizzazione della frequenza di
oscillazione che tale condizione sembra operare.
Innanzitutto, sia f(t) = sin(ωt + φ(t)). Si immagini che la fase phi sia
una vari bruscamente in un dato istante di tempo t0. Allora, in un intorno
di t0 si pu`o scrivere, per Taylor, φ(t) ≈ φ(t0) + φ (t0)(t − t0), ottendendo:
f(t) ≈ sin ω + φ (t0) t − φ (t0) t0
Si osservi che φ (t0 ha le dimensioni di una pulsazione. In altre parole, va-
riazioni istantanee della fase si possono confondere con variazioni istantanee
della pulsazione di una sinusoide.
Si consideri un oscillatore, e sia ω0 la pulsazione per cui `e soddisfatto il
criterio di Barkhausen (vedi 2.3.1). Si supponga che dφ
dω < 0. Se ω dovesse
aumentare leggermente in un dato istante, vista l’ipotesi su dφ
dω si avrebbe
una diminuizione istantanea dello sfasamento operato da HG sul segnale nel-
l’anello di retroazione, ossia, per quanto detto sopra, una diminuzione della
pulsazione. Viceversa, per decrementi istantanei di ω si ha un incremento
istantaneo dello sfasamento introdotto da HG, ossia un incremento della
pulsazione. Praticamente, la condizione aggiuntiva fa s`ı che la frequenza di
oscillazione sia una frequenza d’equilibrio alla quale operare per l’oscillato-
re. Viceversa, se dφ
dω0
> 0, si ottiene l’effetto opposto, ossia un’enfatizzazione
della perturbazione della frequenza di oscillazione. Risulta pertanto che sep-
65
CAPITOLO 5. UNA CONDIZIONE AGGIUNTIVA
pure idealmente il sistema potrebbe ragionevolmente oscillare alla pulsazione
ω0, in realt`a essa `e un equilibrio instabile.
Nei casi teorici di sistemi che non esibiscono un comportamento passa
basso, si pu`o ottenere attraversamento dell’asse reale da parte del diagramma
di Nyquist anche per ω = ∞ (vedasi figura 5.6). Mentre per gli attraversa-
menti per ω = 0 si pu`o parlare di “oscillazione” a frequenza nulla, ossia di
marginale stabilit`a con un segnale d’uscita costante, non `e del tutto chiaro
se abbia senso considerare gli attraversamenti per ω = ∞ dal punto di vista
fisico. Nello specifico, bisogna indagare il comportamento teorico di sistemi
del tipo suddetto qualora l’attraversamento avvenga proprio in −1 + j0, che
negli altri casi corrisponde a una situazione di marginale stabilit`a.
Infine, si voglia osservare come potrebbe non essere un caso che il crite-
rio esteso di Barkhausen sulla stabilit`a funzioni per sistemi marginalmente
stabili che soddisfino la condizione aggiuntiva. Se questa si rivelasse essere,
assieme al criterio di Barkhausen, una condizione necessaria e sufficiente
affinch`e il sistema marginalmente stabile oscilli, allora la presenza di segnali
oscillanti renderebbe sensato il ragionamento fisico dietro al criterio esteso
di Barkhausen, motivandone la correttezza sotto tali ipotesi. Questo spie-
gherebbe il nuovo criterio esteso di Barkhausen (5.2.1) da un punto di vista
fisico - pur lasciando in ombra met`a del criterio. Non sarebbe chiaro, in tale
prospettiva e sempre da un punto di vista puramente fisico, perch`e per casi
di stabilit`a marginale in cui dφ
dω0
> 0 si debba avere un’inversione del criterio
(i.e., stabilit`a al diminuire di K, e viceversa).
66
Conclusioni
Il criterio esteso di Barkhausen quale condizione sufficiente per la valutazione
della stabilit`a `e dunque fallace, sia per la ben nota presenza di controesempi
come quello di capitolo 4, sia per quanto visto nel capitolo 3. L’approccio
di capitolo 3, inoltre, sar`a oggetto di approfondimenti. Esso ha infatti evi-
denziato la possibilit`a che il calcolo delle f.d.t. di sistemi retroazionati a
partire dalle f.d.t. dei sottosistemi H e G secondo il metodo classico porti al
computo di risposte nel tempo discordi da quelle dei sistemi fisici, qualora
non sia soddisfatta la 3.2.3. Per quanto concerne i risultati di capitolo 5,
invece, si sono ottenute:
• una plausibile spiegazione fisica del perch`e la condizione aggiuntiva
determini se il sistema possa oscillare o no in caso di soddisfacimento
del criterio di Barkhausen;
• una riapertura della questione sul criterio esteso di Barkhausen come
criterio di stabilit`a.
Infine, si osservi che il criterio di Nyquist richiede, fondamentalmente,
la conoscenza della funzione di trasferimento per ogni jω. I criteri estesi
di Barkhausen esaminati in questo elaborato, invece, considerano la cono-
scenza di alcune informazioni sulla funzione per una specifica frequenza. Da
questo punto di vista sembra ragionevole, in prima battuta, che i criteri non
possano essere equivalenti. Tuttavia, vi `e pi`u di un esempio in matemati-
ca di come, per classi di funzioni particolarmente regolari, sia sufficiente la
conoscenza di un numero finito o un’infinit`a numerabile di valori per descri-
vere completamente una funzione: si pensi alla serie di Taylor per funzioni
analitiche. E proprio la serie di Taylor potrebbe essere un interessante pa-
rallelismo, poich´e si `e passati dal considerare solo il valore del modulo della
f.d.t. per una data frequenza, al considerare anche la derivata prima della
fase della f.d.t. alla stessa frequenza - come in Taylor si valuta il valore
della funzione in un punto, quindi la sua derivata in un punto, e a seguire
le derivate successive.
67
Bibliografia
[1] Anonymous. Dynamic Performance of PWM Dc-to-Dc Converters.
http://slideplayer.com/slide/8397423/.
[2] Anonymous. Obituaries. Physics Today, 29(6):64, June 1976. Avai-
lable at http://physicstoday.scitation.org/doi/abs/10.1063/1.
3023534.
[3] Panos J. Antsaklis and Anthony N. Michel. Linear Systems. Birkhauser,
1st edition, 1997.
[4] Igor Balaz, Zdenko Brezovic, Marian Minarik, Vladimir Kudjak, and
Vladim´ır Stofanik. Barkhausen criterion and another necessary con-
dition for steady state oscillations existence. In 23th Conference
Radioelektronika 2013, April 2013.
[5] Harold Chestnut and Robert W. Mayer. Servomechanisms and
Regulating System Design, page 142. Wiley, 1951.
[6] John Daintith. Biographical Encyclopedia of Scientists, page 46. CRC
Press, 3rd edition, 2002.
[7] Fan He, Raymond Ribas, Cyril Lahuec, and Michel Je’ze’quel. Discus-
sion on the general oscillation startup condition and the Barkhausen
criterion. Analog Integrated Circuits and Signal Processing, 2008.
[8] Antonio Lepschy and Antonio Ruberti. Studio della stabilit`a - ca-
so dei sistemi a un solo ciclo. In Lezioni di Controlli Automatici,
chapter 10, pages 354–355. Siderea Edizioni Scientifiche, 2nd edition,
February 1967.
[9] Kent H. Lundberg. Barkhausen Stability Criterion. http://web.mit.
edu/klund/www/weblatex/node4.html, November 2002.
[10] Alan V. Oppenheim, Alan S. Willsky, and S. Hamid Nawab. The En-
circlement Property. In Signals & Systems, chapter 11, pages 847–850.
Prentice-Hall, 2nd edition, 1997.
68
BIBLIOGRAFIA
[11] Alan V. Oppenheim, Alan S. Willsky, and S. Hamid Nawab. The Ny-
quist Criterion for Continuous-Time LTI Feedback Systems. In Signals
& Systems, chapter 11, page 852. Prentice-Hall, 2nd edition, 1997.
[12] Alan V. Oppenheim, Alan S. Willsky, and S. Hamid Nawab. Signals &
Systems. Prentice-Hall, 2nd edition, 1997.
[13] Thomas Parisini. Fondamenti di Automatica. http://control.units.
it/it/downloads-it/send/44-fa-lezioni-9cfu/4-parte-3.html.
See page 42.
[14] Thomas Parisini. Fondamenti di Automatica. http://control.units.
it/it/downloads-it/category/44-fa-lezioni-9cfu.html, March
2013. Slides from the course.
[15] Jan Willem Polderman and Jan C. Willems. Introduction to the Mathe-
matical Theory of Systems and Control. Springer, 2nd edition, October
2008.
[16] Vimal Singh. A note on determination of oscillation startup condition.
Analog Integrated Circuits and Signal Processing, 48:251–255, 2006.
[17] Vimal Singh. Failure of Barkhausen oscillation building up criterion:
Further evidence. Analog Integrated Circuits and Signal Processing,
50:127–132, 2008.
[18] Vimal Singh. Discussion on barkhausen and nyquist stability criteria.
Analog Integrated Circuits and Signal Processing, 62:327–332, 2010.
[19] Julius O. Smith. Introduction to digital filters with audio appli-
cations. https://ccrma.stanford.edu/~jos/filters/Derivation_
Group_Delay_Modulation.html, September 2007.
[20] Lutz von Wagenheim. On the Barkhausen and Nyquist stability criteria.
Analog Integrated Circuits and Signal Processing, 66:139–141, 2010.
[21] Wikipedia. Laplace Transform. https://it.wikipedia.org/wiki/
Trasformata_di_Laplace.
69
Ringraziamenti
Vorrei ringraziare innanzitutto il mio relatore Chiarissimo professor Sergio Carrato
per avermi dato l’opportunit`a di lavorare a questa tesi, per aver supervisionato il
lavoro, per avermi fornito gli stimoli e i materiali necessari e avermi corretto ogni
volta che ho sbagliato. Sar`a un piacere continuare a lavorare a questo progetto.
Ringrazio inoltre tutti i docenti del Corso di Laurea per la conoscenza trasmes-
sami, poich´e `e il bene pi`u prezioso che esista. Un particolare ringraziamento al
professor Enzo Mitidieri, che `e il miglior insegnante di Analisi Matematica - e non
solo - che mai avrei potuto sperare di incontrare. Nessun altro ha cambiato il mio
modo di pensare in modo altrettanto significativo.
Il grazie pi`u grande va a tutta la mia famiglia. Grazie ai miei genitori per aver
reso tutto questo possibile, per avermi insegnato (e per insegnarmi ancora) tutto
ci`o che sanno e per avermi ascoltato e consigliato quando ne avevo bisogno. Grazie
inoltre a mio padre Mario per avermi trasmesso la passione per la tecnica. E a
mia madre Marisa per avermi dimostrato pi`u volte che nello studio la caparbiet`a
`e tutto. Grazie a mia sorella Mariangela, perch´e senza di lei la mia vita sarebbe
stata senz’altro pi`u noiosa. Grazie ai nonni, che sono le mie radici e mi permettono
di ricordare ogni giorno chi io sia, da dove vengo e perch´e esserne fiero.
Voglio ringraziare di cuore anche tutti i miei amici, compagni di studi e/o di
avventure, perch´e la vita `e fatta soprattutto di persone, e averne accanto di cos`ı
belle non `e scontato. Ciascuno di loro `e stato davvero fondamentale. Grazie a
Gian per la musica che ci unisce, che abbiamo fatto e che faremo, e per essere il
fantastico amico che `e. A Devil, Marlin, Giova e Sbage per gli anni di memorabili
scorribande. Ad Amedeo per i discorsi che ci hanno tenuti in piedi fino alle quattro
del mattino, e per le lunghe gite in moto. Ad Irene per tante cose, tra cui soprattutto
l’infinita pazienza. Ad Andrea per le giornate passate assieme, tra atletica, scuola
e universit`a. A Nenad e Lorin, che sono i miei ”colleghi pi`u grandi”, e mi hanno
aiutato fin dall’inizio di questo percorso. A Vincenzo, con cui ho superato gli esami
pi`u importanti. A Nico e Ric, per le gare che son state e le gare che verranno. A
Lollo per avermi sopportato per otto anni, e perch´e suo malgrado mi sopporter`a
ancora. Ad Easy, perch´e se non ci fosse dovrebbero inventarlo. A Leti per l’enorme
aiuto di quest’ultimo mese. A Coch e Igor, perch´e ho perso il conto degli esami che
devo a loro due. A Para, perch´e se ho iniziato a suonare `e grazie a lui, e questo mi
ha dato un motivo in pi`u per appassionarmi all’elettronica. A Giacomo, fonte di
sapienza matematica. A tutti gli SDS, ma in particolare all’ingegner MX Mariani,
al signor Cirronis e a Giorgino, che hanno gi`a “bell’e che capito”.
Una dedica speciale, infine, a mio nonno Luigi, che pi`u di chiunque altro avrebbe
voluto essere presente in questi giorni cos`ı importanti.
70

More Related Content

What's hot

Slide autismo
Slide autismoSlide autismo
Slide autismoimartini
 
Intersoggettività v
Intersoggettività vIntersoggettività v
Intersoggettività vimartini
 
403.schizofreniaealtridisturbipsicotici b
403.schizofreniaealtridisturbipsicotici b403.schizofreniaealtridisturbipsicotici b
403.schizofreniaealtridisturbipsicotici bimartini
 
Classificazione e sistemi di classificazione degli organismi
Classificazione e sistemi di classificazione degli organismiClassificazione e sistemi di classificazione degli organismi
Classificazione e sistemi di classificazione degli organismiWilliam Costantini
 
La teoria dell’attaccamento
La teoria dell’attaccamentoLa teoria dell’attaccamento
La teoria dell’attaccamentoRaffaele Barone
 
Che cosè autismo
Che cosè autismoChe cosè autismo
Che cosè autismoimartini
 
Webinar | Invecchiamento e deterioramento cognitivo: uno strumento di previsi...
Webinar | Invecchiamento e deterioramento cognitivo: uno strumento di previsi...Webinar | Invecchiamento e deterioramento cognitivo: uno strumento di previsi...
Webinar | Invecchiamento e deterioramento cognitivo: uno strumento di previsi...Obiettivo Psicologia Srl
 
Slide conferenza educare affettività sessualità 20 nov 2012
Slide conferenza educare affettività sessualità 20 nov 2012Slide conferenza educare affettività sessualità 20 nov 2012
Slide conferenza educare affettività sessualità 20 nov 2012MariaSilviaGuglielmin
 
Vygotskij v
Vygotskij vVygotskij v
Vygotskij vimartini
 
Lezioneattacc.def
Lezioneattacc.def Lezioneattacc.def
Lezioneattacc.def imartini
 
Kb2 kebutuhan psikologis ibu hamil
Kb2 kebutuhan psikologis ibu hamilKb2 kebutuhan psikologis ibu hamil
Kb2 kebutuhan psikologis ibu hamilpjj_kemenkes
 
Conoscere Per Intervenire 2
Conoscere Per Intervenire 2Conoscere Per Intervenire 2
Conoscere Per Intervenire 2Massimo
 
Faktor psikologis yang mempengaruhi kehamilan
Faktor psikologis yang mempengaruhi kehamilanFaktor psikologis yang mempengaruhi kehamilan
Faktor psikologis yang mempengaruhi kehamilanpjj_kemenkes
 

What's hot (20)

Slide autismo
Slide autismoSlide autismo
Slide autismo
 
Aphasie
AphasieAphasie
Aphasie
 
Intersoggettività v
Intersoggettività vIntersoggettività v
Intersoggettività v
 
Ii modulo
Ii moduloIi modulo
Ii modulo
 
Caa
CaaCaa
Caa
 
403.schizofreniaealtridisturbipsicotici b
403.schizofreniaealtridisturbipsicotici b403.schizofreniaealtridisturbipsicotici b
403.schizofreniaealtridisturbipsicotici b
 
Winnicot
Winnicot Winnicot
Winnicot
 
Classificazione e sistemi di classificazione degli organismi
Classificazione e sistemi di classificazione degli organismiClassificazione e sistemi di classificazione degli organismi
Classificazione e sistemi di classificazione degli organismi
 
La teoria dell’attaccamento
La teoria dell’attaccamentoLa teoria dell’attaccamento
La teoria dell’attaccamento
 
Che cosè autismo
Che cosè autismoChe cosè autismo
Che cosè autismo
 
Webinar | Invecchiamento e deterioramento cognitivo: uno strumento di previsi...
Webinar | Invecchiamento e deterioramento cognitivo: uno strumento di previsi...Webinar | Invecchiamento e deterioramento cognitivo: uno strumento di previsi...
Webinar | Invecchiamento e deterioramento cognitivo: uno strumento di previsi...
 
TEORIA DELL'ATTACCAMENTO
TEORIA DELL'ATTACCAMENTOTEORIA DELL'ATTACCAMENTO
TEORIA DELL'ATTACCAMENTO
 
Slide conferenza educare affettività sessualità 20 nov 2012
Slide conferenza educare affettività sessualità 20 nov 2012Slide conferenza educare affettività sessualità 20 nov 2012
Slide conferenza educare affettività sessualità 20 nov 2012
 
Vygotskij v
Vygotskij vVygotskij v
Vygotskij v
 
Lezioneattacc.def
Lezioneattacc.def Lezioneattacc.def
Lezioneattacc.def
 
La memoria
La memoriaLa memoria
La memoria
 
Kb2 kebutuhan psikologis ibu hamil
Kb2 kebutuhan psikologis ibu hamilKb2 kebutuhan psikologis ibu hamil
Kb2 kebutuhan psikologis ibu hamil
 
Conoscere Per Intervenire 2
Conoscere Per Intervenire 2Conoscere Per Intervenire 2
Conoscere Per Intervenire 2
 
Faktor psikologis yang mempengaruhi kehamilan
Faktor psikologis yang mempengaruhi kehamilanFaktor psikologis yang mempengaruhi kehamilan
Faktor psikologis yang mempengaruhi kehamilan
 
Elementi di psicologia
Elementi di psicologiaElementi di psicologia
Elementi di psicologia
 

Similar to Studio sulle condizioni di validità del criterio di Barkhausen - Tesi

Sistemi elettromeccanici (1)
Sistemi elettromeccanici (1)Sistemi elettromeccanici (1)
Sistemi elettromeccanici (1)gaonioni
 
Relazione Caratterizzazione dinamica di un trasduttore di pressione
Relazione Caratterizzazione dinamica di un trasduttore di pressioneRelazione Caratterizzazione dinamica di un trasduttore di pressione
Relazione Caratterizzazione dinamica di un trasduttore di pressioneStefano Manca
 
Yielding Robot and Rigid Environment - Contact Force Control (IT)
Yielding Robot and Rigid Environment - Contact Force Control (IT)Yielding Robot and Rigid Environment - Contact Force Control (IT)
Yielding Robot and Rigid Environment - Contact Force Control (IT)EnricoMarinelli3
 
Relazione Taratura trasduttore di pressione
Relazione Taratura trasduttore di pressioneRelazione Taratura trasduttore di pressione
Relazione Taratura trasduttore di pressioneStefano Manca
 
Quantum Information Theory
Quantum Information TheoryQuantum Information Theory
Quantum Information TheoryNoDelay Software
 
BisPy: un pacchetto Python per il calcolo della massima bisimulazione di graf...
BisPy: un pacchetto Python per il calcolo della massima bisimulazione di graf...BisPy: un pacchetto Python per il calcolo della massima bisimulazione di graf...
BisPy: un pacchetto Python per il calcolo della massima bisimulazione di graf...Francesco Andreuzzi
 
BisPy: un pacchetto Python per il calcolo della massima bisimulazione di graf...
BisPy: un pacchetto Python per il calcolo della massima bisimulazione di graf...BisPy: un pacchetto Python per il calcolo della massima bisimulazione di graf...
BisPy: un pacchetto Python per il calcolo della massima bisimulazione di graf...Francesco Andreuzzi
 
Graph partitioning: implementazione dell'algoritmo spettrale e confronto con ...
Graph partitioning: implementazione dell'algoritmo spettrale e confronto con ...Graph partitioning: implementazione dell'algoritmo spettrale e confronto con ...
Graph partitioning: implementazione dell'algoritmo spettrale e confronto con ...KevinMarzio
 
Stringhe Relativistiche Classiche
Stringhe Relativistiche Classiche Stringhe Relativistiche Classiche
Stringhe Relativistiche Classiche Gabriele Pompa, PhD
 
Lezione sul caos
Lezione sul caosLezione sul caos
Lezione sul caoslucilafa
 
Relatività ristretta
Relatività ristrettaRelatività ristretta
Relatività ristrettaaseganti
 
Equazioni [teoria ed esericizi][santi caltabiano]
Equazioni  [teoria ed esericizi][santi caltabiano]Equazioni  [teoria ed esericizi][santi caltabiano]
Equazioni [teoria ed esericizi][santi caltabiano]santi caltabiano
 
Telecontrollo di un sistema cartesiano a 2 g.d.l. mediante interfaccia aptica...
Telecontrollo di un sistema cartesiano a 2 g.d.l. mediante interfaccia aptica...Telecontrollo di un sistema cartesiano a 2 g.d.l. mediante interfaccia aptica...
Telecontrollo di un sistema cartesiano a 2 g.d.l. mediante interfaccia aptica...GabrieleGandossi
 
Studio e sviluppo di una soluzione circuitale per la simulazione di un rivela...
Studio e sviluppo di una soluzione circuitale per la simulazione di un rivela...Studio e sviluppo di una soluzione circuitale per la simulazione di un rivela...
Studio e sviluppo di una soluzione circuitale per la simulazione di un rivela...DanieleMarchese6
 
Analisi statistica spaziale
Analisi statistica spazialeAnalisi statistica spaziale
Analisi statistica spazialeMirkoLezzi
 
Automation Engineering: Solved Models - Raccolta di modelli risolti
Automation Engineering: Solved Models - Raccolta di modelli risoltiAutomation Engineering: Solved Models - Raccolta di modelli risolti
Automation Engineering: Solved Models - Raccolta di modelli risoltiAndrea Tino
 
Compressione di insiemi di espressioni regolari tramite programmazione geneti...
Compressione di insiemi di espressioni regolari tramite programmazione geneti...Compressione di insiemi di espressioni regolari tramite programmazione geneti...
Compressione di insiemi di espressioni regolari tramite programmazione geneti...Simone Cumar
 

Similar to Studio sulle condizioni di validità del criterio di Barkhausen - Tesi (20)

Sistemi elettromeccanici (1)
Sistemi elettromeccanici (1)Sistemi elettromeccanici (1)
Sistemi elettromeccanici (1)
 
Relazione Caratterizzazione dinamica di un trasduttore di pressione
Relazione Caratterizzazione dinamica di un trasduttore di pressioneRelazione Caratterizzazione dinamica di un trasduttore di pressione
Relazione Caratterizzazione dinamica di un trasduttore di pressione
 
nicolettibell
nicolettibellnicolettibell
nicolettibell
 
Yielding Robot and Rigid Environment - Contact Force Control (IT)
Yielding Robot and Rigid Environment - Contact Force Control (IT)Yielding Robot and Rigid Environment - Contact Force Control (IT)
Yielding Robot and Rigid Environment - Contact Force Control (IT)
 
Introduzione ai Bond graph
Introduzione ai Bond graphIntroduzione ai Bond graph
Introduzione ai Bond graph
 
Relazione Taratura trasduttore di pressione
Relazione Taratura trasduttore di pressioneRelazione Taratura trasduttore di pressione
Relazione Taratura trasduttore di pressione
 
Quantum Information Theory
Quantum Information TheoryQuantum Information Theory
Quantum Information Theory
 
BisPy: un pacchetto Python per il calcolo della massima bisimulazione di graf...
BisPy: un pacchetto Python per il calcolo della massima bisimulazione di graf...BisPy: un pacchetto Python per il calcolo della massima bisimulazione di graf...
BisPy: un pacchetto Python per il calcolo della massima bisimulazione di graf...
 
BisPy: un pacchetto Python per il calcolo della massima bisimulazione di graf...
BisPy: un pacchetto Python per il calcolo della massima bisimulazione di graf...BisPy: un pacchetto Python per il calcolo della massima bisimulazione di graf...
BisPy: un pacchetto Python per il calcolo della massima bisimulazione di graf...
 
Graph partitioning: implementazione dell'algoritmo spettrale e confronto con ...
Graph partitioning: implementazione dell'algoritmo spettrale e confronto con ...Graph partitioning: implementazione dell'algoritmo spettrale e confronto con ...
Graph partitioning: implementazione dell'algoritmo spettrale e confronto con ...
 
Stringhe Relativistiche Classiche
Stringhe Relativistiche Classiche Stringhe Relativistiche Classiche
Stringhe Relativistiche Classiche
 
AV_tesi_v5
AV_tesi_v5AV_tesi_v5
AV_tesi_v5
 
Lezione sul caos
Lezione sul caosLezione sul caos
Lezione sul caos
 
Relatività ristretta
Relatività ristrettaRelatività ristretta
Relatività ristretta
 
Equazioni [teoria ed esericizi][santi caltabiano]
Equazioni  [teoria ed esericizi][santi caltabiano]Equazioni  [teoria ed esericizi][santi caltabiano]
Equazioni [teoria ed esericizi][santi caltabiano]
 
Telecontrollo di un sistema cartesiano a 2 g.d.l. mediante interfaccia aptica...
Telecontrollo di un sistema cartesiano a 2 g.d.l. mediante interfaccia aptica...Telecontrollo di un sistema cartesiano a 2 g.d.l. mediante interfaccia aptica...
Telecontrollo di un sistema cartesiano a 2 g.d.l. mediante interfaccia aptica...
 
Studio e sviluppo di una soluzione circuitale per la simulazione di un rivela...
Studio e sviluppo di una soluzione circuitale per la simulazione di un rivela...Studio e sviluppo di una soluzione circuitale per la simulazione di un rivela...
Studio e sviluppo di una soluzione circuitale per la simulazione di un rivela...
 
Analisi statistica spaziale
Analisi statistica spazialeAnalisi statistica spaziale
Analisi statistica spaziale
 
Automation Engineering: Solved Models - Raccolta di modelli risolti
Automation Engineering: Solved Models - Raccolta di modelli risoltiAutomation Engineering: Solved Models - Raccolta di modelli risolti
Automation Engineering: Solved Models - Raccolta di modelli risolti
 
Compressione di insiemi di espressioni regolari tramite programmazione geneti...
Compressione di insiemi di espressioni regolari tramite programmazione geneti...Compressione di insiemi di espressioni regolari tramite programmazione geneti...
Compressione di insiemi di espressioni regolari tramite programmazione geneti...
 

Recently uploaded

Giornata Tecnica da Piave Servizi, 11 aprile 2024 | ROMANO' Davide
Giornata Tecnica da Piave Servizi, 11 aprile 2024 | ROMANO' DavideGiornata Tecnica da Piave Servizi, 11 aprile 2024 | ROMANO' Davide
Giornata Tecnica da Piave Servizi, 11 aprile 2024 | ROMANO' DavideServizi a rete
 
Giornata Tecnica da Piave Servizi, 11 aprile 2024 | ALBIERO Andrea
Giornata Tecnica da Piave Servizi, 11 aprile 2024 | ALBIERO AndreaGiornata Tecnica da Piave Servizi, 11 aprile 2024 | ALBIERO Andrea
Giornata Tecnica da Piave Servizi, 11 aprile 2024 | ALBIERO AndreaServizi a rete
 
Giornata Tecnica da Piave Servizi, 11 aprile 2024 | DI DOMENICO Simone
Giornata Tecnica da Piave Servizi, 11 aprile 2024 | DI DOMENICO SimoneGiornata Tecnica da Piave Servizi, 11 aprile 2024 | DI DOMENICO Simone
Giornata Tecnica da Piave Servizi, 11 aprile 2024 | DI DOMENICO SimoneServizi a rete
 
Giornata Tecnica da Piave Servizi, 11 aprile 2024 | CADEI Giovanni
Giornata Tecnica da Piave Servizi, 11 aprile 2024 | CADEI GiovanniGiornata Tecnica da Piave Servizi, 11 aprile 2024 | CADEI Giovanni
Giornata Tecnica da Piave Servizi, 11 aprile 2024 | CADEI GiovanniServizi a rete
 
Giornata Tecnica da Piave Servizi, 11 aprile 2024 | DISCIPIO Antonio
Giornata Tecnica da Piave Servizi, 11 aprile 2024 | DISCIPIO AntonioGiornata Tecnica da Piave Servizi, 11 aprile 2024 | DISCIPIO Antonio
Giornata Tecnica da Piave Servizi, 11 aprile 2024 | DISCIPIO AntonioServizi a rete
 
Giornata Tecnica da Piave Servizi, 11 aprile 2024 | SERRA Giorgio
Giornata Tecnica da Piave Servizi, 11 aprile 2024 | SERRA GiorgioGiornata Tecnica da Piave Servizi, 11 aprile 2024 | SERRA Giorgio
Giornata Tecnica da Piave Servizi, 11 aprile 2024 | SERRA GiorgioServizi a rete
 
Giornata Tecnica da Piave Servizi, 11 aprile 2024 | RENZI Daniele
Giornata Tecnica da Piave Servizi, 11 aprile 2024 | RENZI DanieleGiornata Tecnica da Piave Servizi, 11 aprile 2024 | RENZI Daniele
Giornata Tecnica da Piave Servizi, 11 aprile 2024 | RENZI DanieleServizi a rete
 

Recently uploaded (7)

Giornata Tecnica da Piave Servizi, 11 aprile 2024 | ROMANO' Davide
Giornata Tecnica da Piave Servizi, 11 aprile 2024 | ROMANO' DavideGiornata Tecnica da Piave Servizi, 11 aprile 2024 | ROMANO' Davide
Giornata Tecnica da Piave Servizi, 11 aprile 2024 | ROMANO' Davide
 
Giornata Tecnica da Piave Servizi, 11 aprile 2024 | ALBIERO Andrea
Giornata Tecnica da Piave Servizi, 11 aprile 2024 | ALBIERO AndreaGiornata Tecnica da Piave Servizi, 11 aprile 2024 | ALBIERO Andrea
Giornata Tecnica da Piave Servizi, 11 aprile 2024 | ALBIERO Andrea
 
Giornata Tecnica da Piave Servizi, 11 aprile 2024 | DI DOMENICO Simone
Giornata Tecnica da Piave Servizi, 11 aprile 2024 | DI DOMENICO SimoneGiornata Tecnica da Piave Servizi, 11 aprile 2024 | DI DOMENICO Simone
Giornata Tecnica da Piave Servizi, 11 aprile 2024 | DI DOMENICO Simone
 
Giornata Tecnica da Piave Servizi, 11 aprile 2024 | CADEI Giovanni
Giornata Tecnica da Piave Servizi, 11 aprile 2024 | CADEI GiovanniGiornata Tecnica da Piave Servizi, 11 aprile 2024 | CADEI Giovanni
Giornata Tecnica da Piave Servizi, 11 aprile 2024 | CADEI Giovanni
 
Giornata Tecnica da Piave Servizi, 11 aprile 2024 | DISCIPIO Antonio
Giornata Tecnica da Piave Servizi, 11 aprile 2024 | DISCIPIO AntonioGiornata Tecnica da Piave Servizi, 11 aprile 2024 | DISCIPIO Antonio
Giornata Tecnica da Piave Servizi, 11 aprile 2024 | DISCIPIO Antonio
 
Giornata Tecnica da Piave Servizi, 11 aprile 2024 | SERRA Giorgio
Giornata Tecnica da Piave Servizi, 11 aprile 2024 | SERRA GiorgioGiornata Tecnica da Piave Servizi, 11 aprile 2024 | SERRA Giorgio
Giornata Tecnica da Piave Servizi, 11 aprile 2024 | SERRA Giorgio
 
Giornata Tecnica da Piave Servizi, 11 aprile 2024 | RENZI Daniele
Giornata Tecnica da Piave Servizi, 11 aprile 2024 | RENZI DanieleGiornata Tecnica da Piave Servizi, 11 aprile 2024 | RENZI Daniele
Giornata Tecnica da Piave Servizi, 11 aprile 2024 | RENZI Daniele
 

Studio sulle condizioni di validità del criterio di Barkhausen - Tesi

  • 1. UNIVERSIT`A DEGLI STUDI DI TRIESTE Dipartimento di Ingegneria e Architettura Laurea Triennale in Ingegneria dell’Informazione Studio sulle condizioni di validit`a del criterio di Barkhausen 7 marzo 2018 Laureando Relatore Matteo Smaila Chiar.mo Prof. Sergio Carrato Anno Accademico 2016/2017
  • 2. Di due attivit`a che gli siano state insegnate, l’uomo generalmente preferisce la pi`u difficile: nessun giocatore di scacchi gioca a dama — Bertrand Russell —
  • 3. Sommario Questo elaborato riguarda il criterio di Barkhausen e in particolare la rela- zione che intercorre tra tale criterio e la stabilit`a di un sistema. Si riporta innanzitutto la dimostrazione di necessariet`a del criterio di Barkhausen af- finch´e un sistema retroazionato positivamente produca un’uscita oscillatoria ad ampiezza costante, per un tempo indefinito. Dopodich´e si traduce in lin- guaggio matematico il ragionamento euristico spesso utilizzato per motivare l’estensione del criterio di Barkhausen a criterio di stabilit`a. Ci`o permette di evidenziarne la non liceit`a e spiegare perch´e sia dunque possibile trovare dei controesempi per tale criterio esteso. Si presenta poi una realizzazione pratica di uno di questi controesempi, ossia un circuito elettronico che non rispetta le previsioni effettuate dal criterio esteso. Inoltre, si esamina una possibile condizione aggiuntiva, gi`a presentata da alcuni gruppi di ricerca (seppur senza una motivazione, n´e fisica n´e matematica), che modifica il criterio esteso ed amplia la classe di sistemi sui quali esso fornisce predizioni corrette circa la loro stabilit`a. Da tale esame si evince che la condizione trovata concorda con il criterio di Nyquist almeno due classi comuni di si- stemi. Inoltre si propone una spiegazione di natura fisica per la validit`a di tale condizione aggiuntiva. i
  • 4. Indice Sommario i Introduzione iii 1 Sistemi e Stabilit`a 1 1.1 Sistemi dinamici . . . . . . . . . . . . . . . . . . . . . . . . . 1 1.2 Sistemi LTI . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 1.3 Stato di un sistema . . . . . . . . . . . . . . . . . . . . . . . . 3 1.4 Descrizione esterna . . . . . . . . . . . . . . . . . . . . . . . . 4 1.5 Equilibri e stabilit`a . . . . . . . . . . . . . . . . . . . . . . . . 6 2 I criteri di Nyquist e Barkhausen 9 2.1 Sistemi retroazionati . . . . . . . . . . . . . . . . . . . . . . . 9 2.2 Il criterio di Nyquist . . . . . . . . . . . . . . . . . . . . . . . 10 2.3 Il criterio di Barkhausen . . . . . . . . . . . . . . . . . . . . . 11 2.4 Il criterio esteso di Barkhausen . . . . . . . . . . . . . . . . . 12 3 L’approccio seriale 14 3.1 Un risultato preliminare . . . . . . . . . . . . . . . . . . . . . 14 3.2 L’approccio seriale per i sistemi LTI . . . . . . . . . . . . . . 22 4 Un controesempio 26 4.1 Simulazione del controesempio . . . . . . . . . . . . . . . . . 26 4.2 Il circuito . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53 5 Una condizione aggiuntiva 60 5.1 Diagramma di Nyquist in funzione di K . . . . . . . . . . . . 61 5.2 Nyquist e dφ dω < 0 . . . . . . . . . . . . . . . . . . . . . . . . . 63 5.3 Significato fisico della condizione aggiuntiva . . . . . . . . . . 65 Conclusioni 67 ii
  • 5. Introduzione Lo studio della stabilit`a dei sistemi `e oggetto d’interesse fin dai tempi della rivoluzione industriale, ed `e fondamentale in quasi tutti i rami dell’ingegne- ria. Un caso particolare molto utile ai fini pratici `e lo studio della stabilit`a dei sistemi retroazionati. Intuitivamente, una retroazione negativa dovrebbe ridurre opportunamente l’ampiezza del segnale entrante nel sistema, mante- nendola all’interno di un range ben definito, e facendo s`ı che anche l’ampiezza del segnale uscente rimanga entro dei limiti prefissati. Una retroazione po- sitiva, viceversa, dovrebbe alimentare il segnale in ingresso, facendo s`ı che questo si autosostenga, o addirittura cresca indefinitamente. Quest’ultima trova impiego, infatti, negli oscillatori elettronici. Heinrich Georg Barkhausen, fisico tedesco nato nel 1881 e scomparso nel 1956 [6], formula nel 1921 l’omonimo criterio, condizione necessaria affin- ch´e un sistema retroazionato positivamente generi un segnale oscillante di ampiezza costante. Barkhausen ricav`o questa condizione allo scopo di stabi- lire agevolmente a quale frequenza un dispositivo dovesse oscillare, qualora oscillasse, e non al fine di determinarne le caratteristiche di stabilit`a. Suc- cessivamente si fece spazio in letteratura un’interpretazione non rigorosa del criterio, basata sulla causalit`a temporale, che diede luogo ad una lettura del criterio di Barkhausen quale criterio di stabilit`a [9]. Tale interpretazione `e molto apprezzata, poich´e convincente da un punto di vista fisico, ma ine- satta, come avremo modo di vedere, poich´e esistono degli esempi di sistemi stabili che, secondo l’illecito criterio di stabilit`a derivato da Barkhausen, dovrebbero risultare instabili (e viceversa). Harry Theodor Nyquist (1889 - 1976), fisico svedese naturalizzato sta- tunitense [2], formula nel 1932 quello che oggi conosciamo come Criterio di Nyquist, e che fornisce risultati corretti sulle caratteristiche di stabilit`a di un sistema retroazionato a partire da una rappresentazione grafica del- la funzione di trasferimento dell’anello aperto dello stesso - il diagramma di Nyquist. Il criterio di Nyquist, che fornisce una condizione necessaria e sufficiente affinch´e il sistema studiato sia asintoticamente stabile, poggia su basi matematiche pi`u complicate ed astratte rispetto al criterio di Barkhau- sen, e non fornisce alcuna informazione sulla natura della risposta libera del sistema stesso (in particolare, se oscilli o meno). Da qui nasce la necessit`a di compiere ulteriori studi sull’argomento, poi- iii
  • 6. INTRODUZIONE ch´e ad oggi manca una condizione sufficiente (che sia motivata in maniera convincente da un punto di vista fisico) affinch´e la risposta libera di un sistema oscilli. iv
  • 7. Capitolo 1 Sistemi e Stabilit`a In questo primo capitolo vengono riportati, introduttivamente, concetti noti dalla teoria dei sistemi, tratti da [3, 14, 15]. La scelta di dedicare un in- tero capitolo a tale introduzione `e motivata dalla possibilit`a di introdurre la simbologia e i risultati salienti in maniera organica, in modo da poter essere citati agevolmente in tutto il resto del testo, snellendo la successiva trattazione. 1.1 Sistemi dinamici Con sistema dinamico a tempo continuo a parametri concentrati ci si riferisce ad un sistema fisico descritto da un sistema di equazioni del tipo: ˙x(t) = f(x(t), u(t), t) y(t) = g(x(t), u(t), t) (1.1.1) dove, dato un dominio T = [t0, t1] ⊆ R, x : T → Rn `e il vettore di stato, u : T → Rm `e il vettore d’ingresso e y : T → Rp `e il vettore d’uscita. Pertanto f e g sono definite su Rn × Rm × T. Per i casi da noi affrontati, sar`a T = R e m = p = 1, ossia sistemi con solamente un ingresso e un’uscita, detti Single Input - Single Output (abbreviato SISO). La prima equazione viene detta equazione di stato, la seconda equazione d’uscita. Il sistema si dice a tempo continuo poich´e il tempo `e modellizzato con una variabile che si muove in un intervallo di R, ossia varia con con- tinuit`a. A questo tipo di sistemi si contrappongono i sistemi a tempo discreto, in cui il tempo viene modellizzato come una variabile k in un dominio E = [k0, k1] ⊆ Z, ossia gli istanti di interesse sono numerabili. Tali sistemi, invece di essere descritti da equazioni differenziali, sono descritti da equazioni alle differenze. La dicitura a parametri concentrati sta a significare che ciascun com- ponente del sistema ha una propriet`a che fisicamente si pu`o considerare concentrata in un punto, e pertanto pu`o essere descritta da uno scalare, che 1
  • 8. CAPITOLO 1. SISTEMI E STABILIT`A pu`o o meno variare nel tempo. Vi si contrappongono i sistemi a parametri distribuiti, in cui le propriet`a fisiche sono invece distribuite nello spazio, e pertanto devono essere descritte da funzioni il cui valore varia al variare del punto considerato (ed eventualmente nel tempo). In questo caso le equazio- ni che si ottengono sono alle derivate parziali. Nel mondo reale i parametri sono sempre distribuiti, ma in caso di sistemi che operano a basse frequenze, la minima lunghezza d’onda che pu`o interessare il sistema `e normalmente molto maggiore delle dimensioni del sistema stesso. Pertanto si pu`o assu- mere che ogni variazione si propaghi istantaneamente attraverso il sistema, mentre nei sistemi a parametri distribuiti questa assunzione `e falsa. Se in un sistema l’uscita non dipende direttamente dall’ingresso, os- sia y(t) = g(x(t), t), il sistema si dice strettamente proprio. In caso contrario, il sistema `e non strettamente proprio. 1.2 Sistemi LTI Se tutti i componenti di un sistema hanno propriet`a che non variano nel tempo, allora la f e la g in 1.1.1 non dipendono da t, e si parla di sistema stazionario o tempo-invariante. Il sistema di equazioni diventa dunque: ˙x(t) = f(x(t), u(t)) y(t) = g(x(t), u(t)) (1.2.1) Nel caso particolare in cui f e g siano lineari, il sistema si dice lineare e il sistema di equazioni 1.1.1 diventa: ˙x(t) = A(t) x(t) + B(t) u(t) y(t) = C(t) x(t) + D(t) u(t) (1.2.2) dove A : T → Rn×n, B : T → Rn×m, C : T → Rp×n e D : T → Rp×m. Qualora entrambe le propriet`a siano soddisfatte, si parla di sistemi li- neari tempo-invarianti, spesso abbreviato in sistemi LTI. Il sistema di equazioni, in tal caso, si riduce a: ˙x(t) = A x(t) + B u(t) y(t) = C x(t) + D u(t) (1.2.3) Si osservi che in questo caso A ∈ Rn×n, B ∈ Rn×m, C ∈ Rp×n e D ∈ Rp×m, ossia le matrici sono costanti. Inoltre, il sistema `e strettamente proprio se D = 0. I sistemi LTI sono di fondamentale importanza in ingegneria (e in parti- colare in questa trattazione) per due ragioni: 2
  • 9. CAPITOLO 1. SISTEMI E STABILIT`A • tranne in casi particolarissimi, si vogliono realizzare sistemi le cui pro- priet`a fisiche rimangano idealmente inalterate con lo scorrere del tem- po, ossia sistemi tempo-invarianti; inoltre, alcuni sistemi non stazionari variano in funzione di t in modo cos`ı lento che si possono considerare tempo-invarianti anche su intervalli T ragionevolmente lunghi; • si prediligono i sistemi lineari per la semplicit`a di trattazione data dal principio di sovrapposizione degli effetti, tanto che spesso si restrin- ge il range di impiego di sistemi non lineari in modo tale da poterli linearizzare in un intorno di un determinato punto di lavoro. 1.3 Stato di un sistema Il concetto di stato distingue un sistema dinamico da uno non dinamico. In un sistema non dinamico, l’uscita y all’istante di tempo t dipende esclusiva- mente dal valore dell’ingresso u allo stesso istante di tempo. In un sistema dinamico, invece, l’uscita dipende sia dall’ingresso che dal valore di alcune altre grandezze variabili, dette variabili di stato del sistema. Presentia- mo due esempi significativi per chiarire la necessit`a dell’introduzione di tale concetto. Un esempio in ambito elettrotecnico di sistema non dinamico `e il resi- store, descritto dalla legge di Ohm: v = R i La differenza di potenziale (in breve d.d.p.) v ai capi di un resistore (usci- ta) dipende unicamente dalla corrente i che scorre attraverso di esso, e dal parametro concentrato R - la resistenza del componente. Si osservi che tale sistema si pu`o considerare un sistema dinamico con stato costante e matrici A, B, C nulle, mentre D = R. In pratica, i sistemi non dinamici sono un sottoinsieme dei sistemi dinamici, e le equazioni che descrivono i sistemi non dinamici LTI sono equazioni lineari algebriche, piuttosto che differenziali. Rimanendo sempre nell’elettrotecnica, un esempio di sistema dinamico `e invece il condensatore, la cui caratteristica `e: i(t) = C1 dv dt (t) (1.3.1) dove C1 `e la capacit`a del condensatore. Volendola porre nella forma riportata in 1.2.3:    dv dt (t) = 1 C1 i(t) y(t) = v(t) 3
  • 10. CAPITOLO 1. SISTEMI E STABILIT`A ossia, lo stato `e rappresentato da v, le matrici A e C si riducono a 0 ∈ R, la matrice B a 1 C1 e la D diventa 1 ∈ R (ossia l’uscita coincide con lo stato). Dalla 1.3.1 si ricava facilmente che: v(t) = v(t0) + 1 C1 t t0 i(τ) dτ Si osservi che la v non dipende soltanto dalla i, ma anche dal valore iniziale v(t0) della d.d.p., che di fatto misura il livello di carica del condensatore (poich´e C1 := Q v ⇒ Q = C1v). Applicando la stessa corrente nel medesimo periodo temporale a due condensatori con d.d.p. iniziale diversa (ossia che si trovano in uno stato differente), si giunge a una d.d.p. finale diversa. Pertanto, i sistemi fisici aventi un’inerzia o una memoria di qualche tipo, o (pi`u rigorosamente) descritti da equazioni integrali, differenziali o integro- differenziali, hanno evidenziato il bisogno del concetto di stato affinch´e il modello di sistema rispecchi opportunamente la realt`a fisica. 1.4 Descrizione esterna La notazione usata finora per descrivere un sistema viene detta descrizione interna, poich´e presuppone la conoscenza dello stato, di come esso sia con- dizionato dall’ingresso e da come esso condizioni se stesso e l’uscita. Vi `e la possibilit`a di trovare una descrizione del sistema che esprima direttamente l’uscita in funzione dell’ingresso. Per farlo `e necessario usare la trasforma- ta di Laplace (in breve L -trasformata). La L -trasformata unilatera di una funzione f `e una funzione F, in generale a valori complessi, definita da: F(s) = L [f(t)] := +∞ 0− f(t) e−st dt (1.4.1) L’integrale da 0− `e un modo compatto per scrivere: lim E→0 +∞ −E f(t) e−st dt Ci`o serve a includere nell’integrale eventuali impulsi di Dirac che si trovassero in t = 0. Tra le varie importanti propriet`a che caratterizzano la trasformata di Laplace, riportiamo la seguente: L df dt (t) = sL [f(t)] − f(0+ ) (1.4.2) Applichiamola ora al sistema 1.2.3: s X(s) − x(0+) = A X(s) + B U(s) Y (s) = C X(s) + D U(s) 4
  • 11. CAPITOLO 1. SISTEMI E STABILIT`A Allora l’equazione di stato diventa: X(s) (sI − A) = x(0+ ) + B U(s) Dovendo invertire (sI −A), ci si chiede per quali valori di s ci`o sia possibile, ossia per quali valori di s si ha det(sI − A) = 0 . Poich´e il determinante di (sI − A) `e proprio il polinomio caratteristico di A, esso sar`a di grado n. Pertanto solo per n valori di s tale determinante `e nullo (i.e., gli autovalori di A). Per tutti gli altri, (sI − A) `e invertibile, e possiamo scrivere: X(s) = (sI − A)−1 (x(0+ ) + B U(s)) Sostituendo nell’equazione d’uscita: Y (s) = C (sI − A)−1 (x(0+ ) + B U(s)) + D U(s) ⇒ Y (s) = C (sI − A)−1 x(0+ ) + (D + C (sI − A)−1 B) U(s) (1.4.3) Si osservi che se x(0+) = 0 (ossia lo stato iniziale `e nullo e non sono stati applicati impulsi all’istante iniziale), allora: Y (s) = (D + C (sI − A)−1 B) U(s) (1.4.4) La (D + C (sI − A)−1 B) viene indicata con H(s) e detta funzione di trasferimento (in breve f.d.t.). Nota la trasformata U del vettore d’ingresso e nota la f.d.t. del sistema, moltiplicandole tra loro e antitrasformando il risultato, si ottiene y funzione del tempo, detta in questo caso evoluzione forzata dell’uscita del sistema. Per questo, vista anche l’assenza dello stato nella 1.4.4, si parla in questo caso di descrizione esterna del sistema. `E opportuno osservare che (sI − A)−1 ha per elementi delle funzioni algebriche razionali fratte. Questo perch´e: • come gi`a detto, il determinante `e il polinomio caratteristico di A (che quindi `e di grado n), e va al denominatore di ciascun elemento; • ciascun complemento algebrico deriva dal calcolo del minore comple- mentare, che `e il determinante di una sottomatrice di (sI − A) di dimensione n − 1, e quindi un polinomio di grado n − 1. Se il sistema `e strettamente proprio, D `e la matrice nulla e gli elementi di H(s) sono razionali fratte con grado n−1 al numeratore, n al denominatore. Altrimenti, a causa di D, dovendo sviluppare un denominatore comune per ogni elemento, si ottengono razionali fratte con grado n sia al numeratore che al denominatore. Per sistemi SISO, la H(s) si riduce ad una sola funzione razionale fratta, ossia: 5
  • 12. CAPITOLO 1. SISTEMI E STABILIT`A H(s) = N(s) D(s) = K (s − z1)(s − z2) · · · (s − zm) (s − p1)(s − p2) · · · (s − pn) (1.4.5) con m pari a n − 1 o n come gi`a spiegato sopra, K ∈ C costante. Le radici del denominatore vengono dette poli della funzione di trasferimento, quelle del numeratore zeri. Salvo cancellazioni (ossia semplificazioni in caso di zeri e poli coincidenti), i poli coincidono con gli autovalori di A. Riprendendo la 1.4.3 e ponendo U(s) = 0, che `e la trasformata dell’in- gresso nullo, si ha: Y (s) = C (sI − A)−1 x(0+ ) (1.4.6) La C (sI − A)−1, che noi indicheremo con HL(s), esprime la proporzionalit`a tra Y (s) e x(0+), permettendo quindi di studiare la cosiddetta evoluzione libera dell’uscita del sistema. Per gli stessi ragionamenti fatti per la f.d.t., HL `e, nel caso SISO, una funzione algebrica razionale fratta del tipo: HL(s) = NL(s) D(s) = KL (s − zL,1)(s − zL,2) · · · (s − zL,n−1) (s − p1)(s − p2) · · · (s − pn) (1.4.7) Il denominatore `e, per ovvi motivi, lo stesso visto nella H(s), e quindi le due condividono gli stessi poli (sempre salvo cancellazioni). 1.5 Equilibri e stabilit`a L’equilibrio `e un concetto presente nella vita di tutti i giorni. Diciamo che un corpo `e in equilibrio quando, malgrado non sia fissato saldamente al terreno, a un edificio, o comunque a un corpo ritenuto relativamente inamovibile, esso mantiene la sua posizione, o non cade, seppure tale eventualit`a sia contemplata. Di tutto questo, ci`o che realmente conta `e lo stato di quiete del corpo nonostante le sollecitazioni esterne che esso possa subire, mentre la precariet`a o meno dell’equilibrio ricadr`a nel concetto di stabilit`a. In riferimento a 1.1.1, fissata una funzione d’ingresso u, se esiste x ∈ Rn tale che: x(t0) = x ⇒ x(t) = x ∀t t0, t ∈ D (1.5.1) esso si dice stato di equilibrio o semplicemente equilibrio. In maniera del tutto analoga, fissata u, se esiste y ∈ Rp tale che: y(t0) = y ⇒ y(t) = y ∀t t0, t ∈ D (1.5.2) si parla di uscita di equilibrio. 6
  • 13. CAPITOLO 1. SISTEMI E STABILIT`A Per sistemi stazionari (vedi 1.2.1), essendo l’equazione di stato indipen- dente da t, si ha in generale: f(x, u(t)) = 0 ⇔ u(t) = u e dunque `e necessario che anche l’ingresso sia costante affinch´e sia possibile trovare degli equilibri. Per ogni stato di equilibrio, poi, si evidenzia un’uscita di equilibrio, poich´e: g(x, u) = y ∈ Rp Informalmente, un equilibrio (u, x) `e stabile se, perturbato leggermente lo stato iniziale, l’evoluzione dello stato non si discosta troppo da x. In altre parole, per piccole variazioni dello stato iniziale si hanno piccole variazioni del movimento dello stato (ossia di t → x(t)). L’equilibrio sar`a poi asin- toticamente stabile se, perturbato lo stato iniziale, il movimento dello stato tender`a nuovamente all’equilibrio. In simboli, se t0 `e l’istante iniziale, v = (u, x) `e un equilibrio stabile se: ∀E > 0 ∃δ = δ(E, v) > 0 : x(t0) − x < δ ⇒ x(t) − x < E ∀t > t0 (1.5.3) ed `e inoltre asintoticamente stabile se: lim t → +∞ x(t) − x = 0 (1.5.4) Per i sistemi lineari (e quindi in particolare per i sistemi LTI) si pu`o dimostrare che la stabilit`a `e una propriet`a del sistema e non dell’equilibrio. Ci`o significa tutti gli equilibri del sistema hanno le medesime propriet`a di stabilit`a. `E possibile dimostrare anche che la stabilit`a del sistema dipende esclusivamente dagli autovalori della matrice A. In particolare: • se gli autovalori hanno tutti parte reale negativa, il sistema `e asintoti- camente stabile • se esistono autovalori a parte reale nulla ma sono tutti distinti, il sistema `e stabile (non asintoticamente). • se esiste almeno un autovalore a parte reale positiva, il sistema `e instabile Sul caso autovalori multipli a parte reale nulla non si pu`o decretare nulla: ci sono casi in cui il sistema `e stabile, casi in cui si rivela instabile [13]. Un altro tipo di stabilit`a `e la cosiddetta stabilit`a esterna, o stabilit`a Bounded Input - Bounded Output (abbreviato BIBO). Un sistema `e BIBO-stabile se a input di ampiezza limitata corrispondono sempre output 7
  • 14. CAPITOLO 1. SISTEMI E STABILIT`A di ampiezza limitata. Il nome stabilit`a esterna suggerisce una stretta corre- lazione tra questa caratteristica e la descrizione esterna del sistema. Infatti, un sistema LTI `e BIBO-stabile se, a seguito delle cancellazioni tra poli e zeri nella f.d.t., non vi sono in essa poli a parte reale positiva o nulla. Questo fat- to si dimostra banalmente scomponendo la generica f.d.t. in fratti semplici e antitrasformando: tali fratti danno infatti luogo a componenti divergenti se e solo se i corrispondenti poli sono a parte reale positiva, o a parte reale nulla e con molteplicit`a maggiore di 1. Moltiplicando la f.d.t. per la trasformata di un input, non si fa che aggiungere poli, o alzare la molteplicit`a di quelli presenti. Se i poli dell’input sono a parte reale negativa, non si lede in alcun modo la limitatezza dell’output. Tuttavia, se la f.d.t. avesse poli a parte reale nulla, sarebbe possibile scegliere opportunamente degli input limitati con poli a parte reale nulla coincidenti con quelli della f.d.t., in modo da ottenere output illimitati. Nel caso di sistemi LTI, la asintotica stabilit`a implica la stabilit`a BIBO, ma non `e vero il viceversa. Ci`o `e di semplice spiegazione ricordando che, salvo cancellazioni, i poli della f.d.t. sono gli autovalori della matrice A: • se tutti gli autovalori sono a parte reale negativa, tutti i poli sono a parte reale negativa (anche dopo eventuali cancellazioni); pertanto asintotica stabilit`a ⇒ stabilit`a esterna; • viceversa si pu`o avere stabilit`a BIBO anche con poli a parte reale nulla, od ottenere la cancellazione di poli a parte reale positiva (che quindi continuano a esistere come autovalori, anche se non appaiono nella f.d.t.); pertanto stabilit`a esterna ⇒ asintotica stabilit`a. 8
  • 15. Capitolo 2 I criteri di Nyquist e Barkhausen In questo secondo capitolo si introducono dapprima i sistemi retroazionati, ricavandone la funzione di trasferimento. Dopodich´e si riportano il criterio di Nyquist e il criterio di Barkhausen, entrambi con annessa dimostrazione. Infine si introduce il ragionamento informale per cui si giunge al criterio di stabilit`a di Barkhausen. 2.1 Sistemi retroazionati La retroazione `e la pratica di modificare l’input tenendo conto dell’uscita del sistema. Tale meccanismo si pu`o trovare in sistemi presenti in natura, e spesso si tratta di retroazione negativa. Noi stessi, ad esempio, dopo aver mosso un braccio per afferrare un oggetto (uscita), correggiamo la posizione dello stesso in funzione di ci`o che vediamo (retroazione). Lo schema generale di un sistema retroazionato negativamente `e il seguente: Figura 2.1: Generico sistema retroazionato negativamente Calcoliamone subito la funzione di trasferimento: Y (s) = H(s) E(s) W(s) = G(s) Y (s) 9
  • 16. CAPITOLO 2. I CRITERI DI NYQUIST E BARKHAUSEN E(s) = U(s) − W(s) ⇒ Y (s) = H(s) (U(s) − G(s) Y (s)) ⇒ Y (s)(1 + H(s) G(s)) = H(s) U(s) ⇒ Y (s) U(s) = H(s) 1 + H(s) G(s) (2.1.1) In caso di retroazione positiva, la f.d.t. diventa semplicemente: Y (s) U(s) = H(s) 1 − H(s) G(s) (2.1.2) Si osservi che per ottenere lo schema di sistema a retroazione positiva da quello di sistema a retroazione negativa, `e sufficiente inserire un blocco in- vertente in serie alla G. Vale, ovviamente, anche il viceversa. In letteratura `e comune che si sviluppi la teoria attorno ai sistemi retroazionati negativa- mente, poich´e l’impiego di quelli a retroazione positiva `e pi`u limitato. Nella presente si specifica di volta in volta a quale schema fare riferimento, poich´e in alcune situazioni l’uso di un paradigma piuttosto che dell’altro aiuta a semplificare la trattazione. 2.2 Il criterio di Nyquist Sia Z il numero di zeri a parte reale positiva di 1 + HG, P il numero di poli a parte reale positiva di 1 + HG (d’ora in avanti rispettivamente zeri instabili e poli instabili). Il criterio di Nyquist afferma che Z deve essere 0 affinch´e il sistema sia stabile, e dunque: N = P (2.2.1) dove N `e il numero di rotazioni in senso orario che il diagramma di Nyquist deve compiere attorno al punto −1 + j0. Dimostriamo dunque il criterio. Da quanto riportato nella sezione 2.1 saranno i poli della f.d.t. in 2.1.2 a determinare la stabilit`a del sistema. Tali poli sono proprio gli zeri di 1 − H(s) G(s). In particolare, nessuno zero di questa deve avere parte reale positiva. Definiamo innanzitutto cos’`e un diagramma di Nyquist. Data una gene- rica f.d.t. F, si consideri di tracciare il grafico di F(s(ξ)), dove s(ξ) `e una curva cos`ı definita:    m{Mejξ} se ξ ∈ 0, π 2 Mej(π−ξ) se ξ ∈ π 2 , 3 2π m{Mejξ} se ξ ∈ 3 2π, 2π ossia una semicirconferenza di raggio M > 0 nel semipiano destro, pi`u il 10
  • 17. CAPITOLO 2. I CRITERI DI NYQUIST E BARKHAUSEN diametro sull’asse immaginario (da −jM a +jM), percorsa in senso orario. Si dice diagramma di Nyquist della F il grafico della ξ → F(s(ξ)) nel piano di Gauss per M → ∞. Per la encirclement property [10] (testualmente: propriet`a di accerchia- mento) si ha che ciascun polo di F interno alla curva s(ξ) aggiunger`a un contributo +2π alla fase di F(s(ξ)) quando ξ passa da 0 a 2π, mentre ogni zero di F interno alla curva ξ → s(ξ) aggiunger`a un contributo −2π nel- la stessa situazione. Pertanto, se Zs(ξ) `e il numero di zeri circondati dalla curva ξ → s(ξ) e Ps(ξ) `e il numero di poli circondati dalla stessa, il grafico di ξ → F(s(ξ)) girer`a attorno all’origine in senso orario per un numero di volte pari a N = Zs(ξ) − Ps(ξ). Detto Z il numero di zeri instabili di F e P il numero di poli instabili di F, si ha che quando M tende a +∞, Zs(ξ) diventa Z e Ps(ξ) diventa P. Dunque N = Z − P. Si consideri ora un sistema retroazionato negativamente con f.d.t. come in 2.1.1. Sia F = 1 + HG. Il criterio di Nyquist afferma che, poich´e deve essere Z = 0 per non introdurre instabilit`a (visto che gli zeri di F sono i poli di H 1+HG , si ha: N = P ossia il diagramma di Nyquist di s → 1+H(s)G(s) deve accerchiare l’origine per un numero N = P di volte in senso orario, il che equivale a dire che il digramma di Nyquist di s → H(s) G(s) deve accerchiare −1 per N = P volte in senso orario, come spiegato in [11]. In particolare, se G ed H sono `e gi`a asintoticamente stabili, il criterio diventa N = 0. Per trattare il caso a retroazione positiva, F = 1−HG e dunque l’origine nel diagramma di Nyquist di F `e il punto 1 nel diagramma di Nyquist di HG. In altre parole, in questo caso N `e il numero di giri in senso orario attorno a 1, non pi`u a −1. Qualora vi fossero zeri/poli di HG a parte reale nulla, si provvede a modificare il percorso ξ → s(ξ) in modo da fare delle deviazioni semicircolari centrate in tali zeri/poli, sempre rimanendo nel semipiano destro; quindi si fa tendere a zero il raggio di tali deviazioni quando M → ∞. In questo modo, al limite, il percorso rimane lo stesso, ma si sono esclusi i contributi dei poli e degli zeri a parte reale nulla. 2.3 Il criterio di Barkhausen Il criterio di Barkhausen `e molto pi`u semplice e intuitivo del sopra citato criterio di Nyquist. Si consideri un dispositivo descritto dal seguente schema a blocchi: Supponiamo che tale sistema stia oscillando sinusoidalmente a regime con pulsazione ω, ossia il segnale u possa essere descritto da un fasore U = UejθU , con U e θ reali. Allora va da s´e che: Y = H(jω) U = U |H(jω)| ej(θU + φH (jω)) 11
  • 18. CAPITOLO 2. I CRITERI DI NYQUIST E BARKHAUSEN Figura 2.2: Schema a blocchi di un oscillatore ossia l’uscita y del sistema sia a sua volta una sinusoide con stessa pulsazione di u, di ampiezza |U| |H(jω)| e fase θY = θU + φH(jω), dove phiH(jω) `e la fase di H(jω). Analogamente deve risultare vera: U = G(jω) Y = |Y | |G(jω)| ej(θY + φG(jω)) = = U |H(jω)| |G(jω)| ej(θU + φH (jω) + φG(jω)) Da cui il criterio di Barkhausen: |H(jω)| |G(jω)| = 1 φH(jω) + φG(jω) = 2kπ k ∈ Z (2.3.1) Il criterio di Barkhausen `e pertanto una condizione necessaria affinch´e un sistema retroazionato positivamente e privo di ingresso oscilli ad ampiezza costante, e questa ne `e una dimostrazione rigorosa. In caso di retroazione negativa, `e sufficiente modificare la condizione sulla fase in: φH(jω) + φG(jω) = π + 2kπ k ∈ Z (2.3.2) ossia rendere invertente uno dei due blocchi. 2.4 Il criterio esteso di Barkhausen Spesso il criterio di Barkhausen viene spiegato mediante il ragionamento sotto riportato ([9] che a sua volta rimanda a [5]). Figura 2.3: Generico sistema retroazionato positivamente Si faccia riferimento alla figura 2.3, e si supponga di essere inizialmente in 12
  • 19. CAPITOLO 2. I CRITERI DI NYQUIST E BARKHAUSEN condizione di riposo: tutti i segnali sono nulli. Si pensi di iniettare breve- mente un segnale u sinusoidale, di pulsazione ω. Tale segnale si propagher`a dapprima attraverso H, poi attraverso G tornando quindi all’ingresso del sistema H. Se ω `e tale che |H(jω)| |G(jω)| `e esattamente pari a 1 e lo sfasa- mento complessivo attraverso l’anello `e 2kπ con k ∈ Z, allora `e esattamente pari a 1, il segnale non viene n´e amplificato, n´e attenuato, e si ripresenta all’ingresso immutato. Ci`o prosegue all’infinito, e l’oscillazione si mantie- ne in modo perpetuo. Se, mantenuta la condizione sulla fase, si ha per`o |H(jω)| |G(jω)| < 1, il segnale si attenua di ciclo in ciclo, e la sua ampiezza tende a zero (condizione di stabilit`a). Se invece |H(jω)| |G(jω)| > 1 il se- gnale si amplifica di ciclo in ciclo, e la sua ampiezza cresce indefinitamente (condizione di instabilit`a). Pertanto, riassumendo: se ∠H(jω) G(jω) = 2kπ k ∈ Z, e    |H(jω)| |G(jω)| = 1 ⇒ oscillante, ampiezza costante |H(jω)| |G(jω)| < 1 ⇒ oscillante, stabile |H(jω)| |G(jω)| > 1 ⇒ oscillante, instabile (2.4.1) Tale approccio sembra dare un spiegazione fisica a stabilit`a e instabilit`a sfruttando la causalit`a. Sembra logico, infatti, che il segnale si propaghi in un tempo ∆t > 0 attraverso l’anello di retroazione, e sembra logico che se nel mentre viene amplificato, cresca indefinitamente. Tuttavia, come specificato nella sezione 1.1, stiamo considerando un modello con tempo di propagazione nullo. Nel capitolo 3 sfrutteremo in maniera corretta questo. 13
  • 20. Capitolo 3 L’approccio seriale In questo capitolo si mira a formalizzare il ragionamento visto nella sezione 2.4, partendo dapprima da un caso semplificato, ossia in assenza di dinamica, per poi affrontare il caso generale. L’obiettivo `e trarre da tale approccio informazioni corrette sul comportamento del sistema in funzione di H e G. In particolare siamo interessati alla stabilit`a del sistema e alla presenza di oscillazioni nella risposta libera. 3.1 Un risultato preliminare Si consideri un sistema non dinamico, retroazionato positivamente, in cui H(s) = H ∈ R e G(s) = G ∈ R. In questo modo, a tutte le pulsazioni ω l’amplificazione dell’anello risulta essere H(jω) G(jω) = HG ∈ R. Se ad esempio H = 4 e G = 0.5, calcolando il valore della f.d.t.: F(s) = H(s) 1 − H(s) G(s) = 4 1 − 2 = −4 Da questa ci aspetteremmo di aver descritto un amplificatore invertente con amplificazione pari a 4. In realt`a tale sistema `e BIBO-instabile. Questo `e uno dei casi in cui la rimozione del ritardo di propagazione dall’anello trae in inganno. Una volta reintrodotta, il ragionamento con cui si `e ricavato il criterio esteso nella sezione 2.4.1 fornisce una predizione ragionevole. Per prima cosa, modifichiamo il nostro sistema retroazionato positiva- mente come in figura 3.1. Si dimostra facilmente che inserire un unico ritardo nell’anello di retroazione pari alla somma dei ritardi introdotti dai singoli rami `e equivalente a considerare il ritardo di ciascun ramo. Facendo tendere ∆t a 0, alla fine, otterremo predizioni valide per il sistema di partenza. Rimaniamo nel dominio del tempo, e indichiamo il ritardo con ∆t. Dal momento che il sistema `e tempo invariante, consideriamo t = 0 l’istante iniziale senza perdere in generalit`a. Le equazioni che descrivono il sistema 14
  • 21. CAPITOLO 3. L’APPROCCIO SERIALE Figura 3.1: Sistema a retroazione positiva con ritardo di propagazione sono:    y(t) = He(t) w(t) = G y(t − ∆t) e(t) = u(t) + w(t) Sostituendo la terza nella prima: y(t) = H(u(t) + w(t)) E scrivendo l’espressione di w(t) come riportato nella seconda: y(t) = H(u(t) + G y(t − ∆t)) Che, riarrangiata, diventa: y(t) = HG y(t − ∆t) + Hu(t) Ci si pu`o dunque ricondurre ad una rappresentazione per successioni: yn = HG yn−1 + Hun (3.1.1) Per prima cosa, cerchiamo un equilibrio della successione (yn)n, ossia un valore y tale che se yn = y, allora yn+1 = y per ogni n. y = HG y + Hun ⇐⇒ y (1 − HG) = Hun ⇐⇒ y = H 1 − HG un e ci`o `e valido se e solo se un = u costante: y = H 1 − HG u (3.1.2) Se non volessimo avere un = u e yn = H 1−HG u per ogni n ∈ Z, basterebbe imporre la condizione un = u per n 0 e y−1 = H 1−HG u. Infatti, applicando la 3.1.1: y0 = HG y−1 + Hu0 = 15
  • 22. CAPITOLO 3. L’APPROCCIO SERIALE = HG H 1 − HG u + Hu = = H2G u + H(1 − HG)u 1 − HG = = H 1 − HG u e per induzione, si ha che yn = H 1−HG u ∀n ≥ −1. Ci`o `e gi`a irrealizzabile di per s´e nel caso reale, poich´e nella realt`a fisica possiamo controllare solamente la u: la y ne `e una conseguenza. Infatti le condizioni di studio dei sistemi sono, usualmente, a stato nullo e ingressi nulli per istanti precedenti a quello iniziale. Ci`o implica, grazie all’equazione d’uscita in 1.2.3 che anche l’uscita sia nulla per istanti precedenti a quello iniziale. Ciononostante, studiamo la stabilit`a di questo equilibrio nel senso delle successioni, per capire se l’uscita vi tenda anche qualora la condizione sulla y−1 sopra citata non sia soddisfatta (e in particolare per yn = 0 per n < 0. Chiamiamo L = H 1−HG u per semplicit`a. Sia E ∈ R, e sia y−1 = L + E. Allora: y0 = HGy−1 + Hu0 = = HG (L + E) + Hu = = HG L + Hu + HGE = = L + HGE e quindi, induttivamente: yn = L + (HG)n+1 E Il che significa che se |HG| < 1, l’uscita yn tender`a a L anche se la y−1 non `e esattamente L. Se |HG| , invece, l’uscita diverger`a. Un interessante caso particolare si ha per u = 0. Allora L = 0 e E = yn−1. yn = (HG)n+1 E Dal momento che `e sempre presente del rumore termico in sistemi reali, an- che un sistema in cui l’equilibrio dovrebbe essere l’uscita nulla sar`a instabile, e l’uscita saturer`a in breve tempo (praticamente nullo). Vale la pena di calcolare yn applicando ricorsivamente la 3.1.1 in condi- zioni iniziali nulle (ossia un = yn = 0 se n < 0). y0 = Hu0 y1 = HG(Hu0) + Hu1 = H(HGu0 + u1) y2 = HG H(HGu0 + u1) + Hu2 = H (HG)2 u0 + HGu1 + u2) 16
  • 23. CAPITOLO 3. L’APPROCCIO SERIALE ... yn = H u0(HG)n + u1(HG)n−1 + · · · + un−1(HG) + un yn = H n k=0 (HG)k un−k (3.1.3) In particolare, sia un = u per n 0 yn = u H n k=0 (HG)k Si osservi che n k=0(HG)k `e l’ennesimo termine di una serie geometrica. Pertanto: • se |HG| 1 l’uscita `e illimitata • se |HG| < 1, la serie converge a 1 1−HG , quindi: limn → ∞yn = H 1 − HG u (3.1.4) Si consideri ora di far tendere a 0 il ∆t. Questo `e equivalente ad avere infinite propagazioni attraverso il circuito in tempo zero, e questo ad ogni istante t. Pertanto limn → ∞yn non `e pi`u il valore dell’uscita all’istante n-esimo, bens`ı: y(t) = limn → ∞ n k=0 (HG)k u(t) Quando |HG| < 1 la serie converge ed effettivamente si ha: y(t) = H 1 − GH u(t) Quando |HG| 1, invece, la serie diverge e si potrebbe dire che, nel modello: y(t) = +∞ ∀t 0 Nel caso reale non si ha mai ∆t = 0 e quindi l’uscita ha l’andamento di yn. Non appare a gradini perch`e il ritardo attraverso il loop, alla velocit`a della luce, `e dell’ordine di circa trenta picosecondi per centimetro da percorrere. Pertanto i gradini sarebbero molto brevi anche in assenza di altri disturbi, e a un normale strumento di misura sono impossibili da apprezzare. Un altro importante caso particolare della 3.1.3 si ha quando u0 = 1, un = 0 per n = 0. In questa situazione l’uscita `e: yn = H(HG)n (3.1.5) 17
  • 24. CAPITOLO 3. L’APPROCCIO SERIALE In altre parole, la risposta all’impulso del sistema a tempo discreto `e la successione hn = H(HG)n per n 0. Se |HG| < 1 si ha che hn tende a zero per n → ∞. Viceversa, per |HG| > 1 si ha hn illimitata. Per il valore di frontiera tra i due casi, ossia |HG| = 1, hn = H, costante. Tale condizione `e esattamente la traduzione di quanto riportato nella sezione 2.4 per ω = 0. Infatti, per quel che riguarda la stabilit`a del sistema, grazie a quanto dimostrato precedentemente si pu`o affermare che il sistema sia esternamente stabile se |HG| < 1, e non lo sia altrimenti. Per quel che riguarda la stabilit`a in senso stretto, invece, si sarebbe persuasi di definire il sistema: • stabile quando |HG| < 1, poich`e y tende a 0 quando non si applicano ingressi; • marginalmente stabile quando |HG| = 1, poich`e il sistema ”oscilla a frequenza nulla”, ossia mantiene autonomamente un’uscita costante • instabile quando |HG| > 1, poich`e non appena un qualsiasi segnale nel sistema dovesse discostarsi da 0, l’uscita y crescerebbe illimitatamente in valore assoluto Tale visione, a rigore, `e corretta solo per il sistema a tempo discreto. Infatti per i sistemi a tempo discreto l’equazione differenziale in 1.1.1 diventa un’e- quazione alle differenze, la quale nel nostro caso sarebbe la 3.1.3. Da ci`o si deduce che lo stato pu`o essere rappresentato proprio dalla y. In conclusione, la descrizione classica di questo sistema con l’imposizione del tempo di propagazione pari a zero fornisce risultati corretti soltanto se |HG| < 1. Quando invece |HG| 1, la f.d.t. ricavata in modo classico for- nisce risultati scorretti sul reale comportamento del sistema, e bisognerebbe piuttosto ricorrere all’introduzione del ritardo, per poi farlo tendere a zero. Di seguito riportiamo delle simulazioni svolte per il circuito di cui sopra, sia col modello di figura 2.3 (figura 3.2), sia col modello appena introdotto (figura 3.1) e ritardi decrescenti (figure 3.3, 3.4, 3.5, 3.6, 3.7. Qualora il lettore stesse visualizzando l’elaborato in formato pdf, per la visualizzazione corretta dei grafici delle risposte nel tempo si consiglia un fattore di zoom del 150% o superiore. 18
  • 25. CAPITOLO 3. L’APPROCCIO SERIALE Date/Time run: 03/05/18 18:43:33 * C:UserssimsaDocuments00 MATTEO00 Universit01 - TESISimulazioni pSpiceNon Dinamico retroaz positivoSch... Temperature: 27.0 Date: March 05, 2018 Page 1 Time: 18:46:41 (B) Schematic1.dat (active) Time 0s 2ms 4ms 6ms 8ms 10ms 12ms 14ms 16ms 18ms 20ms V(H:3) -7.0V -6.0V -5.0V -4.0V -3.0V -2.0V Figura 3.2: Risposta del circuito non dinamico ad ingresso costante di ampiezza 1, modello senza ritardo di propagazione Date/Time run: 03/05/18 19:03:31 * C:UserssimsaDocuments00 MATTEO00 Universit01 - TESISimulazioni pSpiceNon Dinamico retroaz positivo con... Temperature: 27.0 Date: March 05, 2018 Page 1 Time: 19:04:23 (A) Schematic1.dat (active) Time 0s 50us 100us 150us 200us 250us 300us 350us 400us 450us V(H:3) 0V 2.0GV 4.0GV 6.0GV 8.0GV 10.0GV Figura 3.3: Risposta del circuito non dinamico ad ingresso costante di am- piezza 1, modello con ritardo di propagazione. ∆t = 10µs, Step ceiling = 100ns 19
  • 26. CAPITOLO 3. L’APPROCCIO SERIALE Date/Time run: 03/05/18 19:03:31 * C:UserssimsaDocuments00 MATTEO00 Universit01 - TESISimulazioni pSpiceNon Dinamico retroaz positivo con... Temperature: 27.0 Date: March 05, 2018 Page 1 Time: 19:04:23 (A) Schematic1.dat (active) Time 0s 50us 100us 150us 200us 250us 300us 350us 400us 450us V(H:3) 0V 2.0GV 4.0GV 6.0GV 8.0GV 10.0GV Figura 3.4: Risposta del circuito non dinamico ad ingresso costante di am- piezza 1, modello con ritardo di propagazione. ∆t = 5µs, Step ceiling = 100ns Date/Time run: 03/05/18 19:10:05 * C:UserssimsaDocuments00 MATTEO00 Universit01 - TESISimulazioni pSpiceNon Dinamico retroaz positivo con... Temperature: 27.0 Date: March 05, 2018 Page 1 Time: 19:10:21 (A) Schematic1.dat (active) Time 0s 40us 80us 120us 160us 200us 240us V(H:3) 0V 2.0GV 4.0GV 6.0GV 8.0GV 10.0GV Figura 3.5: Risposta del circuito non dinamico ad ingresso costante di am- piezza 1, modello con ritardo di propagazione. ∆t = 1µs, Step ceiling = 10ns 20
  • 27. CAPITOLO 3. L’APPROCCIO SERIALE Date/Time run: 03/05/18 19:10:05 * C:UserssimsaDocuments00 MATTEO00 Universit01 - TESISimulazioni pSpiceNon Dinamico retroaz positivo con... Temperature: 27.0 Date: March 05, 2018 Page 1 Time: 19:10:21 (A) Schematic1.dat (active) Time 0s 40us 80us 120us 160us 200us 240us V(H:3) 0V 2.0GV 4.0GV 6.0GV 8.0GV 10.0GV Figura 3.6: Risposta del circuito non dinamico ad ingresso costante di am- piezza 1, modello con ritardo di propagazione. ∆t = 500nss, Step ceiling = 1ns Date/Time run: 03/05/18 19:10:05 * C:UserssimsaDocuments00 MATTEO00 Universit01 - TESISimulazioni pSpiceNon Dinamico retroaz positivo con... Temperature: 27.0 Date: March 05, 2018 Page 1 Time: 19:10:21 (A) Schematic1.dat (active) Time 0s 40us 80us 120us 160us 200us 240us V(H:3) 0V 2.0GV 4.0GV 6.0GV 8.0GV 10.0GV Figura 3.7: Risposta del circuito non dinamico ad ingresso costante di am- piezza 1, modello con ritardo di propagazione. ∆t = 1nss, Step ceiling = 1ps 21
  • 28. CAPITOLO 3. L’APPROCCIO SERIALE Queste rispecchiano le previsioni teoriche appena presentate. Nella fat- tispecie si noti che per le simulazioni con ritardo decrescente (figure da 3.3 a 3.7), al tendere a zero del tempo di propagazione, il tempo in cui il segnale d’uscita diverge tende a zero. Nella prossima sezione, estendiamo il ragionamento ai sistemi LTI ge- nerali, evidenziando la maggior complessit`a della trattazione e ricavando risultati pi`u generali. 3.2 L’approccio seriale per i sistemi LTI Consideriamo il caso generale di sistema LTI, e facciamo ancora riferimento allo schema in 3.1. Sia ∆t il ritardo di propagazione attraverso l’anello di re- troazione. Consideriamo un segnale di ingresso u tale che la sua trasformata di Laplace sia U. Sia Y la trasformata dell’uscita. Consideriamo l’intervallo [0, ∆t). Durante tale intervallo, il segnale non si `e ancora propagato attraverso il ramo di retroazione e quindi w `e ancora nullo. La trasformata dell’uscita del sistema `e pertanto: Y (s) = H(s)U(s) mentre in uscita dal blocco G si ha un segnale la cui trasformata `e: Y (s) G(s) = H(s) G(s) U(s) All’istante ∆t finalmente il segnale w non `e pi`u nullo, e in particolare `e una versione ritardata di ∆t secondi del segnale in uscita dal blocco G. Pertanto, la sua trasformata `e: W(s) = H(s) G(s) U(s) e−s∆t Durante l’intervallo [∆t, 2∆t) , il segnale e avr`a dunque trasformata: E(s) = U(s) + W(s) = U(s) + H(s) G(s) U(s) e−s∆t = = U(s) 1 + (H(s) G(s) e−s∆t Dunque l’uscita sar`a: Y (s) = H(s) E(s) = H(s) U(s) (1 + (H(s) G(s) e−s∆t Ripetendo il procedimento, si ottiene che durante l’intervallo [2∆t, 3∆t) la W `e: W(s) = H(s) G(s) U(s) (1 + (H(s) G(s) e−s∆t e−s∆t = W(s) = U(s) H(s) G(s) e−s∆t + H(s) G(s) 2 e−2s∆t 22
  • 29. CAPITOLO 3. L’APPROCCIO SERIALE E dunque la Y risulta essere: Y (s) = U(s) + W(s) H(s) = = H(s) U(s) 1 + H(s) G(s) e−s∆t + H(s) G(s) 2 e−2s∆t In generale, iterando, si ottiene la trasformata di Y per l’intervallo n∆t, (n+1) ∆t : Y (s) = H(s) n k=0 H(s) G(s) k e−ks∆t U(s) (3.2.1) Come si pu`o vedere, questa forma `e la versione pi`u generale della 3.1.3. Inoltre, se ∆t → 0, la 3.2.1 tende a: Y (s) = H(s) n k=0 H(s) G(s) k U(s) (3.2.2) Ci sono diverse osservazioni da fare. La prima `e che la serie geometrica per numeri complessi `e formalmente uguale a quella per numeri reali: con- verge se, essendo ak la generatrice, si ha |a| < 1, e il limite `e 1 1−a (∈ C, in questo caso). La seconda e pi`u importante considerazione `e che nel risultato prelimina- re si aveva a che fare con una serie numerica, mentre in questo caso generale si ha a che fare con una serie di funzioni (in questo caso complesse). Si osser- vi che, pertanto, `e necessario stabilire a priori la definizione di convergenza da utilizzare. La trasformata inversa di Laplace `e definita da [21]: f(t) = 1 2πj lim M→∞ γ+jM γ−jM F(s) est ds e in particolare, nei casi di nostro interesse, si ha γ = 0. Supponiamo che la serie 3.2.2 converga, per cui `e lecito scriverne il limite per n tendende a +∞, e supponiamo che la convergenza al limite sia uniforme. Poich`e la convergenza uniforme implica la convergenza puntuale, per unicit`a del limite si ha, necessariamente: lim n→+∞ H(s) n k=0 H(s) G(s) k U(s) = = H(s) 1 − H(s) G(s) U(s) 23
  • 30. CAPITOLO 3. L’APPROCCIO SERIALE per ogni s nella ROC [21] di quest’ultima. Dunque: lim n→+∞ H n k=0 H G k U = = H 1 − H G U dove la convergenza si intende in senso uniforme. Possiamo dunque scrivere: L −1 H 1 − H G U = L −1 lim n→+∞ H n k=0 H G k U = = 1 2πj +j∞ −j∞ lim n→+∞ H(s) n k=0 H(s) G(s) k U(s) est ds Poich´e la convergenza `e uniforme per ipotesi, possiamo invertire il segno di limite col segno di integrale e scrivere: lim n→+∞ 1 2πj +j∞ −j∞ H(s) n k=0 H(s) G(s) k U(s) est ds = = lim n→+∞ n k=0 1 2πj +j∞ −j∞ H(s) H(s) G(s) k U(s) est ds = = lim n→+∞ n k=0 L −1 H(s) H(s) G(s) k U(s) Riassumendo, se la serie converge uniformemente, converge alla f.d.t. e allora la risposta del sistema al segnale u coincide con la serie delle risposte a u dei sistemi H(HG), H(HG)2, H(HG)3. . . In simboli: L −1 H 1 − HG U = ∞ k=0 L −1 H H G k U (3.2.3) L’uniforme convergenza `e solo condizione sufficiente affinch`e si possa invertire il segno di limite con il segno di integrale. Pertanto, ci potrebbero essere casi in cui nonostante la convergenza non sia uniforme, la risposta del sistema reale si pu`o comunque calcolare con la f.d.t. intesa in senso classico. Mentre per il caso in sezione 3.1 bastava imporre |HG| < 1 per ave- re stabilit`a esterna e quindi stabilit`a asintotica, nel caso generale imporre 24
  • 31. CAPITOLO 3. L’APPROCCIO SERIALE |H(s) G(s)| < 1 per ogni s appartenente alla ROC non `e sufficiente, poich`e ci`o implica solamente la convergenza puntuale. Inoltre, se anche trovassimo una condizione affinch`e valga la 3.2.3, questo ci permetterebbe soltanto di affermare che la risposta del sistema `e effettivamente pari a L −1 H 1−HG U , senza poter dedurre niente riguardo la stabilit`a esterna. A maggior ra- gione, dunque, non pu`o essere sufficiente imporre |H(jω) G(jω)| < 1 per ω : ∠H(jω) G(jω) = 0 per decretare alcunch´e sulla stabilit`a esterna, men che meno su quella interna. 25
  • 32. Capitolo 4 Un controesempio Nelle pagine che seguono, si documenta la realizzazione circuitale di un si- stema retroazionato positivamente. Il sistema in questione ha la propriet`a di essere stabile per tutti i valori di K al di fuori di un dato intervallo, e instabile se K appartiene a quest’ultimo. Qualora il lettore stesse visualizzando l’elaborato in formato pdf, per la visualizzazione corretta dei grafici delle risposte nel tempo si consiglia un fattore di zoom del 150% o superiore. 4.1 Simulazione del controesempio La fase preliminare di ricerca bibliografica ha portato ad esaminare gli arti- coli [7, 16, 17, 18, 20]. In particolare, al punto 3 “Example 2” di [16] viene presentato un circuito in cui il blocco H `e un amplificatore non inverten- te di guadagno K, mentre il blocco G di retroazione `e realizzato come un partitore tra una serie RC e un parallelo RC, in modo da presentare un comportamento oscillatorio (vedasi figura 4.1, tratta da [16]). Tale circui- to ha la propriet`a di essere asintoticamente stabile per K < 1 e K > 1.5, mentre `e instabile se K ∈ (1, 1.5). Sulla frontiera dell’intervallo si ha mar- ginale stabilit`a. Il fatto interessante `e che il criterio esteso di Barkhausen prevederebbe comportamento oscillatorio instabile per K > 1.5, stabile per K < 1.5. La funzione di trasferimento `e: H(s) G(s) = K 1 + s2R2C2 + 2 sRC 1 + s2R2C2 + 3 sRC (4.1.1) In figura 4.2 il diagramma di Nyquist per il circuito per K = 1, R = 1 kΩ, C = 1 nF. Su di esso `e riportato il punto 1 K per i valori pi`u significativi di K (si faccia riferimento a [11], tenendo presente che nel nostro caso si ha retroazione positiva, non negativa). Si riportano inoltre in figura 4.3 i diagrammi di Bode per modulo e fase, tracciato per gli stessi valori di K, R e C. Innanzitutto, il circuito `e stato simulato su pSpice 9.1 utilizzando 26
  • 33. CAPITOLO 4. UN CONTROESEMPIO Figura 4.1: Lo schema circuitale come in [16] Figura 4.2: Il diagramma di Nyquist per il circuito in figura 4.1 lo schema circuitale di figura 4.4. Lo schema `e differente da quello visto in figura 4.1. Si vuole dunque motivare l’introduzione di due dispositivi VCVS (Voltage Controlled Voltage Source) in pi`u rispetto al circuito originale: • il VCVS A `e un amplificatore ideale di tensione controllato in tensione; fa le veci dell’amplificatore a guadagno K presentato in figura 4.1; • il VCVS S viene usato come sommatore non invertente, in modo da poter dare un impulso iniziale al circuito con l’ausilio del generatore Vp; detta w l’uscita del blocco B, `e facile verificare, sfruttando la sovrap- 27
  • 34. CAPITOLO 4. UN CONTROESEMPIO Figura 4.3: I diagrammi di Bode per il circuito in figura 4.1 Figura 4.4: Lo schema circuitale ideale su pSpice 9.1 posizione degli effetti, che all’ingresso di S si ha 1 3w + 1 3Vp; pertanto il blocco B ha guadagno pari a 3; • il VCVS B fa da buffer non invertente, neccessario a causa dell’introu- zione delle resistenze Rp, Rw, Rpd. Dare un impulso iniziale al circuito `e necessario perch`e altrimenti, essendo tutti i componenti ideali, si ha uscita nulla anche in caso di circuito instabile, 28
  • 35. CAPITOLO 4. UN CONTROESEMPIO causa le condizioni iniziali nulle. L’impulso iniziale permette di perturbare dunque lo stato del sistema. L’impulso iniziale utilizzato nella simulazione `e rettangolare, di durata 1µs, fronti di salita e discesa molto ripidi (tempo di salita e di discesa pari a 10 ns), ampiezza 1V. Come previsto dall’articolo [16], il circuito esibisce un comportamento stabile per K < 1. In particolare, si pu`o osservare dal- le figure 4.5, 4.6, 4.7, 4.8 e 4.9 come le capacit`a nell’anello di retroazione reagiscano ai fronti dell’impulso generando degli spike molto brevi in corri- spondenza di essi. Tali impulsi tendono ad avere durata nulla e ampiezza infinita quando K tende a 1 (figure 4.8 e 4.9). Date/Time run: 03/04/18 00:51:16 * C:UserssimsaDocuments00 MATTEO00 Universit01 - TESISimulazioni pSpiceCounterexampleSchematic1.sch Temperature: 27.0 Date: March 04, 2018 Page 1 Time: 00:51:38 (A) Schematic1.dat (active) Time 0s 2us 4us 6us 8us 10us 12us 14us 16us 18us 20us V(C11:2) -0.5V 0V 0.5V 1.0V Figura 4.5: K=0.5; Step ceiling = 100ns 29
  • 36. CAPITOLO 4. UN CONTROESEMPIO Date/Time run: 03/04/18 00:52:37 * C:UserssimsaDocuments00 MATTEO00 Universit01 - TESISimulazioni pSpiceCounterexampleSchematic1.sch Temperature: 27.0 Date: March 04, 2018 Page 1 Time: 00:53:02 (A) Schematic1.dat (active) Time 0s 2us 4us 6us 8us 10us 12us 14us 16us 18us 20us V(C11:2) -10V -5V 0V 5V 10V Figura 4.6: K=0.9; Step ceiling = 100ns Date/Time run: 03/04/18 00:53:20 * C:UserssimsaDocuments00 MATTEO00 Universit01 - TESISimulazioni pSpiceCounterexampleSchematic1.sch Temperature: 27.0 Date: March 04, 2018 Page 1 Time: 00:53:45 (A) Schematic1.dat (active) Time 0s 2us 4us 6us 8us 10us 12us 14us 16us 18us 20us V(C11:2) -100V -50V 0V 50V 100V Figura 4.7: K=0.99; Step ceiling = 100ns 30
  • 37. CAPITOLO 4. UN CONTROESEMPIO Date/Time run: 03/04/18 00:57:27 * C:UserssimsaDocuments00 MATTEO00 Universit01 - TESISimulazioni pSpiceCounterexampleSchematic1.sch Temperature: 27.0 Date: March 04, 2018 Page 1 Time: 00:57:59 (A) Schematic1.dat (active) Time 0s 10ps 20ps 30ps 40ps 50ps 60ps 70ps 80ps 90ps 100ps V(C11:2) 0V 200KV 400KV 600KV 800KV Figura 4.8: K=0.999999; Step ceiling = 1ps Date/Time run: 03/04/18 00:58:30 * C:UserssimsaDocuments00 MATTEO00 Universit01 - TESISimulazioni pSpiceCounterexampleSchematic1.sch Temperature: 27.0 Date: March 04, 2018 Page 1 Time: 01:05:11 (A) Schematic1.dat (active) Time 1.000000us 1.000002us 1.000004us 1.000006us 1.000008us 1.000010us V(C11:2) -600KV -400KV -200KV 0KV -700KV Figura 4.9: K=0.999999; Step ceiling = 1ps 31
  • 38. CAPITOLO 4. UN CONTROESEMPIO Per K = 1 non `e possibile ottenere una simulazione. Per K > 1 si ha un comportamento che sembra semplicemente divergente, mentre si rive- la essere oscillatorio e divergente via via che si impostano valori di K pi`u elevati (si faccia riferimento alle figure da 4.10 a 4.35). Il limite a 10 GV imposto dal simulatore, combinato con la rapidit`a con cui l’ampiezza dell’u- scita diverge, non permette di apprezzare l’andamento oscillatorio. Questo perch´e, raggiunta tale tensione d’uscita (comunque irrealistica, poich´e am- plificatori reali saturerebbero a poco meno della tensione di alimentazione), la simulazione si interrompe. Poich´e all’aumentare di K tale crescita esponenziale diventa via via meno brusca, da K = 1.26 (figura 4.14) si riesce a notare un leggero innalzamento della tensione prima del crollo in negativo. Da K = 1.27 (figura 4.15) a salire, tale andamento si rende sempre pi`u evidente. Per K = 1.35 (figura 4.23) si riescono finalmente ad apprezzare due interi periodi della sinusoide. Via via che K approccia il valore di 1.5, il numero di cicli visibili prima che il simulatore arrivi al suo limite d’ampiezza cresce, tendendo all’infinito. Date/Time run: 03/04/18 01:05:56 * C:UserssimsaDocuments00 MATTEO00 Universit01 - TESISimulazioni pSpiceCounterexampleSchematic1.sch Temperature: 27.0 Date: March 04, 2018 Page 1 Time: 01:06:55 (A) Schematic1.dat (active) Time 0s 1ps 2ps 3ps 4ps 5ps 6ps 7ps 8ps 9ps 10ps V(C11:2) -10GV -8GV -6GV -4GV -2GV 0GV Figura 4.10: K=1.000001; Step ceiling = 1ps 32
  • 39. CAPITOLO 4. UN CONTROESEMPIO Date/Time run: 03/04/18 01:07:41 * C:UserssimsaDocuments00 MATTEO00 Universit01 - TESISimulazioni pSpiceCounterexampleSchematic1.sch Temperature: 27.0 Date: March 04, 2018 Page 1 Time: 01:08:10 (A) Schematic1.dat (active) Time 0s 0.4us 0.8us 1.2us 1.6us 2.0us 2.4us 2.8us V(C11:2) -10GV -8GV -6GV -4GV -2GV 0GV Figura 4.11: K=1.1; Step ceiling = 50ns Date/Time run: 03/04/18 01:08:49 * C:UserssimsaDocuments00 MATTEO00 Universit01 - TESISimulazioni pSpiceCounterexampleSchematic1.sch Temperature: 27.0 Date: March 04, 2018 Page 1 Time: 01:09:10 (A) Schematic1.dat (active) Time 0s 1.0us 2.0us 3.0us 4.0us 5.0us 6.0us 7.0us 8.0us V(C11:2) -10GV -8GV -6GV -4GV -2GV 0GV Figura 4.12: K=1.2; Step ceiling = 50ns 33
  • 40. CAPITOLO 4. UN CONTROESEMPIO Date/Time run: 03/04/18 01:09:49 * C:UserssimsaDocuments00 MATTEO00 Universit01 - TESISimulazioni pSpiceCounterexampleSchematic1.sch Temperature: 27.0 Date: March 04, 2018 Page 1 Time: 01:11:20 (A) Schematic1.dat (active) Time 0s 2us 4us 6us 8us 10us 12us 14us 16us 18us V(C11:2) -10GV -8GV -6GV -4GV -2GV 0GV Figura 4.13: K=1.25; Step ceiling = 50ns Date/Time run: 03/04/18 01:12:19 * C:UserssimsaDocuments00 MATTEO00 Universit01 - TESISimulazioni pSpiceCounterexampleSchematic1.sch Temperature: 27.0 Date: March 04, 2018 Page 1 Time: 01:12:52 (A) Schematic1.dat (active) Time 0s 4us 8us 12us 16us 20us 24us V(C11:2) -10GV -8GV -6GV -4GV -2GV -0GV 2GV Figura 4.14: K=1.26; Step ceiling = 50ns 34
  • 41. CAPITOLO 4. UN CONTROESEMPIO Date/Time run: 03/04/18 01:13:16 * C:UserssimsaDocuments00 MATTEO00 Universit01 - TESISimulazioni pSpiceCounterexampleSchematic1.sch Temperature: 27.0 Date: March 04, 2018 Page 1 Time: 01:13:41 (A) Schematic1.dat (active) Time 0s 5us 10us 15us 20us 25us V(C11:2) -10GV -5GV 0V 5GV Figura 4.15: K=1.27; Step ceiling = 50ns Date/Time run: 03/04/18 01:14:22 * C:UserssimsaDocuments00 MATTEO00 Universit01 - TESISimulazioni pSpiceCounterexampleSchematic1.sch Temperature: 27.0 Date: March 04, 2018 Page 1 Time: 01:14:45 (A) Schematic1.dat (active) Time 0s 4us 8us 12us 16us 20us 24us 28us V(C11:2) -2GV 0V 2GV 4GV 6GV 8GV 10GV Figura 4.16: K=1.28; Step ceiling = 50ns 35
  • 42. CAPITOLO 4. UN CONTROESEMPIO Date/Time run: 03/04/18 01:14:54 * C:UserssimsaDocuments00 MATTEO00 Universit01 - TESISimulazioni pSpiceCounterexampleSchematic1.sch Temperature: 27.0 Date: March 04, 2018 Page 1 Time: 01:15:13 (A) Schematic1.dat (active) Time 0s 4us 8us 12us 16us 20us 24us 28us V(C11:2) -10GV -8GV -6GV -4GV -2GV -0GV 2GV Figura 4.17: K=1.29; Step ceiling = 50ns Date/Time run: 03/04/18 01:15:34 * C:UserssimsaDocuments00 MATTEO00 Universit01 - TESISimulazioni pSpiceCounterexampleSchematic1.sch Temperature: 27.0 Date: March 04, 2018 Page 1 Time: 01:16:12 (A) Schematic1.dat (active) Time 0s 4us 8us 12us 16us 20us 24us 28us 32us V(C11:2) -2GV 0V 2GV 4GV 6GV 8GV 10GV Figura 4.18: K=1.30; Step ceiling = 50ns 36
  • 43. CAPITOLO 4. UN CONTROESEMPIO Date/Time run: 03/04/18 01:16:35 * C:UserssimsaDocuments00 MATTEO00 Universit01 - TESISimulazioni pSpiceCounterexampleSchematic1.sch Temperature: 27.0 Date: March 04, 2018 Page 1 Time: 01:16:49 (A) Schematic1.dat (active) Time 0s 5us 10us 15us 20us 25us 30us 35us V(C11:2) -10GV -8GV -6GV -4GV -2GV -0GV 2GV Figura 4.19: K=1.31; Step ceiling = 50ns Date/Time run: 03/04/18 01:17:03 * C:UserssimsaDocuments00 MATTEO00 Universit01 - TESISimulazioni pSpiceCounterexampleSchematic1.sch Temperature: 27.0 Date: March 04, 2018 Page 1 Time: 01:17:23 (A) Schematic1.dat (active) Time 0s 5us 10us 15us 20us 25us 30us 35us 40us V(C11:2) -10GV -5GV 0V 5GV 10GV Figura 4.20: K=1.32; Step ceiling = 50ns 37
  • 44. CAPITOLO 4. UN CONTROESEMPIO Date/Time run: 03/04/18 01:17:35 * C:UserssimsaDocuments00 MATTEO00 Universit01 - TESISimulazioni pSpiceCounterexampleSchematic1.sch Temperature: 27.0 Date: March 04, 2018 Page 1 Time: 01:17:52 (A) Schematic1.dat (active) Time 0s 5us 10us 15us 20us 25us 30us 35us 40us 45us V(C11:2) -5GV 0V 5GV 10GV Figura 4.21: K=1.33; Step ceiling = 50ns Date/Time run: 03/04/18 01:18:17 * C:UserssimsaDocuments00 MATTEO00 Universit01 - TESISimulazioni pSpiceCounterexampleSchematic1.sch Temperature: 27.0 Date: March 04, 2018 Page 1 Time: 01:19:02 (A) Schematic1.dat (active) Time 0s 5us 10us 15us 20us 25us 30us 35us 40us 45us V(C11:2) -10GV -5GV 0V 5GV Figura 4.22: K=1.34; Step ceiling = 50ns 38
  • 45. CAPITOLO 4. UN CONTROESEMPIO Date/Time run: 03/04/18 01:19:14 * C:UserssimsaDocuments00 MATTEO00 Universit01 - TESISimulazioni pSpiceCounterexampleSchematic1.sch Temperature: 27.0 Date: March 04, 2018 Page 1 Time: 01:19:33 (A) Schematic1.dat (active) Time 0s 5us 10us 15us 20us 25us 30us 35us 40us 45us 50us V(C11:2) -10GV -5GV 0V 5GV 10GV Figura 4.23: K=1.35; Step ceiling = 50ns Date/Time run: 03/04/18 01:20:08 * C:UserssimsaDocuments00 MATTEO00 Universit01 - TESISimulazioni pSpiceCounterexampleSchematic1.sch Temperature: 27.0 Date: March 04, 2018 Page 1 Time: 01:20:23 (A) Schematic1.dat (active) Time 0s 10us 20us 30us 40us 50us 60us V(C11:2) -10GV -5GV 0V 5GV 10GV Figura 4.24: K=1.36; Step ceiling = 50ns 39
  • 46. CAPITOLO 4. UN CONTROESEMPIO Date/Time run: 03/04/18 01:20:34 * C:UserssimsaDocuments00 MATTEO00 Universit01 - TESISimulazioni pSpiceCounterexampleSchematic1.sch Temperature: 27.0 Date: March 04, 2018 Page 1 Time: 01:20:52 (A) Schematic1.dat (active) Time 0s 10us 20us 30us 40us 50us 60us 70us V(C11:2) -10GV -5GV 0V 5GV 10GV Figura 4.25: K=1.37; Step ceiling = 50ns Date/Time run: 03/04/18 01:21:05 * C:UserssimsaDocuments00 MATTEO00 Universit01 - TESISimulazioni pSpiceCounterexampleSchematic1.sch Temperature: 27.0 Date: March 04, 2018 Page 1 Time: 01:21:26 (A) Schematic1.dat (active) Time 0s 10us 20us 30us 40us 50us 60us 70us V(C11:2) -10GV -5GV 0V 5GV 10GV Figura 4.26: K=1.38; Step ceiling = 50ns 40
  • 47. CAPITOLO 4. UN CONTROESEMPIO Date/Time run: 03/04/18 01:21:37 * C:UserssimsaDocuments00 MATTEO00 Universit01 - TESISimulazioni pSpiceCounterexampleSchematic1.sch Temperature: 27.0 Date: March 04, 2018 Page 1 Time: 01:21:55 (A) Schematic1.dat (active) Time 0s 10us 20us 30us 40us 50us 60us 70us 80us V(C11:2) -10GV -5GV 0V 5GV 10GV Figura 4.27: K=1.39; Step ceiling = 50ns Date/Time run: 03/04/18 01:22:05 * C:UserssimsaDocuments00 MATTEO00 Universit01 - TESISimulazioni pSpiceCounterexampleSchematic1.sch Temperature: 27.0 Date: March 04, 2018 Page 1 Time: 01:22:26 (A) Schematic1.dat (active) Time 0s 10us 20us 30us 40us 50us 60us 70us 80us 90us V(C11:2) -10GV -5GV 0V 5GV 10GV Figura 4.28: K=1.40; Step ceiling = 50ns 41
  • 48. CAPITOLO 4. UN CONTROESEMPIO Date/Time run: 03/04/18 01:22:46 * C:UserssimsaDocuments00 MATTEO00 Universit01 - TESISimulazioni pSpiceCounterexampleSchematic1.sch Temperature: 27.0 Date: March 04, 2018 Page 1 Time: 01:22:59 (A) Schematic1.dat (active) Time 0s 20us 40us 60us 80us 100us V(C11:2) -2.0GV -1.0GV 0V 1.0GV 2.0GV Figura 4.29: K=1.42; Step ceiling = 50ns Date/Time run: 03/04/18 01:23:41 * C:UserssimsaDocuments00 MATTEO00 Universit01 - TESISimulazioni pSpiceCounterexampleSchematic1.sch Temperature: 27.0 Date: March 04, 2018 Page 1 Time: 01:24:05 (A) Schematic1.dat (active) Time 0s 20us 40us 60us 80us 100us 120us 140us 160us V(C11:2) -10GV -5GV 0V 5GV 10GV Figura 4.30: K=1.44; Step ceiling = 50ns 42
  • 49. CAPITOLO 4. UN CONTROESEMPIO Date/Time run: 03/04/18 01:24:46 * C:UserssimsaDocuments00 MATTEO00 Universit01 - TESISimulazioni pSpiceCounterexampleSchematic1.sch Temperature: 27.0 Date: March 04, 2018 Page 1 Time: 01:25:04 (A) Schematic1.dat (active) Time 0s 40us 80us 120us 160us 200us 240us V(C11:2) -10GV -5GV 0V 5GV 10GV Figura 4.31: K=1.46; Step ceiling = 50ns Date/Time run: 03/04/18 01:25:34 * C:UserssimsaDocuments00 MATTEO00 Universit01 - TESISimulazioni pSpiceCounterexampleSchematic1.sch Temperature: 27.0 Date: March 04, 2018 Page 1 Time: 01:25:54 (A) Schematic1.dat (active) Time 0s 100us 200us 300us 400us 500us 600us V(C11:2) -10GV -5GV 0V 5GV 10GV Figura 4.32: K=1.48; Step ceiling = 50ns 43
  • 50. CAPITOLO 4. UN CONTROESEMPIO Date/Time run: 03/04/18 01:26:31 * C:UserssimsaDocuments00 MATTEO00 Universit01 - TESISimulazioni pSpiceCounterexampleSchematic1.sch Temperature: 27.0 Date: March 04, 2018 Page 1 Time: 01:26:53 (A) Schematic1.dat (active) Time 0s 0.2ms 0.4ms 0.6ms 0.8ms 1.0ms V(C11:2) -8.0GV -4.0GV 0V 4.0GV 8.0GV Figura 4.33: K=1.49; Step ceiling = 50ns Date/Time run: 03/04/18 01:27:15 * C:UserssimsaDocuments00 MATTEO00 Universit01 - TESISimulazioni pSpiceCounterexampleSchematic1.sch Temperature: 27.0 Date: March 04, 2018 Page 1 Time: 01:27:42 (A) Schematic1.dat (active) Time 0s 0.4ms 0.8ms 1.2ms 1.6ms 2.0ms 2.4ms V(C11:2) -10GV -5GV 0V 5GV 10GV Figura 4.34: K=1.495; Step ceiling = 50ns 44
  • 51. CAPITOLO 4. UN CONTROESEMPIO Date/Time run: 03/04/18 01:27:53 * C:UserssimsaDocuments00 MATTEO00 Universit01 - TESISimulazioni pSpiceCounterexampleSchematic1.sch Temperature: 27.0 Date: March 04, 2018 Page 1 Time: 01:28:34 (A) Schematic1.dat (active) Time 0s 2ms 4ms 6ms 8ms 10ms V(C11:2) -5.0GV 0V 5.0GV Figura 4.35: K=1.499; Step ceiling = 50ns 45
  • 52. CAPITOLO 4. UN CONTROESEMPIO Prevedibilmente, per il valore di 1.5 (figure 4.36 e 4.37), si ha un’oscilla- zione ad ampiezza costante. Siamo dunque in regime di marginale stabilit`a. Per K > 1.5 si pu`o apprezzare un’uscita oscillatoria ma tendente asintotica- mente a zero. Tale convergenza a zero dell’ampiezza `e via via pi`u marcata, al punto da non riuscire pi`u a notare visivamente l’oscillazione. Si osser- vano, per K 1.5, i picchi di risposta ai fronti dell’impulso d’ingresso, prontamente smorzati. Date/Time run: 03/04/18 01:29:18 * C:UserssimsaDocuments00 MATTEO00 Universit01 - TESISimulazioni pSpiceCounterexampleSchematic1.sch Temperature: 27.0 Date: March 04, 2018 Page 1 Time: 01:29:45 (A) Schematic1.dat (active) Time 0s 10us 20us 30us 40us 50us 60us 70us 80us 90us 100us V(C11:2) -12V -8V -4V 0V 4V 8V 12V Figura 4.36: K=1.5; Step ceiling = 50ns 46
  • 53. CAPITOLO 4. UN CONTROESEMPIO Date/Time run: 03/04/18 01:29:59 * C:UserssimsaDocuments00 MATTEO00 Universit01 - TESISimulazioni pSpiceCounterexampleSchematic1.sch Temperature: 27.0 Date: March 04, 2018 Page 1 Time: 01:30:24 (A) Schematic1.dat (active) Time 0s 50us 100us 150us 200us 250us 300us 350us 400us 450us 500us V(C11:2) -12V -8V -4V 0V 4V 8V 12V Figura 4.37: K=1.5; Step ceiling = 50ns Date/Time run: 03/04/18 01:38:43 * C:UserssimsaDocuments00 MATTEO00 Universit01 - TESISimulazioni pSpiceCounterexampleSchematic1.sch Temperature: 27.0 Date: March 04, 2018 Page 1 Time: 01:40:12 (A) Schematic1.dat (active) Time 0s 20us 40us 60us 80us 100us 120us 140us 160us 180us 200us V(C11:2) -12V -8V -4V 0V 4V 8V 12V Figura 4.38: K=1.51; Step ceiling = 50ns 47
  • 54. CAPITOLO 4. UN CONTROESEMPIO Date/Time run: 03/04/18 01:40:39 * C:UserssimsaDocuments00 MATTEO00 Universit01 - TESISimulazioni pSpiceCounterexampleSchematic1.sch Temperature: 27.0 Date: March 04, 2018 Page 1 Time: 01:40:51 (A) Schematic1.dat (active) Time 0s 20us 40us 60us 80us 100us 120us 140us 160us 180us 200us V(C11:2) -10V -5V 0V 5V 10V Figura 4.39: K=1.52; Step ceiling = 50ns Date/Time run: 03/04/18 01:41:25 * C:UserssimsaDocuments00 MATTEO00 Universit01 - TESISimulazioni pSpiceCounterexampleSchematic1.sch Temperature: 27.0 Date: March 04, 2018 Page 1 Time: 01:41:37 (A) Schematic1.dat (active) Time 0s 10us 20us 30us 40us 50us 60us 70us 80us 90us 100us V(C11:2) -10V -5V 0V 5V 10V Figura 4.40: K=1.53; Step ceiling = 50ns 48
  • 55. CAPITOLO 4. UN CONTROESEMPIO Date/Time run: 03/04/18 01:43:11 * C:UserssimsaDocuments00 MATTEO00 Universit01 - TESISimulazioni pSpiceCounterexampleSchematic1.sch Temperature: 27.0 Date: March 04, 2018 Page 1 Time: 01:43:17 (A) Schematic1.dat (active) Time 0s 10us 20us 30us 40us 50us 60us 70us 80us 90us 100us V(C11:2) -10V -5V 0V 5V 10V Figura 4.41: K=1.55; Step ceiling = 50ns Date/Time run: 03/04/18 01:43:31 * C:UserssimsaDocuments00 MATTEO00 Universit01 - TESISimulazioni pSpiceCounterexampleSchematic1.sch Temperature: 27.0 Date: March 04, 2018 Page 1 Time: 01:43:44 (A) Schematic1.dat (active) Time 0s 10us 20us 30us 40us 50us 60us 70us 80us 90us 100us V(C11:2) -10V -5V 0V 5V Figura 4.42: K=1.6; Step ceiling = 50ns 49
  • 56. CAPITOLO 4. UN CONTROESEMPIO Date/Time run: 03/04/18 01:43:54 * C:UserssimsaDocuments00 MATTEO00 Universit01 - TESISimulazioni pSpiceCounterexampleSchematic1.sch Temperature: 27.0 Date: March 04, 2018 Page 1 Time: 01:44:03 (A) Schematic1.dat (active) Time 0s 10us 20us 30us 40us 50us 60us 70us 80us 90us 100us V(C11:2) -6.0V -4.0V -2.0V 0V 2.0V Figura 4.43: K=1.8; Step ceiling = 50ns Date/Time run: 03/04/18 01:44:26 * C:UserssimsaDocuments00 MATTEO00 Universit01 - TESISimulazioni pSpiceCounterexampleSchematic1.sch Temperature: 27.0 Date: March 04, 2018 Page 1 Time: 01:44:39 (A) Schematic1.dat (active) Time 0s 10us 20us 30us 40us 50us 60us 70us 80us 90us 100us V(C11:2) -6.0V -4.0V -2.0V 0V 2.0V Figura 4.44: K=2; Step ceiling = 50ns 50
  • 57. CAPITOLO 4. UN CONTROESEMPIO Date/Time run: 03/04/18 01:44:55 * C:UserssimsaDocuments00 MATTEO00 Universit01 - TESISimulazioni pSpiceCounterexampleSchematic1.sch Temperature: 27.0 Date: March 04, 2018 Page 1 Time: 01:45:05 (A) Schematic1.dat (active) Time 0s 10us 20us 30us 40us 50us 60us 70us 80us 90us 100us V(C11:2) -2.5V -2.0V -1.5V -1.0V -0.5V -0.0V 0.5V Figura 4.45: K=3; Step ceiling = 50ns Date/Time run: 03/04/18 01:45:17 * C:UserssimsaDocuments00 MATTEO00 Universit01 - TESISimulazioni pSpiceCounterexampleSchematic1.sch Temperature: 27.0 Date: March 04, 2018 Page 1 Time: 01:45:25 (A) Schematic1.dat (active) Time 0s 10us 20us 30us 40us 50us 60us 70us 80us 90us 100us V(C11:2) -2.5V -2.0V -1.5V -1.0V -0.5V -0.0V 0.5V Figura 4.46: K=4; Step ceiling = 50ns 51
  • 58. CAPITOLO 4. UN CONTROESEMPIO Date/Time run: 03/04/18 01:45:42 * C:UserssimsaDocuments00 MATTEO00 Universit01 - TESISimulazioni pSpiceCounterexampleSchematic1.sch Temperature: 27.0 Date: March 04, 2018 Page 1 Time: 01:45:55 (A) Schematic1.dat (active) Time 0s 10us 20us 30us 40us 50us 60us 70us 80us 90us 100us V(C11:2) -2.0V -1.6V -1.2V -0.8V -0.4V 0V 0.4V Figura 4.47: K=5; Step ceiling = 50ns Date/Time run: 03/04/18 01:46:06 * C:UserssimsaDocuments00 MATTEO00 Universit01 - TESISimulazioni pSpiceCounterexampleSchematic1.sch Temperature: 27.0 Date: March 04, 2018 Page 1 Time: 01:46:15 (A) Schematic1.dat (active) Time 0s 10us 20us 30us 40us 50us 60us 70us 80us 90us 100us V(C11:2) -1.6V -1.2V -0.8V -0.4V 0V 0.4V Figura 4.48: K=10; Step ceiling = 50ns 52
  • 59. CAPITOLO 4. UN CONTROESEMPIO 4.2 Il circuito Figura 4.49: Il circuito reale, realizzato su breadboard Anche in questa sezione ricordiamo che qualora il lettore stesse visualiz- zando l’elaborato in formato pdf, per la visualizzazione corretta dei grafici delle risposte nel tempo si consiglia un fattore di zoom del 150% o superiore. Il circuito `e stato realizzato su breadboard (figura 4.49) con tre operazio- nali del tipo UA741CP, e collegato come in figura 4.50. Sono stati utilizzati i seguenti strumenti: • Generatore di segnali GW INSTEK SFG-1013 • Alimentatore duale Ningbo FTZ Hopewell PS23023DL • Oscilloscopio PeakTech 1265 Le prove sono state eseguite sia senza segnale d’ingresso, sia con segnale in ingresso ad onda quadra di periodo 100ms, ampiezza 1 V e duty-cycle del 10%, in modo da sollecitare il circuito e leggerne la risposta sull’oscilloscopio. Al segnale `e stato aggiunto anche un opportuno offset di 1 V in modo che assumesse i valori di 0 V e 1 V, invece di −0.5 V e 0.5 V, replicando quindi l’impulso fornito nelle simulazioni. I blocchi S e A della simulazione sono divenuti il blocco A di questo circuito: infatti esso fa sia da amplificatore che da sommatore. `E immediato 53
  • 60. CAPITOLO 4. UN CONTROESEMPIO Figura 4.50: Il circuito reale, riprodotto su pSpice 9.1 vedere che, complessivamente, il blocco A ha amplificazione minima di 2 3 e massima di 11 3 . In questo modo `e possibile studiare il comportamento del circuito sia per K < 1 che per K > 1.5. Il buffer non invertente B1 e il buffer non invertente B2 servono ad adattare le impedenze tra un blocco e l’altro, in modo che il blocco composto da R1, R2, C1 e C2 veda a monte un’impedenza d’uscita prossima a zero, e a valle un’impedenza d’ingresso elevata. Con R1 ed R2 pari a 1 kΩ si ottiene un comportamento stabile del circuito per K < 1 come da previsioni teoriche e dalla simulazione del circuito in figura 4.4. Cortocircuitando a massa l’ingresso, si ha risposta nulla finch`e K non supera l’unit`a. Superata l’unit`a, tuttavia, non si innesca come sperato un’oscillazione, bens`ı si ha una saturazione dell’uscita a +12 V. Inoltre, con K anche molto maggiore di 1.5 non si ottiene nuovamente risposta nulla del circuito. Quest’ultimo fatto si spiega facilmente: i sistemi reali hanno sempre poli causati da capacit`a parassite alle alte frequenze. Ci`o fa s`ı che il diagramma di Nyquist vada inesorabilmente verso l’origine degli assi quando ω tende a +∞. Si osservi ad esempio il diagramma in figura 4.51, tracciato per la f.d.t. 4.1.1 con l’aggiunta di un polo in s = −106. Per K > 1, in un caso come questo, si avr`a sempre 1 K interno al diagramma di Nyquist, e dunque instabilit`a del sistema. Applicando il segnale d’ingresso come precedentemente specificato, si ha 54
  • 61. CAPITOLO 4. UN CONTROESEMPIO Figura 4.51: Il circuito reale, riprodotto su pSpice 9.1 una risposta analoga a quella di un filtro passa basso (si veda figura 4.52 per il fronte di salita, 4.53 per fronte di discesa). Per K maggiori di 1, nuovamente, si ha uscita costante a 12 V. Date/Time run: 03/05/18 17:04:22 * C:UserssimsaDocuments00 MATTEO00 Universit01 - TESISimulazioni pSpiceCounterexampleSchematic2 - True ... Temperature: 27.0 Date: March 05, 2018 Page 1 Time: 17:05:15 (A) Schematic2 - True Circuit.dat (active) Time 0s 0.2ms 0.4ms 0.6ms 0.8ms 1.0ms 1.2ms 1.4ms 1.6ms 1.8ms 2.0ms V(C1:2) V(Ru:1) 0V 0.4V 0.8V 1.2V 1.6V 2.0V 2.4V Figura 4.52: Risposta del circuito al fronte di salita dell’impulso per R1 = R2 = 1 kΩ, K < 1 55
  • 62. CAPITOLO 4. UN CONTROESEMPIO Date/Time run: 03/05/18 17:05:52 * C:UserssimsaDocuments00 MATTEO00 Universit01 - TESISimulazioni pSpiceCounterexampleSchematic2 - True ... Temperature: 27.0 Date: March 05, 2018 Page 1 Time: 17:06:05 (A) Schematic2 - True Circuit.dat (active) Time 10.0ms 10.2ms 10.4ms 10.6ms 10.8ms 11.0ms 11.2ms 11.4ms 11.6ms 11.8ms 12.0ms V(C1:2) V(Ru:1) 0V 0.4V 0.8V 1.2V 1.6V 2.0V 2.4V Figura 4.53: Risposta del circuito al fronte di discesa dell’impulso per R1 = R2 = 1 kΩ, K < 1 Con R1 ed R2 pari a 100 kΩ si ottiene lo stesso comportamento in termini di stabilit`a, ma si pu`o apprezzare un comportamento oscillatorio. Tuttavia, tale comportamento si presenta per K < 1 e per alcuni valori di K > 1, mentre nella sezione 4.1 si riporta che l’oscillazione del circuito deve avvenire per K > 1 soltanto. Nella fattispecie, quando Rv + R4 `e pari a 185kΩ, ossia K = 0.95, si osserva un andamento del tipo riportato in figura 4.54 in risposta al fronte di discesa dell’impulso in ingresso. Inoltre, togliendo l’offset dal segnale d’ingresso e aumentando Rv + R4 a 210 kΩ, arrivando dunque a K = 1.03, si osserva l’innsescarsi di un’oscillazione ben pi`u evidente (vedi figure 4.55 e 4.56). 56
  • 63. CAPITOLO 4. UN CONTROESEMPIO Date/Time run: 03/05/18 17:45:15 * C:UserssimsaDocuments00 MATTEO00 Universit01 - TESISimulazioni pSpiceCounterexampleSchematic2 - True ... Temperature: 27.0 Date: March 05, 2018 Page 1 Time: 17:46:00 (A) Schematic2 - True Circuit.dat (active) Time 10.0ms 10.2ms 10.4ms 10.6ms 10.8ms 11.0ms 11.2ms 11.4ms 11.6ms 11.8ms 12.0ms V(C1:2) V(Ru:1) 0V 2V 4V 6V 8V 10V 12V Figura 4.54: Risposta del circuito al fronte di discesa dell’impulso per R1 = R2 = 100 kΩ, K < 1 Date/Time run: 03/05/18 17:45:15 * C:UserssimsaDocuments00 MATTEO00 Universit01 - TESISimulazioni pSpiceCounterexampleSchematic2 - True ... Temperature: 27.0 Date: March 05, 2018 Page 1 Time: 17:46:00 (A) Schematic2 - True Circuit.dat (active) Time 10.0ms 10.2ms 10.4ms 10.6ms 10.8ms 11.0ms 11.2ms 11.4ms 11.6ms 11.8ms 12.0ms V(C1:2) V(Ru:1) 0V 2V 4V 6V 8V 10V 12V Figura 4.55: Risposta del circuito al fronte di discesa dell’impulso per R1 = R2 = 100 kΩ, K = 1.03 57
  • 64. CAPITOLO 4. UN CONTROESEMPIO Date/Time run: 03/05/18 15:52:40 * C:UserssimsaDocuments00 MATTEO00 Universit01 - TESISimulazioni pSpiceCounterexampleSchematic2 - True ... Temperature: 27.0 Date: March 05, 2018 Page 1 Time: 15:53:05 (A) Schematic2 - True Circuit.dat (active) Time 9ms 10ms 11ms 12ms 13ms 14ms 15ms 16ms V(C1:2) V(Ru:1) -12V -8V -4V 0V 4V 8V 12V Figura 4.56: Risposta del circuito al fronte di discesa dell’impulso senza offset per R1 = R2 = 100 kΩ, K = 1.03 Figura 4.57: Risposta del circuito al fronte di discesa dell’impulso sen- za offset per R1 = R2 = 100 kΩ, K di poco superiore a 1, visualizzata sull’oscilloscopio in laboratorio 58
  • 65. CAPITOLO 4. UN CONTROESEMPIO Il discostamento del comportamento del circuito da quello previsto in 4.1 pu`o essere dovuto a vari fattori. Innanzitutto, le oscillazioni che si riescono a visualizzare sono sempre sommate ad esponenziali decrescenti che si pos- sono associare alla scarica dei condensatori. In particolare, si osservi figura 4.56. In essa appare evidente che il clipping introdotto dagli amplificatori operazionali occorre troppo presto, essendo il valore medio della sinusoide molto elevato. Di fatto, il duty-cycle del segnale onda quadra `e troppo al- to, seppure fosse il minimo consentito dal generatore di segnali. Per prove future, si rende necessario lo sviluppo di un generatore di impulsi di durata ridotta. Questo si pu`o realizzare inserendo in cascata al generatore di se- gnali un semplice derivatore, seguito da un raddrizzatore che elimini i picchi negativi. In secondo luogo, sar`a necessario scegliere una pi`u affidabile tecnica rea- lizzativa del circuito. Al di l`a del gi`a discusso effetto delle propriet`a passa basso degli amplificatori reali, il sospetto `e che le capacit`a parassite intro- dotte dal montaggio su breadboard siano tali da modificare sensibilmente il comportamento del sistema. 59
  • 66. Capitolo 5 Una condizione aggiuntiva Nell’articolo [4] si illustra una possibile condizione necessaria aggiuntiva da affiancare al criterio di Barkhausen affinch´e un sistema sia oscillante e mar- ginalmente stabile (ossia affinch´e abbia poli complessi coniugati sull’asse complesso). La condizione `e dφ dω (ω0) < 0, dove φ(ω) `e la fase della f.d.t. con- siderata valutata in jω, mentre ω0 `e la pulsazione alla quale vale il criterio di Barkhausen (2.3.1). L’analisi svolta in [4] si basa sullo studio del luogo delle radici di alcuni sistemi, e mostra che tutti i sistemi esaminati che oscillino alla frequenza alla quale Barkhausen `e soddisfatto, soddisfano anche dφ dω < 0. Viceversa, i sistemi che non oscillano alla frequenza individuata dal criterio di Barkhausen, non soddisfano la suddetta condizione. In questo capitolo si esaminano i diagrammi di Nyquist di sistemi comuni, evidenziando come l’aggiunta di tale condizione, opportunamente modificata, permetta di far funzionare il criterio esteso di Barkhausen in casi in cui esso, in assenza di tale condizione, falliva. Inoltre, si propone un semplice ragionamento fisico a supporto della condizione dφ dω (ω0) < 0. Premettiamo che un sistema retroazionato si dice a stabilit`a regolare se `e caratterizzato da un unico valore K0 tale che il sistema `e stabile per 0 < K < K0 e instabile per K > K0. Si parla invece di sistema a stabilit`a condizionata (o condizionatamente stabile) se vi sono pi`u valori critici di K per cui si passa da una condizione di stabilit`a a una condizione di instabilit`a, o viceversa. Queste due classi non coprono tutti i sistemi possibili: ve ne sono di altri, ad esempio, che sono instabili per 0 < K < K0 e instabili per K > K0, al contrario di quelli a stabilit`a regolare. Questi sono di interesse perlopi`u teorico [8]. Ove non specificato diversamente, i diagrammi di Nyquist riportati in questo capitolo sono stati tracciati con l’ausilio di Wolfram Alpha. 60
  • 67. CAPITOLO 5. UNA CONDIZIONE AGGIUNTIVA 5.1 Diagramma di Nyquist in funzione di K Come accennato nel capitolo 4, i sistemi reali hanno comportamento passa basso, essendo sempre presenti degli effetti capacitivi parassiti che ne limi- tano la banda. Pertanto, la prima met`a dei diagrammi di Nyquist di sistemi F reali ha termine nell’origine, giacch´e ω → ∞ ⇒ F(jω) → 0. Ne `e un esempio il sistema di cui il diagramma in figura 5.1, che rappresenta proprio un passa basso (F(s) = 1 1+s). Inoltre, nelle prossime pagine, non consi- Figura 5.1: Diagramma di Nyquist di un sistema passa basso dereremo sistemi con comportamento passa alto. Per tali sistemi, l’origine rappresenta il punto di partenza del diagramma, essendo F(0) = 0. Si supponga che il diagramma in figura 5.1 sia il diagramma di una H(s)G(s), in caso di sistema retroazionato negativamente (d’ora in poi tale ipotesi sar`a implicita per ogni sistema preso in considerazione). Si inserisca nell’anello anche un blocco amplificatore ideale di guadagno K. Per quanto riportato in [11], affinch´e tale sistema sia stabile, il diagramma non deve girare attorno a − 1 K . In simboli, il sistema `e instabile se: 0 < − 1 K < 1 Ossia, scomponendo in due condizioni: 0 < − 1 K ⇐⇒ K < 0 − 1 K < 1 ⇐⇒ K > −1 Tale metodo per valutare la stabilit`a mediante i diagrammi di Nyquist `e molto comodo all’atto pratico, poich´e permette di usare un unico diagram- ma invece di tracciarne uno per ogni valore di K, ma non rende l’idea di come il diagramma del sistema cambi al variare di K. In figura 5.2 (im- magine originale in [1], slide n. 26), invece, abbiamo una porzione di un 61
  • 68. CAPITOLO 5. UNA CONDIZIONE AGGIUNTIVA diagramma di Nyquist di un sistema condizionatamente stabile. Si osservi che, al crescere di K, il diagramma diviene pi`u ampio. Con questa interpre- Figura 5.2: Tratto finale del diagramma di Nyquist di un sistema condizionatamente stabile al variare di K tazione `e immediato determinare che, riferendoci alla curva A, aumentando o riducendo opportunamente K si arriver`a ad una condizione di stabilit`a. Per sistemi non condizionatamente stabili con comportamento passa bas- so alle alte frequenze si ha un’unica soglia per determinare la stabilit`a del sistema. Si faccia riferimento al grafico in figura 5.3. Si consideri il diagram- Figura 5.3: Diagramma di Nyquist di F(s) = 1 (s+1)3 ma rappresentato quello per K = 1. Poich´e il diagramma taglia l’asse reale in −0.125, il sistema sar`a stabile per K positivi minori di 8, mentre per K maggiori di 8 il diagramma inglober`a il punto −1 + j0 e il sistema diverr`a instabile. 62
  • 69. CAPITOLO 5. UNA CONDIZIONE AGGIUNTIVA Separiamo dunque i sistemi d’interesse, come da definizione in [8] gi`a accennata all’inizio del presente capitolo, in: • Tipo A - regolarmente stabili: sistemi il cui diagramma di Nyquist taglia il semiasse reale negativo una sola volta, ovvero che soddisfano la condizione sulla fase di Barkhausen (2.3.2) per una sola pulsazione ω0 • Tipo B - condizionatamente stabili sistemi il cui diagramma di Nyquist taglia il semiasse reale negativo pi`u di una volta, ovvero sod- disfano la condizione sulla fase di Barkhausen (2.3.2) per pi`u pulsazioni ωi. Si tenga a mente la limitazione a sistemi reali, ossia passa basso. Nella prossi- ma sezione sfruttiamo questa categorizzazione e il metodo grafico introdotto per evidenziare come la condizione dφ dω < 0, modificata opportunamente, fornisca previsioni corrette circa la stabilit`a dei sistemi pi`u comuni. 5.2 Nyquist e dφ dω < 0 Spesso ci si riferisce a −dφ dω come al ritardo di gruppo. Non sar`a il nostro caso, poich´e il concetto di ritardo di gruppo quale ritardo temporale `e valido per segnali modulati, e nella fattispecie si riferisce al ritardo subito dall’inviluppo di una portante nell’attraversare un sistema a fase lineare [19]. Per i sistemi del tipo A di interesse comune sembra sempre essere soddi- sfatta la condizione sulla derivata della fase. Essendo per ipotesi dei passa basso, qualunque cosa succeda alle basse frequenze, si ha comunque una rotazione in senso orario del diagramma per frequenze tendenti a +∞. In figura 5.4, il diagramma di Nyquist per il sistema con la seguente funzione di trasferimento: F(s) = 109 s + 1 (s + 10)(s + 100)(s + 1000)2 Anche casi particolari come questo sono contemplati. `E il caso dei sistemi per cui il criterio esteso di Barkhausen era gi`a apparentemente corretto. Per i sistemi del tipo B, invece, facciamo riferimento alla figura 5.5, versione modificata della 5.2, poich´e `e ragionevole che il tratto finale del diagramma abbia tale forma. La linea tratteggiata rappresenta l’andamento del diagramma tipo per sistemi con un numero di attraversamenti dell’asse reale superiore a 2. Asseriamo dunque che il sistema `e instabile se, alla pi`u alta pulsazione ω0 per cui vale: |H(jω)G(jω)| > 1 ∠H(jω)G(jω) = 0 (5.2.1) 63
  • 70. CAPITOLO 5. UNA CONDIZIONE AGGIUNTIVA Figura 5.4: Caso particolare di sistema del tipo A Figura 5.5: Rappresentazione tipica dei sistemi di tipo B vale anche dφ dω < 0. `E stabile, viceversa, se dφ dω > 0. Non si tratta di un criterio di sufficienza poich´e non vi `e dimostrazione, ma si rimanda alla fine della sezione 5.3 per un collegamento con il concetto in essa presentato. Tuttavia, `e interessante notare che anche sistemi con- dizionatamente stabili come quello in figura 5.6, per cui non vale l’ipotesi di passa basso, valga comunque il nuovo criterio esteso (a patto di poter considerare +∞ come ω0). Delimitare con rigore le classi di funzioni per cui questa estensione del criterio fornisce risultati corretti sar`a uno scopo del proseguimento degli studi sull’argomento, e si dovr`a per certo partire dalla ricerca di possibili controesempi. 64
  • 71. CAPITOLO 5. UNA CONDIZIONE AGGIUNTIVA Figura 5.6: Caso particolare di sistema condizionatamente stabile 5.3 Significato fisico della condizione aggiuntiva Si propone infine una possibile spiegazione fisica del perch´e la condizione aggiuntiva potrebbe effettivamente rivelarsi una condizione necessaria, as- sieme al criterio di Barkhausen, affinch´e il sistema oscilli. In particolare, si vuole sottolineare una sorta di funzione di stabilizzazione della frequenza di oscillazione che tale condizione sembra operare. Innanzitutto, sia f(t) = sin(ωt + φ(t)). Si immagini che la fase phi sia una vari bruscamente in un dato istante di tempo t0. Allora, in un intorno di t0 si pu`o scrivere, per Taylor, φ(t) ≈ φ(t0) + φ (t0)(t − t0), ottendendo: f(t) ≈ sin ω + φ (t0) t − φ (t0) t0 Si osservi che φ (t0 ha le dimensioni di una pulsazione. In altre parole, va- riazioni istantanee della fase si possono confondere con variazioni istantanee della pulsazione di una sinusoide. Si consideri un oscillatore, e sia ω0 la pulsazione per cui `e soddisfatto il criterio di Barkhausen (vedi 2.3.1). Si supponga che dφ dω < 0. Se ω dovesse aumentare leggermente in un dato istante, vista l’ipotesi su dφ dω si avrebbe una diminuizione istantanea dello sfasamento operato da HG sul segnale nel- l’anello di retroazione, ossia, per quanto detto sopra, una diminuzione della pulsazione. Viceversa, per decrementi istantanei di ω si ha un incremento istantaneo dello sfasamento introdotto da HG, ossia un incremento della pulsazione. Praticamente, la condizione aggiuntiva fa s`ı che la frequenza di oscillazione sia una frequenza d’equilibrio alla quale operare per l’oscillato- re. Viceversa, se dφ dω0 > 0, si ottiene l’effetto opposto, ossia un’enfatizzazione della perturbazione della frequenza di oscillazione. Risulta pertanto che sep- 65
  • 72. CAPITOLO 5. UNA CONDIZIONE AGGIUNTIVA pure idealmente il sistema potrebbe ragionevolmente oscillare alla pulsazione ω0, in realt`a essa `e un equilibrio instabile. Nei casi teorici di sistemi che non esibiscono un comportamento passa basso, si pu`o ottenere attraversamento dell’asse reale da parte del diagramma di Nyquist anche per ω = ∞ (vedasi figura 5.6). Mentre per gli attraversa- menti per ω = 0 si pu`o parlare di “oscillazione” a frequenza nulla, ossia di marginale stabilit`a con un segnale d’uscita costante, non `e del tutto chiaro se abbia senso considerare gli attraversamenti per ω = ∞ dal punto di vista fisico. Nello specifico, bisogna indagare il comportamento teorico di sistemi del tipo suddetto qualora l’attraversamento avvenga proprio in −1 + j0, che negli altri casi corrisponde a una situazione di marginale stabilit`a. Infine, si voglia osservare come potrebbe non essere un caso che il crite- rio esteso di Barkhausen sulla stabilit`a funzioni per sistemi marginalmente stabili che soddisfino la condizione aggiuntiva. Se questa si rivelasse essere, assieme al criterio di Barkhausen, una condizione necessaria e sufficiente affinch`e il sistema marginalmente stabile oscilli, allora la presenza di segnali oscillanti renderebbe sensato il ragionamento fisico dietro al criterio esteso di Barkhausen, motivandone la correttezza sotto tali ipotesi. Questo spie- gherebbe il nuovo criterio esteso di Barkhausen (5.2.1) da un punto di vista fisico - pur lasciando in ombra met`a del criterio. Non sarebbe chiaro, in tale prospettiva e sempre da un punto di vista puramente fisico, perch`e per casi di stabilit`a marginale in cui dφ dω0 > 0 si debba avere un’inversione del criterio (i.e., stabilit`a al diminuire di K, e viceversa). 66
  • 73. Conclusioni Il criterio esteso di Barkhausen quale condizione sufficiente per la valutazione della stabilit`a `e dunque fallace, sia per la ben nota presenza di controesempi come quello di capitolo 4, sia per quanto visto nel capitolo 3. L’approccio di capitolo 3, inoltre, sar`a oggetto di approfondimenti. Esso ha infatti evi- denziato la possibilit`a che il calcolo delle f.d.t. di sistemi retroazionati a partire dalle f.d.t. dei sottosistemi H e G secondo il metodo classico porti al computo di risposte nel tempo discordi da quelle dei sistemi fisici, qualora non sia soddisfatta la 3.2.3. Per quanto concerne i risultati di capitolo 5, invece, si sono ottenute: • una plausibile spiegazione fisica del perch`e la condizione aggiuntiva determini se il sistema possa oscillare o no in caso di soddisfacimento del criterio di Barkhausen; • una riapertura della questione sul criterio esteso di Barkhausen come criterio di stabilit`a. Infine, si osservi che il criterio di Nyquist richiede, fondamentalmente, la conoscenza della funzione di trasferimento per ogni jω. I criteri estesi di Barkhausen esaminati in questo elaborato, invece, considerano la cono- scenza di alcune informazioni sulla funzione per una specifica frequenza. Da questo punto di vista sembra ragionevole, in prima battuta, che i criteri non possano essere equivalenti. Tuttavia, vi `e pi`u di un esempio in matemati- ca di come, per classi di funzioni particolarmente regolari, sia sufficiente la conoscenza di un numero finito o un’infinit`a numerabile di valori per descri- vere completamente una funzione: si pensi alla serie di Taylor per funzioni analitiche. E proprio la serie di Taylor potrebbe essere un interessante pa- rallelismo, poich´e si `e passati dal considerare solo il valore del modulo della f.d.t. per una data frequenza, al considerare anche la derivata prima della fase della f.d.t. alla stessa frequenza - come in Taylor si valuta il valore della funzione in un punto, quindi la sua derivata in un punto, e a seguire le derivate successive. 67
  • 74. Bibliografia [1] Anonymous. Dynamic Performance of PWM Dc-to-Dc Converters. http://slideplayer.com/slide/8397423/. [2] Anonymous. Obituaries. Physics Today, 29(6):64, June 1976. Avai- lable at http://physicstoday.scitation.org/doi/abs/10.1063/1. 3023534. [3] Panos J. Antsaklis and Anthony N. Michel. Linear Systems. Birkhauser, 1st edition, 1997. [4] Igor Balaz, Zdenko Brezovic, Marian Minarik, Vladimir Kudjak, and Vladim´ır Stofanik. Barkhausen criterion and another necessary con- dition for steady state oscillations existence. In 23th Conference Radioelektronika 2013, April 2013. [5] Harold Chestnut and Robert W. Mayer. Servomechanisms and Regulating System Design, page 142. Wiley, 1951. [6] John Daintith. Biographical Encyclopedia of Scientists, page 46. CRC Press, 3rd edition, 2002. [7] Fan He, Raymond Ribas, Cyril Lahuec, and Michel Je’ze’quel. Discus- sion on the general oscillation startup condition and the Barkhausen criterion. Analog Integrated Circuits and Signal Processing, 2008. [8] Antonio Lepschy and Antonio Ruberti. Studio della stabilit`a - ca- so dei sistemi a un solo ciclo. In Lezioni di Controlli Automatici, chapter 10, pages 354–355. Siderea Edizioni Scientifiche, 2nd edition, February 1967. [9] Kent H. Lundberg. Barkhausen Stability Criterion. http://web.mit. edu/klund/www/weblatex/node4.html, November 2002. [10] Alan V. Oppenheim, Alan S. Willsky, and S. Hamid Nawab. The En- circlement Property. In Signals & Systems, chapter 11, pages 847–850. Prentice-Hall, 2nd edition, 1997. 68
  • 75. BIBLIOGRAFIA [11] Alan V. Oppenheim, Alan S. Willsky, and S. Hamid Nawab. The Ny- quist Criterion for Continuous-Time LTI Feedback Systems. In Signals & Systems, chapter 11, page 852. Prentice-Hall, 2nd edition, 1997. [12] Alan V. Oppenheim, Alan S. Willsky, and S. Hamid Nawab. Signals & Systems. Prentice-Hall, 2nd edition, 1997. [13] Thomas Parisini. Fondamenti di Automatica. http://control.units. it/it/downloads-it/send/44-fa-lezioni-9cfu/4-parte-3.html. See page 42. [14] Thomas Parisini. Fondamenti di Automatica. http://control.units. it/it/downloads-it/category/44-fa-lezioni-9cfu.html, March 2013. Slides from the course. [15] Jan Willem Polderman and Jan C. Willems. Introduction to the Mathe- matical Theory of Systems and Control. Springer, 2nd edition, October 2008. [16] Vimal Singh. A note on determination of oscillation startup condition. Analog Integrated Circuits and Signal Processing, 48:251–255, 2006. [17] Vimal Singh. Failure of Barkhausen oscillation building up criterion: Further evidence. Analog Integrated Circuits and Signal Processing, 50:127–132, 2008. [18] Vimal Singh. Discussion on barkhausen and nyquist stability criteria. Analog Integrated Circuits and Signal Processing, 62:327–332, 2010. [19] Julius O. Smith. Introduction to digital filters with audio appli- cations. https://ccrma.stanford.edu/~jos/filters/Derivation_ Group_Delay_Modulation.html, September 2007. [20] Lutz von Wagenheim. On the Barkhausen and Nyquist stability criteria. Analog Integrated Circuits and Signal Processing, 66:139–141, 2010. [21] Wikipedia. Laplace Transform. https://it.wikipedia.org/wiki/ Trasformata_di_Laplace. 69
  • 76. Ringraziamenti Vorrei ringraziare innanzitutto il mio relatore Chiarissimo professor Sergio Carrato per avermi dato l’opportunit`a di lavorare a questa tesi, per aver supervisionato il lavoro, per avermi fornito gli stimoli e i materiali necessari e avermi corretto ogni volta che ho sbagliato. Sar`a un piacere continuare a lavorare a questo progetto. Ringrazio inoltre tutti i docenti del Corso di Laurea per la conoscenza trasmes- sami, poich´e `e il bene pi`u prezioso che esista. Un particolare ringraziamento al professor Enzo Mitidieri, che `e il miglior insegnante di Analisi Matematica - e non solo - che mai avrei potuto sperare di incontrare. Nessun altro ha cambiato il mio modo di pensare in modo altrettanto significativo. Il grazie pi`u grande va a tutta la mia famiglia. Grazie ai miei genitori per aver reso tutto questo possibile, per avermi insegnato (e per insegnarmi ancora) tutto ci`o che sanno e per avermi ascoltato e consigliato quando ne avevo bisogno. Grazie inoltre a mio padre Mario per avermi trasmesso la passione per la tecnica. E a mia madre Marisa per avermi dimostrato pi`u volte che nello studio la caparbiet`a `e tutto. Grazie a mia sorella Mariangela, perch´e senza di lei la mia vita sarebbe stata senz’altro pi`u noiosa. Grazie ai nonni, che sono le mie radici e mi permettono di ricordare ogni giorno chi io sia, da dove vengo e perch´e esserne fiero. Voglio ringraziare di cuore anche tutti i miei amici, compagni di studi e/o di avventure, perch´e la vita `e fatta soprattutto di persone, e averne accanto di cos`ı belle non `e scontato. Ciascuno di loro `e stato davvero fondamentale. Grazie a Gian per la musica che ci unisce, che abbiamo fatto e che faremo, e per essere il fantastico amico che `e. A Devil, Marlin, Giova e Sbage per gli anni di memorabili scorribande. Ad Amedeo per i discorsi che ci hanno tenuti in piedi fino alle quattro del mattino, e per le lunghe gite in moto. Ad Irene per tante cose, tra cui soprattutto l’infinita pazienza. Ad Andrea per le giornate passate assieme, tra atletica, scuola e universit`a. A Nenad e Lorin, che sono i miei ”colleghi pi`u grandi”, e mi hanno aiutato fin dall’inizio di questo percorso. A Vincenzo, con cui ho superato gli esami pi`u importanti. A Nico e Ric, per le gare che son state e le gare che verranno. A Lollo per avermi sopportato per otto anni, e perch´e suo malgrado mi sopporter`a ancora. Ad Easy, perch´e se non ci fosse dovrebbero inventarlo. A Leti per l’enorme aiuto di quest’ultimo mese. A Coch e Igor, perch´e ho perso il conto degli esami che devo a loro due. A Para, perch´e se ho iniziato a suonare `e grazie a lui, e questo mi ha dato un motivo in pi`u per appassionarmi all’elettronica. A Giacomo, fonte di sapienza matematica. A tutti gli SDS, ma in particolare all’ingegner MX Mariani, al signor Cirronis e a Giorgino, che hanno gi`a “bell’e che capito”. Una dedica speciale, infine, a mio nonno Luigi, che pi`u di chiunque altro avrebbe voluto essere presente in questi giorni cos`ı importanti. 70