Questo post è tuttora in fase di elaborazione. Fin quando non sparirà questa avvertenza, tutto il testo dovrà essere considerato un "work in progress" suscettibile di revisioni, correzioni, riscritture ecc. - quindi da non prendere per oro colato.
Questo post nasce sotto lo stimolo di una delle tante polemiche "controreazione sì - controreazione no" che periodicamente infiammano gli appassionati che frequentano i forum dedicati all'audio nel web. La polemica in questione ha avuto origine in particolare da un articolo di Mauro Accorsi ("La controreazione totale è una tecnica compatibile con la riproduzione Hi-Fi?", pubblicato su Costruire Hi-Fi numero 188, uscito a dicembre 2014), che in sostanza ripropone i concetti proposti su Electronic World, da Graham Maynard, scomparso giusto un mese prima, in una serie di articoli pubblicata nel 2004 intitolata "Class-A Imagenering"-
Personalmente ho da tempo smesso di seguire più di tanto queste polemiche per la buona ragione che, semplicemente, non portano da nessuna parte e soprattutto non spostano di una virgola le posizioni in campo; o anche perché francamente ci sono cose ben più interessanti e utili con cui perdere tempo.
Questa volta però qualcosa è andato abbastanza oltre da indurmi a svegliare questo blog dal suo letargo. Il qualcosa in questione è stato il venire a conoscere l'esistenza su Videohifi (un forum di audiofili chiacchieroni, spesso simpatici ma anche decisamente poco affidabili dal punto di vista tecnico - inoltre una buona percentuale di loro sono in un modo o nell'altro osti del vino che vendono, quindi vatti a fidare...) di un thread intitolato "La controreazione spiegata ai non tecnici" che, una volta iniziato a leggere, mi ha dato la stessa sensazione che proverebbe un medico a leggere qualcosa del tipo "La medicina spiegata ai pazienti" ... da uno sciamano! Decisamente un po' troppo per lasciar correre.
Il post che state leggendo scaturisce proprio dalla mia sensazione che ancora una volta (l'ennesima ahimè) è divenuto urgente rimettere i puntini delle "i" al loro posto (o almeno provarci) e, importante, offrire qualcosa di meglio di certe "spiegazioni" soprattutto quando, pur non essendo una passeggiata, è possibile farlo anche per uno come me che, in tutta onestà, nel migliore dei casi si può solo definire un "profano abbastanza al corrente dei fatti" e null'altro (o, nell'esempio "medico" di cui sopra, mi potrei almeno equiparare a un infermiere con un po' di esperienza - ma non certo a un medico!).
Questo post non si propone di "convertire" nessuno, tanto meno gli adepti della mistica audiofila, ma è piuttosto una "profilassi preventiva" diretta a quegli appassionati che, magari impossibilitati per vari motivi a studiare per proprio conto argomenti che per essere davvero capiti, DEVONO essere studiati - semplicemente si sorbiscono tesi, teorie e audio-fanfaluche sparse tanto più in lungo e in largo quanto più sono strampalate, semplicemente perché in giro non c'è nulla di adeguato al loro livello di comprensione: la controreazione nei circuiti elettronici, e la teoria dei controlli da cui logicamente (ma non storicamente, vedi dopo) discende, è un argomento "hard" anche per gli addetti ai lavori ed è essenzialmente un soggetto che si studia e approfondisce per strette esigenze di lavoro e non certo per passatempo e di cui quasi sempre si parla solo, nel linguaggio e nel codice appropriati richiesti, soltanto con altri addetti ai lavori. Uno stato di cose questo che peraltro pone molti limiti a quanto si può spiegare con un post in un blog che, anche se vi si può scrivere di meglio che certe "stregonate", non può certo aspirare a sostituire un corso di teoria dei controlli e dei sistemi, il cui studio è pure uno dei più temibili che deve affrontare uno studente per superarne gli esami.
...e una premessa tecnica.Personalmente ho da tempo smesso di seguire più di tanto queste polemiche per la buona ragione che, semplicemente, non portano da nessuna parte e soprattutto non spostano di una virgola le posizioni in campo; o anche perché francamente ci sono cose ben più interessanti e utili con cui perdere tempo.
Questa volta però qualcosa è andato abbastanza oltre da indurmi a svegliare questo blog dal suo letargo. Il qualcosa in questione è stato il venire a conoscere l'esistenza su Videohifi (un forum di audiofili chiacchieroni, spesso simpatici ma anche decisamente poco affidabili dal punto di vista tecnico - inoltre una buona percentuale di loro sono in un modo o nell'altro osti del vino che vendono, quindi vatti a fidare...) di un thread intitolato "La controreazione spiegata ai non tecnici" che, una volta iniziato a leggere, mi ha dato la stessa sensazione che proverebbe un medico a leggere qualcosa del tipo "La medicina spiegata ai pazienti" ... da uno sciamano! Decisamente un po' troppo per lasciar correre.
Il post che state leggendo scaturisce proprio dalla mia sensazione che ancora una volta (l'ennesima ahimè) è divenuto urgente rimettere i puntini delle "i" al loro posto (o almeno provarci) e, importante, offrire qualcosa di meglio di certe "spiegazioni" soprattutto quando, pur non essendo una passeggiata, è possibile farlo anche per uno come me che, in tutta onestà, nel migliore dei casi si può solo definire un "profano abbastanza al corrente dei fatti" e null'altro (o, nell'esempio "medico" di cui sopra, mi potrei almeno equiparare a un infermiere con un po' di esperienza - ma non certo a un medico!).
Questo post non si propone di "convertire" nessuno, tanto meno gli adepti della mistica audiofila, ma è piuttosto una "profilassi preventiva" diretta a quegli appassionati che, magari impossibilitati per vari motivi a studiare per proprio conto argomenti che per essere davvero capiti, DEVONO essere studiati - semplicemente si sorbiscono tesi, teorie e audio-fanfaluche sparse tanto più in lungo e in largo quanto più sono strampalate, semplicemente perché in giro non c'è nulla di adeguato al loro livello di comprensione: la controreazione nei circuiti elettronici, e la teoria dei controlli da cui logicamente (ma non storicamente, vedi dopo) discende, è un argomento "hard" anche per gli addetti ai lavori ed è essenzialmente un soggetto che si studia e approfondisce per strette esigenze di lavoro e non certo per passatempo e di cui quasi sempre si parla solo, nel linguaggio e nel codice appropriati richiesti, soltanto con altri addetti ai lavori. Uno stato di cose questo che peraltro pone molti limiti a quanto si può spiegare con un post in un blog che, anche se vi si può scrivere di meglio che certe "stregonate", non può certo aspirare a sostituire un corso di teoria dei controlli e dei sistemi, il cui studio è pure uno dei più temibili che deve affrontare uno studente per superarne gli esami.
Poiché questo scritto si propone comunque l'obiettivo ambizioso di far capire ai profani come funziona la controreazione nei circuiti analogici (che include praticamente tutta l'elettronica usata nei circuiti audio), il primo punto da chiarire è che l'argomento non solo non è precisamente da pausa caffè ma che per sua natura non è neppure granché intuitivo nemmeno per gli specialisti che, come sempre in questi casi, preferiscono affrontarlo per via puramente matematica, la più difficile ma anche la più sicura per un professionista.
Al riguardo chi si illude che ce la si possa cavare con una manciata di formulette senza capire a fondo da dove arrivano e dove portano - o peggio pensa di cavarsela delegando tutto il lavoro ostico a SPICE - può tranquillamente passare ad altro fin da ora e non perché io voglia fare le cose più cattive di quel che sono ma semplicemente perché NESSUNO è riuscito a farle più "buone" di così (e ci hanno provato in tanti visto che semplificare teoria e pratica della controreazione significa risparmiare ore e ore di lavoro: su queste cose gli ingegneri si guadagnano per intero ogni centesimo del loro stipendio, anche facendo le ore piccole - e a tutt'oggi, nella letteratura specializzata, abbondano precisazioni, tentativi di nuovi approcci per rendere più fluido e scorrevole l'argomento ecc.).
In proposito occorre spendere qualche parola di cautela sull'uso (e abuso) di SPICE. Come ogni altro simulatore circuitale (ne esistono anche di migliori ma, ahimè, NON gratuiti), SPICE è un ottimo strumento per velocizzare il lavoro dei progettisti e anche per aiutare uno studente a capire un po' più speditamente quel che succede in un circuito ma solo a patto che si sappia bene quel che si sta facendo. SPICE è un valido aiuto per un ingegnere e anche per uno studente ma non sostituisce in alcun modo la competenza e l'esperienza dell'ingegnere così come non sostituisce in alcun modo il lavoro di studio dello studente. SPICE fa tante ottime cose, tranne CAPIRE l'elettronica al posto di un essere umano. Questo perché SPICE, in ultima analisi non è altro che UNA CALCOLATRICE SPECIALIZZATA e tale rimane in ogni caso.
O per dirla più schiettamente: pensare di sostituire un ingegnere, di poterne fare a meno o, peggio ancora, CREDERSI un ingegnere solo perché si sa far girare più o meno bene SPICE sul PC è esattamente come pretendere di poter sostituire un pilota solo perché si gioca sul proprio computer - magari pure benino - con Flight Simulator: presentatevi in un aeroporto con queste "credenziali" e poi sentiteli... prima le risate e poi la sirena dell'ambulanza che sta arrivando apposta per voi!
Al riguardo chi si illude che ce la si possa cavare con una manciata di formulette senza capire a fondo da dove arrivano e dove portano - o peggio pensa di cavarsela delegando tutto il lavoro ostico a SPICE - può tranquillamente passare ad altro fin da ora e non perché io voglia fare le cose più cattive di quel che sono ma semplicemente perché NESSUNO è riuscito a farle più "buone" di così (e ci hanno provato in tanti visto che semplificare teoria e pratica della controreazione significa risparmiare ore e ore di lavoro: su queste cose gli ingegneri si guadagnano per intero ogni centesimo del loro stipendio, anche facendo le ore piccole - e a tutt'oggi, nella letteratura specializzata, abbondano precisazioni, tentativi di nuovi approcci per rendere più fluido e scorrevole l'argomento ecc.).
In proposito occorre spendere qualche parola di cautela sull'uso (e abuso) di SPICE. Come ogni altro simulatore circuitale (ne esistono anche di migliori ma, ahimè, NON gratuiti), SPICE è un ottimo strumento per velocizzare il lavoro dei progettisti e anche per aiutare uno studente a capire un po' più speditamente quel che succede in un circuito ma solo a patto che si sappia bene quel che si sta facendo. SPICE è un valido aiuto per un ingegnere e anche per uno studente ma non sostituisce in alcun modo la competenza e l'esperienza dell'ingegnere così come non sostituisce in alcun modo il lavoro di studio dello studente. SPICE fa tante ottime cose, tranne CAPIRE l'elettronica al posto di un essere umano. Questo perché SPICE, in ultima analisi non è altro che UNA CALCOLATRICE SPECIALIZZATA e tale rimane in ogni caso.
O per dirla più schiettamente: pensare di sostituire un ingegnere, di poterne fare a meno o, peggio ancora, CREDERSI un ingegnere solo perché si sa far girare più o meno bene SPICE sul PC è esattamente come pretendere di poter sostituire un pilota solo perché si gioca sul proprio computer - magari pure benino - con Flight Simulator: presentatevi in un aeroporto con queste "credenziali" e poi sentiteli... prima le risate e poi la sirena dell'ambulanza che sta arrivando apposta per voi!
Il testo che segue si propone di usare con parsimonia la matematica ma non di evitarla quando deve essere usata. L'unica cosa che sarà evitata è solo l'uso puramente estetico e pedantesco delle equazioni, che lascia il tempo che trova se ad esse non si accompagna un minimo di spiegazioni sul loro significato e sul motivo per cui le si sta usando. E poiché il formalismo matematico è il più delle volte giusto un codice per sintetizzare concetti che si possono spiegare anche a parole, queste avranno la precedenza tutte le volte in cui saranno sufficienti a capire di che cosa si sta parlando.
Questo però non significa, che insieme alle equazioni e al formalismo, saranno evitati di pari passo anche i concetti da cui nascono. Un esempio a noi pertinente è l'uso delle serie di Taylor, un bellissimo strumento matematico che serve a tradurre le curve di buona parte dei grafici usati in elettronica (per esempio le variazioni o meno del guadagno in corrente o della transconduttanza di un transistor in funzione dell'ampiezza del segnale di controllo) in equazioni algebriche. L'uso almeno concettuale di tale strumento ci permetterà di capire il motivo per cui nell'allargamento dello spettro della distorsione armonica di un amplificatore sotto retroazione, non vi è ALCUNA DIFFERENZA tra usare la controreazione localmente sui singoli stadi o usarla globalmente su più stadi, in quanto tale allargamento dipende SOLO dal numero di stadi attraversati dal segnale, quale che sia il genere (globale o locale) di controreazione usata, e dall'effettivo tasso di retroazione (guadagno di anello) di cui l'INTERO l'amplificatore COMUNQUE dispone per ciascuna componente in frequenza e ampiezza presente nel segnale di ingresso (analizzeremo più avanti i dettagli di come avviene tutto questo; al momento basti sapere che la sola "cura" esistente al problema è usare più controreazione per ciascuna frequenza e non meno come erroneamente credono molti audiofili - questo perché la controreazione ha la curiosa ma utilissima proprietà di correggere anche se stessa e i veri o presunti danni che introduce - una correzione NON gratuita, visti i problemi di stabilità a cui è soggetta se usata in maniera incauta, ma nondimeno efficace).
Un altro concetto di uso inevitabile se non si vuole scrivere belinate tipo quella sugli "artiglieri orbi" e sulla retroazione semiparalitica che non riesce a stare dietro al segnale, è quello di LIMITE di una serie, cruciale non solo per capire come e perché qualunque amplificatore STABILE in realtà elettricamente non sia né orbo né paralitico ma anche per comprendere che, nelle condizioni che paventano gli audiofili più "mistici" ("la retroazione non riuscirà mai a correggere in tempo le distorsioni!" e il conseguente preteso "sporcare" un segnale con la correzione del segnale che lo ha preceduto), cioè in assenza di un limite finito a cui una serie si assesta, NON ESISTONO amplificatori stabili ma solo oscillatori che, di proposito o loro malgrado, oscillano proprio per cercare di "inseguire" una condizione di stabilità che, nella loro funzione di trasferimento, NON ESISTE.
In questo caso la serie diverge all'infinito, la tartaruga resta sempre più avanti di Achille, il cui inseguimento diventa quindi eterno, una condizione bizzarra ma perfettamente possibile che, se involontaria, denuncia come nell'amplificatore che ne è vittima siano andate storte molte cose - peraltro non sempre per reale negligenza del progettista: non di rado, specie in amplificatori ad altissimo guadagno ad anello aperto, il vero responsabile di questi disastri è il layout del circuito, i cui dettagli fisici di costruzione e montaggio, con tutte le componenti parassite che vi sono intrinsecamente associate, costituiscono un vero e proprio "circuito fantasma parallelo" (cioè reale e misurabile ma apparentemente intangibile) che accompagna il circuito alterando nei dettagli il suo comportamento effettivo, solitamente in misura crescente con la frequenza. Da qui consegue l'importanza fondamentale che hanno le compensazioni in frequenza negli amplificatori retroazionati e anche perché sia sempre piuttosto poco salutare giocare a vanvera con le compensazioni di un amplificatore, magari sostituendo condensatori con altri che, ritenuti per oscure ragioni "più pregiati", sono in realtà del tutto inadatti per la funzione richiesta.
Quanto appena detto son soltanto due esempi delle cose con cui bisogna fare i conti per capire con che cosa si ha a che fare quando si lavora con la controreazione. Il diavolo, come sempre, sta nei dettagli ed è perfettamente inutile banalizzare il non banale per provare a renderlo comprensibile e assimilabile ad ogni costo anche alle mucche. Non solo perché alle mucche non importa un tubo di queste cose ma anche perché si rende un pessimo servizio a chi invece interessa molto di più il capire le cose come stanno, sopportando anche qualche ragionevole sacrificio nel dedicare un po' di tempo allo studio (purché alla fine si arrivi da qualche parte), che non il sapere le cose per modo di dire, o peggio ancora credere di sapere cose di cui in realtà si continua a non saperne nulla, finendo quindi solo con il perdere tempo dietro a una illusione sterile. Chiarito questo possiamo ora entrare nel vivo della materia,
Breve introduzione storica alla controreazione.Questo però non significa, che insieme alle equazioni e al formalismo, saranno evitati di pari passo anche i concetti da cui nascono. Un esempio a noi pertinente è l'uso delle serie di Taylor, un bellissimo strumento matematico che serve a tradurre le curve di buona parte dei grafici usati in elettronica (per esempio le variazioni o meno del guadagno in corrente o della transconduttanza di un transistor in funzione dell'ampiezza del segnale di controllo) in equazioni algebriche. L'uso almeno concettuale di tale strumento ci permetterà di capire il motivo per cui nell'allargamento dello spettro della distorsione armonica di un amplificatore sotto retroazione, non vi è ALCUNA DIFFERENZA tra usare la controreazione localmente sui singoli stadi o usarla globalmente su più stadi, in quanto tale allargamento dipende SOLO dal numero di stadi attraversati dal segnale, quale che sia il genere (globale o locale) di controreazione usata, e dall'effettivo tasso di retroazione (guadagno di anello) di cui l'INTERO l'amplificatore COMUNQUE dispone per ciascuna componente in frequenza e ampiezza presente nel segnale di ingresso (analizzeremo più avanti i dettagli di come avviene tutto questo; al momento basti sapere che la sola "cura" esistente al problema è usare più controreazione per ciascuna frequenza e non meno come erroneamente credono molti audiofili - questo perché la controreazione ha la curiosa ma utilissima proprietà di correggere anche se stessa e i veri o presunti danni che introduce - una correzione NON gratuita, visti i problemi di stabilità a cui è soggetta se usata in maniera incauta, ma nondimeno efficace).
Un altro concetto di uso inevitabile se non si vuole scrivere belinate tipo quella sugli "artiglieri orbi" e sulla retroazione semiparalitica che non riesce a stare dietro al segnale, è quello di LIMITE di una serie, cruciale non solo per capire come e perché qualunque amplificatore STABILE in realtà elettricamente non sia né orbo né paralitico ma anche per comprendere che, nelle condizioni che paventano gli audiofili più "mistici" ("la retroazione non riuscirà mai a correggere in tempo le distorsioni!" e il conseguente preteso "sporcare" un segnale con la correzione del segnale che lo ha preceduto), cioè in assenza di un limite finito a cui una serie si assesta, NON ESISTONO amplificatori stabili ma solo oscillatori che, di proposito o loro malgrado, oscillano proprio per cercare di "inseguire" una condizione di stabilità che, nella loro funzione di trasferimento, NON ESISTE.
In questo caso la serie diverge all'infinito, la tartaruga resta sempre più avanti di Achille, il cui inseguimento diventa quindi eterno, una condizione bizzarra ma perfettamente possibile che, se involontaria, denuncia come nell'amplificatore che ne è vittima siano andate storte molte cose - peraltro non sempre per reale negligenza del progettista: non di rado, specie in amplificatori ad altissimo guadagno ad anello aperto, il vero responsabile di questi disastri è il layout del circuito, i cui dettagli fisici di costruzione e montaggio, con tutte le componenti parassite che vi sono intrinsecamente associate, costituiscono un vero e proprio "circuito fantasma parallelo" (cioè reale e misurabile ma apparentemente intangibile) che accompagna il circuito alterando nei dettagli il suo comportamento effettivo, solitamente in misura crescente con la frequenza. Da qui consegue l'importanza fondamentale che hanno le compensazioni in frequenza negli amplificatori retroazionati e anche perché sia sempre piuttosto poco salutare giocare a vanvera con le compensazioni di un amplificatore, magari sostituendo condensatori con altri che, ritenuti per oscure ragioni "più pregiati", sono in realtà del tutto inadatti per la funzione richiesta.
Quanto appena detto son soltanto due esempi delle cose con cui bisogna fare i conti per capire con che cosa si ha a che fare quando si lavora con la controreazione. Il diavolo, come sempre, sta nei dettagli ed è perfettamente inutile banalizzare il non banale per provare a renderlo comprensibile e assimilabile ad ogni costo anche alle mucche. Non solo perché alle mucche non importa un tubo di queste cose ma anche perché si rende un pessimo servizio a chi invece interessa molto di più il capire le cose come stanno, sopportando anche qualche ragionevole sacrificio nel dedicare un po' di tempo allo studio (purché alla fine si arrivi da qualche parte), che non il sapere le cose per modo di dire, o peggio ancora credere di sapere cose di cui in realtà si continua a non saperne nulla, finendo quindi solo con il perdere tempo dietro a una illusione sterile. Chiarito questo possiamo ora entrare nel vivo della materia,
La controreazione usata nei circuiti elettronici nasce ufficialmente il 6 agosto 1927, giorno in cui Harold Stephen Black, ingegnere allora non ancora trentenne e a quel tempo impiegato presso la compagnia telefonica americana Bell Telephone (che insieme alla RCA in campo radiofonico, ha di fatto, con le sue migliaia di ricercatori e di ingegneri, "inventato" quasi per intero l'elettronica analogica come oggi la conosciamo; il resto lo hanno fatto ai mitici "MIT RadLab" durante la seconda guerra mondiale), ebbe per la prima volta l'idea di impiegare quella che, in seguito, sarebbe stata chiamata controreazione ("Negative Feedback" in inglese) per stabilizzare le prestazioni elettriche degli amplificatori per linea telefonica, che al tempo erano piuttosto scarse sia in termini di linearità che di costanza dei loro parametri di lavoro (guadagno, impedenze di ingresso e di uscita, risposta in frequenza ecc.) e la cui variabilità nel tempo e tra esemplari era tale da svuotare di ogni senso pratico il concetto stesso di riproducibilità delle prestazioni stesse: ogni volta che si cambiavano le valvole (cosa che succedeva assai spesso) gli amplificatori dovevano essere ritarati in così tanti aspetti che era praticamente come rifarli nuovi.
Anche l'affidabilità e l'efficienza lasciavano molto a desiderare, non solo per i limiti tecnologici allora esistenti nella produzione di tubi (un'industria a quel tempo ancora in piena maturazione) ma anche a causa del fatto che, in assenza di espedienti pratici e validi per ridurre la distorsione dei tubi, questa doveva essere contenuta già alla fonte, cosa che si poteva ottenere soltanto facendo lavorare i tubi in classe A e a una potenza di uscita comparativamente bassa rispetto alla potenza consumata e dispersa in calore: amplificatori che, a fronte di una potenza di uscita utile di un watt o giù di lì, ne disperdevano in calore oltre un centinaio a riposo, erano allora la norma corrente, così come era norma corrente la rapida usura dei tubi e la loro frequente sostituzione, con costi di esercizio molto elevati che di fatto consentivano il loro uso, a costi salati ma ancora accettabili, solo su scala locale: sulle lunghe distanze dominava ancora alla grande il telegrafo, sia via cavo sia, da una quindicina di anni (cioè dagli anni dieci del novecento), via radio, che non essendo vincolato da nessun problema di trasferimento lineare del segnale attraverso linee a cavo, potevano fare a meno di usare amplificatori propriamente detti e avvalersi di tecnologie già da tempo collaudate e con costi di esercizio molto più contenuti e accettabili. I loro guai sarebbero arrivati più tardi quando, dal radiotelegrafo, si passò al radiotelefono... Ma questa è un''altra storia.
La competizione sul mercato del telefono con il telegrafo via terra è stato il vero motore che, nel complesso della (è il caso di dirlo visto l'epoca!) "ruggente" evoluzione dell'elettronica e della radiotecnica avvenuta tra le due guerre mondiali, ha spinto le compagnie telefoniche e i loro ingegneri a trovare una soluzione per garantire, soprattutto sulle lunghe distanze, una qualità ragionevole, costante e affidabile alle comunicazioni telefoniche via terra, che fosse almeno paragonabile a quella che, comunque migliorabile ma in assoluto meno problematica, era già in essere nelle comunicazioni telefoniche locali. E da questo punto di vista l'invenzione della retroazione negativa per stabilizzare gli amplificatori è stato un ingrediente estremamente importante della soluzione cercata, che ha contribuito a far sì che il telefono conquistasse definitivamente il mercato, restringendo in maniera irreversibile la preponderanza del telegrafo, il cui dominio si ridusse in buona sostanza alle sole comunicazioni navali e militari, almeno fino a quando, parecchi decenni più tardi, la "rivoluzione digitale" non li riportò in auge, opportunamente evoluti ed aggiornati per affrontare le velocità di trasmissione di "telegrafisti elettronici" (i circuiti logici) di gran lunga più elevata di quella di un telegrafista umano.
La competizione sul mercato del telefono con il telegrafo via terra è stato il vero motore che, nel complesso della (è il caso di dirlo visto l'epoca!) "ruggente" evoluzione dell'elettronica e della radiotecnica avvenuta tra le due guerre mondiali, ha spinto le compagnie telefoniche e i loro ingegneri a trovare una soluzione per garantire, soprattutto sulle lunghe distanze, una qualità ragionevole, costante e affidabile alle comunicazioni telefoniche via terra, che fosse almeno paragonabile a quella che, comunque migliorabile ma in assoluto meno problematica, era già in essere nelle comunicazioni telefoniche locali. E da questo punto di vista l'invenzione della retroazione negativa per stabilizzare gli amplificatori è stato un ingrediente estremamente importante della soluzione cercata, che ha contribuito a far sì che il telefono conquistasse definitivamente il mercato, restringendo in maniera irreversibile la preponderanza del telegrafo, il cui dominio si ridusse in buona sostanza alle sole comunicazioni navali e militari, almeno fino a quando, parecchi decenni più tardi, la "rivoluzione digitale" non li riportò in auge, opportunamente evoluti ed aggiornati per affrontare le velocità di trasmissione di "telegrafisti elettronici" (i circuiti logici) di gran lunga più elevata di quella di un telegrafista umano.
Il concetto di retroazione negativa utilizzata all'interno di un amplificatore per stabilizzarne le prestazioni non fu inventato a ciel sereno da Black ma fu piuttosto l'evoluzione di un concetto già sviluppato e proposto circa tre anni prima dallo stesso Black alla compagnia per cui lavorava, il feedforward, che venne brevettato appunto nel 1924.
Entrambe le tecniche furono poi indagate e consolidate nel corso dei decenni successivi, arrivando ad una progressiva maturità sia dal punto di vista pratico che da quello teorico e matematico che, dietro le quinte, le hanno rese protagoniste assolute della rivoluzione tecnologica che, nella seconda metà del novecento, è riuscita a cambiare l'industria e le sue tecniche di produzione più di qualunque altra innovazione tecnologica che l'ha preceduta dal seicento in poi; un primato che la successiva digitalizzazione e informatizzazione dei processi industriali ha ereditato e portato avanti ma che, nei suoi concetti fondamentali, non ha mai realmente sostituito, bensì li ha resi più efficaci, trasferendoli e "traducendoli" dal dominio analogico dell'elettronica "classica" a quello contemporaneo dell'elaborazione digitale dei segnali, dei controlli, ecc.
Negative Feedback e Feedforward, lungi dal competere tra loro, si completano invece a vicenda, con il secondo che interviene in aree precluse al primo o in cui si viene a trovare in forti difficoltà, come è il caso degli amplificatori a radiofrequenza in cui il Feedback (voluto o come componente parassita dei circuiti amplificatori) porta più problemi che vantaggi. Per quel che riguarda noi però partiremo proprio dal feedforward non solo perché nella testa di chi lo ha inventato ha preceduto la controreazione ma anche perché la comprensione del suo funzionamento (più intuitivo e che, a parer mio, non è un caso che sia stato inventato per primo), permette poi una comprensione più agevole della controreazione vedendola per quella che in effetti storicamente è, una evoluzione, nella testa dell'inventore di entrambe le tecniche, della prima nella seconda. Nello spiegare il principio di funzionamento di entrambe, troveremo anche le ragioni storiche (sotto forma di limiti della tecnologia dell'epoca) che hanno fatto sì che il feedforward nascesse prima del negative feedback.
La differenza funzionale tra (negative) Feedback e Feedforward è di fatto sintetizzata dal loro nome; mentre infatti il "feedback" consiste nell'inviare "all'indietro" parte del segnale di uscita di un amplificatore per farne la differenza con il segnale di ingresso e quindi amplificarla per ridurre le varie discrepanze (cioè i vari tipi di non linearità presenti in un amplificatore sia come risposta in frequenza, sia come distorsioni), il feedforward consiste invece nel ricavare tale differenza, AMPLIFICARLA SEPARATAMENTE dal segnale di ingresso con un amplificatore ausiliario (avente lo stesso guadagno di quello principale), e sommarla in controfase SULL'USCITA dell'amplificatore principale, e quindi, analogamente a quanto avviene usando la controreazione, correggere il segnale di uscita dell'amplificatore principale cancellando direttamente tra loro le differenze tra il segnale di ingresso e quello di uscita. Questo accoppiamento sulle uscite oggi piuttosto difficoltoso da realizzare senza problemi, allora era molto più semplice e diretto da tradurre in pratica grazie al largo uso di trasformatori di uscita che, con gli opportuni accorgimenti pratici, consentiva di utilizzare gli stessi come accoppiatori di più sorgenti e ingressi per produrre una sola uscita. La figura seguente ci aiuterà a chiarire meglio la situazione.
In questa figura possiamo vedere due amplificatori aventi lo stesso guadagno.di cui il principale A1 è pilotato direttamente dal segnale di ingresso Vin mentre il secondario A2 è pilotato dalla DIFFERENZA tra Vin e e Vout (che abbiamo chiamato Verr) cioè il segnale Voutput opportunamente scalato dal partitore R1 ed R2 in modo da equalizzarlo a Vin, sopprimendo il più possibile il guadagno con cui A1 ha amplificato quest'ultimo.
Se l'amplificatore A1 fosse perfettamente lineare e si comportasse idealmente sull'intera banda passante su cui è chiamato a lavorare, A2 e tutto quanto lo riguarda non sarebbe nient'altro che un'appendice elettronica dell'amplificatore A1, con il solo ruolo di tenergli compagnia a consumar corrente. Nient'altro.
Il principio fondamentale di funzionamento di questo amplificatore è quello di estrarre l'errore dell'amplificatore principale A1 facendo la differenza tra il suo segnale di ingresso Vin e il suo segnale di uscita Voutput e, dopo averla amplificata a parte con l'amplificatore A2, applicarlo in controfase all'uscita principale di A1 per sopprimere le distorsioni di quest'ultimo lasciando proseguire il solo segnale desiderato, amplificato e indistorto.
Il principio di funzionamento è semplice; un po' meno purtroppo lo è la sua messa in pratica: occorre curare con attenzione i rapporti in ampiezza e fase tra i segnali in modo che nessuno di essi arrivi "fuori tempo" perché altrimenti in tal caso la distorsione, anziché diminuire, aumenta in maniera disastrosa. Altrettanto curata deve essere poi la limitazione della banda passante dei segnali ammessa all'ingresso del sistema sempre per evitare "fuori tempo" che vanificherebbero l'intera utilità del circuito.
I vantaggi di questo tipo di amplificatore, soprattutto dove viene applicato (cioè in radiofrequenza) sono però altrettanto cospicui dei suoi problemi, in particolare due: 1) non esistono anelli di retroazione che introdurrebbero problemi di instabilità praticamente intrattabili; 2) non occorre disporre di alcuna riserva di "guadagno d'anello" eccedente le necessità dell'amplificatore per compensarne gli errori e le distorsioni - particolare questo estremamente importante in quando, ai tempi, ottenere elevati valori di amplificazione dai tubi elettronici, non era affatto uno scherzo. E, a radiofrequenza, non lo è neppure oggi, per quanto ormai si riesce a costruire amplificatori in grado di amplificare correttamente i segnali fino ad alcune decine di GHz usando dispositivi attivi concettualmente non troppo diversi dai transistori a effetto di campo usati in bassa frequenza.
In effetti il rendere disponibile un metodo per ridurre o compensare le non linearità dei circuiti senza sprecare guadagno per ottenere tale risultato era, se non il principale, sicuramente uno dei principali vantaggi portati dal feedforward nell'arsenale di tecniche disponibili agli ingegneri elettronici del tempo.
Un ultimo vantaggio è che non vi è alcuna necessità che gli amplificatori siano dello stesso tipo; anzi l''amplificatore ausiliario A2, essendo di potenza più ridotta rispetto a quello principale, può essere sia di costruzione più semplice sia di qualità effettivamente più elevata proprio grazie alla minore potenza che deve trattare.
I limiti del Feedforward
Accanto ai vantaggi pratici che il Feedforward presentava all'epoca della sua ideazione, il suo principale handicap sta nel fatto che non ha molto altro da offrire, soprattutto quando lo si confronti con quanto offre il Negative Feedback che, non a caso, lo soppianterà entro pochi anni, non appena prenderà piede l'uso di nuovi tipi di tubi amplificatori (i tetrodi, a partire dal 1927, e i pentodi dagli inizi degli anni trenta in poi) che oltre ad offrire a parità di tubi elettronici usati, un guadagno in tensione molto più consistente di quanto non facessero i triodi fino a quel momento, porranno per la prima volta agli ingegneri elettronici il problema esattamente opposto a quello comune ai triodi: ricavare dai nuovi tubi solo il guadagno di tensione che serve, evitando di sprecare l'eccedenza in attenuatori e simili. Un altro sprone venne dall'invenzione dei catodi a riscaldamento indiretto che mise a disposizione dei progettisti il catodo dei tubi come elettrodo a sé stante e indipendente dal circuito di accensione del filamento dei tubi. Ma andiamo con ordine, cercando anzitutto di metterci nei panni di chi, a metà degli anni venti del secolo scorso, doveva progettare e costruire un amplificatore a tubi con quanto teoria e pratica mettevano a disposizione a quel tempo.
Il materiale più importante per la costruzione di amplificatori elettronici, allora come oggi, erano i dispositivi attivi, all'epoca costituiti anzitutto da triodi prima e più avanti anche da tetrodi e pentodi, di cui il catalogo più famoso era quello della ditta Cunningham, che venne successivamente acquisita (mantenendone il marchio) dalla RCA. I triodi disponibili negli anni venti offrivano, nel migliore dei casi un fattore di amplificazione in tensione "mu" (µ) che erano mediamente compresi tra 5 e 20, valori che rendevano semplicemente impensabile l'uso di qualsiasi forma di retroazione che non fosse quella intrinseca (e non controllabile) al triodi stessi: in pratica essi potevano essere solo essere montati, accesi e sfruttati per l'intera amplificazione che riuscivano a dare in "natura", al più aiutati da un trasformatore di uscita con opportuno rapporto in salita. Tutto il resto era semplicemente utopia, soprattutto per quanto riguarda la stabilizzazione dei parametri di funzionamento nel tempo e tra esemplari diversi.
Con questi limiti il feedforward era l'unico sistema di correzione delle linearità disponibile anche tenendo in conto il fatto che, in ultima istanza, pure la cosiddetta "compensazione" delle non linearità non era (e non è a tutt'oggi) altro che una forma di feedforward più o meno mascherato, attuato tra due tubi in cascata piuttosto che tra due tubi circuitalmente in parallelo tra loro. I risultati ottenibili, pur non disprezzabili, erano giusto quelli che poteva passare il convento, sia pure al meglio della sua forma e, al di là del contenimento delle non linearità dei tubi stessi, non poteva offrire altro: tutto il resto doveva e poteva essere solo raggiunto con una rigorosa (e costosa) selezione dei tubi sia dal punto della similitudine dei parametri di lavoro, sia della qualità fisica della loro costruzione, soprattutto dal punto di vista della qualità del vuoto interno alle ampolle (una vera bestia nera che comportava una elevata quantità di scarti di produzione) sia della costanza di emissione catodica (anche questa una brutta bestia ma che per fortuna, anche grazie ad una padronanza della chimica già allora piuttosto matura e sofisticata, pervenne più rapidamente ad una soluzione piuttosto soddisfacente dal punto di vista della produzione industriale),
Peraltro anche la soluzione del primo problema (la bassa qualità del vuoto nelle ampolle), alla fine giunse anch'essa per via chimica, con l'invenzione e il miglioramento del "gettering", ovvero l'inserzione di "pastiglie" chimiche che consentì, attraverso l'applicazione sistematica del riscaldamento a radiofrequenza, di "ripulire" dall'interno, a tubo già sigillato, i residui gassosi presenti nell'ampolla, aumentando il vuoto a livelli sufficienti a far lavorare i tubi fino ad alcune decine di chilovolt senza incorrere nei problemi che avrebbe altrimenti comportato la ionizzazione dei residui gas presenti entro il bulbo che racchiudeva gli elettrodi separandoli dall'atmosfera. Questa parte della tecnologia di costruzione dei tubi fu quella che permise di avere disponibili tubi "a vuoto" che fossero ragionevolmente tali e lo restassero per tutto il periodo previsto di funzionamento del tubo prima del loro inevitabile esaurimento (periodo che passò nel giro di un decennio da alcune centinaia di ore ad alcune migliaia di ore di servizio).
L'evoluzione di questa tecnologia di controllo del vuoto fu anche ciò che permise, sul versante opposto, l'invenzione dei vari tubi a gas o a vapori di mercurio che, sviluppati in primo luogo per venire incontro alle esigenze della elettrificazione dei trasporti e dell'industria delle lavorazioni elettrolitiche, semplicemente, nel loro lungo interregno prima dell'avvento di semiconduttori adatti a trattare potenze industriali, consentirono a queste di ottenere, con quasi mezzo secolo di anticipo, economie di esercizio altrimenti impensabili.
Prologo tecnico all'invenzione della retroazione: diodi e triodi
Il requisito di base per ottenere una retroazione efficace - e ne vedremo poi il motivo - è disporre di un'ampia riserva di guadagno (in effetti la più ampia possibile) in modo che, una volta defalcata la quantità di guadagno necessaria ai nostri scopi, tutto il resto possa essere usato come vero e proprio anti-guadagno utile a sopprimere tutto quanto NON deve essere amplificato, incluso non linearità, disturbi ecc. ovvero utile a desensibilizzare (come si dice in gergo) il circuito verso tutto quello che NON è presente nel segnale di ingresso da amplificare, attenuandone il contributo fino a renderlo quanto più possibile irrilevante.
Per ottenere questo risultato occorre appunto disporre della maggior quantità di guadagno possibile e quindi, come è logico, occorre disporre di dispositivi che tale guadagno siano in grado di produrlo, cosa che i triodi da soli, quale che sia la loro qualità elettrica e costruttiva, NON sono in grado di fare, nonostante il loro principio di funzionamento e controllo della corrente che vi scorre sia identico a quello di altri dispositivi attivi in grado invece di conseguire gli alti guadagni richiesti: controllare l'intensità della corrente che li attraversa per mezzo di un campo elettrico che influisca sul moto delle cariche elettriche di cui questa stessa corrente è composta.
Un principio che governa TUTTI i dispositivi elettronici attivi usati nell'amplificazione analogica in elettronica: un flusso di cariche elettriche libere (elettroni nel nostro caso ma anche lacune nel caso dei semiconduttori) viene reso disponibile per formare una corrente elettrica pronta a scorrere verso QUALSIASI sorgente di campo elettrico di polarità opposta a quella di tali cariche applicato con un mezzo qualsiasi sul o attraverso il loro percorso (nel caso dei tubi, una tensione positiva che viene applicata a un qualunque altro elettrodo diverso dal catodo incluso nell'ampolla: l'anodo se si tratta di un diodo oppure qualunque altro elettrodo presente se si tratta di un tubo con più elettrodi: griglie, anodi secondari ecc).
Nel caso di un diodo a vuoto, l'intensità della corrente elettrica è definita unicamente dall'energia degli elettroni liberati dal catodo per effetto termoionico (e quindi dipendente dalla temperatura del catodo), dalla distanza tra il catodo e l'anodo, dalla superficie dell'anodo affacciata al catodo e dalla intensità del campo elettrico generata dalla tensione applicata all'anodo stesso. Una volta fissati i parametri fisici con cui è dimensionalmente costruito il diodo e una volta fissata la temperatura di lavoro del catodo, la corrente elettrica che scorre in un diodo è definita dalla tensione positiva applicata all'anodo e che, nei diodi reali, anche senza tensione anodica è sempre, per quanto piccola, un po' maggiore di zero a causa della cosiddetta "corrente di lancio" che altri non è che la corrente costituita da quella minoranza di cariche elettriche libere che, sotto l'effetto dell'energia cinetica procurata loro dall'effetto termoionico, riescono a raggiungere l'anodo per pura inerzia - corrente di lancio a cui è sempre bene trovare, se non esiste già nel circuito, uno scarico verso massa.
Di tutto questo guazzabuglio, l'unico dato "percepito" direttamente dalle cariche elettriche sono la variazione del campo elettrico e la sua direzione rispetto al loro moto (se c'è... e anche se non c'è! Rispetto al campo elettrico esterno conta anche la loro posizione) e, naturalmente, la loro energia cinetica sia rispetto al campo esterno sia rispetto al campo (repulsivo) esistente tra di loro.
A meno che il materiale non si trovi a temperature prossime allo zero assoluto, gli elettroni presenti in esso sono SEMPRE in moto poiché moto e calore, per un elettrone, sono esattamente la stessa cosa e cioè sinonimi di energia cinetica e di velocità. Ciò che cambia è solo la libertà di moto di questi elettroni; se il materiale è isolante, gli elettroni si limitano a vibrare intorno agli atomi di appartenenza che, a loro volta, fanno vibrare la struttura in cui sono inseriti aumentandone la temperatura fino ad arrivare eventualmente a scioglierlo o a incendiarlo. Se invece il materiale è un conduttore metallico, gli elettroni viaggiano liberamente all'interno della sua struttura facendola vibrare direttamente fino a portarla eventualmente al suo punto di fusione.
Gli elettroni presenti in un materiale e intorno a un materiale sufficientemente caldo da espellerli al di fuori della sua superficie vanno a formare la cosiddetta "nuvola elettronica", il cui equilibrio è dato dalla loro energia cinetica (legata alla temperatura del catodo che le espelle) e dall'attrazione che il catodo, parzialmente deprivato di tali cariche, esercita con il campo positivo prodotto dai suoi atomi ionizzati che in questo modo tendono a riprendersi indietro le cariche perse per riacquistare la loro neutralità elettrica (che è la condizione naturale di tutti gli atomi in assenza di stimoli energetici provenienti dall'esterno).
Gli elettroni presenti in un materiale e intorno a un materiale sufficientemente caldo da espellerli al di fuori della sua superficie vanno a formare la cosiddetta "nuvola elettronica", il cui equilibrio è dato dalla loro energia cinetica (legata alla temperatura del catodo che le espelle) e dall'attrazione che il catodo, parzialmente deprivato di tali cariche, esercita con il campo positivo prodotto dai suoi atomi ionizzati che in questo modo tendono a riprendersi indietro le cariche perse per riacquistare la loro neutralità elettrica (che è la condizione naturale di tutti gli atomi in assenza di stimoli energetici provenienti dall'esterno).
In assenza di altri campi elettrici all'interno del tubo, la nuvola elettronica rimane confinata intorno al catodo arroventato, senza esercitare altri effetti se non il disperdere intorno a sé il calore del catodo stesso. Le cose cambiano quando all'interno del tubo viene applicato, attraverso un elettrodo, uno o più altri campi elettrici che se sono negativi (anodo o griglie connessi al potenziale del catodo o resi ancor più negativi) "compattano" la nuvola di cariche attorno al catodo, mentre se sono positivi attraggono a sé gli elettroni dando origine a una corrente elettrica che cresce di intensità al crescere dell'intensità del campo positivo applicato sia al solo anodo sia al resto di eventuali altri elettrodi (griglie).
Se ad essere positivo è il solo anodo tutto il tubo si riduce semplicemente a un diodo la cui conduttanza specifica dipende dal campo elettrico applicato (e quindi dalla tensione dell'anodo) e, in misura minore, anche dalla disposizione spaziale degli altri elettrodi che contribuisce a definire la forma del flusso di cariche in transito nel tubo.
Tutto questo fino a quando la nuvola elettronica attorno al catodo dispone di sufficienti cariche libere da cedere al flusso della corrente che scorre nel tubo; quando tali cariche si esauriscono (ovvero il catodo arroventato non riesce ad emetterne altre oltre a quelle che ha già espulso) il tubo "satura", ovvero la corrente si attesta sempre più su un valore costante che non è più in grado di aumentare, cambiando così il comportamento del diodo da simile a quello di un resistore, in quello di un generatore di corrente costante il cui valore di corrente che lo attraversa diventa quasi indipendente dalla tensione applicata all'anodo, condizione questa che in un tubo conduce al rapido deterioramento del catodo: gli elettroni vengono letteralmente "strappati" dallo strato emittente (torio se a riscaldamento diretto o ossidi se indiretto) che finisce rapidamente per disintegrarsi facendo perdere tanto più rapidamente al catodo la sua capacità emissiva quanto più è alta la tensione applicata all'anodo. Il pericolo esiste anche in fase di accensione del tubo quando il catodo non ha ancora raggiunto la sua temperatura di lavoro, per cui occorre in diversi casi prendere la precauzione di applicare la tensione anodica solo DOPO che i catodi hanno raggiunto la piena temperatura di lavoro.
In condizioni normali di lavoro, i diodi termoionici esibiscono una resistenza interna relativamente bassa, da alcune decine ad alcune centinaia di ohm a seconda del tipo di diodo usato. Questa resistenza interna, per ogni tubo è definita, a ogni data tensione anodica applicata, unicamente dalla corrente in transito nel tubo stesso. Il comportamento del diodo, pur non lineare, è quindi puramente reistivo.
I diodi termoionici cominciano a condurre corrente non appena la tensione anodica, a partire da zero (in realtà, a causa dell'energia cinetica degli elettroni, una frazione di volt prima), assume valore positivo. La stessa cosa avviene in un triodo quando la sua griglia è connessa al catodo e quindi è elettricamente connesso a diodo in uno dei tre modi possibili per questi dispositivi: con griglia flottante (non connessa), connessa al catodo e connessa all'anodo - con ogni connessione corrispondente un diodo di caratteristiche differenti da quello ottenibili con le altre due.
Naturalmente la connessione più interessante del triodo è... quella a triodo, che permette di trasformarlo in un elemento in grado di regolare la corrente in transito nel tubo con un secondo elettrodo (e quindi un secondo campo elettrico) differente da quello prodotto dall'anodo: un secondo elettrodo che, potendo controllare la corrente in transito con una tensione o un segnale diversi da quelli presenti sull'anodo, consentono anche di costringere quest'ultimo a seguire le variazioni del segnale applicato all'elettrodo di controllo e quindi di amplificarlo.
Il pregio del triodo è quello di offrire la possibilità, controllando tramite la tensione di griglia la corrente in transito, di riprodurre come variazioni di corrente anodica, il segnale di controllo applicato sulla griglia. Il suo limite è invece quello di rimanere, visto dall'anodo, un diodo la cui corrente in transito continua ad essere definita ANCHE dalla tensione anodica in concorrenza con la tensione di griglia, una concorrenza che se da un lato consente di ottenere un'amplificazione in tensione relativamente poco dipendente dal carico, all'altra limita fortemente la massima amplificazione ottenibile (µ) a valori relativamente bassi rispetto a quelli ottenibili con altri dispositivi e che tendde a ridursi ulteriormente per i triodi di potenza, che non di rado esibiscono valori di µ semplicemente deprimenti (anche MOLTO sotto la decina di volte).
In queste condizioni gli accoppiamenti interstadio a trasformatore, nonostante le innumerevoli magagne che introduceva e il già allora alto costo dei componenti, era pressoché obbligato (come di fatto lo è ancora oggi per tutte le applicazioni a radiofrequenza, in cui l'adattamento di impedenza è conditio sine qua non per salvare tutto quel che si riesce a estrarre come guadagno da un circuito).
Utilizzare la retroazione in queste condizioni sarebbe stato non solo difficoltoso ma anche fortemente antieconomico: mentre con il feedforward ce la si "cavava" con un solo tubo in più da utilizzare come amplificatore ausiliario, con la retroazione, a parità di guadagno finale utile, per ottenerne dei vantaggi significativi sarebbe occorso almeno TRIPLICARE il numero dei tubi impiegati nei circuiti e i loro problemi: consumi, sostituzioni, manutenzioni ecc.
La svolta a metà degli anni venti.
Le cose cominciarono a cambiare significativamente dalla metà degli anni venti non tanto per motivi tecnologici quanto per motivi... legali. Fu in quel periodo infatti che, per porre fine a una infinità di feroci beghe brevettuali in tribunale che stavano bloccando disastrosamente l'evoluzione tecnica dei tubi elettronici, venne costituita come "bad company" la RCA che si prese l'incarico di acquistare tutti i brevetti in contenzioso e poi fungere da distributore unico e centralizzato di licenze che potevano essere così essere rese disponibili a tutti i costruttori di tubi a costi ragionevoli, permettendo quindi di spingere in avanti l'evoluzione tecnica del settore senza più vivere sotto l'incubo di micidiali contenziosi in tribunale con il rischio di andare in rovina per una qualsiasi, casuale o voluta, somiglianza di prodotti e tecnologie a vario titolo già brevettati. Un ruolo analogo, alcuni decenni dopo, venne svolto dalla compagnia telefonica Bell nei confronti dell'industria dei semiconduttori: in essa, sovvenzionata, indirettamente dal governo attraverso contratti militari, vennero svolte ricerche che si rivelarono poi basilari per trasformare la nascente industria dei semiconduttori da settore di nicchia specializzato a industria fondamentale dell'elettronica a partire dagli anni sessanta in poi.
La principale delle innovazioni fu a quell'epoca l'invenzione del tetrodo che, nato per sopperire ad un grave problema di accoppiamento interno tra anodo e griglia che rendeva piuttosto problematica la progettazione e la costruzione di amplificatori RF a triodi, si rivelò una boccata di aria fresca anche per l'amplificazione analogica in genere. Di costruzione più complessa e costosa dei triodi, fornivano però fattori di amplificazione in tensione pari anche a 600-700 volte per tubo, che i triodi potevano semplicemente sognarsi e che per la prima volta rendevano economicamente fattibile e applicabile l'uso della controreazione anche in apparecchiature commerciali e non solo sperimentali da laboratorio.
La ragione dell'alto guadagno in tensione dei tetrodi (e successivamente dei pentodi, che altro non sono che tetrodi migliorati) viene dal fatto che, a tutti gli effetti circuitali, un tetrodo non è altro che un cascode di un triodo reale con la griglia schermo che funge da anodo a tensione fissa, e un diodo "virtuale" saturato costituito dalla griglia schermo e dall'anodo vero e proprio.
In questo arrangiamento, il triodo costituito da catodo, griglia di controllo e griglia schermo a tensione fissa, la corrente viene controllata dalla sola griglia di controllo, cioè dalla sola transconduttanza del tubo. Dopodiché gli elettroni, accelerati dalla tensione della griglia schermo (che essendo appunto una griglia si comporta fisicamente - e volutamente - come un "colabrodo") prosegue verso l'anodo con un valore relativamente costante rispetto alle variazioni di tensione anodica, condizione questa che simulando (per il solo anodo) le condizioni di un diodo saturato in corrente, conferisce all'anodo la caratteristica alta impedenza di un generatore di corrente controllato in tensione, che è proprio quella che serve ad ottenere dal tubo un alto valore di amplificazione in tensione dipendente di fatto dal solo valore del carico, ovvero la stessa condizione che si realizza (intrinsecamente) nei transistori a effetto di campo (la cui possibilità era già stata adombrata fin dalla metà degli anni trenta) e dei transistori bipolari (che invece furono una vera e propria sorpresa e la cui teoria fu elaborata solo dopo alcuni anni la loro scoperta).
La ragione dell'alto guadagno in tensione dei tetrodi (e successivamente dei pentodi, che altro non sono che tetrodi migliorati) viene dal fatto che, a tutti gli effetti circuitali, un tetrodo non è altro che un cascode di un triodo reale con la griglia schermo che funge da anodo a tensione fissa, e un diodo "virtuale" saturato costituito dalla griglia schermo e dall'anodo vero e proprio.
In questo arrangiamento, il triodo costituito da catodo, griglia di controllo e griglia schermo a tensione fissa, la corrente viene controllata dalla sola griglia di controllo, cioè dalla sola transconduttanza del tubo. Dopodiché gli elettroni, accelerati dalla tensione della griglia schermo (che essendo appunto una griglia si comporta fisicamente - e volutamente - come un "colabrodo") prosegue verso l'anodo con un valore relativamente costante rispetto alle variazioni di tensione anodica, condizione questa che simulando (per il solo anodo) le condizioni di un diodo saturato in corrente, conferisce all'anodo la caratteristica alta impedenza di un generatore di corrente controllato in tensione, che è proprio quella che serve ad ottenere dal tubo un alto valore di amplificazione in tensione dipendente di fatto dal solo valore del carico, ovvero la stessa condizione che si realizza (intrinsecamente) nei transistori a effetto di campo (la cui possibilità era già stata adombrata fin dalla metà degli anni trenta) e dei transistori bipolari (che invece furono una vera e propria sorpresa e la cui teoria fu elaborata solo dopo alcuni anni la loro scoperta).
Il principio della retroazione
Nella figura sottostante si pu vedere lo schema base su cui funziona la retroazione negativa, quale che sia la sua natura - locale, globale o intrinseca ai dispositivi attivi finora noti, (triodi, tetrodi, pentodi, transistori bipolari o a effetto di campo).
Rispetto alla illustrazione del principio del feedforward vi sono due differenze sostanziali: 1) vi è un unico amplificatore INVERTENTE - A1 - il cui guadagno intrinseco è fissato al livello più elevato possibile compatibilmente con le possibilità offerte dall'amplificatore che ne costituisce il "cuore" attivo. 2) Il segnale che viene effettivamente amplificato da A1 è il segnale Verr, che viene generato dall'amplificatore stesso per produrre un segnale Vout che, sommato in controfase al segnale Vin, sopprima quest'ultimo quanto più efficacemente possibile e, al limite, disponendo idealmente di un guadagno infinito, lo azzeri completamente (cosa che avviene SOLTANTO quando il segnale Vout è ESATTAMENTE identico a Vin, una condizione limite puramente teorica, non raggiungibile in pratica anche se, compatibilmente con i problemi della stabilità di cui parleremo più avanti, vi si può approssimare a piacere).
Nell'illustrazione il segnale Vout è VOLUTAMENTE posto all'ingresso del sommatore perché esso, come vedremo, rappresenta IL VERO segnale di uscita del sistema retroazionato negativamente mentre il "Vout" che si preleva dall'uscita nominale dell'amplificatore ne è solo un passaggio intermedio che coincide con Vout SOLO in assenza del partitore composto da R1 e da R2, altrimenti è sempre pari a Vout moltiplicato 1+(R1/R2). Il fatto che poi per noi il segnale di uscita utile sia "Vout" e non Vout, è per il funzionamento del circuito retroazionato completamente irrilevante, se non per gli inevitabili effetti che le caratteristiche del carico di uscita esercitano nell'alterare sia le caratteristiche del partitore R1+R2 sia, soprattutto nel condizionare il valore del guadagno intrinseco reso effettivamente disponibile da A1.
La figura sopra, per quanto disegnato in modo anomalo, non è altro che un amplificatore operazionale non invertente che al limite, senza partitore, si riduce a un normale inseguitore di tensione. Essendo in effetti già una APPLICAZIONE della controreazione, per i nostri fini didattici non è molto utile. Ci serve qualcosa di molto più essenziale ma, come vedremo anche di importanza molto più cruciale per comprendere prima cos'è e poi cosa fa un anello di retroazione. In questo ci viene incontro la figura seguente.
Come si può vedere in figura vi è semplicemente un amplificatore invertente, cioè ÷A1. con l'uscita connessa direttamente al suo ingresso. La resistenza R1 con le altre grandezze ci servono a capire cosa è presente nell'anello di retroazione e attraverso questo capire il funzionamento suo e dell'intero circuito.
Di questo circuito vanno sottolineate tre cose: 1) nell'anello di retroazione è sempre presente SOLO e SOLTANTO il segnale Verr, che è tanto più piccolo quanto più è grande il guadagno dell'amplificatore e quanto più piccola è l'impedenza di uscita propria dell'amplificatore A1. 2) Verr è esattamente pari al segnale di ingresso necessario a far generare ad A1 la corrente necessaria a far sì che su R1 cada la differenza di tensione esistente tra Vin (che può avere un valore qualsiasi) e Verr. SE IL GUADAGNO di A1 FOSSE idealmente infinito, il valore di Verr sarebbe pari a zero e la corrente che scorrerebbe attraverso R1 sarebbe LA STESSA che avremmo se R1 fosse commesso allo zero di riferimento - solitamente ma non sempre coincidente con la massa anche se in realtà lo "zero" va inteso come quel nodo del circuito a cui sono riferite tutte le altre tensioni presenti nel circuito, in particolare i suoi punti di lavoro a riposo. Ovvero, detto con altre parole, connesso in questo modo l'ingresso di A1 si comporta, a meno del segnale Verr, COME SE FOSSE UNA CONNESSIONE A MASSA: qualunque segnale entri in VI, alla sua uscita, cioè all'ingresso di A1, VIENE AZZERATO.
Detto in altri termini, un amplificatore connesso in retroazione in questo modo si comporta non come un amplificatore di segnale ma come un SOPPRESSORE di segnale. Questo perché per un amplificatore connesso in questo modo l'unica condizione di equilibrio stabile è quella di assenza di qualunque segnale all'ingresso del sistema, condizione che, salvo ostacoli, raggiunge automaticamente e spontaneamente non appena il circuito dell'amplificatore A1 raggiunge la sua condizione di lavoro a regime, e che avviene al massimo entro una manciata di secondi dopo che A1 è stato connesso all'alimentazione.
Questa condizione di lavoro apparentemente assurda è in realtà la condizione base per ottenere in un circuito retroazionato tutte le prestazioni richieste da chi lo progetta, con le caratteristiche di stabilità e costanza delle prestazioni che si richiedono da questo circuito, stabilità e costanza il cui raggiungimento costituisce l'obiettivo e la ragion d'essere dell'uso di un amplificatore reazionato al posto di un normale, "semplice" amplificatore. Le figure seguenti ci aiuteranno a capire meglio la situazione.
Questa figura non è altro che quella precedente ridisegnata attorno ad un amplificatore operazionale vero e proprio. Le considerazioni fatte rimangono le stesse ma è ora più evidente da dove venga il riferimento di tensione a "zero" (in questo caso esplicitamente coincidente con la massa) che ci permette di chiarire un ulteriore dettaglio e cioè che in ultima istanza lo "zero" di un circuito in assenza di segnale non è altro che la sua polarizzazione a riposo, fatto che ci permetterà poi di estendere il discorso anche ai semplici circuiti composti da un singolo elemento attivo - bipolare, FET o tubo a vuoto che sia - in cui esiste già una retroazione intrinseca, Già più interessante è invece la figura seguente:
Nell'illustrazione è rappresentato un normale amplificatore operazionale connesso come amplificatore invertente in cui è stata inserita. rispetto alla precedente illustrazione, la resistenza Rfb che è esattamente quella che ci permette di ricavare dal circuito non solo un guadagno in tensione utile ma anche un guadagno dell'esatta entità che ci occorre, (quasi) indipendentemente dal guadagno intrinseco dell'operazionale A1.
Non è indispensabile che A1 sia un operazionale vero e proprio: quello che conta è che esso abbia due ingressi, uno invertente, a cui è agganciato l'anello di retroazione, e uno non invertente che possa essere usato come riferimento attorno a cui far lavorare l'anello di retroazione. Nei circuiti a singolo elemento attivo questo secondo ingresso è costituito, nelle connessioni più comuni ad emettitore, source e catodo comune, dal terminale assegnato appunto come comune tra il circuito di ingresso e il circuito di uscita, cioè quelli appunto con gli emettitori, i source e i catodi considerati comunemente "a massa" (in realtà il discorso vale anche per le altre connessioni - base, gate e griglia comune da una parte e collettore, drain e anodo comune dall'altra - ma, essendo meno ovvio il lavoro della loro retroazione intrinseca, li prenderemo in considerazione solo più avanti).
Al di là di questi dettagli, qualunque sia il genere di amplificatore preso in considerazione, l'anello di retroazione negativa, se impiegato, funziona comunque sullo stesso identico principio: cambiare l'effettiva natura del circuito da amplificatore a soppressore di segnale di ingresso, cioè esattamente quanto già accade nei circuiti nelle illustrazioni precedenti.
Le resistenze R1 ed Rfb dell'ultima illustrazione rappresentano quello che i tecnici definiscono come "blocco di retroazione" di cui occorre ora definire chiaramente la funzione che non è affatto definire "quanto amplificare" (che in realtà è un semplice effetto del funzionamento del circuito retroazionato) ma piuttosto il quanto far variare la tensione di uscita Vout rispetto alla variazione del segnale di ingresso Vin per ottenere, sull'ingresso invertente dell'operazionale il solo segnale di errore Verr (E NIENT'ALTRO) in modo da far comportare questo ingresso come una "massa virtuale" il cui valore sia, Verr a parte, quanto più identico possibile al valore della massa reale che, sull'ingresso NON invertente, funge da riferimento per l'intero circuito e che, in questo come in altri circuiti analoghi, coincide con la polarizzazione a riposo (cioè in assenza di segnale) dello stesso. Vediamo qualche dettaglio.
1) In assenza di segnale d'ingresso, nella resistenza R1 non scorre nessuna corrente e lo stesso accade nella resistenza Rfb. In queste condizioni il valore di Verr è pari al solo offset in tensione esistente tra gli ingressi dell'operazionale, tensione che l''operazionale compensa con uno spostamento della sua tensione di uscita, pari all'offset stesso, in modo da assicurare che nel blocco di retroazione, a parte l'eventuale corrente di polarizzazione dell'ingresso invertente (che scorre attraverso la sola Rfb), continui a non scorrere nessuna corrente.
2) Dal momento in cui sull'ingresso è presente un segnale di ampiezza qualsiasi (ma ovviamente entro i limiti di accettazione all'ingresso dell'operazionale che si sta usando) in R1 scorrerà una corrente di ampiezza conforme, secondo la legge di Ohm, all'ampiezza del segnale stesso. Corrente che dovendo essere identica a quella che scorre in Rfb OBBLIGA l'uscita dell'operazionale a generare una tensione di polarità opposta a quella del segnale di ingresso in modo da assicurare che su Rfb scorra, sempre in conformità con la legge di Ohm, proprio la corrente richiesta.
3) Questa tensione è legata alla tensione del segnale di ingresso dal rapporto Rfb/R1 che a seconda che questo sia uguale, superiore o inferiore all'unità APPARIRÀ come una semplice copia di polarità opposta del segnale di ingresso, oppure, sempre di polarità opposta, una sua versione "amplificata" oppure "attenuata" (gli amplificatori invertenti, a differenza di quelli non invertenti, possono anche attenuare il segnale di ingresso, fatto questo che li rende a volte più utili e flessibili rispetto a quelli non invertenti). Tutto questo avviene, a patto che il guadagno intrinseco dell'operazionale sia sufficientemente elevato rispetto al guadagno imposto dal blocco di retroazione, INDIPENDENTEMENTE dall'effettivo guadagno dell'operazionale usato e dipendente quasi unicamente dal rapporto Rfb/R1.
Le virgolette attorno alle parole "amplificata" e "attenuata" intendono segnalare che "attenuare" e "amplificare" sono in questo caso soltanto un effetto dell'amplificatore retroazionato e non la vera funzione di quest'ultimo, che è invece sempre e comunque quella di azzerare qualunque variazione di segnale all'ingresso invertente dell'operazionale rispetto alla condizione di assenza di segnale. Il solo segnale presente su questo punto, dovrà in ogni caso solo e soltanto il segnale di errore Verr e nient'altro.
Raccomando, prima di proseguire, una o più riletture di questi tre passaggi, solo in apparenza "ovvii", perché qui stanno tutti i misteri e le "magie" della retroazione negativa che in sostanza si risolvono tenendo a mente che un amplificatore retroazionato non è più realmente "soltanto" un amplificatore ma piuttosto un SISTEMA, di cui il circuito amplificatore vero e proprio che vi è necessariamente incluso, è soltanto il cuore attivo.
Amplificatore, anello di retroazione, e segnale di errore Verr
L'amplificatore che costituisce il "motore" di un sistema retroazionato si differenzia, rispetto a tutti gli altri tipi di amplificatori, soltanto per il fatto che il suo guadagno intrinseco viene massimizzato il più possibile per far funzionare l'anello di retroazione al meglio delle sue possibilità e potenzialità, evitando con tutti i mezzi disponibili il suo tallone d'Achille, cioè il SEMPRE possibile insorgere di instabilità catastrofiche. Per quanto, in ambito audio, i progettisti si adoperino in ogni caso per ottenere INTRINSECAMENTE le migliori prestazioni possibili, sul piano della linearità e della banda passante dall'amplificatore che intendono realizzare, il fine ultimo è sempre comunque quello di poter applicare in ogni caso, per le condizioni di lavoro previste, il massimo tasso di retroazione possibile in modo da rendere le prestazioni del sistema quanto più stabili e ripetibili possibile, con costi di realizzazione accettabili ma soprattutto molto più ragionevoli di quanto non comporterebbe la realizzazione di un amplificatore "nativamente perfetto" che l'esperienza ha più che abbondantemente dimostrato non essere un obiettivo raggiungibile (tranne che nelle chiacchiere da bar e... da forum naturalmente).
Maliziosamente si potrebbe dire che pretendere un amplificatore "perfetto" senza l'uso della retroazione è un po' come pretendere di avere (sempre nelle chiacchiere da bar...) una squadra di calcio che vince sempre e comunque senza fallo, un effetto che quando si è riusciti a realizzare, è stato a prezzo di quel particolare tipo di "retroazione" che è generalmente noto come "bustarella"...
Sfortunatamente l'elettronica, per quanto affidabile e leale dis quando ci si sforzi di capirla e usarla per quella che è e può fare, non è molto "sportiva" e barare pretendendo che faccia cose che non può fare non porta proprio da nessuna parte se non a buttar via soldi.
Una volta inserito all'interno di un anello di retroazione, un amplificatore continua a fare sempre il suo solito mestiere: l'amplificatore. Ciò che realmente cambia è da una parte il "cosa" amplifica e dall'altro il "come" amplifica. Sul come amplifica ci siamo già fatti un'idea che approfondiremo meglio nel seguito. Sul cosa dobbiamo invece ora cominciare a chiarire meglio che cosa si intende per Verr o segnale di errore, che non solo è il prodotto specifico che nasce dall'inserimento di un amplificatore in un anello di retroazione, ma è anche il solo segnale che tale amplificatore amplifica realmente.
Questo segnale, come abbiamo già detto, viene generato dall'anello di retroazione per sopprimere il più efficacemente possibile QUALSIASI altro segnale circoli entro l'anello stesso tendendo, come limite, anche a sopprimere sé stesso. Come abbiamo già detto, l'efficacia di tale soppressione (che definisce anche il valore minimo che deve avere Verr per mantenere comunque attivo il sistema) dipende dal massimo guadagno intrinseco reso disponibile dall'amplificatore utilizzato - il cosiddetto guadagno ad anello aperto, cioè SENZA retroazione - e che come tale è una proprietà dell'amplificatore stesso e non del sistema di cui fa parte (come vedremo, tra le proprietà intrinseche dell'amplificatore vi sono la sua banda passante ad anello aperto e, importantissime, le COMPENSAZIONI che consentono di mantenere la stabilità del sistema nell'ambito delle condizioni di lavoro previste).
Una proprietà cruciale dell'anello di retroazione è che esso tende a sopprimere i segnali circolanti al suo interno in QUALUNQUE nodo componente l'anello essi si manifestino. La figura seguente aiuterà a comprendere meglio il concetto.
L'amplificatore rappresentato in figura è una versione (un po' particolare) "multi-ingresso" dell'amplificatore invertente di cui abbiamo già visto le caratteristiche salienti qualche paragrafo sopra. In esso vi sono rappresentati cinque ingressi e una uscita con una resistenza Rfb suddivisa in cinque resistori in serie. Vi è anche segnata come sesto ingresso la possibilità di usare l'uscita direttamente come "ingresso" per vedere cosa succede. I cinque ingressi possono essere usati uno alla volta o tutti insieme per realizzare, se si vuole, anche un rudimentale (pessimo) DAC pilotabile direttamente da un'uscita digitale a 5 bit (non saprei dire se poi nella realtà un circuito del genere è effettivamente usato da qualcuno; dico solo che è possibile farlo).
Qui ci interessa soprattutto usare gli ingressi uno alla volta in modo da sottolineare come l'anello di retroazione, che è comunque sempre lo stesso, annulla il segnale sempre sul nodo in cui esso è iniettato, variando di conseguenza la tensione su Vout in modo da far scorrere sulla resistenza di ingresso coinvolta (R1, R2, R3....) la stessa corrente che vi scorrerebbe se essa fosse connessa a massa o al riferimento a cui è connesso l'ingresso non invertente.
1) se l'ingresso è Input-1 l'uscita si regola in modo tale da far scorrere sulla somma delle Rfb da 1 a 5 la corrente richiesta, con un quadagno di tensione pari a:
2) se invece l'ingresso è Input-2 l'uscita si regola in modo tale da far scorrere sulla somma delle Rfb da 2 a 5 la corrente richiesta, con un quadagno di tensione pari a:
3) se invece l'ingresso è Input-3 l'uscita si regola in modo tale da far scorrere sulla somma delle Rfb da 3 a 5 la corrente richiesta, con un quadagno di tensione pari a:
e così via anche con Input-4 e Input-5.. R1, R2, R3, R4. R5 hanno tutte lo stesso valore.
Il guadagno ottenibile è ovviamente massimo su input-1 e minimo su Input-5
Se ora consideriamo anche Input-6, ovvero l'uscita come se fosse un ingresso, otteniamo che un eventuale segnale applicato a questo "ingresso" attraverso una resistenza, farà scorrere su questa la stessa corrente che se fosse connessa a massa mentre se immettiamo un seguale qualsiasi senza interporre alcuna resistenza, l'uscita si comporterà, finchè non viene limitata da eventuali protezioni, nell'unico modo in cui può cancellare il segnale iniettato, ovvero comportandosi nei confronti di questo come un cortocircuito verso massa,che è tanto migliore quanto più elevato è il guadagno intrinseco di A1 e quanto più buone sono le capacità di erogare corrente sulla sua uscita. E se queste capacità sono quelle di un finale di potenza, gli effetti, a meno di opportune e tempestive protezioni, sono semplicemente disastrosi.
L'anello di retroazione ha, nella sua costituzione fisica, una seconda proprietà cruciale: SE IN UN QUALUNQUE NODO costituente il circuito dell'amplificatore SI VERIFICA UNA QUALSIASI VARIAZIONE rispetto al nodo di riferimento dell'anello di retroazione che, per qualsiasi motivo, può essere "vista" come segnale da quest'ultimo (solitamente a partire dai suoi effetti sull'uscita del sistema), l'anello di retroazione REAGIRÀ in modo da sopprimerne il più possibile gli effetti perturbativi che si ripercuotano al suo interno.
In "qualunque variazione" è compreso di tutto: variazioni di polarizzazione, di temperatura, di ripple sull'alimentazione, così come ogni tipo di non linearità che sia in grado di alterare, direttamente o indirettamente il valore di Verr, provocherà una reazione dell'anello che, come con ogni altro segnale, tenderà a ridurre il più possibile l'entità di questa alterazione.
In quest'ultimo passaggio sta la chiave di comprensione dell'intero funzionamento della retroazione e del suo utilizzo: non solo l'anello di retroazione cercherà sempre di ridurre ai minimi termini Verr ma anche le sue variazioni, da qualunque parte del sistema provengano. Vista in tal modo, si può dire che l'arte di utilizzare la retroazione consiste proprio nel far "reagire" l'anello di retroazione in modo tale che i suoi interventi correttivi delle perturbazioni, GENERINO ESATTAMENTE I SEGNALI CHE VOGLIAMO ESTRARRE DAL SISTEMA.
Nel caso più semplice, l'uso di un amplificatore come tale, l'intervento correttivo desiderato è precisamente una copia del segnale di ingresso al sistema opportunamente amplificata SENZA NESSUNA DELLE NON LINEARITÀ che l'amplificatore aggiungerebbe di suo qualora operasse privo di retroazione.
Vi è infine una terza proprietà dell'anello di retroazione che è in realtà il corollario di quella precedente e che in effetti è un altro modo di enunciare il principio di sovrapposizione degli effetti (un principio fondamentale della fisica di cui quello usato in elettronica è solo una delle sue innumerevoli manifestazioni): l'anello di retroazione reagisce, istante per istante, SOLO alle perturbazioni in quel momento presenti al suo interno fin dal momento che si presentano fino al momento in cui si estinguono. SE NON VI SONO NUOVE PERTURBAZIONI DEL SEGNALE DI ERRORE A CUI REAGIRE, l'anello di retroazione NON PRODURRÀ ALCUNA NUOVA CORREZIONE ma si limiterà a continuare a correggere quelle già presenti fino alla loro massima attenuazione ed estinzione possibile.
Il che equivale a dire che, semplicemente, di suo l'anello di retroazione, se stabile, NON INVENTA NIENTE. Quando "inventa" è perché l'amplificatore è divenuto instabile e pertanto, non riuscendo più a compensare le perturbazioni, l'anello di retroazione si mette a inseguirle trasformando le sue stesse correzioni in altrettante perturbazioni che, in assenza di contromisure (le famose compensazioni), diverranno inestinguibili. Vedremo ti dettagli di questo processo quando sarà il momento di parlare del problema della stabilità.
Il che equivale a dire che, semplicemente, di suo l'anello di retroazione, se stabile, NON INVENTA NIENTE. Quando "inventa" è perché l'amplificatore è divenuto instabile e pertanto, non riuscendo più a compensare le perturbazioni, l'anello di retroazione si mette a inseguirle trasformando le sue stesse correzioni in altrettante perturbazioni che, in assenza di contromisure (le famose compensazioni), diverranno inestinguibili. Vedremo ti dettagli di questo processo quando sarà il momento di parlare del problema della stabilità.
Un esempio pratico per capire meglio
Nella figura seguente è rappresentato, in forma molto sintetica e un po' rimaneggiata per facilitarci i conti, un TL071, un operazionale strutturalmente moto semplice e quindi ben adatto a capire come e quanto l'anello di retroazione in cui viene inserito ne muta il comportamento e le prestazioni.
Rispetto al vero TL071 è stata semplificata tutta la parte di circuito addetta alle polarizzazioni (che è stata sostituita da una coppia di generatori di corrente e, per lo stadio finale, da tre diodi) e lo specchio di corrente che carica il differenziale di ingresso per produrre un'uscita single-ended) e qualche altro particolare (la rete resistiva di uscita che nell'originale funge da rudimentale ma efficace protezione contro i sovraccarichi). Inoltre alcuni parametri (il beta dei transistori utilizzati, la transconduttanza del differenziale di ingresso, il condensatore di compensazione C1 e lo slew-rate che ne consegue) sono stati rimaneggiati per poter lavorare con cifre un po' più "tonde" rispetto alla realtà.
Nell'illustrazione è pure rappresentato, sovrapposto a un tratteggio grigio, il collegamento diretto di retroazione tra ingresso e uscita. È pure rappresentato, con la RL da 2 kohm, il carico standard su cui solitamente vengono effettuate le misure sugli operazionali. L'anello tratteggiato indica infine il nodo a cui è riferita la transconduttanza dello stadio di ingresso. Questa è a dire il vero un po' troppo generosa visto che, a parità di corrente di bias del differenziale, corrisponde a JFET circa 3 volte più performanti rispetto a quelli realmente utilizzati nel TL071... ma tanto ci pensa la controreazione a sistemare tutto, no? ;-). Un'altra grandezza macroscopicamente differente da quella dell'originale è la banda passante a guadagno unitario (GBW) che qui equivale a 10 MHz.
Per prima cosa occorre calcolare o almeno stimare alcune prestazioni intrinseche ad anello aperto di questo operazionale che ci serviranno poi per capire come si comporta il tutto una volta chiuso l'anelo di retroazione- In particolare dobbiamo calcolare:
1) La reiezione di modo comune (CMRR) dello stadio di ingresso e quindi la sua reiezione ai disturbi di alimentazione (SVRR), che per questo stadio non solo coincidono ma sono anche insensibili all'effetto soppressivo della retroazione in quanto il loro effetto appare come applicato ad ENTRAMBI gli ingressi e pertanto ininfluenti su Verr, cioè proprio sul parametro la cui variazione attiva l'anello di retroazione. In questo condividono la stessa sorte di un altro parametro tipicamente non influenzato dalla retroazione - il rumore di fondo dello stadio di ingresso - la cui minimizzazione può avvenire solo con un miglioramento qualitativo intrinseco al circuito e non può essere delegato alla controreazione.
2) La reiezione ai disturbi di alimentazione del moltiplicatore di transconduttanza (la vera SVRR dell'operazionale) composto da T2 e da T3. Questo parametro, a differenza del caso precedente, è sensibile all'azione della retroazione e quindi anche al decadimento del tasso di retroazione con il crescere della frequenza.
3) La transconduttanza totale di uscita prodotta sul collettore di T3.
4) Il carico effettivamente visto da T3 con l'uscita connessa a una RL di 2 kohm.
5) Sulla base dei risultati ottenuti da 3) e 4) il guadagno di tensione di tutto il circuito prima dell'intervento delle compensazioni (cioè, in pratica, valido per la sola corrente continua) che costituirà poi la base per calcolare Verr e gli effetti della retroazione in assenza di segnale di ingresso ma in presenza di disturbi di alimentazione.
6) Il decadimento delle prestazioni dell'operazionale al crescere della frequenza dei disturbi a causa dell'intervento delle compensazioni.
Per quanto riguarda il primo punto dobbiamo anzitutto fare alcune stime sulle non idealità del generatore di corrente che polarizza lo stadio di ingresso. Nel circuito originale del TL071, vi è un unico circuito di polarizzazione generale da cui sono poi derivati due ripetitori di corrente (un altro nome per gli specchi di corrente), uno per lo stadio di ingresso e uno per il VAS, qui rappresentato da T3. Questo circuito generale è composto da uno zener da 5 volt, polarizzato a sua volta da un generatore di corrente composto da un JFET tipo N e bufferizzato da un bipolare NPN che, con il suo collettore, polarizza i distributori di corrente prima citati.
Le prestazioni di questo sistema, pur decorose ancora oggi, sono tuttavia ben lungi dall'essere eccezionali (con valori di CMRR e SVRR attorno agli 80 dB) Siamo comunque nella media degli operazionali di questo tipo e quindi li adottiamo d'ufficio anche noi. Come vedremo tra poco, i veri guai della SVRR, soprattutto per quanto riguarda la sua dipendenza dal tasso di retroazione provengono dal VAS e dallo stadio di uscita.
Sul secondo punto, la SVRR dell'amplificatore di transconduttanza, tenendo conto che il collettore d T2 è connesso direttamente all'alimentazione positiva dell'operazionale e che T3 amplifica i disturbi che pervengono alla sua base dall'emettitore di T2, non possiamo aspettarci nulla di entusiasmante e infatti il valore della SVRR ad anello aperto ha un valore piuttosto nodesto che possiamo considerare, già con una certa larghezza di manica, attorno ai 10 dB, valore che già da solo ci dice che, senza retroazione, la SVRR è praticamente inesistente e che anche con la retroazione la preventiva stabilizzazione o almeno una vigorosa pulizia della tensione di alimentazione è, con questo operazionale un requisito OBBLIGATORIO per ottenere prestazioni decenti, a maggior ragione se si utilizza un'alimentazione duale anziché singola come a suo tempo feci con il pre di linea "SP-LIFE", prima pubblicato sulla rivista Costruire HI-FI a inizio 2010 e poi, con qualche modesta revisione, sul sito "Audioplay" del compianto Renato Giussani, scomparso a luglio del 2014.
Rimangono ora da calcolare la transconduttanza sul collettore di T3, il carico su cui questo lavora e infine il guadagno ad anello aperto che ne risulta. Partiamo dal lato più semplice, il carico di lavoro presentato al collettore di T3 che è composto dal parallelo dell'impedenza di uscita di T3 (stimabile, anche per l'effetto di retroazione locale in corrente fornito dalla resistenza da 68 Ohm in serie al suo emettitore in circa 80 kohm), dell'impedenza del polarizzatore di Bias da 1 mA (che essendo equivalente ad un transistor connesso a emettitore comune con la base connessa ad una sorgente - il diodo che la polarizza - con impedenza propria molto bassa - si può considerare pari all'inverso del suo valore di Hoe, solitamente pari, per i valori di corrente di riposo attribuitigli, a circa 30-40 kohm) e infine dal carico riflesso dallo stadio di uscita che equivale al suo beta (che abbiamo stimato in 80, abbastanza realistico per dei transistor integrati) moltiplicato per il carico RL da 2 kohm, ovvero a circa 160 kOhm (il "circa" qui va inteso non in senso strettamente aritmetico - dove infatti non vi è alcun "circa" - ma nel senso che sono solo stime abbastanza "occhio-metriche").
Il rapporto tra il carico intrinseco che il VAS presenta a sé stesso (circa 22 kOhm) e il carico di uscita riflesso, parti a circa sette volte assicura una certa invarianza del guadagno ad anello aperto (ancora da calcolare) e quindi anche una certa indolenza nei confronti dei carichi più balordi dal punto di vista reattivo.
La trasconduttanza di uscita del VAS si calcola rudemente moltiplicando la transconduttanza dello stadio ingresso (1.25 mA/V) per il prodotto dei beta di T2 e T3 che in questo caso ci danno un valore pari a circa 28 A/V (sì, proprio ampere/volt), che ci forniscono una guadagno ad anello aperto di circa 532.000 volte con il carico standard di prova RL= 2 kohm e di circa 616.000 volte a vuoto, circa il triplo di quanto specificato nei datasheet del TL071, come del resto vi era da aspettarsi visto che circa tripla è pure la transconduttanza dello stadio di ingresso del nostro modello rispetto a quella del vero TL071 (in quest'ultimo pari a soli 0.45 mA/V).
Il guadagno ad anello aperto qui trovato (AOL = 115 dB) vale in pratica per la sola corrente continua (o più precisamente al di sotto dei 16 Hz, frequenza a cui comincia a intervenire direttamente sul nodo di uscita dello stadio differenziale la capacità di compensazione C1 da 20 pF). A frequenze superiori il guadagno ad anello aperto cala proporzionalmente alla reattanza di C1 (ad esempio a 1 kHz il guadagno ad anello aperto del nostro modello vale soltanto 10.000 (AOL=80 dB), che pur essendo ancora un valore rispettabile, è ormai ben lontano dal guadagno intrinseco del circuito che abbiamo prima calcolato).
Per inciso questo è il solo vero difetto dell'uso della retroazione che, effettivamente, può "danneggiare" il suono di un amplificatore: il fatto che essa, a causa della necessità (per prevenire problemi di instabilità) di compensare in discesa il guadagno ad anello aperto al crescere della frequenza del segnale, diviene sempre meno efficace proprio con il crescere di quest'ultima.
Ne consegue che il valore intrinseco del guadagno ad anello aperto del circuito prima calcolato (AOL = 115 dB) è di fatto pura scena e, almeno in ambito audio, piuttosto truffaldino: una misura di questo parametro standardizzato alla frequenza di 1 kHz, pur indubbiamente di impatto "meno scenico", sarebbe decisamente più realistica. Discuteremo meglio più avanti delle conseguenze di questo limite e delle possibilità di alleviarne gli effetti - possibilità che, pur non potendo fare miracoli comunque esistono anche se, ahimè, sono tutt'altro che gratuite dal punto di vista progettuale e costruttivo (ma che sicuramente giustificherebbero meglio il loro costo di tante realizzazioni audiofile proposte a caro prezzo).
Per il momento proseguiamo occupandoci degli effetti correttivi della controreazione quando essa può lavorare lontano dai limiti di frequenza obbligati dall'uso delle compensazioni.
Le "magie" della controreazione e i loro "perché".
Fin qua abbiamo visto come effettivamente funziona la retroazione negativa e che cosa la controlla veramente: la massima minimizzazione del segnale di errore Verr (compatibilmente con il guadagno ad anello aperto disponibile) e delle sue variazioni. Ora proviamo a vedere e a capire gli effetti che questo comporta sul funzionamento di un circuito controreazionato.
Quando si parla in termini pratici della retroazione, la si suddivide generalmente in uno dei seguenti tipi a seconda di come è prelevato il segnale da inviare in retroazione e di dove e come questo è applicato all'ingresso dopo aver attraversato il blocco di retroazione stesso.
1) Retroazione tensione-tensione - Il segnale è prelevato in parallelo (quindi è una tensione) al carico del circuito e applicato in serie all'ingresso dello stesso. È il tipo di retroazione usato con gli amplificatori di tensione. Il segnale di retroazione è una corrente che viene convertita in tensione dal blocco di retroazione. La grandezza controllata in uscita è una tensione.
Nello schema soprastante e in quelle seguenti AVLOOP rappresenta il guadagno di anello che è in effetti una misura dell'efficacia della retroazione e come tale, una volta fissato il guadagno ad anello chiuso del sistema, è dipendente unicamente dal guadagno ad anello aperto dell'amplificatore AVOL e dal comportamento in frequenza delle compensazioni. I valori delle impedenze di ingresso (ZinOL) e di uscita (ZoOL) ad anello aperto sono ricavabili la prima dai datasheet e la seconda da una misura o, quando possibile da calcoli diretti sul circuito. Nel nostro modello vale circa 300 ohm, un valore abbastanza tipico di molti operazionali con VAS e stadio di uscita simili a quello del TL071 a cui ci siamo ispirati.
Le formulette valgono non solo per i circuiti basati su operazionali ma per qualsiasi tipo di amplificatore impiegante questo tipo di retroazione. Pur non tenendo conto, per semplicità di calcolo, degli offset in tensione e in corrente e delle correnti di bias dello stadio di ingresso degli operazionali reali, le formulette sono abbastanza corrette così come sono. In circuiti diversi da quelli degli operazionali tradizionali (o di operazionali con retroazioni in corrente) occorre invece applicarle con un po' di occhio, soprattutto per il fatto che le impedenze di ingresso e di uscita della parte attiva del circuito incidono in maniera molto più pesante sul funzionamento del medesimo di quanto non faccia il circuito interno di un normale operazionale.
In ogni caso, quale che sia il tipo di circuito attivo impiegato, TUTTI i parametri sono dipendenti dall'andamento in frequenza del guadagno ad anello aperto del sistema, cioè dalle sue compensazioni in frequenza. Le dipendenze in frequenza più importanti sono, ad anello chiuso:
A) Impedenza di ingresso che diviene para-capacitiva (cioè si comporta come un piccolo condensatore in parallelo all'impedenza di ingresso ad anelo aperto, formando con esso una costante di tempo di cui va tenuto conto per il comportamento della sorgente, sia essa passiva o attiva, ovvero consistente in uno stadio amplificatore precedente di cui può venirne influenzata la stabilità).
B) Impedenza di uscita che diviene para-induttiva (ovvero si comporta come un induttore che influenza il comportamento del carico o di un eventuale stadio amplificatore successivo).
Quest'ultima, nel caso la compensazione sia attiva (come in effetti quasi sempre è), cioè basata sull'effetto Miller di un piccolo condensatore connesso tra ingresso e uscita del VAS - che viene quindi a costituire un SECONDO anello di retroazione (locale) interno all'amplificatore - è para-induttiva già ad anello aperto, fatto di cui va tenuto debito conto per quanto riguarda la stabilità dello stadio di uscita vero e proprio, che può diventare aleatoria (se non illusoria tout-court...) anche nei cosiddetti "zero-feedback", in cui lo stadio di uscita, pur essendo lasciato fuori dall'anello di retroazione generale ESTERNO (quello "ufficiale"), rimane comunque sotto l'effetto di quello INTERNO, che continua imperterrito a esercitare la sua "malefica" (ma ahimè inevitabile) influenza...
C) Il guadagno di anello AVLOOP, che essendo responsabile dell'efficacia della retroazione lo è anche della sua "tenuta" in frequenza. In effetti esso è il vero bersaglio delle compensazioni, in quanto, in soldoni, aumentare la stabilità in frequenza di un sistema retroazionato significa nient'altro che aumentare l'ampiezza del segnale di errore Verr (che dipende a sua volta, come da formuletta, proprio dal rapporto tra il segnale di uscita Vout e il guadagno di anello AVLOOP) in modo da diminuire la vulnerabilità di Verr rispetto all'ampiezza delle perturbazioni che influenzano l'anello di retroazione globale.
Va qui notato che in caso di compensazione attiva basata sull'effetto Miller, essendovi appunto DUE anelli di retroazione, uno locale e uno globale, la diminuzione del guadagno di anello globale può, in certe condizioni di carico, trasformarsi in un boomerang in quanto così facendo AUMENTA la componente induttiva dell'impedenza di uscita che, in caso di combinazioni balorde con il carico di uscita vero e proprio dell'intero sistema, può DIMINUIRE anziché aumentare il margine di fase disponibile mettendo a rischio proprio ciò che si voleva proteggere, cioè la stabilità generale dell'amplificatore.
Infine un piccolo appunto sull'equazione del guadagno Av, in cui compare un "+1" che è la chiave per capire come, nonostante l'anello di retroazione sia COMUNQUE invertente, e segua in ogni caso la sua natura di "soppressore di segnale" minimizzando più che può il segnale Verr, l'intero amplificatore possa divenire non invertente senza per questo aggiungere un ulteriore stadio che inverta la fase del segnale prima del'ingresso o dopo l'uscita.
Se guardiamo da vicino la differenza tra lo schema di amplificatore invertente visto in precedenza per illustrare la natura dell'anello di retroazione con quello che stiamo usando ora per illustrare il caso dell'amplificatore non invertente, notiamo che sostanzialmente non abbiamo fatto altro che scambiare tra di loro la funzione di riferimento e di ingresso rispetto agli ingressi veri e propri dell'operazionale: Rin va ora a massa diventando Rfb-2, mentre il vecchio riferimento, invece che essere ancorato a massa, è divenuto flottante con l'andamento del segnale di ingresso, trasformando l'intero circuito in un inseguitore di tensione amplificato. Rispetto al partitore di retroazione composto da Rfb-1 ed Rfb-2, questo significa che su di esso si deve sviluppare una copia del segnale da "inseguire" (cioè il segnale di ingresso applicato al posto del vecchio riferimento a massa) più la parte amplificata del medesimo. La prima parte si sviluppa su Rfb-2 andando a costituire il "+1" di Av, mentre la seconda si sviluppa, sommandosi alla prima, su Rfb-1.
In entrambe le situazioni, il segnale di errore Verr viene in ogni caso sottratto al segnale di ingresso ed è il motivo per cui il segnale di uscita è SEMPRE un po' inferiore al puro e semplice prodotto Vin · Av e del perché il guadagno di un inseguitore di tensione (anche nella forma semplicissima di un inseguitore di emettitore) è sempre inferiore all'unità
Il buon e pignolo lettore attento ai dettagli si chiederà a questo punto: "Visto che tutti e cinque i segnali presenti nel circuito - segnale di ingresso, di uscita, amplificato su Rfb-1. inseguito su Rfb-2 e, buon ultimo, il segnale di errore Verr - risultano tutti in fase tra di loro rispetto a massa, l'inversione di fase dell'anello di retroazione dove cavolo è finita?". La risposta, naturalmente, è: all'interno dell'amplificatore.In entrambe le situazioni, il segnale di errore Verr viene in ogni caso sottratto al segnale di ingresso ed è il motivo per cui il segnale di uscita è SEMPRE un po' inferiore al puro e semplice prodotto Vin · Av e del perché il guadagno di un inseguitore di tensione (anche nella forma semplicissima di un inseguitore di emettitore) è sempre inferiore all'unità
Indipendentemente da come viene arrangiato l'intero circuito di un amplificatore retroazionato, esistono in essi tanti possibili anelli di retroazione, utilizzati o potenzialmente utilizzabili, quante sono le coppie di nodi a cui può essere applicato un segnale qualunque ottenendo in cambio un corrispondente contro-segnale che tende a sopprimere il primo, riducendolo in ogni caso ai minimi termini - cioè a Verr - compatibili con il guadagno ad anello aperto disponibile tra questa stessa coppia di nodi.
In realtà, purché vi sia dell'energia spendibile e vi sia un percorso chiuso in cui può essere spesa o almeno trasferita con continuità, qualunque coppia di nodi, anche quelli che legano (per esempio) una resistenza ad una batteria come a qualsiasi altro generatore di potenza elettrica costituisce già un sistema retroazionato: il generatore "non sa" quale valore ha la resistenza e questa "non sa" di quale tensione disponga il generatore; ciò che "informa" entrambi delle loro caratteristiche è la loro reciproca interazione (che è basata sul prinicipio di azione e reazione, la base di qualunque forma di retroazione) che impone un equilibrio il quale, in accordo con la legge di Ohm, imporrà alla resistenza, sottoposta alla tensione di un dato generatore, di assorbire da esso una precisa corrente, ovvero di far scorrere un determinato flusso di cariche elettriche, non un elettrone di meno e non un elettrone di più. La differenza in più o in meno provocherebbe una reazione del sistema per riequilibrare l'eccesso o il difetto delle cariche "dovute" dalla batteria alla resistenza.
Lo stesso principio vale in realtà per qualsiasi forma di fonte di energia purché vi sia un utilizzatore adatto: una resistenza "attaccata" ad una cascata d'acqua non farà un granché di utile ma una turbina "attaccata" alla stessa cascata d'acqua può fare un mulino (che trasferisce energia cinetica ad una macina, trasformandola in energia meccanica) o una centrale elettrica (che converte l'energia cinetica della cascata d'acqua in energia elettrica, di uso molto più flessibile dell'energia cinetica di partenza).
Rispetto al tipo di retroazioni fisiche citate che DIMENSIONANO e LIMITANO la massima disponibilità di energia o la sua conversione da una forma all'altra, la retroazione propriamente detta che viene usata in elettronica svolge una funzione "ortogonale" alle prime e cioè CONTROLLANO e REGOLANO, entro i limiti massimi concessi dalle limitazioni del primo tipo (o di tipo intermedio, ad esempio un fusibile o un magnetotermico), l'effettivo uso delle risorse disponibili.
La differenza cruciale tra i due tipi di retroazione è che il controllo del primo tipo dipende essenzialmente dai limiti fisici definiti una volta per tutte a livello costruttivo dei componenti del sistema, mentre quelle del secondo tipo sono controllabili CON CONTINUITÀ da un SEGNALE di CONTROLLO, il cui risultato può essere il controllo di un carico qualsiasi (che può essere sia un utilizzatore finale come un altoparlante all'uscita di un amplificatore di potenza, sia un ulteriore sistema di controllo, come lo è detto finale rispetto a un eventuale preamplificatore che lo precede nella catena di riproduzione).
Ritornando sui nostri passi, mentre la scelta della coppia di nodi su cui è applicabile il segnale di errore Verr che fa funzionare la retroazione può essere arbitraria e di pura convenienza progettuale, non sono arbitrarie le condizioni che rendono una coppia di nodi idonea o meno a realizzare un anello di retroazione: 1) la capacità detta prima di generare un contro-segnale che riduca ai minimi termini il segnale di errore: 2) La capacità di offrire un guadagno in potenza REALE nell'anello che si stabilisce tra i nodi della coppia scelta e 3) l'effettiva possibilità di controllare il segnale di errore da parte di un "rubinetto" idoneo, ovvero del blocco di retroazione - che nel caso degli amplificatori è giusto un partitore ma che in realtà può essere di qualsiasi natura purché adatta allo scopo da raggiungere. Di questi tre punti, i primi due DEVONO essere realizzati da una parte ATTIVA del sistema, ovvero da un amplificatore vero e proprio.
Al riguardo il punto "2)" è quanto mai cruciale per il funzionamento dell'anello di retroazione. Per comprenderlo meglio facciamo il semplice esempio di un trasformatore elevatore di tensione, usato come un amplificatore in tensione. Da solo NON PUÒ essere controreazionato con un collegamento tra primario e secondario (si otterrebbe soltanto di ridurre il trasformatore a null'altro che una ingombrante induttanza in parallelo alla sorgente...). Ma lo stesso trasformatore seguito da un inseguitore di emettitore da cui successivamente è prelevato il segnale da retrocedere sul primario PUÒ essere controreazionato, offrendo così una possibilità limitata ma reale di migliorare le prestazioni in frequenza e linearità del trasformatore stesso. Non un granché a dire il vero... ma se ci tenete ai trasformatori è pur sempre meglio di niente.
Sintesi degli effetti della retroazione tensione-tensione - A) il guadagno in tensione viene ridotto al valore fissato dal partitore di retroazione e la banda passante viene estesa fino al valore in cui il guadagno ad anello aperto AOL e il guadagno fissato dal partitore di retroazione coincidono (punto a -3 dB, corrispondente ad un guadagno effettivo in tensione del circuito pari a 0.707 - l'inverso della radice di 2)
B) L'impedenza di ingresso ad anello aperto viene moltiplicata per il guadagno di anello AVLOOP e si riduce al crescere della frequenza fino a quando, al valore di banda passante a - 3 dB, esso vale 1.41 volte - ovvero moltiplicato per la radice di 2 - l'impedenza di ingresso ad anello aperto. Generalmente in un operazionale questo dato rimane ininfluente anche ben oltre il limite di banda passate se confrontato con l'impedenza effettiva dell'intero circuito (in cui dominano i valori delle resistenze di bias, di gran lunga inferiori al valore dell'impedenza d'ingresso intrinseca della maggior parte degli operazionali - che, a parte il caso dei cosiddetti "current feedback", è sempre almeno di alcuni megahom anche con ingresso a bipolari. Con altri tipi di circuito (compresi qui gli operazionali "current feedback") occorre invece porre attenzione alle conseguenze della progressiva estinzione dell'efficacia della retroazione.
C) L'Impedenza di uscita viene invece ridotta al valore dell'impedenza ad anello aperto diviso per il guadagno AVLOOP, aumentando con la frequenza fino a raggiungere, al punto a -3 dB della banda passante, un valore pari a 0.707 volte - anche qui nient'altro che l'inverso della radice di 2 - il valore dell'impedenza di uscita ad anello aperto (dando, nel nostro modello, poco più di 200 ohm).
Le impedenze di ingresso e di uscita del vero e proprio circuito amplificatore sono, se compensato come quasi sempre è, SEMPRE COMPLESSE, ovvero composte da una parte resistiva e una parte reattiva (capacitiva per quanto riguarda l'ingresso e induttiva per quanto riguarda l'uscita).
2) Retroazione tensione-corrente - Il segnale è prelevato in parallelo (quindi è una tensione) al carico del circuito e applicato in parallelo all'ingresso dello stesso. È il tipo di retroazione usato con gli amplificatori di tensione invertenti. Il segnale di retroazione è una corrente. La grandezza controllata in uscita è una tensione.
2B) IMPORTANTE - Qualora all'ingresso di un amplificatore con questo tipo di retroazione sia applicata direttamente una corrente da una sorgente ad alta impedenza (ad esempio un DAC), l'amplificatore diventa un amplificatore di tranresistenza (che converte una corrente di ingresso in una tensione di uscita). In questo caso il segnale di retroazione è una corrente (coincidente con la corrente di ingresso) mentre la grandezza controllata in uscita rimane sempre una tensione. Questo tipo di amplificatore è stato molto usato in passato nei CD-Player come primo stadio analogico immediatamente a valle dei DAC, che escono in corrente (in realtà continua ad essere usato tuttora ma integrato nello stesso chip del DAC anziché come stadio separato)
Alle considerazioni già fatte per la retroazione tensione-tensione nella versione non invertente del circuito, va aggiunto che, mancando il termine "+1" nell'equazione definisce -Av (con il segno "–" per denotare proprio la natura invertente di questo amplificatore), l'amplificatore invertente, oltre che amplificare il segnale, può anche attenuarlo, rendendo così possibile un più fedele comportamento delle reti di equalizzazione quando inserite nel blocco di retroazione di un amplificatore.
3) Retroazione corrente-tensione - Il segnale è prelevato in serie (quindi è una corrente) al carico del circuito e applicato in serie all'ingresso dello stesso. È il tipo di retroazione usato con gli amplificatori di transconduttanza (che convertono una tensione in ingresso in una corrente di uscita). Il segnale di retroazione è una corrente che viene convertita in tensione. La grandezza controllata in uscita è una corrente.
3) Retroazione corrente-tensione - Il segnale è prelevato in serie (quindi è una corrente) al carico del circuito e applicato in serie all'ingresso dello stesso. È il tipo di retroazione usato con gli amplificatori di transconduttanza (che convertono una tensione in ingresso in una corrente di uscita). Il segnale di retroazione è una corrente che viene convertita in tensione. La grandezza controllata in uscita è una corrente.
4) Retroazione corrente-corrente - Il segnale è prelevato in serie (quindi è una corrente) al carico del circuito e applicato in parallelo all'ingresso dello stesso. È il tipo di retroazione usato con gli amplificatori di corrente. Il segnale di retroazione è una corrente. La grandezza controllata in uscita è una corrente.
In questa configurazione il carico, anziché essere connesso tra uscita e massa, cioè in parallelo alla rete di retroazione, è connesso in serie ad essa e ne è pertanto (sostituendo in parte o in toto la Rfb-1) parte integrale a pieno titolo. Per tale ragione è anche flottante rispetto a massa (nel caso di amplificatore non invertente) o al più (in caso di amplificatore invertente) connesso alla sola "virtual ground" (massa virtuale) che si forma all'ingresso invertente dell'operazionale sotto retroazione. A parte l'elevata impedenza di uscita del circuito rispetto al carico così connesso, valgono per l'intero circuito, sia in versione non invertente che non invertente, le stesse considerazioni fatte per il caso dell'amplificatore di tensione, comprese quelle relative alla dipendenza in frequenza dei vari parametri quando si abbia a che fare (come quasi sempre avviene) con un amplificatore compensato in frequenza.
Una importante (e pericolosa) caratteristica di questo tipo di amplificatore è la sua fortissima dipendenza, a causa dell'elevata impedenza di uscita, dalla natura del carico, che lo rende quanto mai incline ad entrare in autoscillazione con carichi di impedenza complessa.
Va notato peraltro che essendo COMUNQUE una rete di retroazione pilotata ad alta impedenza (cioè in corrente) questo pericolo esiste in ogni caso qualora per un motivo o per l'altro si debbano usare reti di equalizzazione in frequenza inserite direttamente nel blocco di retroazione (RIAA, NAB ecc. ma anche i controlli di tono attivi tipo Baxandall).
In questa configurazione il carico, anziché essere connesso tra uscita e massa, cioè in parallelo alla rete di retroazione, è connesso in serie ad essa e ne è pertanto (sostituendo in parte o in toto la Rfb-1) parte integrale a pieno titolo. Per tale ragione è anche flottante rispetto a massa (nel caso di amplificatore non invertente) o al più (in caso di amplificatore invertente) connesso alla sola "virtual ground" (massa virtuale) che si forma all'ingresso invertente dell'operazionale sotto retroazione. A parte l'elevata impedenza di uscita del circuito rispetto al carico così connesso, valgono per l'intero circuito, sia in versione non invertente che non invertente, le stesse considerazioni fatte per il caso dell'amplificatore di tensione, comprese quelle relative alla dipendenza in frequenza dei vari parametri quando si abbia a che fare (come quasi sempre avviene) con un amplificatore compensato in frequenza.
Una importante (e pericolosa) caratteristica di questo tipo di amplificatore è la sua fortissima dipendenza, a causa dell'elevata impedenza di uscita, dalla natura del carico, che lo rende quanto mai incline ad entrare in autoscillazione con carichi di impedenza complessa.
Va notato peraltro che essendo COMUNQUE una rete di retroazione pilotata ad alta impedenza (cioè in corrente) questo pericolo esiste in ogni caso qualora per un motivo o per l'altro si debbano usare reti di equalizzazione in frequenza inserite direttamente nel blocco di retroazione (RIAA, NAB ecc. ma anche i controlli di tono attivi tipo Baxandall).
5) Retroazione a prelievo misto - Questo tipo di retroazione avviene prelevando il segnale contemporaneamente in tensione e in corrente ed è particolarmente utile in quei casi in cui occorre avere una impedenza di uscita intrinseca ben definita in cui, per qualsiasi ragione, non sia possibile o non sia opportuno ricorrere a un adattatore resistivo (ad esempio in circuiti alimentati a bassa tensione e con swing della tensione di uscita poco o per nulla sacrificabile).
Vediamone un esempio impostato sulla base di un amplificatore in tensione non invertente (è possibile farlo anche invertente ma con una penalità piuttosto pesante: la corrente di ingresso deve essere pari a quella di uscita).
Il cuore di tutto il circuito, che gli dona la caratteristica di far vedere al carico una impedenza di uscita predefinita, sta nella resistenza RSNS (sense) che, come visibile nella figura soprastante, è condivisa nel percorso verso massa sia dal circuito di uscita sia dalla rete di retroazione, facendo sì che il nodo in comune che unisce tra di loro detta resistenza, il carico e la Rfb2 del blocco di retroazione venga a costituire una vera e propria "massa rialzata, rispetto a quella propria dell'intero circuito che muta drasticamente il comportamento del circuito che, pur rimanendo di base un amplificatore di tensione non invertente, nei confronti NON si comporta più come un generatore di tensione ideale ma come un generatore di tensione avente una ben precisa impedenza di uscita che altri non è che il valore della resistenza di sense moltiplicata per il guadagno in tensione che avrebbe il circuito se tale resistenza fosse sostituita da una connessione diretta con la massa effettiva del circuito.
Di questo guadagno in tensione occorre dire che esso vale SOLO in assenza di carico; qualora il carico venga connesso, il guadagno reale di tensione DIMINUISCE e viene a dipendere dal carico facendo comportare tutto l'amplificatore come un generatore di tensione avente una impedenza di uscita anche piuttosto consistente rispetto a quella di un amplificatore di tensione puro. Ed è proprio qui che sta il suo vantaggio: "contrabbandando una diminuzione del guadagno effettivo dell'amplificatore come un aumento della sua impedenza di uscita si ottiene il risultato di simulare una impedenza di uscita predefinita senza gli svantaggi di imporla con una resistenza reale che, oltre a dissipare potenza inutilmente, SACRIFICA anche le effettive possibilità di swing di uscita dell'amplificatore stesso - cosa che invece, con l'impedenza di uscita "virtuale" del circuito a retroazione mista, non avviene.
Sebbene questo circuito non venga usato molto spesso in forma diretta, lo è però in forma INDIRETTA (spuria e spesso pure all'insaputa) a causa di layout non ottimali che, attraverso la resistenza parassita delle piste di circuito stampato che realizzano i collegamenti di massa, vengono a costituire una vera e propria resistenza di "sense" (RSNS) invisibile ma elettricamente tutt'altro che intangibile che, di fatto, dotano gli amplificatori che ne soffrono di una vera e propria impedenza di uscita spuria anche molto più elevata di quella che ci si aspetterebbe dal loro schema elettrico.
Ed è proprio in questo comportamento che sta la chiave del "mistero" (ovviamente tutt'altro che tale) che rende ragione dello "strano" fenomeno per cui, a parità di circuito ma non di layout, due amplificatori possono "suonare" in maniera uno più eufonica dell'altro: proprio a causa del diverso comportamento dei diffusori quando vengono alimentati da amplificatori aventi, nei fatti, una impedenza di uscita nettamente diversa tra loro. Al riguardo si tenga conto che una resistenza parassita delle piste di circuito stampato da 50 milliohm, venendo moltiplicata per il guadagno in tensione del finale (tipicamente 20-30 volte), si può tradurre tranquillamente in una impedenza di uscita effettiva compresa tra uno e due ohm... Una impedenza di uscita piuttosto "valvolare" con tutte le influenze del caso sulla timbrica non tanto degli amplificatori (che, se ben progettati e costruiti, non ne hanno proprio nessuna...) quanto dei diffusori che vanno a pilotare che, in definitiva sono (come è giusto che sia) gli unici veri responsabili del suono della coppia finali-diffusori, al netto di qualunque manipolazione del segnale attuata a monte nei preamplificatori.
6) Retroazioni speciali - Convertitori logaritmici - Questo tipo di retroazione si realizza, nella sua forma più semplice (e non molto accurata), impiegando come elemento della rete di retroazione di un amplificatore invertente una giunzione PN (un diodo) con polarizzazione diretta, la quale si comporta intrinsecamente come una resistenza non lineare di valore decrescente con andamento logaritmico al crescere della corrente che la attraversa.
Una simile "resistenza", quando viene inclusa in una rete di retroazione di un amplificatore di tensione invertente al posto di Rfb-1, impone che la tensione di uscita dell'operazionale sia identica a quella che si sviluppa sulla giunzione PN per tener conto della corrente che la attraversa. Da questo punto di vista, una volta tenuto conto della natura particolare di questa "resistenza" , il circuito non è altro che un tipo di amplificatore di tensione (invertente) il cui guadagno, varia con il variare della corrente di ingresso al circuito.
Gli amplificatori logaritmici reali sono, a causa della necessità di compensare alcuni problemi intrinseci legati all'uso di un semplice diodo, abbastanza complessi ma il principio di base, far scorrere una corrente proporzionale al segnale in una giunzione PN per trasporne in uscita la tensione logaritmica risultante ai capi di essa, è identico per tutti.
7) Retroazioni speciali - Negative Impedance Converters (NIC) - Questo tipo di retroazione, dal nome esotico non è altro che una retroazione positiva accoppiata in parallelo ad una normale retroazione negativa. Nella sua forma più semplice è giusto una forma di bootstrap applicato all'ingresso, un "barbatrucco" circuitale ben noto a chi, lavorando con transistori bipolari (ma non solo), si è trovato per varie ragioni nella necessità di annullare gli effetti della loro impedenza di ingresso perché troppo bassa o comunque non idonea agli obiettivi da raggiungere.
Rispetto a questi ultimi, il NIC offre in più la possibilità di lavorare con un guadagno in tensione positivo maggiore di uno che, una volta fissato ad un valore preciso e definito dal ramo di retroazione negativa applicato sul lato invertente dello stesso circuito, permette a quest'ultimo di comportarsi come un circuito avente sull'ingresso una conduttanza praticamente nulla (a cui corrisponde una impedenza di ingresso praticamente infinita) o addirittura negativa - corrispondente appunto ad una impedenza di ingresso negativa o "attiva", che al crescere della tensione ai suoi capi reagisce DIMINUENDO la corrente che la attraversa, ovvero si comporta dinamicamente in maniera esattamente opposta a quella di una normale impedenza.
Per ogni ulteriore informazione sui "NIC" rimando alla lettura di testi specializzati. Qui ricordo solo che uno dei circuiti più classici (e anche "antichi") che usa un amplificatore operazionale in configurazione "NIC" - e lo fa dai tempi in cui questo acronimo non era nemmeno stato inventato - è l'oscillatore a Ponte di Wien, circuito con prestazioni da tempo superate da altri tipi di circuiti (basati soprattutto su filtri a variabile di stato) ma che per decenni è stato un vero mulo da lavoro in ogni laboratorio in cui vi fosse la necessità di generare segnali sinusoidali a bassa frequenza con distorsioni molto contenute (anche inferiori allo 0.01%, cioè -80 dB rispetto alla fondamentale, un risultato davvero notevole considerando la relativa semplicità circuitale di questo tipo di oscillatore).
Termina qui la prima parte di questo lavoro. Nella seconda tratteremo, a partire dal problema della stabilità, la retroazione vedendola dal suo interno (cioè i il suo modo di lavorare intrinseco) anziché dall'esterno (cioè gli effetti per i quali viene usata).
Piercarlo Boletti
(fine prima parte - 15 febbraio 2016)