Pallottino Cibern

You might also like

Download as pdf
Download as pdf
You are on page 1of 229
UNIVERSITA’ DEGLI STUDI DI ROMA "LA SAPIENZA" Dipartimento di Fisica Servizio Fotostampa Dispense Dispense del corso di Cibernetica generale 0 Eb Prof.ri_G.V. Pallottino - L, Zanello Roma, febbralot #83 70 / 12.200 CAPITOLO I GENERALITA' SULLA CIBERNETICA 1.1- Defi ione di cibernetica Lorigine della parola cibernetica detiva dal sanscrito kubara (timone) attraverso il greco KvBepvnm™ (pilota) ed la stessa dell'italiano governo. E'con riferimento a questioni potitico-sociologiche che fu usata, senza seguito, da Amptre nel 1834, ma é con assai pid vasto significato che fu reintrodotta da Wiener nel 1947, Secondo Wiener la cibernetica & la scienza della comunicazione e del controllo nelle machine ¢ negli esseri viventi. In una interpretazione ristretta si pud intendere la cibernetica come un tentativo di applicare alle scienze biologiche i metodi di studio delle scienze esatte e insieme di trarre insegnamento dalle caratteristiche degli esseri viventi per la realizzazione di sistemi tecnologici avanzati; mentre in una interpretazione pid larga la cibemetica é la scienza del comportamento ¢ dell'informazione, sotto il cui dominio cade qualunque tipo di oggetto o sistema che sotto questi punti di vista sia trattabile. In altre parole si tratta di applicare diffusamente una analisi comportamentale € funzionale (filosofia della scatola nera) a tutti i sistemi suscettibili di tale studio ed a tutti i livelli possibili. Si tratta in definitiva di caratterizzare e studiare i vari sistemi non in base alla loro effettiva struttura fisica, ma al loro comportamento, cio’ al tipo di relazione con Yambiente che li circonda, Cid permette di trovare analogie tra sistemi di tipo molto diverso ¢ pud condurre a stimolanti interpretazioni sul tipo di comportamento da essi mostrato in base a queste analogie. Un tipico esempio & quello relativo al concetto di omeostasi, con cui si indica Tinsieme dei meccanismi di regolazione biologica che mantengono un certo parametro caratteristico di un essere vivente entro limiti prefissati piuttosto stretti; basta Considerare la temperatura del sangue dell'vomo il cui valore & pari a circa 309 °K, ¢ che si mantiene costante con una precisione dell‘ordine di qualche per mille, al variare anche in modo assai rilevante, della temperatura esterna e solo nel caso di malattia subisce variazioni non trascurabili, anche se contenute entro poco pil dell! 1%o.. Ma Tomeostasi si pud riscontrare da un punto di vista puramente esterno in sistemi del tipo pi diverso, che possono andare dall'elettronica (per es. alimentatore stabilizzato) alla meccanica (per es. regolatore di Watt) all'ecologia, all'economia etc... 1 vantaggi offerti da una analisi comune di questo tipo di comportamento vanno ben oltre quelli, pur rilevanti, relativi alla uniformazione terminologica ¢ consistono non solo nell'utilizzazione in un campo di soluzioni gid trovate in un altro, ma soprattutto in una impostazione dei problemi che @ unitaria, astratta, formale e quindi ‘svincolata dal fatto contingente relativo alla struttura fisica di un particolare sistema considerato. In questo quadro per esempio si pud rilevare I'tilita di studiare su una base comune certi problemi che appartengono a diversi settori della fisica, come loscillatore meccanico ¢ quello clettrico, descrivibili ambedue mediante la stessa equazione differenziale lineare del secondo ordine o come la diffusione del calore nei solidi, la diffusione delle impurita nei semiconduttori, il moto dei fluidi nei mezzi porosi e le reti RC distribuite, a cui si applicano le medesime equazioni differenziali lineari alle derivate parziali. Una definizione della cibernetica da questo Punto i vista pit astrato & quela i tutti sistemi cibernetici pensabili. Cid che interessa la cibernetica non @ la realizzabilith di questi sistemi dal punto di vista fisico (meceanico ed energetico), ma solo il loro comportamento, cio’ le reazioni agli stimoli dell'ambiente, ove reazioni ¢ stimoli vanno visti dal punto di vista dell'informazione ad essi associata, piuttosto che dell'energia che pure & sempre indubbiamente in gioco. Ecco perche, secondo Ashby, la cibernetica lo studio dei sistemi aperti rispetto all'energia ma chiusi rispetto all'informazione (ed al controllo che ad essa pud essere associato). Ne consegue che la verita cibernetica non & condizionata da derivazioni di altre scienze, € che i suoi risultati sono altrettanto validi in condizioni fisiche completamente diverse da quelle dell'ambiente in cui sono stati dedotti; pi che della fisica la cibemetica si pud cosi considerare come una branca della matematica. Questa formalizzazione della cibemetica pud essere paragonata al caso della geometria che, natd come strumento della agrimensura, si 8 successivamente sviluppata come scienza formale, completamente astratta da legami con I'effettiva realta geometrica del mondo in cui viviamo. ‘Una sommaria e incompleta elencazione delle caratteristiche dei sistemi di interesse cibernetico pud essere la seguente: 12 1) ___risposta, cio’ capacita di fornire una risposta nota, in termini deterministici o probabilistici, ad un dato stimolo . 2) — regolazione, cioé capacita di mantenere entro certi limiti attorno ad un valore prefissato una data variabile del sistema, 3) —adattabilita, cio8 capaciti di mantenere costante un certo comportamento in presenza di forti variazioni ambientali. 4) apprendimento, cio® capacita di trarre profitto dalla esperienza per fornire un comportamento che @ sempre migliore, in media nel tempo, rispetto ad una opportuna definizione, 5) autoriproduzione, ciot capacita di produrre copie del sistema di partenza, in grado a loro volta di riprodursi. 6) evoluzione, cit capacita di trasmettere con la riproduzione, almeno parte + dell'apprendimento, dando luogo ad una specie'il cui comportamento &, in media, nelle successive generazioni sempre migliore rispetto ad una opportuna definizione. Si potrebbe concludere che Ia cibernetica & la teoria del comportamento di tutti sistem che presentano almeno una delle caratteristiche sopraclencate, senza occupars del fatto che essi esistano gid in natura o che siano realizzabili dal punto di vista tecnico, E'chiaro tuttavia da quanto si ¢ esposto, che non & possibile dare una definizione formale della cibernetica senza correre il rischio, da un lato di limitarne eccessivamente il dominio di competenza e dall'altro di intenderla come "scienza universale". 1.2 - Aspetti interdisciplinari e sviluppi della cibernetica. Come si gia accennato, lorigine storica della cibernetica & legata all'interesse di Wiener per l'applicazione di metodi matematici alla biologia ed alla sua collaborazione con medici e biologi, oltre che con ingegneri elettronici, fisici e logici matematici. Gia alle origini dunque, la cibernetica si poneva come scienza di confine 0 interdisciplinare e la fecondita dei risultati era largamente dipendente dallo stimolante L3 interscambio di concetti ¢ metodi tra studiosi di scienze diverse impegnati nello studio di uno stesso problema o di problemi con proprieta comuni. Mentre Ninquadramento formale dei risultati della cibemnetica cade certamente, come si 2 detto, nel dominio della matematica, lorigine di questa disciplina 2 strettamente legata all'ingegneria delle telecomunicazioni (direttamente interessata alla trasmissione dell'informazione) ¢ dei controlli automatici (interessata al problema del controllo soprattutto nei sistemi a controreazione); molta della terminologia cibernetica 2 infatti derivata dalla scienza dei controlli o automatica come oggi si preferisce dire. I risultati della cibernetica sono comunque applicabili alla biologia, alla medicina, all'economia, alla sociologia, all'ecologia, alla psicologia oltre che alle varie scienze dell'ingegneria; sono applicabili anche a varie scienze , sia pure per cid che riguarda solo alcuni aspetti parziali e collaterali. Per cid che concerne la medicina e la biologia vanno ricordati gli studi di Pavlov ‘sui riflessi condizionati nel cane (elementare forma di apprendimento). In particolare la fecondita dell'utilizzazione del concetto di controreazione ¢ pid in generale dei criteri sistemistici nello studio del funzionamento e delle affezioni di vari organi uma: Al confine tra psicologia e biologia sono i moderni studi sui processi cog sull'apprendimento ecc., che si avvalgono tutti della cibernetica, per lo meno come metodologia. Diversi studi su base cibernetica si sono anche condotti in campo socioeconomico, con risultati generali solo moderatamente interessanti a causa dell'estrema complessita di questi sistemi (misurabile per esempio in base al numero di ivi, variabili in gioco ed alla impossibilita di eseguire su di essi certi tipi di misure). Secondo Wiener la limitata applicabilita dei concetti cibemetici ai problemi socioeconomici & dovuta alla limitata statistica disponibile per essi. Tuttavia, utilizzando i calcolatori elettronici per la formulazione di modelli, si sono ottenuti risultati interessanti, per esempio per simulare leggi di comportamento sociale elementare ¢ V'interazione: tra politica dei vari governi durante una crisi internazionale. Di notevole interesse sono poi i risultati ottenuti da J. Forrester e collaboratori nella simulazione’di sistemi urbani ¢ del "sistema mondiale” mediante modelli realizzati su calcolatori, In tale lavoro si analizzava la complessa interazione fra diversi fattori che caratterizzano lo sviluppo ambientale ¢ sociale del nostro pianeta, quali ad eso sfruttamento delle risorse, l'inquinamento, lo sviluppo demografico etc... concludendo che esistono intrinseci imiti allo sviluppo". Altri due interessanti aspetti della cibemetica sono l'automazione ¢ la bionica (bionics). L4 Nel 1947 Harder della Ford Corp. defini 'automazione come il meccanismo di trasferimento e posizionamento da una macchina all‘altra, dei pezzi in una determinata lavorazione; derivé questo termine dalla fusione di automatico e produzione. Furono date in seguito varie altre definizioni a carattere anche pi generale come Fimpiego di macchine per azionare altre machine ecc. In ogni processo produttivo possono riconoscersi delle sequenze di operazioni elementari, a ciascuna delle quali si pud associare un indice di automatizzazione a seconda della maggiore o minore entit& dell intervento di un operatore umano; secondo gli studi di Bright, basati su indagini estese a vari tipi di industria, questi livelli sono 17. Si pud parlare di automazione, nel senso pid corrente del termine, solo per i pid clevati di questi livelli, ed @ a questi che viene associato I'impiego di sistemi di controllo automatic di crescente complessiti, fino all'uso di calcolatori per la realizzazione ed il coordinamento di questi. In generale si parla di automazione, quando in un processo produttivo si fa impiego di tecniche di strumentazione automatica (impiego di registratori automatici di dati, centralizzazione di comandi, allarmi ¢ sicurezze), di controllo automatico ¢ di calcolo automatico (calcolatori automatici in linea o fuori linea). Va rilevato che Y'applicazione dell'automazione & possibile solo dopo uno studio cibernetico o sistemistico delle caratteristiche del processo che si vuole automatizzare. Col nome di bionica si indicano gli studi condotti con la metodologia cibernetica, derivata soprattutto dall'elettronica e dai controlli automatici, in certi campi della biologia (per esempio l'olfattronica) . In un certo senso il termine bionica tende oggi a sostituire il termine cibernetica per lo meno dal punto di vista degli studi in campo biologico. Alsi sviluppi molto interessanti sono quelli della bioingegneria soprattutto nel campo delle protesi, cio’ della realizzazione di organi artificiali, 1.3 - Machine che imparano e che si riproducono Tra i pitt interessanti obiettivi della cibernetica vi & quello dello studio e della realizzazione di machine che esibiscono un comportamento che pud essere chiamato intelligente, Sorge a questo punto la questione se tale aggettivo possa o meno essere attribuito ad una machina, LS Tra Valtro la diffidenza verso I'uso delle locuzioni "intelligente e pensante” & alimentata anche dalla diffusione di opere divulgative di tipo fantascientifico in cui si parla di cervelli elettronici e di machine pensanti con senso della misura assai limitato. A parte questo, le ragioni in base alle quali si vuole negare che le macchine Possano avere un comportamento intelligente si possono raggruppare, come segue, secondo lo schema di Turing: a) Non si vuole ammettere la possibilita che il genere umano abbia rivali in potere intellettuale. Cid & specialmente vero da parte degli intellettuali; ma anche chi disposto ad ammetterlo lo trova molto sgradevole. b) Si ritiene irriverente dal punto di vista religioso tentare di costruire machine siffatte. ©) Si ha solo una scarsa conoscenza delle caratteristiche delle machine sinora realizzate ¢ si crede (erroneamente) che esse siano limitate a compiti molto semplici di tipo ripetitivo. 4) Si ritiene che se una machina mostra intelligenza questa va considerata solo come un riflesso di quella del progettista della macchina stessa. In realta le obiezioni a) ¢ b), essendo di natura esclusivamente emozionale, non meritano neppure di essere discusse, tuttavia si potrebbe dire che porre limiti alla provvidenza divina & altrettanto irriverente. Lobiezione c) @ superata da una adeguata documentazione sulla capacita di calcolo ¢ di memoria delle macchine oggi disponibili. Libiezione d) assomiglia al discorso in base al quale il merito delle scoperte dell'allievo dovrebbe andare al maestro, In realt& al massimo ci si pud complimentare col maestro per la bonta dell'insegnamento, E difficile, in conclusione, trovare una ragione a priori per negare che le machine Possano comportarsi in modo intelligente. D'altra parte vi sono numerosi esempi di macchine speciali e di calcolatori opportunamente programmati, al comportamento delle quali 2 difficile negare Taggettivo intelligente, dopo averne esaminato a lungo il funzionamento effettivo. Vanno citati a questo punto, a parte la famosa tartaruga di Grey Walter e Tomeostato di Asby, i programmi per il gioco della dama di Samuel ¢ la dimostrazione dei teoremi di Watanabe, Gelernter e Rochester ed altri, L’apprendimento pud essere definito come la capacita di trarre profitto dall'esperienza, cio’ dai risultati delle passate interazioni con ambiente, per migliorare L6 in media il livello del proprio comportamento, ove tale livello va definito Opportunamente in precedenza. Si ha cost un comportamento di tipo teleologico, cice indirizzato ad un certo obiettivo, Resta naturalmente aperto il problema della coscienza associata a tale comportamento esterno; tattavia lo stesso problema pud essere proposto a proposito degli uomini. Secondo Turing un test efficace per stabilire se una macchina pud essere definita Pensante o meno & quella di intavolare con essa una conversazione per telescrivente € vedere se si @ in grado di decidere in base a questa, se si tratta di un uomo o di una macchina. Sempre secondo Io stesso autore, quando i calcolatori elettronici avranno raggiunto una sufficiente capacita di memoria, un operatore umano di caratteristiche medic non sar’ in grado di effettuare in modo corretto la decisione di cui sopra. Per cid che riguarda l'apprendimento negli esseri viventi, mentre in passato si considerava tale caratteristica propria dei soli esseri umani, le esperienze di Pavlov hanno dimostrato che, almeno in certe forme, & presente negli animali. Lresperienza di Pavlov consiste nel precedere la somministrazione di cibo ad un ‘cane con un suono di campana; dopo un certo numero di prove si ha salivazione del cane come reazione al suono della campana, anche se non si ha somministrazione di Cibo. E' questa una forma elementare di apprendimento guidato. Esperienze pid recenti ¢ assai pid complesse eseguite specialmente su topi, hanno condotto ad ulteriori sviluppi ¢, in connessione ad altre esperienze eseguite sugli uomini, alla creazione della disciplina della psicologia sperimentale, nell'ambito della quale sono state proposte delle teorie dell'apprendimento, essenzialmente di tipo statistico. Fondamento comune di quasi, tutte queste teorie @ che la probabilita di un certo tipo di comportamento in una certa situazione viene modificata in base ai risultati cui hha dato luogo la scelta che si @ effettuata in precedenza nelle stesse condizioni ed in Particolare aumenta se il risultato 2 stato soddisfacente viceversa. Un aspetto ‘interessante di questi conceiti & che sono stati utilizzati vantaggiosamente nella impostazione di macchine in grado di apprendere. Negli esseri viventi si pud interpretare l'intera evoluzione della specie come un Processo di apprendimento estremamente lungo, chiamato filogenesi, che viene Completato dall'apprendimento (ontogenesi) del singolo individuo. Una classificazione degli esseri viventi dal punto di vista dell'apprendimento pud essere fatta in base alla diversa entita relativa dell'apprendimento ontogenetico e filogenetico che si ha con essi. 7 Si ha cosi la distinzione tra esseri estremamente adattabili, la cui sopravvivenza non & associata né all'istinto né ad un particolare ambiente, ma piuttosto alle possibilitt di apprendimento ontogenetico. Un parallelo con questo discorso pud farsi per le machine, per esempio per i sistemi di controllo, ove la filogenesi pud essere associata all'impegno di studio del progettista ¢ la ontogenesi alla possibilita lasciate all'apprendimento da parte della machina; quanto maggiore & il grado di liberta che si lascia alla macchina, tanto maggiore & il suo grado di universalita, cio® 1a sua possibilita di adattarsi a nuove esigenze, non previste nemmeno dal progettista. Perch si abbia l'apprendimento in una macchina & necessario che essa sia in grado si effettuare scelte autonome con tecniche sistematiche 0 casuali : queste ultime sono piuttosto interessanti sia per l'assenza di apriorismi, sia per la somiglianza con il comportamento degli esseri viventi, sia infine perché sono unica possibilita quando lo spazio delle scelte & vasto, E’ necessario inoltre che la machina sia in grado di valutare i risultati confrontandoli con quelli ottenuti in precedenza e di aggiornare in ‘conseguenza il piano di scelte future. In altre parole, in base all'esperienza, le macchine costruiscono delle ipotesi la cui validita, con ulteriori esperienze, viene saggiata nei confronti dell'ambiente che la circonda. Le ipotesi migliori sono poi scelte in base ai risultati. In alcuni tipi di machine tuttavia il processo di istruzione & guidato dall'esterno fino a che si & ottenuto un livello soddisfacente di prestazioni (fase di apprendimento guidato o forzato) cui segue una fase di operazione a programma fisso. Per cid che concerne la possibilita di fealizzare macchine che si autoriproducono, Ja risposta data sia da Wiener che da Von Neumann é affermativa. Secondo Von Neumann la riproduzione & possibile in quanto 2 possibile realizzare una machina che, fornita di un numero sufficiente di parti componenti e di tuna adeguata descrizione della macchina che deve costruire, la realizza. Se, a questo punto, alla macchina realizzata viene fornita anche, grazie ad un semplice processo di copia, la descrizione di cui sopra, essa realizzerd a sua volta una nuova machina, purché si trovi in an mezzo ove esistono sufficienti parti componenti da usare nella costruzione. Tutto cid richiede, naturalmente, che la descrizione (0 istruzione) definisca esattamente la machina di partenza con dispositivo di copia e I'unita di controllo, Per Veffettiva realizzazione delle machine che si riproducono, Wiener suggerisce Tuso di sistemi nonlineari universali, in grado cio? di imitare il comportamento di qualsiasi sistema lineare stazionario. L I sistema di partenza consiste quindi in una machina di tipo universale la cui uscita @ una certa funzione nonlineare dell'entrata; la generazione di una nuova macchina si ottiene specificando il valore di un certo numero di parametri o coefficient che determinano il particolare tipo di machina generata e le sue capacita di “riproduzione". In effetti, benché sistemi adattivi universali, utilizzabili in applicazioni di questo tipo, siano gid stati realizzati e la procedura di specializzazione di questi a realizzare la funzione desiderata sia molto simile a quella suggerita da Wiener, non risulta che sistemi completi in grado di autoriprodursi siano stati realizzati. 19 Capitolo II SISTEMI LINEARI E STAZIONARI NEL DOMINIO DEL TEMPO 2.1 Generalita sui sistemi La teoria dei sistemi @ quella parte della cibernetica che si occupa delle proprieta matematiche dei sistemi, intesi come modelli di aggregati di oggetti fisici, con particolare riferimento alle relazioni che intercorrono fra i segnali d'ingresso e quelli d'uscita, intesi come grandezze fisiche variabili nel tempo che trasportano informazione. Sotto questo punto di vista, il sistema @ una scatola nera, che costituisce un modello del sistema fisico considerato (elettrico, termico, meccanico o di qualsiasi altra natura fisica), di cui interessa solo il legame fra i segnali applicati in ingresso e quelli che . si presentano in uscita (rappresentazione ingresso-uscita). Il sistema, in alternativa, pud essere considerato una scatola grigia, della quale si evidenziano le grandezze variabili che ne rappresentano’lo stato interno. In tal caso interessano le relazioni fra gli ingressi, le variabili di stato e le uscite o-stato-uscita). Questo punto di vista, (rappresentazione ingresso- che @ pid generale del precedente, costituisce la base della moderna teoria dei sistemi. Tuttavia, in quanto segue, faremo riferimento quasi esclusivamente alla teoria sviluppata in termini di rappresentazioni ingresso-uscita. Sottolineiamo ancora la natura astratta e formale della teoria dei sistemi, la stessa natura della teoria dei circuiti (che costituisce una parte della teoria dei sistemi). Nella teoria dei circuiti, ricordiamo, le reti elettriche vengono studiate in quanto costituite non da elementi reali (con effetti parassiti, nonlinearita, dipendenze dai pid vari effetti fisici), ma da elementi idealizzati che sono definiti in termini di relazioni matematiche fra tensione e corrente (equazioni costitutive), Elenchiamo ora in quanto segue alcuni dei problemi fondamentali della teoria dei sistemi: classificazione dei sistemi (in base al tipo di segnali in gioco e alla natura dell'elaborazione eseguita su questi); caratterizzazione dei sistemi (individuazione e rappresentazione delle relazioni ingresso(-stato)-uscita e trasformazioni fra l'uno e l'altro tipo di rappresentazione); identificazione dei sistemi (determinazione sperimentale dei legami ingresso-uscita); analisi; sintesi; controllo; ottimizzazione; affidabilita (intesa come probabilita di buon funzionamento di un sistema in relazione alle probabilita di buon funzionamento delle sue parti componenti e alla struttura del sistema stesso). Ai fini della classificazione dei sistemi, alcune possibili distinzioni sono le seguenti: a) lineari - nonlineari b) stazionari - non stazionari (time varying) ¢) statici - dinamici 4) a costanti concentrate - a costanti distribuite e) a tempo discreto o a dati campionati - a tempo continuo £) a stati discreti - a stati continui g) deterministici - probabilistici (o stocastici) Rimandando al paragrafo seguente la discussione sulle distinzioni a) e b), precisiamo subito che i sistemi che tratteremo in questo corso sono generalmente quelli, chiamati analogici in elettronica, in cui i valori sia del tempo che delle variabili in gioco sono considerati come numeri reali (nel capitolo V tratteremo peraltro i sistemi a tempo discreto, di importanza sempre crescente grazie alla diffusione delle tecniche di elaborazione digitale). I sistemi di nostro interesse sono poi generalmente dinamici e deterministici. La distinzione fra sistemi statici (istantanei) e sistemi dinamici (con memoria) @ la seguente: nei primi, descritti da equazioni algebriche, le uscite a un dato istante dipendono unicamente dai valori degli ingressi a quello stesso istante; nei secondi, invece, le uscite dipendono anche dai valori assunti dagli ingressi a tempi precedenti all'istante considerato. Questa proprieta di memoria é@ ‘evidenziata efficacemente nella rappresentazione ingresso-stato-uscita, in cui si ammette che la funzione degli ingressi sia quella di modificare il valore delle variabili di stato (ciascuna delle quali rappresenta un elemento dotato di memoria), mentre le uscite sono espresse da opportune funzioni algebriche delle variabili di stato. Si pud considerare anche il caso dei sistemi dinamici anticipativi (non causali e quindi non realiazabili fisicamente) in cui le uscite, a un dato istante, dipendano anche dai valori futuri degli ingressi. Per sistemi deterministici s'intendono quelli le cui uscite dipendono deterministicamente dagli ingressi: i parametri che figurano nelle relazioni matematiche che li descrivono sono dunque grandezze costanti oppure variabili nel tempo secondo una legge determinata. Nei sistemi probabilistici, invece, i valori che assumono tali parametri sono soggetti a incertezza e vengono aunque espressi in termini di distribuzioni di probabilita. L'interesse per i sistemi probabilistici nasce fra 1l'altro dal fatto che essi costituiscono un modello per la rappresentazione dei disturbi casuali di tipo parametrico (in particolare di tipo moltiplicativo), il cui effetto @ assai diverso da quello dei segnali di disturbo usuali (rumore), che sono invece additivi rispetto agli altri segnali. L'approccio probabilistico, inoltre, costituisce la base per lo studio dei problemi relativi all'affidabilita. E qui ricordiamo che si realizzano oggi sistemi che devono presentare ottima continuita di funzionamento pur essendo costituiti da componenti (anche in numero grandissimo), che sono soggetti a guasti descritti in termini di probabilita. Si utilizzano a questo fine strutture particolari che sono derivate appunto da una analisi su base probabilistica. La rappresentazione formale di un sistema fisico nel quadro della teoria dei sistemi, per quanto si @ detto all'inizio, equivale a stabilirne un modello matematico, che pud tener conto, evidentemente, solo di una parte limitata della fenomenologia del sistema reale che si considera. Ma proprio per questo i modelli rappresentano un mezzo d'indagine potentissimo: essi permettono di concentrare l'attenzione sui soli aspetti d'interesse ai fini che ci si propone di studiare, trascurando deliberatamente tutto il resto, col vantaggio di una grandissima semplificazione, sia concettuale che pratica (si pensi, ad esempio, alla potenza del concetto di "punto materiale" o a quello di “carica puntiforme"). L'impiego di modelli matematici @ oggi generalmente Preferito rispetto al metodo delle analogie, che riconduce il sistema in studio a uno di diversa natura fisica, ma descrivibile con le stesse leggi matematiche. I1 metodo delle analogie é utile quando @ noto in qualche modo il comportamento del sistema utilizzato nella analogia, e lo studio diventa allora pit agevole. L'analogia pit nota @ quella, introdotta da Maxwell, fra sistemi meccanici e sistemi elettrici, che pone in relazione le differenze di potenziale con le forze, le intensita di corrente con le velocita relative (resistore-smorzatore, induttore-massa, condensatore-molla). Ma numerose altre analogie sono state Proposte, alcune delle quali sono ampiamente usate in pratica, per esempio quella fra sistemi termici e sistemi elettrici. Per quanto riguarda le variabili d'ingresso e di uscita, si considerano tali, in linea di principio, tutte quelle attraverso cui il sistema fisico considerato scambia informazioni con l‘ambiente che lo circonda. Di questi segnali, che possono avere il supporto fisico pid vario (tensioni elettriche, correnti, spostamenti, forze, concentrazioni chimiche, flussi di calore, flussi di particelle, ecc.), si considerano naturalmente soltanto quelli di effettivo interesse ai fini del modello considerato. La suddivisione di queste variabili fra l'insieme d'ingresso e quello d'uscita @ abbastanza semplice nei sistemi artificiali, costruiti per uno scopo determinato: variabili indipendenti (o d'ingresso, o eccitazioni) sono quelle attraverso le quali l'ambiente influisce sul sistema; variabili dipendenti (o d'uscita o risposte) sono quelle che manifestano la risposta del sistema all'eccitazione ricevuta, in base al suo comportamento, verso l'ambiente esterno. Queste ultime dipendono generalmente da altre variabili, questa volta interne’ al sistema, che sono chiamate variabili di stato dato che rappresentano appunto lo stato del sistema quale deriva dalle sue vicende precedenti e dalle eccitazioni ad esso applicate. Sottolineiamo qui ancora il significato del modello matematico come rappresentazione astratta e formale di un sistema fisico reale, in relazione ad obiettivi che, per uno dato sistema fisico, possono essere anche assai diversi a seconda dei casi: uno stesso sistema, in altre parole, potra essere rappresentato con modelli completamente diversi a seconda degli obiettivi che ci si pone nel suo studio e anche a seconda dei mezzi d'indagine che s'intendono utilizzare. In questa ottica, per esempio, potra essere conveniente scegliere un modello a tempo discreto per rappresentare (ed eventualmente anche per simulare su calcolatore) un sistema fisico, che per sua natura é@ evidentemente a tempo continuo; scegliere un modello dinamico semplificato, espresso cioé da una equazione differenziale di ordine relativamente basso, per oun sistema descritto invece da una dinamica assai pid complessa; scegliere un modello linearizzato per un sistema che invece @ soggetto a nonlinearita. Cio che importa, in ogni caso, @ che il 4 modello prescelto costituisca una buona rappresentazione (efficace ad economica al tempo stesso) del sistema considerato, in relazione ai fini che interessano. 2.2 Sistemi lineari e stazionari I sistemi lineari sono caratterizzati da relazioni ingresso- uscita lineari, a prescindere dal fatto che siano algebriche o differenziali. In particolare, un sistema dinamico a tempo continuo a costanti concentrate, con un ingresso r(t) e una uscita c(t) @ lineare solo se @ rappresentato da una equazione differenziale ordinaria del tipo: F(t) pa e(t) Fig. 2.1 “==9[ sistema ] ~> dne(t) da-te(t) de(t) an + an-1———— + ... # ay + c(t) = at at dar(t) da-ir(t) dr(t) = ba-——— + ba-i——— +... + bi— + bor(t) (2.1) at dt at dove i coefficienti ay e by sono indipendenti dai segnali r(t) e c(t). In tutti gli altri casi il sistema @ nonlineare. I sistemi lineari verificano il principio di sovrapposizione degli effetti, che costituisce anche un potente mezzo d'indagine sperimentale della linearita. Tale principio pud essere espresso come segue: un sistema é lineare quando la risposta a una eccitazione r(t) = ari(t) + Bra(t) @ c(t) = aci(t) + Bc2(t), per qualsiasi valore dei coefficienti a e 8 e per qualsiasi funzione ri(t) e ra(t), quando le risposte a queste eccitazioni, applicate separatamente, sono rispettivamente ci(t) e c2(t). Va precisato che tutte le risposte considerate vanno prese al netto dell‘effetto di eventuali condizioni iniziali cicé va ipotizzato che il sistema, all'atto dell'applicazione dei segnali d'ingresso si trovi nello stato di riposo (ossia con le variabili di stato tutte nulle). Qui notiamo che tutti i sistemi fisici “lineari" sono rigorosamente tali solo quando i valori dei segnali sono compresi entro opportuni intervalli: quando le grandezze fisiche che rappresentano questi segnali assumono valori molto grandi si verificano infatti usualmente fenomeni di saturazione oppure di rottura; quando sono molto piccoli, possono entrare in gioco effetti di soglia oppure di quantizzazione. Quando si considerano sistemi fisici reali, pertanto, 1'unica distinzione concreta fra linearita e nonlinearita riguarda l'ampiezza del campo di variazione dei segnali all'interno del quale @ verificata la linearita. Per sistemi stazionari (time-invariant) s'intendono quelli che presentano comportamento invariante nel tempo, per cui vale cioé il principio dello spostamento nel tempo dell'effetto con la causa: se a una eccitazione r(t) consegue una risposta c(t), all‘eccitazione traslata nel tempo r(t-T) deve corrispondere la xisposta c(t-T) (sempre al netto dell'effetto di eventuali condizioni iniziali), per qualsiasi valore della costante di traslazione Te per qualsiasi funzione r(t). Se la condizione anzidetta non @ verificata, il sistema si dice non stazionario (time-varying) e la sua risposta a una data eccitazione dipendera dall'istante di tempo a cui questa viene applicata. Per quanto riguarda i sistemi dinamici descritti dalla (2.1), questi sono stazionari se i coefficienti ai e by sono indipendenti dal tempo, altrimenti sono non stazionari. Osserviamo infine che la teoria dei sistemi lineari e stazionari é@ ben sviluppata e offre metodi di studio agevoli e potenti, mentre nel caso dei sistemi nonlineari e/o non stazionari le tecniche di analisi sono generalmente assai complesse. Si cerca pertanto, ove possibile, di rappresentare i Sistemi fisici reali nonlineari e/o non stazionari mediante modelli lineari e stazionari. Nel caso dei sistemi nonlineari si usano varie tecniche di dinearizzazione. Un metodo usato spesso é quello basato sullo sviluppo in serie di Taylor, attorno a un determinato punto di lavoro, delle equazioni nonlineari, che fornisce delle equazioni lineari nelle variazioni dei segnali. La qualita della approssimazione, naturalmente, @ tanto migliore quanto pid piccole sono queste variazioni. Analogamente, i sistemi non stazionari si rappresentano mediante modelli stazionari tutte le volte che si possono trascurare gli effetti delle variazioni dei parametri, cioé quando queste variazioni si svolgono su una scala temporale di durata decisamente maggiore di quella relativa alle variazioni dei segnali. 2.3 Caratterizzazione nel dominio del tempo 2.3.1 Classificazione dei sistemi continui lineari e stazionari Nella tabella 2-I @ mostrata una possibile classificazione dei sistemi continui lineari e stazionari in relazione alla distinzione fra sistemi a costanti concentrate e a costanti distribuite e alla natura delle equazioni che li rappresentano. Gli esempi che seguono aiuteranno a orientarsi in questa classificazione. Tabella 11-1 Classificazione dei sistemi lineari e stazionari parametri variabili equazioni d'ingresso e d'uscita concentrati localizzate © algebriche (sistemi statici) differenziali ordinarie (sistemi dinamici) distribuiti localizzate alle derivate totali con ritardi di tempo alle derivate parziali distribuite | alle derivate parziali (con variabili d'ingresso e d'uscita funzioni del tempo e delle coordinate spaziali) Una linea di ritardo acustica @ un buon esempio di sistema a parametri distribuiti, ma con variabili d'ingresso e d'uscita localizzate (le grandezze acustiche localizzate alle due porte). Un esempio di sistema a parametri distribuiti, con variabili d'ingresso e d'uscita anch'esse distribuite, é dato dalla diffusione di un drogante in un solido semiconduttore: qui l'ingresso @ dato dalla concentrazione del gas drogante sulla superficie del cristallo esposta al gas, mentre l'uscita @ la distribuzione spaziale del drogaggio nel cristallo. Una cavita risonante, o un sistema di antenne accoppiate fra loro attraverso il campo elettromagnetico, costituiscono ancora esempi di sistemi a costanti distribuite e a variabili distribuite: nelle equazioni di Maxwell che 1i rappresentano appaiono infatti derivate sia rispetto al tempo che rispetto alle coordinate spaziali, e si assumono di interesse sia le distribuzioni spaziali delle grandezze fisiche (campo elettrico e campo magnetico) sia le loro variazioni nel tempo. Una linea di trasmissione elettrica costituisce una specializzazione del caso precedente: nelle equazioni, oltre alle derivate rispetto al tempo, compaiono infatti soltanto le derivate rispetto all'ascissa spaziale della linea. Un'ulteriore specializzazione, infine, @ costituita dalle reti elettriche dove s'ignora qualsiasi dipendenza spaziale del campo elettromagnetico e si considerano soltanto grandezze localizzate (tensioni e correnti) legate fra loro da equazioni differenziali ordinarie. 2.3.2 Evoluzione libera e risposta forzata. Qui consideriamo i sistemi descritti dalla (2.1), dove i coefficienti si assumono reali e si suppone che sia n 2 m. Lianalisi di questi sistemi, cio@ il calcolo della variabile d'uscita c(t) quando @ noto l'andamento della variabile G'ingresso r(t) e si conoscono le condizioni iniziali del sistema, pud essere condotta usando i metodi noti dalla teoria delle equazioni differenziali lineari a coefficienti costanti (ricordiamo perd che esistono anche altri metodi, in particolare quelli basati su trasformazioni integrali, che sono generalmente pid agevoli). In tal caso l'uscita si calcola sommando l'integrale generale dell'equazione omogenea associata alla (2.1) con l'integrale particolare relativo alla funzione d'eccitazione considerata, e specializzando infine la soluzione in modo che siano verificate le condizioni iniziali assegnate. Le condizioni iniziali hanno un ruolo assai importante. Esse rappresentano la memoria del sistema all'istante a partire dal quale si determina la risposta: si tratta di un insieme di numeri che costituisce una sintesi essenziale di tutta la storia passata del sistema, da -» all'istante iniziale. Nella rappresentazione ingresso-stato-uscita, le condizioni iniziali § dipendono esclusivamente dai valori assunti dalle variabili di stato all'istante iniziale. A partire da un tempo determinato, assunto come istante iniziale, possiamo considerare due risposte fondamentali di un sistema: l‘evoluzione (o risposta) libera e la risposta forzata. La prima rappresenta semplicemente l'effetto delle condizioni iniziali (cio€ della risposta all'eccitazione applicata da -» all'istante iniziale) assumendo nulla l'eccitazione applicata dall'istante iniziale in poi. La seconda, invece, rappresenta la risposta all'eccitazione applicata a partire dall'istante iniziale, questa volta assumendo nulle le condizioni iniziali. Nel caso generale, cio® con eccitazione non nulla e condizioni iniziali non nulle, la risposta di un sistema, come si @ accennato in precedenza, dipende sia dall'eccitazione che dalle condizioni iniziali. Ma soltanto nel caso dei sistemi lineari, grazie al principio di sovrapposizione, la risposta complessiva & data dalla somma dell'evoluzione libera e della risposta forzata. Consideriamo ora i sistemi descritti dalla (2.1), lineari e stazionari, In tal caso l'evoluzione libera si pud ottenere dall'integrale generale dell'equazione omogenea associata alla (2.1). Questo viene solitamente espresso come combinazione lineare dei modi del sistema, ottenuti dalle radici dell'equazione caratteristica: an ph + an-1 pr-2 +... arp+t1=0 (2.2) Indicando con p; le radici della (2.2), si hanno soluzioni del tipo exp(pit), come si pud verificare mediante sostituzione nella (2.1). In generale, l'espressione completa dell'evoluzione libera ci(t) @ la seguente: rodr-a ci(t) = Ei Ey Aix t® exp(pit) (2.3) 10 dove i coefficienti Aix dipendono dalle condizioni iniziali (si determinano risolvendo un sistema di equazioni algebriche lineari) e dove si @ considerata anche la possibilita che siano presenti radici multiple della (2.2), indicando con qr la molteplicita ai ciascuna delle r radici distinte (il numero totale di radici é comunque n quando si tenga conto della loro molteplicita). Alle radici reali corrispondono modi aperiodici. Nel caso di molteplicita unitaria, alla radice p = a corrisponde il modo exp(at) = exp(-t/t) (2.4) dove t = -1/a prende il nome di costante di tempo caratteristica del modo considerato. Nel caso di radici reali multiple, nell'evoluzione libera compaiono anche termini del tipo tx exp(pit), che hanno comunque lo stesso andamento asintotico, per t che tende all'infinito, del termine fondamentale espresso dalla (2.4). Alle radici complesse, che. compaiono sempre a coppie coniugate dal momento che i coefficienti della (2.1) si assumono reali (si tratta di sistemi fisici), corrispondono modi di natura diversa dai precedenti; nel caso di molteplicita unitaria, alla Coppia di radici a + jB corrisponde la seguente coppia di modi, i cui coefficienti sono complessi coniugati: A exp(at+Bt) ; A" exp(at-Bt) (2.5) Questi si possono esprimere nella forma B exp(at) sin(Bt+s) = B exp(-Gwot) sin((1-§2)4wott#) (2.6) dove B @ una costante reale, e si sono utilizzati i parametri caratteristici pulsazione naturale Wo = (a? + 2) (2.7) e coefficiente di smorzamento § = -a/(a + B7)* (2.8) 0 il segno di quest'ultimo caratterizza l'andamento crescente (se 10 § ¢ 0) © decrescente (se § > 0) dell‘inviluppo delle oscillazioni. L'andamento asintotico della risposta libera per t che tende all'infinito, per radici sia reali che complesse e sia semplici che multiple, dipende dal segno della parte reale della radice considerata, come si rileva immediatamente dalla (2.3). A una radice con parte reale positiva corrisponde una risposta divergente; a una con parte reale negativa una risposta che tende a zero; a una con parte reale nulla una risposta costante (radice reale) oppure con inviluppo costante (coppia di radici complesse coniugate) se si tratta di radici semplici, altrimenti una risposta polinomiale in t. Dal punto di vista energetico, il primo caso corrisponde a quello di un sistema passivo soggetto a dissipazioni, il secondo a quello di un sistema attivo, il terzo (limitatatamente alle radici semplici) a quello di un sistema passivo privo di dissipazioni. Se consideriamo stabile un sistema la cui risposta libera tenda comunque a zero per tempi sufficientente lunghi, si conclude che la stabilita richiede che tutte le radici abbiano parte reale negativa (a prescindere dalla loro molteplicita). Il calcolo della risposta forzata pud essere svolto in vari modi, per esempio usando il metodo del nucleo risolvente, per maggiori dettagli sul quale rimandiamo ai testi di Analisi Matematica e che é@ brevemente trattato nell'appendice Al. Con questo metodo, chiamando t(t) l'espressione a secondo membro della (2.1) m — asr(t) g(t) = Ly by——— (2.9) 0 ats la risposta forzata c¢(t) @ data dall'integrale di convoluzione [* {* ce(t) = fF a(t-t) O(r) dt = | C(t-t) a(t) ar (2,10) JO Jo dove la funzione q(t) @ detta nucleo risolvente o funzione di Green. Tale funzione si ottiene dall'integrale generale della (2.1) specializzato al caso di condizioni iniziali tutte nulle salvo la derivata di ordine n-i, che si sceglie come segue 11 da-ic 1 [ = (2.11) © dt ‘t=O an La risposta complessiva si ottiene infine sommando Jtevoluzione libera e la risposta forzata e(t) = c1(t) + ce(t) (2.12) Qui notiamo che il contributo della risposta libera pud essere evidentemente ignorato qualora si assuma t=- come istante iniziale; in tal caso i limiti di integrazione nella (2.10) vanno modificati nella forma t a es(t) = ! q(t-T) ¢(t) dt = Peeen a(t) dr (2.13) Fig.2.2 r(t) c(t) ae Circuito RC Facciamo un esempio, applicando quanto sopra al caso di un circuito RC passabasso, con ingresso r(t) e uscita c(t), considerando il caso di una eccitazione a rampa: r(t) = t. L'equazione differenziale del sistema é + dc/dt + c = r, dove t = RC. L'equazione caratteristica p+1/t = 0 fornisce l'unica radice reale pi + a1 = -1/t, con a1 < 0, a cui corrisponde il modo exp(-t/t). L'evoluzione libera ha dunque la forma e1(t) = A exp(-t/7) dove il coefficiente A si determina imponendo le condizioni iniziali, in questo caso il valore della tensione del condensatore c(0) all'istante t=0. Si ha pertanto e1(t) = ¢(0) exp(-t/t) I1 nucleo risolvente, necessario al calcolo della risposta forzata, si ottiene dall'integrale generale, che ha la stessa forma dell'evoluzione libera trovata prima, q(t) = A exp(-t/t), e 12 che va specializzato a condizioni iniziali tutte nulle eccettuata ja derivata di ordine n-1 che va posta uguale a 1/an. Dato che in questo caso abbiamo n=1, e ai = t, la condizione da imporre @ semplicemente q(0) = 1/ai = 1/t, da cui si ottiene a(t) = (1/t) exp(-t/r) L'espressione della risposta forzata é dunque 1 ft celt) =— 7 t JO r(t-t') exp(-t'/t) dt’ e nel caso dell'eccitazione a rampa si ha 1 ft tre 1 ft oe (t) = — 1 (tot )exp(-t'/t)dt' = — fexp(-t'/r)at' - — Ittexp(-t'yr) at JO 7 JO 1 JO = Ct exp(-t/t) + t) + (t tr) exp(-t/t) - + = t - + + 7 exp(-t/7) Sommando la risposta libera e la risposta forzata si ottiene infine la risposta complessiva: e(t) = ci(t) + ce(t) = t T+ (tT + 6(0)) exp(-t/r) 2.3.3 Risposte indici nel dominio del tempo Si @ gia visto che la risposta libera di un sistema lineare “e stazionario -a una eccitazione r(t) con andamento temporale qualsiasi pud essere ottenuta a partire dalla conoscenza, oltre che della funzione di eccitazione, di una sola funzione caratteristica del sistema: il nucleo risolvente (che pud essere inteso come una forma particolare di evoluzione libera). Questa funzione non @ la sola a godere di questa proprieta importantissima. I1 calcolo della risposta ad una eccitazione qualsiasi pud essere svolto infatti utilizzando varie altre funzioni, caratteristiche del sistema che si considera. Fra queste hanno particolare importanza, per motivi sia concettuali _ che di natura pratica, quelle che corrispondono alle risposte a due particolari regimi di eccitazione: eccitazione impulsiva ed eccitazione a gradino. La risposta impulsiva, che indichiamo con w(t), @ quella che si ottiene quando l'eccitazione del sistema @ costituita dalla 13 funzione 6(t), delta di Dirac. Questa funzione costituisce l'idealizzazione di un impulso di durata brevissima, di ampiezza grandissima e di area unitaria: sebbene essa non abbia, evidentemente, significato fisico, essa costituisce un modello eccellente di un impulso reale (sotto opportune condizioni) dal punto di vista non tanto del segnale stesso quanto del suo effetto sul sistema e della risposta che esso determina. 6(t) Fig.2.3 Eccitazione impulsiva La funzione risposta impulsiva w(t) @ nulla fino a t=0 (per i sistemi fisici, soggetti al vincolo della causalita), @ diversa da zero per t 2 0 e poi generalmente tende a zero, assumendo valori trascurabili dopo un tempo che rappresenta il tempo di memoria del sistema. La risposta impulsiva é@ costituita da un funzione delta (per t-0) nel caso particolare dei sistemi statici (privi di memoria), da una o pid funzioni delta nel caso di certi sistemi a ritardo di tempo (una linea di ritardo ideale). La conoscenza della risposta impulsiva di un sistema, come si @ gia accennato, permette il calcolo della risposta a una eccitazione qualsiasi. Si immagina, infatti, di decomporre l'ingresso x(t) in una sequenza di impulsi, di ampiezza variabile in funzione del tempo e spaziati fra loro di intervalli piccolissimi, l'uscita corrispondente a ciascuno dei quali é proporzionale alla risposta impulsiva del sistema, opportunamente traslata nel tempo. All'impulso elementare applicato al tempo 7, espresso come 6(t) r(t) At, corrisponde cost l'uscita w(t-t) r(1) At. Grazie al principio di sovrapposizione, sommando tutti questi contributi, si ha 1'integrale: t t ee(t) = P ect-n) x(t) dt = Pe ceeny w(t) dr (2.14a) Jo Jo che rappresenta dunque 1'andamento dell'uscita ¢(t) di un sistema lineare e stazionario quando al suo ingresso @ applicata la funzione r(t) a partire dal tempo t=0. Qui va sottolineata una importante differenza fra il metodo della risposta impulsiva e quello del nucleo risolvente per il calcolo della risposta forzata di un sistema lineare. Utilizzando la risposta impulsiva negli integrali (2.14) compare esplicitamente la funzione d'ingresso r(t); utilizzando il nucleo 14 risolvente nei corrispondenti integrali (2.10) compare invece quella particolare combinazione lineare dell'ingresso e delle sue derivate che @ definita dal secondo membro dell'equazione differenziale del sistema (2.1). D'altra parte, se si ammette di conoscere tutto 1'andamento temporale dell'ingresso r(t), si pud calcolare la risposta complessiva modificando come segue gli estremi di integrazione della (2.14a): c(t) = Prceo r(t) at = Pecen w(t) dt (2.14) Nel caso dei sistemi descritti dalla (2.1), si pud dimostrare che la risposta impulsiva w(t) @ una particolare combinazione lineare dei modi caratteristici, cio® una particolare forma della risposta libera. Per quanto detto in 2.3.2 si conclude che la risposta impulsiva dei sistemi passivi soggetti a dissipazione tende a zero per t che tende all'infinito. “Se consideriamo stabile un sistema quando a un qualsiasi ingresso limitato esso fornisce una risposta anch'essa limitata (questa definizione della stabilita é detta b.i.b.o. da bounded input bounded output), allora la sua risposta impulsiva deve essere sommabile. Infatti, se si ha 0<|r(t)| Fig.2.4 Eccitazione indiciale 15 Anche dalla conoscenza della risposta indiciale si pud ottenere la risposta forzata c¢(t) a una eccitazione r(t) con andamento temporale qualsiasi, immaginando di decomporre quest'ultima in una molteplicita di funzioni a gradino e sommando poi le risposte corrispondenti a ciascuna eccitazione elementare. La risposta indiciale ha grande importanza pratica nello studio sperimentale dei sistemi e in particolare dei sistemi elettronici. Tale funzione viene caratterizzata generalmente in termini dei parametri (vedi fig. 2.5 ) elencati in quanto segue, che in gran parte sono definiti proprio in modo da facilitarne la determinazione sperimentale: a) tempo di ritardo o tempo all‘emivalore (delay time) ta, che @ il tempo necessario perché la risposta arrivi alla meta del valore a regime (se questo é nullo si considera come riferimento il valore che la risposta assume dopo il transitorio iniziale); b) tempo di salita (rise time) tr, che @ il tempo che intercorre fra gli istanti a cui la risposta raggiunge il 10% e il 90% del valore a regime (se questo @ nullo si considera come riferimento il valore che la risposta assume dopo il‘transitorio iniziale); ¢) sovraelongazione (overshot) s, valor massimo dell'eccesso (se presente) rispetto al valore a regime, espresso usualmente in percentuale di tale valore; 4) periodo della prima oscillazione (se presente e dominante rispetto ad altre eventuali); e) tempo di assestamento (settling time) ts, che @ il tempo a partire dal quale lo scostamento fra la risposta wu(t) e il suo valore a regime si mantiene minore di un valore assegnato A. £) tempo al picco, necessario per raggiungere il picco della prima sovraelongazione (se présente). Fra questi parametri ha particolare importanza il tempo di salita, che viene spesso usato per rappresentare in forma sintetica le prestazioni di velocita ai risposta di un sistema. 16 u(t) Wu(t)/Wu(ee) Fig. 2.5 Parametri caratteristici della risposta indiciale Capitolo III SISTEMI LINEARI E STAZIONARI NEL DOMINIO DELLA FREQUENZA 3.1 Funzioni esponenziali - metodo simbolico La famiglia delle funzioni esponenziali e trigonometriche gode di interessanti proprieta di invarianza, sia rispetto a traslazioni nel tempo, di interesse quando si considerano sistemi lineari e stazionari a ritardo di tempo (dove intervengono operazioni di ritardo), sia rispetto a integrazione e derivazione, di interesse quando si considerano sistemi lineari e stazionari a costanti concentrate (dove intervengono operazioni di integrazione e derivazione). Se consideriamo infatti una generica funzione esponenziale A exp(jwt) e supponiamo di traslarla nel tempo secondo t, abbiamo: A exp(jw(t+t) = A exp(jwt) exp(jot) = A' exp(jot) (3.1) Integrando e derivando rispetto al tempo la stessa funzione, otteniamo rispettivamente: A exp(jot)/(jw) = A'' exp(jot) (3.2a) jwA exp(jat) = A''' exp(jwt) (3.2b) E qui ricordiamo che queste proprieta derivano dal fatto che le funzioni esponenziali, e le funzioni trigonometriche che da esse derivano, sono le autofunzioni dei sistemi di equazioni differenziali lineari a coefficienti costanti. Da quanto dette consegue che se l'ingresso di un sistema lineare e stazicnario ¢ costituito da una funzione sinusoidale (un segnale armonico puro, cioé definito fra -» e +»), la risposta sara anch'essa sinusoidale, della stessa frequenza dell'ingresso, ma generalmente con ampiezza e fase diverse. 1 sisteni disanici lineari e stezicnari sono dungue isonorfi rispetto ai segnali sinusoléali. Se per un dato sistena questa proprieta son @ verificata, si tratta evidenteneate div un sistesa non stationarlo, oppure, cone acsade pit frequentenente, di un sistena onlineare, Cid glustifiea il seiodo di studio della noalinearita dei sisteni stasiorari in base alla distorsionn si applica all'ingresso un segnale sinusoidale, si osserva I'uscita per individuare l'eventuale presenta di armoniche, ¢ si caratteritza le nonlinearita del sistena in ternini dell"entita di tali ernoniche apportata all'anpiezta della fondanentale, Lo studio della risposta di questi sistemi a un segnale armonico puro si pud ottenere allora con il metodo simbolico, Si noti perd che la risposta cosi ottenuta non corrisponde alla risposta a un segnale sinusoidale applicato a partire da un istante determinato, ma soltanto a quella parte della risposta forzata, chiamata risposta in regime permanente sinusoidale, che si ottiene dopo che si é superata la fase transitoria iniziale. (La durata del transitorio @ commisurata al tempo di memoria del sistema: in pratica, dell'ordine di tre volte la costante di tempo pit lunga del sistema). Esprimendo l'ingresso nella forma r(t) = R sin(ottdr) = Im [R exp(jwt) exp(jdr)] = = Im [R exp(jot)] (3.3a) ltuscita corrispondente sara e(t) = C sin(uttee) = Im [C exp(jwt) exp(ide)] = = Im [€ exp(jot)] (3.3b) dove Re C sono coefficienti reali, mentre Re C sono grandezze complesse: R exp(jdr) ; C exp(jtc) Sostituendo C exp(jot) e R exp(jwt) nella equazione del sistema (2.1), questa si trasforma da una equazione differenziale in una equazione algebrica, che pud venire immediatamente risolta in €. Sostituendo il valore complesso di C nella (3.3b) si determina poi la risposta ¢(t). 3.2 Serie e trasformata di Fourier Consideriamo ora segnali rappresentati da funzioni del tempo che soddisfano le seguenti condizioni: a) sono monodrome, cicé a un solo valore (a parte gli eventuali punti di discontinuita), b) sono sommabili in un intervallo assegnato. In tal caso il segnale £(t), definito in un intervallo limitato (ti, t2) compreso in quello di sommabilita, pud essere sviluppato in funzioni ortogonali 0; (t): £(t) = Si es Oi (t) ti

You might also like