Reti elettriche: l’Italia è piccola?

Argomento sempre attuale: le reti elettriche. Non le centrali, e nemmeno le utenze o i combustibili: proprio le reti. L’elemento essenziale della infrastruttura elettrica è costituito dal sistema che permette di trasportare l’energia alle utenze: è questo che distingue davvero l’elettricità come vettore dalle altre scelte possibili. Le fonti di energia cambiano, si evolvono: ma il vettore rimane valido. Esistono vetusti elettrodotti che hanno visto apparire e poi scomparire ai propri capi centrali nucleari, ad olio combustibile o a carbone; e che sono ancora in piedi. Rappresentando con la propria dignitosa patina di ruggine una storia di successo: quella di una tecnologia – l’elettricità – che invecchia bene e che rimane valida anche di fronte a tanti cambiamenti. Il sistema elettrico italiano è ovviamente fatto anche di centrali, e questi impianti suscitano discussioni talora feroci: tra le tante, la contesa attorno alla centrale a carbone di Vado Ligure, tacciata di inquinare oltre il consentito – e messa sotto sequestro da pochi giorni. In un contesto assai differente potremmo ricordare cosa accade in Sardegna, nel Sulcis, dove si insiste a cavare e bruciare in perdita il sulfureo carbone nazionale; col consueto, italianissimo corollario di lavoratori minacciati di morir di stenti: utilissimi scudi umani da impiegare per costringere gli amministratori pubblici ad elargire altri sussidi ad imprese altrimenti antieconomiche. Due esempi illuminanti delle tensioni esistenti in Italia attorno al teme dell’energia elettrica.

Ma le nostre reti sono valide? Il collegamento realizzato tra produttori e consumatori di elettricità funziona bene? Gli impianti esprimono le proprie potenzialità al meglio oppure no? Per rispondere a queste domande esiste un metodo velocissimo: fare qualche confronto con una nazione diversa dalla nostra. Partiamo dalle caratteristiche del nostro sistema elettrico. Nel 2011 in Italia disponevamo di una potenza elettrica netta installata di 118,4 GW – dato Terna – di cui 77 GW termici tradizionali. Nella pratica, i due terzi degli impianti disponibili sono costituiti da centrali termiche azionate da un qualche combustibile: quote residue di olio, carbone, ma soprattutto gas naturale. La produzione effettiva di elettricità nel 2011 risultava essere secondo Istat di 302,6 TWh, dei quali 228,5 TWh termoelettrici tradizionali. I fattori di capacità medi per gli impianti: cioè quante ore di funzionamento hanno archiviato alla potenza nominale durante l’anno. Nel complesso in Italia il dato si attesta sulle 2556 ore; nel caso degli impianti termici tradizionali il dato cresce debolmente a 2968 ore equivalenti. Si noti che un anno solare dispone di 8760 ore.

Con chi fare confronti? Non una nazione europea: le dimensioni in gioco sono confrontabili, sia in senso geografico che economico. Meglio un attore più grosso: gli Usa. Il mercato elettrico americano si sviluppa a scala continentale, e la forte deregolamentazione ha causato effetti interessanti, non sempre positivi. Veniamo ai dati: nel 2011 secondo la EIA negli States la potenza installata ammontava a 1051 GW, dei quali 784 GW per la parte di termoelettricità convenzionale. Sempre secondo la stessa agenzia nel 2011 la produzione elettrica Usa è stata di 4100 TWh, e di questa la termoelettricità convenzionale ha coperto più o meno 2790 TWh. La presenza di una sviluppatissima filiera nucleare non impedisce alle centrali termoelettriche americane di spuntare un buon 68% del mercato complessivo. I fattori di capacità: globalmente gli impianti Usa si posizionano sulle 3901 ore annue; per la sola termoelettricità il dato si abbassa a 3559 ore annue.

In Italia nell’ultimo decennio abbiamo insistito ad installare o ristrutturare una messe di centrali termoelettriche, alimentate in prevalenza a gas ed in subordine a carbone; l’entrata in scena delle nuove rinnovabili ha messo rapidamente in crisi gli impianti termici, talvolta appena inaugurati e già oberati di problemi finanziari. La stampella ideata dal legislatore per far fronte al problema – con i soldi di tutti – è stata quella del capacity payment: paghiamo impianti fermi che garantiscano di poter intervenire in caso di perdita di produttività delle rinnovabili. Un discorso oggettivamente validissimo, almeno fin quando non andiamo a spulciare i rozzi numeri: nella realtà statunitense i fattori di capacità delle centrali elettriche sono molto più elevati, e lo sono anche nel caso dei soli impianti termici convenzionali, meno prestanti. Un buon + 20%; questo non sembra impedire alle reti statunitensi di funzionare abbastanza bene.

Un altro modo di vedere la questione è riflettere sulla domanda elettrica di punta: in Italia 56,8 GW nel 2007, ormai ridimensionati a 54,1 nel 2012. Ancora una volta si fatica a comprendere il significato della presenza di una ottantina di giga-watt di centrali termoelettriche – dato già superato nel 2012. La rete Usa registrava nel 2011 una domanda di picco di 782 GW, il 74,4% della capacità disponibile. Nel caso italiano il picco di richiesta a stento arriva a coprire il 46% della capacità; anche tagliando fuori dal conteggio le nuove rinnovabili, non si andrebbe oltre il 55% della capacità disponibile sotto forma di termoelettricità ed idroelettrico. Sorprendentemente, importiamo più di un decimo dei nostri consumi elettrici da impianti oltre frontiera; un fenomeno che rende ancora meno comprensibile l’insistenza nell’installare nuove centrali in loco.

Abbiamo speso gli ultimi dieci anni ad accrescere la potenza elettrica disponibile, puntando anche su nuove centrali termiche che faticano a pareggiare i costi. Immaginiamo uno scenario alternativo: perché non costruire qualche elettrodotto attraverso le Alpi? Se è vero – come già sottolineato in questo precedente articolo sul tema – che la capacità tedesca a carbone è economica, la via più semplice per portarla qui non è imbarcare voluminosa lignite su delle chiatte: è semplicemente allacciare le reti elettriche italiana e tedesca. Sorpresa: ci stiamo già preparando a fare cose del genere, come nel caso del nuovo collegamento italo francese a corrente continua. Che non punta semplicemente a portare energia nucleare francese in Italia, cosa che peraltro facciamo già: i proponenti hanno in mente anche la possibilità di dirottare all’estero i prevedibili futuri picchi di produzione del fotovoltaico, rendendoli di fatto più gestibili. Osservando l’esempio americano, vien da dire che la soluzione per ovviare alle nostre debolezze è metterle assieme alle debolezze degli altri: si sommeranno in un sistema ben più solido, e più economico. I problemi della rete elettrica italiana potrebbero trovare una valida soluzione nella creazione, una buona volta, di una rete elettrica europea capace di regge il paragone con quella statunitense. E capace di operare in maniera dignitosa anche con qualche centrale in meno. Mettiamo più Europa nel mercato elettrico: vale la pena tentare.

Integrazione: l’evoluzione della potenza elettrica installata in Italia al 2012, distinta per tipologia di impianto. Dati al lordo delle perdite connesse a trasformatori e servizi ausiliari.

evoluzione potenza delle centrali elettriche in ItaliaPotenza lorda delle centrali elettriche italiane, MW. Fonte immagine: Terna.
Pubblicato in energia, soldi | Contrassegnato , , , , , , , , , , , | Lascia un commento

Linux è come gli altri. Lo scegliamo perché…..

Fine dei giochi per il vecchio Windows XP: il compagno di tante risate, l’arnese di lavoro in azienda, la piattaforma su cui operano tanti sportelli bancomat. Un sistema operativo blasonatissimo, nato leggero e poi appesantito fino al service pack 3 per mettere pezze alle vulnerabilità via via emerse. Ora è davvero finita: dall’8 aprile prossimo non verranno più rilasciati aggiornamenti, e casomai emergessero nuovi bachi questi verranno lasciati dove sono. La legge italiana obbliga a servirsi di sistemi operativi supportati dal produttore qualora il computer in uso gestisca informazioni meritevoli di protezione da attacchi informatici: questo significa che chi insisterà ad operare il vecchio XP su macchine contenenti dati personali si metterà di fatto contro la legge. Immagino che nessuno riceverà visite delle fiamme gialle il 9 aprile, ma comunque è giunto il momento di pensare anche a questo passaggio. In America ci stanno pensando: ci sono istituti di credito che vogliono migrare gli sportelli atm al pinguino; un po per ridurre i costi, e un po per semplificare l’operazione.

Il sottoscritto utilizza, su istigazione di colleghi più esperti, pc Linux da un buon lustro. Solo distribuzioni Linux, prevalentemente Debian derivate ma non solo. Pesanti e leggere, con o senza grafiche accattivanti; alle volte meri supporti al terminale o a servizi temporizzati. Su fissi e su portatili, ricchi o poveri di memoria e processore. Talvolta su bidoni scassati al punto da lasciar perdere il disco fisso ed utilizzare in sua vece una memoria Usb – con piena soddisfazione peraltro. Comunque sempre e solo Linux, in molteplici declinazioni. Ci sono anche altri soggetti che la pensano così: per dire, chi gestisce grandi mainframe o supercomputer oggigiorno sceglie Linux in via quasi esclusiva; i vari Google, Facebook ed Amazon usano quello per i loro centri di calcolo. Senza nulla togliere alla preponderanza del pinguino nel mercato degli smartphone, e senza ovviamente voler dimenticare la velocissima espansione registrata da questi sistemi in ambiente server. Un successo inequivocabile: ormai manca giusto la conquista dei desktop, ma forse non è il caso di badarci troppo.

Tenetevi stretti alla sedia, perché sto per rivelarvi una cosa che vi stupirà: Linux come sistema operativo, e in generale i programmi ed i servizi che lo completano, non è diverso da altri sistemi equivalenti. Linux è come tutti gli altri. Anche un programma come Firefox è come gli altri browser. Non sono realmente diversi: sono pezzi di software concepiti per interagire con la macchina e con l’utente al fine di svolgere un certo tipo di operazione. Un disegno vettoriale è sempre quello, così come l’invio di una email. Nello sviluppo di un software, è assolutamente fisiologico che sorgano man mano bachi che lo compromettono, ed eventualmente vulnerabilità che lo espongono agli attacchi dei tanti malintenzionati in circolazione nella rete. Linux non fa eccezione: ha avuto una scia enorme di vulnerabilità, e ne svilupperà a getto continuo in futuro. Posso testimoniare personalmente, ho assistito al manifestarsi di molteplici incidenti. Ma allora, ancora una volta: perché lo scegliamo sempre più spesso? E soprattutto: perché è la scelta di elezione per sistemi che gestiscono problemi di sicurezza critici?

Immaginiamo di avere a che fare con un programma, da utilizzare su Linux; e del suo equivalente pensato per un sistema operativo proprietario – anch’esso dotato di licenza proprietaria. I programmatori si mettono all’opera e ne realizzano versioni via via più evolute. Ad un certo punto, si manifestano dei bachi e delle vulnerabilità. La reazione dei gestori del programma non è la stessa nei due casi. Nel caso della soluzione “chiusa” la tendenza sarà a negare il problema, tenerlo nascosto, e lavorarci su per risolverlo: ma solo se la spesa si giustifica. Se il programma vende poco, scarsi saranno gli sforzi per intervenire su di esso; ma questo non verrà certo dichiarato. Peggio che mai per una vecchia versione a fine ciclo di vita. Quando mai una grande software house vi ha raccontato che “il tal programma è affetto da alcuni bachi e da un paio di vulnerabilità ad attacchi esterni che non risolveremo”? Viaggiate al buio e pregate, pregate che vada a finire bene.

Ovviamente anche il programma per il pinguino ha sviluppato un numero equivalente di bachi: è inevitabile. Tot righe di codice, tot interazioni, tot bachi: è la stessa storia. Però la gestione non è uguale. Nel mondo del software libero queste cose si vengono a sapere alla svelta: se c’è un problema che possa costituire pericolo, i responsabili del componente incriminato vengono messi in allerta e si concede loro un po di tempo per rimediare (si parla di giorni o settimane, non di anni). Se dopo un certo lasso di tempo il problema non viene risolto, allora succede una cosa che ai più può sembrare incomprensibile: il problema viene reso pubblico. A tutto il pianeta, con discreta figuraccia dei responsabili, ma a dire il vero è una cosa frequente che non spaventa più di tanto. Questa curiosa strategia permette di ottenere vari benefici. Intanto mette sotto pressione i responsabili del progetto, che fa sempre bene. Secondariamente, permette a moltissimi altri sviluppatori di conoscere i dettagli del problema ed eventualmente intervenire: un vantaggio dei software a sorgente aperto. Se qualcuno scopre la soluzione, il problema viene subito superato: non importa chi sia arrivato prima, l’importante è arrivare. Terzo vantaggio: fin quando il problema non è superato, gli utenti sono a conoscenza del problema. E possono intervenire bloccando le funzionalità che ritengono una minaccia, un  elemento essenziale per chi gestisce cose diverse da un banale pc domestico. Se manovri un server web, non vuoi certo usare un sistema operativo che risolve le vulnerabilità ogni 3 o 4 anni, e nel mentre nemmeno ti avvisa del pericolo.

Quello che è diverso nel mondo Linux non è il sistema operativo in sé, e nemmeno i programmi in uso. E’ la filosofia di gestione. Le licenze software aperte impongono una gestione dello sviluppo software totalmente diversa da quella riscontrabile con il materiale proprietario. Entra in gioco una componente altrimenti non disponibile: la trasparenza. Lo sviluppo del software è trasparente, nel senso che tutti possono verificare cosa è stato fatto e perché: chi nota un problema lo può segnalare, e nessuno può coprire nessun problema. Sorpresa: il sistema più trasparente ed indagabile garantisce più sicurezza. Perché con una licenza proprietaria ci guardano dentro solo i malintenzionati – oltre a qualche gestore aziendale – mentre con quella libera si presentano all’appuntamento anche sviluppatori terzi. In grande numero, e capaci di accelerare molto l’evoluzione del software. Così, nel momento della scelta, ricordate di non badare troppo alle supposte qualità del software che vi apprestate ad usare. Non sono così rilevanti. Preoccupatevi piuttosto di quale licenza state scegliendo. E’ molto più importante, specialmente al di là del futuro immediato.

Pubblicato in attualità, varie | Contrassegnato , , , , , , , , , , , | 2 commenti

Russia ed Ucraina: macché gasdotti….

Certe volte a pensare in termini semplici e razionali si commettono errori marchiani. Avrete sentito parlare della crisi ucraina: rivolte di piazza, cecchini, svastiche, contese commerciali e doganali, devastazioni, politici corrotti in fuga un po ovunque e via dicendo. L’Ucraina è uno stato artificiale ottenuto appiccicando insieme i territori popolati dai veri ucraini – in senso linguistico – con territori sui quali risiedono altri gruppi etnico linguistici. La metà meridionale ed orientale del Paese è di fatto un territorio russo, nel quale si parla il russo; piazzato a far parte dell’Ucraina da un imprudente Krusciov, che desiderava in quel modo rafforzare i legami tra i due territori. Ed anche disconoscere, in perfetto stile sovietico, il solco delle distinzioni tra nazioni. A pochi decenni di distanza, lo stato multietnico e multiculturale che chiamiamo Ucraina pare destinato a disintegrarsi in una tragica guerriglia – che disapprovo fermamente, e che ritengo solo un gioco imbecille a danno della povera gente.

L’altro attore: dei russi di Putin si è detto di tutto. Salvatori della patria, ruffiani, gerarchi, abili strateghi, guerrafondai, tutori della pace, sovietici, democristiani, nemici di Dio, tirapiedi del Patriarca ortodosso….sbizzarritevi. Non c’è davvero fesseria, congettura od osservazione che le mie orecchie non abbiano udito al riguardo. Per me Putin è il presidente della Federazione Russa, e i suoi consoci sono i politici russi. Tutto qui: sorprendentemente semplice, vero? Dunque, i russi mettono un piede in Ucraina – forse – e fanno l’occhiolino ai secessionisti di lingua russa. Secessionisti assai adirati dal fatto che il Parlamento di Kiev ha abrogato frettolosamente la legge che tutela le minoranze linguistiche – ma in realtà a loro volta coinvolti in un tentativo di limitare l’impiego dell’ucraino. E via una serie di dispetti reciproci, fino al referendum appena concluso.

Vien da chiedersi: ma perché tutto questo interesse per l’area di lingua russa esistente in Ucraina? Un baraccone pieno di debiti e povero di risorse, con una popolazione invecchiata che fugge all’estero quando può; e fabbriche decrepite che ormai faticano a camminare. Non un grande affare. La affinità linguistica è una motivazione che giustifica un certo interesse: qui e qui qualche cartina per rendere l’idea. Incidentalmente, si dice, l’Ucraina è attraversata da gasdotti ed oleodotti: che portano verso ovest la produzione russa di idrocarburi. Così il pretesto linguistico cela l’interesse strategico: gli ucraini hanno spesso usato il blocco dei gasdotti per ricattare il potente vicino, ed i suoi clienti (che saremmo poi noi). Mettendo i piedi un po più avanti verso ovest, i russi potrebbero ridimensionare questa arma; e d’altronde chi soffia sulla rivolta ucraina pensa invece di servirsene. Logico e lineare, ma sarà vero? Per prima cosa chiediamoci: cosa producono e cosa esportano i russi?

produzione, consumo, esportazioni di petrolio federazione russaProduzione e consumo di petrolio in Russia. Fonte: Eia/IndexMundi.
produzione, consumo, esportazioni di gas metano federazione russaProduzione e consumo di gas naturale in Russia. Fonte: Eia/IndexMundi.

I dati Index Mundi sono sufficienti per inquadrare le tendenze recenti. La Federazione Russa trova introiti importanti nelle esportazioni di idrocarburi, ma questo è noto. Nel 2011, hanno diretto all’estero più o meno 351 – 375 milioni di t di greggio, e 160 – 182 miliardi di normal metri cubi di gas naturale. Le discrepanze statistiche sono ovviamente dovute al fatto di voler includere nel conto risorse di qualità più o meno buona, o di voler considerare in modo diverso le perdite; BP ed Eia sputano cifre diverse perché si basano su definizioni di risorse e processi che non coincidono.

I soldi spuntati con il petrolio: 306 miliardi di dollari, con le quotazioni 2011 – immaginando una ben riuscita vendita al prezzo Brent medio di 111 e rotti dollari a barile. Diciamo 300 miliardi in ordine di grandezza, e non ne parliamo più. I soldi che i russi raccolgono con il gas esportato: ponendo che se ne possano cavare 35,7 kBTU/m^3, con la quotazione inglese 2011 di 9,04 $ / MBTU ne avrebbero ottenuto quasi 59 miliardi di dollari. Tendenzialmente, gli introiti che i russi mettono assieme con il metano a fatica riescono a superare il 16% della resa finanziaria totale garantita loro dalla vendita di idrocarburi all’estero. Il fatto che ad oggi – 2014 – gli incassi annui di Mosca dovuti all’export di energetici debbano essere più probabilmente vicini ai 400 miliardi di dollari non sposta di un millimetro i termini della questione: il metano resta un affare di secondo piano.

Qualche giorno fa abbiamo potuto leggere l’annuncio del rilascio di 5 milioni di barili di petrolio dalla riserva strategica Usa. Una mossa aggressiva, priva di effetti visibili: l’idea sarebbe quella di mettere in difficoltà i russi facendo calare la resa economica del loro export di idrocarburi. Nell’era della scarsità di petroli leggeri, il discreto Russian Export Blend non può essere rimpiazzato. Sono lontani i tempi della guerriglia dei prezzi condotta versando senza cautela petrolio saudita ed inglese sul mercato: un’epoca svanita nella nebbia del ricordo. Se quella tecnica permetteva di accelerare e rendere distruttivo il collasso dell’Urss, decisamente non è più uno strumento altrettanto efficace per assalire la Russia. A Washington se ne faranno una ragione, non è un dramma.

L’altro pomo della discordia è costituito dai tubi: gasdotti ed oleodotti, disseminati attraverso l’intera Europa dell’est decenni or sono ed ancora fondamentali per il nostro sistema energetico. Gli ucraini – o più precisamente gli attuali padroni di Kiev – hanno minacciato di interrompere il flusso di gas per fare un po di guerriglia contro Mosca. E si parla di gas, anziché di petrolio, perché con il greggio non si può fare granché. Il petrolio russo può comunque essere esportato via nave attraverso il Baltico ed il Mar Nero: non c’è modo di impedirlo. E’ fatto così. E comunque il gioco per i russi diviene via via più facile con l’arrivo in scena dell’oleodotto diretto a Kozmino, sul Pacifico, appena inaugurato e già oggi la terza più grande via di uscita per l’export russo di greggio. Non c’è verso di impedire ad una risorsa così indispensabile e così facile da trasportare di raggiungere i consumatori finali.

Tutto quello che si può provare a fare per infastidire i russi è bloccare qualche gasdotto. E non sarà una partita facile, a causa della presenza del nuovissimo Nord Stream che li collega ai tedeschi senza scalo (in parte opera di Saipem); a cui aggiungere anche la storica rete Druzhba, che con il ramo nord in Bielorussa resta per ora fuori tiro per i candidati sabotatori. In soldoni: nessuna possibilità di far cambiare in maniera significativa il bilancio delle esportazioni di energetici di Mosca. Nemmeno di striscio. Il petrolio non si tocca, va dove deve andare. Il gas è un bersaglio più abbordabile, ma non serve a niente tentare: ha un peso modestissimo sul bilancio russo – almeno per la parte esportata – al punto che gli ex sovietici insistono a bruciarne in torcia grandi quantità ritenendolo di poco interesse. Decisamente chi crede di poter fare la guerriglia alla Russia con questi mezzi farà bene a guardare in faccia la realtà: gli unici che potrebbero rimetterci qualcosa siamo noi, all’altro capo del tubo.

Pubblicato in energia | Contrassegnato , , , , , , , , , , , , , | 1 commento

Centrifuga I

Forza centrifuga: una forza apparente che viene percepita da un osservatore che si trova legato ad un sistema di riferimento in rotazione attorno ad un asse. Chi viaggia su una giostra in rotazione noterà che gli oggetti liberi di muoversi tendono a sfuggire verso l’esterno, ed eventualmente a cadere a terra fuori dal piano della giostra stessa. In realtà questa spinta verso l’esterno causata dalla rotazione è un abbaglio concettuale: non c’è nessuna forza centrifuga. Semplicemente tutti gli oggetti che cerchiamo di far muovere lungo una traiettoria incurvata richiedono una forza diretta verso l’asse di rotazione per riuscire a seguire la suddetta traiettoria: in mancanza di essa, finirebbero col muoversi lungo un indefinito percorso rettilineo, per semplice principio d’inerzia.

Il punto di osservazione corretto non si trova a bordo della giostra in rotazione, ma a terra accanto ad essa: l’osservatore esterno non vedrà spinte verso il bordo della giostra, ma semplicemente oggetti ad essa solidali che seguono un percorso circolare, ed oggetti lasciati liberi che procedono su una traiettoria rettilinea fino a cadere a terra. Tutto qui. La forza reale che permette di curvare le traiettorie lungo cui si muovono tutti gli elementi ancorati alla giostra si chiama centripeta, cioè diretta verso il centro. Questa, diversamente dalla forza centrifuga, esiste davvero in un sistema di riferimento inerziale.

Facciamo una cosa pratica: quanto può valere la pressione generata in un liquido in rotazione all’interno di una sezione cilindrica? Quando usiamo una pompa a flusso radiale – centrifuga per gli amici – mettiamo in rotazione un liquido come l’acqua; la spinta fornita dalla parete esterna della pompa, atta a mantenere curvata la traiettoria di movimento dell’acqua stessa, è associata alla pressione massima che possiamo sperare di generare con una simile apparecchiatura. La pressione che potremmo poi misurare installando un manometro. Disegniamo l’oggetto del caso, un volume cilindrico di acqua in rotazione attorno al proprio asse.

Forza centrifuga / centripeta agente su fluido in rotazioneVolume cilindrico di liquido in rotazione, dimensioni e forze agenti

Nell’immagine stilizzata indichiamo una velocità angolare ω, espressa in [rad/s], un raggio totale del cilindro di liquido R, ed una profondità dello stesso pari ad L. Indichiamo inoltre una corona circolare avente spessore dr e raggio medio r; su di essa isoliamo un volume infinitesimo di liquido dV avente massa dm, soggetto ad una forza centripeta – o centrifuga, che dir si voglia – dF. Si noti che nello schema la forza radiale in questione è rivolta verso l’esterno, nella finzione connessa all’idea di forza centrifuga; sappiamo bene che l’unica forza realmente presente è rivolta verso l’asse di rotazione. Questo bisticcio concettuale non cambia i valori assoluti delle forze in gioco, ma solo il loro verso di applicazione: non introdurrebbe quindi alcun errore di calcolo qualora ragionassimo sui soli moduli, che è quello che faremo ora.

forza centrifuga / centripeta, cilindro di liquido  in rotazioneImpostiamo il problema: in (1) definiamo la forza centripeta come prodotto della massa m per il quadrato della velocità angolare ω [rad/s] e del raggio variabile di rotazione r. In (2) definiamo una forza centripeta infinitesima agente su un cubetto di liquido piccolo a piacere, in relazione con il volume del cubetto dV ed il peso specifico del liquido ρ [kg/m^3].

forza e pressione agenti su centrifuga, guscio cilindrico di liquidoIn (3) facciamo corrispondere al volume dV il volume di un anello cilindrico di liquido avente raggio variabile r, profondità fissata L e spessore infinitesimo dr: con questa operazione ricaviamo la sommatoria – dFa – di tutte le forze centripete agenti sul suddetto anello, in relazione con la velocità angolare ω. Prendiamo ora a ragionare in termini di pressioni: in (4) dividiamo la forza appena trovata per la superficie media del guscio cilindrico ipotizzato –  2πrL. La pressione dPa ottenuta rappresenta l’incremento di pressione che si realizza a causa della forza centripeta agente sul guscio cilindrico. Si tratta di una approssimazione che considera poco rilevante lo spessore dr dello stesso: non potrebbe funzionare tanto bene così com’è, ma andrà benissimo per una operazione di integrazione.

integrale dei contributi di pressione, forza centripeta agente su anello di fluido in rotazionePer scavalcare il problema dovuto allo spessore dei vari gusci cilindrici, esiste un metodo velocissimo: basta renderli indefinitamente sottili ed infinitamente numerosi. E sommare i contributi di ciascuno di essi. In (5) scriviamo quindi una espressione di integrazione nella quale immaginiamo di assegnare al raggio variabile r tutti i valori esistenti tra zero ed R, raggio esterno del cilindro di fluido in rotazione attorno al proprio asse. L’unica variabile su cui operare rimane in realtà proprio r, che raccogliamo a parte dentro al segno di integrale: tutto il resto dell’espressione è fatto di costanti, che possono essere raccolte al di fuori e che tali resterebbero comunque anche se volessimo trascinarle nell’operazione di integrazione.

integrale di funzione x dx e di potenza genericaDobbiamo quindi integrare una forma del tipo r dr sul cammino da 0 ad R, come isolata in (6). Questa cosa rappresenta uno dei più diffusi integrali esistenti: stiamo integrando una espressione generica di un solo termine, del tipo x dx. Lo sviluppo di questo integrale è mostrato in (7). Se applichiamo questa formula al nostro caso, otteniamo lo sviluppo mostrato in (8): posto che le costanti c si elidono per differenza di segno, e che il secondo termine è il quadrato di un valore nullo, il risultato conclusivo è una espressione del tipo R^2 / 2; nient’altro che il quadrato del raggio esterno del cilindro di liquido in rotazione diviso per due.

pressione calcolata per liquido in rotazioneOra possiamo sfruttare questi elementi per rimettere assieme tutto il discorso: in (9) è rappresentata l’espressione della pressione totale P – sommatoria di tutte le pressioni originate dai singoli volumi di liquido – esercitata nel complesso alla periferia esterna del nostro cilindro di fluido in rotazione. Lo sviluppo dell’integrale ci permette di ottenere una espressione che la lega al quadrato della velocità angolare di rotazione ω ed al quadrato del raggio R del cilindro, essendo tutto il resto costituito da costanti.

pressione su liquido in rotazione, relazione con densità, frequenza, raggioE’ possibile esprimere anche la pressione P appena trovata in maniera diversa, per esempio rispetto alla frequenza f di rotazione [Hz]. Ricordando in (10) la relazione esistente tra velocità angolare e frequenza, tramite la costante 2 π, per sostituzione possiamo riscrivere l’espressione della pressione in (11), in una forma inelegante ma piuttosto intuitiva per chi è abituato a ragionare pensando al numero di giri al secondo che caratterizza un moto di rotazione. In (11a) un piccolo test di realtà: le dimensioni fisiche dell’espressione appena trovata sono effettivamente quelle di una pressione, espressa in pascal (newton per metro quadrato). Che è quello che ci si potrebbe aspettare.

Se siete disposti ad accontentarvi di uno dei più astratti modelli “a mucca sferica” mai proposti, potete divertirvi ad ipotizzare le pressioni massime raggiungibili in una pompa centrifuga – a flusso bloccato – con queste formulette. O più probabilmente potete ragionare sulle spinte in gioco nella vostra lavatrice. Ignorando di tutto: spessore degli assi, turbolenze, facce laterali dei volumi cilindrici di fluido e via discorrendo. Per chi volesse qualche altra notizia interessante e didattica sul tema, consiglio questo esplicativo video, e magari anche gli esercizi proposti da quelli di Princeton.

Pubblicato in varie | Contrassegnato , , , , , , , , , , , | Lascia un commento

Mi muovo di meno?

infografica consumi prodotti derivati petroliferi (benzina, gasolio, gpl) 2013 2014Evoluzione dei consumi di derivati del petrolio in quantità e tipologia.

Uno sguardo distaccato alle vicende del mercato nazionale dei combustibili: gloria italica fin dai tempi della campagna di Libia, e ovviamente anche nel dopoguerra di Mattei e dei tentativi di dotare la nazione di una autonoma politica energetica. Su questo tema è stato detto praticamente tutto ed il contrario di tutto, specialmente negli ultimi anni: la faziosità dei nostri atteggiamenti nei rapporti con le altre nazioni si palesa in maniera sorprendente quando vengono coinvolti i nostri fornitori di combustibili. Volendo raccontare qualcosa di obiettivo sul tema possiamo provare a ragionare – banalmente e senza sentimentalismi – sull’andamento del mercato italiano dei combustibili, specialmente i derivati del petrolio: in una nazione che ha sposato il trasporto su gomma e che sostiene con tanto fervore le avventure in terra straniera alla ricerca di nuovi giacimenti, questa vicenda dovrebbe rappresentare un tema di discussione sempre caldo.

I dati provvisori disponibili al momento derivano dal lavoro del Ministero dello Sviluppo Economico e – specialmente per epoche più lontane – dalle analisi statistiche di Unione Petrolifera. Ebbene, questi dati parlano chiaro: in Italia il consumo di prodotti petroliferi ha imboccato la via del declino da almeno un decennio. Non stiamo parlando di un mutamento marginale: nemmeno durante le crisi energetiche degli anni ’70 si era potuto assistere ad una discesa tanto imponente. Il ritmo al quale si contraggono i consumi di derivati del petrolio in Italia è in effetti simile a quanto registrato quarant’anni fa, ma a cambiare è la estensione temporale del fenomeno. Ai tempi delle crisi di allora le contrazioni nei consumi nazionali erano state intense ma brevi, e seguite da una sostanziale stabilizzazione nei volumi immessi al consumo. Oggi la situazione è cambiata: dieci anni ininterrotti di discesa a questa velocità non si erano proprio mai visti. La disponibilità pro capite di derivati del petrolio viaggiava da decenni poco sopra ad 1,6 t/anno; ad oggi il dato precipita a poco più di 1 t/anno.

I mutamenti nel comparto dei combustibili non sono stati ovviamente solo quantitativi: anche le qualità in gioco sono cambiate parecchio. Alle origini della nostra avventura industriale la scena era dominata dalla richiesta di olio combustibile ad uso termoelettrico, rifornimenti di natanti e gasolio per riscaldamento e trasporto merci. Il successivo sviluppo della petrolchimica aggiungerà un contendente importante. Le crisi degli anni ’70 cambiano la geografia del mercato, mettendo fuori gioco in particolare il riscaldamento domestico a gasolio – oggi presente in forma residua – e lanciando in grande stile la scelta del metano. L’ultimo vero mutamento è però recentissimo: nell’ultimo decennio si estingue la termoelettricità ad olio combustibile, non più competitiva ed assediata da alternative assai vantaggiose. Oggi viviamo nell’era del gasolio per autotrazione, che ormai si usa a fare di tutto: muove ovviamente autotreni e pale gommate come un tempo, ma anche moltissime autovetture; la benzina pare vivere una lunga agonia.

La caduta apparentemente inesorabile dei consumi nazionali di derivati del petrolio origina, come ben saprete, dalla diminuita disponibilità di petrolio acquistabile sul mercato. Non tutto quanto ovviamente, giacché in realtà esistono disponibilità pressoché infinite di idrocarburi nel sottosuolo: a scemare è il petrolio qualitativamente valido. La risorsa leggera e povera in zolfo offerta dalla Libia è cosa ben diversa dagli oli pesanti dei venezuelani; ed ancora diverse sono le difficili ed inquinanti sabbie bituminose canadesi. A complicare la vicenda, la crescita del mercato interno dei produttori: se gli iraniani consumano di più, esportano di meno. Gli importatori devono adattarsi a fare con meno, ed il mercato ci avverte della presenza di questo coacervo di problemi con un segnale inequivocabile: il prezzo. Viviamo nell’era del barile a 100 dollari, fatto che dovrebbe bastare a chiarire bene la natura della situazione.

I consumi cadono, il dato provvisorio per il 2013 continua ad indicare questa direzione; è su questo fatto che si deve ragionare. In assenza di inversioni di rotta significative, la geografia industriale del nostro paese rischia di dover essere riscritta. Le raffinerie italiane lavorano ora ben al di sotto della propria capacità, saturata per l’ultima volta attorno al 2005 / 2006; ad inizio 2013 il tasso di utilizzo degli impianti era già sceso – secondo Unione Petrolifera – al 70%. La scomparsa di due impianti, Cremona e Roma, convertiti a depositi non sembra poter alleviare a lungo le difficoltà degli altri operatori rimasti. Il fenomeno della chiusura delle raffinerie non è purtroppo una esclusiva italiana: in questa triste classifica veniamo surclassati da nazioni quali Regno Unito, Germania, Francia, che nel periodo 2008 – 2013 hanno soppresso capacità di lavorazione globali in misura perfino superiore a noi italiani. Ad oggi molti impianti in Italia sopravvivono puntellati da contributi alla generazione elettrica con scarti di lavorazione – una attività che ha in parte compensato la scomparsa della termoelettricità convenzionale ad olio combustibile. La ventilata soppressione dei contributi alle fonti elettriche assimiliate alle rinnovabili, per quanto razionale in sé, rischia di produrre ulteriori dissesti di bilancio per il comparto industriale della raffinazione: un problema su cui non si può scherzare.

Ricorre in queste giornate la campagna di sensibilizzazione “M’illumino di meno”, con la quale si cerca di responsabilizzare gli italiani in tema di consumi elettrici in ambiente domestico. L’iniziativa ha attirato critiche, dibattiti ed apprezzamenti come si conviene ad ogni campagna civile degna di nota. Nell’ombra, lontano dai riflettori del circo mediatico e nella apparente indifferenza dei decisori politici, gli italiani hanno probabilmente aderito senza rendersene ben conto ad una campagna di riduzione dei consumi che potremmo piuttosto ribattezzare “Mi muovo di meno”: meno viaggi di piacere e di lavoro, meno carburanti. Per cause di forza maggiore oramai ben note a chiunque sappia leggere i numerini appesi al distributore del paese, i nostri concittadini tirano la cinghia e si adattano a vivere in un mondo nel quale il petrolio è meno abbondante di un tempo. La capacità degli italiani di far fronte ai problemi in via individuale è cosa nota, e non può certo meravigliare; è però giunto il momento di fare qualche scelta anche in sede politica ed amministrativa. In un’epoca di così rapidi cambiamenti l’iniziativa dei singoli potrebbe non bastare più: facciamolo presente a chi pretende di governarci.

Pubblicato in energia | Contrassegnato , , , , , , , , , , , , , | 5 commenti

Piove male

Facciamo il bilancio delle bizzarrie meteo recenti. Con lo strumento Gis della Nasa, partendo dal parametro più abusato: le temperature.

Anomalia temperatura settembre 2013Anomalie termiche, settembre 2013. Fonte: Nasa.
Anomalia temperatura ottobre 2013Anomalie termiche, ottobre 2013. Fonte: Nasa.
Anomalia temperatura novembre 2013Anomalie termiche, novembre 2013. Fonte: Nasa.
Anomalia temperatura dicembre 2013Anomalie termiche, dicembre 2013. Fonte: Nasa.
Anomalia temperatura annuale 2013Anomalie termiche, anno 2013. Fonte: Nasa.

Negli ultimi quattro mesi del 2013 sono capitate varie cose: alcune i giornali le hanno raccontate, altre invece no. Avrete sentito parlare a profusione del rompighiaccio russo bloccato nel ghiaccio: la Akademik Shokalskiy dovrebbe allontanarsi rapidamente dalla posizione che occupa vicino alla base Dumont d’Urville, ma occorre attardarsi per recuperare i passeggeri in missione. L’attesa è sufficiente a permettere al ghiaccio di richiudersi ed ispessirsi – capita facilmente in Antartide – e l’imbarcazione resta bloccata, dando avvio ad una operazione di salvataggio complessa. A vicenda chiusa, vale la pena ricordare le strombazzate dei propugnatori della incipiente era glaciale – dei sogni – che hanno tanto ricamato ed ironizzato su questo evento. L’area antartica, così come l’Australia, è stata soggetta a consistenti anomalie termiche positive visibili ancora a settembre; 4 – 9 °C di troppo è già una notizia. In eredità ci rimane la montagna di cenere in cui è stata ridotta parte dell’Australia, assieme a tante simpatiche storielle.

Probabilmente non si può parlare di queste cose. Molto meglio riempire telegiornali e riviste con le notizie sulle tempeste di neve che investono gli Usa: il fresco è rassicurante. E poi è piacevole bersi un tè caldo guardando la neve dietro al vetro – finestra o tubo catodico che sia. E così giù strombazzate sulla tempesta che blocca gli Usa, la neve, il freddo. Informazione davvero corretta: al punto che quasi in nessun caso i nostri prodi informatori si sono ricordati di dirci che a novembre e dicembre si sviluppava una enorme anomalia termica positiva sulla Russia, per una estensione di diecimila chilometri o forse più. Niente inverno o quasi in Russia – e nemmeno in Italia. Per fortuna abbiamo potuto ammirarlo a New York. Tutto questo può essere fastidioso, ma in effetti non è nuovo: si tratta di dinamiche comunicative che si ripropongono ormai da alcuni anni più o meno sempre uguali.

Il fatto che la temperatura sia più alta o più bassa, occasionalmente anche di parecchi gradi, non è detto che rappresenti per forza un problema insormontabile nell’immediato. C’è un indicatore diverso che forse dovrebbe preoccuparci di più fin da subito: le precipitazioni. Se piove di meno o nel momento sbagliato le cose cambiano: e visto che questi mutamenti incidono sulla realtà locale, vediamoli per la mia regione con le grafiche di Arpa.

Pioggia in emilia romagna in estatePrecipitazioni estive in Emilia Romagna nel periodo 1961 – 1990. Fonte: Arpa.
Pioggia in emilia romagna in estatePrecipitazioni estive in Emilia Romagna nel periodo 1991 – 2008. Fonte: Arpa.

In pochi decenni, vistoso mutamento climatico. Non solo fa più caldo in estate, ma piove anche di meno. Le aree affette dal problema si allargano a macchia d’olio: ad inverni fangosi e generosi in alluvioni fanno da contraltare estati torride e prive di nuvole. Non è che sia cambiato tanto l’apporto complessivo di pioggia, che è diminuito di poco; è aumentata la disomogeneità nella distribuzione delle acque meteoriche. Se volessimo badare semplicemente ai valori medi delle temperature, potremmo notare che una anomalia di 0,6 °C non è sconvolgente; analogo discorso per la pioggia, l’apporto medio globale non è variato tanto. La realtà però è diversa: oggi siamo pieni di pioggia che fa danni a novembre o a gennaio, e sopportiamo siccità estive interminabili assieme ad ondate di calore difficilmente gestibili. Anche gli agricoltori emiliani dovranno adattarsi a questo stato di cose.

Un ultimo ingrediente peggiorativo per una situazione già problematica: la variabilità tra annate. Se le estati fossero tutte egualmente siccitose si potrebbe risolvere facilmente, ma non è questo il caso. Il bello è che si alternano annate tutto sommato normali ad annate fortemente anomale. Come nel caso dell’estate 2011, che ha causato tanti danni ai campi ed alle alberature anche attorno a casa mia. O come l’estate 2012, che ha portato al midwest americano una distruzione difficile da dimenticare – si vedano gli aggiornamenti recenti del governo. Se si vuole nascondere un problema una buona tecnica è fare un bel miscuglio – in senso temporale o spaziale – delle variabili disponibili. Una bella media annuale su un continente e – magia – scompare tutto. Ma attenzione: questo non cancella il problema. Semplicemente ci permette di patirne danni più gravi.

Pubblicato in agricoltura, ambiente | Contrassegnato , , , , , , , , , , , , | 1 commento

Regressione lineare

La regressione lineare: quante volte la usate? E in quante forme? La radice del termine: il regredi latino, il tornare indietro, ripercorrere. Cerchiamo di produrre funzioni lineari, semplici rette nel piano cartesiano, che possano approssimare bene la disposizione di famiglie di valori puntiformi. E’ formalmente corretto parlare di regressione lineare quando ci riferiamo alla ricerca di una retta che minimizzi gli scarti generati nel confronto con le coordinate dei punti che essa tenta di rappresentare.

Prendiamo un gruppo di valori a caso che costituiscano le coordinate di punti su un piano cartesiano – i consueti due assi x e y: coppie di valori a rappresentarne le coordinate. Potremmo impiegare per le x i valori (1986 1987 1988 1989 1990 1991 1992 1993 1994 1995 1996 1997 1998 1999 2000 2001 2002 2003) e per le y i valori (30.23 37.26 28.96 33.75 41.68 33.72 31.62 26.97 24.5 25.64 30.24 27.31 17.91 24.76 37.99 31.69 31.94 35.97); si faccia caso alla notazione anglosassone, i punti equivalgono alle nostre virgole. Piazziamo il tutto su un foglio di calcolo e vediamo cosa restituisce per via grafica.

Interpolazione lineare prezzi risorsaQuello che abbiamo messo assieme sul foglio di calcolo è una famiglia di valori, coppie di coordinate (x,y), che rappresentano dei punti. La linea rossa nel mezzo è la migliore regressione lineare offerta dal foglio di calcolo in OpenOffice, con la relativa formula del tipo y = m*x + c. Ovviamente una retta con il suo bel coefficiente angolare m e la sua intercetta sull’asse delle ordinate. Si tratta della correlazione che riesce a rappresentare meglio la famiglia di punti: cioè che minimizza lo scarto esistente tra il valore che propone ed il valore effettivo delle coordinate dei punti da cui deriva. Come fa il programma del foglio di calcolo a dedurla? Usa una legge matematica generica adattabile a qualsivoglia numero di punti del piano – anche grande – che si può esprimere, tra le varie possibilità esistenti, nella maniera seguente (la restituzione grafica della formula è opera del programma Math):

Formula generica interpolazione lineare n punti del piano cartesianoQueste due espressioni rappresentano, per n coppie di valori (x,y) dati, il coefficiente angolare m e l’intercetta sull’asse delle ordinate c della funzione f(x) = m*x + c; la retta del piano cartesiano che meglio approssima tutti i punti dati che vuole rappresentare. A stento si potrebbe parlare di matematica, visto il livello delle operazioni impiegate. Proviamo con un esempio semplice: i tre punti di coordinata (1,2) (2,3) (3,4), potreste indovinarla anche ad occhio. I denominatori delle espressioni di cui sopra valgono entrambi 3 * (1 + 4 + 9) – (1 + 2 + 3) ^2 = 6. Ergo possiamo trovare m, che vale [(2 + 3 + 4) * (1 + 4 + 9) - (1 + 2 + 3) * (2 + 6 + 12)] / 6 = [9 * 14 - 6*20] / 6 = 1. Il valore di c risulta [3*(2 + 6 + 12) - (1 + 2 + 3)*(2 + 3 + 4)] / 6 = [3*20 - 6*9] / 6 = 1. Tanta fatica per disegnare una retta avente pendenza unitaria – vale 1, cioè 100 %, una inclinazione di 45° – ed intercetta all’asse delle ordinate anch’essa unitaria. Una cosa stupida, almeno fin quando non ci troviamo la scia di valori ipotizzata nel primo grafico: tante coppie a caso con tanti valori dotati di decimali. Vi voglio vedere a farvi a mano la regressione lineare di quella roba. Ci diventate vecchi.

E’ in casi simili che cerchiamo di servirci di un calcolatore, magari impiegando un foglio di calcolo. Può essere che il programma non vi soddisfi, perché magari si pianta con tanti valori o perché restituisce coefficienti arrotondati in maniera troppo rozza; e vorreste stabilire direttamente quanti decimali tirarvi dietro nei singoli passaggi. La soluzione che viene in mente a me è quella di usare la shell Bash su una macchina Linux. Io uso questa roba per abitudine; è qualcosa di semplice, funzionale ed affidabile. Possiamo quindi provare a scrivere nella shell:


#!/bin/bash

echo via!

SX=0 #sommatoria ascisse
SY=0 #sommatoria ordinate
SXQ=0 #sommatoria quadrati ascisse
SYQ=0 #sommatoria quadrati ordinate
SXY=0 #sommatoria prodotti ascisse ordinate
DOT=15 #numero di decimali richiesti nei calcoli

#caricamento array ascisse ed ordinate
x=(1986 1987 1988 1989 1990 1991 1992 1993 1994 1995 1996 1997 1998 1999 2000 2001 2002 2003)
y=(30.23 37.26 28.96 33.75 41.68 33.72 31.62 26.97 24.5 25.64 30.24 27.31 17.91 24.76 37.99 31.69 31.94 35.97)

#conteggio del numero di elementi caricati nell'array delle ascisse
n=${#x[@]}
echo "$n elementi"

i=0

while [ $i -lt $n ]
do
SX=$(echo "scale=$DOT; ${x[$i]}+$SX" | bc)
SY=$(echo "scale=$DOT; ${y[$i]}+$SY" | bc)
SXQ=$(echo "scale=$DOT; ${x[$i]}^2+$SXQ" | bc)
SYQ=$(echo "scale=$DOT; ${y[$i]}^2+$SYQ" | bc)
SXY=$(echo "scale=$DOT; ${x[$i]}*${y[$i]}+$SXY" | bc)
((i=i+1))
done

#stampo i parziali
echo "x = $SX, y= $SY, x quadrato = $SXQ, y quadrato = $SYQ, prodotto x y = $SXY"

#calcolo equazione retta di regressione
denom=$(echo "scale=$DOT; $n*$SXQ-($SX^2)" | bc)
echo "denominatore: $denom"
numerM=$(echo "scale=$DOT; $n*$SXY-$SX*$SY" | bc)
echo "numeratore per coefficiente angolare: $numerM"
numerC=$(echo "scale=$DOT; $SY*$SXQ-$SX*$SXY" | bc)
echo "numeratore per intercetta asse ordinate $numerC"
M=$(echo "scale=$DOT; $numerM/$denom" | bc)
C=$(echo "scale=$DOT; $numerC/$denom" | bc)

end="Equazione retta: y = $M x + $C e saluti"
echo $end
echo $end > risultato_regressione
sleep 7

In pratica lo script – eventualmente salvato in un file di testo con permessi d’esecuzione – provvede a calcolare i parametri di una regressione lineare basandosi sui valori di (x,y) immessi con i due array per le coordinate. La libreria bc è necessaria per consentire alla shell di gestire calcoli su numeri reali dotati di componente frazionaria. Nel caso di esempio, chiediamo alla macchina di eseguire il calcolo sui medesimi 18 valori fatti masticare al foglio di calcolo; operando sempre a 15 decimali significativi. Ne otteniamo una equazione per la regressione lineare del tipo y = -0.179195046439628 x + 388.078964568283453. In effetti in buon accordo con i valori proposti da OpenOffice almeno per le prime 12 cifre dopo la virgola; per spingersi oltre bisognerebbe poter controllare meglio il comportamento del programma, ma non è detto che sia così rilevante.

Si noti che la soluzione su shell è leggermente più impegnativa, ma consente di fare cose che sarebbero altrimenti improponibili: tipo mandare giù gli orpelli grafici e saturare il processore e la memoria con i soli calcoli, oppure ancora operare su cinquanta cifre significative o cose simili. E’ anche possibile far digerire ad uno script una regressione basata su decine di migliaia di valori, per quanto si tratti di una operazione molesta per il nostro hardware. Tentare operazioni simili su dei fogli di calcolo fa sorgere qualche rischio di crash per il programma o per il sistema, anche per chi utilizza un carrarmato sovietico come Lxde o simili. Onestamente devo dire che con il tempo sto rivalutando l’agilità e la potenza degli emulatori di terminale. Non sempre la grafica pesante a cui siamo abituati rappresenta un reale vantaggio.

Altro problema: la rappresentatività delle regressioni lineari. Non è detto che siano efficaci, noi umani ne abusiamo facilmente. Sono semplici, una volta bastava utilizzare un righello per realizzarle tramite bisezione: con risultati talora terribilmente imprecisi. Se c’è una cosa davvero sbagliata che possiamo fare però, questa è un’altra: tentare di predire il futuro estrapolando rozze regressioni lineari. Una correlazione lineare dovrebbe essere utilizzata nel suo effettivo campo di esistenza, e cioè dentro allo spazio del piano cartesiano popolato dai valori da cui deriva. Purtroppo non tutti la pensano in questo modo. Ma la colpa non è né dei fogli di calcolo né degli script per Bash: è tutto un problema di istinti insiti nella nostra mente, e nessun computer potrà mai cambiare questo stato di cose. Se non vedete i puntini lì attorno, diffidate della regressione: forse vi stanno vendendo favole.

Pubblicato in varie | Contrassegnato , , , , , , , , , , , , | 3 commenti

Trasporto pubblico: neanche gratis?

Pubblicato su iMille.

Una proposta inconsueta attuata in grande stile poco più di un anno fa: il trasporto pubblico gratuito. Questa bizzarria non è italiana – per quanto potremmo pensare di aver prodotto effetti dimensionalmente simili con i nostri immarcescibili viaggiatori a sbafo. E’ una idea del sindaco e della amministrazione della capitale estone, Tallinn: Edgar Savisaar, politico affermato fin dai tempi del dominio sovietico, ha tentato di ridare slancio al trasporto collettivo con l’eliminazione del costo dei biglietti per i residenti. Una scelta a dire il vero non del tutto nuova, dato che esperienze simili sono esistite ed in parte sopravvivono in svariate cittadine europee di media taglia; come la belga Hasselt o la francese Aubagne. L’elemento di novità in questo caso è la dimensione: Tallinn è un piccola capitale europea di oltre 400.000 abitanti, con un certo movimento di passeggeri dalle municipalità limitrofe ed una forte tradizione turistica e mercantile. L’operazione di soppressione dei costi di viaggio per i residenti, non ancora completata, si estende ora anche ad alcuni collegamenti ferroviari con gli abitati limitrofi.

Questa singolare iniziativa ha ricevuto apprezzamenti variabili in patria come all’estero. La Commissione Europea ha salutato la decisione degli estoni come uno strumento per contenere i problemi causati dalla congestione del traffico. Possiamo conoscerne qualche dettaglio tramite la relativa rassegna stampa: “…Allan Alaküla, capo dell’ufficio UE a Tallinn, ha affermato che il bilancio annuale del servizio di trasporti pubblici della città ammontava a 53 milioni di euro, con solo 17 milioni di euro di entrate derivanti dalla vendita di biglietti, di cui 5 milioni provenienti dall’acquisto di titoli di viaggio da parte di non residenti. Con l’introduzione del trasporto pubblico gratuito per gli abitanti di Tallinn, l’amministrazione ha dovuto sostenere costi aggiuntivi pari a 12 milioni di euro: un prezzo da pagare ritenuto ragionevole alla luce dei vantaggi derivanti dall’iniziativa….”. Si noti che l’esborso aggiuntivo di 12 milioni di euro annui – più o meno 30 euro per residente – è stato varato a seguito di un referendum nel quale i tre quarti dei cittadini si sono espressi a favore dell’iniziativa. Si può dipingere questa particolare operazione in moltissime maniere, ma è fuori luogo parlare di monumentale spreco vista la pochezza delle risorse aggiuntive impiegate; e comunque non si tratta di un diktat: la scelta è stata messa nelle mani dei cittadini.

E’ tempo di bilanci, e vale la pena domandarci se questa operazione abbia sortito qualche effetto pratico. La manovra è economicamente abbordabile, visti gli importi: e potrebbe anche avere saldi leggermente vantaggiosi in caso di semplificazione ed alleggerimento del sistema burocratico sotteso all’emissione di biglietti ed abbonamenti. Ma quello che conta davvero è piuttosto: i cittadini di Tallinn usano di più il trasporto pubblico rispetto ad uno o due anni fa? In apparenza non più di tanto, stando a questo resoconto su Presseurop: “…secondo il Centro di ricerca sui trasporti dell’Istituto reale di tecnologia svedese, la gratuità dei trasporti pubblici a Tallinn ha fatto aumentare il numero dei passeggeri soltanto nella misura dell’1,2 per cento, non determinando quindi miglioramenti significativi…”. La radice dell’insuccesso ottenuto starebbe nella qualità inadeguata dei servizi: mezzi vetusti, linee inadeguate, incapacità di adattare la rete dei trasporti alla evoluzione della pianta urbana e delle relazioni con il territorio circostante. Un risultato apparentemente deludente, o perlomeno non particolarmente brillante, misurato ed analizzato dai ricercatori dell’Istituto Reale di Tecnologia svedese. La ricerca originale – per ora l’unica a disposizione, basata su dati raccolti direttamente dagli operatori concessionari dei servizi – è pubblicata anche sul sito dell’amministrazione cittadina. Si noti bene che se da un lato è vero che gli incrementi ottenuti sono scarsi, si è comunque interrotta la tendenza alla perdita di passeggeri che caratterizzava i mezzi pubblici cittadini negli ultimi anni: è dunque più corretto dire che c’è stata una inversione di tendenza, seppure in presenza di risultati assoluti ancora molto modesti.

L’idea di abbassare o rimuovere il costo dei biglietti per i sistemi di trasporto pubblico è ormai relativamente datata, e possiamo contare moltissimi e variegati esperimenti sul tema: un promemoria si ritrova anche in enciclopedia. Gli esiti sono variabili; i problemi più frequentemente incontrati sono l’avversione dei cittadini per i mezzi pubblici – tipica di alcune realtà – e l’incremento di eventi quali atti vandalici ed aggressioni. Non è in generale scontato che l’abbattimento dei prezzi possa premiare realmente il trasporto pubblico urbano: i passeggeri che ne beneficiano sono spesso così giovani o così poveri che in definitiva non avrebbero comunque potuto permettersi altro che un abbonamento ai mezzi. La fetta più interessante di viaggiatori, i lavoratori dotati di un’auto, è molto difficile da attrarre: per costoro a fare la differenza non è il costo del servizio, inevitabilmente basso rispetto al reddito, ma la qualità del servizio stesso. Offrire datate tranvie aventi velocità media di 15 km/h – o meno – può essere accettabile laddove risultino difficoltosi gli spostamenti in auto; in una città di medie dimensioni che conosce pochi ingorghi, questa performance non può bastare ad attirare passeggeri dotati di alternative più veloci. E’ probabile che l’amministrazione comunale di Tallinn debba lavorare ancora parecchio per ridare slancio al trasporto pubblico cittadino.

Dall’altra parte del pianeta, nella capitale della Colombia, esiste da più di un decennio una anomalia del settore dei trasporti che fa parlare frequentemente di sé: parliamo del TransMilenio, probabilmente il più frequentato sistema di trasporto urbano su gomma del pianeta, evoluzione dell’antesignano sistema di Curitiba. Al passaggio del millennio gli amministratori di Bogotà hanno dovuto affrontare una situazione effettivamente critica: trasporti cittadini allo sfascio, ingorghi colossali, inquinamento pervasivo e – come spesso accade – risorse scarse per realizzare infrastrutture pesanti. La risposta, anziché un mucchio di debiti per cattedrali nel deserto di incerta efficacia, è stata la realizzazione di una spartana rete di corsie riservate percorse da grossi autobus snodati. Le 12 linee del sistema principale – più o meno 112 km totali, a cui sommare 662 km di tracciati secondari – vengono percorse da 1.400 mezzi; attraendo ormai 1,6 milioni di viaggiatori al giorno. Il biglietto al costo equivalente di 0,87 – 0,93 US$ circa ha ovviamente già indotto proteste tra gli studenti, l’ultima nel 2012; ma non sembra minare la popolarità del sistema, molto gradito ad almeno tre residenti su quattro. Problemi tipici il sovraffollamento ed i furti: inevitabili dove ci sono tante persone tutte assieme, e lo sa bene chiunque abbia frequentato le metropolitane parigine. Sarà pur vero che è scorretto fare confronti con una metropoli come Bogotà, ma di sistemi simili ne esistono tanti, e funzionano bene anche in realtà dimensionalmente più modeste.

Le esperienze dei colombiani e degli estoni sembrano smentire moltissimi luoghi comuni: il primo, espresso dai redattori di Presseurop, il motto “in autobus neanche gratis”. A Bogotà le auto sono tante e le strade pure, e l’autobus costa abbastanza in relazione ai salari tipici dei residenti; eppure il servizio è un successo ormai riconosciuto perfino all’estero. La rete di rotaie e filovie di Tallinn d’altro canto non sembra proprio in grado di competere, nemmeno a regalarla: i risultati sono fin qui modesti. Quello che manca in questo caso è la percezione delle necessità degli utenti: corse frequenti, poche linee piazzate con criterio, velocità medie accettabili, mezzi decorosi, tutela rispetto ai capricci del traffico privato. Mancando queste cose, tutto il resto diviene poco rilevante: agli estoni ed ai colombiani non interessa sapere se si stanno servendo di ruote di ferro o di gomma, vogliono sapere piuttosto se il servizio che usano è efficace oppure no. Un servizio scadente o inadeguato al contesto non troverà estimatori nemmeno a volerlo regalare: sarà bene ricordarsene anche qui in Italia.

Pubblicato in trasporti | Contrassegnato , , , , , , , , , , , , , | 8 commenti

Se questo è un disoccupato

Tassi percentuali di occupazione, disoccupazione, attività in Italia. Tasso di disoccupazione giovanile e totale. Occupati, disoccupati ed inoccupati. Anno 2008, 2009, 2010, 2011, 2012, 2013, 2014.Tassi percentuali di occupazione, disoccupazione, attività in Italia – per i giovani e totali. Fonte: Istat.

Tasso di occupazione: rapporto tra gli occupati e la popolazione di 15 anni e più, moltiplicato per 100. Tasso di disoccupazione: rapporto tra le persone in cerca di occupazione e le forze di lavoro, moltiplicato per 100. Tasso di attività: rapporto tra le persone appartenenti alle forze di lavoro e la popolazione di 15 anni e più, moltiplicato per 100. Forze di lavoro: la somma delle persone occupate e quelle disoccupate. Persone disoccupate: tutte quelle che cercano attivamente un lavoro. Persone inoccupate: tutte quelle che non hanno un lavoro e non lo cercano. Così racconta Istat, che tra l’altro nel 1993 espelle i quattordicenni dalle statistiche generando un grazioso scalino nei grafici.

Un bel caleidoscopio di numerini vero? Nel diagramma ho riportato all’incirca l’1% di quello che si potrebbe dire sullo stato del mercato del lavoro in Italia, e ce n’è già per scatenare una lite. Il tasso percentuale di disoccupazione totale è risalito negli ultimi anni, anche se di poco; ad ingrossare davvero le fila dei disoccupati sono i giovani, per i quali l’analogo tasso ha subito una impennata più decisa. Il tasso di attività totale è pressoché invariato da più di tre decenni: passati i 24 anni d’età, metà circa del campione lavora o cerca lavoro. L’altra metà non si sa, ma possiamo immaginarlo: lavora in nero, oppure vive in famiglia e lava gli abiti a qualcun altro.

A seconda di quel che guardiamo possiamo dipingere la nostra nazione in maniera totalmente diversa: la disoccupazione è marginale per chi ha più di 24 anni, ma permanentemente elevata per chi è più giovane. Il tasso di occupazione totale è addirittura cresciuto un po a cavallo del passaggio di millennio, ma in definitiva varia di poco. I cambiamenti li sopportano i più giovani: sono loro a veder scendere i tassi di occupazione ed attività, e da parecchio tempo. La mitica crisi del 2008 / 2009 è chiacchiera da bar: la caduta dei parametri specifici per i giovani era iniziata da quasi un decennio, e prosegue inalterata da allora. Ha sapore di demografia, e di cambiamento dell’assetto del sistema produttivo: c’è così tanto bisogno di calzolai e di panettieri appena usciti dalla scuola media inferiore che non li assume più nessuno. Lo avreste mai detto? Le bizzarrie statistiche italiane in tema di lavoro sono anche più grosse: per chi ne vuole ancora, ci sono le serie storiche di Istat. Divertitevi pure a raccontarmi perché la rappresentazione che offro è sbagliata in ogni sua parte; perché lo so anch’io che è così.

Pubblicato in attualità, varie | Contrassegnato , , , , , , , , , , , , | 5 commenti

Ad aspettare l’autobus

Come fa un sistema di trasporto a non funzionare? Domanda strana, vero? Di solito ci si chiede il contrario, e cioè come fa piuttosto a funzionare. Eppure in Italia abbiamo a disposizione tantissimi esempi di segno opposto. Ferrovie abbandonate, trasporti urbani vergognosi, treni tanto veloci da risultare vuoti, ingorghi patetici, mezzi dell’anteguerra e via dicendo. Non è una esclusiva italiana – questi problemi esistono anche all’estero – ma comunque si tratta di una faccenda che ci riguarda tutti quanti. Le cose che possono andare storte in un sistema di trasporto sono tante e diverse, tendenzialmente non sempre le stesse al variare del sistema scelto. In un sistema non regolato e dominato dai mezzi individuali, come la strada, di solito a sfuggire al controllo sono i costi: costi stellari per i mezzi, per i carburanti; costi esterni insostenibili, ad esempio per gli incidenti o per i danni inferti dall’inquinamento. Nell’immediato, costi devastanti per le infrastrutture: la montagna di catrame che serve per ospitare tutte le nostre automobili non è gratis. Gli italiani si scagliano spesso contro gli sprechi della pubblica amministrazione, ma nessuno di essi si domanda quanto spendiamo per parcheggi, viadotti, autostrade: domanda scomoda, meglio evitare.

Nei sistemi regolati, come il trasporto pubblico urbano o la ferrovia, esistono altri metodi per far andare male le cose. Il primo e forse più utilizzato in Italia è impedire agli utenti la fruizione del servizio. Far continuamente ritardare – o sparire, magia! – buona parte dei diecimila treni circolanti sulla rete nazionale è un metodo efficace: davanti a questo stato di cose è probabile che il treno non finisca in cima alle preferenze dei cittadini. Un’altra tecnica: realizzare orari assurdi, con poche corse disposte laddove non servono. Questo metodo piace alle aziende del trasporto pubblico locale, che nelle nostre città hanno l’abitudine di piazzare dieci linee a 200 m l’una dall’altra e servirle con un – aleatorio – transito ogni ora. A nessuna persona sana di mente verrà mai l’idea di aspettare un giorno ogni due per 50 minuti un autobus che ha una probabilità su due di non arrivare affatto. Non serve scomodare le fisica quantistica per capire che così non funziona.

Come faccio a sapere tutte queste cose? Sono un grillino arrogante, dite? No, mi spiace: sono solo esperto. Non scherzo. Faccio il pendolare ferroviario / stradale da ventidue anni. Ventidue anni, non è una battuta. E per questa tragica esperienza merito un minimo di rispetto, per me e per tutti i miei compagni di sventura – che di sventura si tratta, almeno qui in Italia. Ho iniziato alle scuole superiori, e non ho mai smesso, e ho visto di tutto. Le strade provinciali bloccate ad ogni chiusura di autostrada, i treni che viaggiano in una tormenta di neve con le portiere aperte, i suicidi sui binari, i cretini che corrono a tutta birra sulle carraie in campagna per girare attorno ad un semaforo, gli autobus incendiati tra le risate degli studenti, le risse tra i passeggeri, le corriere da 83 posti con sopra 160 persone, i convogli guasti in galleria che scivolano pian piano per gravità. Che risate. Quanti ricordi. Conosco a menadito – come d’altronde tutti i miei compagni di sventura – ogni difetto del sistema di trasporto della mia realtà; e davanti a certe domande vi assicuro che noi poveri pendolari forniremo sempre invariabilmente le stesse risposte. Risposte ovvie ed inutili.

Bando alle battute, che le sparate sull’alta velocità ormai annoiano: stavolta ce le risparmiamo. Come si fa a dire se una rete di trasporti è efficace? Una rete cittadina, di qualsivoglia tipo di mezzi intendo. Come deve essere fatta? Poniamo di avere una città di provincia di 179.000 abitanti nella quale i residenti vogliono usare un mezzo pubblico per spostarsi. Immaginiamo che i transiti dei mezzi siano frequenti e che i relativi percorsi siano distribuiti razionalmente – ci vuole della fantasia, ma immaginiamolo. Il residuo fattore limitante per il gradimento del sistema è la presenza di fermate non troppo lontane: se devi camminare per 1 / 1,5 km appena sceso dal treno o dal filobus devi essere relativamente giovane, povero ed amante delle passeggiate (come me). Altrimenti non lo fai: i miei genitori non lo farebbero. Immaginiamo di avere una fermata, e che possa coprire un intorno di 500 metri, o di quanto vi pare: chi ci sta dentro può accedere al mezzo pubblico. Attenzione però: perché il gioco funzioni, anche la destinazione di arrivo deve essere servita da un’altra fermata della rete di trasporto, ancora una volta a distanza non eccessiva. Nella pratica, ad usare un simile sistema sono solo i residenti che trovano a distanza ragionevole due fermate: quella di partenza e quella di arrivo; immaginando ovviamente che la buona cadenza di transito renda poco rilevanti i tempi di attesa e quelli di eventuale cambio di linea intermedio.

Questa cosa che abbiamo appena immaginato è un quadrato; o meglio, qualcosa che ci va vicino. Chiediamo il rispetto della medesima condizione geografica per due volte. Immaginiamo di avere una superficie squadrata suddivisa in 5 x 5 parcelle, 25 quadretti da usare come punti di partenza ed arrivo per viaggiare in città. Se il servizio offerto raggiunge solo 10 di questi quadretti, e se hanno tutti lo stesso valore, otterrò che esistono per ogni quadretto servito 9 destinazioni accessibili – le altre della rete – e 15 non accessibili. Sono 90 possibili spostamenti; si noti che vanno considerati anche i doppioni: partire da c per andare a z non è uguale a partire da z per andare a c. I movimenti totali teoricamente possibili sono 24 per ogni punto di partenza: 24 · 25 = 600. Se ci fate caso, 90 / 600 = 0,15: piuttosto vicino al quadrato di 10 / 25, che è 0,16. La differenza si può assottigliare utilizzando maglie più fitte, tipo 100 x 100: se stavolta opero una rete di 3.000 punti di accesso su 10.000 parcelle totali, i viaggi realizzabili sono 3.000 · 2.999 = 8.997.000. Gli itinerari possibili, inclusi quelli non coperti dal sistema di trasporto, sono invece 10.000 · 9.999 = 99.990.000. Stavolta (3.000 / 10.000) ^2 = 0,09, mentre nella pratica l’efficacia della mia rete vale 8.997.000 / 99.990.000 = 0,089978998….è troncato, e ormai simile. Al crescere del numero di parcelle del modello, l’efficacia del sistema approssima – in maniera asintotica – il quadrato della frazione di parcelle servite dal sistema. In forma grafica è più facile.

fermate sistema trasporto pubblico contro efficacia nella cattura degli spostamentiNel diagramma si ipotizza una rete globale di 10.000 celle, insolitamente fitta; al crescere dell’incidenza di quelle servite da un punto d’accesso della rete di trasporto, cresce la frazione di viaggi che effettivamente la suddetta rete può catturare. Qualche critica: ipotizzare celle quadrate è sbagliato, gli intorni di una fermata sono ovviamente cerchi distorti dalla geografia cittadina. Questo errore è rilevante quando i suddetti cerchi iniziano a sovrapporsi: se sono distanziati non ha valore. Immaginando un poco compatto impacchettamento di cerchi a griglia di centri quadrata, questi inizieranno a toccarsi solo quando occuperanno almeno i (3,141592654 / 4) della pianta totale disponibile. Male che vada, l’immagine in alto è fedele almeno fino ad un buon 78% di incidenza delle parcelle servite su quelle totali. Sopra a questi valori, si realizzerà un avvicinamento asintotico alla completa cattura degli spostamenti totali; posto che le aree di azione dei vari punti di accesso del sistema prendono ad intersecarsi, è ovvio che la somma della loro superficie supererà ampiamente la superficie totale dell’area urbana senza che la cattura completa sia avvenuta. Gli asintoti sono fatti così.

Ogni modello a mucca sferica è abbastanza stupido da poter essere rigettato; e questo non fa eccezione, dato che osserva solo un aspetto dei tanti che caratterizzano il problema. Cadenze di transito, trasporto intermodale, meteorologia, cultura, struttura dell’urbanizzato, capacità economiche dei cittadini, esigenze lavorative, condizioni di salute….possiamo sbizzarrirci. Eppure un modello così stupido qualcosa lo dice ugualmente: una rete di trasporto che copre appena il 10% delle destinazioni può sperare di catturare in se e per se un misero 1% degli spostamenti ipotizzabili. Per attrarne un buon 25%, dovremmo servire la metà delle superfici esistenti. Forza degli esponenziali e delle non linearità. Teniamone conto, quando ci propongono di demolire una intera rete di trasporto urbano per sostituirla con un paio di binari che servono a malapena un viale cittadino. Esiste – a livello di mera aritmetica – qualche possibilità di insuccesso.

Pubblicato in trasporti | Contrassegnato , , , , , , , , , , , , , | 3 commenti