L’Ucraina alla guerra dell’energia

Energia in Ucraina: produzione e consumo di petrolio, carbone e gas naturale dal 1985 ad oggi.

Quando non hai voglia di scrivere, puoi sempre disegnare. Che succede in Ucraina? E cosa è successo in passato a questa ex repubblica sovietica? Guerra? Povertà? Corruzione? Odio? Complotti? Di tutto un po? Giudicate con i vostri occhi, e ricordate di non affidarvi mai ad una fonte sola per vicende così controverse. Ovviamente dovete diffidare anche del sottoscritto.

Nella grafica raffazzonata di cui sopra trovate un riassunto dei flussi di energia per l’Ucraina dalla metà degli anni ’80 ad oggi. Suddivide le tipologie di petroli prodotti sulla base dei dati Eia, e per il resto si affida alle comprensibili semplificazioni dell’atlante statistico BP. Se non vi piace me lo dite, vi spedisco tutta la base dati e ve la rifate un po meglio. Sennò ve la sorbite com’è.

Pubblicato in attualità, energia | Contrassegnato , , , , , , , , , , , , | 1 commento

La sicurezza idraulica alla prova dei tagli

Pubblicato su iMille.

Passate le inondazioni – cifra stabile della brutta stagione nella Pianura Padana – viene il tempo di dare un’occhiata alle condizioni in cui versa il territorio che abitiamo. Il nostro rapporto con l’ambiente, specie nella pianura emiliana, si esprime nella forma di canali, argini, impianti di sollevamento, ponti, sbarramenti, casse. L’acqua che ha modellato questo territorio ha anche plasmato il nostro carattere ed i nostri comportamenti: fin dall’età classica ci arrabattiamo per tenere all’asciutto qualche pezzo di terra, al punto di dirottare il corso dei fiumi a forza di badili e carriole. Un po tutto il bacino del Po risente dell’interazione tra l’azione dell’uomo e la forza dei fiumi: tra le tante testimonianze possibili, l’antica rotta di Ficarolo che sconvolge la geografia della pianura nel basso medioevo. O ancora l’abitato di Concordia sulla Secchia, che potrebbe aver preso nome da importanti accordi tra le città circostanti interessate a ridisegnare il sistema dei canali e dei corsi d’acqua per far fronte ai mutamenti imposti dalle rotte dell’epoca. Che sia storia o mito, la pianura del Po e dei suoi affluenti vive di acqua, ed occasionalmente di acqua finisce pure col perire.

I fatti di inizio 2014: nella notte tra il 18 ed il 19 gennaio transita un’onda di piena di una certa importanza, che allerta – o dovrebbe allertare – i servizi di sorveglianza ed intervento necessari per corsi d’acqua costretti tra alte arginature. Nella mattina del 19 gennaio viene notata una breccia: il Secchia supera l’argine destro in località San Matteo, a nord di Modena, in un punto nel quale lo spazio tra le basi dei due rilevati a stento supera i 60 metri. Nessuno interviene, la falla si allarga indisturbata: quando viene notata da una persona di passaggio è già ampia, seppure non ancora profonda. La cronologia dei primissimi eventi contiene alcuni punti che genereranno imbarazzo, evidenziati dall’assessore Paola Gazzolo. In pratica, la falla viene notata casualmente alle prime luci dell’alba: gli addetti locali alle emergenze realizzano la gravità della situazione ed allertano la sede modenese di Aipo, che invierà un addetto entro le 8:30. Si attende l’arrivo di un dirigente di Aipo, che non sta a Modena – viene da lontano – e che sarà sul posto per le 10:00. In assenza di interventi, la falla si allarga e l’acqua è ormai ben incamminata in direzione degli abitati più vicini, che non vengono evacuati: sarebbe una follia far scendere in strada in disordine migliaia di persone con una piena che di fatto ha già raggiunto il perimetro urbanizzato. Riassumendo: niente controllo notturno sul tracciato dell’argine, individuazione casuale della falla da parte di una persona di passaggio, ore di attesa per far giungere sul posto i responsabili del servizio, impossibilità pratica di evacuazione per molte persone a causa dei ritardi negli interventi. Il resto è storia.

Nelle ultime giornate a tenere banco è giunta la relazione della commissione scientifica, incaricata di determinare cause e modalità del disastro. Le precipitazioni e l’onda di piena registrate a gennaio 2014 sono state importanti, ma non rappresentano un unicum isolato. Le quote liquide registrate alla sezione di Ponte Alto sono confrontabili con quelle della piena del dicembre 2009, ma la piena di quattro anni fa non fece affatto parlare di sé. L’eccezionalità dell’evento non sembra essere dunque una giustificazione per l’accaduto. L’attenzione degli amministratori locali e del pubblico si è concentrata rapidamente su due candidati colpevoli: animali e vegetali. I primi responsabili della escavazione di tane, i secondi della creazione di cavità a seguito di sradicamento: tutti elementi che facilitano l’erosione di una sponda fluviale o il sifonamento di un argine. Per i vegetali, bersaglio di rilevanti attacchi a mezzo stampa, valgano le immagini della citata relazione – pag. 41 / 42 – che mostrano l’erosione operata nel punto della rotta. Le uniche aree che paiono avere retto alla furia dell’acqua sono segnate dalla presenza di alberature: i terreni circostanti, privi di piante alte, si sono rapidamente dissolti ed appaiono sprofondati. Una cosa facilmente prevedibile per chi capisce quale sia l’effetto reale di una trama di robuste radici poste dentro ad un volume di terreno, al punto che esiste anche una disciplina – nota come ingegneria naturalistica – che si pone come obiettivo quello di sfruttare associazioni di vegetali vivi ed elementi costruttivi tradizionali per combattere i fenomeni di dissesto ed erosione.

Restano gli animali, come nutrie, volpi e tassi. Costoro in effetti scavano tane, al punto che esistono da anni piani di controllo e contenimento attuati con insistenza in tutta la regione. La relazione della commissione evidenzia la presenza di tane già censite nell’area della rotta – tane note da anni – apparentemente prospicienti il letto ordinario del fiume. I punti disponibili per le cavità note – pag. 45 – si dispongono a 10 / 15 metri di distanza dalla base dell’argine. Non sono state documentate tane più vicine all’argine, o impostate su di esso, e d’altronde le testimonianze a caldo degli addetti alla manutenzione sembravano escludere questa eventualità. Non è comunque possibile scartare il ruolo delle tane a priori, posto che alcune di esse possono occasionalmente sfuggire anche al più attento osservatore. Il contemporaneo incidente occorso agli argini del fiume Panaro, questo si innescato con sicurezza dalla presenza di tane di animali e fortunatamente privo di conseguenze, impone un minimo di severità nei confronti dei ripari scavati dalla selvaggina ed ha probabilmente indotto la commissione di esperti a sottolineare i rischi posti alle arginature dalla presenza di questi animali. La frammentarietà delle informazioni disponibili e la distruzione operata dalle acque nel punto di rotta a San Matteo lasceranno comunque ampi margini di incertezza e di polemica nelle ricostruzioni della dinamica dell’evento.

Se c’è una cosa certa nella vicenda dell’alluvione, questa è però tutt’altra: i nostri fiumi, stretti tra alti argini in spazi angusti, sono intrinsecamente pericolosi. Arginare un corso d’acqua per renderlo meno minaccioso è una cosa, stringere in un alveo di 60 metri di larghezza un fiume che divagava nella pianura su un fronte di 500 metri è una cosa diversa. La seconda tattica non è sicurezza: è speculazione pura e semplice, volta a smerciare terreni sottratti al fiume nell’illusione che quest’ultimo non desideri riprenderseli di tanto in tanto. Ed è tutto da dimostrare che i benefici economici di una simile azione superino effettivamente i costi sostenuti, e per costi mi riferisco essenzialmente agli effetti dei disastri a cui dobbiamo periodicamente porre rimedio. Per trovare un modello di gestione differente non dobbiamo andare all’estero: è sufficiente percorrere gli argini del fiume Secchia verso valle per un paio di chilometri. A così breve distanza dal luogo del disastro, lo spazio concesso alle acque del fiume si amplia a 150 / 200 m; occasionalmente la distanza tra i due argini esterni arriva a superare il chilometro. In caso di rotta, avere a che fare con un argine basso che contiene una lama d’acqua di altezza modesta a discreta distanza dal letto ordinario del fiume può rivelarsi un vantaggio determinante. Il fatto di avere rinunciato a questo punto di forza in alcuni tratti dei nostri fiumi per recuperare terreni che avremmo potuto coltivare anche all’interno delle golene non fa cambiare di molto la probabilità di veder rompere un argine, ma rende sicuramente molto più distruttiva l’esondazione conseguente. Reagiamo da anni a questo problema realizzando grandi casse di espansione, finendo col restituire da qualche altra parte al fiume il territorio che credevamo d’avergli sottratto: un monumento alla nostra ingenuità.

La situazione che abbiamo tra le mani è evidente: stiamo operando un sistema di arginature e canali intrinsecamente insicuro, affetto da grandi debolezze e spinto volutamente al limite con finalità speculative tutt’altro che recenti. Questa cosa si può fare, ma impone dei rischi e richiede una ferrea disciplina di gestione. Non sono ammessi errori o distrazioni quando controlli un argine alto come un palazzo dietro al quale si agita un fiume in piena. E la gestione dei controlli, almeno per quanto concerne il recente disastro lungo il Secchia, ha mostrato falle vistose e dannose. In un contesto di così alto rischio non è ammissibile che la rilevazione di un cedimento dell’argine sia affidata alla buona sorte, nella figura di un passante con gli occhi aperti o di una famiglia del circondario. La sorveglianza non è un optional, e non è sensato rinegoziarla al ribasso: a meno di voler poi sciupare montagne di soldi per far fronte ai danni. Il discorso ha molteplici ramificazioni, non è semplice, ma in questo particolare momento occorrerà vigilare soprattutto sull’atteggiamento delle autorità centrali: in tempi di spending review è facile che a venire tagliati siano gli stanziamenti essenziali per la nostra sicurezza, assieme alle persone che li gestiscono. Il caso di Aipo, forse inefficiente ma certamente sotto finanziata, dovrebbe dirci qualcosa al riguardo. Posto che non pare esistere l’intenzione di realizzare pesanti interventi sulle reti scolanti – risolutivi ma costosi – quel che resta da fare è semplicemente manutenzione e sorveglianza. La pulizia e le riparazioni delle arginature sono cose che si fanno nella bella stagione, quando il terreno è praticabile. Paradossalmente si potrebbe dire la stessa cosa della sorveglianza, che è operante quando arriva la piena ma che non si improvvisa all’ultimo istante: va organizzata per tempo, tenendo a mente gli errori già sperimentati. Decisamente, se vogliamo che l’inverno non ci riservi brutte sorprese, dobbiamo cominciare a preoccuparci ora della sicurezza dei nostri fiumi e della bontà della gestione cui sono sottoposti. L’estate finisce in fretta.

Pubblicato in ambiente, geologia | Contrassegnato , , , , , , , , , , , , | 1 commento

Quel che si chiede all’Argentina

Sentito parlare dell’affare Argentina? Insistono con oscillazioni tra la loro valuta ed il dollaro non completamente libere, una cattiva abitudine fin dai tempi del grande crack di quindici anni fa. A parte i dettagli su tassi ed inflazione – possibilmente taroccata – non è che ci siano poi tanti cambiamenti nello scenario economico del paese. Si sono ripresi la compagnia petrolifera svenduta a Repsol, ma è una mossa tardiva: il loro petrolio è in declino da un pezzo. In generale, si riprendono asset ormai spolpati: la verità è che i “capaci amministratori” che regalarono a destra e a manca i beni della nazione sono comunque riusciti a distruggere quasi tutto. Forse è persino inutile arrabbiarsi per la favola dei debiti a tassi da usura contratti per coprire ruberie inqualificabili: anche questa vicenda fa parte dei libri di storia, come d’altronde l’intero armamentario che costituì la grande crisi.

Se c’è una cosa che nei libri di storia non vuol mai entrare, quella è l’avidità di certi personaggi. Proprio in questi giorni sono arrivate sentenze delle corti statunitensi che giudicavano attorno alla contesa portata avanti da alcuni fondi avvoltoi. Brevemente: questi “investitori” compravano sul mercato secondario titoli argentini post bancarotta per due soldi, e portavano avanti cause legali per farseli rimborsare a prezzo pieno con interessi e penali. Legittimo, se non fosse che i suddetti debiti erano in realtà una truffa con tassi usurari organizzata da un gruppo di malandrini, intenti perdi più a svendere sottobanco il patrimonio pubblico di maggior valore agli amici degli amici. L’affare Repsol – YPF è solo la punta dell’iceberg.

Un rapido riassunto della situazione da Cepr: “….The key point here is that the lead plaintiff, NML Capital, as well as the other “vulture funds,” bought most of this debt for just cents on the dollar after Argentina’s default. NML purchased the majority of their holdings from June-November 2008, paying an estimated $48.7 million for over $220 million in defaulted bonds, a price of just over 20 cents on the dollar. The Argentine offer, far from forcing NML to take a loss, would imply a 148 percent aggregate return in terms of current market value, and would become more valuable over time. This compares to the payment formula proposed by the district court, which would imply a 1,380 percent return for NML….”. I fondi avvoltoi, capeggiati da NML Capital, comprarono questi debiti per pochi percento del loro valore dopo il default. NML ha acquistato la maggioranza delle proprie quote da giugno a novembre 2008, pagando una cifra stimata di 48,7 milioni di dollari per oltre 220 ​​milioni di dollari in obbligazioni in default, un prezzo di poco più di 20 centesimi per dollaro. L’offerta argentina, lungi dal costringere NML a subire una perdita, implicherebbe un rendimento complessivo del 148 per cento in termini di valore di mercato corrente, e diverrebbe più fruttuosa nel tempo. Questo si confronta alla formula di pagamento proposta dalla corte distrettuale [Usa], che implicherebbe un ritorno del 1.380 per cento per NML.

Non state sognando. Questi signori pretendono – a seguito di un vero e proprio raggiro in parte nazionale ed in parte internazionale – di ottenere 720 milioni di dollari in cambio di meno di 50 milioni. E’ fatica lavorare, vero? In fabbrica ci si sporca, c’è puzza e confusione, e la terra è bassa e fangosa. I soldi si fa prima a spillarli dalle tasche altrui, magari raccontando anche che è quest’ultimo il colpevole – ma un simile meccanismo accomuna in realtà quasi tutte le truffe. Senza una tecnica per far apparire il truffato come il colpevole di qualcosa, o come un allocco che si deve nascondere, nessun truffatore potrebbe proseguire la propria attività. Il senso di colpa dei turlupinati è fondamentale in questo genere di gioco.

Il disastro di allora ha avuto come vittime i cittadini, e non i banchieri come qualcuno racconta. I secondi si difendono meglio dei primi, al punto che ancor oggi guadagnano qualcosa perfino dalla gestione dei bond in bancarotta. Le sofferenze peggiori sono state rifilate ad inesperti investitori di provincia, questi si spennati ben bene; per chi tiene le redini del sistema la festa continua senza interruzioni. La parte interessante della vicenda però adesso è di tipo numerico / dimensionale: quando un tasso di interesse è legittimo e quando è usura? La pretesa di ottenere dieci o quindici volte il capitale versato è sensata? E soprattutto, è davvero una cosa fattibile? Ma in definitiva anche un raddoppio in pochi anni: se verso 50 e pretendo 100 dopo 8 anni sto chiedendo – senza anatocismo – un 9% annuo. Da dove spunteranno quei soldi? Crescita? Miracolo? Gioco di prestigio? Soprattutto, salteranno fuori o è solo una pia illusione?

Pubblicato in attualità, soldi, varie | Contrassegnato , , , , , , , , , , , | 3 commenti

Acqua ultimo pianeta?

Pubblicato su iMille.

Come recitava decenni or sono il titolo di un libro a firma di Pierre Rondière, forse è prima di tutto l’acqua il luogo che abitiamo, il nostro vero territorio. Nel senso che senza di essa non potremmo nemmeno esistere, e comunque lottiamo da millenni per assicuraci i servigi che discendono dall’ambito oro blu. Nel mondo contemporaneo, la gestione dell’acqua è al centro di progetti industriali capaci di produrre gravi tensioni politiche. Tra i tanti esempi possibili, ricordiamo i controversi interventi legati al fiume Nilo che seminano discordia tra egiziani, sudanesi ed etiopi; complice la grave siccità che negli ultimi anni affligge l’alto Egitto, ad aggravare una situazione politica che non è mai stata rosea. Un’altra area calda: il confine tra Israele e Siria, a cavallo delle alture del Golan. A nessuno verrebbe mai in mente di attuare guerre, attentati, deportazioni e massacri per un pezzo di inutile deserto: ma se – per fortuna o per disgrazia – sotto a quel deserto si trova l’acqua la prospettiva cambia radicalmente. Il limpido tesoro giustifica qualsiasi azione; persino l’oro fatica a rendere noi umani altrettanto avidi e sfrontati. La recente contesa sorta attorno alla fornitura idrica diretta ai residenti palestinesi di Gerusalemme Est – privati da molti mesi dell’acqua potabile per buona parte della giornata – serve ancora una volta a ricordarci il valore di questa risorsa, ed eventualmente a ricordare a noi italiani la fortuna che abbiamo avuto in dote per il fatto di abitare un territorio così generoso in questo senso.

Le vicissitudini del momento sono molteplici: in alcune parti del mondo, tanto per cambiare, la siccità divora raccolti, distrugge i suoli e le piante, mette a dura prova le comunità umane. Anche laddove non lo crederemmo possibile, o in situazioni nelle quali l’assenza o abbondanza di acqua parrebbero passare in secondo piano rispetto a questioni più impellenti. L’affare della guerra in Siria, lungamente sponsorizzata da numerose cancellerie occidentali ed infine lasciata placidamente cadere nel dimenticatoio, ha relazioni notevoli con il tema dell’acqua. La siccità che ha colpito l’area fin dal 2006 è stata una concausa importante delle tensioni e delle proteste che hanno innescato il conflitto; le complicità esterne non perdono per questo rilevanza, ma si tratta comunque di un evento significativo nell’evolversi della guerra. Ed il fatto che ora la pioggia insista a scarseggiare in Siria – ed in generale nella regione mediorientale – non sarà d’aiuto per ristabilire la normalità delle cose: non è scontato che ci sia modo di riprendere le attività legate all’agricoltura ed all’allevamento in molti dei territori abbandonati dai profughi. Una parte dei disperati che vediamo arrivare sulle nostre stesse coste fugge in effetti non semplicemente dall’ennesima guerra mediorientale o africana – che come spiegazione suonerebbe poco convincente, per popoli che non hanno purtroppo goduto un giorno di pace nell’ultimo mezzo secolo – ma piuttosto dagli effetti disastrosi di prolungate carenze di acqua, effetti costituiti ovviamente anche da guerre e rivolte.

Dall’altra parte del mondo, il Nord America sta combattendo senza spari né clamori contro un nemico estremamente simile. E questa lotta dura da anni ormai, in Texas per esempio, dove l’agricoltura soffre da un lato per le carenze idriche e dall’altro per la competizione che oppone gli agricoltori ai residenti delle aree urbane per dividersi la residua risorsa disponibile. Una situazione che – seppure aggravatasi di recente – emergeva alla vista anche negli anni passati in molti territori degli Usa, costringendo gli agricoltori ad improvvisare soluzioni disparate per far fronte alle difficoltà del caso. La siccità grave che ha investito in special modo la parte occidentale del continente a partire dal 2012 ha trasformato una serie di problemi locali in una vera emergenza nazionale. Le vittime: ecosistemi acquatici ed attività connesse, trasporti sulle vie d’acqua come il Mississippi, ed ovviamente ecosistemi terrestri ed agricoltura. Molti degli effetti di questa siccità prolungata, e non ancora conclusa, si risentiranno per lungo tempo: il fenomeno è costantemente monitorato dalle agenzie governative americane. Per gli agricoltori in particolare stanno pian piano cambiando le prospettive di lungo termine: le grandi monocolture idro esigenti che hanno caratterizzato il paesaggio americano recente paiono oggi poco sostenibili, destino condiviso anche con le meno diffuse risaie; i biocarburanti potrebbero essere una ulteriore, illustre vittima di questa situazione, legati come sono alla disponibilità di mais ed oleaginose a buon mercato. A chiudere il cerchio, il progressivo depauperamento delle falde idriche sotterranee quali il celebre bacino di Ogallala: la perdita di volume d’acqua immagazzinata nel sottosuolo costituirà un’arma in meno da impiegare per far fronte alla scarsità di pioggia.

Noi italiani siamo abituati a considerare la siccità come un problema esotico, che affligge paesi lontani; per la nostra nazione, nell’immaginario comune, la carenza di pioggia è un fenomeno occasionale e magari anche molto dannoso: ma pur sempre un fenomeno passeggero. La realtà fisica sottostante è diversa da come la percepiamo: le cose stanno cambiando anche nella nostra nazione, e non si tratta di mutamenti che possano palesarsi in maniera immediata. Gli eventi meteorologici estremi di cui sentiamo parlare spesso sono segnali di allarme interessanti – ancor più per un territorio, come quello della pianura emiliana, che porta ancora i segni di gravi inondazioni. Ma ovviamente l’elemento centrale del discorso non può essere il singolo evento meteorologico, per quanto importante: quello che conta sono gli andamenti di lungo periodo. Non è difficile rendersi conto di quale sia la situazione: possiamo ad esempio spulciare i dati meteoclimatici riassuntivi per la regione Emilia Romagna. L’apporto complessivo di precipitazione per questo territorio è diminuito in maniera debole passando dal periodo 1961/1990 al successivo intervallo 1991/2008; le diminuzioni hanno interessato più che altro le aree montane, e risultano pressoché irrilevanti per la pianura. Ma le medie annuali sono traditrici: bisogna vedere anche come questi apporti meteorici si distribuiscono. Quello che è accaduto, nel giro di alcuni decenni, è che la pioggia si è spostata: si concentra essenzialmente nei massimi autunnali. Le precipitazioni primaverili ed estive disponibili in pianura sono diminuite in maniera evidente, creando problemi un tempo sconosciuti anche ai nostri agricoltori: meno acqua estiva utile per irrigare, in cambio di più gravi e numerose inondazioni in autunno. Quello che sta accadendo è che anche nel nord Italia rischiamo di dover cambiare le nostre abitudini esattamente come accade nelle pianure centrali degli Usa: sarà pur vero che disponiamo ancora di fonti di acque sotterranee affidabili, ma alcune colture a ciclo estivo rischiano di trovarsi a mal partito anche qui, in Italia. La differenza tra noi e gli americani è comunicativa: noi crediamo ancor oggi di non avere alcun problema in tema di acqua. Purtroppo, decenni di incessante e silenzioso mutamento climatico sono a ricordarci che questa percezione non corrisponde al vero.

Pubblicato in agricoltura, ambiente | Contrassegnato , , , , , , , , , , , , | Lascia un commento

Terremoti artificiali: l’Emilia ed il sogno di Denver

Pubblicato su iMille.

Ultimo e più recente strascico della distruttiva sequenza di terremoti che hanno colpito l’Emilia nel 2012, sale in questi giorni agli onori delle cronache il lavoro della Commissione internazionale Ichese; istituita dal Ministero dello Sviluppo Economico al fine di indagare le possibili interferenze delle attività di ricerca di idrocarburi con la sismicità della pianura di Modena e Ferrara. Sebbene stiano circolando da giorni notizie attorno al lavoro della commissione, per adesso non sono stati resi pubblici rapporti completi sulla attività della stessa; ci dobbiamo accontentare di una anteprima offerta da Science. Quanto basta per accendere la curiosità mediatica attorno alla questione, con toni assai disparati. Qualcuno nega – con argomenti variabili – l’esistenza di nessi causa effetto tra perforazioni e sismi, si vedano gli interventi sul Carlino, o sulla Gazzetta. A qualcun altro invece queste spiegazioni non piacciono, al punto da arrivare a protestare in Regione: molteplici perplessità vengono elencate dal Fatto Quotidiano. Decisamente un marasma di dati ed opinioni presentato in maniera talora animosa.

Il nocciolo vero della vicenda: le caratteristiche geologiche dell’area colpita dal recente sciame sismico. La bassa pianura modenese e ferrarese, all’apparenza piatta ed uniforme, nasconde in realtà una vera e propria montagna sommersa che si innalza continuamente in maniera simile alla parte visibile della catena appenninica. La struttura del sottosuolo di cui parliamo è la dorsale ferrarese: un enorme sistema di pieghe fagliate, con convessità verso l’alto, che si solleva incessantemente e si spinge a nord sopravanzando altri terreni. Lo sviluppo di questa struttura in senso est – ovest è notevole, più di un centinaio di chilometri, dalla costa ferrarese alla pianura reggiana. Dal punto di vista della sismicità l’azione di questo elemento geologico è intuibile: il fronte di avanzamento dell’Appennino sommerso, nascosto dai sedimenti della pianura, genera terremoti nel tentativo di muoversi verso nord e verso l’alto. Esiste però un altro aspetto interessante in questa vicenda: la dorsale costituisce anche in talune sue porzioni, per forma e per tipologia di terreni, una struttura trappola capace di isolare liquidi e gas al proprio interno: come d’altronde quasi ogni nucleo di piega in materiali permeabili ricoperto da rocce impermeabili.

Queste caratteristiche hanno indotto ad indagare la struttura della dorsale in funzione di attività disparate: vale la pena ricordare l’estrazione di petrolio e gas naturale, lo stoccaggio di gas in depositi geologici e la ricerca di fluidi geotermici per finalità di teleriscaldamento. Le ricerche pionieristiche condotte da Agip fin dagli anni ’50 hanno permesso di riconoscere l’esistenza della dorsale e di comprenderne le geometrie interne e le litologie costitutive. In alcuni casi, stante l’assenza di depositi sfruttabili di idrocarburi, sono state avviate attività diverse per reimpiegare i pozzi esplorativi profondi disponibili: la citata rete di teleriscaldamento che serve la città di Ferrara. In altri casi, sono state ipotizzate attività di stoccaggio di gas nei calcari fratturati costituenti il nucleo della dorsale sommersa: l’intervento ipotizzato a Rivara di San Felice, ancor oggi contestatissimo. Si badi che l’intero progetto preliminare non ha portato alla realizzazione di nessun foro di sondaggio, basandosi interamente sui dati già noti ottenuti da perforazioni ed indagini geofisiche conclusesi negli anni ’80. Una ultima attività connessa alla presenza della dorsale ferrarese è l’estrazione di petrolio: i quantitativi ottenuti non sono ovviamente grandi, ma le operazioni proseguono tutt’ora in maniera soddisfacente. L’intera operazione fa capo ad un impianto di raccolta denominato Cavone Centro Olio, nella cui scheda descrittiva redatta dal Ministero possiamo trovare anche i pozzi in utilizzo. La concessione di sfruttamento è in questo caso denominata Mirandola; sempre sul sito del Ministero i dati essenziali relativi alla stessa.

L’interferenza delle attività antropiche con la sismicità locale – talora dipinta in Italia come un segreto di Fatima in attesa d’esser disvelato – è in realtà un fenomeno studiato da almeno mezzo secolo. Per rendere l’idea del livello di lampante ovvietà della cosa, credo sia sufficiente citare il rapporto “Earthquake hazard associated with deep well injection; a report to the U.S. Environmental Protection Agency” presentato già nel 1990 al Congresso degli Stati Uniti per informare i decisori politici dell’epoca al riguardo; liberamente scaricabile dal sito Usgs. Quello che in Italia si pretende di divinare con la sfera di cristallo, negli Usa è patrimonio di conoscenza comunemente accettato da almeno un quarto di secolo. L’evento che portò agli onori delle cronache tutta la vicenda è essenzialmente lo sciame sismico rilevato negli anni ’60 presso il Rocky Mountain Arsenal, Denver, Colorado. L’iniezione attraverso un pozzo profondo 3671 m di fluidi contaminati in pressione si rivelò capace di innescare una quantità considerevole di piccoli sismi – anche decine per mese; gli studi effettuati a posteriori mostrarono una correlazione assai convincente tra le pressioni applicate tramite il pompaggio di fluidi ed il numero di terremoti rilevato. La sicurezza nella correlazione esiste per eventi di modesta magnitudo, rilevabili in grandissimo numero; i rari eventi isolati aventi magnitudo superiore a 4 – poche unità – non permettono invece di definire relazioni di causalità sicure con l’immissione di fluidi nel sottosuolo.

Logicamente ci si pose subito il problema di decidere a cosa fosse ascrivibile l’energia liberata dai sismi indotti nei casi di studio. Posto che si tratta di casi isolati – almeno per quanto verificato nella realtà americana – disposti in terreni notoriamente già sottoposti a stress tettonici naturali, si dovette scartare immediatamente l’idea che l’energia degli sciami sismici indotti fosse quella fornita tramite i fluidi immessi nel sottosuolo. Troppe perdite dovute alle resistenze meccaniche dei reservoir, troppa dispersione areale; e comunque del tutto illogico pensarlo, posto che le aree asismiche sottoposte sistematicamente a queste operazioni tali rimanevano. Fu subito chiaro – fin dagli anni ’60 – che l’effetto delle iniezioni di fluidi nel sottosuolo era un altro: e cioè diminuire le resistenze d’attrito lungo piani di faglia esistenti, ed indurre la anticipata liberazione di energia potenziale elastica che esisteva già nelle rocce trattate. E a qualcuno venne l’idea di servirsi di questa tecnica per fare una cosa piuttosto ardita: spezzare i terremoti. Se immetto fluidi in pressione lungo una faglia che so per certo essere capace di generare grandi terremoti, anziché sopportare un unico evento maggiore ogni, diciamo, 100 anni mi troverò ad assistere ad una frotta di piccoli sismi. Baratterò un terremoto isolato e letale con una scia ininterrotta di piccoli eventi innocui.

L’idea di distribuire artificialmente l’energia liberata da un territorio a forte sismicità su un gran numero di piccoli terremoti irrilevanti è, in ambito sismologico, il sogno di Prometeo. E’ come rubare il fuoco agli dei dell’Olimpo. Tanto allettante quanto frustrante: diversamente dal furto del fuoco, questa cosa non la potremo fare mai per motivi di banale aritmetica. Le scale che misurano l’energia meccanica liberata dai terremoti sono logaritmiche, fin dalle origini: così era la prima versione proposta da Richter, e tale rimane a livello concettuale la scala di magnitudo momento sismico che va per la maggiore oggigiorno. Servono a misurare eventi enormemente diversi tra loro: in queste scale, un salto di due gradi comporta una variazione di tre ordini di grandezza a carico dell’energia liberata. Un sisma avente Mw 6 libera l’energia di ben 1000 eventi aventi Mw 4. Posto che i rari terremoti eccedenti il quarto grado di queste scale connessi ad iniezioni di fluidi nel sottosuolo non permettono correlazioni affidabili, potremmo provare ad immaginare di liberare energia inducendo per l’appunto tanti eventi dotati di Mw 4. Se tentiamo di spezzare un sisma maggiore avente Mw 6, ne occorrono un migliaio. Se però con l’immissione di fluidi in pressione ci trovassimo a generare in prevalenza eventi con Mw 3 – più frequente nei casi studiati dagli americani – per levarci di torno il minacciato terremoto del sesto grado avremmo bisogno di più di 31.600 microsismi. A decine per mese, potremmo cavarcela in meno di un secolo; forse. Totalmente fuori portata per qualsiasi ipotesi di intervento i sismi più grandi.

La situazione che ci ritroviamo tra le mani è sorprendente, almeno a livello comunicativo. Molte persone sospettano attività di perforazione ed immissione di fluidi nel sottosuolo, temendo che queste operazioni siano in grado di creare sismi ex novo. Nella realtà queste operazioni possono – in rarissimi e ben noti casi – indurre un anticipato rilascio di energia potenziale elastica già presente nel terreno. Nessuno è finora riuscito a rendere sismica un’area che non lo era in principio iniettando fluidi in pressione nel sottosuolo. Parte dell’opinione pubblica italiana ha scambiato un intervento teoricamente positivo, ma tecnicamente non fattibile, per un intervento negativo, dannoso e facilmente realizzabile. In queste giornate, sulla spinta delle proteste, probabilmente potremo vedere pubblicati i rapporti delle commissioni di studio che indagano sui terremoti emiliani, e su alcuni semisconosciuti pozzi di petrolio. Prestiamo però attenzione a non cercare surreali capri espiatori per la negligenza che abbiamo mostrato nel prepararci al rischio di un sisma: quali che siano le cose che ci potremo raccontare, anche domani sarà un giorno buono per un grosso terremoto nella bassa pianura modenese e ferrarese. Ogni giorno può essere quello fatale, con o senza mille pozzi in più o in meno, in un’area notoriamente sismica: anche facendo sparire le attività di estrazione e reiniezione dei pozzi della concessione Cavone, o eliminando i campi geotermici ferraresi. Nulla purtroppo cambierà in maniera veramente rilevante a livello di rischi: l’unica cosa da fare è prepararsi al prossimo terremoto.

Pubblicato in ambiente, energia, geologia | Contrassegnato , , , , , , , , , , , | 4 commenti

Elezioni: c’è chi trionfa e chi si astiene

Si chiude questa malinconica tornata di elezioni – sia europee che amministrative – lasciando sul terreno vincitori e vinti. I dati vengono forniti direttamente dal Ministero dell’Interno, ormai abbastanza definitivi per le nomine al parlamento europeo. Al momento abbiamo davanti una netta affermazione della compagine del Pd di Matteo Renzi, con il 40, 81%; a seguire Grillo, deluso, al 21,16%. La vera scomparsa sembra, secondo alcuni commentatori, quella di Berlusconi: praticamente evaporato, fermo al 16,82%. Gli altri a seguire in disordine sparso: sorpresa interessante la lista Tsipras, che riesce a superare lo sbarramento per un soffio con il 4,03% dei consensi.

In pratica una affermazione Pd che mette tutti in riga, stando alle percentuali. Ma qui sappiamo contare, vero? Le percentuali son fatte di numeratori e denominatori, e forse qualcuno si è scordato di quantificarci i denominatori. I cittadini che hanno effettivamente espresso la propria preferenza per il Pd sono stati, secondo le stime del momento, 11.172.861; alle passate politiche l’analoga coalizione ne spuntò 10.047.808. Nella pratica Renzi ha dovuto promettere regalie a tutti i salariati a posto fisso per mettere assieme un milione di voti in più dei predecessori. Il M5S si ferma a 5.792.865 voti, in basso rispetto ai 8.691.406 consensi delle passate politiche ottenuti per la Camera. La coalizione facente capo a Berlusconi alle passate politiche spuntava 9.923.600 voti; a queste europee, a voler mettere assieme i più grossi divorziati che ne rimangono, arriva a 7,491,590 voti. Che vuol dire che non hanno perso colpi in maniera così smaccata, ma semplicemente si sono divisi in vari gruppi: è prima di tutto un problema di frammentazione.

Morale della favola: siamo passati da 35.270.926 votanti delle passate politiche a 28.908.004 di queste europee, con una perdita di più di sei milioni di partecipanti. Nonostante l’accorpamento con le amministrative, che pure avrebbe dovuto rendere più interessante la consultazione. In un contesto europeo perfino peggiore, caratterizzato da un astensionismo che non è possibile ignorare. A stare a casa però non sono stati tutti gli elettori: ci è rimasto solo qualcuno, e il risultato lo si vede bene. Presti però attenzione la truppa dei vincitori, ché il loro elettorato è pressoché invariato in senso numerico, e possono conservare questo vantaggio solo ad una condizione: non fornire agli elettori altrui valide ragioni per recarsi alle urne alla prossima chiamata. In caso contrario saranno davvero dolori.

Pubblicato in attualità, varie | Contrassegnato , , , , , , , , , , , | 5 commenti

Lo Stato speculatore nemico del suolo?

Pubblicato su iMille.

Il recente rapporto Ispra sul consumo di suolo ha riportato l’attenzione sul nostro complicato rapporto con il territorio che ci ospita. In Italia la discussione attorno a questo tema non è del tutto assente, e non sono mancati tentativi di controllo normativo delle destinazioni d’uso delle superfici disponibili: la legislazione nazionale più o meno datata e la pianificazione operata dagli enti locali hanno sempre avuto questo tipo di obiettivo. Un tema già affrontato alcuni mesi or sono, sulla spinta di un inedito tentativo di arginare il fenomeno ipotizzato dai nostri governanti. Ogni tanto però, oltre che le buone intenzioni dei legislatori, bisogna valutare anche i risultati pratici ottenuti: le normative hanno sortito qualche effetto? E di che genere? Si possono rilevare dei cambiamenti nel ritmo a cui perdiamo suolo naturale a favore di coperture antropiche più o meno impermeabili?

Prima di ragionare su questo problema, varrebbe la pena pensare a cosa intendiamo con la dicitura “consumo di suolo”. Il termine consumo fa già pensare ad una perdita irreversibile, e questo meriterebbe un ulteriore discorso a parte: tutto quello che facciamo noi esseri umani è reversibile, bisogna vedere in quanto tempo. Immaginando di ragionare alla scala temporale dei decenni, per consumo di suolo intendiamo quel processo che sostituisce i suoli naturali – dotati di elevata capacità di sostenere copertura vegetale e di spiccata capacità di immagazzinare acqua meteorica – con i suoli antropici, artificiali: essenzialmente impermeabili e pressoché incapaci di ospitare forme di vita. Il confine tra le due tipologie è talora sfumato, posto che una copertura sterile si può realizzare anche con semplice asportazione del suolo naturale e messa a nudo del substrato, caso tipico delle opere di scavo e sbancamento. Nel 2006 Ispra stimava che i suoli artificiali fossero costituiti per un 58% circa di edifici, strade asfaltate, ferrovie; a questi si devono aggiungere strade bianche o diversamente rivestite, parcheggi, aree estrattive, discariche, aree di cantiere per un ulteriore 33%. Le rimanenze sono costituite da tipologie diverse. Già osservando questa semplice suddivisione, potremmo domandarci in che termini confrontare un quartiere industriale coperto di fabbricati ed asfalto con un piazzale ricoperto di 20 centimetri di ghiaia: nell’immediato sono la stessa cosa, ma se li abbandoniamo tra dieci anni avranno aspetti ben diversi. La patina che riveste il primo è molto più persistente di quella che riveste il secondo, e diversi saranno gli eventuali tentativi di recupero e trasformazione praticabili.

Numericamente di che si parla? Il dato Ispra aggiornato con il più recente rapporto indica che abbiamo ormai trasformato a tutto il 2012 ben 21.890 kmq di territorio nazionale: il suolo artificiale parrebbe rappresentare oggi il 7,3% della per superficie del territorio italiano, da confrontare con il 5,4% registrato nel 1989. A sorprendere non sono i valori assoluti, ma la linearità degli andamenti: linearità quasi perfetta che tende a conservarsi indipendentemente dall’intervallo temporale considerato. Ulteriore sorpresa: la perdita di suolo naturale e/o coltivabile non risente di nessun evento esterno; la crisi di questi anni tanto celebrata dai mezzi di informazione non ha cambiato di una virgola queste tendenze. Gli italiani possono anche perdere il lavoro, scappare all’estero, tornare dai genitori, chiudere l’azienda, dichiarare bancarotta: ma tutti questi eventi non paiono incidere in alcun modo sulla nostra inarrestabile corsa alla cementificazione. Quale che sia la situazione contingente, ogni anno avremo denudato e/o ricoperto di materiale artificiale 240 / 260 kmq di territorio; una perseveranza che non pare trovare eguali, e forse nemmeno giustificazioni logiche, ma che dobbiamo contabilizzare per quello che è.

La mera osservazione di un fenomeno non basta a comprenderlo. Viviamo in una nazione che spende enormi somme di danaro per costruire edifici che sempre più spesso rimangono inutilizzati, e nella quale ogni tentativo di regolare e contenere il fenomeno edificatorio pare essersi rivelato vano. Domandiamoci il perché di questo stato di cose, o almeno domandiamoci quali meccanismi rendono così diffuso il fenomeno. Sbirciamo dentro al bilancio di un comune emiliano, come Parma: servendoci dello studio di Ferri / Adobati. Nella realtà di Parma gli oneri di urbanizzazione fornivano importi annui di 7 – 10 milioni di euro nel periodo 1998 – 2001. Al passaggio di millennio, questi oneri registravano una crescita impetuosa posizionandosi sui 18 – 24 milioni di euro annui: la furia edificatoria si abbatteva su Parma. Per contro, nell’ultimo decennio il gettito delle imposte sugli immobili diminuiva debolmente da 45 – 48 milioni di euro al valore disponibile nel 2010 di 39,3 milioni, transitando per un minimo di circa 37,5 milioni nel 2008; la risalita più recente è nota a tutti. Lo studio citato sottolinea con ragione la pericolosità del legame tra oneri di urbanizzazione e spesa corrente dei comuni, legame rischioso per le logiche che innesca ma anche per la volatilità potenziale dei relativi gettiti disponibili.

Il vero problema ovviamente non risiede negli importi assoluti: gli oneri di urbanizzazione, e con essi anche molte altre voci di bilancio, rappresentano una frazione del conto economico di un Comune. Il problema sono semmai gli andamenti temporali, le tendenze. Sempre per il comune di Parma, possiamo provare a verificare i mutamenti nelle singole fonti di entrata tramite le voci di accertamento certificate dal Ministero dell’Interno per gli anni più recenti. Nell’intervallo 2008 / 2012, i trasferimenti diretti complessivi – da parte di Stato, Regione, Provincia ed altri enti – decrescono da 67 a poco più di 25 milioni. Nello stesso intervallo di tempo, le imposte sugli immobili come ICI ed IMU lievitano, sempre in sede di accertamento per la singola annata, da circa 37,5 milioni a circa 85,5 milioni. In rapida crescita anche le addizionali Irpef, grossomodo raddoppiate in importo da 12 a 25 milioni. Questi mutamenti sono ben noti a livello mediatico: l’evaporare progressivo dei trasferimenti agli enti locali è forse il fenomeno che ha causato i problemi più vistosi ai cittadini italiani, innescando una spirale di incremento delle imposizioni fiscali locali che fatica comunque a puntellare i bilanci dei singoli enti. Si noti che nel periodo 2008 / 2012 il comune di Parma ha visto diminuire le entrate – definite in accertamento – connesse ai permessi di costruire e relative sanzioni da quasi 23 milioni a meno di 6 milioni. La differenza da sola basterebbe a cancellare in un attimo i due terzi delle addizionali Irpef previste per l’anno 2012.

Questo veloce e limitato promemoria delle vicende finanziarie del comune di Parma basta a farci capire come sia stato inteso il rapporto tra i nostri enti locali ed il territorio che amministrano. Gli oneri di urbanizzazione rappresentano per un comune italiano più o meno quello che l’accisa sui carburanti rappresenta per lo Stato centrale. Si impone un tributo su consumi e comportamenti ritenuti controproducenti per la collettività – il consumo di petrolio importato o di suolo agricolo – nella speranza di limitarli e di poter spendere i relativi gettiti in attività compensative degli eventuali danni prodotti. In breve tempo, questo genere di imposta viene diretta nel calderone della spesa corrente divenendo insostituibile – o sostituibile a prezzo di grave sofferenza – e gli enti pubblici che sopravvivono sono in ultima analisi quelli che non vedono evaporare troppo rapidamente queste fonti di gettito. Abbiamo davanti una sorta di perverso premio speculativo che poneva in vantaggio le amministrazioni comunali più compiacenti nei confronti della cementificazione incontrollata, ed eventualmente inutile; e che continua a porre in vantaggio le amministrazioni che dispongono dello stock di fabbricati più grande è più quotato in termini di valore catastale. Che non sposta purtroppo di un millimetro gli effetti finali del meccanismo, nonostante le apparenti differenze.

Il rapporto Ispra più recente, alla luce di queste considerazioni, ci dice cose che paiono piuttosto ovvie e per nulla sorprendenti. Ci racconta di un’Italia che insiste a ricoprirsi di catrame e cemento senza una apparente finalità logica; salvo quella di perpetuare rendite speculative che appartengono non solo ai privati, ma proprio a quegli enti pubblici che nella immaginazione di molti – incluso il sottoscritto – avrebbero dovuto tutelare i propri cittadini dalle distruzioni prodotte dalle brame dei privati suddetti. Il principale speculatore immobiliare italiano potrebbe essere proprio il nostro Stato, responsabile di strategie di bilancio che non paiono riconoscere il benché minimo valore alla qualità dell’ambiente urbano o rurale in cui ci troviamo a vivere e lavorare; e che al contrario premiano semplicemente gli enti locali che più rapidamente divorano questi ambienti ricoprendoli di edifici. In un contesto simile, farà poca differenza veder crollare o piuttosto mantenersi o magari crescere quotazioni e compravendite di appartamenti e capannoni: il meccanismo perverso che lega i bilanci degli enti locali all’industria del cemento è ancora li, pronto ad azionarsi. Le difficoltà finanziarie dei comuni e l’assedio ad essi posto dall’evaporare dei trasferimenti finanziari tradizionalmente presenti generano il substrato che indurrà inevitabilmente molti amministratori a cercare nuove rendite negli immobili; seguendo un disegno che ci consuma inutilmente da decenni. Chi spera che questa o qualsiasi altra crisi economica possa invertire un simile processo farà bene a meditare su questi dati: il cemento è cosa pubblica ancor prima che privata, e non si può guarire una epidemia curando solo metà dei malati. Le nostre pubbliche amministrazioni sono malate di cemento almeno tanto quanto le nostre aziende, le nostre banche o le nostre famiglie: prima lo vorremo ammettere e meglio sarà per tutti noi.

Pubblicato in ambiente, geologia | Contrassegnato , , , , , , , , , , , , | 1 commento

Russia: alle volte una sanzione….

Alle volte ci rendiamo conto del fiume di propaganda che ci investe guardando a qualche dettaglio banale. Nelle ultime settimane sono state varate sanzioni impegnative contro la Federazione Russa, rea di essersi schierata – almeno a chiacchiere – contro il nuovo governo installato in Ucraina. Per mera cronaca: dopo il rovesciamento del corrotto Yanukovich, che aveva intascato soldi pubblici in misura poco inferiore alla celeberrima Tymoshenko – e fin qui, sembrerebbe di stare in Italia – il parlamento ucraino ha mandato in sella a voto quasi unanime un esecutivo guidato da Arseniy Yatsenyuk. Niente di veramente interessante, a parte il fatto che in cotale governo siedono uomini del partito di estrema destra Svoboda: quelli che sventolavano le svastiche per segnalare il trionfo della democrazia liberale. O almeno questo pareva il messaggio, a vedere le immagini di morti, molotov ed edifici incendiati passate – non senza imbarazzo – perfino dai nostri telegiornali.

Nell’esecutivo attuale questi signori controllano vice primo ministro, difesa, agricoltura e risorse minerarie. I restanti colleghi non sono esattamente dei democristiani, ma almeno non sventolano bandiere naziste. I provvedimenti presi, a parte le azioni strettamente militari, sono multiformi. L’ultima trovata, in perfetto stile dark age che piace tanto ai cultori del cinema apocalittico, è stata quella di tagliare l’acqua alla Crimea. La penisola russa ribelle regalata all’Ucraina da Krusciov (leader sovietico ucraino), viste revocate le leggi che tutelavano le lingue diverse da quella ucraina, ha deciso di ricongiungersi alla madrepatria. Si sa mai; e chissà da quanto tempo si preparavano a farlo: forse hanno solo colto un’occasionale debolezza del governo centrale. L’atteggiamento tenuto da Kiev, una rappresaglia medioevale con taglio delle forniture d’acqua, fa capire bene che evidentemente i governanti ucraini ritengono di non avere alcun appoggio in Crimea: un intervento assai chiarificatore. Almeno abbiamo capito chi sta di qua e chi di la. Non si è però capito che acqua useranno i cittadini di Crimea, e soprattutto come mai la comunità internazionale permetta a Kiev simili manovre di assedio a puro danno della popolazione civile. Aspettiamo spiegazioni.

Bando alle facezie: le sanzioni. Qui viene il bello. Suonano senza sosta le fanfare che dichiarano falliti i russi: vedere roba come questa o questa. O mille altri pezzi simili. La tesi è semplice: se le agenzie di rating declassano a spazzatura il debito di una nazione, quella nazione non si può più finanziare e fallisce. Fine dei giochi. Sarà. Ma guardiamo le cifre da vicino, giusto per non parlare a vanvera. A quanto ammonta il debito pubblico dei russi? Ce lo racconta l’annuario statistico di IndexMundi: al 2010, un buon 11,7% del prodotto lordo. Salito ad oggi ad un 13,4%, ma esistono stime leggermente più basse. Tredici per cento, avete letto bene. Se il loro debito è spazzatura ordinaria, il nostro cos’è esattamente? Un rifiuto radioattivo? O cos’altro? La notizia è rilevante anche per noi, almeno a livello di definizioni tecniche: perché se qualcuno ad un certo punto dovesse acquisire l’abilità di ordinare i numeri, e dovesse scoprire che 13 è immensamente più piccolo di 127, allora rischiamo di passare dei guai.

Il debito esterno totale, pubblico e privato: questi sono i debiti dei russi verso soggetti esteri. IndexMundi lo piazza a 520 miliardi di dollari, su dati CIA aggiornati ad inizio 2012. Contro un prodotto lordo di più di 2000 miliardi di dollari annui. Se gli statunitensi decidessero di ripagare tutti i debiti con l’estero, dovrebbero dedicare all’operazione quasi un anno intero della loro economia; i russi potrebbero risolvere la questione in tre mesi. Gli italiani dovrebbero digiunare per almeno 16 mesi di fila, e non siamo nemmeno quelli messi peggio.

Gli investimenti esteri. Le somme investite in imprese di vario genere in Russia da soggetti esteri ammonterebbero al 2013 a quasi 100 miliardi di dollari, o forse più: dipende da chi fa la stima, ma ci basta l’ordine di grandezza. C’è stata qualche ipotesi di fuga degli investitori stranieri: se scappano, ci si dice, non funziona più niente. Ordiniamo loro di fuggire allora. E’ una tesi bizzarra, per una economia che rimane comunque almeno 20 volte più grande del totale di queste presenze esterne. Ma il problema vero con questa tattica è un altro: le riserve dei russi. La Russia dispone di riserve – variegate per tipologia – quasi equivalenti al debito esterno. Non ci vuole un genio a capire cosa potrebbe succedere in caso di “fuga degli investitori”: quando scappi, non vendi gli asset al loro valore usuale. Si deprezzano, perché in tanti cercate di fuggire nello stesso istante di tempo. Ti tocca svenderli. Indovina chi li ricompra, magari a metà prezzo? Indovinato: o soggetti dipendenti dal governo russo, oppure investitori terzi che se ne infischiano degli ordini. Tutta gente che potrà ricomprarsi una bella fabbrica appena ristrutturata per un piatto di lenticchie.

L’ultima arma dei sogni è probabilmente la depressione artificiosa delle quotazioni del greggio. Se ne è parlato poco qua e la, ma qualcuno ne ha discusso sottovoce. Negli anni ’80 il Mare del Nord e la penisola arabica operarono in sinergia versando petrolio senza freni sui mercati; ormai sappiamo bene che la manovra aveva a bersaglio i sovietici. E funzionò: l’Urss di allora non riusciva più a barattare petrolio in cambio dei beni di cui mancava, e fallì miseramente. Quello che impedisce a qualcuno di tenere un approccio razionale rispetto alla Federazione Russa odierna è il fatto di confondere epoche e soggetti politici diversi. La Russia non è l’Urss, e il 2014 non è il 1984. E’ questo il dettaglio fondamentale: se vivi nel passato, non puoi capire il presente. Nel presente, il petrolio russo non è sostituibile. Possiamo fare senza solo se andiamo a piedi, e questo lo sapevate benissimo anche prima che ve lo raccontassi io. Non vi posto nemmeno le cifre, le trovate dappertutto. E la Russia segna la differenza enorme che la separa dall’Urss con due comportamenti interessanti: esporta quasi i 3/4 del suo petrolio, e possiede grandi surplus in campo alimentare; laddove i sovietici importavano cibo e sciupavano una montagna di petrolio in casa. Queste lampanti differenze dovrebbero sconsigliare l’impiego di tattiche che facciano leva sul greggio o sul frumento, posto che le suddette tattiche sono oggi prive di funzionalità, quando non addirittura altamente rischiose per chi volesse tentare di servirsene.

Nel mentre che l’Ucraina si avvia alla bancarotta sociale, culturale, politica e marginalmente anche economica nel più totale menefreghismo, una curiosa armata Brancaleone racconta di imporre sanzioni di discutibile efficacia ai russi nella speranza di convincerli a non curarsi del destino della loro più corposa minoranza fuori frontiera. Sono lontani i tempi del Grande Gioco narrato da Kipling: ad essersi estinti sono gli strateghi che riempirono i libri di storia – e che magari quei libri ogni tanto sfogliavano. Possiamo solo sperare che i nostri padroni siano tanto incapaci da riuscire almeno a fallire l’obiettivo di seminare guerre civili sul suolo europeo: perché se davvero si alzerà una nuova cortina di ferro, questa volta saremo noi a trovarci dalla parte sbagliata del recinto.

Pubblicato in attualità, soldi | Contrassegnato , , , , , , , , , , , | 2 commenti

Reti elettriche: l’Italia è piccola?

Argomento sempre attuale: le reti elettriche. Non le centrali, e nemmeno le utenze o i combustibili: proprio le reti. L’elemento essenziale della infrastruttura elettrica è costituito dal sistema che permette di trasportare l’energia alle utenze: è questo che distingue davvero l’elettricità come vettore dalle altre scelte possibili. Le fonti di energia cambiano, si evolvono: ma il vettore rimane valido. Esistono vetusti elettrodotti che hanno visto apparire e poi scomparire ai propri capi centrali nucleari, ad olio combustibile o a carbone; e che sono ancora in piedi. Rappresentando con la propria dignitosa patina di ruggine una storia di successo: quella di una tecnologia – l’elettricità – che invecchia bene e che rimane valida anche di fronte a tanti cambiamenti. Il sistema elettrico italiano è ovviamente fatto anche di centrali, e questi impianti suscitano discussioni talora feroci: tra le tante, la contesa attorno alla centrale a carbone di Vado Ligure, tacciata di inquinare oltre il consentito – e messa sotto sequestro da pochi giorni. In un contesto assai differente potremmo ricordare cosa accade in Sardegna, nel Sulcis, dove si insiste a cavare e bruciare in perdita il sulfureo carbone nazionale; col consueto, italianissimo corollario di lavoratori minacciati di morir di stenti: utilissimi scudi umani da impiegare per costringere gli amministratori pubblici ad elargire altri sussidi ad imprese altrimenti antieconomiche. Due esempi illuminanti delle tensioni esistenti in Italia attorno al teme dell’energia elettrica.

Ma le nostre reti sono valide? Il collegamento realizzato tra produttori e consumatori di elettricità funziona bene? Gli impianti esprimono le proprie potenzialità al meglio oppure no? Per rispondere a queste domande esiste un metodo velocissimo: fare qualche confronto con una nazione diversa dalla nostra. Partiamo dalle caratteristiche del nostro sistema elettrico. Nel 2011 in Italia disponevamo di una potenza elettrica netta installata di 118,4 GW – dato Terna – di cui 77 GW termici tradizionali. Nella pratica, i due terzi degli impianti disponibili sono costituiti da centrali termiche azionate da un qualche combustibile: quote residue di olio, carbone, ma soprattutto gas naturale. La produzione effettiva di elettricità nel 2011 risultava essere secondo Istat di 302,6 TWh, dei quali 228,5 TWh termoelettrici tradizionali. I fattori di capacità medi per gli impianti: cioè quante ore di funzionamento hanno archiviato alla potenza nominale durante l’anno. Nel complesso in Italia il dato si attesta sulle 2556 ore; nel caso degli impianti termici tradizionali il dato cresce debolmente a 2968 ore equivalenti. Si noti che un anno solare dispone di 8760 ore.

Con chi fare confronti? Non una nazione europea: le dimensioni in gioco sono confrontabili, sia in senso geografico che economico. Meglio un attore più grosso: gli Usa. Il mercato elettrico americano si sviluppa a scala continentale, e la forte deregolamentazione ha causato effetti interessanti, non sempre positivi. Veniamo ai dati: nel 2011 secondo la EIA negli States la potenza installata ammontava a 1051 GW, dei quali 784 GW per la parte di termoelettricità convenzionale. Sempre secondo la stessa agenzia nel 2011 la produzione elettrica Usa è stata di 4100 TWh, e di questa la termoelettricità convenzionale ha coperto più o meno 2790 TWh. La presenza di una sviluppatissima filiera nucleare non impedisce alle centrali termoelettriche americane di spuntare un buon 68% del mercato complessivo. I fattori di capacità: globalmente gli impianti Usa si posizionano sulle 3901 ore annue; per la sola termoelettricità il dato si abbassa a 3559 ore annue.

In Italia nell’ultimo decennio abbiamo insistito ad installare o ristrutturare una messe di centrali termoelettriche, alimentate in prevalenza a gas ed in subordine a carbone; l’entrata in scena delle nuove rinnovabili ha messo rapidamente in crisi gli impianti termici, talvolta appena inaugurati e già oberati di problemi finanziari. La stampella ideata dal legislatore per far fronte al problema – con i soldi di tutti – è stata quella del capacity payment: paghiamo impianti fermi che garantiscano di poter intervenire in caso di perdita di produttività delle rinnovabili. Un discorso oggettivamente validissimo, almeno fin quando non andiamo a spulciare i rozzi numeri: nella realtà statunitense i fattori di capacità delle centrali elettriche sono molto più elevati, e lo sono anche nel caso dei soli impianti termici convenzionali, meno prestanti. Un buon + 20%; questo non sembra impedire alle reti statunitensi di funzionare abbastanza bene.

Un altro modo di vedere la questione è riflettere sulla domanda elettrica di punta: in Italia 56,8 GW nel 2007, ormai ridimensionati a 54,1 nel 2012. Ancora una volta si fatica a comprendere il significato della presenza di una ottantina di giga-watt di centrali termoelettriche – dato già superato nel 2012. La rete Usa registrava nel 2011 una domanda di picco di 782 GW, il 74,4% della capacità disponibile. Nel caso italiano il picco di richiesta a stento arriva a coprire il 46% della capacità; anche tagliando fuori dal conteggio le nuove rinnovabili, non si andrebbe oltre il 55% della capacità disponibile sotto forma di termoelettricità ed idroelettrico. Sorprendentemente, importiamo più di un decimo dei nostri consumi elettrici da impianti oltre frontiera; un fenomeno che rende ancora meno comprensibile l’insistenza nell’installare nuove centrali in loco.

Abbiamo speso gli ultimi dieci anni ad accrescere la potenza elettrica disponibile, puntando anche su nuove centrali termiche che faticano a pareggiare i costi. Immaginiamo uno scenario alternativo: perché non costruire qualche elettrodotto attraverso le Alpi? Se è vero – come già sottolineato in questo precedente articolo sul tema – che la capacità tedesca a carbone è economica, la via più semplice per portarla qui non è imbarcare voluminosa lignite su delle chiatte: è semplicemente allacciare le reti elettriche italiana e tedesca. Sorpresa: ci stiamo già preparando a fare cose del genere, come nel caso del nuovo collegamento italo francese a corrente continua. Che non punta semplicemente a portare energia nucleare francese in Italia, cosa che peraltro facciamo già: i proponenti hanno in mente anche la possibilità di dirottare all’estero i prevedibili futuri picchi di produzione del fotovoltaico, rendendoli di fatto più gestibili. Osservando l’esempio americano, vien da dire che la soluzione per ovviare alle nostre debolezze è metterle assieme alle debolezze degli altri: si sommeranno in un sistema ben più solido, e più economico. I problemi della rete elettrica italiana potrebbero trovare una valida soluzione nella creazione, una buona volta, di una rete elettrica europea capace di regge il paragone con quella statunitense. E capace di operare in maniera dignitosa anche con qualche centrale in meno. Mettiamo più Europa nel mercato elettrico: vale la pena tentare.

Integrazione: l’evoluzione della potenza elettrica installata in Italia al 2012, distinta per tipologia di impianto. Dati al lordo delle perdite connesse a trasformatori e servizi ausiliari.

evoluzione potenza delle centrali elettriche in ItaliaPotenza lorda delle centrali elettriche italiane, MW. Fonte immagine: Terna.
Pubblicato in energia, soldi | Contrassegnato , , , , , , , , , , , | Lascia un commento

Linux è come gli altri. Lo scegliamo perché…..

Fine dei giochi per il vecchio Windows XP: il compagno di tante risate, l’arnese di lavoro in azienda, la piattaforma su cui operano tanti sportelli bancomat. Un sistema operativo blasonatissimo, nato leggero e poi appesantito fino al service pack 3 per mettere pezze alle vulnerabilità via via emerse. Ora è davvero finita: dall’8 aprile prossimo non verranno più rilasciati aggiornamenti, e casomai emergessero nuovi bachi questi verranno lasciati dove sono. La legge italiana obbliga a servirsi di sistemi operativi supportati dal produttore qualora il computer in uso gestisca informazioni meritevoli di protezione da attacchi informatici: questo significa che chi insisterà ad operare il vecchio XP su macchine contenenti dati personali si metterà di fatto contro la legge. Immagino che nessuno riceverà visite delle fiamme gialle il 9 aprile, ma comunque è giunto il momento di pensare anche a questo passaggio. In America ci stanno pensando: ci sono istituti di credito che vogliono migrare gli sportelli atm al pinguino; un po per ridurre i costi, e un po per semplificare l’operazione.

Il sottoscritto utilizza, su istigazione di colleghi più esperti, pc Linux da un buon lustro. Solo distribuzioni Linux, prevalentemente Debian derivate ma non solo. Pesanti e leggere, con o senza grafiche accattivanti; alle volte meri supporti al terminale o a servizi temporizzati. Su fissi e su portatili, ricchi o poveri di memoria e processore. Talvolta su bidoni scassati al punto da lasciar perdere il disco fisso ed utilizzare in sua vece una memoria Usb – con piena soddisfazione peraltro. Comunque sempre e solo Linux, in molteplici declinazioni. Ci sono anche altri soggetti che la pensano così: per dire, chi gestisce grandi mainframe o supercomputer oggigiorno sceglie Linux in via quasi esclusiva; i vari Google, Facebook ed Amazon usano quello per i loro centri di calcolo. Senza nulla togliere alla preponderanza del pinguino nel mercato degli smartphone, e senza ovviamente voler dimenticare la velocissima espansione registrata da questi sistemi in ambiente server. Un successo inequivocabile: ormai manca giusto la conquista dei desktop, ma forse non è il caso di badarci troppo.

Tenetevi stretti alla sedia, perché sto per rivelarvi una cosa che vi stupirà: Linux come sistema operativo, e in generale i programmi ed i servizi che lo completano, non è diverso da altri sistemi equivalenti. Linux è come tutti gli altri. Anche un programma come Firefox è come gli altri browser. Non sono realmente diversi: sono pezzi di software concepiti per interagire con la macchina e con l’utente al fine di svolgere un certo tipo di operazione. Un disegno vettoriale è sempre quello, così come l’invio di una email. Nello sviluppo di un software, è assolutamente fisiologico che sorgano man mano bachi che lo compromettono, ed eventualmente vulnerabilità che lo espongono agli attacchi dei tanti malintenzionati in circolazione nella rete. Linux non fa eccezione: ha avuto una scia enorme di vulnerabilità, e ne svilupperà a getto continuo in futuro. Posso testimoniare personalmente, ho assistito al manifestarsi di molteplici incidenti. Ma allora, ancora una volta: perché lo scegliamo sempre più spesso? E soprattutto: perché è la scelta di elezione per sistemi che gestiscono problemi di sicurezza critici?

Immaginiamo di avere a che fare con un programma, da utilizzare su Linux; e del suo equivalente pensato per un sistema operativo proprietario – anch’esso dotato di licenza proprietaria. I programmatori si mettono all’opera e ne realizzano versioni via via più evolute. Ad un certo punto, si manifestano dei bachi e delle vulnerabilità. La reazione dei gestori del programma non è la stessa nei due casi. Nel caso della soluzione “chiusa” la tendenza sarà a negare il problema, tenerlo nascosto, e lavorarci su per risolverlo: ma solo se la spesa si giustifica. Se il programma vende poco, scarsi saranno gli sforzi per intervenire su di esso; ma questo non verrà certo dichiarato. Peggio che mai per una vecchia versione a fine ciclo di vita. Quando mai una grande software house vi ha raccontato che “il tal programma è affetto da alcuni bachi e da un paio di vulnerabilità ad attacchi esterni che non risolveremo”? Viaggiate al buio e pregate, pregate che vada a finire bene.

Ovviamente anche il programma per il pinguino ha sviluppato un numero equivalente di bachi: è inevitabile. Tot righe di codice, tot interazioni, tot bachi: è la stessa storia. Però la gestione non è uguale. Nel mondo del software libero queste cose si vengono a sapere alla svelta: se c’è un problema che possa costituire pericolo, i responsabili del componente incriminato vengono messi in allerta e si concede loro un po di tempo per rimediare (si parla di giorni o settimane, non di anni). Se dopo un certo lasso di tempo il problema non viene risolto, allora succede una cosa che ai più può sembrare incomprensibile: il problema viene reso pubblico. A tutto il pianeta, con discreta figuraccia dei responsabili, ma a dire il vero è una cosa frequente che non spaventa più di tanto. Questa curiosa strategia permette di ottenere vari benefici. Intanto mette sotto pressione i responsabili del progetto, che fa sempre bene. Secondariamente, permette a moltissimi altri sviluppatori di conoscere i dettagli del problema ed eventualmente intervenire: un vantaggio dei software a sorgente aperto. Se qualcuno scopre la soluzione, il problema viene subito superato: non importa chi sia arrivato prima, l’importante è arrivare. Terzo vantaggio: fin quando il problema non è superato, gli utenti sono a conoscenza del problema. E possono intervenire bloccando le funzionalità che ritengono una minaccia, un  elemento essenziale per chi gestisce cose diverse da un banale pc domestico. Se manovri un server web, non vuoi certo usare un sistema operativo che risolve le vulnerabilità ogni 3 o 4 anni, e nel mentre nemmeno ti avvisa del pericolo.

Quello che è diverso nel mondo Linux non è il sistema operativo in sé, e nemmeno i programmi in uso. E’ la filosofia di gestione. Le licenze software aperte impongono una gestione dello sviluppo software totalmente diversa da quella riscontrabile con il materiale proprietario. Entra in gioco una componente altrimenti non disponibile: la trasparenza. Lo sviluppo del software è trasparente, nel senso che tutti possono verificare cosa è stato fatto e perché: chi nota un problema lo può segnalare, e nessuno può coprire nessun problema. Sorpresa: il sistema più trasparente ed indagabile garantisce più sicurezza. Perché con una licenza proprietaria ci guardano dentro solo i malintenzionati – oltre a qualche gestore aziendale – mentre con quella libera si presentano all’appuntamento anche sviluppatori terzi. In grande numero, e capaci di accelerare molto l’evoluzione del software. Così, nel momento della scelta, ricordate di non badare troppo alle supposte qualità del software che vi apprestate ad usare. Non sono così rilevanti. Preoccupatevi piuttosto di quale licenza state scegliendo. E’ molto più importante, specialmente al di là del futuro immediato.

Pubblicato in attualità, varie | Contrassegnato , , , , , , , , , , , | 2 commenti