WIKIFF

I fiduciosi frequentatori di it.wikipedia.org avranno la sensazione che in Giappone la ff in versione F&P è da tempo una realtà dovuta alla creatività dell’Ing. Yoshiaki Arata.

https://it.wikipedia.org/wiki/Yoshiaki_Arata

Non mancano dettagli e riferimenti bibliografici dell’impresa, compresi articoli entusiasti:

Ludovica Manusardi Carlesi, Fusione fredda alla riscossa (2008).

e particolari scientificamente audaci:
Tale cella, tramite lo sfruttamento di microcavità e difetti reticolari, normalmente presenti negli elettrodi di palladio, per mezzo di particolari fenomeni elettro-fisici, può portare, il deuterio inglobato, a raggiungere pressioni enormi, tali da favorire le migliori condizioni per l’innesco di reazioni di fusione fredda.

Peccato che tanta fiducia nella capacità ff di Arata non sia confermata dalle altre edizioni nazionali di wikipedia interrogate su di lui.
Addirittura de.wikipedia.org ha necessità di disambiguare, per distinguere il nostro da altri personaggi con lo stesso nome.

https://de.wikipedia.org/w/index.php?search=Yoshiaki+Arata&title=Spezial:Suche&go=Artikel&searchToken=3288xtaf79v2bho5nfvalwumx

Molto riservato il sito giapponese, a giudicare dallo scarso spazio dedicato al soggetto (non conosco il giapponese!):

https://ja.wikipedia.org/w/index.php?search=Yoshiaki+Arata&title=%E7%89%B9%E5%88%A5:%E6%A4%9C%E7%B4%A2&go=%E8%A1%A8%E7%A4%BA&searchToken=4vnejqzjmpqumd3a6jm7hiceo

A tutela di it.wikipedia, il responsabile del sito sta sulle sue:

Questa voce o sezione sull’argomento fisica è ritenuta da controllare.
Motivo: pare eccessivamente esaltante e esaltata

E’ chiaro che non si troverà più nessuno disposto a riscrivere un lemma “Arata” per it.wikipedia.org e dovremo tenerci il testo che l’ignoto volonteroso ci ha fornito: con l’accortezza di leggerlo cum grano salis. Dall’uso spericolato di virgole e incisi si potrebbe pensare a F. Celani.
Bisogna ammettere con disagio che troppo spesso it.wikipedia non si mostra all’altezza di en.wikipedia o di de.wikipedia. Fin che si tratta di fornire dati biografici e informazione geografiche le cose procedono in modo soddisfacente; molto meno quando l’argomento riguarda l’attualità scientifica come in questo caso.
Una cosa abbiamo imparato da tempo: wikipedia non è un’alternativa alle banche dati e ai trattati scientifici.
Se l’ammiratore di Arata di it.wikipedia sapesse che il nome dell’ingegnere tanto stimato non figura in EXFOR sarebbe fortemente deluso e sarebbe indotto a pensere a un complotto antinipponico. Dovrebbe però sapere che è difficile che un ingegnere siderurgico esperto in saldature sia in grado di occuparsi di reazioni nucleari. Uomini dal multiforme ingegno come Ulisse sono rari. Si sa, gli ingegneri sono spesso debordanti.

Annunci
Pubblicato in Uncategorized | 383 commenti

KoaV 2018

In questi giorni la stampa nazionale ha dato risalto al Patto di coalizione, Koalitionsvertrag (KoaV), sottoscritto dai dirigenti dei partiti al governo in Germania. E’ un importante documento che tratta praticamente di ogni materia suscettibile di intervento governativo. Si occupa perfino di giardinaggio e dell’impiego razionale delle torba.
Per cominciare ho estratto i punti più prossimi al post SEN 2017. In base al riscontro, si potranno approfondire i punti accennati o trattarne altri.

Patto di coalizione (KoaV)
tra CDU, CSU e SPD
Bozza
7 febbraio 2018

https://www.tagesspiegel.de/downloads/20936562/4/koav-gesamttext-stand-070218-1145h.pdf

1. Energia

Proseguiamo nella ricerca di energia pulita, sicura e di basso costo: potenziamento più determinato, più sincrono alla rete di distribuzione, sempre più orientato verso il mercato delle energie rinnovabili.
A queste condizioni: aumento della frazione delle energie rinnovabili al 65% entro il 2030. Modernizzazione della rete elettrica di distribuzione.
Realizziamo la svolta energetica con gli uomini, i comuni e le imprese: maggiore attenzione per la difesa della natura e dei giusti diritti dei cittadini, anche attraverso un più esteso interramento dei cavi. Partecipazione delle comunità alla creazione di valore. Garanzia di capacità di concorrenza alle industrie ad elevato consumo di energia.

Vogliamo far progredire l’accoppiamento dei settori calore, mobilità ed elettricità in collegamento con tecnologie di accumulazione. Per questo devono essere allestiti quadri di collegamento. Le aziende municipalizzate e gli esercenti delle reti di distribuzione, per la loro vicinanza alla produzione di energia e alle utenze così come al traffico cittadino, hanno una posizione chiave nella coordinazione del settore. Per l’accumulazione vogliamo mettere a disposizione mezzi e centri di ricerca. La Germania deve di nuovo diventare sede di produzione di accumulatori elettrici. Allestiremo un Istituto Fraunhofer per le tecnologie di accumulazione e relative competenze. Vogliamo potenziare la tecnologia a idrogeno.

L’energia dal vento offshore ha un significato di politica energetica per la Germania e può anche contribuire a una diminuzione dei costi. Ci impegniamo pertanto per l’installazione di un campo sperimentale offshore, per mezzo del quale si potrà studiare il potenziale della svolta energetica.

Nel campo della ricerca energetica vogliamo incoraggiare lo sviluppo di processi industriali a bassa produzione di CO2 e di un’economia a ciclo chiuso di CO2.

Elaboreremo un’ambiziosa strategia federale di efficienza energetica con lo scopo di associare il principio fondamentale “Efficiency First” con la riduzione del consumo energetico fino al 50% entro l’anno 2050.

Vogliamo portare avanti l’accoppiamento settoriale e modificare il quadro di regolazione, in modo che “idrogeno verde” e idrogeno come prodotto di processi industriali possa essere usato come combustibile o per la produzione di combustibili convenzionali (per esempio metano)

La bioenergia contribuisce al raggiungimento degli obiettivi climatici nel settore dell’energia e della mobilità. Vogliamo aumentare ulteriormente il numero di impianti bioenergetici. Rafforzeremo la valorizzazione dei rifiuti.
[Il patto sembra non prevedere un piano temporale esplicito per il depotenziamento della produzione di energia elettrica con centrali a fossili; resta implicito nel progetto di ricorrere alle rinnovabili]

2. Mobilità

Elettrificazione del 70 % delle rete ferroviaria entro il 2025. Investimenti in elettromobilità, in particolare in celle a idrogeno e a combustibile. Sovvenzioni alla produzione di batterie elettriche localizzate in Germania. Realizzazione di una infrastruttura con 100000 stazioni di carica di elettromobili entro il 2020.
Per i mezzi elettrici di locomozione di uso industriale introduciamo un deprezzamento per uso del 50 % limitato a cinque anni a partire dall’anno d’acquisto. Vogliamo inoltre stabilizzare la modernizzazione e l’acquisto di e-taxi, e-bus, veicoli commerciali elettrici e promuovere il carsharing.

La produzione di accumulatori elettrici è per la Germania e per l’Europa un importante campo di attività economica e di politica industriale. Vogliamo pertanto sollecitare l’industria a dare priorità in Germania e in Europa all’intera catena della mobilità elettrica.

3. Nucleare

Restiamo determinati a rinunciare all’energia nucleare: nessun incentivo europeo per la costruzione di nuove centrali nucleari. Cessazione di tutte le partecipazione statali in centrali nucleari all’estero.
Entro la fine del 2022 cesserà l’impiego dell’energia nucleare in Germania.
Nell’ambito della comunità europea ci impegneremo a ottenere un adeguamento dei progetti dell’EURATOM alle esigenze del futuro. Non vogliamo che si assuma alcun impegno finanziario per la costruzioni di nuove centrali nucleari.

4. Ricerca e innovazione

La Germania deve restare un paese innovatore. Pertanto la Repubblica Federale in accordo con i Länder e il mondo economico stabilisce di investire entro il 2025 almeno il 3,5 % del PIL.

Corrispondentemente vogliamo sostenere in Germania la ricerca in corso sul plasma ad alta temperatura.

Con i nostri partners francesi realizzeremo un Centro di ricerca di responsabilità pubblica sull’intelligenza artificiale. Insieme ai polacchi vogliamo allestire un Centro per l’innovazione digitale in Ricerca di Sistema (Systemforschung)

Vogliamo iniziare un decennio nazionale di ricerca contro il cancro. Parimenti vogliamo impegnarci in ricerche sulla demenza, sulle malattie psichiche, sulle malattie polmonari, oltre che incoraggiare la medicina dedicata ai bambini e ai giovani.

Nella ricerca sul clima-energia vogliamo, insieme al mondo economico e alla società civile, ricercare soluzioni di sistema, in particolare relativamente alla combinazione energia elettrica – mobilità – calore.

Vogliamo lanciare un programma di ricerca sulla mobilità che comprenda la mobilità autonoma; incrementare il finanziamento della ricerca sulle batterie e incoraggiare la produzione di batterie in Germania.

5. Clima

Ci riconosciamo in tutti i settori degli obiettivi climatici 2020, 2030, 2050 concordati in campo nazionale, europeo e nell’ambito degli accordi di Parigi sulla tutela del clima. La Germania, in accordo con quanto stabilito a Parigi, si impegna a mantenere sensibilmente sotto due gradi Celsius, possibilmente sotto 1,5 gradi, il riscaldamento della Terra e, più tardi nella seconda metà del secolo, a raggiungere la neutralità dell’effetto serra.

 

Pubblicato in Uncategorized | Contrassegnato , , | 595 commenti

Copernicanesimi di ieri e di oggi

Dal 2011 ci siamo sempre occupati di fusione fredda e affini ma, dato che l’argomento non appare più di bruciante attualità, ci possiamo concedere la libertà di ospitare temi di altra natura, se sono trattati con la competenza e la proprietà formale cui ci ha abituati il Prof. Giorgio Masiero.
Buona lettura e buona riflessione a tutti.

Copernicanesimi di ieri e di oggi

Nel 1609, l’anno in cui Galileo costruiva il primo telescopio e iniziava la sua conversione all’eliocentrismo, Keplero pubblicava a Praga “Astronomia Nova seu physica coelestis, tradita commentariis de motibus stellae Martis ex observationibus Tychonis Brahe”, dove esponeva i risultati di 10 anni di calcoli sui dati astronomici raccolti a occhio nudo insieme a Tycho Brahe. In chiusura apparivano 2 delle 3 leggi che portano il suo nome. La terza sarebbe apparsa 10 anni dopo in un altro libro di Keplero, “Harmonices mundi” (1619).

Si rimane scioccati nel vedere – per esempio, tramite la digitale Biblioteca Europea di Milano – la mole di numeri raccolti dai due scienziati, ogni giorno per 30 anni. La loro meticolosità gli permise di misurare le parallassi planetarie con un’accuratezza di un minuto d’arco! Tutti i dati, in vista di ricavare le leggi sottostanti ai moti celesti, vennero ovviamente elaborati a penna (d’oca).

I moti orbitali dei pianeti fino a Saturno erano stati osservati, già molti secoli prima, da babilonesi e greci altrettanto pazientemente, ma non altrettanto accuratamente di Brahe, né con le stesse conoscenze matematiche di Keplero. Gli antichi avevano giudicato i moti della Luna e del Sole circolari intorno alla Terra e quelli degli altri pianeti circolari intorno a centri ruotanti intorno alla Terra (“epicicli”). Fu la matematica di Keplero applicata ai dati di Brahe a trovare che le orbite dei pianeti sono ellissi aventi un fuoco nel Sole: la prima legge di Keplero, appunto. Le orbite circolari ed epicicloidali dell’astronomia classica erano state la prima descrizione scientifica dei moti nel sistema solare, in un’approssimazione perdurata millenni, abbastanza buona essendo le ellissi di Keplero quasi-circolari. Oltre che più precisa, la descrizione di Keplero è più elegante: prendendo a riferimento il Sole, le orbite si riducono per tutti i pianeti a tonde ellissi, piuttosto che le contorte epicicloidi di Tolomeo. Ciò legittimava in un punto (secondo il rasoio di Occam) il sistema eliocentrico, proposto 66 anni prima da Copernico su pure basi teologiche, rispetto a quello classico aristotelico-tolemaico. Ma rimanevano altre frecce “scientifiche” nell’arco di quest’ultimo…

5 anni dopo, nel 1614, un giovane di Ingolstadt, tale Georg Locher, allievo dell’eclettico Christoph Scheiner, pubblicava un libretto (“Disquisitiones Mathematicae de controversiis et novitatibus astronomicis”) pieno di ammirazione per Galileo e colmo d’illustrazioni di tutte le eccitanti scoperte consentite dalla nuovissima tecnologia telescopica: le lune di Giove, le fasi di Venere, le macchie del Sole, la superficie ruvida e piena di crateri della Luna. Era però un testo anti-copernicano, il cui ricordo oggi si deve quasi solo per essere stato oggetto di scherno da parte di Galileo nel “Dialogo sopra i due massimi sistemi del mondo” (1632).

Che cosa obietta Locher al copernicanesimo? Certo, ammette, una Terra in movimento intorno al Sole non combacia col passaggio biblico preso alla lettera, dove Giosuè ordina al Sole di fermarsi. Ma una Terra in movimento crea anche maggiori problemi all’astronomia. Uno di questi è la grandezza delle stelle nell’universo copernicano. Se la Terra si muove, come si spiega la “fissicità” delle stelle? I copernicani devono teorizzare che le stelle, anziché trovarsi giusto al di là dei pianeti come si è sempre pensato, siano così incredibilmente lontane dalla Terra che il moto di questa intorno al Sole risulti insignificante rispetto a quelle distanze. Ma allora, incalza Locher, poiché le stelle osservate dalla Terra sono punti di diversa grandezza e luminosità, esse devono essere, comprese le più piccole, così massicce e splendenti da far impallidire il Sole!

Fin qui, Locher ripete diligentemente la lezione di Tycho Brahe, un altro anti-copernicano, il più importante astronomo dell’epoca, il quale pensava fosse assurdo solo immaginarsi miriadi di soli incommensurabilmente più grandi del nostro ed era sicuro che il sistema copernicano non sarebbe sopravvissuto alla questione. Locher però non s’accontenta delle critiche di Tycho, ma sviluppa un’analisi comparata e propone un programma di ricerca per decidere tra i due massimi sistemi.

Tolomeo, prosegue Locher, aveva spiegato le irregolarità osservate ad occhio nudo nei movimenti dei pianeti teorizzando che i pianeti si muovano sì intorno alla Terra, ma che ciò facciano ruotando su orbite circolari (“epicicli”), i cui centri ruotano su orbite circolari più grandi (“deferenti”) centrate sulla Terra. Fino alla scoperta del telescopio però, ragiona Locher, questa era solo un’ipotesi, perché nessuno poteva determinare se gli epicicli esistessero davvero. Ora il telescopio di Galileo permette misure più accurate, che rivelano per esempio le lune di Giove, ruotanti in orbite che sono epicicli dell’orbita di Giove. Dunque, Tolomeo ha ragione su un primo punto: gli epicicli esistono per alcuni corpi celesti, visti e misurati col telescopio galileiano! Ma gli epicicli paiono esistere anche per i pianeti: tutte le osservazioni al telescopio sono infatti coerenti con l’ipotesi che Giove, Venere, gli altri pianeti ed anche le macchie solari, come Tycho aveva mostrato coi suoi dati, ruotino su epicicli intorno al Sole, il quale infine ruota intorno alla Terra. In questo sistema geocentrico, tutto è coerente con le osservazioni telescopiche ed il problema della dimensione delle stelle non si pone.

È il sistema tychonico: il Sole, la Luna e le stelle ruotano intorno alla Terra, fissa al centro dell’universo; i pianeti Mercurio, Venere, Marte, Giove e Saturno ruotano intorno al Sole; i satelliti intorno ai loro pianeti. Si tratta ora di osservare, conclude Locher, con telescopi sempre più potenti, se il sistema vale anche per Saturno e le sue “protrusioni” (che noi oggi sappiamo essere degli anelli). Il sistema copernicano è da rigettarsi perché 1) non spiega nulla di più del sistema tychonico, 2) crea il problema della dimensione delle stelle e 3) complica i movimenti dei corpi che si muovono sulla superficie terrestre. Alla fine, Locher prospetta un programma a lungo termine di ricerca astronomica per raccogliere dati sui cambiamenti delle protrusioni di Saturno intesi a corroborare definitivamente il sistema tychonico.

Nel Dialogo, Galileo non ribatte alle obiezioni che Locher pone al copernicanesimo su pure basi scientifiche. Né avrebbe potuto, perché già la scelta del sistema di riferimento più adatto tra i “massimi sistemi” – tolemaico, copernicano e tychonico – non era possibile senza 1) una teoria meccanica e 2) una teoria della gravitazione, che sarebbero venute una prima volta con Newton mezzo secolo dopo ed una seconda volta, in forme concettualmente differenti e maggiormente corroborate, da Einstein ad inizio ‘900.

Galileo e Locher non avevano né una teoria né l’altra, però ritengo che Locher non meriti di essere del tutto dimenticato, almeno per essersi posto il problema della gravitazione. Dalla lettura del suo trattatello, con mio grandissimo stupore, ho appreso d’un meccanismo da lui immaginato per spiegare come i pianeti possano muoversi in orbite circolari spontaneamente, in una specie di caduta perpetua. Locher vi propone ante litteram un Gedankenexperiment – “cogitatione percipi possit” sono le sue parole –, e ciò 70 anni prima della gravitazione di Newton, anzi quasi anticipando di 3 secoli il principio di equivalenza tra inerzia e gravità della relatività generale. Il meccanismo, ammette Locher, è indifferente a decidere tra i sistemi astronomici in competizione; tuttavia, aggiungo io, è il primo tentativo in scienza moderna di spiegare le orbite circolari dei corpi celesti, che non sono meno naturali della caduta verticale d’un sasso dalla Torre di Pisa o della traiettoria parabolica d’una palla di cannone lanciata dalle mura di Ingolstadt.

Oggi, che il problema di un “centro” non ha più senso né nel sistema solare né nell’universo intero, è chiaro che la vera rivoluzione galileiana in astronomia fu di abbassare il cielo alla Terra; un cielo che, da che uomo posò gli occhi insù, era stato considerato di sostanza “divina”. Il telescopio rivelò a Galileo che tutti i corpi (allora visibili) dell’universo sono probabilmente fatti della stessa “stoffa”, anche il Sole con l’imperfezione delle sue macchie. Da quell’abbassamento il potere religioso si sentì minacciato, fino ad intentare un vergognoso processo a Galileo e costringerlo all’abiura. Ma chi o che cosa stia al centro del mondo o d’una sua parte, ammesso che la questione avesse allora un senso, non poteva essere stabilito da nessuno.

Il vagabondaggio del Sole rispetto al centro di massa del sistema solare nel cinquantennio dal 1945 al 1995

Che cosa rimane oggi del copernicanesimo? Le equazioni della relatività e i dati astronomici non sono sufficienti a determinare la struttura globale dell’universo fisico: ne uscirebbero infiniti mondi diversi. Servono ipotesi addizionali, se vogliamo disporre di teorie scientifiche descriventi l’universo reale in cui abitiamo. Seguendo Einstein, i cosmologi adottano il postulato di uniformità spaziale nella distribuzione della materia. Ovviamente non un’uniformità rigorosa: qua c’è una stella (con la sua densità), là un pianeta (con un’altra densità), qua c’è un buco nero (con un’altra, altissima densità) e là il vuoto (con densità quasi pari a zero). Ma su larga scala, in media, essi postulano che il cosmo sia come un gas di molecole, con una densità costante di tanti grammi per metro cubo. È questo “il vero Principio copernicano” – come lo chiamò Hermann Bondi – e non più la vecchia storia della Terra che gira intorno al Sole. Ed è chiamato copernicano con piena ragione perché, anche se Copernico non sapeva nulla di densità spaziale media della materia, esso costituisce l’ultimo ripudio dell’antropocentrismo e così porta a termine la rivoluzione iniziata dal canonico polacco.

Anche questo neo-copernicanesimo però si scontra coi dati, se l’astronomo Halton Arp può dire: “I cosmologi trascurano le osservazioni che si sono andate accumulando negli ultimi 25 anni e che ora sono divenute schiaccianti”. Per esempio, si osservano galassie separate da miliardi di anni luce e si misurano velocità relative di allontanamento così basse che sarebbero richiesti centinaia di miliardi di anni – decine di volte l’età stimata dell’universo – per produrre quelle separazioni, se fosse vero il principio di densità uniforme. Un’altra difficoltà: non c’è sufficiente materia nell’universo per generare campi gravitazionali abbastanza forti da spiegare la formazione e la persistenza delle galassie.

Tali incongruenze sono superate dai cosmologi con espedienti che peggiorano le cose. Il problema è che essi non possono rinunciare al principio di uniformità spaziale, pena la sopravvivenza della cosmologia. Cosa si fa allora se non c’è abbastanza materia nell’universo? La s’inventa, introducendo qualcosa di misteriosissimo chiamato materia oscura, una sostanza che non interagisce con i campi elettromagnetici e che di conseguenza risulta invisibile. La materia oscura è il god of the gaps che alza il campo gravitazionale ai livelli necessari a salvare il principio copernicano…, facendo saltare però l’intuizione galileiana che tutto l’universo fisico sia fatto della stessa stoffa. Anzi, i cosmologi sono costretti ad introdurre un secondo mistero doloroso, l’energia oscura, stavolta per spiegare l’accelerazione con cui l’universo si espande. Col risultato che il 95% di tutta la materia-energia dell’universo diviene “oscura”. Non è ironico che la scienza degli umani pretenda di parlare in nome di tutto l’universo trovandosi a rappresentare appena il 5%?

Pubblicato in Uncategorized | Contrassegnato , , , , , | 1.131 commenti

SEN 2017

Il post che segue è stato gentilmente proposto da Ascoli65. L’argomento è di enorme importanza e non dubito che susciterà l’interesse di quanti onorono questo blog con i loro contatti.

Oramai l’eco del revival FF esplosa su internet 7 anni fa a seguito delle prodezze dei fisici UniBo si è quasi spenta del tutto. Per restare nell’ambito delle problematiche energetiche che la stessa FF pretendeva di risolvere, ho quindi pensato di proporre un tema più concreto con il quale, per la serietà dell’argomento, la portata dei provvedimenti e l’autorevolezza dei soggetti proponenti, dovremo necessariamente fare i conti in futuro: la SEN 2017.

La Strategia Energetica Nazionale è stata adottata ufficialmente lo scorso novembre con decreto emesso dal MISE e dal MATTM (1). Si tratta di un piano ultradecennale esteso fino al 2030 che intende guidare e finanziare l’adeguamento del sistema energetico italiano ai vincoli derivanti dalle principali sfide planetarie che incombono, ovverosia l’esaurimento delle risorse e le gravi alterazioni climatiche provocate dall’uso dei fossili.

La SEN è il risultato di un lungo processo di valutazione del sistema energetico italiano e dei suoi possibili sviluppi futuri. Nella scorsa primavera era stata indetta una consultazione pubblica sulla base di un documento di 230 pagine messo a punto dai due ministeri competenti (2). Le decisioni finali a seguito di questa consultazione sono state riassunte nella breve presentazione illustrata ai giornalisti nella conferenza stampa del 10 novembre scorso (3).

Per l’impatto che avrà sulla nostra vita, l’adozione della SEN dovrebbe essere considerato da noi italiani il principale evento socio-politico degli ultimi anni, ciononostante la sua eco mediatica è stata limitata agli annunci del giorno dopo diffusi dalle agenzie di stampa (4) e dai principali quotidiani (5) e a qualche successivo approfondimento dei giornali finanziari (6-7). Il più vasto dibattito pubblico lo ha del tutto ignorato. L’imminenza delle elezioni politiche sarebbe invece una buona ragione per approfondire la conoscenza delle scelte programmatiche della SEN 2017, dato che il prossimo parlamento sarà chiamato a pronunciarsi sui numerosi provvedimenti legislativi che avranno lo scopo di attuare le direttive in esso delineate.

Per tale ragione vorrei proporre ai lettori di questo blog una riflessione sulla SEN, prendendo come spunto il contenuto di due delle slide contenute nella presentazione già citata (3).

Il primo punto, che è stato utilizzato dai media come titolo per attirare l’attenzione del pubblico, è l’intenzione del governo italiano di anticipare al 2025 la dismissione di tutte le centrali elettriche alimentate a carbone, secondo quanto riassunto nella seguente slide 7:

La decisione comporterebbe la chiusura entro il 2025, oltre che delle 5 centrali ubicate del centro-nord, anche delle rimanenti 4 grandi centrali concentrate al centro-sud e in Sardegna, incrementando così il taglio della capacità produttiva da 2 a 8 GW. Questa riduzione dovrebbe venir compensata dalla realizzazione di nuove centrali a gas, da impianti di generazione da fonti energetiche rinnovabili (FER) e da sistemi di accumulo, soprattutto nuove centrali idroelettriche di pompaggio.

La nuova ripartizione tra le fonti energetiche primarie che dovranno sostenere i consumi elettrici dopo l’uscita dal carbone è mostrata nella slide 9:

Anche se il nuovo mix è riferito al 2030, cioè a 5 anni dopo l’uscita dal carbone, esso mostra come si intende sostituire l’energia elettrica prodotta da fonti fossili diverse dal gas naturale. I 61 TWh in meno (43 da carbone e 18 da altri fossili, probabilmente olio combustibile) verrebbero sostituiti principalmente da un massiccio incremento delle fonti rinnovabili intermittenti (fotovoltaico ed eolico) che nel complesso dovrebbe triplicare la loro erogazione di energia rispetto al 2015: il fotovoltaico passerebbe da 23 a 72 TWh (+213%), mentre l’eolico andrebbe da 15 a 40 TWh (+167%). Inoltre si prevede un piccolo incremento dell’energia da gas naturale (+7 TWh) e dall’idroelettrico (+2 TWh), mentre il contributo delle altre FER (bioenergie) si ridurrà di 4 TWh soprattutto a causa del dirottamento del loro impiego verso altri usi, ad esempio biometano per autotrazione. Nel complesso si prevede un incremento in 15 anni della produzione di energia elettrica di 17 TWh (da 285 a 302 TWh), aumento derivante dall’intenzione di incrementare la percentuale dell’energia elettrica negli usi finali. Tra questi usi merita una particolare attenzione quello della mobilità elettrica individuale, anche perché si potrebbe aprire una grande controversia circa la copertura dei costi relativi alla sua promozione, di cui si ipotizza il finanziamento tramite le bollette (7).

Quanto mostrato in queste 2 sole slide è sufficiente a sollevare una grande quantità di interrogativi e di preoccupazioni. Ad esempio per quanto riguarda la decisione di anticipare al 2025 l’uscita dal carbone per produzione termoelettrica, c’è da chiedersi se sia un provvedimento realistico e quanto possa essere efficace al fine di raggiungere gli obbiettivi climatici stabiliti 2 anni fa al COP21 di Parigi. Si tratta invero di una decisione che allineerebbe l’Italia a quanto deciso a livello europeo soltanto da Francia, Regno Unito e Paesi Bassi (6), paesi che però si trovano in condizioni molto diverse dalle nostre. Il primo produce oltre la metà dell’energia elettrica da centrali nucleari, gli altri due hanno ancora un po’ di riserve di gas e comunque possono contare in inverno sul contributo dei forti e costanti venti del Mare del Nord, un mare idoneo ad ospitare vasti parchi eolici off-shore (8). Con ciò non si vuole negare l’impellente necessità di contrastare il degrado ambientale e climatico del pianeta, ma viene da chiedersi quale potrà essere a tal fine l’efficacia dell’abbandono del carbone in Italia quando la Germania e molti altri paesi del centro Europa continueranno a farne un uso massiccio, per non parlare dei giganti mondiali USA, Cina ed India.

Certo, se la cosa fosse almeno fattibile, sarebbe comunque un provvedimento virtuoso da perseguire, ma è veramente possibile triplicare in poco più di un decennio l’attuale produzione da fonti rinnovabili intermittenti? E dove si riusciranno a trovare in Italia tutti i siti idonei e privi di vincoli paesaggistici, soprattutto per quanto riguarda l’eolico?

Ma la maggiore perplessità riguarda la possibilità di garantire la continuità di esercizio del sistema elettrico, che esige la costante compensazione tra consumo e produzione, in presenza di una percentuale di fonti rinnovabili intermittenti (escluso quindi l’idroelettrico ad accumulo) che al 2030 dovrebbe attestarsi intorno al 40% del fabbisogno totale di energia elettrica. Ciò infatti richiede la realizzazione di complessi e costosi sistemi di accumulo capaci di immagazzinare l’eccesso di energia elettrica generata da fonti intermittenti durante i periodi di sovraproduzione, per utilizzarla nei periodi in cui il rapporto produzione-fabbisogno si inverte.

Il documento di consultazione della SEN (2) accenna alla problematica dell’accumulo nel capitolo dedicato agli interventi necessari per adeguare la rete elettrica (da pag. 99 in poi), ma ne parla solo in modo indiretto con riferimento a provvedimenti rivolti a ridurre la congestione lungo le linee di trasporto durante i periodi di maggiore criticità negli interscambi di energia elettrica tra le diverse aree del nostro Paese. Inoltre questi provvedimenti sono mirati soltanto alla compensazione su base giornaliera. Infatti lì dove si annuncia la realizzazione di nuovi impianti idroelettrici di pompaggio al centro-sud per una potenza installata aggiuntiva di 5 GW (pag. 102), si dichiara pure apertamente che la loro capacità di accumulo durerebbe soltanto 7-8 ore. Periodi ancor più brevi si possono aspettare per gli ulteriori 5 GW di accumulo elettrochimico citati a pag. 104.

Questa faccenda dell’accumulo elettrico dimensionato solo per livellare produzione e consumo giornaliero solleva il maggiore interrogativo relativo alla SEN 2017. Pur ammettendo che i propositi e le speranze in essa contemplate siano realizzati nei tempi ed ai costi previsti nel piano, resta ignoto come si intenda compensare lo sfasamento temporale tra produzione di energia elettrica da fonti intermittenti e consumi calcolato su base plurigiornaliera (cioè i lunghi periodi di nuvolosità, di bonaccia o di freddo) e soprattutto come si pensa di effettuare il trasferimento annuale, tra le stagioni calde e quelle fredde, della quota affidata al fotovoltaico, che da sola dovrà fornire quasi un quarto dell’intera produzione di energia elettrica.

Qualche idea in proposito?

(1) http://www.sviluppoeconomico.gov.it/index.php/it/194-comunicati-stampa/2037349-ecco-la-strategia-energetica-nazionale-2017
(2) http://www.sviluppoeconomico.gov.it/images/stories/documenti/testo_della_StrategiaEnergeticaNazionale_2017.pdf
(3) http://www.sviluppoeconomico.gov.it/images/stories/documenti/presentazione_sen_def.pdf
(4) http://www.ansa.it/canale_ambiente/notizie/istituzioni/2017/11/10/gentiloni-obiettivo-sen-e-un-sistema-produttivo-sostenibile_5b80f8d9-8dc5-4861-8eaa-860298d6713a.html
(5) http://www.repubblica.it/economia/2017/11/10/news/sen-180767873/
(6) http://www.ilsole24ore.com/art/commenti-e-idee/2017-11-30/i-sacrifici-necessari-uscire-dall-eta-carbone-145004.shtml?uuid=AEE2yBKD
(7) http://www.piazzamia.it/2017/12/19/strategia-energetica-nazionale-e-marketing-politico-o-puo-funzionare/?refresh_ce=1
(8) http://www.giuntitvp.it/blog/geoblog/un-isola-dell-energia-pulita-nel-mar-del-nord/

Ascoli65, 4 gennaio 2018

Pubblicato in Uncategorized | 277 commenti

Effetto gregge

Il 22 dicembre scorso sul blog «22 passi d’amore e dintorni» è apparso un post di Fabio di Matteo (Daniele, sicuro che non si chiami più modestamente Fabio Di Matteo?) intitolato «Quando mi sbattono…» dedicato alla lotta contro le vaccinazioni obbligatorie.
Per evitare giochi di rimpallo di opinioni, credo che il modo più efficace di rispondere alla serie di considerazioni «contro» avanzate dal Di Matteo sia di riportare la posizione della rivista trimestrale dei medici italiani.
Alla fine ognuno si prenderà le proprie responsabilità. Non sappiamo chi sia Di Matteo; se fosse un medico si sarebbe presentato. Se non è medico forse farebbe meglio a mantenersi nell’ambito della disciplina che rappresenta il suo gagne-pain. In materia di salute dovrebbero esprimersi solo gli addetti ai lavori. Si può ruzzare su altri argomenti, tipo calcio o vacanze, ma non sulla medicina, visto che è facile frastornare i cittadini e metterli in pericolo. Le fake-news in medicina sono pericolose.
Leggendo i commenti al post, risulta che non è nemmeno chiaro a tutti che cosa sia l’effetto gregge (herd immunity), un’espressione che è normalmante usata in epidemiologia.

LA PROFESSIONE
Medicina, Scienza, Etica e Società
Trimestrale della Federazione nazionale degli Ordini dei medici chirurghi e degli odontoiatri
Luglio 2017
Pag. 219

Nella sfera pubblica non devono però esserci incertezze, perché il «vaccino non è un’opinione», ma è una certezza scientifica acquisita, come ha ricordato con energia Roberto Burioni (professore di microbiologia e virologia all’Università San Raffaele di Milano): mettere a confronto «alla pari» sostenitori e oppositori dei vaccini equivale a dare pari dignità a posizioni razziste e antirazziste. La diffusione di gruppi contrari ai vaccini sta producendo danni alla popolazione generale, portando nuovamente in circolo malattie per le quali si era raggiunta l’immunità di gregge (una copertura vaccinale così ampia che impedisce il diffondersi di una patologia anche nel caso in cui dall’esterno si presenti un nuovo caso), ed esponendo così al contagio soprattutto i soggetti più deboli: bimbi piccolissimi non ancora vaccinati o persone che abbiano per diverse ragioni un abbassamento delle difese immunitarie. La richiesta è che si rendano obbligatorie le vaccinazioni per le scuole (come avvenuto in California) e che gli ordini professionali di medici e giornalisti sanzioni con severità i propri iscritti che attuano o diffondono pratiche antiscientifiche.

Pubblicato in Uncategorized | Contrassegnato , , , | 118 commenti

Termoidraulica

Com’era prevedibile, tutta la dimostrazione della funzionalità del QuarkX avvenuta il 24 novembre scorso è stata di natura termoidraulica: hanno fatto passare un flusso di acqua sul nocciolo del reattore, misurato le temperature in entrata in uscita e, nota la capacità termica dell’acqua, con due calcoli hanno ottenuto la produzione di calore nell’unità di tempo scelta. Hanno confrontato con l’energia elettrica introdotta nella stesso tempo e ottenuto il rendimento energetico del mamozio. Si tratta del metodo impiegato praticamente da tutti i ff (escluso il gruppo di Zoccoli/Jones del 1989, quando si cercò la presenza di neutroni, arrivando alla conclusione sbagliata che la quantità di neutroni era compatibile con una ff). Si dice che il metodo termoidraulico sia stato adottato per soddisfare le esigenze di un pubblico di tifosi capace solo di ragionare in soldoni e intimidito dal nucleare dai trascorsi referendum. Meglio non evocare antichi timori; il calore viene capito da tutti, il nucleare da pochi.
La ragione nascosta degli sperimentali è che un setup termoidraulico, relativamente complesso, in caso di fallimento o di risultato incerto può essere ripreso da altri, applicando modifiche minori, lasciando così aperti partita e finanziamenti relativi. L’asticella può essere abbassata a piacere, fino a richiedere di rilevare quantità infime di calore. Si rinuncia ai mamozi da capannone invernale, ma la ricerca continua, anche se a livello più modesto. Basta scorrere la raccolta bibliografica di Jed Rothwell per trovare un numero enorme di ff dediti alla ricerca di «anomalous heat», mai di tracce nucleari.
Meno comuni ma usati sono i metodi a pirometria ottica, validi per massicce produzioni locali di calore, ma non per quantità modeste. Ma non ci fanno caso, non hanno molte pretese di accuratezza e precisione.
Termoidraulica e pirometria sono fatalmente incappate nei revisori degli articoli, che notano come non si accenni alla prova fondamentale di un evento nucleari: manifestazioni nucleari sotto forma di prodotti di reazione necessari e di radiazioni di accompagnamento. Questo ha comportato che nessun articolo ff sia mai stato archiviato in EXFOR. Au nucléaire comme au nucléaire. Ovviamente Rossi e il ragazzo biondo che gli fornisce teoria ostentano indifferenza al problema e non si occupano né di fare misure nucleari nel corso della demo, né di accennarne in comunicati successive. Siamo in presenza di nucleare pulito, nientemeno. E’ stata presentata una reazione nucleare che non ha affatto le caratteristiche di una reazione nucleare, una sorta di oggetto a valenza mista come un ippogrifo. Parafrasando Levi, hanno presentato un galletto che non canta e non raspa. Hanno voluto la botte piena e la moglie ubriaca. Pensate che nel 2011 cercavano coscienziosamente gamma da annichilimento. Ora rinunciano ai gamma. Il tutto avvenuto nella più assoluta indifferenza dei presenti alla esibizione, che sembravano intenti a conoscersi tra loro, come a un buffet offerto dagli imprenditori dell’artigianato locale.
La realtà è invece assai più complessa e gli esperti nucleari non esitano a farlo notare:

Comitato LENR dell’INFN:
Le LENR, se veramente «nucleari» nel senso comune del termine, dovrebbero essere accompagnate dalla comparsa di determinati nuclidi e/o dalla produzione di neutroni e/o dalla produzione di raggi gamma.

Stefan Pomp:
the findings reported by Levi et al. do not call for an extension of nuclear physics. They outright contradict what we have learned the past 100+ years; no radioactive products, no radiation in the process,

Sean Burke (USPTO)



Team della cancelliera Merkel:
Der Artikel berichtet über eine Wärmeentwicklung, gibt aber keine Hinweise auf Fusionsreaktionen – zum Beispiel durch Messung der zu erwartenden Gammastrahlung.

La lettera N in LENR è molto impegnativa come si vede. L’acronimo non ha mai fatto parte della Generally Accepted Nuclear Science.

Il Comitato INFN del maggio 2014 termina il suo studio con queste parole:

Allo stato attuale non sussistono elementi coerenti e convincenti tali da far ritenere che si debbano mettere in discussione le conoscenze acquisite di Fisica Nucleare o cambiare i meccanismi di finanziamento di queste ricerche

In quella data l’avventura ff dell’INFN potè considerarsi formalmente chiusa. Le ricerche successive procedettero per inerzia e senza finanziamenti.

 

 

Pubblicato in Uncategorized | 128 commenti

NASA

Il sito http://www.lenr-forum.com segnala il report NASA/TM—2017-218963 pubblicato nel febbraio 2017, probabilmente il più recente uscito dalla comunità ff.

10 Autori
Experimental Observations of Nuclear Activity in Deuterated Materials Subjected to a Low-Energy Photon Beam

https://ntrs.nasa.gov/archive/nasa/casi.ntrs.nasa.gov/20170002584.pdf

Il report descrive la formazione di radioisotopi in seguito a irraggiamento con fotoni di bassa energia di campioni di metalli caricati con deuterio.
Si tratterebbe pertanto di fusione provocata in acceleratore, non di ff. Ormai sembra che la ff propriamente intesa sia affidata a Rossi.
Vale la pena soffermarsi su alcuni dettagli del report:

Deuterium fusion, however, generally requires at least 10 to 15 keV in kinetic energy (corresponding to over 100 million Kelvin) to raise the probability of tunneling to occur.

In realtà la DD richiede energie dieci volte più elevate per essere significativa.

A.S.Ganeev, A.M.Govorov, G.M.Osetinskij, A.N.Rakivnenko, I.V.Sizov, V.S.Siksin

D-D reaction in deuteron energy range 100 to 1000 keV

Atomnaya Energiya, Supplement; Vol.1957, Issue.5, p.26

In nature, such conditions are possible using deuterated metals, where the atomic ratio of  deuterium to the host metal can be made greater than unity with the proper loading conditions (Ref. 4)

Il riferimento bibliografico 4 indica che in nessuna condizione sperimentale si può ottenere un un rapporto idrogeno/palladio superiore a 0,8. Il palladio presenta la massima massima capacità di assorbimento di idrogeno, quindi i valori relativi ad altri metalli sono inferiori.

Moreover, many hydrides can be loaded and do maintain such high number density after loading. They can be transferred to the reaction chamber under ambient temperatures and pressures without appreciable loss of loading.

Non si tratta di idruri, composti daltoniani, ma di leghe, rappresentabili con diagrammi di stato dove il rapporto atomico è continuo. Trattandosi di leghe, il rapporto atomico che si ottiene a pressioni elevate non può essere mantenuto a pressione ordinaria. In condizioni di equilibrio, gli atomi di deuterio occupano posizioni relativamente stabili nel reticolo e non possono pertanto collidere con la dovuta energia.

Above the photodissociation energy of deuterium of 2.226 MeV, it is expected to observe
nuclear signatures consistent with neutron activation, kinetic heating, and other processes

La fotodissociazione del deuterio non avviene con una curva di eccitazione favorevole, come sembrano credere gli AA.

K.Y.Hara et al

Photodisintegration of deuterium and Big Bang nucleosynthesis

Physical Review, Part D, Particles and Fields; Vol.68, p.072001  (2003)

In the quest for a smaller, lighter weight overall system design, and to investigate how low of energy would still result in nuclear activation, the team explored lower MeV exposures.

Siamo arrivati al punto. L’eccitazione del reticolo metallico per mezzo di fotoni di energia inferiore a 2,226 MeV dovrebbe espellere le molecole di deuterio dalla loro buca di potenziale e conferirgli l’energia necessaria a fondere. Lasciamo l’ipotesi al giudizio dei revisori, se ci saranno.
Possono esserci altre interpretazioni, ma non sono proposte, perché in tutto il report non figurano reazioni nucleari.
Come sempre negli articoli ff, i dettagli sperimentali sono abbondanti. Forse troppo abbondanti…
Se esistono altre interpretazioni del paper, sarà interessante esaminarle nella discussione  che spero seguirà.

Pubblicato in Uncategorized | Contrassegnato , , | 287 commenti