Giuliano Preparata

scritto il 9 dicembre 2010 da WebMaster |  4 commenti  

A cura di Roberto Germano, Fisico, autore del libro Aqua, L’acqua elettromagnetica e le sue mirabolanti avventure, ed. Bibliopolis

Giuliano Preparata era Professore Ordinario all’Università Statale di Milano, dove insegnava Teoria delle Interazioni Subnucleari. Nasce1 a Padova nel 1942, si laurea in Fisica all’Università di Roma nel ’64. Lavora all’Università di Firenze con il Prof. Raoul Gatto sulla Fisica delle Interazioni Forti. Va a studiare negli Stati Uniti, e nel ’67 è nominato Research Associate all’Università di Princeton; nel ’68-’69 è all’Università di Harvard come Research Fellow; nel ’69-’70 è Assistant Professor alla Rockfeller University; nel ’70-’72 è nominato Associate Professor all’Università di New York. Tornato in Italia, a 33 anni, vince la cattedra di Professore Ordinario, ed è nominato Staff Member della Divisione Teorica del CERN (Centro Europeo per la Ricerca Nucleare) di Ginevra, dove lavora fino al 1980, per stabilirsi infine a Milano. Autore di oltre 300 pubblicazioni scientifiche nei campi della Fisica delle Alte Energie, della Fisica della Materia Condensata e della Biologia Molecolare.

Ebbene, come è possibile che, con tali premesse, il Prof. Giuliano Preparata venga addirittura attaccato con lettere sdegnate su “Scienza & Paranormale”, la rivista del Comitato Italiano per il Controllo delle Affermazioni sul Paranormale (CICAP)? Come si spiega la causa legale prima citata, tra il quotidiano “La Repubblica” e il Prof. Preparata (insieme al Prof. Emilio Del Giudice ed al Prof. Tullio Bressani), riguardo alle affermazioni fatte (nell’articolo del ’91 prima citato) dal giornalista scientifico Giovanni Maria Pace di “frode scientifica” e “falsi profeti”?

La fusione fredda è argomento di un precedente mio saggio; per ciò che riguarda le proprietà dell’acqua2, facciamocene un’idea ora.

Prima di parlare della struttura dell’acqua, però, è il caso di presentare anche l’altro protagonista, Emilio Del Giudice, e inoltre, è necessario discutere un po’ concettualmente sulle relazioni tra la fisica classica e la meccanica quantistica.

Emilio Del Giudice

Emilio Del Giudice è attualmente ricercatore dell’Istituto Nazionale di Fisica Nucleare (INFN) a Milano. Nel corso della sua carriera scientifica, ha pubblicato numerosi articoli su riviste scientifiche internazionali.

Si laurea in fisica a Napoli all’inizio degli anni ’60 seguendo i suoi sogni giovanili alimentati dai libri della tradizione progressista che vedevano la scienza come avanzamento per l’umanità, per cui la scelta di laurearsi in fisica fu di tipo filosofico. Appena laureatosi e preso contatto col mondo della ricerca, fu colpito molto negativamente dall’imperante eccesso di tecnicismo, e come dice Del Giudice al proposito, si chiese:

Ma è mai possibile che non parlano come mangiano?

Cioè, come mai c’era bisogno di un enorme apparato formale anche per dire delle cose concettualmente semplicissime? Per la fisica di Galilei e Newton bastava poca matematica, perché ora per capire la meccanica quantistica e la relatività assieme ci voleva tutta quella matematica? E ammesso e non concesso che fosse necessaria, quale sarebbe poi il contenuto conoscitivo di tutto cio? Mondi lontanissimi? Soltanto galassie gigantesche o particelle infinitesime? Ma possibile che nella fisica di tutti i giorni non ci fosse nessuna implicazione? Negli anni settanta del ‘900, Emilio Del Giudice fu attivo nelle coeve agitazioni politico-sociali, e dagli approfondimenti che ebbe modo di trarne ricavò la netta percezione che il tipo di scienza che in ogni epoca è stata costruita aveva sempre strette relazioni coi sogni, le aspirazioni, le velleità della gente che l’aveva costruita e che quindi i periodi di avanzamento (o di regresso scientifico) coincidono sempre con i periodi in cui gli occhi della gente sono più aperti (o più chiusi). I periodi di grande progresso scientifico coincidevano con importanti tensioni e rivoluzioni sociali: la fisica classica si è sviluppata alla vigilia delle rivoluzioni borghesi, ad esempio, con scienziati di valore sia sul fronte dei rivoluzionari che dei reazionari.

In seguito -dopo le prime ricerche negli USA nell’ambito dell fisica delle particelle elementari- preferì dedicarsi a ricerche di fisica e biofisica che andassero nella direzione di approfondire le sue più centrali domande filosofiche: come fa la materia a sviluppare una dinamica psichica? Cioè, escluso il dualismo anima–corpo, come emerge la fisica della materia vivente? Se la materia fosse intrinsecamente non inerte, cioè capace di movimento spontaneo, allora ci sarebbe spazio per un automovimento e la materia, quindi, non sarebbe mobile solo se spinta dall’esterno.

D’altronde, perché la materia dovrebbe essere inerte? Nel pensiero rinascimentale, ad esempio, la materia non è inerte; vedremo ora che è così anche per la fisica moderna!

Poi, negli anni ’80 del ‘900, Emilio Del Giudice incontrò Giuliano Preparata, da poco trasferitosi a Milano, e da allora cominciò la loro fruttuosa collaborazione, interrottasi soltanto con la scomparsa di Preparata nel 2000.

Preludio: La danza e il non lavoro

Nella concezione della cosiddetta fisica classica (fino alla fine del 1800) gli oggetti elementari possono essere portati in quiete, cioè non hanno un proprio moto spontaneo. Se si impartisce loro un moto rettilineo uniforme, essi lo conservano per sempre, ma ogni variazione del movimento richiede un’azione di spostamento dall’esterno. Cioè, nella fisica classica, il “movimento” è “movimento dal di fuori”.

La fisica tra l’800 ed il ‘900 mostrò, però, che se si ammetteva questo punto di vista, l’entropia di un sistema fisico sarebbe diventata infinita al tendere a zero della temperatura. Questa è una “catastrofe” che renderebbe il mondo impossibile, quindi è la prova che la concezione filosofica alla base della fisica classica è sbagliata.

Per evitare questa “catastrofe”, bisogna ammettere che ogni oggetto fisico fluttui. Una metafora è che mentre l’oggetto classico è una persona sobria, l’oggetto quantistico è una persona ubriaca, e quindi balla, oscilla, non è ferma sulle gambe. E così, nel calcolare l’energia di un qualunque oggetto fisico, bisogna considerare anche l’energia associata a queste fluttuazioni.

Si definisce l’entropia anche del campo elettromagnetico, quindi queste fluttuazioni non riguardano soltanto i corpi materiali, ma anche i campi.

Tutto fluttua.

Domanda: gli oggetti fluttuano ognuno separatamente nella propria individualità o possono fluttuare in fase, come un corpo di ballo?

Finora si è considerata solo la prima delle possibilità, poi l’energia connessa con le fluttuazioni viene semplicemente cancellata dai conti, tanto è infinita e non può entrare nel gioco.

Ma non è così. Negli ultimi decenni del ‘900 è emerso che è possibile accoppiare le fluttuazioni della materia con quelle del campo elettromagnetico. Una metafora può essere quella di un insieme di persone che si agitano, ognuna per i fatti propri (materia); se accendo una musica (campo), queste persone, man mano, iniziano a muoversi non più a caso, ma seguendo il ritmo della musica.

Può accadere che si realizzino delle situazioni in cui le fluttuazioni del campo elettromagnetico e le fluttuazioni della materia cominciano ad interagire fra di loro, ma per questo occorre superare delle soglie di densità della materia e stare al di sotto di certe temperature (perché la temperatura è una misura dell’agitazione delle molecole, quindi se la temperatura è troppo alta… è come una rissa, e nella rissa la musica non si sente). Questa interazione è tale che il sistema spende meno energia se i partecipanti oscillano tutti in fase, perché in questo caso tutte le oscillazioni che uno farebbe da solo, indipendentemente dagli altri, sarebbero risparmiate.

Esempio: quando il gas diventa liquido viene liberata dell’energia! Sembra paradossale: prima ho dei mattoni isolati, poi costruisco il palazzo, e anziché lavorare, mi devo astenere dal lavorare.

Come dice, in maniera giustamente provocatoria, Emilio Del Giudice:

Questo messaggio -che le cose si fanno non lavorando, ma anzi omettendo di lavorare– è un messaggio troppo rivoluzionario per la nostra epoca fondata sul lavoro di alcuni e sul godimento di altri.

Dalla fisica classica…3

La visione della fisica classica è quella di un mondo costituito come somma di parti. Ognuna di queste parti è a sua volta scomponibile in parti più piccole, secondo lo schema della matrioska russa: un pezzo più grande si compone di pezzi più piccoli e così via. Il moto di ognuno di questi pezzi può essere ben determinato, ben definito, una volta che ne sia stata data la configurazione iniziale.

Il risultato più importante della fisica classica è questo: dato un corpo, assegnate a questo corpo la posizione e la velocità a un istante definito (preso come istante iniziale), assegnata la forza che sollecita questo corpo, allora la traiettoria di questo corpo è perfettamente determinata.

Questa sembra una sintesi della visione deterministica, sembra che questa visione dia lo schema di un mondo perfettamente determinato, un “mondo orologio”, per usare la metafora ben nota. Ma, in effetti, chi ci fornisce le informazioni sulla posizione e la velocità iniziale?

Prendiamo una particella e definiamo questa traiettoria. Poi ne prendiamo un’altra e all’istante iniziale la mettiamo in una posizione vicina all’altra. Che succede? Le due traiettorie procederanno parallelamente o si separeranno? Accadrà, forse, che una andrà da una parte e l’altra dall’altra?

Alla fine dell’800, il grande fisico matematico francese Jules Henry Poincaré dimostrò un teorema per cui quasi sempre – cioè a meno di pochi casi fisici estremamente semplici e anche poco interessanti – le due traiettorie divergono! Pur partendo molto molto vicine, esse poi divergono…

Si potrebbe dire: “Va bene. Ma che ci importa? Tanto ognuna delle due continua ad avere una traiettoria univocamente determinata”. Però c’è un fatto: i nostri mezzi d’indagine sono limitati, per cui non siamo capaci di definire un punto in tutta precisione, ma in realtà noi definiamo una macchiolina; i nostri mezzi d’indagine hanno un errore che si può rendere piccolo quanto si vuole, ma non è zero: è sempre una macchiolina.

Allora pensiamo di prendere questi due punti e di metterli a una distanza inferiore del limite di risoluzione dell’esperimento. Significa che agli occhi dell’osservatore quei due punti sono un unico punto. Dopodiché le traiettorie che escono da quel punto dopo un po’ divergono. Allora che vuol dire? Che il determinismo della fisica classica è apparente, perché mi trovo in un caso di impredicibilità. Cioè: metto la particella in un certo punto; questo punto naturalmente è definito al meglio delle mie possibilità tecniche, che sono limitate; da quel punto non esce una sola traiettoria, ma ne escono due: una si dirige baldanzosa verso Sirio e l’altra si dirige ugualmente baldanzosa verso Vega. Allora, la particella che oggi sta qui, domani dove starà? Su Sirio o su Vega? E’ un caso di impredicibilità, da cui l’espressione: Caos Deterministico.

Dunque, la struttura della fisica classica è tale che la minima fluttuazione che avvenga in un istante fa sì che l’esito futuro dell’evoluzione del sistema è impredicibile. In pratica, il determinismo cosiddetto newtoniano, della fisica classica, semplicemente non esiste.

Intermezzo: il pianeta ritrovato ed il gas modellizzato

Alla fine dell’800 la fisica classica era ancora in auge e aveva appena conseguito due grandi trionfi.

Il primo trionfo era stato raggiunto alla metà del secolo. Tutto era cominciato alla fine del ‘700, quando era stato scoperto un nuovo pianeta, Urano. Dopodiché l’orbita di Urano era stata calcolata al meglio delle concezioni della teoria newtoniana già pienamente sviluppata, dove si teneva conto non solo dell’attrazione del Sole, ma anche dell’attrazione pianeta-pianeta che ovviamente introduceva delle correzioni nelle orbite. I fisici matematici erano ormai capaci di fare dei calcoli molto complessi e l’orbita venne calcolata in ogni dettaglio. Ma, quando quest’orbita teorica venne confrontata con l’orbita reale misurata pazientemente dagli astronomi nelle loro notti  insonni, si vide con grande stupore che i dati non erano coerenti!

Simultaneamente, due fisici teorici, uno francese, Urbain Le Verrier, ed uno inglese, John Adams, capirono che evidentemente doveva esistere un altro pianeta, non ancora osservato, che con la sua attrazione determinava la discrepanza.  Si misero al lavoro per capire come doveva essere fatto questo pianeta per rendere conto delle differenze. Il primo che arrivò alla fine dei calcoli fu l’inglese, e poco dopo il francese.

Passarono i loro calcoli ai corrispondenti osservatori astronomici. L’astronomo sperimentale a cui si rivolse Le Verrier era un grande lavoratore, invece l’astronomo sperimentale a cui si rivolse Adams –che, tra l’altro, aveva concluso i conti per primo- era  un po’ sfaticato, e quindi, come risultato, il francese osservò per primo il pianeta nuovo, la gloria della scoperta andò a Le Verrier, e questo pianeta fu denominato Nettuno.

Nettuno con la sua esistenza ha costituito il primo caso in cui un oggetto è stato visto prima con gli occhi della mente e solo dopo con gli occhi fisici. Per la prima volta l’intelligenza umana non si era limitata a descrivere o giustificare, ma aveva precorso l’osservazione.

Il secondo trionfo della fisica classica data alla fine dell’800: la ricostruzione dei fondamenti delle leggi dei gas. Le leggi dei gas sono conosciute a livello macroscopico, si sa che il prodotto della pressione e del volume è proporzionale alla temperatura… Ma perché?

Il gas viene concepito come un insieme caotico di molecole indipendenti (la parola gas è la contrazione della parola caos), ed ogni molecola viene considerata come descritta dalla fisica classica. Si applicano le leggi della fisica classica e si vede se le leggi macroscopiche osservate possano essere dedotte. La risposta, nel caso dei gas, fu affermativa!  Il primo e il secondo principio della termodinamica, conosciuti su base empirica, poterono essere ricostruiti (limitatamente ai gas, e non per i liquidi e i solidi) sulla base delle leggi della fisica classica.

Da questo grande successo derivò un atteggiamento filosofico che si chiama riduzionismo, cioè la tendenza a tentare sempre di ridurre le leggi macroscopiche al comportamento microscopico.

Dopo questi due grandi trionfi della fisica classica, molti addirittura sostenevano che si era giunti alla “fine della fisica”, ad esempio al giovane Max Planck venne sconsigliato di fare il fisico, proprio per questa ragione…

…alla fisica quantistica

La svolta, però, era dietro l’angolo: la crisi della fisica dell’800 nasce nell’ambito della chimica! Un grande chimico tedesco, Walther Nernst, su base empirica, enunciò il terzo principio della termodinamica: l’entropia di qualunque sistema fisico tende a zero al tendere a zero della temperatura assoluta (che è uguale alla temperatura espressa in gradi centigradi sottratto 273).

La fisica classica che prevedeva? Prevedeva infinito!!4

La “catastrofe del freddo”, dunque, e non quella dell’ultravioletto, come normalmente viene denominata l’empasse della Fisica Classica che ha condotto alla Meccanica Quantistica.

L’origine vera del problema era nel fatto che le particelle erano concepite dalla fisica classica come percorrenti traiettorie ben definite; invece se si fosse ammesso che le particelle potessero oscillare (quello che i tedeschi chiamano zitterbewegung5, cioè la camminata dell’ubriaco all’uscita dell’osteria) attorno alla propria traiettoria, allora l’infinito spariva, ed assumendo un sistema opportuno di unità di misura, l’entropia diveniva nulla alla temperatura dello zero assoluto.

Ma in che senso una particella oscilla? Si tratta di un trucco matematico? O siamo tornati alla concezione atomistica di Epicuro? 

Democrito, proprio come un fisico classico, immaginava che gli atomi si muovessero in linea retta e che potessero essere deviati solo da interventi esterni, per cui la formazione degli aggregati di atomi richiede qualcuno che dia botte e li faccia incontrare perché da soli non si incontrano, oppure che all’inizio, quando gli atomi sono stati creati, il creatore di questi atomi avesse preso accuratamente la mira e avesse fatto sì che questi atomi si incontrassero così da dare origine a tutto ciò che esiste…

Invece, Epicuro diceva che non c’è bisogno del creatore. (Su questo argomento è interessante la tesi di laurea di Karl Marx, proprio sulle concezioni della natura di Democrito e di Epicuro). Epicuro, infatti, sostiene che è impossibile separare completamente la materia dal movimento: cioè concepire qualcosa come la “materia inerte” è impossibile. La materia non è mai inerte: esiste anche un moto dal di dentro che si aggiunge al moto dal di fuori, cosa che la fisica classica esclude. Quindi il moto diventa ondoso, da particella si va verso l’onda. Solo a questo prezzo la crisi dell’entropia viene risolta.

Quindi la fisica quantistica non è un modello diverso o alternativo rispetto alla fisica classica: semplicemente la fisica classica è un’impossibilità, infatti, quando in una teoria compare un infinito in atto significa che c’è una contraddizione logica.

La fisica classica, dunque, deve essere abbandonata.

Ma, incredibilmente, la necessità di questo abbandono non fu del tutto chiara ai più…

Fu chiarissima a Nernst, a Planck, persino ad Einstein, ma non fu chiara agli altri, i quali pensarono che queste fluttuazioni fossero dovute alla difficoltà di fissare un corpo molto piccolo: poiché gli strumenti di misura hanno anche loro una loro grandezza, se l’oggetto è troppo piccolo io non riesco a fermarlo. Ad esempio, se volessi – immaginificamente – illuminare una molecola per vederla meglio, la perturberei col flusso luminoso e quindi non la vedrei come era prima di illuminarla! Ma, attenzione! Perché è proprio questa l’interpretazione corrente della meccanica quantistica, la cosiddetta interpretazione di Copenaghen; la fluttuabilità quantistica, cioè, invece di essere affermata come un dato dell’ontologia, viene ricondotta all’interazione con l’osservatore, come se l’osservatore dovesse perturbare intrinsecamente l’osservazione.

Questa naturalmente era un’interpretazione “controrivoluzionaria” rispetto alla scoperta, però è proprio questa l’interpretazione concettuale che, dopo il 1920, si è affermata ed è stata all’origine dell’attuale concezione dominante della scienza.

Vivace con Lamb shift

Quali possibilità aprono le prospettive quantistiche che affermano che tutto ciò che esiste in natura, siano essi corpi materiali, siano essi campi di forza, fluttua?

Ad esempio, la luce visibile è campo elettromagnetico in un certo intervallo di frequenza. Che vuol dire che il campo elettromagnetico è zero? Vuol dire che la luce è spenta. C’è la notte nera. Che vuol dire? Classicamente è nera nera nera! Di luce non ce n’è neanche un po’. Nera che più nera non si può.

E quantisticamente che vuol dire che il campo elettromagnetico è zero? Vuol dire che la notte è nera, ma a meno delle fluttuazioni. Che sono le fluttuazioni? Ogni tanto si accende una lucina. Un elfo che accende una luce… una fata che ogni tanto illumina e poi spegne… Una notte punteggiata da lampi. In questo senso il nulla non c’è. Il nulla è l’insieme di tutte le fluttuazioni. Quindi il tutto è contenuto nel nulla, in qualche modo. Cioè le fluttuazioni sono quello che può essere, però non esiste ancora.

Quale prova sperimentale c’è a supporto di ciò? Anche qui c’è il nostro piccolo trionfo della raison raisonante, l’equivalente della scoperta di Nettuno, fatta quasi esattamente un secolo dopo, nel 1947.

Come un secolo prima si pretendeva che il sistema solare fosse ormai perfettamente determinato per cui si poteva notare la discrepanza della presenza di Nettuno, così nel 1947 il problema della struttura degli atomi si supponeva risolto. Gli atomi sono costituiti da nuclei composti da protoni (positivi) e neutroni intorno a cui girano degli elettroni (negativi), e il moto degli elettroni è governato dall’interazione della carica elettrica positiva degli uni e la carica elettrica negativa degli altri. Prendiamo l’atomo più semplice, l’atomo di Idrogeno, costituito da un protone come nucleo e un elettrone che gira intorno. Il problema dei due corpi è perfettamente risolubile (mentre da tre corpi in su bisogna fare delle approssimazioni): così, l’energia dell’elettrone dell’atomo di Idrogeno viene calcolata con un numero impressionante di cifre decimali. Si passa a sperimentare: è vero o non è vero? Si suppone che la forza in ballo sia quella di Coulomb, poi si considera anche una piccola correzione legata al momento magnetico del protone e dell’elettrone, considerando assente il campo elettromagnetico esterno.

Ma c’è una discrepanza tra l’energia calcolata e quella misurata: di un milionesimo. Sperimentalmente la cosa fu scoperta da Lamb, ed è per questo che si parla di “effetto Lamb”, o Lamb shift.

Per lo spirito teorico un milionesimo è come un milione, vuol dire che non è zero, da dove viene? …. Le fluttuazioni!!! Quantisticamente il campo elettromagnetico non può mai essere nullo. Feynman, calcolando anche la presenza del campo che interagisce con l’elettrone fa tornare i conti esattamente con i risultati sperimentali “anomali” di Lamb. Dopodiché lo sperimentale Lamb ed il teorico Feynman si comprano il frac e vanno a Stoccolma a ricevere il meritato premio Nobel. Si tratta della prima prova sperimentale, con la teoria che è in accordo perfetto, che le fluttuazioni quantistiche esistono come fatto reale.

Questi fatti, opera della “scienza ufficiale”, non sono stati apprezzati appieno dalla stessa “scienza ufficiale” e… il problema risorge negli ultimi 10-15 anni. Uno fra coloro che ha più contribuito a porlo di nuovo alla ribalta è stato Giuliano Preparata che ha colto appieno l’importanza di questa visione, non negata da nessuno, ma considerata in qualche modo poco importante dai più…

Andante con coerenza

Dunque “l’anomalo effetto Lamb” è completamente chiarito e si spiega col fatto che una di quelle fluttuazioni del campo elettromagnetico interagisce con l’elettrone e gli dà una bottarella… Ora poniamoci il problema delle dimensioni: quanto è grande una fluttuazione? Deve essere grande almeno quanto la lunghezza d’onda, perché un’oscillazione al di sotto di una lunghezza d’onda non ha senso. Quant’è la lunghezza d’onda di una fluttuazione? L’inverso della frequenza, che è il numero delle fluttuazioni al secondo. Questo vuol dire che più alta è la frequenza di una radiazione, più piccola è la sua lunghezza d’onda. Se io prendo quelle fluttuazioni elettromagnetiche che sono capaci di interagire con gli atomi, cioè che hanno una certa energia e quindi una certa frequenza, queste particolari fluttuazioni che “taglia” hanno? Dipende dall’atomo o dalla molecola che considero. Prendiamo, ad esempio, una molecola d’acqua; in questo caso, l’energia in gioco corrisponde ad una lunghezza d’onda di un decimo di micron: un centomilionesimo di centimetro; piccolina, ma non tanto piccola da non poter comprendere al proprio interno un gran numero di molecole. Ad  esempio, nel caso del vapor d’acqua se questa “lucetta” viene accesa, all’interno della fluttuazione entrano comunque 20.000 molecole, nel caso dell’acqua liquida, data la sua maggiore densità, il numero diventa di ben 30 milioni di molecole! Un numero grandissimo!!!

Il problema che si è posto Giuliano Preparata è questo: che succede quando una fluttuazione interagisce con N (dove N è un numero grandissimo, dell’ordine di 1023) atomi, o molecole, capaci di oscillare?

Che vuol dire capaci di oscillare? Oscillare fra cosa e cosa?

Tutti sanno che gli atomi e le molecole sono dotati di una struttura interna che è composta da nuclei ed elettroni che si possono muovere, e quindi possono esistere in varie configurazioni. Ognuna di queste configurazioni avrà una certa energia.

Dato che il padreterno ha realizzato il mondo dopo avere trascorso una settimana a Napoli, ha stabilito che il principio fondamentale che doveva regolare il mondo era il principio della minimizzazione della fatica; e quindi in questo senso la configurazione che in natura è realizzata è quella che richiede la minima energia per esistere. Per poter far accedere un sistema ad una configurazione di maggiore energia, qualcuno ce lo deve “portare”, cioè è necessario un apporto di energia esterna.

Adesso immaginatevi N molecole in uno spazio vuoto. A un certo punto, l’elfo di turno accende la sua fluttuazione, e poniamo che essa abbia esattamente la frequenza giusta per far attuare la transizione di quelle N molecole da una configurazione ad un’altra di energia superiore. Siccome accade di tutto, accadrà anche questo. Le molecole fanno, quindi, un balzo nella loro struttura interna: erano in una configurazione e vanno in un’altra, a maggiore energia. Tenete conto che la fluttuazione esiste soltanto per un periodo brevissimo. Per realizzare questo balzo della struttura interna, gli elettroni si devono spostare, quindi producono delle correnti elettriche. L’iniziale fluttuazione elettromagnetica quindi, ha indotto delle correnti elettriche che a loro volta producono un altro campo elettromagnetico che continua l’azione del primo anche quando esso si è estinto (perché la breve fluttuazione è finita). Quindi la fluttuazione iniziale, pur nella sua brevità, ha però messo in moto delle correnti che prolungano nel tempo la fluttuazione. Dopodiché questo campo prodotto agisce su quelle correnti ancora in corso, il che dà luogo ad un termine di energia che, come nel caso dell’effetto Lamb la fa cambiare nel verso “giusto”, cioè l’energia diminuisce!! Allora il padreterno e i suoi amici napoletani sono più contenti: l’energia sta diminuendo!

Vedendo che l’energia diminuisce, gli attori coinvolti insistono nel gioco: continuano a oscillare e l’energia continua a diminuire…

Qui sta il punto fondamentale dei lavori di Teoria Quantistica del Campo condotti da Giuliano Preparata. L’energia necessaria per accendere il campo elettromagnetico e per eccitare le molecole cresce proporzionalmente al numero N di molecole; però –attenzione!- l’energia che viene prodotta dall’interazione tra le correnti elettriche ed il campo elettromagnetico virtuale cresce come N moltiplicato per radice di N ed ha il segno meno. Dunque, al crescere di N, la parte negativa dell’energia cresce di più della parte positiva, per cui esisterà sempre un valore di soglia N per cui la variazione di energia totale del sistema è uguale a zero! Infatti, la variazione dell’energia sarà ΔΕ=ΑN-βN  N½, espressione che uguagliata a zero ammette sempre soluzione. Questo vuol dire che esisterà sempre una densità critica al di sopra della quale l’energia non solo diventa zero, ma può diventare addirittura negativa.

Ora cerchiamo di capire meglio cos’è una fluttuazione. E‘ una configurazione del sistema fisico in cui il sistema deve violare la conservazione di energia chiedendola in prestito al vuoto per un tempo brevissimo, perché se no Heisenberg si arrabbia; però quando l’energia totale ridiventa zero – come abbiamo visto dal bilancio di poco fa – il sistema non deve restituire più niente. Heisenberg è soddisfatto, ed anche il suo principio: vale a dire ΔE Δt ≥ h/4π (dove h = costante di Planck = 6.626076 x 10 –34 Js). Con una metafora bancaria: chiedete in prestito dei soldi e prima di doverli restituire producete un reddito tale che potete estinguere il debito. Il sistema non fluttua più, è stabile nella nuova configurazione.

Non solo, ma se N cresce ancora, diventa un produttore di energia, comincia a cedere energia al vuoto, la parte negativa dell’energia cresce, quindi l’energia del sistema diminuisce, ma siccome l’energia complessiva si deve conservare, comincia a cedere energia all’ambiente e -poiché l’energia deve essere minimizzata- il sistema aumenterà la sua densità quanto più possibile, fino all’infinito se non ci fosse l’impenetrabilità dei corpi!

Sulla molecola di vapore in una società liquida

Ciò che abbiamo descritto non è forse –anche se in modo apparentemente matematico- la transizione dal vapore al liquido?

Prendo del vapore ad altissima temperatura: è un gas; abbasso la temperatura e la densità del vapore cresce; continuo ad abbassare, finché non raggiungo il valore critico della densità, a questo punto il sistema liquefa, e la cosa notevole è che la densità dell’acqua liquida, ad esempio, è ben 1600 volte quella del vapore, perché le molecole sono spontaneamente collassate l’una sull’altra; non solo, ma il sistema produce energia, quello che si chiama calore latente di liquefazione. Il che è paradossale! Cos’è un gas? Un insieme disgiunto di molecole, come un cumulo di mattoni che sta lì: orbene per fare un palazzo con questi mattoni, non soltanto non devo fare nulla, ma ottengo energia gratis!! Costa di meno avere il palazzo che i mattoni separati!

Ciò risulta ripugnante per le aspettative della nostra società, in cui ci si attende che:

  1. l’individuo mantenga sempre la propria individualità;
  2. qualunque cosa si voglia costruire deve essere fatta a prezzo di uno sforzo.

Questi due capisaldi dell’aspettativa corrente sono violati!

Soffermiamoci un attimo sul primo aspetto: in un gas la singola molecola è quella che è, cioè sta nella sua configurazione di minima energia, che abbia la possibilità di stare in altre configurazioni non lo sa neanche perché non ha l’energia per arrivarci; quando avviene la transizione, cioè il sistema diventa liquido, la singola molecola com’è? Guardando la singola molecola ci accorgiamo che non è più un membro della società del gas, ma della società del liquido? Sì, ce ne accorgiamo dal fatto che questa molecola oscilla tra due configurazioni; cioè l’individuo che appartiene alla società del gas è diverso da quello che appartiene alla società del liquido.

Come dice, molto suggestivamente, Emilio Del Giudice:

Il dogma che gli individui sono sempre gli stessi qualunque sia la società di cui sono membri si rivela, almeno a livello molecolare, falso.

Supponete che esista qualcosa che sia il sé delle molecole; nel gas esperimenta la sua configurazione di minima energia, quando passa al liquido sperimenta un’altra parte di sé, l’oscilllazione di cui non aveva la minima consapevolezza finché non si fosse iniziato quel processo collettivo. Inoltre gli individui hanno perso una libertà fondamentale: non possono più oscillare indipendentemente come nel gas, ma nel liquido almeno in parte sono bloccate, non abbiamo più l’esistenza di una folla, ma di un “corpo” liquido.

Radioattività e tunneling quantistico

Un esempio, ben noto sperimentalmente, che dipende proprio da questi meccanismi di “violazione” della conservazione dell’energia, purché il tempo sia abbastanza breve, è la radioattività naturale.

Dal nucleo radioattivo, improvvisamente, senza alcun motivo esterno, alcuni componenti dello stesso (neutroni e protoni) saltano fuori! Sulla base della fisica classica non si può capire.

Consideriamo una metafora: c’è un castello con altissime mura per costringere dei prigionieri all’interno, ma ogni tanto un prigioniero salta fuori! Nel caso degli oggetti quantistici, invece, che accade? Uno vede il muro, si fa il calcolo dell’energia e cerca di capire se può chiedere alla Banca del Vuoto tale energia (inversamente proporzionale al tempo che deve impiegare, per poter rispettare il principio di Heisenberg, cioè: ΔE Δt ≥ h/4π); la barriera elettrostatica non è molto alta, ma è molto larga, la barriera delle forze nucleari invece è altissima, ma meno estesa.

Quindi, nel caso di alcuni nuclei più grandi avviene proprio il cosiddetto effetto tunnel6  e si realizza il fenomeno noto come radioattività naturale!

Tra l’altro questo ci fa cogliere l’occasione per fare il punto su un’altra questione: il determinismo della fisica quantistica.

Abbiamo visto che la fisica classica è del tutto non deterministica, il che è messo molto bene in evidenza dal cosiddetto Caos Deterministico.

Com’è invece la Meccanica Quantistica? Deterministica! Come è possibile? Ci hanno sempre detto il contrario in tutti i libri e le trasmissioni divulgative! La ragione è questa: il sistema quantistico tende ad andare nel suo stato di minima energia possibile. La Meccanica Quantistica è quindi una teoria che potremmo definire “di stato finale” (quello di minima energia, ground state, in inglese) e non “di stato iniziale” (nessuno può  conoscerlo con infinita precisione) come la fisica classica. Quindi noi sappiamo con certezza che un sistema quantistico andrà nel suo stato di minima energia, prima o poi, e questa è una certezza!

A questo proposito, Giuliano Preparata usava la metafora dell’alpino sobrio e di quello ubriaco.  Se metto un alpino sobrio sul cornicione di un palazzo, non so dove lo troverò dopo un certo tempo… Se ne tornerà in caserma, o andrà dalla sua ragazza, o dalla mamma… Chi può dirlo? Ma, se metto un alpino ubriaco sullo stesso cornicione, so dove lo troverò dopo un certo tempo: sul marciapiede sottostante (ground state)! Cioè, il sistema quantistico con le sue intrinseche fluttuazioni esplora l’ambiente, per così dire, finché non va nel suo stato di minima energia, il che fa sì che l’entropia, come abbiamo visto prima, non tenda all’infinito.

La Teoria Quantistica del Campo

Per parlare della struttura dell’acqua così come scaturisce dalla meccanica quantistica, dobbiamo cominciare col citare necessariamente la Teoria Quantistica del Campo (Quantum Field Theory), che è stata sviluppata negli anni ’50 ed è attualmente una teoria “standard”7.  Però, questa teoria è stata a lungo considerata di interesse soltanto per i fisici delle particelle, non essendone mai state esplorate le potenzialità che aveva nel campo della materia condensata (magnetismo, ottica, superconduttività, ecc).

Giuliano Preparata, quale fisico nucleare delle alte energie, ha utilizzato ordinariamente tale strumento per le sue ricerche (Cromodinamica Quantistica) occupandosi di come si origini la materia dei nuclei dai quarks e risolvendo tale problema. E’ stato, quindi, per lui spontaneo chiedersi se l’Elettrodinamica Quantistica (Quantum ElectroDynamics – QED) potesse allo stesso modo dare una risposta alla semplice, quasi infantile domanda: come mai la materia condensata si condensa e si origina dagli atomi?  E’ da qui che è partita la grande avventura teorica di Giuliano Preparata che ha dato numerosi frutti, molti ancora da cogliere, nell’ambito di quella che si chiama la fisica dello stato solido o della materia condensata.

L’acqua come ci viene data a bere

Attualmente qual è il modello generalmente accettato dell’acqua? Si assume che le molecole dell’acqua siano connesse tra di loro attraverso i cosiddetti “ponti-Idrogeno”, che sorgerebbero dai nuclei di idrogeno delle molecole d’acqua, che si suppone vengano abbandonati dai loro elettroni migrati nella nuvola elettronica della molecola. Dunque essi divengono una sorgente di attrazione delle nuvole elettroniche delle molecole adiacenti, che si rigonfiano verso l’esterno e danno origine ad un “ponte” insieme al nucleo dell’Idrogeno. Ma –attenzione!- la struttura della molecola d’acqua isolata e diseccitata non ha alcuna somiglianza con questo scenario. Quindi, la generazione di un ponte-Idrogeno richiederebbe una profonda ristrutturazione delle molecole coinvolte e l’energia necessaria non si sa da dove verrebbe! Infatti, a temperatura ambiente, l’energia che lega un ponte-Idrogeno dovrebbe essere almeno uguale a 5kT8. Per ora supponiamo pure che tale energia sia in qualche modo a disposizione, e supponiamo dunque di avere un insieme di molecole tenute assieme da forze a corto raggio di qualche tipo. Cosa accade ad un tale sistema in rapporto alle fluttuazioni quantistiche del vuoto (dimostrate per la prima volta sperimentalmente nel 1948 dall’esistenza del già prima descritto Lamb shift)? Lo abbiamo visto prima: in certe condizioni di temperatura e densità, il sistema ha, paradossalmente, bisogno di minore energia nell’oscillare “avanti e indietro” tra due livelli energetici (selezionati dall’accoppiamento col campo della fluttuazione elettromagnetica) che non standosene “fermo” nella configurazione in cui il campo è zero e le molecole sono nel loro ground state individuale. Quindi, in questa nuova “oscillante” configurazione di minima energia, indotta dalle fluttuazioni quantistiche, le singole molecole acquisiscono da un lato un comportamento collettivo, e dall’altro ne risultano completamente ristrutturate. Infatti, ora la loro configurazione individuale è data dalla sovrapposizione di due diversi stati molecolari. Si noti che lo stato eccitato (livello 5d) incluso in questa sovrapposizione, sta ad un livello energetico di diversi eV9 al di sopra del ground state, e sarebbero necessari decine di migliaia di gradi Kelvin per raggiungere lo stesso risultato per via termica (infatti l’energia di 1 kT ≈ 1/10000 eV). Quindi, in particolare, questa profonda ristrutturazione della nuvola elettronica che dà origine ai ponti-Idrogeno, viene raggiunta attraverso questo meccanismo quantistico che è non termico e non è entropico.

Cioè, dobbiamo capire questa rivoluzione copernicana nel microcosmo: i ponti-Idrogeno sono la conseguenza della dinamica della coerenza quantistica elettrodinamica che conduce il gas a collassare in liquido e non, al contrario, la causa della coesione del liquido!

L’acqua come la beviamo

Qual è il vero stato fondamentale di un liquido?

Se lo chiediamo a un fisico che ha studiato abbastanza, ci dirà che un liquido è un insieme di molecole legate tra di loro da forze puramente statiche (trascurando del tutto le possibili interazioni elettromagnetiche). Naturalmente, il nostro fisico abbastanza diligente ci spiegherà con  ricchezza di particolari che nelle interazioni a due corpi c’è una netta dominanza della forza elettrostatica di Coulomb e che quindi si tratta soltanto di trovare l’espressione del potenziale il cui andamento meglio si adatti ai dati termodinamici sperimentali, e il gioco sarà fatto!!

È qui che a voi sorgerà spontaneo chiedergli: “Benissimo, e qual’è l’origine dinamica di tale bel potenziale che hai trovato?” Oppure: “Ma, chi glielo dice mai a tutte (1023) le nostre molecole d’acqua (distanti fra loro circa 40 Å) di condensare proprio tutte insieme e allo stesso tempo?”.

O ancora: “Se tutto il gioco sta solo nelle distanze, e non nella dinamica, da dove vengono le differenze termodinamiche tra liquido e vapore lungo l’isoterma critica?”. O in ultimo: “Ma, la Termodinamica non ha senso in quanto derivante dalla dinamica dei singoli componenti?”.

Vuoi vedere che se non trascuriamo le interazioni elettromagnetiche e utilizziamo l’elettrodinamica quantistica possiamo cavare un ragno dal buco? Pare proprio di sì, ed è appunto questo l’approccio che ha seguito Giuliano Preparata10.

Cosa scaturisce dai calcoli? Qualcosa di straordinario: c’è una soglia di densità della materia oltre la quale avviene una “transizione di fase superradiante”: il sistema si riorganizza e raggiunge una nuova configurazione stabile in cui il campo di materia e il campo elettromagnetico oscillano coerentemente ad una frequenza comune. C’è un grosso guadagno energetico proporzionale alla densità, quindi la densità aumenta enormemente fino al valore limite determinato dalle forze repulsive legate al principio di Pauli, nonché per quelle legate alla repulsione di Coulomb fra elettroni.

Questo meccanismo, di cui abbiamo parlato nei paragrafi precedenti, descrive – per la prima volta nella storia della fisica!!! – l’origine della transizione vapore-liquido!! Nel caso dell’acqua stiamo parlando di un fattore di densità 1600 volte maggiore del liquido rispetto al vapore, e ciò non solo avviene in maniera spontanea, ma addirittura emettendo energia: “il calore latente di liquefazione”. Qualsiasi ragazzo, con una minima conoscenza della fisica, se ne meraviglierebbe e si renderebbe conto che non basta inventarsi il termine “calore latente” per essere soddisfatti della questione…

Inoltre, dai calcoli scaturisce che:

  1. L’acqua liquida consiste in una struttura costituita (a temperatura diversa dallo zero assoluto) da due fasi. Bisogna dire che già Roentgen (lo scopritore dei raggi X) nel 1892 propose per la prima volta che l’acqua avesse una struttura bifasica: prospettò questo modello empirico per spiegare la dipendenza dalla temperatura della solubilità in soluzioni acquose; tale spiegazione fu “facilmente” considerata inadeguata, data l’impossibilità di comprendere come potessero esistere due tipi diversi di raggruppamenti di molecole uguali, pur nelle stesse condizioni termodinamiche. In questo caso, invece, tale struttura scaturisce proprio dai calcoli di elettrodinamica quantistica.
  2. La fase “incoerente” è costituita da molecole d’acqua nello stato fondamentale (ground state), cioè come nella fase gassosa (vapor d’acqua); tali molecole sono disposte densamente negli interstizi attorno a dei grandi raggruppamenti in cui le molecole interagiscono coerentemente con un intenso campo elettromagnetico classico.
  3. La fase coerente, stabilmente presente nel bel mezzo di quella incoerente, è costituita da isole o “domini di coerenza”. Tali domini hanno un raggio di 250 Å (25 nm) ed i loro centri distano fra loro 750 Å (75×10-9m), cfr. figura; sono “isole molecolari” che a una data temperatura sono sopravvissute all’attacco delle fluttuazioni termiche che tendono a imporre loro il disordine; la densità di queste molecole è simile a quella del ghiaccio. Tutte queste molecole oscillano in fase con un campo elettromagnetico “autogenerato”, secondo i meccanismi prima discussi, del valore di 0.26 eV, vale a dire della frequenza di 5.5×1013 Hz. Le molecole oscillano a tale frequenza tra il ground state e lo stato energetico eccitato E = 12.06 eV (si noti che la soglia di ionizzazione è vicinissima Eion ≈ 12.6 eV; siamo nel lontano ultravioletto).

È importante comprendere che grazie a questi calcoli si possono prevedere per la prima volta teoricamente, con un approccio di base, “ab initio”, dai calcoli di elettrodinamica quantistica, una serie di parametri sperimentalmente misurabili dell’acqua, tra cui:

  • il calore specifico dell’acqua liquida (si vede che è connesso alla frazione di fase coerente che “evapora” dalla superficie dei domini di coerenza diventando incoerente);
  • l’anomalia della densità dell’acqua liquida che ha un massimo a 4 °C, ed a 0 °C è più densa dell’acqua solida, cioè del ghiaccio (scaturisce dalla sovrapposizione delle due differenti dipendenze dalla temperatura delle densità delle due fasi);
  • la temperatura di ebollizione;
  • il volume critico, identificato come il più grande volume molare al di sopra del quale non possono avere luogo spontaneamente processi di QED coerente;
  • il calore latente di evaporazione (anche questa quantità è connessa alla frazione di fase coerente che “evapora” dalla superficie dei domini di coerenza divenendo incoerente);
  • i ponti-idrogeno fra le molecole d’acqua; ripetiamo: essi non sono la causa delle interazioni fra molecole, poiché le protuberanze delle nuvole elettroniche molecolari non esistono nelle molecole isolate; i ponti-idrogeno sono, al contrario, gli effetti della dinamica coerente nell’acqua liquida, che rimescola le nuvole elettroniche producendo così le protuberanze.

Annotazioni

1Lunedì 24 Aprile 2000, Giuliano Preparata è morto a Frascati, lasciandoci un Vuoto entusiasmante e vitale quanto lui.
2In più di un’occasione accade che, da parte di alcuni detrattori si associno queste due “tematiche controverse” in maniera tale che se non si tratta di un malevole tentativo di mestare nel torbido, allora deve trattarsi di idiozia pura. In un caso, ad esempio, lo ha fatto Carlo Rubbia -meglio noto come: “il premio Nobel Carlo Rubbia”!- nella sua lezione in onore di Giuliano Preparata all’Istituto Italiano per gli Studi Filosofici a Napoli.
3Questo ed i successivi 6 paragrafi sono principalmente tratti dalla bellissima conferenza di Emilio Del Giudice in occasione della presentazione del libro di G.Preparata “L’architettura dell’universo” edito da Bibliopolis (2001), presso l’Istituto Italiano per gli Studi Filosofici, Napoli, il 27 Febbraio 2003.
4Per chi mastica le simbologie normalmente in uso nell’ambito degli argomenti di cui stiamo parlando: ΔS (T→0)  = k ln Γ → ∞ . Il che accade perché per T→0 il volume Γ dello spazio delle fasi tende a zero, in quanto lo stato diventa unico, cioè puntiforme. Dunque, per la definizione di Entropia (S): ΔS= ΔQ/T, ciò equivarrebbe a dire che ΔQ → ∞.
5Movimento oscillante.
6Un modo più “classico” di vedere le cose è questo: la funzione d’onda della particella, o distribuzione di probabilità della posizione di una particella, ha una forma “a campana” (con un massimo e due code); se un pezzettino della coda si trova al di là di una barriera di potenziale, ciò indica appunto che c’è una probabilità diversa da zero che la particella possa ritrovarsi al di là, per quanto alta la barriera possa essere.
7Si può vedere, ad esempio, il testo di base di J.D.Bjorken e S.D.Drell “Relativistic Quantum Field”, McGraw Hill, New York (1964).
8L’energia espressa in unità kT è un modo per esprimere l’energia di un sistema, utile per confrontarla con l’energia di agitazione termica del contesto in cui è immerso, dove T è la temperatura assoluta (espresssa in gradi Kelvin), e dove k è la costante di Boltzmann; k = 1.380658×10-23JK-1
9Elettronvolt: è un’unità di misura dell’energia molto usata quando si parla di livelli energetici atomici o molecolari; corrisponde al lavoro fatto da 1 elettrone che si sposta attraverso una differenza di potenziale di 1 Volt. 1 eV = 1.60218925×10-19 Joule. Poiché k=1.380658×10-23JK-1, quindi l’energia di 1kT ≈ 1/10000 eV.
10È probabilmente il caso di far notare che mentre scrivo questo paragrafo (2005) sono passati ben 10 anni dalla pubblicazione da parte della World Scientific del volume fondamentale scritto da Giuliano Preparata riguardo a queste questioni: “QED Coherence in Matter” (1995) e ben più di 15 anni dai suoi primi articoli pubblicati su riviste internazionali. Gli esperti che attualmente ignorano tali evoluzioni dovrebbero cominciare a chiedersi se possono ancora fregiarsi di essere considerati tali. È un po’ come se un professore universitario di fisica nel 1960 non avesse saputo della possibilità dell’esistenza della bomba atomica: la cosa sarebbe stata giustificabile fino al 1945, ma non certo 15 anni dopo!!

Commenti

 Segui i commenti di “Giuliano Preparata” via RSS.

  1. unoqualunque scrive:

    Considerando che Del Giudice è un omeopata volevo capire se questa argomentazione era mirata a “fortificare” le teorie omeopatiche o a stabilire che ci sono interazioni dell’acqua ancora poco chiare? Se fosse la prima vorrei ricordare che ancora non viene spiegato come dell’acqua può sconfiggere la rosolia ad esempio.

  2. renato scrive:

    Vorrei far notare alla persona che ha postato prima di me che si sta evidentemente confondendo con Nicola Del Giudice della Fondazione Omeopatica Italiana.
    Il Del Giudice di quest’articolo, invece, è Emilio Del Giudice, fisico (ricercatore all’Istituto Nazionale di Fisica Nucleare e all’International Institute of Biophysics di Neuss, ha lavorato con il premio Nobel Montagnier e ha al suo attivo numerose pubblicazioni in ambito scientifico).

    • WebMaster scrive:

      Per correttezza confermo quanto detto da Renato e mi scuso per non aver notato l’inesattezza nel commento precedente. Grazie Renato 🙂

  3. Maurizio scrive:

    Premetto che non sono un fisico ma un progettista elettronico di rilevatori di radioattività con molti anni di esperienza, e devo dire che le sensazionali scoperte dei grandi ricercatori: Prof. Giuliamo Preparata e Prof. Emilio Del Giudice, mi hanno a dir poco affascinato, facendomi accendere un grande interesse per i principi della fisica quantistica.

    Quindi in riferimento ai nuovi studi sulle proprietà dell’acqua, mi sono chiesto quali sono effettivamente le frequenze di risonanza dei cosidetti domini di coerenza delle molecole d’acqua. Tali domini che nell’articolo anche chiamate isole molecolari, hanno un raggio di 250 Å (25 nm) mentre i loro centri distano fra loro 750 Å (75×10-9m).

    Allora se ho capito bene, la lunghezza d’onda di risonanza del campo elettromagnetico di coerenza dovrebbe essere pari al diametro di ogni isola molecolare, e io immagino che possa essere anche un multiplo di questo se vengono cooinvolte nell’oscillazione più isole molecolari. Insomma immagino facendo il caso di un solo aggregato molecolare che la lunghezza d’onda del campo equivarrebbe al diametro del diametro dell’isola di molecole, ovvero da quello che ho letto nell’articolo, sarebbe di 2 x 250 Å ovvero: 5,0×10-8 Metro [m], cioè corrisponderebbe ad una frequenza nel campo della RF ovvero di 20.000.000 HZ oppure anche piu semplicemente di 20 MHZ.

    Se qualcuno può dirmi se sono sulla buona strada per collocare correttamente il fenomeno lo apprezzerei molto. Grazie per la pazienza

 Segui i commenti di “Giuliano Preparata” via RSS.

Scrivi un commento

Chi siamo

Dr. Elio Sermoneta, fondatore del sito e pioniere della metodica, e il Gruppo di Ricerca: Team e Collaboratori.

Date e Luoghi

I dettagli dei prossimi eventi e le indicazioni per incontrare il Dr. Elio Sermoneta su Appuntamenti.

Contattaci

Vuoi contattare il Dr. Elio Sermoneta o i membri del Gruppo di Ricerca? Seleziona il collegamento Contattaci