Jump to content

SauroClaudio

Members
  • Posts

    395
  • Joined

  • Last visited

Everything posted by SauroClaudio

  1. DEL RESTO LO STUDIO DI LAURENCE HECHT PONE EFFETTIVAMENTE ALCUNI INTERROGATIVI: la prima chiede di spiegare come sia possibile che le cariche positive possano superare la repulsione elettrostatica colombiana fin tanto da agglomerarsi nel nucleo centrale; la seconda (largamente diffusa tra i chimici del tempo) è mossa a partire dalla constatazione che gli elettroni orbitanti non sono compatibili con l'evidenza ricavata dalla stereochimica e dalla cristallografia, indicante la costanza degli angoli con cui tipicamente i legami interatomici si presentano; la terza contesta l'affidamento esclusivo ai dati della spettroscopia, senza alcun riguardo per altre indicazioni sperimentali. Partilò dal secondo interrogativo: Anthocyanidins.svg by Claudio Sauro, su Flickr Questa è la molecola dell'antocianina del mirtillo, per intenderci quello che da il colore viola al mirtillo. Fondamentale è l'anello benzolico a destra che in natura si dispone sempre in modalità TRANS. Le antocianine non si riesce a sintetizzarli, (come anche la DIGOSSINA della DIGITALE)perchè ne risulta una molecola piatta e non si riesce ad ottenere la modalità TRANS. E' interessante che se la molecola è piatta perde qualsiasi proprietà terapeutica (come per la DIGOSSINA per cui sono costretti a coltivare la digitale), ma non solo, perde anche il colore, ne risulta una molecola completamente incolore. Se l'anello benzolico a destra è invece disposto in senso contrario si dispone secondo la modalità CIS e ne risulta un colore verde, credo che la molecola in modalità CIS sia piuttosto tossica. Questa incapacità a sintetizzare molecole in modalita CIS o TRAN è uno dei grossi limiti della biochimica attuale. L'antrochinone del mirtillo ha anche un azione antitumorale ed ha spinto numerosi Centri Oncologici d'Europa (cappeggiati dal Prof. Veronesi) a produrre i pomodori viola, introducendo nel genoma del pomodoro il gene dell'antrochinone del mirtillo, anzi, no credo sia l'antocianina che conferisce il colore viola alla Bocca di Leone. I pomodori viola purtroppo hanno avuto poco successo, in compenso sono riusciti ad ottenere le patate viola sempre in versione OGM, convinti, gli oncologi, che una maggior diffusione nell'alimentazione delle antocianine contribuisse a ridurre l'incidenza di tumori. Quello che premevo dire è che qui siamo in ambito molecolare dove la disposizione elettronica dell'atomo gioca un ruolo determinante. Pertanto, per la configurazione dell'orbitale elettronico, perchè si disponga in CIS o in TRAN dovremmo ipotizzare una configurazione rigida, e cioè che l'orbitale si disponga sempre sullo stesso piano o in piani leggermente diversi tanto da dare il CIS il TRANS o il PIATTO, ma sempre in disposizioe rigida. Questo non so se contraddica alcuni aspetti della fisica quantistica, deve essere un fisico a dirmelo. Nè si può trovare la scusa che il subatomico non ha niente a che vedere con l'atomico perchè qui si parla proprio di orbitali. La seconda domanda: ""la seconda (largamente diffusa tra i chimici del tempo) è mossa a partire dalla constatazione che gli elettroni orbitanti non sono compatibili con l'evidenza ricavata dalla stereochimica e dalla cristallografia, indicante la costanza degli angoli con cui tipicamente i legami interatomici si presentano;"" Qui ho voluto riportare la configurazione rigidamente cubica di un cristallo di NaCl ovvero comune sale da cucina; non dovete rifarvi ai cristalli maggiori che sono degli agglomerati di cristalli, ma alla forma veramente molecolare del NaCl come si presenterebbe nel cristallo più piccolo possibile. Ora la domanda è leggittima :"come possono gli elettroni orbitanti (secondo un orbitale) essere compatibili con la costanza degli angoli che si ripete all'infinito, sempre quella. 200px-NaCl_polyhedra ingr by Claudio Sauro, su Flickr E' interessante poi la prima domanda anche se l'ho tenuta per ultima: " chiede di spiegare come sia possibile che le cariche positive possano superare la repulsione elettrostatica colombiana fin tanto da agglomerarsi nel nucleo centrale E' interessante l'interpretazione che ne da Laurence Hecht anche in base alle considerazione di numerosi altri fisici: ""Considerando i protoni come coppie di particelle-onde di Weber oscillanti in opposizione diagonale (quel che Weber propose come stato legato stabile di oscillazione lineare di due cariche di ugual segno, come conseguenza dalla sua Legge Fondamentale dell'Elettricità del 1846 [3]), piuttosto naturalmente cadde la prima obiezione alla repulsione coulombiana tra di essi. In secondo luogo, considerando gli elettroni extranucleari come orbite elicoidali ("a forma di cavatappi", dice l'autore, NdT) modellate dal campo indotto dalle continue accelerazioni e decelerazioni delle coppie di protoni, anche la valida obiezione dei chimici alla trovata di Bohr e Sommerfeld fu superata. Gli elettroni, così, non orbitano attorno al nucleo con ogni angolazione (azimut), ma sono vincolati ad assumere certi orientamenti in corrispondenza delle direzioni delle diagonali dei solidi platonici. L'orientamento nucleare determina così le possibilità dei legami chimici. Interessanti sono anche lo constatazioni successive: Nello stesso periodo 1999-2006, notai che la costante d'azione di Planck avrebbe potuto essere interpretata come un'azione fisica (cioè proprio il prodotto di una massa, di una velocità e di una lunghezza [raggio, NdT]), in cui la massa fosse quella dell'elettone, la velocità quella della luce e la lunghezza il valore assunto dalla lunghezza critica (ρ) di Weber . La costante di Planck h è il prodotto di queste quantità, ulteriormente moltiplicato per l'inverso di [la costante di struttura fine] a (approssimativamente uguale a 137): formula_h by Claudio Sauro, su Flickr Questo implica che il risonatore armonico ipotizzato da Planck potrebbe essere identico alla collezione di 137 elettroni appaiati secondo la modalità proposta da Weber. Nella concezione dello scienziato tedesco dello stato legato stabile di due cariche di ugual segno, queste ultime oscillano lungo un segmento di lunghezza ρ, accelerando verso il centro, ove si trapassano, e decelerando verso gli estremi del segmento, fino alla massima distanza di separazione, appunto ρ. Ed infine la rivelazione cruciale: " Velocità relativa maggiore di c Tra le conclusioni più interessanti dell'esperimento di Weber e Kohlrausch vi fu che la velocità relativa alla quale la forza tra due cariche in moto si riduce a zero è uguale alla radice quadrata del doppio della velocità della luce. Il valore definisce il rapporto tra l'unità di forza elettromagnetica e l'unità di forza elettrostatica, ed è incorporato nel sistema della fisica moderna. Dunque non v'è contraddizione, ma piuttosto una completa corrispondenza tra i risultati dell'esperimento e ogni altra successiva misura elettrodinamica. La contraddizione con i risultati della relatività speciale, per cui la velocità c costituisce un massimo insuperabile, normalmente non si considera, poiché la formulazione del 1871 di Weber è sconosciuta o ignorata. Faccio notare però che le successive considerazioni sono state fatte nel 2009, e cioè quando la formula di Einstein era stata già messa nel tabernacolo della scienza. Insomma le considerazioni di Laurence Hecht e di altri eminenti scienziati e sperimentatori non sono state prese nella minima considerazione. Chiaramente tali considerazioni visto tutto il contesto e le considerazioni, io le ritengo valide, pertanto il titolo iniziale che ho dato a questa discussione è pienamente leggittimo, e convalidato da considerazioni successive. Se l'elettrone, che ha massa, arriva ad avere una velocità doppia di quella della luce tutto l'impianto Einsteniano salta, e non tiratemi fuori gli apparecchi GPS dal momento che i satelliti che dovrebbero calcolare il presunto ritardo, in realtà sono soggetti al ritardo dei transistor e dell'apparecchiatura elettronica che portano, e vengono regolati da terra perchè il valore abbia attendibilità.
  2. IL DISASTRO DELLA MECCANICA QUANTISTICA Dal brano sopra “La luna quantistica” vorrei estrapolare una frase: “Come dirà lo stesso Heisenberg: «Mediante la meccanica quantistica viene stabilita definitivamente la non validità della legge di causalità». Il perché è presto detto. «Nella formulazione netta della legge di causalità: ‘Se conosciamo esattamente il presente, possiamo calcolare il futuro’ è falsa non la conclusione, ma la premessa. Cosicché quasi tutti i fisici, commenta Abraham Pais, sono felici di pagare l’oneroso prezzo della rinuncia alla causalità rigorosa pur di ottenere la formidabile capacità di comprendere la fisica dell’atomo. Quasi tutti. Ma non tutti. Soprattutto, non Einstein” Rinunciando alla Legge di Casualità, la Meccanica Quantistica rinuncia semplicemente alla fisica: ma questo con la credibile illusione di comprendere la fisica dell’atomo, come se l’atomo stesso, non si potesse spiegare con la causalità ma si dovesse ricorrere solo alla casualità. Il punto è che la casualità non esiste, caso mai esistono, anche a livello atomico, un insieme di leggi che tendono all’infinito, e dal momento che in un sistema infinito è praticamente impossibile stabilire la causalità, si invoca la casualità come base del sistema. Ovviamente questa ipotesi è una pura illusione, perché se noi conoscessimo tutte le forze che regolano l’elettrone potremmo stabilirne esattamente il punto in cui si trova, senza ricorrere a degli assurdi che dicono che l’elettrone può trovarsi indipendentemente su un mare della Luna, su una montagna della Luna, su Marte, su Giove, o nelle nostre tasche. Il punto è che noi parliamo di quell’elettrone e non di un altro, e parlando di “quel” elettrone è indubbio che si trova in un punto ben preciso, e non indifferentemente in qualsiasi punto dell’universo. Ora perché siano nate un insieme di menti bacate che hanno accettato simili presupposti resta veramente un mistero. Che ha smontato completamente la Meccanica Quantistica, è l’esperimento di Afshar. Essendo un esperimento estremamente semplice ed inconfutabile, i fisici quantistici si sono prodigati nel demolirlo con delle asserzioni che sono quanto meno risibili, ed espressione della loro testa bacata (penso abbiano anche un ritardo intellettivo forse dovuto all’inquinamento che si ha ai nostri tempi e che non è casuale). Poiché l’esperimento in se è estremamente semplice e riproducibile, questo spiega lo sconcerto della comunità scientifica nei confronti dei risultati. Molti scienziati sono giunti ad affermare che tale esperimento viola i principi di complementarietà, molti altri fisici invece sono dell’idea che tale principio non venga in alcun modo compromesso nonostante che i risultati parlino chiaro (sono cioè completamente imbecilli). Ma in cosa consiste l’ l’esperimento di Afshar (estremamente semplice) che ognuno potrebbe, volendo, riprodursi in casa. http://www.cosenascoste.com/forum/topic/40817-l’esperimento-di-afshar/ Le nebulose fin dalla loro prima formazione iniziano un movimento rotatorio attorno ad un nucleo che poi diventerà o una stella gigante o un buco nero. Pensa che ci sono stelle minori che ruotano attorno ad una stella maggiore alla velocità di oltre 100 mila km/sec, questo è stato evidenziato da numerose osservazioni. L’universo si muove secondo un numero indeterminato di leggi, alcune fondamentali, altre meno, ma comunque tutte importanti. Quella del moto io sono convinto che sia la legge base, che muove ed unifica sia il subatomico che l’astronomico. Il perché gli elettroni si muovano attorno al nucleo a velocità vertiginosa secondo un orbitale, perché le galassie si muovano attorno al centro galattico a velocità altrettanto vertiginosa (anche se per il nostro misero tempo non ce ne accorgiamo) è un fatto che ci deve far riflettere. Questo moto rotatorio, che comprende tutto e coinvolge tutto, dal subatomico all’astronomico, e forse è l’espressione della VITA o è li che la VITA comincia ad esprimersi. L’ho già detto, la materia attraverso il moto, tende alla complessità, e quindi è già VITA latente, che diventa VITA espressa quando si formano, e non per caso, ma per questa legge implicita nella natura, forme sempre più complesse, fino allo psichismo e poi all’intelligenza, e poi all’intelligenza critico intuitiva dell’ uomo, o meglio del genio. Anche la nozione di onda e corpuscolo è probabilistica,perché non riesci mai a beccarli in contemporanea,anche se il fisico citato da Claudio,asserisce di averlo provato."" Ma anche la fisica classica deve accettare il probabilismo, non può non accettarlo. Quando entri in sistemi troppo complessi qualsiasi fisica accetta il probabilismo. Guarda ad esempio le previsioni del tempo, tu puoi prevedere il tempo a tre giorni con buona probabilità, a sette giorni rischi di fare cilecca anche se hai preso in considerazione migliardi di dati. Il probabilismo entra di forza in tutti i sistemi che tendono all'infinito, dove la meccanica quantistica individua i fenomeni secondo un ordine di casualità, mentere la fisica classica ti dice che è l'apparenza che è casuale, mentre nella realtà il fenomeno risponde sempre a delle leggi causali, cioè c'è una concatenazione di causa- effetti che portano a quel risultato, ma dal momento che tale concatenazione tende all'infinito non puoi calcolarla. Dimmi il tempo che farà in quel determinato giorno e a quella determinata ora ed in quel determinato luogo da qui ad un anno, semplicemente è impossibile. Si tratta di collocare tutti i fenomeni naturali in un sistema causale, cioè di concatenazione di cause effetti, e questo avviene sicuramente anche a livello atomico e subatomico solo che ci sfugge completamente. Ed ecco che arriva la quantistica che ti dice che l'elettrone casualmente si trova in qualsiasi punto dell'orbitale atomico, no, è sbagliato, l'elettrone si trova in un determinato punto secondo un principio di causa- effetto che tende all'infinito. Dove puoi collocare la separazione fra subatomico atomico e macroscopico, per me semplicemente non esiste. Certo l'elettrone risponderà anche ad altre leggi, ma non puoi rinunciare ad una concatenazione di cause ed effetti, semplicemente perchè non esiste e sopratutto ce la siamo inventata per semplificare il sistema. Il punto è che il sistema non è semplice, è estremamente complesso, ed in tale sistema mettici pure la teoria delle stringhe, la meccanica quantistica con la sua scatola del gatto mezzo vivo e mezzo morto, e tutto quello che vuoi, ma non cambierai di una virgola la realtà, che resta tale indipendentemente dalle nostere invenzioni. Già l'atomo è una struttura in costante movimento ed assai complessa, ha in se un nucleo che può ricordare in un certo senso il DNA, perchè composta da un infinità di particelle subatomiche, che a loro volta influenzano il moto degli elettroni, e questi si uniscono in molecole semplici e poi in molecole organiche e poi in VITA che tende allo psichismo. Intendo dire che è implicito nella materia la complessità, non devi andare a cercarla solo dove c'è il DNA. Certo quando arrivi al DNA significa che sei giunto in una forma di energia ancora più complessa, ma vedi io penso che ogni forma di vita sia estremamente complessa, e nelle forme di vita ci metto anche le strutture che a noi appaiono apparentemente semplici, ma che nella realtà sono estremamente complesse. Quello che intendo dire è che ad ogni livello, anche il più minuscolo, trovi un sistema che tende all'infinito, ed in tale sistema ha buon giuoco la quantistica a tirare in ballo la casualità, perchè le cause che portano l'elettrone in quel punto sono talmente tante che non sono più determinabili con un semplice calcolo matematico. In questo moto incessante ed in questa complessità io vedo già la vita, che non sarà vita organica con il suo DNA, ma ugualmente vita perchè è moto, perchè è complessità perchè è informazione. Che poi tali strutture tendano ad organizzarsi in forme ancora più complesse fino allo psichismo, questo è già un altra legge in stretta connessione con il movimento che tutto anima perchè se non ci fosse la materia sarebbe una cosa morta. Già il Todeschini legava la realtà di una particella al movimento, una particella è tanto più reale quanto più si muove, nel momento in cui cessa il moto scompare.Le teorie del Todeschini sono molto interessanti e varrebbe la pena discuterne, ma il discorso si farebbe troppo lungo e sarebbe incompreso da molti. Perchè il Mesone dopo un centesimo di secondo scompare? semplicemente perchè ha cessato di muoversi sul suo asse e diventa semplice spazio. Nel momento in cui lo spazio si mette in moto, si forma la massa, si formano le infinite forze che regolano tale moto, ma si forma soprattutto la vita nella sua forma più elementare, che poi sentirà la necessità di organizzarsi in forme complesse fino allo psichismo ed all'intelligenza. Diceva un fisico quantistico: "La cosa che mi fa più rabbia, è che Schrödinger l'ha già dimostrato più di mezzo secolo fa che in definitiva noi non siamo nient'altro che onde di probabilità ..". " è una delle altre cavolate della quantistica che si basa solo sul probabilismo e sulla casualità. In realtà c'è una concatenazione causa - effetti, e solo quella può spiegare la realtà. La realtà nei modelli più avanzati potrebbe essere intesa o interpretata come "informazione", ma è qui che sorgono i guai. Proprio su questo tema un altro fisico quantistico ha evidenziato " tutte le entità presenti nell’Universo attuale, codificano una quantità di informazione di gran lunga inferiore alla quantità permessa dalla teoria quantistica dei campi. Per esempio, se un atomo di idrogeno dovesse codificare tutta l’informazione che gli è consentita dal limite di Bekenstein, potrebbe codificare circa 4 x 10^6 bit di informazione (…)Quindi un atomo di idrogeno potrebbe codificare all’incirca un megabyte di informazione, mentre di norma codifica molto meno di un bit. La massa dell’idrogeno non viene di certo utilizzata in modo efficiente! Se si assume che il raggio sia quello di un protone (R= 10^-13 cm),la quantità di informazione codificabile nel protone è costituita da soli 44 bit! Questo valore è davvero piccolo rispetto alla complessità del protone - tre quark valenza, innumerevoli quark e gluoni virtuali- che è di fatto tanto complesso che non siamo ancora riusciti a calcolarne lo stato di base dai principi fondamentali utilizzando il Modello Standard, anche utilizzando i supercomputer più avanzati". Quindi la quantità di informazione non codifica tutta la realtà, ma può essere solo un modo nostro di interpretazione, per altro errato. Recentemente dei fisici di Boston hanno quantificato la massa di un QUARK (articolo comparso su LE SCIENZE". Come ben si sa i QUARK sono i componenti fondamentali dell'atomo. Ora con loro grande sorpresa hanno scoperto che la massa di in QUARK è molto inferiore a quella che si pensava ( non ricordo il valore, ma era già un valore praticamente nullo). Facendo prove sperimentali e calcoli matematici assai complessi hanno evidenziato come un QUARK sia praticamente vuoto di massa, ma praticamente solo energia. Ora c'è da chiedersi se quella minima massa restante come si possa quantizzare visto che è energia anch'essa. La minima massa restante dovrebbe essere conferita al QUARK da BOSONE DI HIGGS secondo la fisica quantistica. Secondo Marco Todeschini potrebbe essere semplicemente che il QUARK ha un moto rotatorio sul suo asse "modesto", difficile quantizzare la velocità, ma è indubbio secondo il Todeschini che la massa è conferita ad una particella a seconda della velocità di moto sul suo asse. E' lo spazio, che è quantizzabile in un minimo di densità che mettendosi in moto, sempre rotatorio su un asse, crea la realtà tangibile. Anche nel macroscopico, un tornado diventa quasi una realtà tangibile proprio in virtù del moto. Nel momento in cui il suo moto rotatorio si annulla, non è più evidenziabile come realtà. Questo vuoto della realtà, che sostanzialmente è solo energia, mi ha fatto tornare in mente uno mio scritto di alcuni anni fa, vediamo se riesco a trovarlo: ""LA BUFALA DEL MESONE DI YUKAVA Quando si rompe l’equilibrio del nucleo, quella parte dell’energia del campo elettrico che si rende libera, si manifesta con l’emissione di raggi gamma, mentre invece le forze nucleari supposte quantizzate secondo l’ipotesi di Yukava, si manifestano come particelle aventi masse intermedie tra quella dell’elettrone e quella del protone; particelle che vennero chiamate da quello scienziato giapponese Mesoni. Il Mesone è instabile, avendo una vita di un centesimo di secondo. Dopo tale tempo i fisici dicono che esso si annulla. Fermiamoci a considerare questa parola. E’ possibile che la materia si annulli? Se ciò fosse allora essa dovrebbe essere costituita dal nulla, poiché se fosse costituita di sostanza potrebbe trasformarsi ma non annullarsi, e ciò in base al principio che nulla si crea e nulla si distrugge. Si potrà allora pensare che il mesone si trasformi in energia, ma Einstein ci assicura che già la sua massa è energia e quindi tale trasformazione è impossibile. Non resta allora che pensare che tale energia si sia disquantetizzata e si sia dispersa nell’ambiente. Ora se si pensa l’energia del mesone come incorporea, immateriale, non si riesce a capire come, quando è condensata (quantetizzata), possa divenire sostanza corporea dotata di massa materiale che occupa spazio. Sembra quindi che si debba ritenere tale massa soltanto apparente, per quanto dotata di un volume ove quell’energia è condensata. Alle stesse conclusioni si arriva se invece del mesone si considera l’elettrone, poiche dopo le esperienze di Kaufmann, si giunge si giunge alla conclusione che l’elettrone possiede solo una massa apparente, ma non materiale. Anche all’elettrone quindi non resterebbe che la realtà di occupare uno spazio sferico denso di energia. Né diversa conclusione sembra potersi trarre considerando l’atomo e la materia che esso costituisce poiché Einstein ha già dimostrato come la materia non è altro che energia condensata. Stando quindi alla fisica moderna e per quanto essa non l’abbia ancora esplicitamente annunciato, l’atomo sarebbe da concepirsi come uno spazio sferico vuoto, entro il quale e nel suo centro si distingue una sferetta o più sferette (nucleo), ruotante su se stessa ed emanante forze elettriche e gravitiche, attorno alla quale rotorivoluiscono a varie distanze sferette planetarie di spazio vuoto cariche di elettricità negativa (elettroni) Tra il nucleo centrale e gli elettroni periferici, altro spazio vuoto suddiviso secondo il Bohr in barrette sferiche concentriche a potenziale diverso. Faccio subito notare che questi risultati della fisica moderna, incontrovertibili perché basati sull’esperienza, ci portano ad una conclusione che sembra sbalorditiva e cioè che l’atomo è suddiviso in sfere di spazio vuoto, mobili le une rispetto alle altre, è segno che lo spazio è mobile. Ma se l’atomo è uno spazio sferico vuoto, composto da altri spazi sferici pure vuoti , come può uscirne il pieno che è indispensabile a giustificare la solidità dei corpi composti appunto da atomi? Dal vuoto dell’atomo come è possibile sorgano le forze e le energie che imprigiona e che liberate danno gli effetti spaventosi della bomba atomica? E come può lo spazio vuoto, il nulla, a curvarsi in superficie sferica, rotare e rivoluire? I fisici moderni non hanno dato, né sembra possano dare risposta a queste domande, perché hanno dichiarato di aver rinunciato alla spiegazione dei fenomeni visto che tutto è casuale."" Allora visto che tutto è casuale anche noi saremmo una casualità? Hai mai calcolato quante probabilità avresti avuto per nascere e per esistere? Se uno spermatozoo diverso ( su 400 milioni) fosse entrato nell'ovulo non saresti più tu ma un altro individuo, lo dice la genetica. Ma questa è solo l'ultimo passaggio, devi risalire ai nonni ai bisnonni , ai trisavoli ecc e tutti gli infiniti passaggi che ci sono stati. In pratica la tua probabilità di esistere sarebbe zero, sempre secondo il probabilismo e la casualità della quantistica. No mi dispiace, io sono con THERETURN, io non avrò la sua fede, una fede un po diversa, ma comunque tale da farmi dire che non siamo un prodotto del caso. Noi siamo spiriti arjanedda, e non potremmo non esistere perchè l'infinito si sarebbe privato di qualcosa e non sarebbe più stato infinito. Togli un tassello ad un sistema infinito, che subito diventa finito. Ma l'universo è un infinito, o meglio un sistema di infiniti, ai quali non si può togliere assolutamente nulla, perchè ogni realtà rispecchia l'infinito che la ospita e rispecchia in se la realtà stessa, cioè l'infinito stesso. Certo che l’esperimento di Afshar ha messo in rischio non poco la fisica quantistica. Dice Luigi Maxmilian Caligiuri: ""Per fortuna ai giorni nostri la mente brillante di Afshar (fisico americano di origine iraniana, detto quantum rebel ) è riuscita a realizzare un esperimento indiretto del tipo a doppia fessura in cui si possono osservare i singoli fotoni passare da una fessura o da un'altra e nello stesso tempo mantenere la coerenza di ψ e la formazione delle bande di interferenza. Si chiama misura-non misura. Lo sperimentatore ha preso coscienza di un esperimento senza scatenare il quantum distruttivo. Afshar ha ripetuto l'esperimento presso le università che lo hanno richiesto, ha risposto pubblicamente per un certo tempo attraverso internet a chiunque desiderasse informazioni, ha partecipato a congressi ed ha proposto la sua relazione per la pubblicazione in una rivista scientifica specializzata nel 2004. La pubblicazione è avvenuta nel 2007. La comunità scientifica ha impiegato 3 anni per superare la sorpresa. Gli scienziati-filosofi cultori dell'interpretazione magica di Copenagnen hanno resistito come hanno potuto. Il polverone non si è ancora posato ma di fronte all'evidenza .... Eppure Afshar non ha mostrato nulla di imprevedibile dal punto di vista della fisica quantistica (la parte matematica). Ha solo trovato un varco in cui l'interpretazione probabilistica pura di tipo Copenhagen ne esce piuttosto male mentre l'interpretazione ondulatoria (in particolare transazionale come vedremo) ne esce rinforzata. Come ha fatto ??? La sorgente S emette ad uno ad uno una serie di fotoni tutti alla stessa frequenza. Lo schermo C, dotato di due fessure, A e B diffonde i fotoni. Se lo schermo D è presente, i singoli fotoni disegnano su di esso nel tempo le righe di interferenza come nella figura sotto , parte sinistra. Se lo schermo D viene asportato i fotoni vanno incontro ad una specie di occhio , ottenuto con una lente E e due rivelatori F e G. Quest'occhio vede i fotoni ad uno ad uno mentre emergono dalle fessure A e B e quindi fornisce una sicura informazione sulla loro posizione all'altezza dello schermo forato C. Secondo l'interpretazione di Copenhagen è impossibile per principio ad un osservatore in queste condizioni venire a conoscenza della struttura ondulatoria di ψ perché già un apparato di misura ne mette in evidenza la natura corpuscolare. Pertanto al livello dello schermo D mancante dovrebbe esserci una distribuzione di fotoni organizzati su 2 righe sfumate come da figura, parte a destra. Invece si dimostra che distribuzione dei fotoni rimane quella della figura sopra a sinistra. Come mettere in evidenza questa struttura a molte righe nella posizione D senza utilizzare lo schermo o comunque uno strumento che crei decoerenza ? Semplicemente Afshar ha introdotto strumenti di misura (sottili fili metallici) in zona D in corrispondenza delle aree nere delle righe (dove i fotoni non possono accedere perché ψ interferisce negativamente e si annulla). Non disturbando ψ non si crea decoerenza. Facile, no ? D'altra parte la conferma puntuale della presenza delle bande nere conferma indirettamente l'esistenza di quelle chiare (misura-non misura) ed esclude il caso decoerente di luce diffusa. Viene pertanto a cadere l'idea interpretativa che ψ collassi (o diventi incoerente) non a causa dello strumento di misura ma a causa della coscienza dello sperimentatore che vuole sapere troppo."" 100 anni di storia dell fisica vengono completamente capovolti da un semplice esperimento fattibile in casa. Viene pertanto a cadere l'idea interpretativa che ψ collassi (o diventi incoerente) non a causa dello strumento di misura ma a causa della coscienza dello sperimentatore che vuole sapere troppo."" Quindi se la realtà non è più legata alla coscienza dello sperimentatore viene semplicemente a cadere la meccanica quantistica, si ricade nella cusalità e si mette da parte la casualità che è la base della quantistica. Il punto è che si era invocata la casualità perchè si tratta di sistemi infiniti, (l'atomo è un sistema infinito) e si era invocata la casualità come base del sistema. Ma questa è una pura illusione perchè la casualità non esiste. Se noi potessimo conoscere tutte le forze che reglono la posizione dell'elettrone potremmo stabilire esattamente dove si trova, e non dire che può trovarsi indipendentemente in qualsiasi punto dell'orbitale atomico. Si trova nell'orbitale, ma in quel punto ben preciso, la teoria di indeterminazione di Heisemberg viene completamente a cadere, e con lui tutta la quantistica. questo esperimento fa cadere il concetto dei “molti mondi” della fisica quantistica. Il grave è che è uno dei pilastri della fisica quantistica. L'interpretazione a molti mondi introduce l'idea che una misurazione o una osservazione abbia come conseguenza la divisione della nostra realtà in molti mondi, in cui diversi risultati sono possibili. Ne va di conseguenza che il gatto non esce dalla gabbia mezzo vivo e mezzo morto, ma vivo o morto. Di conseguenza molti fenomeni non possono essere osservati in chiave esclusivamente probabilistica e legata all’osservatore ed al tempo in cui l’esperimento si svolge, ma perdono quest’aspetto legato all’osservatore, al tempo ed al probabilismo, ma il fenomeno risulta riproducibile sempre ed osservato da qualsiasi osservatore. Questa rivoluzione idealistica, che stravolge le basi stesse della quantistica, da alcuni è stata accettata incondizionatamente, da altri è stata criticata, e costoro hanno cercato di spiegare l’esperimento di Afshar, nella chiave della meccanica quantistica (spesso arrampicandosi sugli specchi), da altri l’esperimento è stato completamente ignorato e neppure ne hanno voluto parlare al fisico che ha cercato di raccogliere le diverse interpretazioni. E’ come dire, uscendo di casa una tegola mi cade sulla testa, cerco di ignorarlo anche se mi fa un gran male ed il sangue esce a fontanella. Questo forse dipende perché la tegola cadendo mi ha mezzo rincoglionito, tanto che non sono in grado di formulare un discorso, pertanto taccio. Oppure mi sono talmente fossilizzato su una certa posizione che mi riesce impossibile uscirne. Più avanti vedremo come il sistema probabilistico lo possiamo applicare solo ai sistemi complessi, ma non a sistemi estremamente semplici come quello della doppi fenditura. Sia chiaro che l'ultima considerazione che ho espresso è esclusivamente mia e non la trovate in nessun testo, per questo vorrei fosse motivo di discussione insieme ai tanti pareri pro e contro l'esperimento di Afshar. Quello che voglio sottolineare è che la Meccanica Quantistica ha tenuto troppo poco in considerazione i sistemi infiniti, e non ha capito che quando si entra nei sistemi infiniti il principio di indeterminazione di Heisember viene a cadere. In sostanza si è esclusa la causalità per puro comodo, perchè nei sistemi infiniti non è possibile determinare la posizione di un corpuscolo es elettrone (appunto perchè le forze che entrano in campo sono appunto infinite); in realtà la causalità non viene mai a cadere, e non venendo mai a cadere crolla il pilastro principale della fisica quantistica. Il gatto non esce più dalla scatola mezzo vivo e mezzo morto, ma vivo o morto; rientriamo in pieno nella fisica classica, pre quantistica. Infatti l'entanglement ed il santo quantico lo puoi spiegare solo se consideri i sistemi infiniti che travalicano lo spazio tempo. Anche l'atomo è un sistema infinito e lo spazio tempo è una nostra convenzione. Ma il voler sostituire la causalità con la casualità non è necessario, perchè il sistema infinito contempla un insieme infinto di concause dove ci può ricadere l'entanglement ed il salto quantico, ma il gatto esce dalla scatola o vivo o morto, non una via di mezzo, è quì che la quantistica sbaglia. La casualità non esiste esistono sempre un insieme di concause, non mi stuferò mai di ripeterlo..
  3. IL CAOS O I SISTEMI INFINITI. 19 agosto 2015 alle ore 19:10 E’ uscito un nuovo libro di James Gleick “ CAOS : la nascita di una nuova scienza” Io l’avrei chiamato I SISTEMI INFINITI: la nascita di una nuova scienza. James Gleick fa notare che mentre pochi decenni fa, con la scoperta dei primi computer si pensava che attraverso moltissimi calcoli si sarebbe riusciti a calcolare il tempo anche molti giorni prima, in realtà, anche inserendo nei computer 5 miliardi di calcoli, al di la di due tre giorni anche le migliori predizioni mondiali erano mere speculazioni, ed al di la di sei sette giorni erano completamente inutili. . Spetta a Lorenz aver rivolto sempre più l’attenzione alla matematica dei sistemi che non trovano mai uno stato stazionario, sistemi che si ripetevano quasi, ma in modo del tutto identico.. tutti sapevano che i fenomeni meteorologici sono un sistema del genere, ossia un sistema aperiodico. La natura abbonda di sistemi analoghi. Se le condizioni meteorologiche avessero manifestato una volta una regolarità perfetta, ripetendo esattamente uno stato già conseguito in precedenza, con ogni raffica di vento ed ogni nube uguali, allora presumibilmente si sarebbero ripetute per sempre uguali ed il problema delle previsioni sarebbe diventato banale. Lorenz si rese conto che doveva esserci una connessione fra la riluttanza del tempo a ripetersi e l’incapacità dei meteorologi a prevederlo: una connessione fra aperiodicità ed imprevedibilità. Non era facile trovare equazioni semplici che producessero la aperiodicità che egli andava cercando. Dapprima il suo computer tendeva a bloccarsi in cicli ripetitivi. Lorenz però tentò di introdurre nel modello vari tipi di complicazioni minori. Ma anche queste dimostrarono il loro fallimento. L’effetto “farfalla” si faceva sempre più evidente ( se una farfalla sbatte le ali in America, a distanza di un mese, per un insieme di concatenazioni può determinare un ciclone in Asia); insomma si entrava nei sistemi infiniti chiamati per comodità CAOS, semplicemente perché non sono in alcun modo determinabili. Nella scienza, come nella vita, è ben noto che una catena di eventi può avere un punto di crisi in cui piccoli mutamenti sono suscettibili di ingrandirsi a dismisura. Ma questo significava che tali punti erano dappertutto in qualsiasi sistema, non solo nei fenomeni meteorologi . Per quanto complesso fosse il computer che faceva i calcoli, ci sarebbero state sempre delle variabili che non sarebbe riuscito a calcolare. Prendiamo ad esempio le onde del mare, io potrei mettere in ballo qualsiasi sistema, ma non riuscirei in ogni caso a calcolare con precisione l’onda successiva, le bollicine che si formano sull’onda, gli schizzi che genera l’onda. E’ chiaro che tutto risponde ad un sistema di casualità, ma è un insieme di cause concatenate che hanno alla base l’infinito, in pratica il CAOS. E’ stupefacente che il CAOS si possa estendere non solo ai macrosistemi (universo, galassie, pianeti, ecc) ma anche ai microsistemi, dipendendo i microsistemi dai macrosistemi stessi. Questo significa che la FUNZIONE D’ONDA dell’elettrone non dipende tanto dall’atomo, ma da una scala di macrosistemi che stanno “sopra” l’atomo. L’autosomiglianza fra macrosisistemi e microsistemi implica la ricorsione, cioè una struttura all’interno di una struttura. L’autosomiglianza è incorporata nella tecnica di costruzione delle curve; la stessa trasformazione si ripete a scale sempre più piccole e questo all’infinito. Jonathan Swift dice “ Così osservando i naturalisti una pulce ha su di se pulci più piccole che la succhiano, e queste sono punzecchiate da pulci ancora più piccole e così via all’infinito”. La curva di Koch non solo esprime la nascita di una nuova scienza, quella del CAOS o meglio dell’INFINITO, ma esprima la concatenazione di tutti i fenomeni della realtà e dell’universo. Riporto l’ingrandimento di un piccolissimo cristallo di sale, esprime le stesse forme che possiamo trovare su un pianeta o sulla luna. E’ chiaro che questo deve indurci a riconsiderare un po tutta la scienza, anche quantistica. https://www.youtube.com/watch?v=zuI0iPe8IUk
  4. Ripropongo il brano sulla demolizione di x C^, che avevo posto in prima pagina perchè ho trovato una precisazione molto significativa che voglio sottolineare: PER DEMOLIRE IN MODO SEMPLICE LA FORMULA DELLA RELATIVITÀ C’è un sistema molto più semplice per demolire la formula E=M*C^2, e cioè che la C non può essere rappresentata che dal numero 1 e cioè da una misura che non sia convenzionale. Se noi prendiamo come unità di misura i Km possiamo dire che la luce viaggia nel vuoto assoluto a circa 300.000 Km/sec, però ci siamo serviti di un unità di misura convenzionale sia per lo spazio che per il tempo, unità di misure create dall’uomo, come il metro il cm il piede ma anche l’unità astronomica e così pure per il tempo il sec, il minuto, l’ora ecc. Se noi prendiamo in considerazione l’unità astronomica (150 mil di Km) e dividiamo la velocità della luce per l’unità astronomica (300.000/150 milioni) otteniamo 0,002 che rappresenta lo spazio che la luce percorre in 1 sec rapportato all’unità astronomica sempre servendoci di unità di misura convenzionali. Poco importa se la luce percorre i 150 milioni di Km in otto minuti, l’unità astronomica resta sempre 1 per convenzione (esattamente come facciamo per il metro, centimetro, km , sec, minuto, ora, giorno, anno), per cui se eleviamo lo 0,002 al quadrato otteniamo 0,000004. Intendo dire che fare questa operazione E=M*300.000^2 è completamente assurdo perché ci siamo serviti di unità di misura convenzionali e così pure per ottenere lo 0,000004. Pertanto la velocità della luce non può essere che rappresentata dall’1, cioè in un unità di tempo qualsiasi stabilito per convenzione la velocità della luce non può che essere 1, unico termine non convenzionale perchè universale per qualsiasi formula. Pertanto E=M*C^2 può essere rappresentato dall’ E=M*1^2 cioè E=M. L’energia è esattamente uguale alla massa e non dobbiamo moltiplicarla per alcunché. Se vogliamo calcolare l’energia libera che può svilupparsi dalla massa dobbiamo utilizzare dei calcoli molto più complessi ed in particolare dobbiamo prima calcolare le reazioni esogenetiche e le reazioni endogenetiche (e nel caso del Deuterio e del Trizio le endogenetiche sono circa 1 /6 delle esogenetiche). Ma comunque sia energia libera o massa condensata la formula resta sempre E=M, dove M rappresenta sia la massa condensata che l’energia che può liberarsi dalla massa. Il perché la massa contenga così tanta energia (senza nessun bisogno di moltiplicarla) ci viene spiegato da Pietro Ubaldi nella sua GRANDE SINTESI : “” Voi vi trovate di fronte ad una materia che oppone il massimo di resistenza. Gli incommensurabili periodi di tempo che l’hanno portata alla sua presente individuazione atomica, rappresentano una spinta immensa, un invincibile volontà di continuare ad esistere nella forma acquisita per un principio universale di inerzia, che nella Legge impone la continuazione delle traiettorie iniziate e che è ciò che garantisce stabilità alle forme ed ai fenomeni”” Se noi presupponessimo che la massa debba moltiplicarsi per alcunché per avere il valore dell’energia libera significherebbe che la massa (M) non rappresenta l’energia effettiva che può liberarsi dalla massa. Ma c’è un sistema ancora più semplice per demolire la formula Einsteniana di E=M*C^2 e cioè che dal momento che la C viene espressa dallo spazio/tempo e dal momento che il tempo diventa una variabile, anzi alla velocità della luce dovrebbe annullarsi, la formula semplicemente cade perché qualsiasi formula dove un termine fondamentale (in questo caso il tempo) si annulla semplicemente cessa di esistere dal momento che se noi eseguimo la formula E=M*0 otteniamo 0. Poco importa dire che per un osservatore esterno la velocità della luce è una costante, e per un osservatore interno(es un fotone)che cosa potrebbe dire se potesse parlare???
  5. Non preoccupatevi, è mio nipote Francesco, figlio del mio fratello più vecchio, ormai è una celebrità, docente di Scienze Naturali all'Università di Padova, fa parte come istruttore degli astronauti, viene chiamato per conferenze in tutto il mondo, è inoltre archeologo, va continamente in tutti i continenti per esplorare le grotte più famose. Sentite cosa dice in relazione a Marte ed alla Luna:
  6. EFFETTI ANTINFETTIVI IMMUNOMODULATORI E ANTINFIAMMATORI DELLA VITAMINA D Numerosi dati della letteratura recente confermano l’azione regolatoria della vitamina D sul sistema immunitario. Il nostro studio ha riguardato la correlazione tra livelli sierici di vitamina D e l’insorgenza di una reazione di fase acuta (APR) in pazienti sottoposti a una prima infusione di acido zoledronico, un amino-bifosfonato ampliamente usato non solo nel trattamento delle osteolisi tumorali con ipercalcemia, ma anche nell’osteodistrofia pagetica e nell’osteoporosi. A tal fine sono stati studiati 10 pazienti valutati sia prima che dopo 72 ore dall’infusione con acido zoledronico. I soggetti in esame sono stati seguiti dal punto di vista clinico nei tre giorni successivi alla somministrazione del farmaco e dal punto di vista laboratoristico e immunitario sia prima dell’infusione di acido zoledronico (T0) sia dopo 72 ore (T1). Lo stato vitaminico dei pazienti è stato classificato, in base ai livelli ematici di 25-idrossivitamina D, in stato carenziale, stato di insufficienza e stato di sufficienza. Clinicamente i 10 soggetti sono stati valutati attraverso la misurazione della temperatura corporea e l’eventuale comparsa di una sintomatologia attribuibile ad reazione di fase acuta (APR) quale affaticamento, dolori osteo-muscolari e disturbi gastro-intestinali. Attraverso la determinazione degli esami di laboratorio (VES, PCR e fibrinogeno) è stato valuitato l’andamento degli indici di flogosi. L’analisi dell’immunofenotipo ha riguardato le principali popolazioni e sottopopolazioni linfocitarie periferiche, compresi i linfociti T γδ, i linfociti T regolatori CD25++ e le cellule Natural Killer (NK).In base alla clinica e ai risultati degli esami di laboratorio 6 pazienti sono stati classificati come APR+ e 4 pazienti come APR-. Correlando la prevalenza di APR con i livelli sierici di 25 OH vitamina D, abbiamo osservato un’evidente associazione tra i livelli di vitamina D e la comparsa di reazione di fase acuta con una maggiore occorrenza di APR nei soggetti con stato vitaminico carente e/o insufficiente rispetto ai soggetti che presentano valori sufficienti della vitamina D. 5Relativamente all’immunofenotipo, prima dell’infusione con acido zoledronico non erano presenti significative differenze nella distribuzione delle popolazioni linfocitarie nei pazienti APR+ e APR-. Confrontando tuttavia, i valori al tempo T0 con quelli registrati al T1, abbiamo osservato che l’infusione ha indotto variazioni di specifiche popolazioni linfocitarie nei due gruppi di pazienti. In particolare, nel gruppo dei pazienti APR+ è stata osservata una diminuzione statisticamente significativa del numero assoluto dei linfociti T γδ circolanti e dei linfociti T CD8+. Tali variazioni non sono state osservate nel gruppo dei pazienti APR– dove è stato invece evidenziato un trend in aumento per il numero assoluto dei linfociti NK dopo infusione di bisfosfonato. Nonostante lo studio sia preliminare e limitato a un numero ristretto di pazienti, si può affermare che la prevalenza di APR e le variazioni delle popolazioni e sottopopolazioni linfocitarie riscontrate a seguito di una prima infusione di acido zoledronico, sembrano essere correlate ai livelli di 25-idrossivitamina D. Questi risultati suggeriscono un possibile controllo dell’insorgenza di APR, attraverso la supplementazione con colecalciferolo, al fine di ottenere livelli ematici di 25-idrossivitamina D sufficienti (>75 nmol/L) prima di intraprendere la terapia con acido zoledronico. Questo studio sembra inoltre ulteriormente confermare gli effetti pleiotropici che la vitamina D esplica sul sistema immunitario ed in particolare la relazione tra vitamina D, amino-bisfosfonati e sistema immunitario. http://www.jgerontol..._vitaminad1.pdf La vitamina D svolge un ruolo cruciale nel metabolismo fosfo-calcico, e molti altri importanti effetti protettivi su diversi distretti ed organi si sono evidenziati negli ultimi anni, tanto da farla considerare un vero e proprio ormone. La sua azione si svolge tramite una serie di metaboliti che vengono attivati attraverso vari passaggi. È molto importante quindi poterne misurare i livelli. La scelta dei valori di riferimento non può essere effettuata considerando un campione della cosiddetta popolazione “norma-le”, perché gli stati carenziali sono molto diffusi. La determinazione della vitamina D, però, presenta diverse problematiche, legate sia alla scelta del metabolita da valutare, sia al sistema con cui viene tra-sportata in circolo. Infatti il metabolita più rappresentativo dello stato vitaminico, la 25(OH) vitamina D, circola strettamente legato ad una proteina di trasporto (VDBP), che ne ostacola il dosaggio. Si sono sviluppati, alla luce della sempre maggior importanza che il suo ruolo sembra rivestire, molti metodi di misurazione, sia indiretti (immunochimici) che diretti (HPLC, spettrometria di massa MS). I metodi indiretti presentano il grande vantaggio della possibilità dell’automazione, ma tendono in generale a sottostimare, mentre i metodi diretti sono più accurati, ma soggetti a maggiori interferenze. La valu-tazione clinica del paziente non può prescindere dalla conoscenza di queste problematiche, anche se molto si sta facendo per ridurre le differenze tra metodi e giungere ad una loro standardizzazione, che permetterà di ridurre la variabilità e quindi l’incertezza del dato
  7. BUCHI NERI Mi piace che mentre Leonardo Angeloni, che è pure lui un ottimo fisico quantistico espone qui http://www.angleo.it.../relat01.htm tutte le sue considerazioni per dire che il tempo è una costante, e non c'è nessuna variazione in rapporto alla velocità, demolendo in tal modo la teoria di Einstein, tanto che dice esplicitamente " Introducendo il fattore di normalizzazione γ Einstein ha di fatto ignorato il peso che ha lo “stato” dell’osservatore nel determinare la misura del fenomeno fisico. Questo “stato” è alla base del principio di indeterminazione di Heisenberg che costituisce a sua volta un fondamento indispensabile per la meccanica quantistica. L’estensione di questo concetto anche alla meccanica classica permette di enunciare un vero e proprio “ principio antropometrico” che può essere così enunciato, “ per obbedire al criterio di oggettività, ogni fenomeno fisico deve essere indipendente dallo stato dell’osservatore, ma la rappresentazione matematica di tale fenomeno non può prescindere dallo 'stato' dell’osservatore che deve pertanto essere esplicitato nella fase di determinazione”. Inoltre verso della sua trattazione dirà: " La teoria della relatività di Einstein non ha quindi nessuna rilevanza nella meccanica quantistica e ciò spiega forse il suo scetticismo nei confronti della quantomeccanica quando affermava “ Dio non gioca a dadi con l’universo”. Vi consiglio di leggere tutto il "trattato" perchè molto interessante, inoltre Angeloni, anche se avrà meno qualifiche, dimostra di avere un alta capacità logica oltre che un ottima dimestichezza con la matematica. Al contrario Carlo Rovelli"vaneggia" sul tempo che passa più veloce in alto e più lento in basso, per cui il tempo di un nano dovrebbe essere diverso da quella di una persona normale (non lo dice lui, lo dico io basandomi su quello che dice). Inoltre ho notato molte imprecisioni, infatti dice "quando Einstein, ha scritto la sua teoria nel 1915, ha capito l’esistenza dei buchi neri, ha capito il rallentamento del tempo prima che queste cose le misuriamo effettivamente" . Questa è una solenne cacchiata dal momento che Einstein proprio non ci ha pensato ai buchi neri, la loro presunta esistenza è stata formulata per la prima volta dal fisico John Archibald Wheeler nel 1955, per essere poi ripresa e strutturata a livello teorico da Stephen Stephen Hawking, che come sappiamo è diventato un mito (a mio parere dicendo un sacco di cavolate). Inoltre, per chi non lo sapesse, lo stesso Stephen Hawking, alla fine della sua esistenza, ha ritrattato molte delle sue impostazioni sui buchi neri, riportando il concetto di "buco nero" a stella supercompressa senza orizzonte degli eventi. Infatti c'è un aspetto molto interessante in astronomia relativamente ai buchi neri, è cioè che non è mai stato osservato uno, non si è mai vista una stella che venisse "ingurgitata" da un buco nero, e quelli che ci mostra Rovelli sui presunti buchi neri non sono altro che dei disegni, mentre l'immagine reale di un presunto buco nero, ripresa da non so quale telescopio, stranamente emette luce, e questo emettere luce va contro qualsiasi concetto di buco nero. Ora ritornando al tempo c'è da dire che per noi che viviamo nel relativo, effettivamente il tempo esiste, possiamo effettivamente constare che c'è un evoluzione in qualsiasi fenomeno, per cui la trattazzione di A del tempo va considerata come una concezione delapidata da qualsiasi relatività, vista quasi dal punto di vista di Dio, ma riportare un tempo relativo a delle variabili, come fa Rovelli, per cui se alziamo l'orologio gira più velocemente che se lo abbassiamo, è una pura invenzione sulla quale può costruirci tutte le formule pseudo matematiche che vuole, formule talmente incomprensibili che dovrebbero essere comprese solo da pochi eletti, ma che in realtà sono una solenne cavolata. Che poi codesti individui siano destinati addirittura al Premio Nobel dimostra semplicemente a che punto è arrivata la scienza o pseudo tale.
  8. LE POLVERI DELL'ARIA Dall'anno 2000 circa c'è stato un aumento progressivo delle POLVERI DELL'ARIA fino ad arrivare, ai giorni nostri, ad una quantità di polveri veramente allucinante. Da dove provengano queste polveri è ancora oggetto di discussione. Certamente contribuiscono gli scarichi delle auto, il fumo dei riscaldamenti, gli inceneritori, gli incendi delle foreste che sono sempre più frequenti, gli scarichi degli aerei, alcuni parlano addirittura di scie chimiche. Ad un analisi microscopica queste polveri si presentano costituite da vari metalli, questo si deduce dal colore, ma la cosa più strana è che sono ricchissime di fibre probabilmente di struttura polimerica, inoltre sono presenti delle sferule trasparenti come il vetro estremamente piccole (pochi millessimi di millimetro), come si formino e da dove provengano resta un mistero. Qundi noi respiriamo continuamente polveri di vario tipo, fibre polimeriche e sfere trasparenti sconosciute. Cosa causerà, a livello polmonare tutto questo, è facile supporlo. Patologie polmonari sempre più frequenti, enfisema, e tumori (come infatti si stà verificando. Per poter vedere tali polveri, è necessario un faretto estremamente potente (50.000 Lumen), ed una telecamera con zoom. Io qui sotto pongo un filmato che vi mostra la densità di queste polveri.
  9. MATERIA OSCURA ED ETERE Sempre più spesso la comunità scientifica viene forzata ad accettare il fatto che gli atomi e le molecole siano come la fiamma di una candela, in cui l’energia che essa rilascia (come il calore e la luce della fiamma) deve essere bilanciata dall’energia che assorbe, come la cera della candela e l’ossigeno dell’aria, tale apparente “moto perpetuo” (assorbire ed espellere) dentro l’atomo viene spiegato semplicemente come “la magia della meccanica quantistica”, od ancora “il respiro dell’universo”. A metà dell’ottocento Louis Pasteur aveva scoperto che il blocco di vita in formazione noto come “protoplasma” era intrinsecamente non simmetrico, e che le colonie di microbi crescevano in una struttura a spirale nota come numeri di Fibonacci, Sezione Aurea, o spirale “phi”; inoltre aveva notato che queste proporzioni in espansione corrispondevano anche alla struttura presente in natura su parti di alcune piante, insetti, animali, uomini ecc. da tali osservazioni si potrebbe quindi dedurre che alla base della materia vi è una forma di energia invisibile a forma di spirale logaritmica. Dopo aver stabilito che tutti i campi come la forza gravitazionale e quella elettromagnetica sono semplicemente differenti forme di etere informatico in movimento, abbiamo trovato un’ ipotesi scientifica per spiegare il concetto di gravità, ed una semplice e chiara ragione per la quale essa dovrebbe esistere. Per cui possiamo osservare che ogni atomo, molecola ecc. devono essere sostenuti da un continuo flusso di energia eterica, che è la stessa energia che interviene nella creazione della Terra e che fluttua dentro di noi, ed ecco che allora noi restiamo impigliati nella corrente gigante del fiume di energia che scorre all’interno della Terra e di tutto l’Universo esattamente come le zanzare restano incastrate in una zanzariera mentre l’aria continua a fluire attraverso la retina. Quasi tutti gli scienziati “tradizionali” ritengono che le teorie della relatività di Einstein, eliminino alla base la necessità di fare riferimento all’etere; ed invece Einstein sosteneva il rifiuto dell’etere nel 1910, che corrisponde all’anno in cui la scienza ufficiale ritiene conclusa la riflessione di Einstein sull’argomento, ma nel 1920 lo stesso Einstein invece affermava che in realtà l’ipotesi dell’esistenza dell’etere non contraddice la teoria sulla relatività, e nel 1924 ancora scrive: “nella fisica teoretica non andiamo da nessuna parte senza l’etere, cioè un continuum di proprietà fisiche definite, in quanto la teoria generale della relatività esclude un’azione diretta a lungo raggio, e ogni teoria a breve raggio assume la presenza di campi continui, e quindi conseguentemente l’esistenza dell’etere”. Nel 1913, il fisico Eli Cartan dimostrò per primo che la “fabbrica” o flusso di spazio e tempo nella teoria della relatività generale di Einstein non solo curvava, ma possedeva in sé stessa anche un movimento di rotazione spiraliforme conosciuto come torsione; questa parte della fisica viene collegata esplicitamente alla teoria Einstein-Cartan, o ECT; da notare che la teoria di Cartan da principio non venne presa troppo sul serio, poiché venne fuori prima dell’epoca della fisica quantistica, successivamente nei primi anni ’70 studi più approfonditi crearono un grande interesse verso la conoscenza più dettagliata dei campi torsionali. Nelle sue ricerche Ginzburg scoprì che potevano essere effettuate poche semplici modifiche alle comuni equazioni facenti parte della teoria della relatività di Einstein, senza con questo creare discordanze con le osservazioni scientifiche già note, in quanto che la teoria della relatività afferma che un oggetto aumenta gradualmente la sua massa una volta che è stato sottoposto ad accelerazione, e secondo il pensiero scientifico convenzionale nessun oggetto può superare la velocità della luce perché appena esso raggiunge tale velocità l’oggetto diventerebbe infinitamente grande come massa. Ginzburg invece ipotizzò che era possibile invertire completamente queste equazioni senza violare alcuna regola scientifica, il che stava a significare che l’oggetto in movimento invece di diventare più grande avrebbe addirittura rilasciato energia verso l’etere, provocando così la perdita graduale di tutte le sue caratteristiche profonde di massa gravitazionale, massa inerziale e polarità elettrica, qualora avesse raggiunto la velocità della luce. Ginzburg presenta questi nuovi concetti nei seguenti termini in cui le caratteristiche principali di queste nuove equazioni sono: 1)Sia la massa gravitazionale che quella inerziale di una particella decrescono quando la sua velocità aumenta. 2)La polarità elettrica di una particella decresce allo stesso modo quando la sua velocità aumenta. Da tali affermazioni si evince il fatto che la massa complessiva di un oggetto è rappresentata sia dalla massa gravitazionale che da quella inerziale, le quali sono semplicemente misure del comportamento della gravità e dell’inerzia su di un oggetto. Curiosamente qui possiamo notare che la gravità e l’inerzia manifestano essenzialmente effetti identici sulla materia. Tale principio è noto anche come il “Principio di Equivalenza” di Einstein ( O DI SUA MOGLIE ) che ci mostra che la gravità e l’inerzia sono due forme di stessa intensità inerenti la stessa forma di energia, con una gravità che si muove verso in giù, e l’inerzia che provoca la resistenza al movimento nello spazio. Continuando sulla strada tracciata dagli studi di Ginzburg si arriva ad enunciare il fenomeno fisico che dice: solo quando una particella è a riposo può essere considerata come materia pura, appena la particella comincia a muoversi nello spazio, la sua massa gravitazionale e la polarità elettrica inizieranno a decrescere in accordo con le nuove equazioni relativistiche, così che una parte della sua materia sarà convertita in un campo, e quindi quando la velocità della particella diventerà uguale all’ultima velocità di campo a spirale “C”, la sua massa gravitazionale e polarità elettrica diventeranno uguali allo zero, ed a quel punto la materia sarà completamente convertita in un “campo puro”. Da notare che l’ultima velocità di campo a spirale “C” menzionata da Ginzburg è leggermente più alta della normale velocità della luce, a causa del percorso a spirale che egli ritiene ogni energia debba seguire. Questo semplice cambio nelle equazioni della relatività base porta quindi ad una nuova visione della fisica quantica della trasmutazione, contenente il concetto che un oggetto può sparire completamente dalla nostra realtà fisica conosciuta; tale fatto ci conduce direttamente verso un nuovo e grande interrogativo: sparisce si, ma per andare a finire dove? Ginzburg asserisce che un oggetto diviene “campo puro” quando la sua velocità si avvicina a quella della luce, ed in ogni caso risulta piuttosto evidente che ci possono essere diversi livelli vibratori dell’etere, da qui a dedurre che quando un oggetto viene accelerato verso la velocità della luce, sia per mezzo di moto lineare, che per vibrazione interna o per azione energetica correlata, l’energia mancante e la massa vengono semplicemente spostate in un livello vibratorio di etere più elevato che potremmo anche definire come diversa densità. Veniamo a conoscenza che alcuni scienziati come ad esempio Kozyrev, Mishin, Aspden, Tesla e Keely avevano già scoperto in modo indipendente che l’etere può presentarsi suddiviso in differenti livelli di densità, per cui la materia e l’energia assumono modalità diverse di presentazione a seconda del loro grado di densità eterica. Marco Todeschini al contrario considerava la densità eterica costante sia pur infinitesimale e l’eventuale densità sarebbe condizionata dal moto dell’etere che va a costituire il 95% se non addirittura il 100% dal momento che alla base delle strutture atomiche c’è l’etere. Qindi la MATERIA OSCURA dell’universo non sarebbe altro che l’etere Il nuovo modello di Ginzburg molto simile a quello del Todeschini, ci porta a considerare l’idea che gli atomi e le molecole sono in realtà semplicemente formazioni di vortici, come anelli di fumo o mulinelli, i quali vanno a formare all’interno di questo etere fluido ciò che egli chiama “dynosfera”, anche se Ginzburg e molti altri hanno fornito molte evidenti prove dei loro asserti, la maggior parte degli scienziati ufficiali continuano ad ignorare questi concetti restando fermi all’interno di confortevoli edifici di pensiero basati sul concetto che gli atomi sono costituiti da “particelle”, dove Niels Bohr per primo portò avanti il modello dell’atomo detto “magnetron”, basato sulle particelle che orbitano le une con le altre come un piccolo sistema solare, e molti non sanno che questo modello non può essere vero ed è in realtà fuorviante poiché una grande quantità di esperimenti scientifici conferma che le cosiddette “particelle” si comportano in realtà come se fossero onde. Tale controverso fatto porta a indurre uno stato di confusione scientifica, come lo dimostra ad esempio il paradosso del gatto di Schroedinger, ed il principio di indeterminazione di Heisenberg, entrambi i quali cercano di dirci che gli atomi non sono reali, ma risultano essere solo una probabilità a livello quantico; per cui avere dei concetti di fisica di base fondati sul non reale come fondamento di una scienza della materia che affonda le sue radici sulla concretezza materiale della massa, sembra un assurdo inconciliabile, eppure regge ormai da parecchio tempo .
  10. FUSIONE FREDDA MODERNA STORIA DI ALCHIMIA ED INQUISIZIONE. Che poi non si faccia è ovvio, crollerebbe l'introito di tutte le 12 multinazionali del Petrolio e del Metano, oltre che azzerare completamente tutti gli introiti della Russia per il Metano e Petrolio. Figurati se si fa!!!!! Che sia vera io ci credo, del resto quellli che la ammettono sono fisici nucleari non gente di strada.Poi per quanto riguarda Louis Kervran ti dirò che bisognerebbe considerarlo un po meglio, anche a livello biologico avvengono delle trasmissioni a debole energia, per cui ci potrebbero essere delle trasmutazioni di certi elementi.Del resto devresti chiedere a qualsiasi ospedale quanto è difficile alzare il sodio quando è basso, anche attraverso fleboclisi. Quasi sempre si alza il potassio in maniera inspiegabile anche se l'individuo non lo assume nè per via alimentare nè per fleboclisi. E' una delle cose che i medici non sanno spiegarsi. Ed allora non sappiamo se la spiegazione possiamo trovarla nelle ipotesi di Louis Kervran, che sembrebbero assurde, ma in realtà potrebbero non esserlo. Ciò che è la vita ancora non lo sappiamo, non c'è nessuna formula che la esprime neppure quantistica, e cioò che avviene nell'ambito della vita potrebbe essere ancora più misterioso. Ti faccio un esempio: noi assumiamo una quantità altissima di ALLUMINIO ORGANICO tramite l'alimentazione, soprattutto attraverso la verdura, però i nostri livelli ematici di ALLUMINIO sono praticamente zero. Come lo spieghi??
  11. Questo ha dell’incredibile: L’ACETILCISTEINA previene e cura anche i danni retinici. Lo dice questo grossissimo studio inglese di cui riporterò tradotta solo una parte; è quindi preventiva della cecità. Si tenga presente che la MACULOPATIA DEGENERATIVA ormai nella popolazione ha una frequenza altissima, e causa completa perdita della vista. Finora l’unica terapia sono le iniezione intracellulari dolorosissime, che causano raramente un miglioramento, quasi sempre un blocco della patologia: https://www.ncbi.nlm.nih.gov/pmc/articles/PMC3081196/ https://translate.google.com/translate?hl=it&sl=en&u=https://www.ncbi.nlm.nih.gov/pmc/articles/PMC3081196/&prev=search&pto=aue Discussione Si ritiene che lo stress ossidativo svolga un ruolo fondamentale nella patogenesi della AMD e di altre degenerazioni della retina. 6,48,49 I pazienti con AMD tardiva hanno mostrato livelli di enzimi antiossidanti significativamente più bassi e livelli di sottoprodotto perossidazione lipidica più elevati rispetto ai pazienti con AMD precoce ( P <0,001 per ciascuno). 50 Il ruolo dello stress ossidativo nella AMD è stato ulteriormente supportato da numerosi studi epidemiologici. 26,27,51,52 Sebbene gli studi abbiano dimostrato la protezione delle cellule RPE dalla morte cellulare indotta dallo stress ossidativo in vitro , nessuna ha dimostrato il mantenimento dell'omeostasi delle cellule RPE. Inoltre, a nostra conoscenza, nessun composto dimostrato di avere successo nel salvataggio delle cellule RPE contro lo stress ossidativo in vitro ha anche dimostrato protezione contro la degenerazione dei fotorecettori e RPE e la perdita di potenziale visivo in vivo . Abbiamo ipotizzato che un antiossidante più robusto, come il NACA, potrebbe prevenire la morte di RPE e cellule fotorecettrici nelle degenerazioni della retina, inclusa la AMD. Abbiamo valutato il potenziale del nuovo antiossidante tiolo, NACA, per prevenire danni legati allo stress ossidativo in vitro e in vivo. Il NACA è stato generato come antiossidante con un maggiore potenziale di attraversare la barriera emato-encefalica e le membrane cellulari a causa della sostituzione di un gruppo ammide al posto del gruppo carbossilico nel suo composto genitore, NAC. Gli studi che utilizzano NACA hanno confermato queste proprietà, dimostrando la sua capacità di penetrare nella membrana cellulare in modo significativamente migliore rispetto ad altri antiossidanti, tra cui NAC, vitamina E e carotenoidi. 39,53 Si distrugge i radicali liberi direttamente e indirettamente fornendo GSH, si sostituisce impoverito GSH, e chelati Cu2 + , in ultima analisi, impedendo catalizzazione della formazione di ROS. 54 In questo studio, dimostriamo che il NACA protegge le cellule RPE dal danno cellulare indotto dallo stress ossidativo in vitro . Abbiamo usato la linea cellulare ARPE-19, una linea cellulare di RPE umana che si alza spontaneamente con normali caratteristiche cariologiche che ha proprietà strutturali e funzionali caratteristiche delle cellule RPE in vivo . 55 tBHP è stato usato come ossidante, causando stress ossidativo nelle cellule inducendo i radicali liberi, diminuendo il GSH e promuovendo la perossidazione lipidica, 56-58 tutti ritenuti essenziali nella patogenesi delle degenerazioni retiniche, inclusa la AMD. 6 tBHP innesca la morte delle cellule RPE per induzione della cascata di segnalazione apoptotica attraverso un grave stress ossidativo. 59tBHP ha aumentato il ROS in modo dose-dipendente, portando a grave stress ossidativo e, infine, alla morte cellulare nelle cellule ARPE-19. Il NACA non era tossico per le cellule RPE anche ad alte concentrazioni. La preincubazione del NACA ha impedito fermamente la morte cellulare indotta dallo stress ossidativo ARPE-19 a causa della tBHP. Non sono state rilevate differenze significative tra le cellule preincubate di NACA esposte a tBHP e quelle esposte solo ai media durante l'esperimento, una scoperta senza precedenti negli esperimenti di salvataggio di cellule antiossidanti ARPE-19. Per stabilire ulteriormente la capacità del NACA di proteggere la salute dell'RPE dallo stress ossidativo, l'integrità cellulare dopo l'esposizione a tBHP è stata misurata usando TEER. TEER fornisce una misurazione del movimento degli ioni attraverso il percorso paracellulare. La valutazione TEER ha dimostrato di essere un modello di successo nel prevedere in che modo il danno da stress ossidativo di un monostrato influisce sulla presenza e stabilità di giunzioni strette e funzione di barriera e su come particolari composti sono in grado di prevenire questo danno. 60 Una funzione vitale dell'RPE in vivoè la formazione della barriera emato-retinica esterna, essenziale per la salute della retina. Un declino dell'omeostasi cellulare monostrato RPE e l'integrità della giunzione stretta mettono a rischio l'RPE e portano a compromissione della barriera. Questo espone la retina a entità dannose e può causare degenerazione e danni alla retina e diventare un nidus per la neovascolarizzazione. Il NACA ha impedito una riduzione indotta dalla tBHP del TEER, verificando la sua capacità di proteggere l'omeostasi cellulare e l'integrità della barriera emato-retinica esterna in condizioni di stress ossidativo grave. Nelle cellule RPE, si verificano danni alle molecole nei POS a seguito di reazioni a catena dei radicali liberi iniziate dall'ossigeno o dal metabolismo della luce. Gli enzimi lisosomiali nell'RPE non riescono a digerire i POS modificati perossidazione lipidica, prevenendo il degrado molecolare. 61 Il risultato è un accumulo di lipofuscina nell'RPE che riduce lo spazio citoplasmatico e il volume cellulare disponibile per gli organelli, riducendo ulteriormente il potenziale cellulare di fagocitosi POS aggiuntivi. Ogni cellula RPE deve continuare ad assorbire i POS esauriti per tutta la vita, con corpi residui non digeriti aggiunti a una riserva di lipofuscina in crescita esponenziale. 62 L' accumulo di lipofuscina è una caratteristica dell'invecchiamento delle cellule RPE postmitotiche metabolicamente attive e induce la loro degenerazione. 63-65La deposizione di lipofuscina in eccesso e dei suoi lipidi perossidati nella membrana di Bruch circostante si manifesta come drusen, una classica scoperta clinica precoce nella AMD. 66 Il NACA ha impedito la propagazione dei ROS e la perossidazione lipidica completamente invertita misurata dall'MDA, un biomarcatore che misura il livello di stress ossidativo in una cellula a causa della perossidazione lipidica. 67 Questi risultati sono ancora più critici alla luce della recente letteratura che dimostra un aumento significativo dei livelli di MDA nel plasma umano e negli eritrociti in pazienti con AMD che sono direttamente correlati con la gravità della malattia. 50 L'accumulo di granuli di lipofuscina carichi di ROS, combinato con un'elevata tensione di ossigeno locale, un alto contenuto di lipidi polinsaturi, un'esposizione alla luce focalizzata e agenti fotosensibilizzanti secondari che si accumulano con l'invecchiamento, crea un grave ambiente di stress ossidativo per l'RPE. Ciò porta a una significativa riduzione dei livelli di GSH, il tampone antiossidante e redox più critico delle cellule. 68,69 Il declino del GSH osservato con stress ossidativo crea uno squilibrio redox che aumenta la suscettibilità cellulare alle lesioni e all'apoptosi indotta da ROS. È stato dimostrato che modificare lo stato redox a un livello più ridotto aggiungendo GSH riduce la sensibilità delle cellule RPE all'apoptosi da ROS. 70Il NACA ha impedito lo stress ossidativo e il danno cellulare nelle cellule RPE aumentando i livelli di GSH cellulare e inducendo l'enzima di disintossicazione di fase II GPx critico, un selenoenzima che riduce ciascuna molecola di perossido a due acque e accoppia ossidativamente due molecole di GSH. È stato dimostrato che il NACA riduce l'apoptosi inibendo la via della proteina chinasi p38 attivata dal mitogeno / inducibile ossido sintasi sintasi, che probabilmente porta all'induzione del fattore nucleare correlato all'eritroide 2. 71 L' attivazione del fattore correlato all'eritroide 2 indotta dal fattore nucleare NACA produrrebbe un aumento del GSH e l'induzione finale del ciclo catalitico GPx, come dimostrato nei risultati. 72 Questo è vitale alla luce delle prove che utilizzano in vivoi modelli di degenerazione della retina indotta da danno ossidativo che aumentano in modo indipendente l'espressione di GPx forniscono una potente protezione della struttura e della funzione della retina. 73 Prove umane dimostrano inoltre che l'attività della GPx è significativamente più bassa nei globuli rossi e nel plasma dei pazienti con maculopatia AMD rispetto ai soggetti di controllo. 50 La protezione dell'RPE dal danno ossidativo è fondamentale nel trattamento della degenerazione della retina, ma l'obiettivo finale è la conservazione dei fotorecettori della retina. Una caratteristica condivisa tra RPE e danni alle cellule dei fotorecettori nonché l'apoptosi sembra essere la produzione di ROS indotta dalla luce, generata dal candeggio con rodopsina o da composti tossici, come A2E. 74 fotorecettori hanno dimostrato una significativa vulnerabilità alla morte durante l'invecchiamento, probabilmente correlata a questa produzione di ROS e al conseguente stress ossidativo. 75–77 Il modello murino di tossicità indotta dalla luce 129 / SvlmJ della degenerazione retinica ha permesso di studiare il potenziale per NACA di rallentare la degenerazione dei fotorecettori e di salvare il potenziale visivo in vivo. Il NACA ha dimostrato la capacità di prevenire il danno ossidativo e rallentare la morte cellulare dei fotorecettori misurata dalla densità cellulare ONL e dall'integrità cellulare RPE. Sebbene l'analisi istologica sia generalmente limitata a piccole regioni della retina, ERG può misurare una risposta retinica completa delle cellule sopravvissute. Il NACA ha dimostrato la conservazione del potenziale visivo e della funzione dei fotorecettori nel topo 129 / SvlmJ misurata da un'onda a scotopica, un'onda b scotopica e un ERG fotopico a onda b. Inoltre, non vi era alcuna differenza nelle forme d'onda ERG rispetto ai topi non esposti alla luce e ai topi esposti alla luce pretrattati con NACA. I risultati, quindi, dimostrano che il NACA può prevenire la degenerazione dei fotorecettori e la perdita del potenziale visivo in vivo . Complessivamente, NACA mostra una notevole protezione di RPE e fotorecettori contro il danno e la morte delle cellule ossidative, in vitro e in vivo . Insieme alle notevoli prove a sostegno del ruolo dello stress ossidativo nella patogenesi di molteplici processi significativi di patologie della retina accecanti, tra cui AMD, e le proprietà chimiche e la biodisponibilità superiori del NACA, questo composto può essere un agente critico nel ritardo o nella prevenzione delle malattie degenerative della retina . Con la prevalenza di AMD e altre degenerazioni della retina che dovrebbero raddoppiare nei prossimi decenni, la necessità di una terapia più efficace per prevenire la sua progressione è indispensabile. Sono necessari ulteriori lavori per trovare un regime ottimizzato di dosaggio del NACA e chiarire ulteriori meccanismi attraverso i quali il NACA può agire per prevenire lo stress ossidativo e la morte cellulare nell'RPE e nei fotorecettori. Poiché NACA ha avuto successo come farmaco orale in precedenti studi sui topi, il potenziale per un farmaco orale prontamente disponibile per prevenire o addirittura rallentare la progressione dell'AMD è promettente.
  12. LA PARTICELLA MANCANTE La Particella Mancante è il titolo di un famoso libro di Joao Magueijo docente di Teoria della Relatività Generale all’Imperial College di Londra. Il famoso fisico, che è uno dei più noti insegnanti di Fisica Quantistica con questo libro ne approfitta per fare la storia di Ettore Majorana. Ettore Majorana , come ben sapete è stato uno dei più grandi fisici che siano mai esistiti. Scomparso misteriosamente nel 1938, alcuni dicono che si sia imbarcato per l’Argentina, altri che si sia suicidato, altri ancora che si sia fatto frate e sia entrato in un convento di clausura. Quest’ultima ipotesi è la più probabile, visto il tenore delle sue ultime lettere. I fratelli sospettando questo lo hanno cercato presso numerosi conventi, ed in un convento si sarebbero sentiti rispondere dal priore “Ma perché vi preoccupate tanto quando lui stà bene.” Come facesse il priore a sapere che stava bene non lo si sa ma lo si intuisce, se avesse sospettato che si fosse suicidato non avrebbe certo detto una frase del genere e neppure avrebbe potuto saperlo se si fosse imbarcato per l’Argentina, pertanto, forse per volere dello stesso Ettore, non l’ha mostrato ai fratelli, facendosi monaco di clausura ha pure cambiato nome e sulla tomba è rimasto un nome diverso. Del resto del suo ingresso in monastero poteva saperlo solo il priore che per volere dello stesso Ettore non l’ha rivelato mai. Forse Ettore si è ritirato dal mondo perché non voleva partecipare alla creazione della bomba atomica (è una delle ipotesi) , aveva intuito già prima l’enorme portata in senso negativo di una simile scoperta per l’umanità ed ha preferito ritirarsi, un po come uno dei piloti che ha sganciato la bomba atomica su Hiroshima, dopo averla sganciata si è fatto frate. Ettore Majorana aveva una mente straordinaria tanto che lo stesso Enrico Fermi aveva un complesso di inferiorità nei suoi confronti: le equazioni matematiche che Fermi doveva fare alla lavagna per arrivare al risultato dopo lunghi passaggi Majorana le faceva mentalmente in poco tempo. Ettore Majorana ha aderito alla fisica quantistica, ma se ne è discostato per molti aspetti. Il primo intervento scientifico noto di Ettore risale al 1928, quando aveva 22 anni soltanto. Fu una comunicazione della Società Fisica Italiana in cui correggeva il modello Thomas-Fermi, un modello per abbordare il problema degli elettroni multipli in un atomo sostituendoli con nubi elettroniche. Fermi dissentiva in maniera decisa, il che non gli impedì di pubblicare lo stesso lavoro sei anni più tardi in collaborazione con Amaldi, senza riconoscere alcun credito ad Ettore. Nel periodo in cui si dedicò alla fisica atomica, Ettore pubblicò una mezza dozzina di articoli scientifici, tutti firmati da lui. Di questo il più conosciuto riguarda la scoperta del modo in cui la luce spettrale, si modifica quando gli atomi sono immersi in un campo magnetico oscillante. Il risultato è l’effetto Majorana- Brossel ed esprime la tecnica matematica per risolvere il problema delle particelle dotate di spin. E’ da osservare che già in questa formula, Majorana si discosta dalla quantistica perchè la modificazione della luce spettrale in un campo oscillante è del tutto indipendente dall’osservatore. Un po come ha dimostrato Afshar che la propagazione della luce è indipendente dall’osservatore, così pure Majorana nell’effetto Majorana- Brossel fa cadere l’interpretazione magica di Copenaghen dei molti mondi, uno dei pilastri della Quantistica, e come per Afshar il gatto non esce più dalla scatola mezzo vivo o mezzo morto, ma vivo o morto. Cadiamo nel sistema causale e non casuale, ed abbiamo visto che tale sistema è proprio dei sistemi infiniti, ed anche l’atomo è un sistema infinito (questo perché è condizionato da tutti i sistemi maggiori che tendono all’infinito). Una degli scontri maggiori che ha avuto Majorana è stato quello con Dirac. Dirac concepiva la realtà come formata di particelle ed antiparticelle, ma quando Ettore venne a conoscenza della teoria di Dirac disse che non c’erano prove dell’esistenza del positrone e dell’antipositrone. Ad ettore questa teoria proprio non piaceva, a suo giudizio era ciarpame: energie negative, particelle che non esistevano e quant’altro, la sua reazione lo portò a formulare una teoria diversa, senza particelle ed antiparticelle, la teoria del Neutrino di Majorana; tale neutrino è un neutrino elettronico che ha un minimo di massa, una massa addirittura 1000 volte inferiore a quella di un elettrone, ma già sufficiente per mettere in crisi la relatività di Einstein, poiché il neutrino viaggia quasi alla velocità della luce però mantiene la sua massa costante, ciò che non è previsto dalla teoria ristretta della relatività. Osservazioni successive hanno messo in evidenza come il sole emetta 1/3 di neutrini rispetto a quelli che dovrebbe emettere secondo i calcoli, ma per spiegare il perché ci ha pensato Bruno Pontecorvo, rigidamente quantistico, dicendo che il neutrino viaggiando perde la sua massa, da neutrino elettronico, passa a neutrino muonico, a neutrino tauonico, per poi riacquistare nuovamente la massa e ridiventare neutrino elettronico. Pontecorvo ha detto che il neutrino viaggiando cambia il suo “sapore”, diventa, prima dolce, poi amaro, poi salato (elettronico). E questa è la Meccanica Quantistica. Dice alla fine del testo Joao Magueijo: “”come la storia del neutrino la storia di Ettore è altrettanto elusiva. Anche se scoprissimo con certezza ciò che egli fece, non sapremmo mai perché lo fece, che è una cosa di gran lunga più importante. Questa mancanza di una verità ultima non deve rattristarci: almeno ci impedisce di nutrire deliri di onniscienza. Aver accesso ad ogni conoscenza non risolverebbe i nostri problemi, ma ne creerebbe soltanto di nuovi, a conferma che l’onniscienza è solo un miraggio. Se la massa del neutrino di Majorana ci porta a ritrattare tutte le dinamiche che avvengono all’interno del sole, a meno che non si ricorra all’ipotesi che il neutrino nel suo viaggio cambia di gusto e di massa, ipotesi ancora da dimostrare, altrettanto giustamente si può dire che il sole non è malato, sono solo le nostre ipotesi che non sono dimostrate. Dal nucleo del sole fuoriesce un vigoroso flusso di neutrini, ma il loro numero, o è 1/3 di quello che pensiamo o alcuni di essi oscillano in un'altra realtà.. Per lo studio dei neutrini si sono fatti sforzi giganteschi e si è visto che con opportuni mezzi alcuni si fermano e la loro velocità è prossima a quella della luce. Questo ci potrebbe far ritrattare che i neutrini non sono fermati neppure da 1 km^2 di piombo, ma da molto meno, forse i calcoli che abbiamo fatto finora sono completamente sbagliati. In uno di questi giganteschi studi denominato NEMO si utilizzava come bersaglio 1 km^3 di acqua del Mediterraneo, al largo delle coste orientali della Sicilia, a due chilometri di profondità. La purezza di quest’acqua, come quella dei ghiacciai dell’Antartico la rende una pellicola ideale per catturare l’immagine dei neutrini. C’è una grande pace laggiù , se si ignora la bioluminescenza dovuta all’occasionale passaggio di qualche pesce degli abissi. Mentre gli apparecchi rivelatori venivano calati in quelle profondità faustiane, gli scienziati furono sorpresi da una cacafonia di clic ultrasonici che non potevano essere assolutamente provocati dai neutrini data l’intensità ed il numero. Si trattava dell’inafferrabile materia oscura?? Oppure di qualcosa di ancora più inquietante del neutrino di Majorana? Vennero proposte diverse teorie fisiche bislacche prima che qualcuno avesse finalmente il buonsenso di consultare i biologi marini. Si scoprì così che quei clic ultrasonici erano i caratteristici segnali di accoppiamento dei capodogli, una specie a rischio di estinzione che si riteneva ormai scomparsa nel mediterraneo. In realtà, questi mastodontici mammiferi erano rimasti li per tutti questi anni, nascosti nelle profondità degli abissi, disgustati dalla vita in superfice. I capodogli lanciano stridii in un linguaggio alieno di pace conosciuto soltanto da loro, facendo strada agli scienziati che installarono gli apparecchi rivelatori che un giorno potrebbero dimostrare la teoria di Ettore. Ma a qualche studioso sorse il dubbio: che quei clic siano proprio tutti causati dai capodogli che si accoppiano?? Sembra un po strano in effetti perché i clic continuano ed i capodogli, assai rari, non è che continuino ad accoppiarsi. I clic continuano con la stessa identica intensità. Se fossero causati dai neutrini bisognerebbe riformulare tutta la teoria sui neutrini e sulla loro massa. Perlomeno quei clic ci dicono che sappiamo ancora assai poco della realtà. Un po di teorie non ancora dimostrate che forse vanno completamente riviste. Sono contento di vivere nell’ignoranza, fintantochè teorie meglio dimostrate ci permetteranno di raggiungere la verità; sono i barlumi delle risposte temporanee che ci spronano ad andare avanti, creando tensione e vita.
  13. Corpo ed occhi di un altro piccolissimo insetto:
  14. I NEUTRINI E LE SCOPERTE DI BRUNO PONTECORVO http://www.scienzainrete.it/italia150/bruno-pontecorvo In uno studio del 1959, culminato in una pubblicazione intitolata Neutrini elettronici e muonici, Bruno è il primo a ipotizzare e a dimostrare, per via teorica, che esistono diversi tipi di neutrini, associati ai leptoni carichi (elettroni e muoni, non era ancora conosciuta la particella tau) le cui differenti proprietà sono rilevabili. Questo lavoro è particolarmente importante perché, secondo lo stesso Pontecorvo, «segna l'inizio della fisica dei neutrini ad alta energia». L'Urss non dispone dell'acceleratore adatto per provare l'ipotesi di Pontecorvo. Però pochi anni dopo, all'inizio degli anni '60, tre fisici americani – Leon Ledermann, Melvin Schwartz e Jack Steinberger – dimostreranno che Pontecorvo aveva ragione. I tre ottengono il Nobel. A molti sembra strano che il premio non sia conferito anche al fisico teorico che ha effettuato la previsione. 2. I neutrini solari Pontecorvo, sia come fisico teorico che come fisico sperimentale, ha partecipato a tutte le tappe (e spesso le ha anticipate) del problema noto come «enigma dei neutrini solari». Ha messo a punto i sistemi di rilevamento con cui i neutrini solari sono stati rilevati. Ha fornito una spiegazione, oggi la più accettata, per il deficit di neutrini solari che si riscontra tra le previsioni teoriche e i rilevamenti. 3. Le «oscillazioni» dei neutrini Tra il 1957 e il 1967, infine, Pontecorvo elabora la teoria, forse, più affascinante, quella del mescolamento leptonico. Dalla teoria consegue che, per un fenomeno di interferenza, i diversi tipi di neutrini possano «oscillare», cioè trasformarsi gli uni negli altri. Se i neutrini oscillano, sostiene Pontecorvo, devono avere anche una massa, sia pure piccolissima. IL PARADOSSO DEI GEMELLI(CLAUDIO SAURO) Io penso che voi tutti abbiate sentito parlare del “paradosso dei gemelli”, dove un gemello resta sulla terra ed un gemello viaggia su un razzo che accelera fino quasi alla velocità della luce e voi tutti saprete che secondo la relatività ristretta di Einstein il gemello che è sulla terra invecchia mentre il gemello che viaggia a velocità prossima a quella della luce resta giovane, cioè per lui il tempo scorre in modo infinitamente più lento rispetto all’altro gemello che è sulla terra. Per questo il gemello che andasse con il razzo poniamo su Proxima Centauri , per lui il tempo di raggiungere la stella sarebbe minimo e così pure il tempo per ritornare, solo che ritornando sulla terra troverebbe l’altro gemello molto invecchiato perché per lui sarebbero passati come minimo otto anni fra l’andata ed il ritorno. Ora io in precedenza avevo posto una frase provocatoria “per me il tempo dei gemelli scorre nello stesso modo perché secondo me non possiamo arbitrariamente assumere la terra come unico sistema di riferimento visto che può essere un sistema di riferimento altrettanto valido anche il razzo per cui non possiamo arbitrariamente assumere ai due sistemi (terra e razzo) un valore assoluto. Ora avevo riportato anche un passo del Todeschini per il quale l’unico sistema di riferimento è lo spazio al quale il Todeschini attribuisce una densità minima (etere) Ora è intervenuto un mio amico che mi ha detto che quella dell’etere è una solenne cavolata e mi ha dimostrato che in questo caso è la terra da prendere come sistema di riferimento perché è il razzo accelerando che rompe la simmetria rispetto alla terra. Effettivamente è un obbiezione valida, ma ora ragioniamo per assurdo e poniamo che il razzo non acceleri ma viaggi già alla velocità della luce e il gemello riesca con un balzo a saltarci sopra, in questo caso qual è il sistema di riferimento?? Ma a parte questo io volevo porre un'altra obbiezione: indipendentemente dall’etere, anche se consideriamo lo spazio vuoto, questo resta comunque un insieme di forze, cioè anche per la fisica quantistica lo spazio vuoto è un pieno di forze. Basti solo considerare la forza di gravità che varia continuamente appena ci allontaniamo dalla terra; cioè le forze che ci sono qui dove scrivo non sono le stesse che ci sono 100 km sopra la mia testa, e così pure variano continuamente a 1000 km, a 10000 km e così via. E per quale motivo non possiamo prendere lo spazio, visto che è un pieno di forze che variano continuamente come sistema di riferimento?? Forse perché queste forze variano continuamente?? Non è un buon motivo, perché anche se le forze variano continuamente lo spazio resta comunque una realtà. Anche la terra a causa del pulviscolo cosmico che cade continuamente varia continuamente la sua gravità anche se in maniera infinitesimale. Però basta quell’infinitesimale per mettere in crisi tutta la faccenda. Oltretutto anche per la Fisica Quantistica lo spazio vuoto non è vuoto, ma è un pieno di forze che possono variare da un punto ad un altro, pertanto anche per la Quantistica lo spazio vuoto proprio non esiste. PARADOSSI IN ALGEBRA (DI CLAUDIO SAURO) Paradossi in algebra, dai che ci divertiamo....... Allora prendiamo un cubo che è la struttura più semplice che esista. Poniamo di prendere un cubo che ha un metro di lato ed avremo esattamente 1 m^3 ma la superfice sarà di 6 m^2 Sup.= 6 m^2 Vol = 1^3 Rapporto Sup/Vol = 6 Ci aspetteremmo di trovare questo rapporto sempre invece succede un paradosso. Si intende che io considero solo il valore numerico e non considero che si tratta di m^2 e di m^3. Ma anche il rapporto nell'ambito del solo valore numerico dovrebbe rimanere costante. Ma invece no, prendiamo un cubo che ha due metri di lato, questo avrà Sup= 24 m^2 Vol= 8 m^3 Il rapporto Sup /Vol è di 3 Ma prendiamo un cubo che ha un lato di 4 metri, avremo: Sup = 96 m ^2 Vol=64 m^3 Il rapporto Sup/Vol è di 1,5 Ora prendiamo un cubo di 8 metri di lato: Sup = 384 m^2 Vol = 512 m^3 Il rapporto Sup/Vol è di 0,75 Ora prendiamo un cubo di 16 metri di lato: Sup = 1536 m^2 Vol = 4096 m^3 Il rapporto Sup/Vol = 0,375 Ora facciamo un salto in avanti, consideriamo un Km^3, questo avrà mille metri di lato Avremo: Sup : 6 milioni m ^2 Vol = 1 miliardo di m^3 In questo caso il rapporto Sup/Vol sempre tenendo in considerazione solo l'aspetto numerico è 0,006 Cosa ne possiamo dedurre: quanto più è grande il cubo il rapporto Sup/Vol tenderà allo zero. Ma perchè????, vorrei che un matematico me lo spiegasse. Chiaramente non utilizzando l'unità ma dei sottomultipli dell'unità andiamo incontro a questo risultato. Perchè sono io che ho stabilito convenzionalmente che il metro è l'unità di misura. Se io considerassi il Km come unità di misura, avremmo un Km^3 con lo stesso rapporto numerico che avevamo per il metro e cioè Sup = 6 Km ^2 Vol= 1 Km^3 Rapporto Sup/Vol = 6 Siamo passati dallo 0,006 considerando il metro al 6 considerando il Km Ovviamente avremmo gli stessi risultati con il Km se lo prendiamo come unità di misura e consideriamo un cubo di 2 Km di lato e cos' via.... VI PRESENTO IL BOSONO DI HIGGS (PIER) Vi presento il bosone di Higgs 03/07/2012 - Dal nulla alla materia. Dal vuoto alla massa. A colloquio con l'esperto Giuseppe Ballone per capire qualcosa in più della particella di Dio. All'alba di uno degli annunci più importanti della fisica moderna. Anche se, secondo Nature... di Tommaso Caldarelli C’era una volta il nulla. Il nulla, però, è diventato qualcosa. Da dove saltò fuori questo nulla, questa energia primordiale, ci spiegano, non si sa: ed difficile che si potrà mai sapere. Come si sia trasformata, da nulla in tutto, invece, potremmo essere vicini a saperlo. Parliamo di come funziona il nostro mondo, come funzionò quando era importante che funzionasse, per creare la materia, l’universo esistente, quello che vediamo, che viviamo. Che indaghiamo e cerchiamo di capire: la curiosità dell’essere umano, infinita, scruta il mondo e tenta di comprenderlo, imbrigliarlo. E l’uomo sta per annunciare, pare, di aver capito come l’universo sia diventato proprio come lo conosciamo. LA MATERIA - Dove per “come” si intende essenzialmente “in che modo”. Quale è stato il meccanismo, il sistema, che ha condotto all’emersione della materia che ci circonda, che osserviamo e tocchiamo, usiamo e trasformiamo tutti i giorni. VORTICI E NEUTRINI (CLAUDIO) E’ incredibile quello che ci riservano i neutrini: Citazione : Chi l’avrebbe detto che grazie allo studio di particelle provenienti dallo spazio si possono scoprire fenomeni che avvengono negli abissi! Eppure è proprio così grazie a un progetto di ricerca sui neutrini dell’Istituto Nazionale di Fisica Nucleare (INFN) è stato possibile osservare per la prima volta nel Mediterraneo la presenza di catene di vortici marini alla profondità di oltre 3000 metri. Si tratta di grandi strutture d’acqua del diametro di circa10 chilometri, lentamente in moto alla velocità di circa3 centimetrial secondo. L’articolo che descrive questa scoperta dal titolo Abyssal undular vortices in the Eastern Mediterranean basin è stato pubblicato il 15 maggio sul giornale scientifico online Nature Communications e firmato tra gli altri da ricercatori delle sezioni INFN di Roma1 e Catania e dei Laboratori Nazionali del Sud dell’INFN. Questa scoperta è stata fatta grazie alle misure oceanografiche svolte nell’ambito dell’esperimento NEMO (Neutrino Mediterranean Observatory), un progetto dell’INFN che prevede la realizzazione di un apparato strumentale per la rivelazione su fondali oceanici del passaggio di neutrini di alta energia provenienti dallo spazio profondo. Per lo studio del sito più opportuno per la realizzazione di questo apparato, l’esperimento NEMO ha posto a3500 metri di profondità, nel mar Ionio, una serie di strumenti per la misura delle correnti e della temperatura, raccogliendo lunghe serie temporali annuali di dati. L’analisi di questi dati, svolta da Angelo Rubino, oceanografo dell’Università Ca’ Foscari di Venezia, e dai suoi collaboratori ha messo in luce la presenza di catene di vortici marini profondi che la comunità oceanografica non si attendeva in un bacino chiuso come il Mediterraneo. Di questi vortici va chiarita l’origine. Potrebbe essere locale ma gli autori della ricerca non escludono un’origine remota legata a processi di instabilità fluidodinamica nelle acque del Mar Adriatico e/o del Mar Egeo: questi processi darebbero luogo a strutture rotanti e lentiformi in grado di percorrere centinaia di chilometri senza perdere le loro caratteristiche dinamiche e idrografiche. Simulazioni numeriche, risultati teorici e precedenti misure su diversi siti sembrano confermare queste conclusioni, quindi i vortici osservati avrebbero un ruolo di particolare interesse nell’ambito delle variabilità climatiche del Mar Mediterraneo. Cinque anni fa l’esperimento NEMO, con un apparato acustico posto a2000 metri di profondità davanti a Catania, aveva rivelato una presenza altrettanto inaspettata, per quantità di soggetti, di cetacei e in particolare di capodogli in quella zona di mare. Staremo a vedere cos’altro i neutrini saranno in grado di far scoprire nei nostri mari Il punto è, che se i neutrini generano vortici nell’acqua (anche se potrebbero essere solo spettatori ed utili per le misurazioni come dice l'articolo)), perché non dovrebbero farlo anche nello spazio. Nello spazio più che di vortici dovremmo parlare di spirali; ovviamente è un assurdo perchè i neutrini non generano nessun vortice, almeno che si sappia. Ed in effetti questo spiegherebbe perché la maggior parte delle galassie si dispone in spirali, ma questo certamente non per opera dei neutrini. In fondo anche i sistemi planetari sono delle spirali, e nel modello più semplice dell’atomo, anche il sistema atomico è una spirale sia pure con delle palesi distinzioni (orbitale, funzione d’onda), nascono dal fatto che il sistema è potenzialmente infinito anche nel subatomico. Quello che mi stupisce è che siano riusciti ad imbrigliarli sul fondale oceanico visto che hanno difficoltà ad imbrigliarli con mezzi ciclopici, sotto il Gran Sasso P.S questi processi darebbero luogo a strutture rotanti e lentiformi in grado di percorrere centinaia di chilometri senza perdere le loro caratteristiche dinamiche e idrografiche (c'è qualche analogia con le galassie) E' incredibile come nell'astronomico come nel subatomico queste strutture si ripetano continuamente. Così pure per i tornado la cui struttura resta costante per centinaia di km anche quando le correnti calde e fredde sono cessate, per il perseverare della struttura restano ancora delle ipotesi neppure ben consolidate. Anche per le correnti elettriche negli oceani si sono invocati i neutrini, perchè si sa per certo che possono incidere sull'elettrone, e se non incidonono loro incidono per certo i neutralini freddi (recentemente scoperti sotto il Gran Sasso) i quali restano imbrigliati nella struttura atomica modificandone con il tempo le caratteristiche. (Carlo Rubbia) I neutrini, secondo le recenti teorie hanno massa variabile, da quella di un elettrone a quella di un milionesimo di elettrone. Vista la loro densità per centimetro cubo, non potrebbero essere loro quel famoso etere che era stato gettato dalla finestra ed ora rientra dalla porta. Teorie portate avanti da fisici famosi, quali Roberto Monti, che sull'etere ha scritto anche un libro. Anzi ne porrò fra poco la sintesi; eccola: http://www.cartesio-episteme.net/trr.html SCIENZA, UN ANNO DI SCOPERTE (PIER) Neutrino e bosone in poleCon Televideo in viaggio tra laicità e religiosità di Emanuela Gialli “Sono trascorsi quindici miliardi di anni - uno più uno meno, poco importa- dal Big Bang, la grande esplosione che produsse la materia e l’energia nella forma che ci è nota, la stoffa di cui è fatto l’universo. In questi quindici miliardi di anni, una parte della materia si è trasformata nella vita, ha preso coscienza, e da oltre un milione di anni ha assunto il nome di ‘genere umano’ sul nostro pianeta. Come escludere che ciò sia accaduto anche su altri mondi, con nomi e con forme diverse?”. E’ questo che si legge sulla seconda di copertina del libro “Cosmo”, di Carl Sagan, pubblicato nel 1981 da Mondadori. Sagan è stato Direttore del laboratorio di Studi Planetari e titolare della cattedra di Astronomia e Scienze spaziali alla Cornell University, Ithaca, di New York. Astronomo e divulgatore scientifico. E’ morto nel 1996. Il suo libro è fantastico, ma non fantascientifico. Vi si trovano citazioni dei Maya, dei Sumeri. E poi riferimenti a principi universali tratti dalla Bibbia, o filosofici, come quelli estrapolati dai “Pensieri” di Blaise Pascal. Oltre quindici miliardi di anni dal Big Bang. Su queste colonne si è parlato del Big Bang, ora come simbolo, ora come evento scientifico e tecnico da analizzare. Marzo, Laboratori del Gran Sasso, L’Aquila. Il Premio Nobel per la Fisica, Carlo Rubbia, si sofferma con i giornalisti sulla notizia del momento: lo tsunami in Giappone, conseguente al sisma dell’11 marzo, che ha danneggiato i reattori della centrale di Fukushima. “Quello che è accaduto in Giappone, avrà conseguenze enormi per il futuro”, dice Rubbia a Televideo. Il nucleare va spazzato via? Io non ho detto questo. Sarebbe troppo facile sostenerlo. Occorre invece una riflessione profonda sui motivi che hanno portato alla drammatica situazione in Giappone. Ma si potrebbe cominciare a pensare anche al torio? Le posso dire quali sono i numeri. Per sviluppare mille Megawatt di occorrono ogni anno 200 ton di uranio naturale, per un reattore nucleare, oppure 3,5 milioni di carbone, mentre sarebbe sufficiente una ton di torio, l’anno. Sul piano della sicurezza? Con il torio non si parlerebbe più di bomba atomica, di Chernobyl, nè di scorie. Il reattore al torio non ha il problema delle fughe radioattive, perché il reattore è controllato da un fascio di particelle. Si spegne il fascio, si ferma il reattore. Si trova facilmente in natura? E' molto più abbondante dell'uranio. E' reperibile tanto quanto il piombo. Le riserve di torio conosciute in Cina sono sufficienti per 20 mila anni di produzione di elettricità alla potenza totale di oggi. In India, basterebbero per 30 mila anni. E dico un'altra cosa: l'Italia è ricca di torio, soprattutto nella zona degli Appennini, in Umbria e anche qui, in Abruzzo. Ma Rubbia a marzo si trovava al Gran Sasso anche per presentare il suo progetto “Icarus”, inaugurato nel maggio del 2010, che studia il Big-Bang, perché è un “cacciatore di materia oscura”. "La materia oscura è la cosa più straordinaria ancora da capire, e' una parte della materia che ci attraversa, che ci domina e che noi non conosciamo", ha spiegato ancora Rubbia a Televideo. Nel romanzo di Dan Brown, “Angeli e Demoni” ,una ricercatrice gira con un’ampolla di antimateria, per distruggere l’universo. Pura immaginazione? A novembre del 2010, 38 atomi di antidrogeno furono catturati al Cern di Ginevra per decimi di secondo. Nel maggio scorso, i ricercatori del Rhic, Relativistic Heavy Ion Collider, l’acceleratore di particelle che si trova nei laboratori nazionali di Brookhaven, a Long Island, sotto la direzione del Dipartimento dell’Energia degli Stati Uniti, hanno fissato un nucleo di anti-elio 4, chiamato particella Alfa. Lucia Votano, direttore del Laboratorio del Gran Sasso, con l’occasione ha risposto alle domande di Televideo. Ci tolga un peso, dottoressa Votano. L’antimateria è veramente così prevalente e distruttiva, come racconta Dan Brown? Voi scienziati avete sempre detto che il “Big Bang” ha sprigionato una quantità enorme di materia e di antimateria, ma che ha vinto la prima, altrimenti l’Universo non ci sarebbe mai stato. L’anti-materia è la materia con carica opposta, guardata allo specchio. Quando si incontrano si “annichilano” (da “annihilation”, termine inglese), si annullano trasformandosi in energia. Più esattamente, dopo il Big Bang, a causa della piccola dissimmetria creatasi tra materia e antimateria ha prevalso la prima. Quindi si è annichilita l’antimateria. E l’hanno intrappolata al Cern? L’antimateria esiste da sempre, per esempio si trova nei raggi cosmici nell’atmosfera. E’ stata teorizzata alla fine degli anni venti del secolo scorso. E la prima particella trovata è stata quella del positrone. Basti pensare alla Pet (Esame diagnostico oncologico, ndr), la Positron Emission Tomography, che utilizza il positrone, l’antiparticella dell’elettrone. Occorre spiegare che quello che sono riusciti a catturare è l’antidrogeno, cioè un atomo completo. Un atomo di idrogeno normale è fatto da un protone e da un elettrone che gli ruota intorno. L’antiatomo di idrogeno è composto dall’antiprotone e dal positrone, antiparticella dell’elettrone. Al Cern hanno intrappolato per circa un decimo di secondo 38 atomi di antidrogeno, facendo avvicinare l’antiprotone e il positrone, in modo da ricostituire l’antiatomo. Poi li hanno “confinati” per un tempo relativamente lungo, perché se fossero entrati in contatto con la materia ordinaria si sarebbero “annichiliti” subito. Per il matematico Piergiorgio Odifreddi , quello del Cern è sicuramente “un ottimo risultato, ma non stupefacente per la scienza”. Anche lei la pensa così? E’ importante dal punto di vista tecnico e tecnologico e della capacita’ di realizzazione di campi magnetici speciali per intrappolare gli antiatomi. E’ dunque propedeutico, rispetto a eventuali scoperte future. Perché lo scopo ultimo della ricerca è comunque ancora una volta quello di capire sottili differenze tra l’antiatomo e l’atomo e di riflesso la dissimmetria tra materia e antimateria del “dopo Big Bang” e arrivare a spiegare perché l’Universo è fatto solo di materia. E anche cosa ha scatenato il “Big Bang”? Bella domanda questa, ancora nessuno lo sa. Diciamo che nell’”istante zero” c’era solo energia pura, poi perché l’energia stava lì, proprio non lo sappiamo. Tornando all’antimateria intrappolata dal Cern, non credo che nessuno prenderà mai il premio Nobel per questo risultato, mentre per l’antineutrino sì, perché sarebbe una scoperta di fisica fondamentale. Il direttore dei Laboratori di Fisica Nucleari del Gran Sasso aveva con questa frase preconizzato ciò che poi è avvenuto qualche mese più tardi, in estate, sotto il massiccio abruzzese: venne individuato il neutrino più veloce della luce. Si è gridato subito alla “rivoluzione”. Ma il responsabile del progetto, l’italiano Antonio Ereditato, dell’ Istituto Nazionale di Fisica Nucleare (INFN), che collabora con il Cern, da dove i neutrini, vengono inviati al Gran Sasso, ha voluto da subito mantenere un “low profile” e parlare soltanto di “misurazioni”, attendibili sì, ma tutte da verificare. Nei seminari organizzati nei giorni successivi all’annuncio, i ricercatori impegnati nel Progetto hanno spiegato in che modo fossero arrivati a un risultato così sorprendente. Tra algoritmi, equazioni algebriche, orologi atomici e Gps il dato emerso era uno e uno soltanto: il fascio di neutrini spediti dal Cern al Gran Sasso avevano coperto la distanza fra i due centri alla velocità di 300.006 chilometri al secondo, 6 chilometri oltre il limite teorico, cioè quello fissato dalla teoria di Einstein e applicabile, tra l’altro, esclusivamente alle particelle prive di massa. E invece i neutrini svizzero-italiani la massa ce l’hanno eccome, anche se infinitesimale. Una misura da verificare, dunque. Qualche giorno fa il primo test, sempre sotto le rocce dell’Appennino abruzzese e sempre nell’ambito del progetto-padre, “Opera”. Tutto confermato. Ma qualcuno non ci sta. Non un “qualcuno” qualsiasi, ma gruppi di scienziati della comunità internazionale che lavorano gomito a gomito, ogni giorno, sotto il Gran Sasso. Perché “Icarus” (Immaging cosmic and rare underground signals), ritornando a Rubbia, è un enorme rivelatore contenente 600 tonnellate di Argon liquido e esamina "eventi rari", tra questi le interazioni dei neutrini. Già a settembre si era sparsa la voce che alcuni studiosi dei 30 gruppi della collaborazione “Opera” non abbiano voluto firmare il documento ufficiale. “Dieci ricercatori del Cern hanno ritenuto legittimamente di non firmare il preprint dei risultati”, aveva allora spiegato Ereditato. Poi però le contestazioni sono arrivate da un altro esperimento in corso al Gran Sasso, “Icarus”, che si ricollega a teorie d’oltreoceano. Provenienti da Boston. Due fisici dell’Università, Andrew Cohen e il premio Nobel Sheldon Glashow, hanno sostenuto che se il neutrino superasse effettivamente la velocità della luce, dovrebbe perdere energia al punto da non riuscire a percorrere i 730 km tra il Cern e il Gran Sasso e dunque a non arrivare a destinazione. In base a quale legge dicono questo Mr. Cohen e Mr. Glashow? A spiegarlo a Televideo è stato Fernando Ferroni, presidente dell’INFN, fresco di nomina, subentrato a Roberto Petronzio. “Esiste un lavoro teorico di Glashow il quale dice che se una particella va più veloce della luce nella fisica che noi conosciamo questa particella deve perdere energia. Questo è in analogia con un fenomeno osservato in tutte le particelle che vanno più veloci della luce, cosa quest’ultima possibile non nel vuoto ma in un mezzo, come ad esempio nell’acqua. La luce per esempio nell’acqua non va alla sua velocità ma più piano, perché si deve dividere la velocità della luce per l’indice di rifrazione che nell’acqua è di “1,4”, quindi la luce nell’acqua va meno veloce del 40%. Però una particella di acqua può andare più veloce della luce, a questo punto perché non è limitata dall’indice di rifrazione ma è condizionata solo dal fatto che possa essere mandata più o meno veloce o sparata con l’acceleratore. In tal caso però attenzione: la particella perde energia, perché emette radiazione. Quindi alla fine di questo percorso nell’acqua la particella esce con un’energia minore rispetto a quella che aveva all’ingresso. E questo è l’”effetto Cerenkov”. Ma il neutrino di “Opera” si muove nel vuoto, no? “Però l’indice di rifrazione nel vuoto è di “1”, dunque ugualmente emetterebbe radiazione e di conseguenza, secondo Glashow, si deve indebolire e perdere energia. Cioè quando arrivano, i neutrini devono avere un’energia diversa, rispetto a quella di partenza”. Invece gli scienziati di “Icarus” affermano che i neutrini targati Italia-Svizzera giungono a destinazione in Abruzzo con la stessa energia. Ha spiegato Ferroni: “Allora, dice Glashow, i neutrini non sono più veloci della luce”. A questo punto come si esce da questo “cul de sac” scientifico? Ferroni è stato chiaro: “Io e molti altri colleghi pensiamo che se la particella va più veloce della luce, e nessuno sa ancora perché, non si possono usare teorie ‘normali’ per spiegarlo. Serve qualcosa di più importante. Non si possono invocare teorie che si applicano a particelle ‘normali’ per spiegare il comportamento di questa particella che sembra molto anormale”. Nulla da eccepire al riguardo. Di nuovo però la domanda: “Come se ne esce?”. Secondo Ferroni, “da un lato c’è un esperimento che deve fare solo misure, dall’altro il teorico che fa il suo mestiere. Ma non si può dire che siccome il teorico sostiene che non può succedere allora non succede. Questo non è previsto. Invece bisogna guardare ai nuovi test, sempre al Gran Sasso, ma soprattutto, e questa sarà la cosa che mi convincerà più di tutte essendo comunque anch’io scettico, è necessario attendere i risultati di esperimenti in altri posti e che siano completamente indipendenti. Cioè, che non usino lo stesso fascio di neutrini, non usino lo stesso Gps, etc.. Ne sono previsti due negli Stati Uniti e in Giappone e prima o poi sapremo”. Quando? Ferroni si è sbilanciato: “Entro il 2012”. E un pronostico quale potrebbe essere? Qui Ferroni è tornato ad essere prudente: “Mi gioco la tripla: 1X2”. Ma se i risultati venissero confermati, per Ferroni “sarà la rivoluzione del XXI secolo, vorrà dire che la fisica avrà fatto un passo avanti, come molto spesso è già accaduto in passato. Ogni tanto esce una cosa che sconvolge tutto”. E gli scienziati si stanno già attrezzando, stanno cioè già con la mente rivolta a questa “rivoluzione”? ”I teorici sicuramente sì, stanno scrivendo molti articoli. Noi invece siamo sperimentali, ce la prendiamo con un po’ più di calma”. Pochi i dubbi da Antonino Zichichi che a Televideo ha parlato al riguardo di certezze. Tutte personali. “Se la misurazione venisse confermata, prima di tutto bisognerebbe capire perché il neutrino va più veloce della luce. Perché questo fa a pugni con tutto quello che finora abbiamo capito. Ad esempio, lo studio nel quale mi trovo ha un’altezza, una lunghezza e una larghezza. Giusto? Tre dimensioni di spazio. In più ci dobbiamo mettere il tempo. E una delle conquiste della Relatività è che queste quattro cose stanno insieme, nella cosiddetta dimensione spazio-tempo. Se la scoperta sarà confermata bene, si potrà concludere che lo spazio-tempo non può avere solo 4 dimensioni. Io dico che ne potrebbe avere 43”. Perché, professor Zichichi? “Perché il ‘supermondo’ prevede questo. Ed io da molto tempo studio la matematica del ‘supermondo’, senza trovare però prove sperimentali. Quella del neutrino superveloce potrebbe essere la prima prova dell’esistenza del supermondo. Ma solo ripeto se questa misurazione venisse confermata”. Quali altre dimensioni potrebbero esserci? Ce ne può dire qualcuna? Oltre le 4 che conosciamo quali potrebbero essere le altre dimensioni secondo Lei? “Il ‘Big Bang’ è avvenuto in uno spazio-tempo a 43 dimensioni. Poi queste dimensioni si sono espanse, ma le altre sarebbero rimaste compresse. Attenzione, però: queste cose le sto dicendo senza essere sicuro della scoperta che hanno fatto. E senza conferma, non c’è scienza”. A pochi giorni dal Natale, un altro annuncio shock, dal Cern di Ginevra: trovate tracce del “bosone di Higgs”, o “particella di Dio”. A Televideo, l‘astrofisica Margherita Hack ha spiegato cosa è realmente accaduto. Come già è successo per il neutrino più veloce della luce, anche questa volta, c’è chi ha arricchito di significati la novità scientifica e chi l’ha minimizzato. Quanto è importante ciò che hanno rilevato al Cern sul bosone? "Sarà molto importante se riusciranno a confermare i risultati. Alla base di tutto c’è una Teoria e un modello standard di riferimento che spiega tutti i fenomeni osservati per le particelle elementari. Però questa teoria prevede che esista una particella, il bosone, che avrebbe una massa molto maggiore della massa del protone, che è il nucleo dell’atomo di idrogeno, la quale dimostrerebbe come le altre particelle acquistano massa. In un certo senso si potrebbe dire che il bosone sarebbe il babbo o la mamma di tutte le altre particelle. Il bosone però finora era un’ipotesi. Bisognava appunto trovarlo. Siccome c’è equivalenza fra massa ed energia, se abbiamo a disposizione sufficiente energia si può creare una particella. Il Cern disponeva della maggior quantità di energia proprio nella speranza di riuscire a trovare il bosone. Finora ogni risultato era stato negativo. Ora sembra che cominci ad esserci qualche indizio, qualche traccia, di questo bosone. Questo sarebbe molto importante, perché se non si trova il bosone le alternative sono due: o non c’è sufficiente energia per produrlo o la teoria è sbagliata e bisogna cambiarla. Se si riesce a trovare, potrebbe spiegare anche concretamente il modo come si sono create tutte le altre particelle elementari. Quindi aspettiamo il risultato. Che se confermato, sarebbe importante perché arriverebbe a pochi giorni dall’altra sensazionale notizia per la quale il neutrino avrebbe viaggiato a una velocità superiore a quella della luce dal Cern al Gran Sasso". Perché sono così importanti le particelle elementari? Perché la materia è fatta di particelle. Noi stessi siamo fatti di particelle. Gli atomi, le molecole che costituiscono il nostro corpo sono fatti di particelle. Vuol dire capire l’intima essenza della materia. Quanto aggiunge, o aggiungerebbe di fatto se confermata, alla nostra conoscenza questa notizia? Significherebbe capire cos’è realmente la materia. E’ curiosità: la curiosità di conoscere la natura. Questa curiosità, che sembra non abbia altro scopo che la curiosità stessa, può portare invece a risultati applicativi estremamente importanti. Ad esempio Einstein vinse il premio Nobel all’inizio del Novecento per le sue ricerche sull’effetto fotoelettrico. Sembrava che fosse ricerca pura, che servisse a capire solo la struttura della materia. Mentre dall’effetto fotoelettrico sono derivate tutte le ‘diavolerie’ elettroniche che allietano, o complicano, a seconda dei punti di vista, la nostra vita. Ancora però non sembra sia chiaro perché il bosone viene chiamata ‘particella di Dio’? Spiega l’origine del Mondo? Spiegherebbe l’origine delle particelle. Ripeto, ‘particella di Dio’ nel senso che sarebbe il babbo e la mamma di tutte le particelle. Quindi il bosone sarebbe l’elemento che spiega la formazione della materia. Anche il neutrino è una particella. Come definirlo? Dove si trova? A cosa serve? Il neutrino è una particella che non ha carica, è appunto neutra, con una massa estremamente piccola, tanto che si pensava fino a poco tempo fa che addirittura non l’avesse. Che il neutrino cioè fosse come il fotone, che è una particella di luce priva di massa. Invece la massa c’è, è stata misurata e si sa che è più piccola di un centomilionesimo della massa dell’elettrone. Il neutrino è un po’ strano, birichino, perché cambia aspetto, si può trasformare cioè da neutrino elettronico, in muonico o neutrino tauonico. I neutrini vengono prodotti in gran quantità nelle redazioni nucleari che avvengono all’interno delle stelle, quindi anche nel Sole. E siccome si conosceva bene l’interno del Sole, si sa che temperatura ha, che densità, si sapeva anche che dovevano arrivare tot neutrini e invece se ne trovavano sempre di meno. E questo è stato un grosso mistero negli anni Sessanta: tutte le misurazioni registravano questo difetto, questa mancanza di neutrini. Come mai? Gli scienziati hanno proposto un’idea innovativa, hanno cioè ipotizzato che cambiassero aspetto nel loro viaggio dal centro del Sole alla superficie. Perché allora i misuratori potevano rilevare solo i neutrini elettronici. Però se questi nel corso del viaggio dentro il Sole da elettronici si trasformano in muonici o tauonici, dicevano i ricercatori, non li misuriamo più. Allora è partito l’esperimento “Opera”, dal Cern al Gran Sasso, che consiste nell’inviare fasci di neutrini muonici e vedere se al Gran Sasso arriva un neutrino diverso. Così dopo miliardi di neutrini muonici abbiamo ricevuto un neutrino tauonico, confermando l’ipotesi degli scienziati. Il “mistero del neutrino mancante” è stato dunque risolto. Poi si è visto anche che la velocità è superiore a quella della luce. Secondo Lei, professoressa Hack, è una coincidenza che nel giro di pochi giorni siano stati fatti due annunci così rilevanti per la scienza? Queste scoperte così ravvicinate,l’una all’altra, entrambe con al centro l’attività del Cern di Ginevra, dove lavorano ricordiamo molti italiani, sono una coincidenza? E’ un caso. Con il professor Antonino Zichichi, il discorso è proseguito fino a osare una domanda: Si può semplificare? Il “bosone” potrebbe spiegare l’origine del mondo, nel senso che senza il bosone il mondo non sarebbe nato niente? No, no, no! L’origine del mondo è nel “Big Bang”. Attenzione: quando è scattato il “Big Bang”, le leggi fondamentali della natura erano tutte scritte, inclusa l’esistenza del bosone di Higgs, ovvero la “Particella di Dio”, ovvero era già stato scritto, nell’istante del “Big Bang”, che doveva esistere la “Particella di Dio”. Allora il tempo era computato in modo diverso. Quanto dura questa nostra conversazione? Cinque minuti. Bene. Il nostro cuore batte al ritmo di un colpo al secondo. Ma il ritmo del “Big Bang” è cinque volte un miliardesimo di secondo. Quindi, l’istante del “Big Bang” è piccolissimo, non è come il nostro cuore. Perché dice che tutto questo è stato scritto ai tempi del “Big Bang”? E’ stato scritto da chi e quando? Nel momento in cui la Teoria fu elaborata? Io mi riferisco a ciò che sappiamo: se non fosse stato scritto tutto, non potrebbe esistere il mondo. Scritto da chi, professor Zichichi? Se c’è una logica, ci deve essere un autore. Io dico che è Dio, gli atei dicono che è il “Nulla”. L’ateismo è un atto di fede nel “Nulla”. Un ateo non mi sa spiegare quello che è accaduto dal “Big Bang” ad oggi. Mentre il “Big Bang” si capisce se immediatamente si includono le leggi fondamentali. Alla base c’è una logica rigorosa. Che fine fatto questa logica? Ma qui stiamo parlando di filosofia, non più di fisica. E’ bellissimo che lei riesca a coniugare queste due materie così essenziali per la nostra esistenza. E’ un vero miracolo. Cosa ci dobbiamo aspettare in futuro e ancora, Lei ci parla dal Cern di Ginevra: come mai queste due scoperte così sensazionali, il neutrino più veloce della luce e le tracce di “bosone”, a breve distanza l’una dall’altra? Perché è stata messa in moto una struttura formidabile. La supermacchina che c’è qui è la più potente al mondo. Cominciamo finalmente a farla funzionare. Io sono stato membro del Comitato che ha deciso nel 1979 che il circuito dovesse essere di 27 km, non di 13, come volevano altri. E adesso stiamo studiando una macchina ancora più potente. Stiamo parlando degli acceleratori di particelle, vero Professore? Sì, acceleratori di protoni. Però mi scusi la sua domanda è enciclopedica. L’origine di tutto quello che facciamo sono le interazioni forti tra protoni e contro-protoni e neutroni. Noi portiamo queste particelle all’energia massima per produrre cose che non esistono nel nostro mondo. Tra queste cose c’è il “bosone di Higgs”. Perché finora non è stata scoperto? Perché la sua massa doveva essere più grande di 114 masse di protoni. L’avremmo potuta scoprire prima, se la macchina fosse andata a energia più alta. Conclusione: il motivo per cui ci sono tante novità è perché è in moto una struttura che è unica al mondo. Una struttura che fornisce due diverse interpretazioni: si vuole dimostrare che certi elementi fondamentali della nostra esistenza derivano dal “caso”, dicono i più laici, altri invece possono dire che si creano per effetto di un disegno originario. Però i laici non sanno dimostrare perché questi elementi fondamentali derivano dal “Kaos”. Se riescono a farlo, significa che hanno scoperto che non siamo figli di una logica che ha un autore, se invece non riescono, il loro è un mero atto di fede nel “Nulla”. Queste domande però non sono di fisica, mi scusi ancora, ma di filosofia. L’acceleratore del Cern di fatto riproduce il “Big Bang” o no? Ma no! Riproduce com’era il mondo un decimo di miliardesimo di secondo dopo il “Big Bang”. Sicuramente penserete: che tempo piccolissimo! Invece no: bisogna confrontare questo tempo con il battito del “cuore” del “Big Bang”, che è miliardi di miliardi di miliardi di volte più veloce del nostro cuore. Laicità e religiosità dunque si fondono nella scienza, perché ogni ricercatore, ogni studioso, e anche ogni giornalista che di questa materia si occupa, porta con sé i suoi “fondamentali”, da applicare alla conoscenza. Quella conoscenza che è il preludio a una presa di coscienza dei problemi, pratici e morali, legati al vivere quotidiano, e condizione indispensabile per lo sviluppo interiore dell’individuo. TRACCE DELLA PARTICELLA DI DIO(PIER) L'impronta fotografata al CernDiffusi i risultati degli esperimenti Atlas e Cms condotti nell'acceleratore Lhc: i ricercatori credono di aver osservato un'impronta del bosone di Higgs, l'ultimo elemento mancante per spiegare la struttura dell'universo. "Entro il 2012 la prova definitiva" dal nostro inviato ELENA DUSI Il tunnel del Large Hadron Collider (Lhc) GINEVRA - Inseguita da quasi 50 anni, un'impronta della "particella di Dio" è stata finalmente osservata dagli esperimenti del Cern di Ginevra. A produrla è stato il Large Hadron Collider (Lhc) il più potente acceleratore di particelle del mondo, un anello sotterraneo di 27 chilometri di diametro capace di far scontrare protoni a velocità prossime a quelle della luce. E a "fotografare" le sue tracce sono stati due degli enormi rilevatori piazzati nei punti di collisione fra i protoni: Atlas e Cms, guidati dagli italiani Fabiola Gianotti e Guido Tonelli. GUARDA LA DIRETTA TV 1 "Abbiamo iniziato a notare il segnale alla fine dell'estate. Ma analisi così complesse hanno richiesto mesi di lavoro e la collaborazione di migliaia di fisici in tutto il mondo", racconta Sergio Bertolucci, che al Cern è direttore della ricerca. Dei circa 10mila fisici del Cern impegnati nella ricerca della particella di Dio, circa mille sono italiani. La presenza del nostro paese nel Centro di Ginevra è coordinata dall'Istituto nazionale di fisica nucleare. Il bosone di Higgs (il cui soprannome di "particella di Dio" nasce dal titolo di un libro del Nobel americano Leon Lederman) si sarebbe dunque affacciato nei rivelatori del Cern contemporaneamente alla misurazione dei neutrini più veloci della luce 2. "Anche se i risultati sono significativi, i dati non bastano ancora a confermare con assoluta certezza l'esistenza del bosone di Higgs", mette in guardia il direttore del Centro, il fisico tedesco Rolf Heuer. Nella scala che i fisici chiamano "sigma" o "deviazione standard" siamo ancora al livello 3: per dichiarare con certezza una scoperta si richiede un livello minimo di 5. Ma Lhc continuerà ad accumulare dati. "Ed entro il 2012 saremo certamente in grado di dare una risposta definitiva" assicura Heuer. Nel puzzle delle 17 particelle elementari che compongono la materia così come la conosciamo, il bosone di Higgs era l'ultimo pezzo mancante. La sua esistenza era stata ipotizzata nel 1964 dal fisico teorico inglese Peter Higgs. Come una chiave di volta, la "particella di Dio" ha il compito di tenere in piedi il Modello Standard della fisica moderna. Il compendio di teorie sul funzionamento dell'universo comunemente accettato dagli scienziati, senza questo bosone si trovava a descrivere un mondo fatto esclusivamente di particelle elementari senza massa, libere di schizzare via nell'universo alla velocità della luce e incapaci di formare stelle, pianeti ed esseri viventi. Paradossalmente, il bosone di Higgs ha il compito di spiegare come mai la materia abbia un peso, ma la sua massa era proprio il parametro che mancava per descriverne l'identità. Gli esperimenti di Ginevra ora hanno fissato questo valore in 125 Gev (pari a oltre cento volte la massa di un protone), ma con un margine di incertezza che ancora impedisce al Cern di gridare alla scoperta definitiva. Per confermare il risultato serviranno almeno altri sei mesi di collisioni fra protoni al 99,9 per cento della velocità della luce oltre ai 400 trilioni avvenuti dal marzo del 2010 a oggi. Fino all'annuncio ufficiale di oggi pomeriggio, i gruppi di ricerca di Cms e di Atlas erano stati tenuti all'oscuro l'uno dei dati dell'altro affinché i due risultati non si influenzassero a vicenda. Il Cern ha evitato così anche fughe di notizie e annunci prematuri di scoperta. Il valore di 125 Gev, per quanto ampiamente atteso, apre però un nuovo problema ai fisici teorici che cercano di spiegare la struttura dell'universo. Il bosone di Higgs sarebbe infatti troppo leggero per assicurare l'equilibrio della materia alle altre energie. L'ipotesi che subentra ora è che per ogni particella nota ne esista un'altra, detta supersimmetrica, molto più pesante. Trovare questi nuovi ingredienti del mondo che ci circonda, e capire se possono anche spiegare il mistero della massa mancante dell'universo - la cosiddetta materia oscura - saranno le prossime missioni della macchina per l'esplorazione scientifica più grande del mondo, soprannominata "le piramidi del XXI secolo" per le sue dimensioni e la sua complessità. (13 dicembre 2011) Hack: il bosone origine della materiaL'astrofisica spiega cosa è successo al Cern di Emanuela Gialli E’ arrivato un importante annuncio dal Cern, il secondo in poco tempo. Dopo il neutrino, è la volta del bosone o ‘particella di Dio’, prodotto nell’Acceleratore. Come già accaduto per il neutrino più veloce della luce, anche questa volta, c’è chi arricchisce di significati la novità scientifica e chi la minimizza. Quanto è importante ciò che hanno rilevato al Cern sul bosone? Sarà molto importante se riusciranno a confermare i risultati. Alla base di tutto c’è una Teoria e un modello standard di riferimento che spiega tutti i fenomeni osservati per le particelle elementari. Però questa teoria prevede che esista una particella, il bosone, che avrebbe una massa molto maggiore della massa del protone, che è il nucleo dell’atomo di idrogeno, la quale dimostrerebbe come le altre particelle acquistano massa. In un certo senso si potrebbe dire che il bosone sarebbe il babbo o la mamma di tutte le altre particelle. Il bosone però finora era un’ipotesi. Bisognava appunto trovarlo. Siccome c’è equivalenza fra massa ed energia, se abbiamo a disposizione sufficiente energia si può creare una particella. Il Cern disponeva della maggior quantità di energia proprio nella speranza di riuscire a trovare il bosone. Finora ogni risultato era stato negativo. Ora sembra che cominci ad esserci qualche indizio, qualche traccia, di questo bosone. Questo sarebbe molto importante, perché se non si trova il bosone le alternative sono due: o non c’è sufficiente energia per produrlo o la teoria è sbagliata e bisogna cambiarla. Se si riesce a trovare, potrebbe spiegare anche concretamente il modo come si sono create tutte le altre particelle elementari. Quindi aspettiamo il risultato. Che se confermato, sarebbe importante perché arriverebbe a pochi giorni dall’altra sensazionale notizia per la quale il neutrino avrebbe viaggiato a una velocità superiore a quella della luce dal Cern al Gran Sasso. Perché sono così importanti le particelle elementari? Perché la materia è fatta di particelle. Noi stessi siamo fatti di particelle. Gli atomi, le molecole che costituiscono il nostro corpo sono fatti di particelle. Vuol dire capire l’intima essenza della materia. Quanto aggiunge, o aggiungerebbe di fatto se confermata, alla nostra conoscenza questa notizia? Significherebbe capire cos’è realmente la materia. E’ curiosità: la curiosità di conoscere la natura. Questa curiosità, che sembra non abbia altro scopo che la curiosità stessa, può portare invece a risultati applicativi estremamente importanti. Ad esempio Einstein vinse il premio Nobel all’inizio del Novecento per le sue ricerche sull’effetto fotoelettrico. Sembrava che fosse ricerca pura, che servisse a capire solo la struttura della materia. Mentre dall’effetto fotoelettrico sono derivate tutte le ‘diavolerie’ elettroniche che allietano, o complicano, a seconda dei punti di vista, la nostra vita. Ancora però non mi sembra sia chiaro perché il bosone viene chiamata ‘particella di Dio’? Spiega l’origine del Mondo? Spiegherebbe l’origine delle particelle. Ripeto, ‘particella di Dio’ nel senso che sarebbe il babbo e la mamma di tutte le particelle. Quindi il bosone sarebbe l’elemento che spiega la formazione della materia. Anche il neutrino è una particella. Come definirlo? Dove si trova? A cosa serve? Il neutrino è una particella che non ha carica, è appunto neutra, con una massa estremamente piccola, tanto che si pensava fino a poco tempo fa che addirittura non l’avesse. Che il neutrino cioè fosse come il fotone, che è una particella di luce priva di massa. Invece la massa c’è, è stata misurata e si sa che è più piccola di un centomilionesimo della massa dell’elettrone. Il neutrino è un po’ strano, birichino, perché cambia aspetto, si può trasformare cioè da neutrino elettronico, in muonico o neutrino tauonico. I neutrini vengono prodotti in gran quantità nelle redazioni nucleari che avvengono all’interno delle stelle, quindi anche nel Sole. E siccome si conosceva bene l’interno del Sole, si sa che temperatura ha, che densità, si sapeva anche che dovevano arrivare tot neutrini e invece se ne trovavano sempre di meno. E questo è stato un grosso mistero negli anni Sessanta: tutte le misurazioni registravano questo difetto, questa mancanza di neutrini. Come mai? Gli scienziati hanno proposto un’idea innovativa, hanno cioè ipotizzato che cambiassero aspetto nel loro viaggio dal centro del Sole alla superficie. Perché allora i misuratori potevano rilevare solo i neutrini elettronici. Però se questi nel corso del viaggio dentro il Sole da elettronici si trasformano in muonici o tauonici, dicevano i ricercatori, non li misuriamo più. Allora è partito l’esperimento “Opera”, dal Cern al Gran Sasso, che consiste nell’inviare fasci di neutrini muonici e vedere se al Gran Sasso arriva un neutrino diverso. Così dopo miliardi di neutrini muonici abbiamo ricevuto un neutrino tauonico, confermando l’ipotesi degli scienziati. Il “mistero del neutrino mancante” è stato dunque risolto. Poi si è visto anche che la velocità è superiore a quella della luce. Secondo Lei, professoressa Hack, è una coincidenza che nel giro di pochi giorni siano stati fatti due annunci così rilevanti per la scienza? Queste scoperte così ravvicinate,l’una all’altra, entrambe con al centro l’attività del Cern di Ginevra, dove lavorano ricordiamo molti italiani, sono una coincidenza? E’ un caso. Tornare in alto Andare in basso Vedi il profilo dell'utente pier avatar Numero di messaggi : 739 Data d'iscrizione : 10.10.07 MessaggioTitolo: Il Bosone, ‘era scritto nel Big Bang’- Parla Zichichi Ven Dic 23, 2011 11:04 am ‘Nella grande esplosione che originò il mondo tutto era presente’ di Emanuela Gialli Sono state trovate tracce del “Bosone di Higgs”, una particella che potrebbe spiegare molte cose. Lei come interpreta questa novità che arriva dal mondo scientifico? Questa novità come lei la chiama era già stata discussa per a prima volta nel 1964, quando lei non era ancora nata. Il problema non è nuovo. Raffinando sempre di più il modo in cui noi descriviamo il mondo si è arrivati alla conclusione che si può descrivere tutto, a condizione però che sia pieno di massa. Tutto ciò che esiste, ad esempio il nostro corpo, è dotato di massa. E come si fa a mettere la massa nella descrizione fondamentale dei fenomeni fisici, quindi dell’Universo? Ciò che regge il mondo ha una certa logica. In questa logica la massa non può entrare. E questa è una cosa assurda. Come si fa allora? A un certo punto si arrivò a questa conclusione: tutto ciò che esiste –il nostro corpo, gli spaghetti, la luna, il sole- è fatto da “trottoline”, cioè da palline che girano. E questo non è banale. Aspetti, questo che vuol dire? Tutto è fatto con masse reali e “trottoline”. Questa particella che non ha il movimento di”trottolina” e una massa immaginaria permette di avere un mondo dotato di massa e fa il miracolo di produrre una massa senza creare più mondi. Se lei fa il calcolo: quanto debbo spendere per i regali di Natale? Lei potrebbe dire, ad esempio, 300 euro. Però, se venisse fuori una spesa di 3 miliardi di euro lei direbbe: “Beh, forse ho sbagliato in qualche punto”. Se, ripetendo lo stesso calcolo, venisse fuori “infinito”, lei direbbe ancora: “Ma cosa sto combinando?”. Quando noi calcoliamo qualche cosa, qualunque cosa, con massa, i calcoli esplodono. Non come Hiroshima e Nagasaki, certamente. Le nostre sono esplosioni pacifiche, di calcoli, di grande civiltà. Ma quando un calcolo dà un risultato infinito, può esserci un guaio. Noi quel “guaio” lo cerchiamo da mezzo secolo. Finalmente , a furia di migliorare le cose, è venuto fuori che c’è una soluzione. E questa soluzione è la “Particella di Dio”, così chiamata perché dopo 30 anni di ricerche senza mai trovarla, per via del miracolo che farebbe, cioè di produrre massa senza provocare esplosioni, si potrebbe appunto denominare “Particella di Dio”. E’ come se ci fosse una creazione in laboratorio? Assolutamente no. E’ una fatto puramente matematico. Questa particella si mette in calcolo con massa immaginaria e produce massa per tutti, anche per una particella simile a sé stessa, che però ha massa reale. E’ questa che noi cerchiamo. Se questa particella con massa immaginaria dà massa a tutto, agli spaghetti, all’Universo, ma non produce una particella con massa simile a sé stessa, noi non avremmo mai potuto scoprire la “Particella di Dio”. Per nostra grande gioia e fortuna le cose vanno in modo tale che anche la stessa “Particella di Dio”, con massa immaginaria, diventa particella con massa reale. In questi giorni, si sono lette molte cose non vere su questa conquista. Ad esempio? Legga i giornali. Uno ha scritto che ai tempi del “Big Bang” non c’era la massa. Invece caspita se c’era. Il mondo non era fatto come oggi. Non c’erano le galassie, non c’erano le stelle. Non c’era il mondo così come lo conosciamo, però esistevano eccome le masse. Infatti, ai tempi del ”Big bang” sono venuti fuori i “buchi neri”, attorno ai quali sono nate le galassie. Lasciamo dunque in pace le cose vere e discutiamo di quelle che dobbiamo ancora capire. Massa e materia sono equivalenti? Ma no. Fino al 1905, anno in cui Einstein elaborò l’equazione energia=massa per velocità della luce al quadrato, tutti pensavano che materia e massa fossero la stessa cosa. Manco per sogno. La materia, attenzione, è massa con “cariche”. Per volgarizzare, anzi mi perdoni se faccio questo con Lei, la massa è come se fosse un pongo da plasmare, che ha un peso, oppure non ha niente a che vedere con questo? No, no: la massa pesa. Eccome se pesa. Caspita. Lei deve immaginare la carica come un lucchetto. Immagini di avere un bicchiere d’acqua, pari a 100 grammi di massa. Ne basterebbero 3 grammi, per provocare un’esplosione simile a Hiroshima e Nagasaki, se si aggiungesse una “carica”. Attualmente, si conoscono 12 tipi di carica. Sono queste che stabiliscono la stabilità della materia, non la massa. Pensiamo ai greci, che dicevano: “Più pesante è la colonna, più robusta è”. Ma manco per sogno. Una colonna peserà, non so, 10 tonnellate. Di cemento. E se si mettono 10 tonnellate di gelsomino o di zucchero, si può fare un tempio sufficientemente robusto? Sì. Si possono avere mille chili di gelsomino e mille chili di cemento armato: la massa è la stessa. Sono le cariche che fanno la struttura della materia. La materia dunque vuol dire massa con cariche. Come la fiamma, che non è altro che un insieme di strutture atomiche eccitate, che si trasformano, emettendo fotoni. Il “bosone” è solo massa? Il “bosone” ha solamente una carica detta “debole”. Di fatto, non ha carica. Il “bosone” è pallina, non trottolina. E’ una particella diversa da tutto ciò che esiste, che è fatto di trottoline e di massa reale. La trottolina è fatta di cariche. Prendiamo ad esempio i neutrini, che sono le particelle più leggere che esistano, ma non sono di massa zero, anche se è piccolissima. Il neutrino ha carica debole, altrimenti non potrebbe attraversare la Terra. L’elettrone, per spiegare meglio, non attraversa nemmeno un centimetro di ferro. Mentre un neutrino attraversa un muro di cemento armato spesso quanto la distanza Terra-Sole, senza problemi. E sono 150 milioni di chilometri. Perché non hanno una carica elettrica forte, hanno solo carica debole. Dunque il bosone è la madre o il padre di qualunque tipo di massa? Esatto. Ha detto una cosa formidabile. Il “bosone”, dotato di massa immaginaria, attraverso la matematica che si sviluppa da questo concetto produce anche la luce, che è una trottolina senza massa. Incredibile ma vero. Cioè, il “bosone” produce sia particelle con massa, sia particelle di massa zero, come la luce. Altrimenti, la luce non potrebbe esistere. E questo è un fatto spettacolare. Io ho studiato queste cose circa 30 anni fa. Posso semplificare ulteriormente? Potrebbe spiegare l’origine del mondo, nel senso che senza il bosone non sarebbe nato niente? No, no, no! L’origine del mondo è nel “Big Bang”. Stia attenta: quando è scattato il “Big Bang”, le leggi fondamentali della natura erano tutte scritte, inclusa l’esistenza del bosone di Higgs, ovvero la “Particella di Dio”, ovvero era già stato scritto, nell’istante del “Big Bang”, che doveva esistere la “Particella di Dio”. Allora il tempo era computato in modo diverso. Quanto dura questa nostra conversazione? Cinque minuti. Bene. Il nostro cuore batte al ritmo di un colpo al secondo. Ma il ritmo del “Big Bang” è cinque volte un miliardesimo di secondo. Quindi, l’istante del “Big Bang” è piccolissimo, non è come il nostro cuore. Perché dice che tutto questo è stato scritto ai tempi del “Big Bang”? E’ stato scritto da chi e quando? Nel momento in cui la Teoria fu elaborata? Io mi riferisco a ciò che sappiamo: se non fosse stato scritto tutto, non potrebbe esistere il mondo. Scritto da chi, professor Zichichi? Se c’è una logica, ci deve essere un autore. Io dico che è Dio, gli atei dicono che è il “Nulla”. L’ateismo è un atto di fede nel “Nulla”. Un ateo non mi sa spiegare quello che è accaduto dal “Big Bang” ad oggi. Mentre il “Big Bang” si capisce se immediatamente si includono le leggi fondamentali. Alla base c’è una logica rigorosa. Che fine fatto questa logica? Ma qui stiamo parlando di filosofia, non più di fisica. E’ bellissimo che lei riesca a coniugare queste due materie così essenziali per la nostra esistenza. E’ un vero miracolo. Cosa ci dobbiamo aspettare in futuro e ancora, Lei ci parla dal Cern di Ginevra: come mai queste due scoperte così sensazionali, il neutrino più veloce della luce e le tracce di “bosone”, a breve distanza l’una dall’altra? Perché è stata messa in moto una struttura formidabile. La supermacchina che c’è qui è la più potente al mondo. Cominciamo finalmente a farla funzionare. Io sono stato membro del Comitato che ha deciso nel 1979 che il circuito dovesse essere di 27 km, non di 13, come volevano altri. E adesso stiamo studiando una macchina ancora più potente. Stiamo parlando degli acceleratori di particelle, vero Professore? Sì, acceleratori di protoni. Però mi scusi la sua domanda è enciclopedica. L’origine di tutto quello che facciamo sono le interazioni forti tra protoni e contro-protoni e neutroni. Noi portiamo queste particelle all’energia massima per produrre cose che non esistono nel nostro mondo. Tra queste cose c’è il “bosone di Higgs”. Perché finora non è stata scoperto? Perché la sua massa doveva essere più grande di 114 masse di protoni. L’avremmo potuta scoprire prima, se la macchina fosse andata a energia più alta. Conclusione: il motivo per cui ci sono tante novità è perché è in moto una struttura che è unica al mondo. Una struttura che fornisce due diverse interpretazioni: si vuole dimostrare che certi elementi fondamentali della nostra esistenza derivano dal “caso”, dicono i più laici, altri invece possono dire che si creano per effetto di un disegno originario. Però i laici non sanno dimostrare perché questi elementi fondamentali derivano dal “Kaos”. Se riescono a farlo, significa che hanno scoperto che non siamo figli di una logica che ha un autore, se invece non riescono, il loro è un mero atto di fede nel “Nulla”. Queste domande però non sono di fisica, mi scusi ancora, ma di filosofia. L’acceleratore del Cern di fatto riproduce il “Big Bang” o no? Ma no! Riproduce com’era il mondo un decimo di miliardesimo di secondo dopo il “Big Bang”. Sicuramente penserete: che tempo piccolissimo! Invece no: bisogna confrontare questo tempo con il battito del “cuore” del “Big Bang”, che è miliardi di miliardi di miliardi di volte più veloce del nostro cuore.
  15. Come già sapete nella Religione Cattolica Cristiana il problema del Bene e del Male sono visti come degli assoluti, ed infatti c’è l’inferno ed il paradiso che sono eterni, cioè per chi va all’Inferno non è possibile nessuna redenzione, egli non ha nessuna possibilità di redimersi, nessuna possibilità di chiedere indulgenza e di progredire verso Dio uscendo in tal modo dall’inferno. In questo contesto Bene e Male sono visti come “assoluti”, in tal modo c’è il Dio del Bene che è la Trinità, ed il Dio del Male che è Satana. Questa concezione rigidamente dualista deriva da alcune frasi del Vangelo nel quale si prospettano le fiamme eterne, senza considerare che tale concetto può essere più simbolico che altro. Già nei Vangeli Apocrifi ed in particolare in quello di Tommaso troviamo un superamento del male quando egli dice: “Quando farete di due uno, e farete si che l’interno sia come l’esterno e l’esterno come l’interno, e l’alto come il basso, e quando farete del maschio e della femmina una cosa sola, cosicchè il maschio non sia più maschio e la femmina non sia più femmina, e quando metterete un occhio al posto di un occhio, ed il mano al posto di una mano, ed un piede al posto di un piede ed un immagine al posto di un immagine, allora entrerete nel Regno.”” Qui chiaramente è indicato che chi “entra nel Regno” è colui che ha la concezione più ampia della realtà e mette ogni cosa al suo posto, ma per chi non entra non c’è nessun Inferno, ma solo la strada per arrivare ad una concezione precisa della realtà. Il punto è che il Vangelo secondo Tommaso dicevano che fosse stato scritto nel 200 D.C, ma scoperte recenti lo collocano fra i primi vangeli scritti, forse il primo. Egli infatti non racconta la vita di Gesù, ma riporta solo massime di questo, forse sapendo che la vita di Gesù ormai è cosa conosciuta e che non c’è nessun bisogno di raccontarla. Se andiamo avanti nella storia troviammo moltissime filosofie, ma non le conosco abbastanza per fare una diagnosi, pertanto mi astengo e riporto solo quello che conosco. Nel 1929 Kahalil Gibran scriverà, quando gli viene fatta la domanda: PARLACI DEL BENE E DEL MALE: “ Io posso parlarvi del vostro bene ma non del vostro male, perché il cattivo non è che il buono torturato dalla sua stessa fame e dalla sua stessa sete. In verità il buono affamato può cercare il cibo in una caverna oscura, ed assetato può bere un acqua morta”” Più o meno nello stesso anno Pietro Ubaldi nel suo libro”LA GRANDE SINTESI” scriverà: “” L’universo è un inestinguibile volontà di amare, di creare, di affermare, in lotta con un opposto principio di inerzia fatto di odio, di distruzione di negazione. Il primo è positivo ed attivo il secondo è negativo e ribelle. Dio e Demonio sono i due segni + e – del dualismo. E’ lotta ma è equilibrio, è antagonismo ma è creazione, perché dall’urto e dal contrasto nasce una creazione, un amore ed una creazione sempre più vasta. Il bene si serve del male per progredire, comprende il male e lo costringe ai suoi fini. Nel bene è l’avvenire dell’evoluzione ed il male è l’opposto su cui essa si appoggia per salire”. Qui come vedete c’è un superamento completo del dualismo inteso in senso assoluto. Inferno e Paradiso non esistono, ma c’è solo una scala evolutiva. Più avanti, nel Rapporto dalla dimensione X il brano dell’Entità A analizza l’Angelo decaduto, cioè Satana e dice “ Ammettiamo che quest’angelo decaduto, cioè satana, sia stato precipitato nel cosidetto Inferno. Quest’angelo decaduto, essendo eterno, non sarebbe altro che il Dio del male, in eterno conflitto con il Dio del bene e sembra che dall’eternità non sia ancora uscito un vincitore. E poi scrive: “ Quest’angelo non poteva essere che inferiore a Dio, ed allora come poteva creare una “forza di male” tale da essere potenzialmente pari a quello del Dio del bene. Ma noi già sappiamo che questo non può essere avvenuto, perché più lo spirito avanza nella sua scala evolutiva più si rende conto della sua distanza da Dio, il quale si dimostra sempre più infinito. Pertanto uno spirito evoluto non potrà mai equipararsi a Dio, in quanto si rende conto che la sua distanza da Dio è infinita. Posto questo, ritornando alla Religione Cattolica, basta poco per andare all’inferno. Il cattolicesimo ha diviso le colpe in peccati veniali e mortali, ma per commettere un peccato mortale basta poco, basta saltare una messa della domenica ecc, ecc. E poi è importante confessarsi, cosa che Gesù Cristo non aveva neppure pensato, se la sono inventata dopo, molto dopo. Come si sia giunti a simili paradossi, oltrettutto accettati senza nessun senso critico, resta un mistero.
  16. La prima foto di singoli atomi: https://leganerd.com/2023/06/03/la-prima-radiografia-al-mondo-di-un-singolo-atomo-e-ora-su-nature/?utm_source=pocket-newtab-bff
  17. [quote]Ebbene, queste riflessioni mi hanno portato a definire Dio e Diavolo dal punto di vista scientifico: Dio é l'universo prima del Big Bang mentre il Diavolo è l'universo dopo il Big Bang.[/quote] Veramente originale questa interpretazione solo che mi dovresti spiegare su quale logica si basa. Perchè Dio dovrebbe essere interpretato dall'ATOMO INIZIALE, e perchè dopo che questo è esploso e si è convertito in strutture è diventato il male, cioè il DIAVOLO?? In teoria dovrebbe essere il contrario, le strutture esprimono una legge o meglio un insieme di leggi che presuppongono un intelligenza, che non è assolutamente detto che sia il diavolo, anzi, le leggi sono ordinate, altrimenti non ci sarebbe la scienza, e delle leggi ordinate presuppongono un intelligenza ordienata che non può essere che Dio.
  18. Paola Giovetti spiega l'Entità A https://www.google.com/search?client=firefox-b-d&q=entitò+a+tutto+il+messaggio#fpstate=ive&vld=cid:6b53c898,vid:hbCI6yDgm7A
  19. EFFETTO SERRA In precedenza vi avevo detto che l’effetto serra è causato dalla CO2 e se non ci fosse la CO2 la temperatura media della terra sarebbe di –18 gradi. In realtà approfondendo l’argomento vengo a sapere che l’effetto serra è un fenomeno estremamente complesso. Nella preistoria ci sono stati lunghi periodi estremamente caldi seguiti da glaciazioni che hanno determinato fenomeni glaciali perfino nel Deserto del sahara. Da cosa sono stati determinati questi cambiamenti climatici talvolta repentini?? Ancora non si sa anche se circolano numerose ipotesi. Ma parliamo un po delle cause che determinano l’effetto serra e pure l’effetto opposto, le glaciazioni. La superficie terrestre viene riscaldata sfruttando l'energia proveniente dal Sole in 2 modi: per 1/3 grazie all'assorbimento diretto dell'energia proveniente dal Sole e per 2/3 a causa del contatto con l'atmosfera che riesce a rimanere calda trattenendo, grazie all'effetto serra, l'energia "solare" riemanata dalla superficie terrestre sotto forma di radiazione infrarossa (l'atmosfera infatti non è scaldata direttamente dai raggi solari ma dalla superficie terrestre quando assorbe i raggi solari). Analizzando il Bilancio energetico Sole - Terra si può notare che parte dell'energia proveniente dal Sole (il 55%) viene immediatamente riflessa dalle nubi e dagli aerosol presenti nell'atmosfera, mentre parte (il 45%) riesce a raggiungere la superficie terrestre e viene assorbita dalla Terra (assorbita dai mari, dalle rocce, dai suoli, dalla vegetazione). La Terra riemette l'energia assorbita sotto forma di radiazioni infrarosse e parte di esse (il 35%) riescono a sfuggire all'atmosfera venendo irradiate nello spazio, parte (il 65%) vengono imprigionate e trattenute dall'atmosfera che per questo motivo si scalda (soprattutto negli strati più vicini alla superficie terrestre). Quando si parla di aumento o diminuzione dell'effetto serra ci si riferisce proprio all'aumento o alla diminuzione della capacità di trattenere calore da parte dell'atmosfera dovuta ad una variazione della concentrazione dei gas serra: è ovvio che se l'atmosfera riesce a trattenere più calore si avrà un innalzamento della temperatura interna del pianeta, se l'atmosfera riesce a trattenere meno calore si avrà una diminuzione delle temperature. Tuttavia l'effetto serra non coincide e non deve essere confuso con il semplice aumento o diminuzione della temperatura terrestre. Non è detto infatti che un aumento o diminuzione della temperatura della Terra sia dovuta alla sola variazione dell'effetto serra: ad esempio quando nel passato è arrivata maggior energia dal Sole sulla Terra (a causa di variazioni orbitali terrestri e/o maggiore attività solare), si è avuto un innalzamento delle temperature senza che sia necessariamente variato il peso dovuto all'effetto serra. In questo caso la capacità dell'atmosfera di trattenere calore non è variata e l'aumento di temperatura è dovuto solo al fatto che maggior energia dal Sole è entrata in gioco nel sistema climatico terrestre. Sebbene l'effetto serra sia un fenomeno legato all'equilibro termico terrestre sul medio-lungo periodo cioè a scala climatica, esistono molti altri fattori che contribuiscono ad alzare o abbassare l'effetto serra localmente e su scala temporale meteorologica: alcuni di questi fattori sono interni all'atmosfera (piogge, spostamenti di masse d'aria umide, annuvolamenti, contenuto di vapore acqueo, CO2, metano,…) altri sono esterni (evaporazione dei mari, scambio di CO2 tra mare e atmosfera, respirazione del mondo vegetale e animale, azione batterica nei terreni, emissioni vulcaniche,…). In una situazione di equilibrio termico ideale (tanta energia assorbita quanta riemessa) tutti questi fattori compartecipano, apportando localmente contributi tali da annullarsi a vicenda, facendo rimanere il sistema in equilibrio termico sul lungo periodo in media globale. Quando si parla di aumento o diminuzione dell'effetto serra si parla della tendenza di tutti questi fattori a trovare un nuovo equilibrio globale verso una situazione di più alta o più bassa temperatura. Va sottolineato che i fattori che formano il clima (venti, piogge, evaporazione, correnti oceaniche,...) sono sempre generati da situazioni di non equilibrio termico locale: ad esempio i venti, le piogge, lo spostamento di nuvole e masse d'aria, ecc. nascono tutti dagli squilibri termici generati dalla diversa insolazione che subiscono le varie parti del globo terrestre (si formano così i campi di alta e bassa pressione, i movimenti delle correnti oceaniche,...). L'effetto serra è dunque elemento riequilibratore del clima, agisce a carattere locale, viene alterato continuamente su aree più o meno estese ma dona un equilibrio termico a carattere globale. Proprio l'equilibrio termico globale fa sì che si possano riequilibrare le alterazioni a carattere locale e proprio grazie alla compensazione delle alterazioni locali (alcune positive altre negative) si può mantenere un determinato equilibrio termico globale. Per capire quanto siano importanti i gas serra. I fattori che influenzano l'effetto serra sono molti (alcuni ancora non ben conosciuti) e si comportano in maniera diversa tra loro. Alcuni sono fenomeni locali (piogge, evaporazione, venti, annuvolamenti ecc...) altri hanno comportamenti più globali (campi di alta o bassa pressione, spostamenti di masse d'aria, variazione del contenuto atmosferico globale di vapore acqueo, CO2 o metano, correnti oceaniche,…), alcuni provocano variazione di breve durata (ore, giorni, settimane) altri di lunga durata (anni, decenni, secoli,…): L'aumento di evaporazione provoca un effetto di riscaldamento: l'atmosfera diventa più umida (sale il contenuto di vapore acqueo) e l'atmosfera che diventa più umida trattiene più calore; L'aumento delle piogge provoca un effetto di raffreddamento: l'atmosfera diventa meno umida (perde vapore acqueo) e trattiene meno calore. L'aumento di nuvolosità svolge un duplice effetto: principalmente ha un effetto di raffreddamento isolando la superficie terrestre dai raggi del sole (e quindi meno raggi arrivano dal sole alla superficie terrestre meno calore entra in gioco); in altri casi ha un effetto di riscaldamento bloccando la dispersione del calore già contenuto dall'atmosfera (come un tappo). I campi di alta e bassa pressione regolano lo spostamento “rapido” di aria più calda o più fredda, più o meno umida, intervenendo direttamente e rapidamente sulla capacità dell'atmosfera di trattenere più o meno calore. Spostamenti di masse d'aria, cicloni,… sono fortemente connessi a quanto già detto per le piogge, le nuvole, e i campi di alta o bassa pressione. Le correnti oceaniche sembrano svolgere un ruolo importantissimo e fondamentale per riequilibrare il clima, simile a quello degli spostamenti di masse d'aria in atmosfera. Aumento del livello del mare di circa 20 cm annui tramite il fenomeno delle piogge e dello scioglimento dei ghiacciai; Le variazioni globali nel contenuto atmosferico di vapore acqueo, CO2 e metano, provocano variazioni di più lunga durata sulla temperatura e sono equilibrate dall'effetto serra perché fortemente connesse con alcune variazioni nei mari e nella biologia presente sulla Terra, tipo: Il consumo di CO2 da parte delle piante (maggiore CO2 c'è in atmosfera maggiore sarà il consumo da parte delle piante) Il passaggio di vapore acqueo o CO2 dai mari all'atmosfera (più è caldo più vapore e CO2 passano in atmosfera ma più vapore c'è in atmosfera e più nuvolosità e piogge si avranno, ma la nuvolosità determina raffreddamento) Il passaggio di metano dalla terra all'atmosfera causato dai batteri (più è caldo maggior metano viene immesso in atmosfera). Il sistema climatico è caratterizzato da due principali fattori: La ciclicità (cicli giornalieri, stagionali, annuali, decennali, millenari,…) legata principalmente ai movimenti della Terra (rotazione, rivoluzione, effetto dell'inclinazione dell'asse, ecc.) o ad altre cause cicliche (fasi solari, macchie solari,…); La variabilità all'interno dei cicli, dovuta a cause non cicliche principalmente interne al pianeta (movimenti delle masse d'aria, eruzioni vulcaniche, correnti oceaniche,…) ma anche esterne (meteoriti, interazione con altre stelle o pianeti,…). Ma quali sono i gas serra più importanti?? Se rapportati ad 1 tonnellata di CO2 il metano ha effetto serra 28 volte più potente, i fluorocorocarburi 13.900 volte più potenti, il trifluoruro di azoto 16.800 volte più potente, e l’esafluoruro di zolfo fino a 23.500 volte più potente. Questi ultimi tre gas sono emessi soprattutto durante le eruzioni vulcaniche, per cui è plausibile che dopo un intensa attività vulcanica si abbia un effetto serra considerevole, mentre il metano è facile che venga liberato dalla terra dopo forti terremoti. Inoltre credo che nei cosi detti cicli climatici. Le variazioni dell’orbita terrestre siano estremamente importanti. Sappiamo che Marte ha un orbita che varia molto spesso con avvicinamenti ed allontanamenti dal sole. La Terra ha un orbita più regolare anche se subisce delle variazioni anche considerevoli in periodi che variano da 230.000 anni a 450.000 anni. E’ chiaro che un avvicinamento al sole determina un riscaldamento globale ed un allontanamento un raffreddamento globale. Per questo l’effetto serra è un fenomeno difficile da calcolare e che si presta a numerose interpretazioni. Che attualmente si stia vivendo un effetto serra per un aumento della CO2 è probabile, ma le attività umane hanno un effetto limitato dal momento che il 90% della CO2 è rilasciata dagli oceani. Che serva poi fare il “cappotto” alla casa per ridurre l’effetto serra è ancora più utopistico, dal momento che ne sarebbe interessata solo l’Europa con una riduzione della CO2 solo dello 0,11%. Nel frattempo tagliano piante le quali determinerebbero un assorbimento della CO2 ben più considerevole di quello che possono fare i “cappotti alla casa” e le “auto elettriche”. Ma viviamo in un mondo distopico, e questo spiega tutto.
  20. Io sono con Gibran: "me ne vado con il VENTO o gente di Orfalese, non già nel nulla............ritornerò e vi parlerò con voce più chiara e con concetti più affini ai vostri pensieri....""
  21. Ma vedi cincin, l'informazione a livello molecolare non funziona, perlomeno non funziona in senso terapeutico. E cosa dovrebbe comunicare una molecola che è tossica per l'organismo alle altre molecole?? Potrebbe comunicare solo la sua tossicità, per cui tutte le molecole con le quali vengono a contatto diventerebbero tossiche. Io ritengo che la teoria di Hanneman sia sbagliata. Egli non considera inoltre tutta l'attività terapeutica delle piante medicinali, ad esempio solo aglio e cipolla hanno un attività terapeutica eccezionale, per non parlare di molte altre. Il punto è che l'omeopatia funziona come un placebo, e dal momento che il placebo funziona e funziona benissimo in chi ci crede, così funziona anche l'omeopatia. Del resto funziona anche l'acqua di rubinetto, c'è chi ha scritto un libro in proposito. Il libro è intitolato: LE PROPRIETA' TERAPEUTICHE DELL'ACQUA. Trovandosi in campo di concentramento in IRAN aveva solo l'acqua per curare, ed ha curato molte patologie, ecco ti pongo le mie considerazioni. IL TUO CORPO IMPLORA ACQUA Sapete cosa penso?? Che quello che dice il medico iraniano Fereydoon Batmanghelidj nel suo libro “IL TUO CORPO IMPLORA ACQUA” sia vero e non da sottovalutare. Ve ne avevo già parlato ma poi per vari motivi ho preferito togliere il Post. IL suo libro, aveva suscitato le critiche di numerosi medici sia negli Stati Uniti che in Inghilterra tanto che era nata “ LA SINDROME AQUAHOLISM “ . In particolare il professore Mark Whiteley ha spiegato che consumare eccessivamente acqua potrebbe indurre alla perdita di autocontrollo del cervello proprio come si ha con l’alcol. Lo stesso organo non riuscirebbe poi a fermare questo insistente bisogno. Non solo ma questo illustre professore insieme a numerosi altri ha pubblicato una ricerca dove si dimostra che bere acqua insistentemente crea una forma di dipendenza chiamata "aquaholism" una sorta di "alcolismo"". Non solo ma l'ossessione da "sorso" può portare quindi a vari disturbi, tra i quali un'eccessiva sudorazione che, nell'esperienza di Whiteley, ha portato alcuni suoi pazienti a considerare la possibilità di rimuovere chirurgicamente le loro ghiandole sudoripare. Non bisogna dimenticare che chi dice simili cazzate è il Prof. Mark Whiteley, chirurgo e fondatore della Whiteley Clinic di Londra. Il Prof. Mark Whiteley raccomanda di bere solo quando si ha sete. In realtà questo è sbagliato e ve lo dimostro con delle considerazioni logiche. La sete non esprime il reale fabbisogno di acqua dal momento che sia nella preistoria che nella storia ed anche nel medioevo l’uomo ha dovuto affrontare lunghi periodi di siccità che hanno alterato quello che era lo stimolo autentico del reale fabbisogno di acqua. Noi ora abbiamo gli acquedotti che ci portano l’acqua fino in casa e se questa fosse clorata possiamo comprare tranquillamente tutta l’acqua che vogliamo per bere, mentre per i fabbisogni igienici possiamo servirci dell’acqua dell’acquedotto. Ma gli acquedotti e la vendita di acqua sono una cosa recente, mentre se torniamo a pochi decenni fa molto spesso approvvigionarsi di acqua era un problema. Molto spesso le sorgenti che davano acqua buona o quantomeno potabile e bisognava andare con i secchi a prenderla, operazione non sempre facile senza contare i periodi di siccità dove le sorgenti buttavano poco o quasi niente e bisognava fare la fila per riempire i secchi. Non solo ma l’acqua dei secchi doveva servire non solo per bere, ma anche per cuocere i cibi , per lavarsi e per tutti i fabbisogni igienici che potete immaginare. Così il corpo si è abituato a bere poco, e lo stimolo della sete non esprime il reale fabbisogno di acqua. Il Dott. Fereydoon Batmanghelidj dice di bere due litri di acqua al giorno partendo dalla mattina e fino alle ore otto di sera (per non doversi alzare di notte a fare pipì). Egli, come vi avevo già detto, ha scoperto le proprietà dell’acqua mentre era in un campo di concentramento e casualmente perché dando un paio di bicchieri di acqua ad uno che aveva mal di stomaco ha visto che il dolore è passato (per diluizione dei succhi gastrici). Successivamente ha approfondito ulteriormente le proprietà dell’acqua, ed ha visto che questa, data a due litri al giorno, riduceva anche i dolori nell’artrite, riduceva la pressione arteriosa e molto spesso riduceva anche il colesterolo. Questo farebbe pensare ad un azione preventiva delle malattie cardio-vascolari. Non solo ma la somministrazione di acqua molto spesso risolveva pure gli stati infiammatori cronici che sono alla base di innumerevoli patologie. Il Dott. Fereydoohan Batmanghelidj ha spiegato il meccanismo di tutte queste azioni dell’acqua ed è infondo abbastanza semplice da comprendere. Noi, con il nostro metabolismo, generiamo continuamente tossine e radicali liberi che restano in circolo se noi beviamo poco, mentre se noi beviamo adeguatamente vengono eliminati per via renale. In sostanza possiamo dire che il bere parecchio (2 litri di acqua al giorno) è il principale anti ROS che esista.. Come abbiamo illustrato nei Post precedenti i ROS e le tossine stanno alla base di tutti i processi infiammatori. Ridurli significa anche aumentare la risposta anticorpale visto che i Globuli Bianchi senza ROS rispondono molto meglio. Quindi, bevendo adeguatamente, c’è maggior risposta alle malattie infettive sia virali che batteriche. Il Dott. Fereydoon Batmanghelidj ha riscontrato una buona risposta, con l’uso di acqua, anche nelle forme allergiche, soprattutto asmatiche. In sostanza, detta in breve, abbiamo minor tossine che circolano con conseguente riduzione e talvolta risoluzione di tutto quello che queste provocano.
  22. UN EPISODIO PARANORMALE PRIMA DEL MATRIMONIO “Non dimenticate mai che quello che sappiamo È niente di fronte a quello che non sappiamo, e quello che non sappiamo, è niente di fronte a quello che non sapremo mai” Vauvenargues Nel 1980 poco prima di sposarmi ospitai la mia fidanzata (ora mia moglie) in una casa vicina, quella di mio fratello, poichè aveva una bella camera al piano semi interrato. La camera si raggiungeva con una scala a chiocciola di legno. Mentre la mia fidanzata si trovava da mio fratello, alle sette del mattino mi svegliai, guardai l'ora e poi mi riaddormentai. Feci un sogno bello nitido, che scendevo la breve discesa che portava alla casa di mio fratello, bussavo alla porta e veniva mia cognata ad aprirmi. Dopo di che scendevo la scala a chiocciola, entravo nella camera della mia fidanzata e la toccavo sulla spalla, ma in quel momento mi svegliai La mattina stessa la mia fidanzata mi riferì che poco dopo le sette del mattino si era svegliata ed era andata in bagno. Tornata a letto sentì bussare alla porta. Sentì mia cognata che mi parlava ed io che chiedevo "posso scendere da Anna". Al che si chiese : cosa gli è saltato in mente di venirmi a trovare così presto. E poi ha disturbato sua cognata che generalmente la domenica dorme fino alle undici del mattino. Poi sentì distintamente i miei passi che scendevano la scala a chiocciola e disse fra se: Mi giro e faccio finta di dormire, così gli faccio uno scherzo. Si girò verso il muro, mi sentì distintamente entrare in camera, sentì che la mia mano gli batteva la spalla: si giro con un sorriso, non c'era nessuno Come interpretarlo?? Sognava anche la mia fidanzata?? A parte che è sicurissima di essere stata sveglia, nel caso avesse sognato anche lei la coincidenza dei due sogni è tale che possiamo quantificarla una su un miliardo. Mia cognata è sicura di non essere stata svegliata e quindi non ha aperto nessuna porta. L'unica spiegazione è che io mi sia dissociato dal corpo e sia sceso il corpo astrale. Ricordo anche di aver sceso la scala a chiocciola, di essere entrato in camera e di aver battuto la spalla della mia fidanzata. Ma se era il corpo astrale perchè, la mia fidanzata, da sveglia, ha sentito il colpo?? Dimenticavo, nel momento in cui ho dato il colpo alla spalla mi sono risvegliato nel mio letto. P.S Fortunatamente la mia fidanzata non è morta di paura, ma mi ha raccontato quello che le era capitato appena ci siamo visti. Ed io ho raccontato il mio sogno.
  23. Bellissimo questo, come provocare la materia ma anche COME AFFRONTARE I DRAMMI PERSONALI ed arricchire lo spirito:
  24. Se non esiste l’anima che altro è ?? Voglio riportare un mio fenomeno paranormale, ed un fenomeno riferito da S. Giovanni Bosco perché hanno delle analogie: (anche se la mia esperienza è già stata riferita su questo Forum) nel 1981 a Velo Veronese scoppia un epidemia di Varicella, che più che varicella sembra Vaiolo. Ne sono colpiti gli adulti come i bambini. Un martedì si presenta in ambulatorio un giovane di 17 anni, Otello, che mi mostra che è pieno di pustole varicellose e si lamenta di un dolore alla schiena. Io non do alcuna importanza al dolore alla schiena, pensandolo una nevrite varicellosa. Il venerdì sua madre mi chiama dicendo che Otello fa fatica a respirare. Corro subito, lo ausculto, il polmone è pieno di rantoli e crepitii. Lo invio subito a Malattie Infettive, ma due giorni dopo Otello muore di polmonite varicellosa. Il martedì andiamo al funerale io e mia moglie, mi meraviglio che la madre di Otello mi ringrazi per le premure e non ce l'abbia per il ritardo nella diagnosi. Alla sera andiamo a letto, verso mezzanotte io credo già di dormire, ma poi mi ricorderò che parlavo con Otello mentalmente. Pochi secondi è mia moglie mi sveglia: che c'è dico? "Te lo dirò domani , te lo dirò domani. Io non do importanza alla cosa e riprendo il sonno, se non chè quindici minuti dopo mia moglie mi risveglia ed allora vedo, vedo un cono di luce che si retrae, e frà il buio e la luce un taglio netto, e poi vedo il corridoio illuminato a giorno, di una luce solare, ma un pò diversa quasi indefinibile. Mia moglie vede le stesse cose, ma in più vede appoggiata al muro del corridoio una bicicletta con fissata una valigia (forse simbolo di partenza). Poco prima, e cioè quando mi aveva svegliato la prima volta, aveva visto sopra la mia testa una palla di luce. Ora siccome la visione è stata di entrambi è ben difficile pensare ad una suggestione anche perché non abbiamo visto il fantasma di Otello ma qualcosa di completamente inusuale, praticamente inpossibile inventarlo. Ora passo a descrivere un fenomeno paranormale capitato a S. Giovanni Bosco del quale sono stati testimoni moltissimi seminaristi. Traggo il tutto dalla rivista Luce ed Ombra, Redazione “Bologna” Piazza Azzarita 5- Aprile- Giugno 2006, Edizione n.2 Giovanni Bosco nel Seminario di Chieri aveva contratto amicizia con un giovane seminarista , Luigi Comollo, che morì per malattia il 2 Aprile del 1839. Dice Don Bosco “Era la notte che seguiva la sua sepoltura ed io riposavo con gli alunni del corso di teologia, quando ad un certo punto si sentì un rumore in fondo al corridoio, rumore che si rendeva più sensibile, più cupo, più acuto mentre si avvicinava, Pareva quello di un carrettone trascinato sul pavimento. I seminaristi si svegliarono, io ero impietrito dal timore. Il rumore diventa sempre più intenso finchè si è vista in fondo alla stanza una languida luce. La luce si è fatta sempre più intensa fino a diventare intensissima quando fu sopra di me. In quella luce si è sentita distintamente la voce del Comollo che ha detto “Bosco io sono salvo” .Tutta la stanza è stata per parecchi secondi illuminata a giorno, per poi spegnersi gradualmente. I compagni, balzati dal letto sono fuggiti senza sapere dove. Alcuni si raccolsero in qualche angolo del dormitorio, altri fuggirono fuori. Tornati, quando tutto era passato, nessuno dormì quella notte." Ho riferito questi due episodi, quello mio e quello del Don Bosco, perché, a parte il rumore, hanno entrambi la luce in comune. Da notare che non è il classico fantasma che si presenta, ma è una luce, un energia che si esprime in modo fortissimo. Potremmo dubitare della testimonianza del Don Bosco se egli avesse visto il classico fantasma. Ma c’erano decine di testimoni, ed il Don Bosco ha voluto mettere la cosa agli atti, rivolgendosi ad un notaio. L’inosualità del tipo di apparizione la rende veritiera, anche perché la stessa cosa è stata vista e testimoniata da molti. Lascio a voi la parola.
  • Member Statistics

    186
    Total Members
    226
    Most Online
    Celestino
    Newest Member
    Celestino
    Joined
  • Utenti

    No members to show

  • Recently Browsing   0 members

    • No registered users viewing this page.
  • Forum Statistics

    888
    Total Topics
    12.7k
    Total Posts
×
×
  • Create New...