Sempre più pubblicazioni rafforzano la fiducia nei dati sul bosone di Higgs
I documenti rilasciati martedì dai team degli esperimenti CMS e ATLAS al Large Hadron Collider (CERN) confermano la scoperta di una particella simile al bosone di Higgs previsto dal Modello Standard.
La collaborazione ATLAS ha pubblicato dati più recenti rispetto a quelli del 4 luglio, giorno in cui si parlò per la prima volta di una "scoperta". Le collaborazioni CDF e DZero al Tevatron del Fermilab hanno rilasciato versioni aggiornate dei risultati della ricerca dell'Higgs.
Il documento dell'ATLAS conferma che la particella di Higgs è stata rilevata con un livello di confidenza globale di 5,1 sigma, maggiore del 4,9 sigma riferito il 4 luglio. Ciò significa che, se la particella non esiste, vi è una probabilità minore di 1 su 3,5 milioni che una fluttuazione statistica abbia dato questi risultati. Il paper di CMS conferma la scoperta di un bosone di Higgs con una massa di 125 GeV a un livello di fiducia di 5-sigma.
La collaborazione ATLAS ha pubblicato dati più recenti rispetto a quelli del 4 luglio, giorno in cui si parlò per la prima volta di una "scoperta". Le collaborazioni CDF e DZero al Tevatron del Fermilab hanno rilasciato versioni aggiornate dei risultati della ricerca dell'Higgs.
Il documento dell'ATLAS conferma che la particella di Higgs è stata rilevata con un livello di confidenza globale di 5,1 sigma, maggiore del 4,9 sigma riferito il 4 luglio. Ciò significa che, se la particella non esiste, vi è una probabilità minore di 1 su 3,5 milioni che una fluttuazione statistica abbia dato questi risultati. Il paper di CMS conferma la scoperta di un bosone di Higgs con una massa di 125 GeV a un livello di fiducia di 5-sigma.
"Crediamo che ciò che abbiamo osservato sia una particella elementare priva di spin," ha detto il portavoce di CMS, Joe Incandela. "Si tratta di qualcosa che non abbiamo mai visto prima e da studiare in dettaglio. Stiamo cercando di arrivare a una migliore comprensione delle sue proprietà. È un grande risultato per il campo e rappresenta una tappa importante nella storia del pensiero umano. "
Quando il bosone di Higgs viene creato in una collisione di particelle, può decadere in diverse combinazioni di particelle più leggere. Il documento esamina la nuova particella in cinque canali di decadimento contenenti dati degli anni 2011-2012, in crescita rispetto ai due canali che hanno presentato il 4 luglio.
La scorsa settimana, al Fermilab, le collaborazioni CDF e DZero hanno pubblicato un documento congiunto che sostiene l'esistenza di una nuova particella con una massa di 120-135 GeV utilizzando un canale di decadimento non ancora molto accessibile agli esperimenti sull'LHC, uno dei quali è il decadimento della particella in un quark bottom e nella sua antiparticella. I fisici di ATLAS e CMS hanno stabilito che la massa della nuova particella è di circa 125 GeV, più di 134 volte la massa di un protone.
"La scoperta è stata ancora più entusiasmante di quanto avessi immaginato," ha dichiarato Andrew Lankford, vice portavoce per la collaborazione ATLAS. "Ora, mentre il senso di eccitazione persiste, sta per essere superato dalle molte domande nuove da affrontare."
Fino a quando le collaborazioni saranno in grado di misurare accuratamente le proprietà del bosone, non è chiaro se sia l'Higgs del Modello Standard o una versione più esotica della particella.
Sia il CMS che l'ATLAS hanno mostrato il loro apprezzamento per ogni contributo dato loro nella ricerca, dedicando i loro documenti ai loro colleghi deceduti prima che la scoperta fosse stata fatta.
http://www.symmetrymagazine.org/breaking/2012/08/01/physicists-show-strengthened-signals-of-higgs-like-particle-in-publications/
A un passo dall'Higgs
Rolf Heuer, direttore generale del CERN (a sinistra) insieme a Fabiola Gianotti e Joe Incandela, rappresentanti dei team ATLAS e CMS rispettivamente. Credit: CERN |
Lo stavamo aspettando da giorni, ormai. Ed oggi, 4 luglio 2012, verso le 9 di mattina, è iniziato l'attesissimo seminario scientifico al CERN di Ginevra in cui due team separati di ricercatori hanno confrontato i dati raccolti negli ultimi mesi ai rivelatori CMS (Compact Muon Spectrometer, spettrometro compatto di muoni) e ATLAS (A Toroidal LHC ApparatuS, un apparato toroidale dell'LHC) del Large Hadron Collider, un gigantesco acceleratore di particelle circolare che si estende per 27 km sotto il territorio di Ginevra, sul confine franco-svizzero.
Nella foto, il fisico Peter Higgs, il 'papà' del bosone che porta il suo nome. Credit: CERN |
''Oggi è un giorno speciale, e dico speciale perché sono diplomatico''. Queste sono le prime, emozionatissime, parole del direttore generale del CERN di Ginevra, Rolf Heuer, con cui si è aperto il convegno. Rolf Heuer ha anche salutato tutti quelli che stavano seguendo in diretta la conferenza dall'ICHEP a Melbourne, in Australia. Le conferenze sono state due: la prima di Joe Incandela, del team CMS, la seconda di Fabiola Gianotti, del team ATLAS, che hanno presentato i nuovi dati raccolti nel 2012 dall' LHC nella ricerca del Higgs, ed i dati combinati tra 2011 e 2012, analizzati con nuovi più potenti ed efficaci algoritmi. La sala della conferenza era gremita di ricercatori e tra i tanti ospiti è arrivato anche lo stesso Peter Higgs, ovvero colui che - insieme ad altri scienziati - teorizzò l'esistenza dell'omonimo bosone (e del campo ad esso associato) negli anni '60.
Di seguito riporto un riassunto di quanto accaduto nel corso dei due interventi (purtroppo per restare fedele a quanto esposto non potrò esimermi dai tecnicismi, spero però che sia abbastanza chiaro). Potete trovare il riassunto originale (in inglese) al seguente link: http://www.quantumdiaries.org/2012/07/03/higgs-seminar-liveblog/.
RIASSUNTO CONFERENZA CMS (Joe Incandela)
09:05 - È stata una grande sfida riuscire a lavorare con così tanti eventi e dati, specialmente unendo insieme quelli ottenuti nei due ultimi anni. Ci sono state inoltre circa 50 interazioni diverse per ogni evento rilevato. La particella cercata è molto molto rara e abbiamo passato numerose notti insonni a cercarla attraverso tutti i dati.
09:07 - A questa ricerca hanno partecipato migliaia di persone da tutto il mondo e non è stato facile riuscire a mettere insieme tutto il loro lavoro, quindi tantissimi complimenti a tutti per l'eccellente lavoro svolto.
09:09 - La ricerca del bosone di Higgs si concentra sui segni del suo decadimento. Ci sono tanti diversi modi in cui il decadimento può avvenire. Al CMS vengono rilevati i decadimenti WW, ZZ, bb, \tau \tau e \gamma \gamma .
Joe Incandela mentre presenta i risultati del team CMS. Credit: CERN |
09:10 - Nel 2011 le collisioni all' LHC erano arrivate a 7 TeV e questo ha portato ad una grande quantità di dati utili, ma nel 2012 il passo avanti è stato ancora più visibile con l'arrivo a 8TeV. Il meccanismo di produzione principale dietro le collisioni è stato quello della fusione tra gluoni, ma sono state usate anche fusioni tra bosoni vettori, radiazione top e produzioni associate.
09:12 - Il merito va non solo al CERN ma anche alla ricerca effettuata al Fermilab, negli USA, con il Tevatron, che ha aiutato a portare ad importanti esclusioni, che hanno permesso di migliorare la ricerca. I limiti più importanti per la massa arrivano dalle masse di quark top e di bosoni W.
09:13 - La luminosità [quantità di urti, N.d.R.] è stata aumentata significativamente nel 2012, e questo ha permesso di raccogliere 5.2 fb^{-1} nel 2012. Il rilevatore CMS ha un solenoide enorme di 3.8 tons. Le caratteristiche straordinarie del rilevatore sono state alla base della possibilità di trovare eventi così rari. Il calorimetro elettromagnetico impiegato è stato usato per la prima volta qui per un esperimento sugli adroni, e usa 75.000 cristalli PbW04. È stata impiegata anche una correzione tramite monitoraggio laser per la perdita di luce nei cristalli ECAL. Risoluzione ottima fino a 1% usando la Z lineashape per la calibrazione.
09:15 - Rispetto al passato abbiamo migliorato molto le nostre analisi ed il modo di registrare i dati. Ci sono stati notevoli progressi sia nell'analisi che nella produzione Monte Carlo [un tipo di statistica, N.d.R.]. Eccellente performance anche per quanto riguarda la calibrazione di fotoni ed elettroni. Questo ha portato ad un notevole aumento nella sensibilità, grazie anche ai nuovi algoritmi di identificazione.
09:18 - Il 2012 è stato un anno con molti meno errori sperimentali sugli elettroni, rispetto al 2011, allo stesso livello di efficienza. L'identificazione \tau è di circa 70% con bassissime percentuali di errore.
09:19 - Ottimi risultati anche dall'analisi dei getti che si sono comportati bene, con una risoluzione fino a 15% sulla scala dei TeV.
09:20 - Le misurazioni effettuate coinvolgono l'intero Modello Standard, inclusa la produzione ttbar.
09:22 - Quest'anno è stata usata un'analisi incentrata sulla statistica multivariata, usando alberi decisionali per l'analisi complessa dei dati. Dopo un lungo processo di classificazione dei differenti tipi di eventi, siamo arrivati a 4 diverse classi di eventi. Abbiamo fatto una verifica incrociata usando un modello di sfondo alternativo. Nel 2012 inoltre l'analisi è stata effettuata alla cieca per avere più sicurezza sui risultati. La maggior parte degli studi effettuati si sono basati esclusivamente sui dati raccolti.
09:25 - Differenti algoritmi sono stati impiegati per la ricostruzione dello scattering degli elettroni. Abbiamo avuto una performance leggermente migliore in Monte Carlo rispetto ai dati precedenti.
09:26 - I fotoni analizzati sono stati selezionati usando variabili cinematiche (energia trasversale e massa di sistema difotonico). La ricostruzione di massa dipende dalla posizione vertex [vertice, N.d.R.]. L'obiettivo del team è stato quello di arrivare ad entro 1cm dal vertex corretto. Siamo arrivati ad una correttezza per l'83% nel 2011 e l' 80% nel 2012.
9:27 - Anche i modelli usati per il fondo sono basati interamente sui dati. Il bias [un tipo di errore sistematico, N.d.R.] è sempre sotto il 20% degli errori statistici nei dati.
9:28 - Quando combiniamo i dati di tutte le classi di eventi studiati, rispetto ai segnali di fondo, compare un'impressionante segnale. C'è un picco chiaramente visibile a 125 GeV a 2.3 sigma.
Picco osservato nei dati del CMS a 125 GeV. Credit: CERN |
09:30 - Significanza locale sigma 4.2; sigma 3.2 a livello globale.
09:32 - Parlando della ricerca sul decadimento ZZ*, c'è stato un notevole miglioramento! 20% in più rispetto al 2011. Nel 2012 sono stati usati tutti e quattro gli stati finali di leptone. Anche in questo caso sono stati usati i dati del 2012 per le stime riguardo al fondo. È stata eseguita un'analisi angolare dei leptoni con 8 gradi di libertà.
09:34 - Anche in questo caso è stato osservato un notevole picco nello spettro finale della massa, intorno ai 126 GeV. Z \to \4 !
09:35 - Per quanto riguarda i bosoni Z c'è stata una distribuzione di massa molto più ampia e serviranno molti nuovi dati per lavorarci su.
09:37 - Mettendo insieme i risultati ottenuti dopo l'analisi dei decadimenti \gamma\gamma e quelli ZZ* abbiamo il rilevamento di una particella con una certezza statistica sigma 5.0! È una scoperta!
09:39 - Analisi del decadimento WW*. Si tratta di un canale molto difficile da analizzare per la massa molto bassa. \Delta \phi tra leptoni e massa invariante di due leptoni usati come discriminatori nella ricerca. Continuano i lavori per trovare la giusta combinazione per l'analisi di questi risultati.
09:42 - L'analisi del decadimento bb mostra una grandissima frazione di ramificazione ma anche un enorme fondo. Si sta cercando il modo di produzione associato (W+H, Z+H; H \to \ bb). Gli attuali limiti sono compatibili con il segnale trovato o il fondo.
09:44 - Il canale \tau\tau è stato una grande sfida, ma si è comunque notato un miglioramento due volte più grande rispetto al 2011. Statistiche ancora basse potrebbero portare a distorsioni. Serviranno più dati e analisi, ma è un canale molto interessante.
09:48 - La massa combinata per la nuova particella è di 125.3 \pm 0.6 GeV. Adesso però dobbiamo vedere se è compatibile con il Bosone di Higgs previsto dal Modello Standard. L'intensità del segnale è di 0.8 \pm 0.2.
09:50 - Gli eventi rilevati sono auto-consistenti lungo tutte le topologie analizzate. Le percentuali degli stati WW* e ZZ* sono consistenti. Gli accoppiamenti sono consistenti con il Modello Standard al 95% di confidenza, ma servono molti più dati. Abbiamo però osservato un nuovo bosone, con una massa di 125.3 \pm 0.6 GeV con una certezza totale di 4.9 sigma.
09:52 - Fiumi di applausi! Standing ovation.
RIASSUNTO CONFERENZA ATLAS (Fabiola Gianotti)
09:55 - I risultati sono ancora preliminari. Abbiamo finito la raccolta di dati solo 2 settimane fa! Il pileup [rilevamento simultaneo di molti eventi, N.d.R.] di dati è aumentato notevolmente, ma le condizioni imposte sono anche più dure. Abbiamo attualmente la più alta sensibilità e la migliore risoluzione per i decadimenti \gamma\gamma e ZZ*. Altri canali contengono un'energia minore, risoluzioni più basse e sono quindi più sensibili alla quantità di dati ottenuti.
09:57 - Luminosità integrata di 6.3 fb^{-1}. Si ha il 94% di efficienza e il 90% della luminosità spedita è registrata su disco, nonostante i dati molto freschi e le condizioni più ristrette.
Fabiola Gianotti presenta i risultati del team ATLAS. Credit: CERN |
09:58 - Dati aumentati notevolmente. In media 30 collisioni per bunch crossing (con spazio di 50ns tra collisione o bunch, invece dei 25ns del design originale).
10:00 - Il Pileup mostra grandi sfide per l'analisi continuata dei dati. La risoluzione dell'energia trasversale mancante aumenta linearmente con l'accumulo dei dati, ma è sottile e piatta dopo la soppressione del pileup usando l'informazione dal rilevatore.
10:02 - L'analisi dell'enorme quantità di dati raccolta non sarebbe stata possibile senza l'uso di computer dedicati. Solitamente vengono eseguiti 100.000 processi in parallelo alla volta.
10:05 - Molti risultati elettrodeboli, con una sezione trasversale di processi rari. Piccole quantità di tensione emergono delle misurazioni.
10:07 - Man mano che cambia l'energia da 7TeV a 8TeV, abbiamo un aumento della sezione trasversale di un fattore di 1.3. Le sezioni trasversali irriducibili per il fondo aumentano di un fattore di 1.2-1.25, mentre i fondi riducibili aumentano di un fattore di 1.4-1.5. Questo porta ad un aumento della sensibilità di 10%.
10:08 - Tutti i precedenti risultati hanno indicato esclusioni con l'eccezione del range di massa vicino a 116 GeV e 125 GeV. Usando l'esperienza fatta con i rilevatori nel 2011, abbiamo migliorato anche le analisi per il 2012, come anche la ricostruzione e l'identificazione degli oggetti fisici.
10:11 - Per quanto riguarda i \gamma\gamma, abbiamo avuto grandi fondi ed un segnale diviso in 10 diverse categorie, in base alla loro cinematica e alle variabili di conversione. Abbiamo avuto un aumento nella sensibilità in questo caso del 15%. Il rapporto segnale-fondo è molto piccolo (170 eventi segnale per 6340 eventi fondo).
10:14 - È molto importante avere potenti identificazioni di raggi gamma per respingere i getti di fondo. La scala energetica conosciuta fino allo 0.3% della massa di Z. La linearità invece è conosciuta fino a meglio dell'1% sino a 100 GeV. La risoluzione della massa non è seriamente influenzata dal pileup.
10:15 - Serve conoscere la posizione del vertex per sapere l'angolo tra i fotoni e la relativa massa. Non usiamo informazioni di tracking per non essere sensibili al problema del pileup dei dati. Abbiamo usato la segmentazione longitudinale e laterale per il calorimetro elettromagnetico per indicare i fotoni.
Un abbraccio profondamente sentito quello fra Fabiola Gianotti (ATLAS) e Peter Higgs. Credit: CERN |
10:17 - Il respingimento dei getti è di una parte su 10^{4}, con un efficienza del segnale di 90%.
10:19 - Nuovi algoritmi sono stati usati sia per l'isolamento dei fotoni usati per i getti di rigetto sia per rimuovere alcuni effetti dipendenti dal pileup dei dati.
10:20 - Messi al confronto, i dati del 2011 e 2011 mostrano entrambi forme compatibili. C'è un eccesso notevole nei dati del decadimento gamma gamma, con una certezza locale sigma 4.5 e globale 3.6. L'intensità del segnale è di 1.9 +/- 0.5. Le sezioni trasversali sembrano un po' alte, ma sono comunque consistenti con il Modello Standard entro sigma 2.
10:24 - Riguardo all'analisi del decadimento a ZZ* e 4 leptoni, i fondi sono stati soppressi usando i requisiti di isolazione. Serve però un'altissima efficienza, ma c'è stato comunque un aumento nella sensibilità del 20-30% rispetto al 2011.
10:26 - L'efficienza totale della ricostruzione per gli elettroni è piatta sul 98% in eta, pt e per il pileup generale. Salvendo verso masse più grandi ci sono stati 1.3 volte più eventi ZZ.
10:30 - Osservato un eccesso rispetto al fondo intorno a 125 GeV con una certezza statistica 3.4 sigma locale e 2.5 sigma globale.
Picco nei dati ATLAS che indica la presenza di un bosone compatibile con il Modello Standard. Credit: CERN |
10:34 - Sono stati esclusi tutti i punti possibili nello spettro della massa del Higgs, eccetto per la zona intorno ai 125 GeV e le masse molto molto alte.
10:35 - L'eccesso rilevato è compatibile con quello che ci si aspetterebbe se fosse presente un bosone di Higgs come da Modello Standard.
10:38 - Viene mostrata l'evoluzione del picco nel tempo. L'eccesso era un 3.5 sigma a Dicembre 2011. Adesso è un picco 5 sigma! "Grazie a madre natura per aver messo l'Higgs dove lo potevamo trovare con l'LHC."
10:39 - Tantissimi applausi.
10:40 - Prossimo passo: pubblicare i risultati, poi tornare a raccogliere molti nuovi dati.
10:41 - Qui c'è soltanto un terzo dei dati del 2012. Arriveranno tanti altri risultati. L'LHC sta lavorando oltre le proprie aspettative, quindi più di così non si può fare. Fisici Teorici: abbiate pazienza.
10:42 - Eccesso locale sigma 5.0, dominante nei dati gamma gamma e ZZ*.
ULTERIORI COMMENTI:
Riassunto in poche parole di quello che è il risultato finale. Credit: CERN |
Rolf Heuer: "Parlando da profano: Penso che ce l'abbiamo, siete d'accordo?" (applausi, tanta commozione, lacrime). "Abbiamo una scoperta consistente con il bosone di Higgs (ma quale?) Questo però è solo l'inizio. Ci sono grandi implicazioni globali per il futuro." Continuano gli applausi che arrivano anche dai fisici riuniti a Melbourne per l'ICHEP.
Peter Higgs: "Sono commosso, non pensavo che sarebbe avvenuto nel corso della mia vita"
Alcune foto dell'evento: http://cdsweb.cern.ch/record/1459584
La conferenza stampa tenutasi subito dopo gli interventi di Joe Incandela e Fabiola Gianotti è disponibile qui: https://cdsweb.cern.ch/record/1459604
Alcuni scienziati, fra cui il Nobel Gerardus 't Hooft ci raccontano come hanno
vissuto queste ore emozionanti.
Il fisico teorico John Ellis del CERN spiega cos'è il campo di Higgs
http://www.quantumdiaries.org/2012/07/03/higgs-seminar-liveblog/
http://webcast.web.cern.ch/webcast/play_higgs.html
http://public.web.cern.ch/public/
http://press.web.cern.ch/press/PressReleases/Releases2012/PR17.12E.html
Bosone di Higgs: facciamo chiarezza.
In questi giorni i mass media non fanno altro che parlare del seminario scientifico di aggiornamento sui dati raccolti in questi ultimi mesi a LHC dagli esperimenti ATLAS e CMS che si terrà mercoledì 4 luglio alle ore 9.00 al CERN di Ginevra, proprio in concomitanza con l'ICHEP (International Conference on High Energy Physics, conferenza internazionale sulla fisica delle alte energie), la più grande conferenza di fisica delle particelle dell'anno, che si svolgerà a Melbourne dal quattro all'undici di luglio. Durante il convegno di Ginevra verranno comunicati anche i dati relativi alla ricerca del famigerato bosone di Higgs, meglio noto al grande pubblico con il nome di ''particella di dio''.
Una veduta dell'interno del rilevatore ATLAS, presso l'LHC. Credit: CERN |
"La preparazione dei dati per l'ICHEP, terminata il 18 Giugno, ha concluso un periodo di grandi successi per l'LHC nel 2012" ha spiegato Steve Myers, Direttore per gli Acceleratori e per la Tecnologia, del CERN. "Sono molto ansioso di vedere cosa rivelano i dati."
Nel 2012, infatti, sono stati raccolti molti più dati rispetto agli anni precedenti, proprio in previsione di questo evento mondiale. Inoltre gli esperimenti sono stati affinati al punto tale da permettere un'efficienza ed una precisione di misurazione mai vista prima, che ha consentito un'analisi molto più accurata degli eventi simili a quelli prodotti dall'Higgs tra i milioni di altri eventi ininfluenti (il cosiddetto rumore di sottofondo, in gergo tecnico). In più, l'analisi di tutti questi dati è stata implementata da milioni di computer che lavorano simultaneamente, la Worldwide LHC Computing Grid, sviluppata appositamente per questi esperimenti.
"Abbiamo adesso più del doppio dei dati che avevamo l'anno scorso" ha spiegato Sergio Bertolucci, Direttore della Ricerca e dell'Elaborazione del CERN. "Questo dovrebbe essere sufficiente per capire se i trend che avevamo visto nel 2011 all'interno dei dati sono ancora lì oppure no. È un momento molto eccitante!"
Uno dei video divulgativi del CERN che circolano sul web
Se effettivamente questa particella verrà scoperta, ATLAS e CMS avranno bisogno ancora di tempo per accertare che si tratti proprio del bosone di Higgs e non di un'altra particella non ancora rilevata, ma con caratteristiche simili. In questo caso si aprirebbero nuove frontiere per la Fisica perché si tratterebbe di un bosone ancora più esotico di quello di Higgs.
"È un po' come cercare di riconoscere una faccia familiare da una grande distanza" ha spiegato Rolf Heuer, Direttore Generale del CERN. "Alle volte serve un'ispezione molto più da vicino per capire se è davvero il tuo miglior amico o se è il gemello del tuo miglior amico."
Ma cos'è precisamente il bosone di Higgs?
Nel Novecento si scoprì che tutti i campi (gravitazionale, elettromagnetico ecc.) non sono continui nello spazio ma sono costituiti di particelle puntiformi, i quanti del campo o bosoni, e sono quindi simili più a reticoli che a teli di seta (se proprio dobbiamo fare un esempio). Come il fotone è il quanto del campo elettromagnetico, l'Higgs è il quanto del campo di Higgs.
Il bosone di Higgs è un ipotetico bosone massivo e scalare previsto dal Modello standard ed è l'unica particella del modello la cui esistenza debba essere ancora verificata sperimentalmente.
Esso giocherebbe un ruolo fondamentale in quanto portatore di forza del campo di Higgs, che secondo la teoria permea l'universo e, mediante rottura spontanea di simmetria dei campi elettrodebole e fermionico, conferisce la massa alle particelle.
La sua importanza è anche dovuta al fatto che può garantire la consistenza del Modello standard, che senza di esso descriverebbe processi con una probabilità maggiore di uno, risultando inefficace.
Il Bosone di Higgs è noto al grande pubblico e ai media con il soprannome di ''particella di dio'', datogli dal premio Nobel per la Fisica Leon Lederman nel suo libro di fisica divulgativa "The God Particle: If the Universe Is the Answer, What Is the Question?", pubblicato nel 1993. Tale definizione tuttavia derivò da una censura da parte dell'editore del soprannome di "Particella maledetta" (Goddamn particle), originalmente scelto dall'autore in riferimento alla difficoltà della sua individuazione: pertanto usare questo soprannome come un pretesto per attaccare la scienza in nome di pretese fideistiche e religiose è completamente immotivato, oltre che tendenzioso.
Alcune delle particelle fondamentali descritte dal Modello Standard e poi trovate sperimentalmente. Credit: Wikimedia Commons |
I fisici di tutto il mondo si riuniranno presso Melbourne in Australia per la conferenza ICHEP e potranno aggiungersi anche loro al seminario del CERN. Il seminario sarà seguito poi da una conferenza stampa presso gli uffici CERN, che potrà essere seguita online qui: http://webcast.web.cern.ch/webcast/
Sia che il bosone di Higgs venga trovato o che sia un'ennesimo ''falso allarme'' una cosa è certa: rimangono ancora tantissimi fenomeni inspiegati, materia ed energia oscura fra tutti. Per cui c'è ancora moltissimo lavoro da fare.
http://press.web.cern.ch/press/PressReleases/Releases2012/PR16.12E.html
http://it.wikipedia.org/wiki/Bosone_di_Higgs
I buchi neri vagano per l'Universo?
Anche i mostri gravitazionali possono avere il benservito. Due misteriose macchie luminose in una galassia lontana suggeriscono che gli astronomi abbiano trovato la migliore evidenza di sempre che un buco nero supermassiccio può essere spinto fuori da casa sua. Se confermata, la scoperta dovrebbe verificare la teoria della relatività generale di Einstein, in una regione di intensa gravità non precedentemente testata. I risultati suggeriscono inoltre che alcuni buchi neri giganti vaghino nell'universo senza poter essere visti, scagliati via dalle galassie in cui nacquero. Anche se i buchi neri solitari potrebbero essere un oggetto con cui fare i conti, essi sarebbero ancora rari, nota il teorico Laura Blecha dell' Harvard-Smithsonian Center for Astrophysics di Cambridge, Massachusetts. Blecha, insieme a Francesca Civano, astronomo dell' Harvard-Smithsonian e ai loro colleghi, hanno dettagliate osservazioni a raggi X della lontana galassia CID-42, che si trova a quasi 4 miliardi di anni luce dalla Terra. Il team si è concentrato sulla regione dopo che una ricerca del telescopio spaziale Hubble ha rivelato due compatte luci visibili all'interno del corpo stellato: una di loro in corrispondenza o nei pressi del centro della galassia, l'altra fuori dal nucleo. Perché CID-42 sembra essere il residuo di due galassie giganti che si scontrarono in tempi relativamente recenti, sembrava probabile che una o entrambe le sorgenti compatte fossero buchi neri supermassicci. Le osservazioni con il NASA Chandra X-ray Observatory hanno rivelato che solo una delle compatte fonti di luce visibile - un grumo che si trova a circa 8000 anni luce dal centro della galassia - emette raggi X. Si pensa che la radiazione ad alta energia sia un segno che questa macchia possa essere un buco nero supermassiccio che fugge via a causa dei gas circostanti.
Questa simulazione rivela come un buco nero può essere espulso
da una galassia, come CID-42, formatasi recentemente da un importante
scontro-fusione di due galassie aventi ognuna il suo buco nero supermassiccio.
Quando questa collisione tra le galassie si è verificata, si sono scontrati
anche i buchi neri supermassicci al centro di ciascuna galassia.
Credit: L. Blecha
Blecha, che ha simulato collisioni tra galassie che contengono buchi neri, dice che i risultati suggeriscono due possibilità importanti. Le sorgenti luminose potrebbero essere due buchi neri supermassicci riuniti a causa della collisione delle galassie che hanno formato CID-42. In tal caso, la sorgente centrale compatta, come il suo compagno fuori dal centro, emette raggi X. L'assenza di raggi X rilevata da Chandra dovrebbe quindi essere spiegata da una elevata concentrazione di polvere che nascondeva la radiazione ad alta energia rendendola invisibile all'osservatorio volante. In alternativa, dice Blecha, la sorgente centrale potrebbe essere semplicemente un nuovo punto caldo di formazione stellare, acceso dalla recente fusione galattica e veramente privo di qualsiasi emissione di raggi X. La sorgente di raggi X decentrata sarebbe quindi un unico buco nero diversi milioni di volte più pesante del Sole, che viene espulso dalla galassia a circa 2000 chilometri al secondo. Questa velocità corrisponde all'accelerazione che dovrebbe essere impartita dall'emissione asimmetrica di onde gravitazionali (increspature nello spazio-tempo che Einstein prevedé come conseguenza dell'accelerazione di oggetti pesanti come i buchi neri). Se il buco nero emetterà più onde gravitazionali in una direzione rispetto ad un altra, il corpo subirà un contraccolpo nella direzione opposta con una velocità abbastanza veloce per sfuggire alla galassia, e il team lo riporterà in due articoli nel numero del 10 giugno dell'Astrophysical Journal. "Questo è il miglior candidato mai visto di buco nero supermassiccio che rincula", dice l'astrofisico teorico Cole Miller dell'Università del Maryland, College Park, che non fa parte dello studio. Se la spiegazione del rinculo regge, lo studio "dovrebbe offrire conferma osservativa che la relatività generale è una buona descrizione anche in una regione di forte gravità."
Osservazioni di controllo potrebbero aiutare a distinguere tra i due modelli esotici. Per esempio, se le due sorgenti di luce visibile fossero un paio di buchi neri supermassicci che alla fine si fondono, il loro modello di emissione di luce visibile potrebbe variare su scale di tempo da pochi anni a pochi decenni, dice Miller.
Studi con radiotelescopio potrebbero contribuire a individuare la posizione delle fonti all'interno della galassia e indicare se il grumo più centrale si comporta come un buco nero supermassiccio e se emette segnali radio relativamente forti, o piuttosto si comporti come una regione di intensa formazione stellare. Anche se si è tentati di pensare che il cosmo pulluli di buchi neri invisibili buttati fuori dalle loro galassie e pronti ad inghiottire tutto ciò che gli si avvicina, i buchi neri supermassicci ''senza fissa dimora'' sarebbero invece una merce rara, come fanno notare sia Miller che Blecha. Ogni galassia massiccia che gli astronomi hanno osservato alla ricerca di un buco nero centrale ne aveva effettivamente uno, indicando che le ''bestie non sono calciate dal marciapiede molto spesso'', dice Miller. Ma poiché i buchi neri supermassicci al centro delle galassie producono venti e getti di materiale che regolano la formazione stellare, l'espulsione rara dei divoratori gravitazionali potrebbe ''alterare l'evoluzione delle galassie che un tempo chiamavano casa'', aggiunge Blecha.
Fonti: http://news.sciencemag.org/sciencenow/2012/06/do-solo-black-holes-roam-the-uni.html?rss=1
http://www.media.inaf.it/2012/06/05/lo-sfratto-del-buco-nero/
Gli astrofisici del Penn e la teoria della gravità ''modificata''
Un'immagine galattica ripresa dal telescopio spaziale Hubble. Galassie come questa "schermano" l'effetto di una ipotetica quinta forza. |
La maggior parte delle persone prende la forza di gravità per qualcosa di scontato. Ma per l'astrofisico Bhuvnesh Jain dell'Università di Pennsylvania, la natura della gravità è una questione vitale. Così come gli scienziati sono stati in grado di vedere più lontano e più in profondità l'universo, le leggi di gravità si sono rivelate essere sotto l'influenza di una forza inspiegabile.
Analizzando in modo innovativo una ben nota classe di stelle di galassie vicine, Jain e i suoi colleghi - Vinu Vikram, Anna Cabre and Joseph Clampitt del Penn e Jeremy Sakstein dell'Università di Cambridge, hanno prodotto nuove scoperte che restringono le possibilità di ciò che questa forza potrebbe essere. Le loro scoperte, pubblicate su arxiv.org, sono una conferma della teoria di Einstein della gravità, che dopo essere sopravvissuto a un secolo di test nel sistema solare, ha superato pure questo nuovo test in galassie oltre la nostra.
Bhuvnesh Jain nel suo ufficio. La lente simula una lente gravitazionale, un fenomeno previsto dalla relatività generale. |
Nel 1998, alcuni astrofisici fecero un'osservazione destinata a modificare il nostro modo di concepire la gravità: l'espansione dell'universo sta accelerando. Se la gravità agisce ovunque allo stesso modo, le stelle e le galassie spinte dal Big Bang dovrebbero rallentare, come avviene qui sulla Terra agli oggetti lanciati da un'esplosione.
Questa osservazione è avvenuta utilizzando supernovae distanti per dimostrare che l'espansione dell'universo stava accelerando anziché rallentare. Questo sta a indicare che ai fisici mancava qualcosa per comprendere come l'universo risponde alla forza di gravità, che è descritta dalla teoria della relatività generale di Einstein. Sono state avanzate due ipotesi, che cercano di colmare queste lacune in modo diverso.
Una - quella dell'energia oscura - suggerisce che lo spazio vuoto abbia una energia associata e che tale energia provochi l'accelerazione osservata. L'altra postula una quinta forza (al di là di gravità, elettromagnetismo e forze nucleari forti e deboli) che altera la gravità a scale cosmologiche.
"Queste due possibilità, a modo loro, sono entrambe radicali", ha detto Jain. "Per la prima la relatività generale è corretta, ma c'è questa nuova, strana forma di energia. Secondo l'altra non ci sarebbe una nuova forma di energia, bensì la gravità non è ovunque descritta dalla relatività generale ".
La ricerca di Jain si concentra su quest'ultima possibilità; in particolare sta cercando di caratterizzare le proprietà di questa quinta forza che sconvolge la relatività generale e rende vane le previsioni al di fuori della nostra galassia, su scale cosmiche. La recente scoperta di Jain è emersa quando lui e i suoi colleghi hanno capito che potevano usare i dati su una proprietà particolare di un tipo comune di stella come test di gravità.
Gli astrofisici hanno portato avanti prove di gravità nel cosmo per molti anni, ma i test convenzionali richiedono dati relativi a milioni di galassie. Future osservazioni dovranno fornire enormi set di dati da analizzare. Ma Jain e i suoi colleghi sono stati in grado di bypassare l'approccio convenzionale.
"Siamo stati in grado di effettuare una prova potente con sole 25 galassie vicine che è più di cento volte più rigorosa di un test cosmologico standard", ha detto Jain.
Le galassie vicine sono importanti perché contengono stelle chiamate Cefeidi che sono abbastanza brillanti da poter essere viste singolarmente. Inoltre, le Cefeidi sono state utilizzate per decenni come una sorta di metro interstellare perché la loro luminosità oscilla in modo preciso e prevedibile.
"È possibile misurare la luminosità di una lampadina a una certa distanza e sapere, che se la si sposta due volte più lontano, sarà quattro volte più debole. Così si può dire quanta strada abbia percorso, conoscendo solo la differenza di luminosità osservata , " ha detto Jain. "Ma prima è necessario sapere quale sia la luminosità intrinseca della lampadina per poi determinare la sua attuale distanza da noi."
Le Cefeidi hanno una caratteristica unica che consente agli astrofisici di ottenere queste informazioni critiche: la loro luminosità oscilla nel corso dei giorni e delle settimane. Il noto rapporto fra il tasso di oscillazione di una Cefeide e la sua luminosità intrinseca serve come base per calcolare la sua distanza dalla Terra, che a sua volta serve come base per il calcolo della distanza di altri oggetti celesti. L'osservazione dell'universo in accelerazione, per esempio, è basata proprio su dati delle Cefeidi.
"Ora che abbiamo capito un po' di più su ciò che rende pulsanti le Cefeidi - un equilibrio tra gravità e pressione - possiamo usare ciò per conoscere la gravità, e non solo la distanza", ha detto Jain. "Se la quinta forza, di tipo gravitazionale, aumenta anche di poco, li farà pulsare più veloce."
Per la loro utilità, c'è già più di un decennio di dati sulle Cefeidi, raccolti dalla base del telescopio spaziale Hubble e da altri grandi telescopi in Cile e nelle Hawaii. Utilizzando tali dati, Jain e i suoi colleghi hanno confrontato quasi un migliaio di stelle di 25 galassie. Questo ha permesso loro di fare confronti tra le galassie che sono teoricamente "schermate" o protette dagli effetti della ipotetica quinta forza e quelle che non lo sono.
Le grandi galassie e gli ammassi di galassie appartengono a quelli che sono protetti, mentre i più piccoli e le galassie isolate no.
"Se confrontiamo le galassie che non consentono a questa forza aggiuntiva di agire, come la nostra galassia, con le altre che invece lo fanno, allora dovremmo vedere una differenza nel modo in cui si comportano le Cefeidi di quelle galassie", ha detto Jain. "Perché questa nuova forza aumenterebbe la velocità delle loro oscillazioni e perché possiamo usare la velocità delle loro oscillazioni per misurare la loro distanza da noi, si ottiene che la misura di Cefeidi nelle galassie non-schermate deve essere inferiore alle misurazioni della distanza realizzate con tecniche diverse."
Jain e i suoi colleghi, in ultima analisi, non hanno visto variazioni tra il campione di controllo delle galassie schermate il corrispettivo campione di quelle non schermate. I loro risultati si allineano esattamente con la previsione della relatività generale di Einstein. Ciò significa che l'intervallo di potenziale e la forza della quinta forza sono fortemente limitati.
"Troviamo una forte coerenza con la teoria della gravità di Einstein e abbiamo fortemente ristretto lo spazio a disposizione di altre teorie. Molte di queste teorie sono ora escluse dai dati ", ha detto Jain.
Con dati migliori sulle galassie vicine nei prossimi anni, Jain si aspetta che un'intera classe di teorie di gravità potrebbe essere eliminata. Ma ci rimane la possibilità eccitante che dati migliori possano rivelare piccole deviazioni dalla teoria della gravità di Einstein, una delle teorie scientifiche più famose di tutti i tempi.
Per maggiori informazioni: http://arxiv.org/abs/1204.6044
Sono possibili interazioni tra materia oscura e corpo umano?
Percentuali di materia oscura energia oscura e materia ordinaria nel nostro Universo |
Per molto tempo si è creduto che l'universo fosse formato solamente dalla ''materia ordinaria'' (a noi familiare) formata da particelle che si aggregano per formare atomi più o meno stabili, ma la ricerca in campo astrofisico ha mostrato che ci sono galassie la cui massa totale non è sufficiente per spiegare come facciano ad essere tenute insieme dalla forza di gravità ne come manifestino tutta una serie di proprietà rotazionali.
Venne inizialmente indicata come "massa mancante", anche se effettivamente esiste materia, in quanto sono osservabili effetti gravitazionali della sua massa. Tuttavia, questa materia non emette alcuna radiazione elettromagnetica e non risulta pertanto individuabile dagli strumenti di analisi spettroscopica, da cui l'aggettivo "oscura". Il termine massa mancante può essere fuorviante, dato che non è la massa a mancare, ma solo la sua luce.
Le misure più recenti indicano che la materia oscura costituisce circa il 23% dell'energia dell'Universo e circa l'85% della massa: determinarne esattamente la composizione e la quantità in cui essa è presente nel nostro Universo sarebbe un grosso risultato per la cosmologia e per tutta la fisica teorica in quanto permetterebbe - assieme all'altro spinoso problema relativo all'energia oscura - di dare una stima del possibile destino dell'universo.
La nostra galassia, la Via Lattea, è presumibilmente costituita per la maggior parte da materia oscura Credit: NASA |
In ogni caso il problema che ci poniamo oggi è assai più vicino alla sfera della vita quotidiana: dato che la presenza di tale sostanza è stimata essere 5 volte maggiore della materia ordinaria e dato che quindi ogni galassia è avvolta da un alone di materia oscura sembra proprio che noi tutti ci ''nuotiamo'' dentro. Può capitare che una particella di materia oscura impatti casualmente il nostro corpo?
Katherine Freese, dell'Università del Michigan, insieme a Christopher Savage, dell'Università di Stoccolma, hanno mostrato cosa significa per noi umani in termini pratici.
Come detto, sappiamo che qualsiasi cosa sia la materia oscura, non interagisce quasi per nulla con la materia ordinaria, altrimenti avremmo già notato i suoi effetti. Quindi anche se miliardi di particelle di materia oscura passano attraverso di noi ogni secondo, la maggior parte passa senza neanche sfiorare una particella del nostro corpo. Tuttavia, ogni tanto, qualcuna colpisce il nucleo di un'atomo del nostro corpo. Ma quanto spesso accade?
Freese e Savage hanno calcolato quante volte dei nuclei in un corpo umano medio (di 70kg), composto principalmente da ossigeno, idrogeno, carbonio e azoto, venivano colpiti da particelle di materia oscura.
I risultati indicano che la materia oscura colpisce con maggiore probabilità nuclei di ossigeno ed idrogeno in un corpo, e date le nostre attuali conoscenze della materia oscura, questo avviene in media 30 volte all'anno.
Ma siccome altre recenti ricerche mostrano che nella galassia in cui abitiamo la presenza di materia oscura sarebbe di molto maggiore a quanto stimato in media per l'universo allora il numero di collisioni sale vertiginosamente fino ad almeno 100.000 collisioni all'anno, per ogni umano. Questo significa che siete già stati colpiti diverse volte da quando avette iniziato a leggere questo post.
Riguardo ai possibili effetti sulla salute umana, non sono stati fati calcoli a riguardo perché sarebbe necessario conoscere con precisione l'energia della collisione ed il movimento del nucleo dopo l'impatto. Ma è comunque molto difficile immaginare che possa avere un qualche tipo di impatto, visto che il nostro corpo riesce a resistere a ben più frequenti impatti da parte di altre particelle.
http://arxiv.org/pdf/1204.1339v2.pdf
Per la prima volta alcuni fisici ricreano in laboratorio l'effetto tunnel utilizzando la luce
Gli scienziati del Cavendish Laboratory di Cambridge hanno usato la luce per aiutare gli elettroni far passare una barriera classicamente impenetrabile. Il ''quantum tunnelling'' è al centro della peculiare natura ondulatoria delle particelle, e questa è la prima volta che è stato controllato dalla luce. La loro ricerca è stata pubblicata oggi, 05 aprile, sulla rivista Science.
Le particelle normalmente non possono passare attraverso i muri, ma se sono abbastanza piccole la meccanica quantistica afferma che ciò può succedere. Questo si verifica durante il decadimento radioattivo e in molte reazioni chimiche come pure nei microscopi a effetto tunnel.
Secondo il leader del team, il professor Jeremy Baumberg, ''per raccontare come gli elettroni passano attraverso i muri si può ricorrere alla metafora del matrimonio tra questi ultimi e la luce''
Questo matrimonio è destinato, perché la luce è sotto forma di fotoni di cavità, pacchetti di luce intrappolati e costretti a rimbalzare avanti e indietro tra gli specchi che racchiudono gli elettroni che oscillano attraverso il loro muro.
Il ricercatore Peter Cristofolini ha aggiunto: "I figli di questo matrimonio sono in realtà nuove particelle indivisibili, fatti di luce e materia, che scompaiono attraverso i muri di semiconduttori (simili a delle lastre)."
Una delle caratteristiche di queste nuove particelle, che la squadra ha battezzato "dipolaritoni ', è che si distribuiscono in una specifica direzione un po' come avviene alla limatura di ferro in cui sia immersa una barra magnetica. E proprio come i magneti, sono tra di loro soggette a forze di legame molto elevate.
Tali particelle fortemente interagenti sono oggetto di una grande quantità di ricerche da parte dei fisici dei semiconduttori che stanno cercando di fare condensati, l'equivalente dei superconduttori e dei superfluidi che viaggiano senza perdita, nel settore dei semiconduttori.
Essere in due posti contemporaneamente; queste nuove particelle elettricamente cariche potrebbero mantenere la promessa di trasferire le idee della fisica atomica ai dispositivi pratici, utilizzando la meccanica quantistica in modalità visibili ad occhio nudo.
http://phys.org/news/2012-04-physicists-quantum-tunneling.html
I coordinatori di OPERA danno le dimissioni
Un mese dopo aver rilevato errori nell'esperimento che aveva condotto alla strabiliante conclusione che i neutrini fossero più veloci della luce, i due leader della collaborazione italiana OPERA si sono dimessi. Sia Antonio Ereditato, portavoce dell'Università di Berna in Svizzera che Dario Autiero dell'Istituto Lione di Fisica Nucleare, in Francia, che avevano presentato il risultato sorprendente in una sala gremita presso il CERN (nella foto) nel settembre 2011, hanno oggi rassegnato le dimissioni.
Autiero dice che entrambi si sono preoccupati per l'esistenza di una profonda divisione all'interno dei 170 collaboratori del team OPERA, e si vogliono fare da parte per fare posto a una leadership alternativa in grado di fornire maggiore unità. Ereditato, raggiunto per telefono, dice fermamente "il mio commento è no comment".
OPERA aveva cronometrato i neutrini che viaggiavano per 730 km, dal CERN ai Laboratori Nazionali del Gran Sasso vicino L'Aquila, in Italia, scoprendo un anticipo di 60 nanosecondi rispetto al tempo di volo di un fascio di luce. Questo è apparso in contrasto con la teoria della relatività speciale di Einstein, che vieta di viaggiare più velocemente della luce. Ma una successiva indagine sistematica dell'esperimento ha rivelato un cavo fastidioso e un dispositivo di temporizzazione che mette in dubbio la certezza del risultato. OPERA è sempre intenzionata a ripetere la sua misurazione a maggio con l'obiettivo di quantificare l'effetto dei suoi errori.
Autiero ha negato che le dimissioni siano legate a questi errori di misurazione, dicendo che la scoperta di un errore sistematico sconosciuto è un rischio inevitabile per uno scienziato che vuol fare una misurazione di precisione. "Nella scienza non si può fingere di essere il proprietario di qualsiasi verità assoluta", dice. Invece, egli afferma - insieme ad Ereditato - che la tensione attorno ad OPERA si era fatta insostenibile. Egli riconosce che queste sono state esagerate dalla pubblicazione del risultato provocante, asserendo che già dall'inizio avevano messo in discussione tale risultato. È d'accordo anche che l'enorme livello di attenzione dei media ha fatto divenire tale pressione insopportabile. Nonostante si sia detto che i dati OPERA non avrebbero ribaltato la teoria di Einstein, mantenendo legate ad un'anomalia di misura le sue pretese, su molti giornali è stato rappresentato in questo modo. ''Hanno giocato con il sensazionalismo della vicenda ", dice.
Yves Declais, anche dell'Istituto di Fisica Nucleare di Lione, in Francia, che era portavoce di Opera dal 2002 al 2008, dice che l'esperimento è sempre stato difficile da guidare. Ci sono divisioni culturali tra gli italiani e gli europei del Nord, e un sacco di conflitti di personalità che rendono difficile avere una discussione scientifica tranquilla, dice. Egli crede che parte del problema è che i leader sono eletti da un consiglio di 20-30 persone, formato da una persona per ogni istituto partecipante, e non da tutta la collaborazione, in modo che molti non ritengono che sia veramente rappresentativo.
Le dimissioni di Ereditato sono state prima riportate da Reuters. Quelle di Autiero sono state inaspettate e Autiero suggerisce che l'elezione dei successori potrebbe richiedere alcune settimane.
http://blogs.nature.com/news/2012/03/leaders-of-faster-than-light-neutrino-team-resign.html?utm_source=twitterfeed&utm_medium=twitter&utm_campaign=Feed%3A+news%2Frss%2Fnewsblog+%28News+Blog+-+Blog+Posts%29
Team di ricercatori vicino all'individuazione sperimentale dei fermioni di Majorana
Recentemente c'è stata una esplosione virtuale delle attività di ricerca volte ad ottenere lo sfuggente fermione di Majorana, con diversi gruppi che affermano di essere vicino alla sua scoperta. In primo luogo corre voce che un team di Stanford sia sul punto di trovarlo, poi si riferisce che un altro gruppo alla Delft University of Technology in Olanda è pure molto vicino. Ora arriva notizia di un'altro team che alcuni pensano possa avere le migliori possibilità di realizzarli e, meglio ancora, di utilizzarli per contribuire a rendere possibile la computazione quantistica. Questo terzo gruppo, costituito da ricercatori cinesi e americani si serve, come descritto nel loro articolo pubblicato su Science, di un film isolante sopra di un superconduttore.
Gli isolatori topologici tridimensionali (TIs) sono caratterizzati dal loro stato di superficie non banale in cui la rotazione degli elettroni è bloccata ad angolo retto rispetto al momento sotto l'effetto della simmetria per inversione temporale. La fase topologicamente ordinata in TI non rompe alcuna simmetria. L'interazione tra ordine topologico e rottura di simmetria, come osservato in superconduttività può portare a nuovi fenomeni quantistici e dispositivi. Abbiamo fabbricato un superconduttore TI / Superconductor (SC) ad eterostruttura da una crescente Bi2Se3 a film sottili su un substrato di superconduttore NbSe2. Utilizzando la microscopia a scansione tunnel e la spettroscopia di fotoemissione a risoluzione angolare, abbiamo osservato il divario tra superconduttori a Bi2Se3e superficie in regime di Bi2Se3 con lo spessore del film in cui la forma topologica coinvolge stati superficiali. Questa osservazione pone le basi per realizzare sperimentalmente fermioni di Majorana in fisica della materia condensata. © 2011 PhysOrg.com
Un fermione è una particella che aderisce alla statistica di Fermi-Dirac - al contrario del bosone. Un fermione di Majorana, in particolare, è un fermione che è anche la propria anti-particelle, ed è stato proposto per primo da Ettore Majorana nel 1937. Per fare un fermione Majorana, una particella e la sua anti-particella devono essere combinate in una singola particella nuova.
In modo simile, come risultato del modo in cui si sviluppano alcuni cristalli possono esistere elettroni di conduzione e cosiddette lacune mobili, che sono simili ad anti-particelle dell'elettrone. Esse si formano quando un elettrone si muove fuori dalla struttura reticolare. Se un elettrone di conduzione cade in un buco, scompare, e allo stesso modo tanto le particelle che le anti-particelle si distruggono le une le altre se capita loro di incontrarsi. Così, creare un fermione di Majorana è stato un problema significativo.
Per creare un ambiente in cui elettroni e lacune possono coesistere, i ricercatori hanno utilizzato superconduttori accoppiati con isolatori topologici, o sostanze che conducono l'elettricità solo sulla loro superficie. Quando l'isolante topologico incontra il superconduttore, il campo elettrico crea un confine che impedisce agli elettroni di cadere nei fori e di scomparire. In tali condizioni, i fermioni di Majorana dovrebbero essere in grado di formarsi.
In questo ultimo sforzo, il team di ricerca ha rivestito un superconduttore con un isolante topologico, creando un wafer ultra liscio tra i due. Le condizioni risultanti, i ricercatori ritengono, dovrebbero essere ottimali per la creazione di fermioni di Majorana. E se non ne hanno ancora individuato alcuno, credono di essere molto vicini. Se li trovano, essi credono che, applicando un campo elettrico, dovrebbero essere in grado di controllarli. E se ciò accade, potrebbero essere in grado di utilizzarli come qubit in un computer quantistico.
Usare fermioni Majorana invece di bit quantistici in un computer quantistico è considerato preferibile perché sono considerati più ''resistenti''.
È ancora incerto in questo momento se una qualsiasi delle tre attività di ricerca si rivelerà fruttuosa, e se sì, quale sarà, ma appare chiaro che dopo 75 anni che si cercano i fermioni di Majorana prima o poi si giungerà alla conclusione.
Fonte:http://www.physorg.com/news/2012-03-team-majorana-fermion.html
I neutrini trasmettono informazioni attraverso la nuda roccia
Prima c'era il telegrafo, poi è arrivata la radio wireless, quindi la fibra ottica e ora ... i neutrini? Sì, i rampolli della fisica sono riusciti a trasmettere un messaggio da un acceleratore di particelle di un rivelatore sotterraneo che utilizza le particelle fantasma.
Purtroppo, questo nuovo mezzo è completamente inutile (per ora, comunque).
I neutrini sono elettricamente neutri, particelle quasi senza massa prodotte nelle reazioni nucleari. L'unico modo per individuarli è quello di utilizzare degli strumenti enormi, straordinariamente sensibili che sono schermati in profondità da altre fonti di interferenza radioattiva.
I fisici sono stati felici di costruire tali rivelatori per anni, perché i neutrini sono particelle abbastanza interessanti. Contrariamente alle aspettative teoriche, sembrano avere una massa piccolissima, e trovare le relazioni tra le masse dei neutrini contribuisce a informare le attuali teorie della fisica delle particelle. Altri studi recenti hanno suggerito che i neutrini possono spostarsi più velocemente della luce, ma secondo le ultime notizie, ciò sembra improbabile.
Gli scienziati che hanno studiato i neutrini, hanno notato che c'è la possibilità di utilizzarli per la comunicazione. Poiché i neutrini possono attraversare praticamente qualunque cosa, potrebbero essere utilizzati per comunicare tra posizioni a diversa profondità nel sottosuolo, o sotto il mare. I sottomarini, per esempio, potrebbero usare i neutrini per comunicare con i loro comandanti sulla superficie.
La comunicazione con i neutrini non sarebbe facile badate bene. Poiché la maggior parte dei neutrini interagiscono raramente, il rilevatore (o antenna, nel caso di un ricevitore), dovrebbe essere super-massiccio. Inoltre, la maggior parte dei sottomarini è a energia nucleare, che produce grandi quantità di neutrini che potrebbero interferire con la comunicazione.
Ma ora almeno sappiamo che è possibile. Gli scienziati hanno usato il 170 ton-detector MINERVA come ricevitore. La loro trasmittente è stata l'acceleratore lineare Numi, parte del sistema acceleratore al Fermilab. Con l'invio di impulsi di neutrini usando Numi, il team è stato in grado di comunicare con MINERVA attraverso 210 metri di roccia solida. Come primo messaggio, hanno scritto la parola "neutrino".
Questa è un'ottima notizia, se vi capita di avere un bunker sotterraneo geograficamente in linea con un famoso acceleratore di particelle (e qualche centinaio di tonnellate di carbonio, ferro, piombo, elio, acqua e plastica in giro). Ma per il resto di noi, è fin troppo improbabile. Il messaggio è stato comunicato ad un bit rate incredibilmente basso di 0,1 bit al secondo. Ci sono voluti più di due ore per inviare otto caratteri in 'neutrino.'
Gli stessi autori spiegano meglio: "miglioramenti significativi nei fasci di neutrini e nei rivelatori sono necessari per l'applicazione pratica'".
Le origini del toro nel nucleo galattico di un quasar
Elaborazione artistica di un quasar, con accanto un'immagine a raggi X del quasar GB1508 5714 ottenuta dal Chandra Observatory. I dati rilevano un getto di particelle ad alta energia che si estende per più di 100.000 anni luce dal buco nero supermassiccio che alimenta il quasar. Un nuovo studio dimostra per la prima volta che un toro di gas e polvere si formerà naturalmente attorno al buco nero.
Credit: NASA / Chandra
I quasar sono tra gli oggetti più energetici dell'universo ed alcuni di loro sono luminosi come diecimila galassie delle dimensioni della Via Lattea. Si ritiene che
i quasar abbiano enormi buchi neri nei loro nuclei, e gli astronomi pensano anche che nelle regioni intorno ai buchi neri la materia si aggreghi attivamente in un processo che rilascia grandi quantità di energia ed in cui viene espulso spesso un potente getto di materia. Poiché sono così brillanti, i quasar possono essere visti anche quando sono molto lontani, e questo loro essere altamente energetici e contemporaneamente molto distanti li rende attraenti per gli astronomi che cercano di capire la natura dei buchi neri che si trovano al centro delle galassie (anche la nostra Via Lattea ne possiede uno) e le condizioni dell'universo primordiale più adatte alla formazione di questi ''mostri''.
I quasar, così come altre galassie con nuclei attivi meno colossali, sono presenti in una varietà di sottogruppi. Alcuni, per esempio, contengono gas caldo e si muovono a velocità enormi, mentre altri no; alcuni sono assorbono molta polvere cosmica, altri meno. Un problema fondamentale nello svelare il mistero dei quasar è che molti nuclei (forse la maggior parte) sembrano essere circondati da un toro di polvere che li rende oscuri e, per questo, difficili da studiare.
Infatti, il modello standard per questi oggetti propone che i vari sottogruppi sono il risultato dell'angolazione con cui noi vediamo
i nuclei attivi . Se vediamo il nucleo frontalmente, e se è presente un getto di materia, le velocità dei gas sono grandi e la polvere è trascurabile, se visto di lato attraverso il toro, le velocità osservate sono molto più piccoli e l'assorbimento delle polveri caratteristiche sono dominanti. Ma finora nessuno sa con certezza come si formi un quasar, come si sviluppi nel tempo, o quali siano i processi fisici che generano le loro elevatissime energie.
La situazione può essere destinata a cambiare. L'attività violenta intorno a un buco nero è molto difficile da analizzare con solo carta e penna, e così per anni i ricercatori hanno cercato di utilizzare simulazioni al computer per identificare ciò che accade. Ma queste simulazioni hanno dovuto affrontare un grande ostacolo: riuscire ad analizzare dettagliatamente il flusso di materiale
su scala galattica di diverse centinaia di migliaia di anni luce, fino alla regione intorno al buco nero centrale, grande un decimo di un'anno luce.
È sempre stato troppo difficile tenere traccia di tutto in una tale scala ed in uno spazio così vasto.
Gli astronomi del CFA Chris Hayward e Lars Hernquist, unitamente Phil Hopkins ed altri, hanno trovato un modo per affrontare il dilemma di calcolo. Usano un sistema intelligente di multi-scala "zoom-in" che permette loro di tracciare e modellizzare, in modo fisicamente consistente, particelle selezionate di gas che si muovono all'interno del toro. Le loro simulazioni giungono a due conclusioni molto significative. In primo luogo, essi dimostrano che un toro di polvere può essere prodotto intorno al buco nero - in passato era stato ipotizzato per spiegare le morfologie diverse, ma non ne era mai stata dimostrata l'esistenza, anche in una simulazione. In secondo luogo, gli scienziati mostrano che il toro non è solo uno schermo passivo: svolge un ruolo attivo per l'alimentazione di gas e polveri nel disco di accrescimento attorno al buco nero stesso.
http://www.cfa.harvard.edu/news/2012/su201207.html
Alla scoperta dello stato dineutronico
Un nucleo ricco di neutroni può emetterne una coppia come singola unità come prodotto di decadimento nucleare.
Un nucleo con un unico neutrone viene considerato fisicamente impossibile, ma i ricercatori hanno visto una coppia di neutroni dalla vita ultrabreve come prodotto del decadimento nucleare. Il cosiddetto dineutrone era stato indirettamente osservato all'interno nuclei ricchi di neutroni, ma nuove prove sperimentali riportate in Physical Review Letters confermano che le coppie di neutroni possono esistere al di fuori del nucleo, anche se per un tempo molto breve. Ulteriori ricerche sui dineutroni potrebbero fornire una conoscenza delle fisica nucleare delle stelle di neutroni e delle supernovae.
Le forze che tengono insieme i protoni e neutroni in un nucleo non sono completamente compresi. Forme esotiche di materia, come dineutroni e diprotoni, i ricercatori offrono la possibilità di spingere i propri modelli agli estremi e vedere come reggono. Sia dineutroni che diprotoni sono quasi stabili, per cui i ricercatori hanno cercato brevi apparizioni di queste coppie di particelle nelle reazioni nucleari per diversi decenni. La maggior parte di queste ricerche ha cercato i diprotoni perché ricchi di neutroni nuclei sono più difficili da fare, e neutroni sono più difficili da individuare. I risultati sono stati ambigui, in parte perché la carica elettrica del protone complica l'analisi dei dati.
Recenti esperimenti con gli isotopi ricchi di neutroni elio-6 ed elio-8 hanno dato indicazioni che i neutroni di "valenza", che orbitano all'esterno della parte centrale del nucleo si presentano in coppia come un dineutrone. Ma la generazione di dineutroni come prodotti di decadimento al di fuori di un nucleo fornirebbe un modo molto più diretto per studiarli. I ricercatori hanno cercato dineutroni in due neutroni decaduti da nuclei ricchi di queste particelle, come ad esempio d’idrogeno ed elio-5-10 ma questi nuclei di solito generano decadimenti successivi di un neutrone seguiti da un altro, piuttosto che una coppia combinata.
"Di solito se un nucleo può emettere un singolo neutrone, che poi se ne farà", spiega Artemis Spyrou della Michigan State University (MSU) a East Lansing. Lei ei suoi colleghi hanno risolto questo problema individuando un nucleo, berillio-16, in cui è favorita due neutroni decadimento. Per singoli neutroni il decadimento è improbabile, perché il nucleo risultante, berillio-15, è ancora più instabile di berillio-16 rispetto all’emissione di neutroni.
Non esiste un percorso diretto per generare berillio-16 da qualsiasi nucleo stabile, in modo che il team ha scelto un nucleo instabile, boro-17, che potrebbe fungere da intermedio "trampolino di lancio." Ricercatori presso il ciclotrone superconduttore a MSU del National Laboratory, hanno isolato boro-17 da altri prodotti provenienti da collisioni fra una alta energia del fascio neon e berillio-9 bersaglio. Poi la regia di questo fascio secondario boro ad un altro bersaglio di berillio-9. Le collisioni talvolta provocano l’emissione di un protone di un nucleo di boro, producendo berillio-16, ricco di neutroni.
Il berillio-16 decade in circa 10-21 secondi in berillio-14 e due neutroni, e tutti e tre i prodotti di decadimento dovuto misurare. Individuare e identificare il berillio-14 non è stato difficile, ma rivelare i due neutroni era più difficile, perché a volte singoli neutroni generavano due lampi nella matrice rivelatore. Per essere sicuri che stessero vedendo due neutroni, la squadra di Spyrou ha respinto tutte le coppie di flash che si sono verificati nel raggio di 50 centimetri l'uno dall'altro.
Per gli eventi selezionati, i ricercatori hanno misurato le energie e gli angoli di scattering per il berillio-14 e due neutroni. Hanno confrontato i dati con simulazioni al computer per tre scenari possibili. La prima era di due consecutive, single-neutroni decade. Il secondo è a tre corpi decadimento, in cui vengono emessi i due neutroni al tempo stesso, ma senza alcuna correlazione spaziale con l'altro. Lo scenario finale ha coinvolto due neutroni raggruppati insieme come un dineutrone, che cade a pezzi in circa 10-22 secondi. La migliore corrispondenza ai dati era il modello di decadimento dineutrone.
"Questo è un esperimento molto buono" dice Bertram Blank del Centro per gli studi nucleari in Bordeaux-Gradignan (CENBG), Francia. Egli ritiene che il dineutrone sia un modo pratico per descrivere i dati, ma il reale stato dei neutroni può essere più complesso. Witold Nazarewicz dell'Università del Tennessee a Knoxville crede che questo sia un significativo dato sperimentale, dato che supporta altri lavori suggerendo che due neutroni insieme a coppie come fanno gli elettroni nei superconduttori. Man mano che i dati vengono raccolti su dineutroni, Nazarewicz aspetta possiamo acquisire conoscenze in altri ricchi di neutroni materia, come stelle di neutroni e ricchi di neutroni in uscita in supernovae, dove sono sintetizzati nuclei pesanti.
Higgs made in USA
Dal Tevatron di Chicago arrivano novità interessanti sul famigerato bosone. I fisici del Fermilab, centro di ricerca di fisica delle particelle nelle vicinanze della metropoli nordamericana, stanno infatti analizzando i dati prodotti dall'acceleratore fino al settembre del 2011, quando è terminato il suo funzionamento.
E proprio mentre gli scienziati analizzavano questa mole ingente di dati che si sono accorti di una somiglianza fra essi e quelli raccolti dai team al lavoro ai rilevatori CMS e ATLAS dell'LHC, a Ginevra.
Sostanzialmente si è notato che negli scontri fra protoni ed antiprotoni accelerati in queste gigantesche macchine c'era la produzione di particelle particolarmente fugaci e difficilmente rilevabili in Natura che potrebbero essere (o essere i prodotti) di qualche bosone di Higgs prodotto dalle alte energie che si liberano durante gli scontri tra le particelle.
A tale argomento è dedicato un articolo di Science in cui si legge:
La caccia al bosone di Higgs, la più ambita nel campo della fisica delle particelle e la chiave per la spiegazione fisica di come tutte le particelle ottengano la loro massa, si sta facendo sempre più eccitante. Questa settimana, gli scienziati che negli Stati Uniti lavorano con un acceleratore chiamato Tevatron, spento nel settembre 2011, hanno riferito che, dopo aver analizzato tutti i dati raccolti, vedono tracce dell’Higgs. I segni non sono abbastanza forti da accertarne la scoperta, ma sono simili a quelli rilevati lo scorso anno da ricercatori che lavorano con l'acceleratore europeo Large Hadron Collider (LHC). Il risultato "non mi fa più convinto [che l'Higgs c'è], perché sono già convinto", dice Gordon Kane, un teorico dell'Università del Michigan di Ann Arbor. "Ma spero che renda convinta una frazione più grande del pubblico là fuori''.Situato al Fermi National Accelerator Laboratory (Fermilab) in Batavia, Illinois, il Tevatron ha scontrato protoni e antiprotoni per rivelare particelle subatomiche fugaci normalmente non viste in natura. Queste collisioni si sono verificate all'interno di due rivelatori di particelle massicce, conosciuti come CDF e D0, che hanno cercato di individuare nuove particelle, e come rapidamente decadono in combinazioni di quelli più familiari. Nei loro set di dati definitivi, sia il CDF e le squadre D0 vedono decadere più candidati Higgs di quanto ci si aspetterebbe da processi in background casuali, come gli scienziati hanno riferito oggi durante la conferenza a Rencontres de Moriond a La Thuile, Italia.Gli eccessi sono in linea con sentori di Higgs riportati nel dicembre 2011 da ricercatori che lavorano con l'LHC al laboratorio europeo di fisica delle particelle, CERN, vicino a Ginevra, Svizzera. I protoni in LHC si scontrano con altri protoni all'interno di due rivelatori più grandi che si dedicano alla caccia al bosone di Higgs, i cui nomi sono ATLAS e CMS. Le squadre di ATLAS e CMS hanno visto eccessi di Higgs candidati con una massa di circa 125 giga-elettronvolt (GeV), o 133 volte la massa del protone. Il CDF e le squadre D0 vedono i candidati con circa la stessa massa ma con risoluzione di massa più povera. "Se si guarda a ciò che vede ATLAS, a ciò che vede CMS, CDF e D0, tutto ciò comincia ad assomigliare ad un quadro coerente", dice Rob Roser del Fermilab, co-portavoce di CDF. Le differenze principali tra Tevatron e LHC suggeriscono anche che i ricercatori con entrambe le macchine stanno vedendo bosoni di Higgs con le caratteristiche previste dal modello standard dei fisici. Ad esempio, un bosone di Higgs sarebbe emerso da una collisione protone-antiprotone al Tevatron in modo leggermente diverso da come potrebbe scaturire da una collisione protone-protone a LHC. Inoltre, i team CDF e D0 cercano Higgs che decadono in una diversa combinazione di particelle da quelle cercate dai team ATLAS e CMS. Eppure, i risultati di Tevatron e LHC sono all’incirca d'accordo tra loro e con le previsioni del modello standard. Il segnale Tevatron non è schiacciante. I fisici misurano la forza di un segnale con multipli della sua incertezza, indicati con la lettera sigma. Un multiplo più elevato implica una probabilità più bassa che decade sfondo, potrebbe imitare il segnale e indica un risultato più robusto. Insieme, CDF e D0 vedere un eccesso di 2.2 sigma. Questo risultato combinato è forte come sia il risultato ATLAS o CMS da solo, dice Fermilab Dmitri Denisov, co-portavoce di D0. Ma, dice, è inferiore del 5-sigma standard per la scoperta o anche il 3-sigma standard per la "prova" del bosone di Higgs.Tutti i suggerimenti saranno messi alla prova entro la fine dell'anno, come l'LHC raccoglie più dati. E se un Higgs di 125 GeV, qualche ricercatore del Tevatron si merita la gloria? "Penso che la gente avrebbe dovuto parlare a noi nella stessa frase", come il team di LHC, Roser dice. Ma, Denissov nota, "chi passa 5 sigma farà la scoperta, e il Tevatron non può farlo."Per ora, una certa cautela impulso. "È emozionante", dice Howard Gordon del Brookhaven National Laboratory di Upton, New York. Ma "dobbiamo attendere la fine dell'anno per dire qualcosa di definitivo."Per quanto riguarda ciò che avrebbe potuto, Denisov dice che fisici hanno presentato il risultato al direttore del Fermilab Pier Oddone una settimana prima. "Alla fine, abbiamo detto: 'Guarda, Pier, vogliamo usare il Tevatron di nuovo'", afferma Denisov. In risposta alla battuta, egli dice, Oddone sorrise.
Insomma come al solito bisogna prendere con cautela queste notizie perché dovranno essere confermate da ulteriori esperimenti. Ciò non toglie che gli eventi rilevati al Fermilab siano compatibili con la presenza del bosone di Higgs: ci sarà solo da dimostrare se questi eventi sono stati effettivamente prodotti dall'Higgs o siano una semplice fluttuazione statistica. Ad oggi non possiamo escludere né l'una né l'altra ipotesi ma la ricerca scientifica probabilmente ci riserverà delle sorprese in futuro...
Certo non mancano i modelli teorici di descrizione della realtà che fanno a meno del bosone di Higgs così come esistono modelli (ad esempio il Modello Standard della fisica delle particelle) che dipende fortemente da esso per giustificare i dati sperimentali. Il rilevamento o meno di tale particella in futuro sarà certamente un dato di cui bisognerà tener conto nella ricerca della teoria del tutto. Nuovi aggiornamenti sulla ricerca di quella che è stata chiamata ''particella di Dio''per via della sua importanza (ed elusività) non mancheranno e ve ne daremo senz'altro notizia.
Alla ricerca del neutralino
Presto dal CERN potrebbero arrivare notizie di questa sfuggente particella. E potrebbe essere accompagnata da altre particelle ad essa simili, note alla comunità scientifica col nome di ''particelle di Majorana'' dal nome del fisico italiano che per primo le teorizzò.
Queste particolari particelle sono caratterizzate dal fatto che le loro antiparticelle coincidono con le particelle stesse. Si comportano cioè come i bosoni (particelle prive di carica) e all'opposto dei fermioni (con carica): i primi, infatti, possono annichilarsi con una qualsiasi particella (fotone con fotone, gluone con gluone ecc.) mentre i secondi si annichilano solo con le loro antiparticelle (elettrone con positrone, quark con antiquark ecc.).
I neutralini, invece, sono particelle supersimmetriche composte da un fotino, uno zino e due higgsini (partner supersimmetrici rispettivamente del fotone, della particella Z e del bosone di Higgs) e insieme alle particelle di cui sopra possono essere di fondamentale importanza nell'ambito della computazione quantistica (i computer quantistici sono estremamente più avanzati ed efficienti di quelli odierni perché sfruttano i principi della MQ - primo fra tutti l'entanglement - per implementare complessi algoritmi in tempi sorprendentemente rapidi).
Si legge su Nature che il fisico Leo Kouwenhoven (Delft University of Technology nei Paesi Bassi), si è così espresso a tal proposito "Abbiamo visto fermioni di Majorana? Direi che si tratta di un cauto sì''. Sempre su Nature si legge:
Nel suo gruppo set-up, nanofili antimoniuro di indio sono collegati ad un circuito con un contatto d'oro ad una estremità e una sezione di superconduttore all'altro, e quindi esposto ad un campo magnetico moderatamente forte. Misurazioni della conduttanza elettrica dei nanofili mostrava un picco a tensione zero, che è coerente con la formazione di una coppia di particelle di Majorana , uno su ciascuna estremità della regione del nanocavo in contatto con il superconduttore. Come controllo di integrità, il gruppo ha variato l'orientamento del campo magnetico e verificato che il picco andava e veniva come ci si aspetterebbe per i fermioni di Majorana.Anche altri gruppi hanno riportato in precedenza prove circostanziali per la comparsa di fermioni di Majorana in materiali solidi e Jay Sau, un fisico della Harvard University di Cambridge, Massachusetts, che ha partecipato discorso di Kouwenhoven, dice che questa è una misura diretta. "Penso che questo esperimento sia di aspetto ancora più promettente ", dice. "Sarebbe difficile sostenere che non si tratti di fermioni di Majorana".
Il neutralino sarebbe con tutta probabilità una particella di Majorana e la sua esistenza potrebbe spiegare molte cose, basti pensare che questa particella è una dei ''candidati'' al ruolo di costituente della materia oscura, che si pensa costituisca il 25% dell'Universo osservabile.
Sarebbe interessante se si trovassero davvero queste particelle ma non è detto che prima o poi si trovino: infatti la loro esistenza (in particolar modo quella dei neutralini e in maniera meno rilevante quella dei fermioni di Majorana) è collegata a teorie fisiche, come quella della supersimmetria o del meccanismo di Higgs, che sono ben lontane dall'essere confermate sperimentalmente.
Neutrini: tanto rumore per nulla?
Quella che sembrava una notizia sensazionale destinata a minare le fondamenta della Fisica Teorica si è rivelata un falso allarme. Infatti proprio poche ore fa gli scienziati che lavorano al Gran Sasso hanno rilevato due errori tecnici che potrebbero aver alterato i risultati dell'esperimento sui neutrini effettuato il 23 settembre 2011 in cui risultava che i neutrini fossero giunti a destinazione 60 nanosecondi (miliardesimi di secondo) prima dei fotoni, risultato che contraddirebbe la Teoria della Relatività (Ristretta) di Einstein. La rivista Nature nelle sue news riporta il comunicato ufficiale dell'esperimento OPERA .
"La collaborazione OPERA, continuando la sua campagna di verifiche sulla misurazione della velocità del neutrino, ha individuato due problemi che potrebbero influenzare significativamente il risultato riportato. Il primo è legato all'oscillatore utilizzato per produrre gli eventi temporali tra le sincronizzazioni GPS. Il secondo punto è relativo alla connessione della fibra ottica che porta il segnale GPS esterno all'orologio principale di OPERA."
In parole povere sono state rilevate due anomalie:
- l'orologio atomico collegato al GPS (che ha una precisione eccezionale ma presenta pur sempre un margine d'errore) è stato calibrato male, e ciò ha permesso una disparità di misurazioni ''a favore'' del risultato trovato a settembre, proprio perché - secondo le misure dell'orologio - i neutrini andrebbero persino più veloci di quanto misurato a settembre;
- la fibra ottica che collega l'orologio al computer sarebbe stata collegata male e tale effetto contraddirebbe la misura di settembre. Più precisamente la connessione di tale cavo normalmente ha due stati: on e off. E, come ha spiegato Ereditato (il fisico che coordina l'esperimento OPERA) a ScienceInsider : "Lo utilizziamo da anni e in passato ha sempre funzionato correttamente. Ma poi è successo qualcosa per cui la connessione non era né accesa né spenta, ma in una posizione intermedia. Adesso - ha aggiunto - abbiamo il potenziale sospetto che questo effetto possa essere stato attivo mentre prendevamo i dati sui neutrini". I fotoni sarebbero stati ''ostacolati''nel loro moto da tale fenomeno e sarebbero giunti all'elaboratore con circa 60 nanosecondi di ritardo, proprio il discriminante tra la loro velocità e quella dei neutrini.
Lo scienziato ha tenuto a precisare che ''presentiamo questi nuovi dati con lo stesso livello di dubbio con cui nel settembre scorso avevamo annunciato l'anomalia nella misura della velocità dei neutrini. Bisogna mantenere la calma perché nemmeno adesso abbiamo la certezza'' e ''la fine non è ancora arrivata. Importante usare la stessa prudenza che abbiamo avuto in settembre''.
Una posizione condivisa dal direttore scientifico del Cern, Sergio Bertolucci, per il quale "la situazione resta aperta finché non ci saranno nuove misure indipendenti". Anche per il presidente dell'Infn, Fernando Ferroni, già in settembre i ricercatori "avevano detto che la misura rilevata era un'anomalia e che avrebbero cercato di capire se qualcosa non andava. Il fatto che adesso l'abbiano trovata va tutto a loro vantaggio: hanno mantenuto la parola". A dire l'ultima saranno però ancora una volta i dati sperimentali. D'altra parte già a maggio riprenderanno gli esperimenti per misurare la velocità del fascio di neutrini spedito dal CERN ai Laboratori del Gran Sasso e sicuramente d'ora in poi si presterà maggiore attenzione a tali inconvenienti sperimentali. Anche se non è detto che i neutrini si rivelino davvero più veloci dei fotoni, una tale eventualità rivoluzionerebbe ulteriormente la nostra comprensione del mondo e, come la storia della Fisica e più in generale della Scienza insegna, è proprio da queste rivoluzioni che nascono i modelli interpretativi della Natura più profondi ed affascinanti (a loro volta suscettibili di ulteriori sconvolgimenti).
In ogni caso, sicuramente riparleremo di questi argomenti e vi terrò informati di tutte le novità, se vorrete collegarvi al blog.
Trovato il bosone di Higgs ?
Recentemente si è tenuto un ciclo di conferenze al CERN che aveva come argomento l'individuazione del famigerato bosone di Higgs (o meglio, dei suoi effetti) in una serie di esperimenti all'acceleratore di particelle LHC (Large Hadron Collider, ''grande collisore di adroni''), in particolare si sono confrontati i dati raccolti dagli esperimenti ATLAS e CMS, che presentano un'incredibile somiglianza.
Questi dati sembrano attestare che l'Higgs ha una massa di circa 125 GeV, riducendo quasi a zero l'incertezza su di essa. Ma cos'è davvero il bosone di Higgs ?
Per trattare di questa particella dobbiamo innanzitutto parlare del modello standard della fisica delle particelle (o, più semplicemente modello standard). Si tratta di una teoria quantistica di campo (cioè di una teoria che descrive delle interazioni con gli strumenti della meccanica quantistica) che comprende le tre forze non-gravitazionali (debole, forte ed elettromagnetica) ed è coerente sia con la meccanica quantistica che con la relatività ristretta. Non è quindi una teoria unificata completa perché non riesce ad includere la forza gravitazionale (e quindi la relatività generale). Benché abbia avuto sempre un certo successo sperimentale, la maggior parte dei fisici lo considera ormai ''obsoleto''. I motivi sono tanti:
- si basa su dati sperimentali (massa e cariche delle particelle fondamentali, intensità delle interazioni...) che non riesce a spiegare teoricamente in modo convincente;
- non riesce ad includere in se la gravità e quindi non fornisce prospettive per la gravità quantistica;
- è in disaccordo con alcune verità sperimentali come la massa dei neutrini e la materia oscura.
Il bosone di Higgs è stato teorizzato appunto per cercare di sopperire al primo di questi problemi: esso infatti fornirebbe massa alle particelle. In particolare esso è la particella mediatrice di quello che viene chiamato campo di Higgs, presente in tutto l'universo (come una sorta di oceano), che funziona da freno alle particelle: infatti, la massa è intuitivamente definibile in termini di massa inerziale, cioè della capacità posseduta da un corpo di opporsi ai cambiamenti del suo moto. Più elevata è la massa di un corpo, più esso si opporrà ai cambiamenti del suo moto provocati da una forza (come espresso da 2°principio della dinamica F=ma). Allo stesso modo, secondo il meccanismo di Higgs, la massa sarebbe dovuta solamente all'effetto frenante del campo di Higgs: più la particella ''viene ostacolata'' nel suo moto da questo campo, più massa acquista. Se il campo gli è indifferente, questa rimane priva di massa (come il fotone, che ha massa uguale a zero). Fatto sta che anche se venisse trovato il bosone di Higgs resterebbero sempre da spiegare le sue proprietà, sperimentalmente verificate ma teoricamente dubbie. Insomma, se non venisse trovato sarebbe un ulteriore conferma che il modello standard è ormai superato e se venisse trovato farebbe sorgere nuovi interrogativi. In ogni caso il modello standard presenta molte lacune (prima fra tutte il non essere una teoria unificata o TOE ) e il ritrovamento dell'Higgs non sarebbe sufficiente a colmarle tutte. Consiglio questo articolo comparso su Nature per approfondire e sapere più dettagliatamente le modalità della ricerca del bosone di Higgs: Detectors home in on Higgs boson.
Neutrini più veloci della luce?
Qualche mese fa una notizia ha sconvolto la comunità scientifica e non solo: i neutrini utilizzati per l'esperimento CNGS (CERN neutrinos to Gran Sasso) sembravano aver viaggiato a velocità superiori a quella della luce durante i 730 km che separano Ginevra dal Gran Sasso.
I neutrini, la cui esistenza fu provata teoricamente (1930) dal fisico Wolfgang Pauli e poi dimostrata sperimentalmente nel 1956 da un pool di ricercatori, sono prodotti in tutte le reazioni termonucleari e in quelle di emissione radioattiva (il sole emette un numero elevatissimo di neutrini ogni secondo). In Natura esistono 3 varietà di neutrini (chiamate sapori) ovvero quello elettronico, quello muonico e quello tau, o tauonico.
Quelli utilizzati per l'esperimento sono del secondo tipo. Il presunto superamento di c è dovuto alla registrazione dell'arrivo delle particelle al laboratorio del Gran Sasso circa 60 nanosecondi (1 nanosecondo = 1 miliardesimo di secondo) prima di un eventuale fotone, che viaggia costantemente alla velocità di 300 000 km/s.
Questo sembra smentire la relatività ristretta di Einstein. Ma vediamo attentamente a cosa ci portano questi dati. Secondo Einstein la velocità della luce nel vuoto è una costante ma l'esperimento non è avvenuto nel vuoto bensì in presenza del campo gravitazionale terrestre che curva lo spaziotempo: di questo il fotone risente molto più del neutrino (per non parlare poi dei campi elettromagnetici) che, per sua natura, interagisce pochissimo con l'ambiente circostante. Ci sono poi spiegazioni più stravaganti di tutto ciò: potrebbe essere dovuto a fenomeni quantistici come il quantum tunnelling o ancora i neutrini potrebbero avere attraversato un wormhole. Altri affermano che essi possano aver attraversato una dimensione parallela che è servita loro da ''scorciatoia'', in accordo con la Teoria delle Stringhe. Ma anche se fosse stata superata la velocità del fotone, questo potrebbe anche voler dire che c è un'approssimazione senza comportare l'inesistenza di una ''velocità limite'' oltre alla quale non si può andare, come pensava Einstein. In ogni caso gli esperimenti stanno continuando e recentemente si sono avute importanti conferme che vanno, però, ulteriormente verificate. Per chi conosce l'inglese consiglio questo articolo di Nature (raccomando di leggere i commenti): Particles break light-speed limit.
Nessun commento:
Posta un commento