BUCO NERO O PONTE DI EINSTEIN – ROSEN?

BUCO DEL TARLO (WORMHOLE) NEL CENTRO DELLA NOSTRA GALASSIA?
o si tratta di un buco nero supermassiccio ?

Per l'osservazione di molti fenomeni, l'essere vicini è un vantaggio: sono possibili studi più dettagliati e quindi ne deriva una conoscenza più approfondita. È il caso del Sole, ad esempio, la cui prossimità ci ha permesso (e permette) osservazioni particolareggiate che ci fanno conoscere la nostra stella meglio di qualsiasi altra, proprio perché la vicinanza consente di registrare segnali non visibili nel caso di oggetti più lontani.

Basti pensare alla granulosità della sua fotosfera, alla morfologia delle macchie solari, al flusso di neutrini che emette. Vi sono tuttavia anche situazioni opposte, per cui un'eccessiva vicinanza rende più difficile, se non impossibile, vedere determinati fenomeni. Se vi trovate a fare trekking nel deserto di Nazca, in Perù, difficilmente vi rendereste conto di attraversare dei bellissimi geoglifi, rappresentanti colibrì, cani, ragni e altri animali.

Ma se vi levaste in volo con un piccolo aeroplano, allora gli potreste riconoscere e ammirare facilmente, realizzando come da lontano queste figure – quindi anche più di 100 metri, ma invisibili da terra – si notano molto chiaramente. Se volete togliervi la soddisfazione di verificare con i vostri occhi, ma non avete in programma un viaggio in Perù, potete sfruttare quella meraviglia che è Google Earth, potete visitare così online alcune di quelle meraviglie.

E così anche per le galassie: è più facile vedere grandi outflow di gas e polveri, oppure giganteschi lobi di emissione radio o X intorno a galassie lontane (specialmente se orientate favorevolmente), piuttosto che associati alla nostra, dato che nella nostra siamo immersi.

Tutti abbiamo in mente le impressionanti immagini della galassia M82 con l'incredibile quantità di gas e polveri fredde emesse, rivelate dal telescopio per astronomia infrarossa Spitzer o l'immagine composta (ottica, radio e X) di Centaurus A che mostra jet e lobi giganteschi; ma non ci eravamo accorti che la nostra Galassia, ritenuta abbastanza "normale" ed energeticamente "tranquilla", mostra enormi lobi di emissione di energia.

Se avessimo potuto osservarla dal di fuori, così come facciamo con tutte le altre, possibilmente guardandola di taglio con telescopio sensibile ai raggi gamma, avremmo visto qualcosa di simile a quanto si può vedere con simulazioni al computer o artistici.

Standoci invece dentro, e per di più nel disco, la cosa si è rivelata più difficile ed è stata necessaria un'attenta analisi dei dati ottenuti dal telescopio Fermi per scoprire l'esistenza delle due grandi "bolle" di emissione di raggi gamma che si estendono da entrambe le parti del piano della nostra galassia e sono centrate sul suo nucleo.

Sebbene l'origine e la natura di queste "bolle" di radiazione gamma sia tutt'altro che assodata, è ragionevole pensare che esse siano collegate alla presenza del buco nero super massiccio che si trova nel nucleo della nostra Galassia. Quando un paio di anni dopo la scoperta delle "bolle", e sempre nei raggi gamma, si è scoperta anche l'esistenza di un debole doppio jet che si estende dal centro della Galassia sino ai bordi delle due bolle, il collegamento con il buco nero ha ricevuto ulteriore credito, se non altro per l'analogia con quanto osservato in molte galassie "attive".

La debolezza del jet induce a pensare che quanto si vede oggi, sia quel che rimane dei fenomeni ben più energetici avvenuti nel passato della nostra Galassia e che il buco nero centrale sia ora, e da tempo, sostanzialmente dormiente. La sua massa, circa 4 x 106 masse solari, non è così grande come quello di altri che si trovano nei nuclei di altre galassie ( ~ 2 x 108 masse solari nel caso di Andromeda fino a ~ 2 x 1010 nel caso di NGC 4889), ma lo qualifica comunque come buco nero supermassiccio e il suo valore è stato calcolato studiando il moto di alcune stelle che gli ruotano attorno.

Ovviamente tutti noi speriamo di avere modo di vederlo in azione e dunque le osservazioni del centro galattico continuano e la zona è costantemente monitorata in attesa di assistere al suo prossimo "pasto". Uno è atteso a breve (ma è un po' in ritardo rispetto alle previsioni iniziali), e consisterò in un enorme nube di gas, detta G2, che gli si sta dirigendo contro.

Ma è veramente un buco nero quello che diversi gruppi di ricerca stanno osservando? Già perché c'è chi si chiede se Sgr A* non sia piuttosto un wormhole, creato nell'universo primordiale, che potrebbe mettere in connessione due regioni distinte del nostro Universo, o addirittura due universi diversi, dei Multiversi. I wormhole (o ponti di Einstein-Rosen) sono una caratteristica topologia dello spazio-tempo che, essendo contemplata come soluzione valida delle equazioni che descrivono la relatività generale, viene considerata seriamente e studiata dai fisici teorici, i quali li hanno classificati in vari tipi a seconda della loro proprietà.

In un recente lavoro, Zilon Li e Cosimo Bambi, della Fudan University di Shanghai, in Cina, si pongono il problema di capire che vi siano osservazioni astronomiche in grado di distinguere tra un buco nero e un wormhole, Li e Bambi sostengono che osservazioni di una nube di gas caldo, in orbita in prossimità della più interna orbita circolare possibile intorno a Sgr A*, potrebbero permettere di discriminare tra due ipotesi (buco nero o wormhole).

La loro tesi è corroborata dai risultati di numerose simulazioni che mostrano come la morfologia delle immagini distorte dal forte campo gravitazionale, sia diversa nei due casi. Ciò in quanto la sera di cattura apparente dei fotoni (l'ombra) di un wormhole sarebbe molto più piccola di quella di un buco nero.

Gli astronomi consapevoli delle unicità offerte dal laboratorio Sgr A*, anche grazie alla relativa vicinanza, si stanno da tempo attrezzando per condurre osservazioni sempre più dettagliate e già l'anno prossimo, all'osservatorio ESO di Cerro Paranal entrerà in funzione GRAVITY, uno strumento che è stato costruito per sfruttare al meglio le caratteristiche interferometri che del VLTI e ottenere le prime immagini infrarosse di altissima risoluzione di quel che succede nel centro della nostra galassia.

Più ambizioso, ma ancora da realizzare, è il progetto dell'Event Horizon Telescope (EHT), un telescopio che si ripromette osservazioni (nella banda millimetrica e sub millimetrica, combinando in modo interferometrico molti radio telescopi sparsi nel mondo) di risoluzione angolare talmente spinta da essere in grado di risolvere l'orizzonte degli eventi di Sgr A* e misurare quindi la sua "ombra".

Francamente non credo che le osservazioni di GRAVITY permetteranno di capire se al centro della nostra Galassia alberghi un buco nero di quattro milioni di masse solari o se sia invece un esotico passaggio verso una destinazione ignota, sia essa del nostro stesso universo, piuttosto che in un altro. Sono però convinto che i risultati di queste nuove osservazioni saranno comunque sorprendenti ed entusiasmanti (come lo saranno quelli dell'EHT quando arriveranno) e che ci faranno fare un altro passo avanti verso una conoscenza del mondo che continua a riservarci sorprese.

ispirato a "Le Stelle" e Maccaro

Copyright © di Giovanni Valentini
tutti i diritti sono riservati all’autore


La densità dell'Acqua

Ciò rende piuttosto bassa la densità media del Sole, che è di 1,4 grammi per centimetro cubo. La densità dell'acqua è un grammo per centimetro cubo. Quindi la densità media del Sole è confrontabile con quella dell'acqua.

Copyright © di Giovanni Valentini
tutti i diritti sono riservati all'autore


LO STREGATTO QUANTISTICO È DIVENTATO REALTÀ

Ottenuta la prima prova sperimentale di un fenomeno paradossale della meccanica quantistica noto come il gatto del CHESHIRE, in cui la massa di una particella viene separata dalle proprietà fisiche della particella stessa, previsto in via teorica solo un anno fa. Il risultato è importante non solo perché migliora le conoscenze delle leggi che descrivono il mondo dei quanti, ma anche perché potrebbe consentire progressi nel campo della meteorologia e nell’applicazione della fisica quantistica all’ mformation technology.

Fisica delle particelle

Il gatto del Cheshire è un personaggio del romanzo “Alice nel paese delle meraviglie”, conosciuto anche come STREGATTO. Tra le altre caratteristiche, la fantasia dell’autore Lewis Carroll lo dotò delle capacità di scomparire, lasciandone però visibile il sorriso.

In uno studio teorico del 2013, un gruppo di fisici inventò il Gatto del Cheshire quantistico, un soprannome, che come il più famoso gatto di Schrödinger, serve a illustrare in modo semplice uno dei paradossi della meccanica quantistica.

In questo caso si tratta di un qualunque oggetto del mondo microscopico che ha la sua posizione della massa separata spazialmente da una o più proprietà fisiche.

In uno studi o pubblicato sull’ultimo numero di “Nature Communications”, Tobias Denkmayr della Vienna University of Technology e colleghi riferiscono di aver trovato la prima conferma sperimentale del gatto del Cheshire quantistico, grazie ad una tecnica denominata Interferometria a neutroni.

Nel’apparato sperimentale dello studio, un fascio di neutroni è separato in due sottofasci, che si differenziano l’uno dall’altro per il loro stato di spin, nel primo fascio, i neutroni hanno spin orientato in direzione parallela a quella di propagazione, nel secondo hanno direzione opposta. I due sottofasci vengono forzati a seguire due cammini diversi all’interno dell’interferometro e poi vengono ricombinati. Dopo la ricombinazione, il fascio attraversa un filtro che lascia passare solo i neutroni con spin parallelo alla direzione di moto, e poi inviato al rilevatore.

“Questo processo è denominato post-selezione” spiega Herman Geppet, coautore dello studio. “Con questa tecnica, si ottiene un fascio contenente i neutroni, con entrambe le direzioni di spin, ma solo quelli con spin parallelo al moto vengono rivelati”.

Se ci si attiene alle indicazioni del rilevatore, dunque, è come se fossero presenti solo i neutroni del primo fascio. Come prevedibile, se si mette un filtro in grado di assorbire una piccola parte dei neutroni, nel primo fascio, il rilevatore finale ne conta di meno, mentre se il filtro stesso viene messo a intercettare il secondo sottofascio, il rilevatore non mostra differenze.

Se invece si interviene con un magnete a modificare leggermente la direzione di spin dei neutroni nei due sottofasci, si verifica un fenomeno paradossale. Lo spin dei neutroni del fascio finale, lo stesso che entra nel rilevatore, si modifica solo se il sottofascio influenzato dal magnete è il secondo, quello che non ha influenza sul conteggio dei neutroni finali.

“Preparando i neutroni in questo speciale stato iniziale ed effettuando poi la post-selezione, è possibile arrivare a una situazione in cui entrambi i cammini dell’interferometro sono importanti, ma in modi tra loro molto differenti”, commenta Denkmayr. “Il sistema si comporta come se le particelle fossero separate spazialmente dai loro spin”.

Ecco allora che si manifesta il gatto del Cheshire quantistico, il gatto ha percorso il primo tragitto, mentre il suo sorriso si è separato dal corpo per propagarsi lungo il secondo tragitto, e ricongiungersi al corpo nella parte finale.

Il risultato è importante perché, oltre a dimostrare un fenomeno fondamentale e finora sconosciuto dalla meccanica quantistica, consentirebbe in linea di principio di migliorare alcune misurazioni quantistiche, sia metrologiche, sia nel campo di migliorare alcune misurazioni quantistiche sia metrologiche, sia nel campo dell’applicazione della fisica quantistica “all’information technology”.


SUPERNOVA E SUO DESTINO COME SI FABBRICA IL FERRO DEL NOSTRO SANGUE

Sappiamo che si può “cavare sangue” da una stella. Più precisamente, dalla esplosione di una stella. Il nostro sangue è rosso perché contiene ferro, essenziale per il trasporto di ossigeno dai polmoni ai tessuti. Sappiamo anche che si tratta degli stessi atomi di ferro che formano una spada o una pentola.

Una splendida osservazione del satellite europeo Integral, lanciato nel 2002 dall’ESA è costruito con una forte partecipazione italiana, soprattutto INAF ci mostra adesso che il ferro nasce dal cielo. Lo abbiamo visto apparire nel cuore di una supernova, la gigantesca esplosione con la quale una stella può concludere la sua vita.

Che gli elementi dei quali siamo fatti, dal carbonio, ossigeno e azoto dei tessuti, al calcio delle ossa siano prodotti nelle stelle, lo sappiamo da quando abbiamo capito la fusione termonucleare, per esempio quella che avviene tutti i giorni nel Sole. Già nel 1958 l’aveva raccontato, e in modo splendido, al grande pubblico Halow Shapley, nel suo “Of the Stars and Men”.

Nel cuore del Sole, i nuclei più leggeri, partendo dall’idrogeno si fondono per formare quelli un po’ più pesanti, tipo elio, carbonio, azoto, e così via. La fusione regala anche tantissima energia, quella, per intenderci che sappiamo utilizzare in una bomba (quella all’infrarosso, appunto), e che vorremmo sfruttare in una centrale termonucleare a fusione, ma che non siamo ancora capaci di fare.

È l’energia che tiene acceso il Sole e che perciò ci permette di vivere, giorno dopo giorno. Fin qui tutto è chiaro: che siamo polvere di stelle, abbiamo calcio nelle ossa perché l’ha fatto una stella come il Sole e così via.
Ma le cose si complicano considerando gli elementi più pesanti, come appunto il ferro, o addirittura l’oro o l’uranio, che pure esistono in natura. Infatti, proprio a partire dal ferro (ricordiamo, Z = 26) la formazione degli elementi produce più energia ma ne richiede: per costruire il ferro e gli altri elementi più pesanti bisogna fornire al materiale stellare una grande quantità di energia, ben di più di quanta ne produce un Sole qualsiasi.

Insomma, ci vuole una supernova, che ci dia la stessa forma di nucleosintesi oggi conosciuta, la nucleosintesi esplosiva che viene dopo quella stellare “classica”, appunto, fino al ferro. Prima ancora, c’era quella “cosmologica”, nei primi tre minuti dopo il Big Bang , che si forma ai primi leggerissimi elementi dopo l’idrogeno: elio o litio.

Per completezza aggiungiamo che da qualche decina di anni, “Homo Sapiens” ha aggiunto alle tre forme naturali di nucleosintesi una quarta, quella artificiale, che crea elementi transuranici, finora non osservati in natura.

La sera del 21 gennaio scorso (2014), Steve Fossey, astronomo inglese dell’University College di Londra stava mostrando ai suoi studenti l’immagine appena presa, di una galassia particolarmente spettacolare, M82. Come la nostra, anche M82 contiene centinaia di miliardi di stelle che sono invisibili una per una, semplicemente perché la galassia è troppo lontana. Le stelle formano quindi un chiarore lattiginoso, da cui il nome di galassia.

L’astronomo notò immediatamente che, invece, nella parte esterna della galassia una “stella” era ben visibile come un puntino brillante sul fondo lattiginoso di stelle indistinte, “puntino” che non c’era in altre immagini dello stesso oggetto. Non poteva che essere una stella temporaneamente molto più luminosa delle altre, cioè una supernova, la gigantesca esplosione che emette un picco di luce miliardi di volte superiore a quella del Sole.

Abbiamo imparato che nel cosmo ci sono due classi principali di Supernovae: quelle che acquistano la loro energia dal collasso gravitazionale delle loro stelle progenitrici, e quelle la cui energia proviene da catastrofici processi di fusione termonucleare nelle stelle. Queste ultime prendono il nome di “ Tipo Ia” e quella scoperta da Fossey, denominata SN2014J, appartiene a quella classe.

Le esplosioni di tipo Ia impiegano circa tre settimane per raggiungere il valore massimo della loro luminosità, che arriva allo sbalorditivo valore di 4 miliardi di volte quella del nostro Sole, per poi scendere progressivamente più o meno con la stessa rapidità. Come è facile immaginare, il loro potentissimo bagliore le rende visibili fino ad enormi distanze.

Sfruttando anche l’ulteriore importantissima caratteristica che queste esplosioni hanno tutte una luminosità intrinseca, confinata in uno stretto intervallo di valori, le supernove Ia sono impiegate da anni dagli astronomi come preziosi “metri cosmici”, ovvero “candele standard” utilizzabili per misurare le distanze nell’universo con una più che discreta precisione. Ed è proprio grazie ad osservazioni delle supernove Ia, che Saul Perlmutter, Brian Schmidt e Adam Reiss hanno vinto nel 2011 il Premio Nobel per la fisica, avendo scoperto la sorprendente proprietà dell’Universo che sta accelerando la sua velocità di espansione.

Tuttavia, l’idea fondamentale che queste esplosioni di Supernovae vengono innescate dalla repentina fusione nucleare del carbonio presente in una nana bianca e non era mai stata confermata direttamente.

La nostra migliore visione degli eventi che portano all’accensione di una supernova Ia ci racconta questa storia.

Quando una qualunque stella, di taglia simile al Sole, in qualunque angolo dell’Universo, si avvicina alla fine del suo ciclo evolutivo, perde i suoi strati più esterni (che vanno a costruire una nebulosa planetaria) e contemporaneamente vede il suo nucleo contrarsi e addensarsi, per diventare poi una nana bianca.

Per farla breve una nana bianca è un oggetto della massa del Sole concentrata in un volume pari a quello della Terra. Lasciate al loro destino le nane bianche non hanno una esistenza molto esaltante, visto che al loro interno rimane solo una gran quantità di materia iperdensa e molto calda. Densità temperatura e composizione chimica del nucleo delle nane bianche non hanno infatti valori sufficienti per riaccendere la fornace termonucleare, e così queste sfere incandescenti sono destinate, seppur lentamente, a raffreddarsi e ad affievolirsi, fino a scomparire nel buio e freddo cosmico.

C’è però ancora qualche chance per alcune di esse per finire la loro esistenza in modo davvero memorabile. Se, ad esempio la nana bianca aumenta la massa catturandola da una stella compagna o perché viene ad impattare un altro oggetto del suo stesso tipo, può raggiungere un valore critico per cui la spinta esplosiva della gravitazione torna a sovrastare la forza di resistenza esercitata dal carbonio presente nel suo nucleo.

È l’inizio della catastrofe: il nucleo stellare viene ulteriormente compresso fino a che innesca la fusione termonucleare del carbonio. E questo processo avviene – in un lampo-, propagandosi velocemente in tutta la nana bianca e forgiando gli elementi chimici più pesanti del carbonio, fino ad arrivare a quello con il nucleo più strettamente legato, ovvero il nichel -56, nel gruppo vicino al ferro.

L’enorme quantità di energia liberata in questo processo disintegra letteralmente la nana bianca, scagliando i suoi resti e i nuovi elementi prodotti durante l’ultimo atto della sua esistenza con velocità di migliaia di chilometri al secondo. Nei primissimi giorni dopo l’esplosione, la salita di luminosità della supernova è data dall’energia rilasciata nel processo di decadimento radioattivo del nichel -56 che si trasforma nel più stabile cobalto -56.

Ma anche questo elemento non è poi così tranquillo, nel giro di qualche mese decade e si trasforma - alimentando ancora l’emissione energetica della supernova - in ferro -56 questa sì stabile. Ecco, in estrema sintesi la storia di una supernova di tipo Ia. Tutto bello, tutto chiaro. Peccato però che non era mai stata osservata alcuna evidenza diretta di questi processi di trasformazione degli elementi che “certificasse” una volta per tutte la validità di questo modello di produzione del ferro, per noi così ragionevole ed elegante.

Gli astronomi erano da tanti anni a caccia, tra i segnali di alta energia provenienti da una supernova, dalle tracce di raggi gamma emessi dal cobalto -56 nel suo decadimento a ferro -56 nelle settimane immediatamente seguenti l’esplosione. Si tratta di una “riga spettrale”, con una energia ben distinta e nota, inconfondibile. Inizialmente, gran parte di questi raggi gamma sono assorbiti dal materiale in rapida espansione che altri non è se non i resti della nana bianca esplosa.

Col passare del tempo però, questo materiale diviene sempre più tenue e trasparente, e quindi sempre più raggi gamma riescono ad emergere da questa bolla, portando con sé tutta la loro energia iniziale. Così se questi fotoni viaggiatori e messaggeri si fossero trovati ad incontrare uno strumento in grado di decifrare le informazioni codificate nel loro segnale, avrebbero potuto confermare il processo di decadimento da cobalto a ferro, tutta la catena di reazioni termonucleari innescata durante l’accensione di una supernova di tipo Ia.

L’attesa si è conclusa proprio con l’apparire della SN2014J, il 21 gennaio del 2014. Le prime indagini sulla sua curva di luce e sul suo spettro hanno fatto saltare sulla sedia “i supernovisti” e per due ottime ragioni. La prima: si trattava proprio di un’esplosione con abbastanza energia da creare il ferro. La seconda: SN2014J era piuttosto prossima a noi, tanto da meritarsi la palma di più vicina supernova di tipo Ia esplosa negli ultimi quarant’anni.

Insomma, la supernova in M82 diventerà di colpo il candidato ideale per cercare la prova della creazione degli elementi che “il Sole non sa fare”. Era la grande chance dell’astronomia gamma, con il telescopio INTEGRAL, messo in orbita dall’Europa più di dieci ani fa, proprio per carpire i segreti del processo di formazione. Il suo rilevatore centrale, in parte costruito in Italia, analizza i raggi gamma.

Quelli che vengono da una supernova dovrebbero avere la firma inequivocabile e ben distinta di ciascuno degli elementi appena nati, se ci sono davvero. Come abbiamo visto, in questo caso, per di più, la supernova era abbastanza “vicina”, solo ad una decina di milioni di anni luce, alla portata del Telescopio.

Il team di ricercatori guidati da Eugène Churazof, dell’istituto di Ricerche Spaziali di Mosca ha così osservato con INTEGRAL e i suoi strumenti la supernova per quattro mesi, dalla fine di gennaio di quest’anno alla fine di aprile e poi per tutto il mese di giungo. Un periodo molto lungo, dettato dalla necessità di cogliere il momento migliore per rivelare l’emissione gamma, il momento nel quale i fotoni ce la fanno ad uscire.

Nel periodo immediatamente successivo all’esplosione la sfera di gas che si espande era ancora densa e i fotoni gamma prodotti dal decadimento non riescono ad uscire per cominciare il viaggio che li porterà fino a noi. Bisogna lasciare passare un po’ di tempo per dare modo all’espansione di diluire la materia per permettere il passaggio della radiazione gamma. D’altro canto, non si può aspettare troppo, perché ogni 77 giorni la quantità di cobalto pronto a decadere emettendo le righe che vogliamo osservare, si dimezza, rendendo sempre più debole l’emissione.

Alla fine è stato scelto l’intervallo di tempo compreso tra i 50 e 100 giorni dopo l’esplosione. Un confronto tra i dati raccolti da IBIS (Imager on Board the Integral Satellite, uno degli strumenti a bordo dell’osservatorio spaziale) nei 50 giorni del 2014 e quelli di un analogo periodo nel 2013, quando di supernovae vicine non ce n’erano, mostra che quest’anno è presente una sorgente proprio in corrispondenza della posizione di M82.

Combinando i dati di IBIS con quelli dello spettrometro SPI (Spectometer on INTEGRAL) si è ottenuto uno spettro che mostra chiaramente le righe prodotte dai raggi gamma emessi nel processo di decadimento del cobalto -56. L’analisi accurata dell’energia dei fotoni contenuti in queste righe ha rivelato che sono stati prodotti da materiale in movimento. Addirittura, ha permesso ai ricercatori di dare una stima della velocità del materiale stesso, cioè 10000 km/s, ovvero 36 milioni di km/h. A questa velocità si potrebbe andare dalla Terra al Sole in poco più di quattro ore.

In vista di una pubblicazione sulla prestigiosa rivista “Nature”, i dati di INTEGRAL sono stati spremuti fino all’ultimo bit e gli scienziati sono riusciti a risalire alla quantità di nichel responsabile dell’emissione. Le stime indicano un intervallo di massa compreso tra 0,4 e 0,6 masse solari, cioè un valore perfettamente compatibile con quello che ci si aspetta dall’esplosione di una nana bianca.

Insomma, grande emozione per la prima volta nella storia dell’astronomia, cioè nella storia dell’uomo, assistiamo in diretta alla creazione dell’elemento che fa rosso il nostro sangue e col quale siamo familiari. E il cerchio della natura si chiude: se il ferro che porta l’ossigeno al mio cervello, è solo grazie a lui che posso capire come sono nato.

Ispirato a “Le Stelle” e Bignami


SOLE E SUA ASTROFISICA

Negli ultimi anni, la fisica solare ha avuto un notevole sviluppo non soltanto per quanto riguarda la conoscenza di processi che avvengono nel Sole, ma anche per le connessioni che tali fenomeni hanno con quelli terrestri.

La corona solare ha una temperatura attorno al milione di gradi, che è molto più alta di quella della superficie del Sole. (circa 5800 °K).

Il problema di come si scalda la corona è ancora in corso, che si studia a partire dagli anni ’70, grazie alle misure compiute con lo Skylab. In realtà le alte temperature della corona sono state scoperte già negli anni ’30, quando si identificarono alcune righe spettrali che corrispondevano ad alcuni elementi, come il ferro, che sono stati ionizzati molte volte, cioè hanno perso parecchi elettroni. Sono quindi ioni che esistono solo in un plasma a elevatissima temperatura.

La spiegazione definitiva non è stata trovata. Ci sono due modelli che, nonostante siano in competizione tra loro, in realtà possono anche coesistere. Uno è che ci sia la possibilità che esistono le onde che si propagano dalla fotosfera. Il plasma è uno stato ionizzato della materia, per cui la dinamica è controllata anche dal campo magnetico, diversamente dai gas neutri.

Quindi ci sono anche delle altre onde, oltre a quelle acustiche, legate a fluttuazioni del campo magnetico e che si propagano lungo le linee del campo magnetico, come se queste fossero corde elastiche che vibrano. Sono le “onde di Alfvén”, e possono trasportare dell’energia dalla fotosfera alla corona.

Un secondo modello – detto dei nano-brillamenti – prevede invece la conversione di energia intrappolata nel campo magnetico, in altre forme di energia tramite un processo denominato riconnessione magnetica. Questo è in effetti il processo alla base dei brillamenti solari veri e propri.

DENSITÀ della corona solare. La densità dipende dall’altezza. Diminuisce da un miliardo a un milione di particelle per centimetro cubo, spostandosi dalla base della corona sino alla distanza di un raggio solare (695000) dalla superficie del Sole. Gas così rarefatti si trovano solo nella ionosfera terrestre, che è un plasma parzialmente ionizzato dalle radiazioni solari.

È ricca di elettroni e la sua densità è confrontabile con quella della corona solare.

Mettendo un termometro nella corona solare si misurerebbe un milioni di gradi?

La densità è talmente bassa che bisognerebbe aspettare un po’. Ma brucerebbe ugualmente tutto per la quantità delle radiazioni che arrivano dal sole.

GLI ULTRASUONI portano i liquidi a temperature elevatissime, ma solo su scala molecolare. È paragonabile questa situazione alla corona solare.
Non è paragonabile perché tutto dipende dal campo magnetico. Se si spegnesse il campo magnetico non succederebbe più niente. È il campo magnetico a trasportare queste onde. Si tratta di fluttuazioni contemporanee di velocità e di campo magnetico. Nella corona le densità sono molto basse, ma i campi magnetici sono ancora importanti.

Quindi i gas sono costretti a seguire le sue linee di forza. Come in quell’esperimento, della polvere di ferro buttata su un foglio con sotto il magnete, la polvere si distribuisce lungo il campo magnetico.

Ciò succede nella corona, dove la dinamica è dominata dal campo magnetico. Ci sono due tipi di struttura al riguardo. Una è ad arco, le linee di forza si rinchiudono sulle due polarità magnetiche opposte. L’altra è quella aperta, in questo caso le onde si propagano verso l’esterno, secondo le linee di forza di un campo magnetico che si rinchiudono nello spazio interplanetario, poiché un campo magnetico non può essere aperto.

Ci sono quindi onde che si propagano sia in configurazioni del campo magnetico chiuse, sia in quelle aperte. Tali onde sono responsabili sia del riscaldamento della corona, sia dell’accelerazione del vento solare. Ce ne sono di due tipi, quello lento e quello veloce.

Il primo ha una velocità di 400-500 km/s e il secondo di 700-800. Il vento lento è associato alle strutture di campo magnetico ‘chiuso’ è causa sul piano equatoriale della corona delle strutture a pennacchio. In generale la Terra è investita da un vento lento. Il vento veloce è invece espulso dalle regioni polari. I due venti sembrano collegati a processi fisici diversi.

Le misure compiute nel campo interplanetario dagli strumenti hanno rilevato caratteristiche fisiche completamente differenti.

DIFFERENZE FRA PARTICELLE Per il 90% si tratta di idrogeno ionizzato o anche neutro, in misura percentuale. Quindi protoni ed elettroni. Poi ci sono particelle alfa, che sono nuclei di elio, e anche ioni pesanti, in percentuali inferiori all’1%. Fondamentalmente si tratta di idrogeno con un po’ di elio.

SCENDENDO sotto la corona solare, come possiamo immaginarci il sole? C’è un limite di transizione netto o un lento sprofondare in strati sempre più lenti, come potrebbe essere l’ingresso nel pianeta Giove? È più simile all’entrare in Giove. Di Giove di dice che sia una stella mancata, in quanto non avrebbe avuto la massa sufficiente per poi comprimerlo al punto di innescare al suo interno le reazioni di fusione nucleare. È un fluido, non ha una superficie di discontinuità.

Certamente alla superficie della fotosfera si ha un aumento repentino della densità del plasma, ma niente di più. La corona è a un milione di gradi, più sotto la superficie è invece di 5000 gradi. Poi, in profondità risale a milioni di gradi.

All’interno del Sole ci sono quindici milioni di gradi. Via via che si scende aumenta la pressione gravitazionale dei gas sovrastanti. Nel nocciolo si produce l’energia. Le reazioni di fusione nucleare sono possibili, appunto, solo con temperature dell’ordine di 15 milioni di gradi.

Non sono eccezionali, perché stelle più massicce del sole hanno al loro interno temperature ancora più elevate. Tutto dipende dalla massa della stella e dalla pressione che esercita nel centro. In sostanza, sia la temperatura, sia la densità aumentano gradualmente, spostandosi verso il centro, anzi se la temperatura aumenta gradualmente, la densità cresce, dapprima lentamente, per poi aumentare bruscamente man mano che si scende. Ciò rende piuttosto bassa la densità media del Sole, che è di 1,4 grammi per centimetro cubo. La densità dell’acqua è un grammo per centimetro cubo. Quindi la densità media del Sole è confrontabile con quella dell’acqua.

IL CAMPO Magnetico Solare non è Stabile.

Le polarità del campo magnetico subiscono inversioni abbastanza regolari. Il Sole ha un ciclo di attività che mediamente è di 11 anni, tuttavia si sono osservati anche cicli di sei o sette anni, o anche di 13 o 14 anni. Non è un orologio svizzero, ma una certa regolarità c’è. Nella seconda metà del Seicento sparirono tutte le macchie solari per un periodo di circa sessant’anni, il cosiddetto “minimo di Maundier”, e sulla Terra si verificò una piccola era glaciale.

D’inverno la Laguna di Venezia ghiacciava e sul Tamigi si poteva pattinare. La comprensione del comportamento irregolare del Sole deve ancora venire.

I modelli di dinamo solare sono estremamente complessi. Essi cercano di simulare non soltanto la periodicità undecenale ma anche le variazioni su scala secolare e millenaria. Tuttavia, non siamo ancora in grado di fornire delle previsioni attendibili soltanto per il prossimo ciclo.

Nel 2008 c’è stato un minimo preannunciato dell’attività. In seguito a ciò, le previsioni furono di una particolare intensità per il ciclo successivo, quello ora in corso.

LA PRODUZIONE DI MACCHIE sul SOLE corrisponde ad un aumento di temperatura sulla terra?

Le macchie si presentano sempre in coppia di polarità magnetica opposta, come se fossero dei magneti. La presenza di una coppia di macchie corrisponde a quella che viene chiamata una “regione attiva” che è, se osservata nell’ultravioletto, o nei raggi X, molto brillante.

Se il disco del Sole è maggiormente coperto da queste regioni attive, allora si ha una maggiore emissione di raggi X e di ultravioletti. Queste radiazioni comportano un riscaldamento dell’atmosfera terrestre esterna, ma non hanno un impatto diretto sulla superficie terrestre, in quanto l’ultravioletto è tutto assorbito dall’atmosfera. Però ci sono variazioni nella ionosfera.

La quantità di atomi ionizzata dalle variazioni ultraviolette cambia col ciclo. La radiazione ultravioletta è in grado di ionizzare un atomo. La luce visibile non è in grado di farlo. Tanto per capirci, tra un minimo e massimo solare, la radiazione ultravioletta che arriva, varia di un fattore che può essere 3 o 4 o 5 unità, mentre la luce visibile varia dello 0,1 %.

È la cosiddetta “costante solare” che oggi sappiamo essere non molto costante.
Cioè i fotoni che arrivano sulla Terra nella parte visibile dello spettro, sono più o meno sempre gli stessi, ma non nella parte ultravioletta.

TANTI ANNI FA APPARVE UN DIAGRAMMA che mostrava una sincronia tra i casi di difterite in Russia e le macchie solari. C’è qualche relazione tra il ciclo delle macchie solari e la vita sulla Terra?

Sicuramente sì! Alcuni diagrammi interessanti confrontano il ciclo delle macchie con lo spessore degli anelli di crescita degli alberi. La correlazione è abbastanza chiara.

Le piante percepiscono la variazione delle radiazioni che assorbono. Ci sono delle correlazioni, ancora discusse sul clima. I raggi cosmici sono collegati al ciclo solare. Sono particelle molto energetiche, principalmente protoni, accelerati da altre sorgenti galattiche. Queste radiazioni quando colpiscono l’atmosfera generano il cosiddetto sciame, cioè una cascata di particelle per una serie di reazioni nucleari studiate in laboratori come quelli del Gran Sasso.

È dimostrato un legame tra il ciclo solare e i raggi cosmici. Quando il sole è al massimo della sua attività, arrivano meno raggi cosmici. Sembra che i raggi cosmici siano correlati anche alla formazione delle nubi. Il perché non è chiaro. Essi produrrebbero anche atomi più pesanti, tali da fungere da aggregati iniziali per micro goccioline di VAPORE D’ACQUA, in tal modo aumenterebbero la probabilità della formazione delle nubi.

Quindi ci sarebbe una relazione indiretta tra l’attività del sole e la formazione delle nubi.
Esistono anche studi sulla probabilità che si formino situazioni atmosferiche particolari come il Niňo e la Niňa e l’anticiclone delle Azzorre, responsabili delle principali attività climatiche su vasta scala. Si tratta di studi discussi. Risultati abbastanza conclusivi sono stati invece, riportando in grafico l’andamento dell’attività del Sole è il “riscaldamento globale”.

Se si fa il confronto fra ciò che si potrebbe attendere per l’aumento dell’attività solare e il riscaldamento globale osservato, si vede che le due curve si discostano significativamente a partire dagli anni ’70-’80. Da quel periodo il riscaldamento dovuto al Sole non è sufficiente per spiegare il surriscaldamento globale che stiamo vivendo.

C’è sicuramente un’altra sorgente: siamo noi!!! Il collegamento con l’attività antropica è ormai accettato da quasi tutti i ricercatori.

Il Sole ci illumina anche con una “luce” di neutrini.

I neutrini sono generati nello stesso istante in cui il Sole produce energia. La reazione che avviene nel Sole è il cosiddetto ciclo “protone-protone” per cui, alla fine, quattro protoni vengono fusi in un nucleo di elio. Ossia diventano due protoni e due neutroni unitamente a una liberazione di energia sottoforma di fotoni e neutrini.

I neutrini poi si propagano nello spazio. Attraversano il Sole perché hanno una bassissima probabilità di interazione con la materia. E attraversano la Terra. In questo stesso momento siamo anche noi attraversati dai neutrini.

Abbiamo danni ?

Sono senza avere danni. La cosa interessante dei neutrini solari è che questi, prodotti all’interno del nucleo, sono di un certo tipo. Esistono neutrini di tre tipi per quello che sappiamo, ossia “elettronici”, “muonici” e “tauonici”. I fisici li chiamano “sapori”. Si tratta di tre leptoni, gli elettronici, i muonici e i tauonici, e ognuno di essi ha il suo neutrino.

Il Sole dovrebbe produrre soltanto neutrini elettronici, in quanto sono gli unici che scaturiscono dalle reazioni di fusione nucleare. Negli anni ’60 si aprì il “problema dei neutrini solari” perché il flusso rilevato dalla Terra era minore di circa un terzo rispetto a quello atteso. Ciò ha permesso di scoprire una nuova proprietà dei neutrini, le “oscillazioni”. Queste particelle, anche se prodotte in un solo tipo, man mano che si propagano nello spazio oscillano fra tre tipi.

Hanno una certa probabilità di trasformarsi da neutrino elettronico a muonico o tautonico. Negli anni ’60 si era usato un sistema di cattura di neutrini che funzionava solo per un certo tipo.

IL CALCIO DELLE NOSTRE OSSA e tutti gli elementi che ci compongono si sono formati tutti nel Sole?

No. Si sono formati in stelle che sono vissute prima di noi. Tutti gli elementi più pesanti del ferro possono essere prodotti soltanto da reazioni di fusione nucleare. Devono quindi derivare da esplosioni di stelle vissute prima del Sole.

Le polveri provenienti da queste esplosioni si sono poi aggregate generando una nebulosa, prima della formazione del Sole.

Successivamente, per addensamento, gli elementi più pesanti si sono concentrati verso la zona più interna del sistema solare, generando i pianti rocciosi come Venere, Marte, Mercurio e la Terra. Poeticamente si dice che siamo fatti di polvere di stelle, però sono altre stelle!

UN GIORNO POTREBBE STACCARSI DAL SOLE una protuberanza così grande da arrivare sulla Terra determinandone la fine?

La fine del mondo avverrà in un altro modo, purtroppo. Pennacchi di plasma se ne staccano continuamente, ma noi siamo ben protetti dalla magnetosfera terrestre.

Il nostro campo magnetico deflette quasi tutto il plasma che viene sparato contro il nostro Pianeta. Quando il plasma impatta sulla magnetosfera, con particelle energetiche, genera solo splendide aurore polari. Può anche far saltare qualche satellite, bruciare dei sistemi di comunicazione, o far saltare il trasformatore di qualche elettrodotto.

Gli effetti prodotti sono legati però al nostro sviluppo tecnologico. Se fossimo rimasti fermi a prima della rivoluzione industriale non ce ne saremmo accorti. Quando alla fine della Terra nelle fasi terminali della sua vita il Sole si espanderà una gigante rossa e il suo raggio sarà tale da inglobare la Terra.

PERÒ SARÀ ESTREMAMENTE RAREFATTO

Certo, ma la radiazione che riceveremo sarà tale che l’atmosfera e gli oceani evaporeranno. La Terra diventerà invisibile non accadrà all’improvviso, sarà un processo graduale che durerà milioni di anni.

SI DICE CHE IL CMAPO MAGNETICO TERRESTRE STAREBBE PER INVERTISRI.

Da evidenze geologiche sappiamo che il campo magnetico terrestre si è invertito centinaia, se non migliaia di volte. Nonostante ciò la vita sul Pianeta si è sviluppata lo stesso. Questo significa che queste inversioni di polarità non hanno effetti disastrosi sullo sviluppo della vita. Alcune conseguenze però ci saranno.
Qualora il campo magnetico si invertisse, lo schermo magnetico potrebbe essere molto esteso. Quindi questa protezione naturale potrebbe venire meno.

Bisogna aggiungere che noi abbiamo un secondo schermo naturale, e cioè l’atmosfera. È lei che assorbe la maggior parte delle particelle che arrivano dal Sole.

Anche la ionosfera, essendo un plasma, costituisce uno schermo all’arrivo dei plasmi trasportati dal Sole.

QUANTO PUÒ DURARE L’INVERSIONE DEL CAMPO MAGNETICO TERRESTRE?

Il fenomeno è breve se confrontato con la vita sulla Terra, ma non lo è rispetto alla durata della nostra vita. Tra l’altro, il campo magnetico terrestre non è perfettamente bipolare, ma ha delle disomogeneità. In particolare ce n’è una notevole in corrispondenza del Sud America, detta anomalia del “Sud Atlantico”.

In questa regione il campo è particolarmente debole, tant’è che tutti i satelliti che là sorvolano subiscono un notevole bombardamento di particelle con la conseguenza di varie anomalie.

Qualcuno ritiene che questo minimo potrebbe essere il presagio di una futura inversione del campo magnetico terrestre. Come già detto, sono comunque processi lenti rispetto alla nostra vita.

TORNANDO AL SOLE, IN CHE FASE SI TROVA ORA?

Superata la fase di massimo, e all’inizio di quella discendente. Questo è un ciclo meno intenso dei precedenti. Per capirci, il massimo numero di macchie solari che ci sono è pari ai minimi degli ultimi cento anni. Oltretutto il massimo del ciclo di attività solare, ha visto questa volta la formazione di due picchi separati, invece che uno. Un fatto decisamente anomalo.

Un grande dibattito ha suscitato negli anni 2006-2007 la fine del ciclo precedente.

Alcuni prevedevano che il ciclo successivo, ossia quello attuale, sarebbe stato piuttosto intenso, mentre altri lo prevedevano debole, come in effetti si è dimostrato. Ciò dimostra tutta la nostra incertezza ed incapacità di previsione.

Per i brillamenti e le eruzioni solari è un po’ diverso. Anche in questi casi non abbiamo una buona capacità di previsione, ma sono stati elaborati dei software che cercano di calcolare la probabilità di un brillamento e i suoi effetti sull’atmosfera terrestre.

I PIANETI HANNO QUALCHE INCIDENZA SUI FENOMENI SOLARI ?

Il Sole contiene più del 99% della massa dell’intero Sistema solare. I pianeti ruotano a differenti distanze attorno al baricentro del Sistema. Il baricentro è un punto geometrico attorno al quale ruota l’intero Sistema, Sole compreso. Proprio per le diverse masse, distanze e velocità di rivoluzione dei pianeti attorno al Sole, tale punto non coincide col centro del Sole.

Inoltre è in costante movimento e quasi sempre all’interno del Sole. Qualche volta però è fuori magari per un allineamento planetario. Può avere un qualche effetto il baricentro del Sistema solare sulla dinamo solare?

Nel 2012 alcuni ricercatori hanno ricostruito l’attività solare andando all’indietro nel tempo, misurando il tasso di isotopi nel ghiaccio dei conteggi.

Ciò dipende dal fatto che i raggi cosmici sono modulati dall’attività del Sole.

Essi sostenevano che ci fosse una correlazione tra il comportamento solare e i moti planetari.

Proprio un anno fa è uscito un articolo che ha sconfessato in pieno tale ipotesi.

QUAL È LA SITUAZIONE IN QUESTO MOMENTO ?

Le onde d’urto provenienti da una tempesta solare sono in grado di eccitare particelle ad alta energia che possono provocare danni ai satelliti e interagendo con l’atmosfera disturbare le comunicazioni terrestri.

Stiamo cercano di identificare la zona di accelerazione di queste particelle all’interno dell’onda d’urto associata a un’eruzione e una protuberanza eruttiva.

Tali onde viaggiano a una velocità tra i 1000 e 1500 km/s, così da raggiungere la Terra in uno o due giorni, ma possono accelerare particelle ad alta energia che impiegano solo poche ore, o anche meno per raggiungerci.

Un altro problema è “l’attività magnetica” . Dalle tempeste solari possiamo vedere solo l’inizio, perché ci sono pochissimi strumenti che le seguono attraverso tutto lo spazio interplanetario, e solo se la direzioni di propagazione è favorevole. In alcuni casi la propagazione nello spazio interplanetario delle eruzioni solari, sembra ostacolata da una sorta di attrito magnetico dovuto all’interazione col vento solare.

Studiando la ricaduta di bolle di plasma sulla superficie del Sole, a seguito di un’eruzione, abbiamo misurato l’intensità di queste zone di attività, la cui origine non è ancora ben compresa. Si cerca di dare una misura a questo attrito.

Per approfondire questi e molti altri problemi, sarò molto importante la nostra partecipazione, come Osservatori, alla missione di Solar Orbiter. Fra tre anni, nel 2017, verrà lanciata una sonda che si collegherà in orbita attorno al Sole, a poco più di 37 milioni di chilometri (la distanza Terra-Sole è di 150 milioni di chilometri), all’interno cioè dell’orbita del pianeta Mercurio.
Sarà un passo avanti, ma non basterà, in futuro bisognerà realizzare strumenti ancor più audaci e potenti.

Ispirato a “Le stelle” di Azzità e Benporad


OLIO FOTONICO- PALAZZO DELLE STELLINE- MILANO

L'OPERA DI GIOVANNI VALENTINI "ALL'OFFICINA OLIO FOOD FESTIVAL" NELL'EXPO DI MILANO 2015

INTERNATIONAL YEAR OF LIGHT 2015

Neanche a farlo apposta, non lo sapevo, ma nel 2015 si festeggia “L’era fotonica”, cioè

questo è “l’Anno Internazionale della Luce” che apre le porte ai computer fotonici, e agli

ologrammi.

Il 2015 sarà l’Anno Internazionale della LUCE e delle tecnologie basate sulla Luce (IVL 2015): lo ha dichiarato l’Assemblea Generale delle Nazioni Unite.

L’Anno della Luce segue l’Anno della Fisica (2005) quello dell’Astronomia (2009) e quello della Chimica (2011), ricordando alcuni altri “Anni Internazionali” dell’ultimo decennio, strettamente collegati tra loro per l’argomento scientifico toccato.

Piero Galeotti nel suo editoriale, ricorda alcuni aspetti che credevamo interessanti per la Fisica e per l’Astronomia, il tema della Luce: il dualismo onda / particella le righe di Fraunhofer che ci hanno svelato la composizione chimica, il ruolo del “redshift” in cosmologia. Segue qualche considerazione più generale.

Queste iniziative degli “Anni Internazionali” dedicati a temi importanti, debbono essere benvenute – e partecipare attivamente – perché contribuiscono a promuovere scienza e cultura, offrendo occasioni per progetti ed eventi che aiutano a valorizzare la ricerca di base e a spiegare la stretta connessione con le innumerevoli applicazioni tecnologiche delle quali sempre più dipendono lo sviluppo della società e il suo benessere.

La dichiarazione dell’IYL 2015 è assai positiva puntando sulle tecnologie basate sulla luce: rafforza il legame tra ricerca di base e innovazioni tecnologiche. Lega cioè ai benefici che produce quella ricerca che molti nostri governanti miopi e ignoranti (quelli che chiedono: “Perché dovremmo pagare uno scienziato quando facciamo oggetti migliori del mondo?” oppure che affermano: “Con la cultura non si mangia”) o che la considerano un lusso, un divertimento per pochi, e non una delle colonne portanti dell’economia e dello sviluppo di un paese.

Speriamo dunque che oltre a fornire l’occasione per aumentare la consapevolezza del grande pubblico nei confronti di argomenti interessanti e per stimolare quell’interesse e quella curiosità che sono alla base della crescita intellettuale della società. Queste iniziative internazionali obblighino anche i politici a prestare un po’ più di attenzione alla scienza.

La Luce è una delle cose che ci sono più familiari eppure non possiamo dire di averne una conoscenza completa: le sue proprietà e le sue implicazioni continuano a stupirci. Con una temperatura superficiale di circa 5500 °C, il nostro Sole emette Onde Elettromagnetiche in un ampio spettro di lunghezza d’onda, dall’ultravioletto all’infrarosso, con il picco nella zona visibile, quella compresa tra 4000 e 7000 Angstrom, la luce per l’appunto.

Essa, dunque, illumina la Terra da alcuni miliardi di anni, da prima che si sviluppasse quella vita del cui sostentamento ed evoluzione, la luce è stata protagonista.

La flora ha imparato a farne tesoro per ricavarne energie da trasformare in crescita (attraverso la fotosintesi clorofilliana, una meraviglia chimico fisica che permette di combinare anidride carbonica e acqua per produrre glucosio, trasformando così l’inorganico in organico) e la fauna, con pochissime eccezioni ha evoluto il senso della vista sviluppando sensori – gli occhi – adatti alle più diverse condizioni ambientali e affidando loro le migliori chance di sopravvivenza.

La luce è il nostro principale veicolo di informazione, sia per le più banali e comuni esperienze quotidiane, sia per le nostre ricerche scientifiche più avanzate, ed è lei stessa oggetto di studi e manipolazioni che continuano a sorprenderci e a consentire sviluppi tecnologici innovativi. La sua altissima velocità di propagazione ha indotto a pensare che tale velocità potesse essere addirittura infinita e il dibattito sul suo valore è durato secoli, e per secoli si è basato su considerazioni e ragionamenti filosofici, a partire da quelli di Empedocle, fautore della finitezza della velocità della luce o di quelli di Erone che la credeva invece infinita, proprio come la credevano ancora Keplero e Cartesio nel XVII secolo.

Ancor prima che fosse risolta la questione della sua velocità, iniziò anche la discussione sulla sua natura: ondulatoria o corpuscolare? Tra i sostenitori della prima troviamo Aristotele, Cartesio e Huygens, tra quelli della seconda Democrito, Gassendi e soprattutto Newton.

A differenza della questione riguardante la sua velocità, che si concluse definitivamente a favore di un valore finito (Rømer, 1676), quella relativa alla sua natura ha dispensato, con alterne vicende, ragioni a entrambe le parti.

Per rimanere nell’ambito della fisica moderna ricordiamo che la teoria ondulatoria raggiunge il massimo della sua popolarità quando Maxwell, combinando quattro equazioni, ricavò la descrizione delle onde elettromagnetiche, la loro velocità nel vuoto (uguale per tutte e coincidente con la velocità, ormai nota, della luce), ed erano concettualmente la stessa cosa – onde elettromagnetiche, appunto – e differivano solo per il valore della loro frequenza.

Ma meno di cinquant’anni dopo, Einstein rimise tutto in discussione con la sua spiegazione dell’effetto fotoelettrico che portava alla quantizzazione della luce e all’introduzione del concetto di “fotoni”, il “quanto” della luce.

Oggi, siamo in pace con il fatto che la luce mostra proprietà che sono meglio comprese ricorrendo ora a un comportamento corpuscolare, ora a uno ondulatorio e ci siamo addirittura convinti che la luce è “sia un’onda, sia una particella”, così come lo sono quelli che inizialmente pensavamo fossero solo particelle di materia, come ad esempio gli elettroni.

Studi sul comportamento della luce (o più generali della radiazione elettromagnetica), e delle forme di interazione con la materia, sono stati spesso premiati con il Nobel, come nel caso dell’effetto fotoelettrico (proprio Einstein nel 1921); del laser (Townes, Basov e Prokorow, 1964); dell’invenzione e sviluppo delle tecniche olografiche (Gabor, 1971); della trasmissione della luce in fibre (Kao, 2009) e, da ultimo, dell’invenzione dei diodi (LED) a emissione di luce blu, che hanno permesso di potenziare e rendere più brillanti le fonti di luce bianca, consentendo un contestuale risparmio di energia (Akasaki, Amano e Nakamura, 2014).

Innumerevoli sono gli sviluppo tecnologici che sono derivati dagli studi teorici e di laboratorio e la società contemporanea è capillarmente, con particolare riferimento all’elaborazione e trasmissione delle informazioni (ICT), tecnologie dell’informazione e delle comunicazioni.

Tra le tecnologie innovative sviluppate più di recente, vi è lo sfruttamento del momento angolare orbitale del fronte d’onda, che potrebbe permettere di raggiungere tassi di trasmissione di dati, via fibra ottica, enormemente superiori a quanto attualmente possibile (fino a 320 GB/s), così come un potere risolutivo un ordine di grandezza maggiore del limite di diffrazione, in un qualsiasi strumento ottico – un telescopio ad esempio – caratterizzato appunto da tale limite.

Tra tutte quelle in via di sviluppo è di forte interesse la costruzione di un computer ottico. Utilizzare la luce (i fotoni) anziché gli elettroni richiede molta meno energia e sviluppa molto meno calore. I fotoni, inoltre si muovono nelle fibre a velocità notevolmente superiore a quella con cui si muovono gli elettroni nei cavi.

Un computer ottico, basato sui fotoni, ha bisogno però che questi siano in grado di interagire tra loro, modificando reciprocamente il proprio comportamento e questo non è facile: due fotoni che interagiscono nel vuoto, semplicemente passano attraverso senza disturbarsi.

Ma ecco che ricercatori del MIT insieme ai colleghi dell’Università di Harvard e dell’Università Tecnologica di Vienna sono riusciti a costruire un dispositivo dove un singolo fotone controlla un commutatore ottico e quindi permette di gestire la trasmissione di luce. È dunque l’analogo ottico di un transistor, il componente fondamentale di un circuito computerizzato.

Possiamo aspettarci che i fotoni e le fibre ottiche sostituiranno progressivamente gli elettroni e i cavi di rame in un numero sempre maggiore di applicazioni, permettendo ulteriori sviluppi nell’Informatica e nelle Tecnologie dell’Informazione e delle Comunicazioni.

Così come possiamo immaginare che le tecnologie che oggi sono in uno stato abbastanza “primitivo” – come ad esempio quelle relative ai mantelli per l’invisibilità – progrediranno a tal punto di permettere applicazioni pratiche quotidiane, sia ludiche che militari.

Già, perché le tecnologie basate sulla luce sono sempre più presenti anche nel campo dell’intrattenimento. Non sto pensando agli enormi televisori sottili basati sulla tecnologia LED che già ora ci offrono anche la possibilità di ammirare immagini e filmati tridimensionali, penso piuttosto ai concerti olografici dal vivo, di impressionante verosimiglianza, dove artisti, anche defunti da tempo, cantano e ballano per le delizie dei loro fan.

Il primo concerto olografico tridimensionale ha avuto luogo in Giappone nel 2010.
La scorsa primavera, al Billboard Music Award di Las Vegas, in Nevada, gli spettatori hanno potuto assistere a una performance olografica di Michael Jackson (deceduto nel 2009).

Più recentemente la tecnica olografica ha permesso a Julian Assange, cofondatore di Wikileaks, e confinato dal 2012 nell’Ambasciata dell’Ecuador a Londra, di partecipare a un dibattito con il regista e produttore cinematografico Eugène Jarecki, tenutosi a Nuntacket (Massachusetts) nel settembre 2014. E conclusosi con un simpatico tentativo di “darsi il cinque” tra persona e ologramma.

Nella Corea del Sud il MISP (Minitry of Science, ICT and future Planning) in collaborazione con Korea Telecom ha inaugurato un teatro concepito per ospitare esclusivamente spettacoli olografici di musica pop, investendo in questa impresa 9,3 miliardi di dollari. Sul sito del Ministero delle Scienze, ICT e Programmazione della Repubblica di Corea si legge: “Scienza, tecnologia e ICT: la chiave per un’economia creativa e per un maggiore benessere della produzione”.

Che abbiamo capito che con la Scienza (che è una forma di Cultura) si può invece mangiare?

Copyright © di Giovanni Valentini
tutti i diritti sono riservati all'autore


I COLORI DEL SOLE

Dato che stiamo entrando nell’Anno Mondiale della Luce , in questo mese parliamo

della Stella che inonda di benefica radiazione il nostro Pianeta e la nostra vita.

Di che colore è il Sole? Direte voi, dipende: giallo principalmente, anche se all’alba e al tramonto spesso assume tante sfumature dell’arancio e del rosso.

La questione è molto più complicata di quel che sembra, e ce lo dimostra subito la bellissima immagine di questo mese, del nostro Sole “arlecchino”, distribuita dalla NASA e ottenuta mettendo insieme pezzi delle immagini in 13 colori diversi che possono essere prodotti con gli strumenti a bordo di SDO, ‘Solar Dynamical Observatory’, un osservatorio spaziale preziosissimo per lo studio della nostra Stella, della quale abbiamo ancora tanti aspetti da studiare o addirittura da scoprire.

Ma prima veniamo al colore della “Luce”, quella che vediamo con gli occhi. Il vero colore del Sole visto con quel particolare ed essenziale rilevatore che sono gli occhi e il bianco. Se infatti potessimo andare oltre l’atmosfera e guardando ad occhio nudo, il suo colore ci apparirebbe bianco senza ombra di dubbio.

È l’atmosfera che fa rivivere di giallo la luce solare con un processo molto semplice. Torniamo un momento all’esperimento di Newton e ricordiamoci che la luce solare, analizzata con un semplice prisma, ha delle componenti che, tipicamente, ritroviamo nel fenomeno dell’arcobaleno: rosso, arancio, giallo, verde, blu, indaco e violetto.

L’atmosfera disperde la luce, ossia prende i fotoni e li disperde, ma questa è la ragione, in modo e ragione diversi a seconda del loro colore – frequenza – energia.

In particolare, quelli della parte bassa della luce, dal rosso al giallo, sono più difficilmente dispersi dagli altri.

Maggiore è il disturbo dell’atmosfera, quando il sole basso sull’orizzonte e/o l’aria è piena di polvere o fumo, e maggiore è l’arrossamento del disco solare. Senza gli effetti di scattering, questo il nome del fenomeno fisico, il nostro Sole ci apparirebbe perfettamente bianco, come per altro si mostra a qualunque umano fuori dall’atmosfera. Chiedetelo agli astronauti.

Il colore è molto importante in Astronomia perché ci dà informazioni fondamentali, ad esempio sulla temperatura superficiale delle stelle. Nel nostro caso siamo sui 5770 °K alla superficie del Sole, che non è altro, per noi, che la zona in cui il gas solare diventa opaco a quella lunghezza d’onda cui il nostro occhio risponde. Un’esperienza che si può fare per capire bene il discorso colore – temperatura, può essere quella di guardare la fiamma del gas: sappiamo che per cucinare con il maggiore risparmio occorre che la fiamma sia blu, mentre se abbiamo il fornello un po’ incrostato o banalmente non ben pulito, la fiamma sarà rossa.

Ce lo ricordiamo continuamente anche nella bolletta della società che lo fornisce. Già, ma perché? A questi due colori corrisponde una maggiore (blu) o minore temperatura (rossa), quindi per far bollire l’acqua della pasta meglio fiamma calda, e quindi più blu: bolle prima e si risparmia.

Ma ritorniamo al Sole. Notoriamente dalla luce che ci giunge, tramite la spettroscopia possiamo ottenere anche tante altre informazioni: di quali elementi è composta la superficie fotosferica, oltre all’onnipresente idrogeno, e poi quali sono le reciproche proporzioni di abbondanza, quale è la velocità di rotazione del Sole e la sua distribuzione sul disco che osserviamo.

Senza “luce”, insomma, delle stelle non sapremmo nulla. Lo so, qualcuno dirà “che banalità”, ma non è poi tutto così scontato. Pensiamoci un po’: il fatto di ricevere dei segnali luminosi, ci dice che una stella c’è o meno e ci dice dov’è.

L’osservazione protratta ci dice che si muove, e come e quanto, e così via.

Quel che non vediamo non possiamo studiarlo. Mica tanto banale. Pensiamo alla “materia oscura”, cui si dà la caccia da anni, che fa fumare cervelli egregi in tutto il mondo e che non possiamo trovare proprio perché di segnali da questa non c’è neanche l’ombra.

Questo ci porterebbe a parlare della vera essenza dell’Astrofisica, che è quella di essere una disciplina osservativa, e non certo sperimentale. Sì, certo qualche piccola parte sperimentale c’è, come lo studio di urti in laboratori che si fa nel campo dei micro meteoriti, ma la sostanza è che dobbiamo catturare più luce se vogliamo vedere sempre più in là.

Per questo i telescopi ottici sono sempre più enormi: perché un secchio raccoglie più acqua di un bicchiere quando piove e il numero di fotoni che ci arriva nel visibile per oggetti molto deboli, oltre la ventesima magnitudine, per dire e di poche decine al secondo per metro quadro, tanto per avere un’idea.

Dunque sono necessarie grandi aree per raccogliere il più possibile e strumenti con il minimo rumore possibile per perderne il minimo.

Ma lasciamo le basi dell’astrofisica e torniamo al Sole che è una stella fortunatamente molto piccola , tranquilla e di un tipo diffusissimo nell’universo, una GOV.

Basta però guardare il bell’Orione, ben visibile questo mese, per notare che la stella estrema della costellazione invernale per eccellenza, Betelgeuse, è parecchio rossa, perfino per i nostri occhi, e quell’atmosfera centra poco, dato che la responsabile è la sua temperatura superficiale di circa 3500 gradi, fredda parecchio.

Il motivo è che ha dovuto espandersi molto e quindi si è raffreddata: è infatti una supergigante M, verso la fine della sua evoluzione. Bassa temperatura, di colore rosso, come il fornello, ma attenzione qui si può essere tratti in inganno.

I fenomeni fisici alla base dei due diversi casi sono diversissimi: combustione – ossia ossidazione, ossia ossigeno – nel caso del fornello, riscaldamento del gas grazie alla radiazione proveniente dal Core della stella nel secondo.

La luce come qualunque altra forma di radiazione elettromagnetica, è solo il messaggio delle stelle. Chi interpreta il suo messaggio siamo sempre noi. Ecco quindi che gli scienziati e tecnici che hanno progettato e costruito SDO hanno fatto in modo che gli strumenti possano riprendere il Sole in molte bande di frequenza, in modo da avere una panoramica di quel che succede in quel corpo celeste, dato che, come abbiamo detto all’inizio, a varie lunghezze d’onda (colori), corrispondono situazioni e fenomeni fisici diversi.

Ad esempio la luce gialla, 5500 Angstrom, tipicamente viene dalle parti più calde sui 5000 gradi, mentre l’estremo ultravioletto, solo 94 Angstrom, si forma in presenza di atomi caldissimi, per così dire, con materiale che sta a milioni di Kelvin e lo ritroviamo sul Sole in caso di importanti flare.

Qualche altro esempio: a 171 Angstrom troviamo la corona solare, con i giganteschi archi dovuti al campo magnetico, mentre a 131 Angstrom abbiamo il materiale più caldo che è direttamente visibile durante un flare solare.

Un ultimo appunto. Come sappiamo l’energia, che spesso noi percepiamo nel caso del Sole come calore, si può trasferire per irraggiamento e la variazione elettromagnetica ne è l’esempio migliore e la luce visibile ne è campione. Oppure l’energia si può trasferire per convenzione, ovvero trasportata da masse di gas o plasma che si spostano all’interno della stella, infine, per conduzione, trasferendo l’energia strato dopo strato.

Nel Sole questi tre modi sono mescolati: una volta che l’energia viene liberata nel core del Sole dei processi di fusione nucleare inizia il suo cammino verso la superficie, a volte in modo convettivo. Attenzione al punto: arriva la superficie dopo un milione di anni e lì può essere irraggiata nello spazio.

Il prossimo raggio di Sole che ci bacerà in fronte avrà quindi un’età complessiva ragguardevole: un milione di anni e otto minuti. Con buona approssimazione.
Ispirato a Le Stelle

PROGETTO PER UNA FUTURA ALIMENTAZIONE UMANA TRATTA DALLA BIOSFERA MARINA

Dalle alghe al plancton marino alle ricche specie viventi che si trovano negli oceani e negli abissi.

Quando le risorse alimentari terrestri saranno sull'orlo dell'esaurimento, o esaurite del tutto, (e non passerà molto tempo), bisognerà inventarsi qualcosa di nuovo per la sopravvivenza umana. Occorrerà studiare profondamente e scientificamente, soluzioni contro lo sfruttamento di pesca a tappeto, indiscriminato, l'inquinamento marino e quant'altro.

Sarebbe bene premunirsi in anticipo e "costruire" alimenti nuovi e conservarli in "banche alimentari" così come si fa "nelle banche dati informatiche". Bisognerà inventarsi nuove tecnologie e ricerche scientifiche al fine di rendere le "alghe", per esempio, che crescono in abbondanza, ovunque, nei laghi, nei mari, negli oceani, bisognerà guardarle con occhio nuovo é cercare di renderle commestibili e conservabili.

Parimenti, tante altre risorse marine, che noi guardiamo con indifferenza, vanno viste al vaglio ed a nuova ottica scientifica per prepararle come futuri cibi in conservazione. Gli abissi marini, per esempio, che ancora miracolosamente sono sfuggiti allo sfruttamento selvaggio della specie umana, vanno studiati con un'ottica ecologica nuova e ivi si troveranno sicuramente molte cose interessanti per la catena alimentare umana.

Continua (per leggere il resto dello scritto, interpellare Giovanni Valentini)

Copyright © di Giovanni Valentini
tutti i diritti sono riservati all'autore


Per una visibilità indiretta dei buchi neri

Albert Einstein completava un secolo esatto fa la teoria della Relatività Generale che avrebbe poi pubblicato nel 1916. Da allora l’Universo non è cambiato, ma il nostro modo di vedere sì.

È inesorabilmente e rapidamente mutata la nostra visione cosmica e non solo la comprensione dei fenomeni celesti.

Nuovi oggetti misteriosi e inquietanti, che nel 1967 John A. Wheeler chiamò “buchi neri”, oggi sono tra i protagonisti della fisica e della geometria dello Spazio.

Oggetti, che ancora qualche decennio fa erano ritenuti da molti scienziati inesistenti, si sono rivelati invece il motore delle formidabili energie che muovono l’evoluzione cosmica.

Cuori pulsanti al centro di galassie come la Via Lattea, giganteschi buchi neri determinano il moto di miliardi di stelle modificando con la loro forza di gravità il tessuto dello spazio tempo.

Ma vediamo alcune risposte ad alcuni quesiti di ricerca:

Lo studio di galassie a quali aspetti di questi sistemi formati da decine di miliardi di stelle si dedicano le ricerche?”

Mi occupo in particolare di galassie attive. Quelle che hanno al centro un buco nero grande, dell’ordine di milioni di miliardi di volte la massa solare.
Si dicono attive perché producono energia grazie alla presenza di questo oggetto centrale che noi non riusciamo a vedere.

Lo studio di come funziona questo processo di produzione di energia, i suoi effetti sulla galassia ospitante, come si evolve nel tempo, i vari modi per riuscire a “vedere” indirettamente questi buchi neri e come sia possibile farne un censimento.

Sono tante queste galassie?

Sì. L’ipotesi più accreditata è che tutte le galassie dovrebbero avere un buco nero al centro, di cui è anche possibile misurare con una certa accuratezza la massa. Un buco nero centrale è circa l’1% della massa centrale della galassia.

Quando nasce una galassia, al centro si forma anche un buco nero, ma i processi che portano alla sua formazione non sono ancora chiari.

È la galassia che forma il buco nero o il buco nero che costruisce la galassia?

All’inizio dell’universo si sono generate casualmente delle regioni con una densità più alta rispetto alle altre.

Il gas primordiale ha cominciato a collassare in sotto strutture dove, verso l’esterno, ha dato origine alle stelle e, all’interno, in un modo che non è ancora chiaro, si è formato il buco nero centrale. Le due formazioni sono separate perché avvengono su scale diverse, allo stesso tempo sono legate fra loro perché avvengono nella stessa regione.

Non sappiamo se si è formato prima il buco nero e poi attorno la galassia o se ciò è avvenuto contemporaneamente. Quello che si sa è che i buchi neri si vedono a distanze che corrispondono a quando l’universo aveva meno di un miliardo di anno, sui tredici di esistenza stimati.

A quel tempo enormi buchi neri, grandi un miliardo di masse solari, dalle dimensioni cioè di una piccola galassia, erano già lì, già formati! Essi producevano quell’energia che noi oggi possiamo osservare.

Quando si parla di gas primordiali si intende l’idrogeno?

Era idrogeno con un po’ di elio. I modelli di formazione dei buchi neri iniziali si basavano proprio sulla differenza di composizione chimica del gas primordiale. Un gas di puro idrogeno quando collassa si comporta in modo diverso del gas che contiene metalli.

È possibile che, in tempi primordiali, grandi nubi di gas con massa 100 mila volte quella del Sole, siano collassate per formare in un sol colpo un grande buco nero iniziale.

Come si individuano i buchi neri?

Esistono due categorie di buchi neri. Quelli piccoli sono il risultato dell’evoluzione stellare. Le stelle abbastanza massicce diventano supernovae e formano poi dei buchi neri come masse di qualche volta quella del Sole. Conosciamo abbastanza bene come si formano questi oggetti. I buchi neri grandi stanno al centro delle galassie e vanno da un milione a qualche miliardo di masse solari. In entrambi i casi il materiale che sta attorno al buco nero tende a caderci sopra. Molti pensano che il buco nero lo “inghiotta”.

La realtà è un po’ più complicata. Il Sole non inghiotte la Terra che gli gira intorno tranquillamente da quattro miliardi di anni! Il buco nero invece cattura la materia che gli sta attorno. Perché il gas che lo circonda si dispone su di un disco e nella rotazione perde energia gravitazionale. Alla Terra questo non succede in quanto viaggia nel vuoto. Inoltre il materiale circostante il buco nero perde lentamente energia gravitazionale e quindi gli si avvicina poco per volta.

Come se il buco nero avesse un’atmosfera

L’atmosfera è formata dal gas stesso che gli sta intorno. Quindi l’energia gravitazionale che il gas perde prima di cadere nel buco nero diventa radiazione elettromagnetica, cioè luce. Il gas prima di precipitare rilascia una frazione tra il dieci e il quaranta per cento della sua energia di massa. Per le stelle la perdita è intorno all’uno per cento perché sono molto meno efficienti a produrre energia.

È la luce che noi vediamo. Esistono galassie grandi come la nostra in cui la regione centrale da sola, per quanto piccola, produce tanta luce quanto tutto il resto della galassia. Sono le quasar.

Se al centro di una galassia c’è una produzione di luce enorme, troppo per essere una emissione stellare, allora quell’energia è dovuta alla caduta del gas nel buco nero. La quantità di energia che viene prodotta è enorme perché questi buchi neri si sono formati nel lontano passato dell’universo e diventano sempre più grandi grazie al materiale che cade su di esso nel corso dei miliardi di anni.

In quale banda l’emissione è più alta?

L’emissione riguarda tutto lo spettro elettromagnetico, dalle onde radio ai raggi gamma. La banda di maggiore emissione è dell’ultravioletto ai raggi X. Per questo telescopi a raggi X funzionano molto bene per vedere questi nuclei attivi. Però ci sono emissioni anche in onde radio e nei raggi gamma. Noi studiamo questi oggetti proprio in diverse bande perché ognuna dà informazioni specifiche.

Voi lavorate con onde elettromagnetiche ma anche gravitazionali?

Le onde gravitazionali esistono, adesso abbiamo la possibilità di verificarlo direttamente. Sono stati scoperti sistemi con due pulsar, che sono corpi molto compatti, ruotano l’una accanto all’altra. Esse emettono onde gravitazionali che non siamo ancora capaci di misurare. In tali sistemi si ha perdita di energia in quanto le stelle si avvicinano. Questo può essere dovuto proprio all’emissione di onde gravitazionali.

Le onde elettromagnetiche sono facili da osservare. Quelle gravitazionali causano una modifica delle spazio tempo nel punto in cui si trova l’osservatore.
Per esempio due oggetti posti a un chilometro di distanza l’uno dall’altro, se attraversate dalle onde gravitazionali, vedono variare la loro distanza perché lo spazio al loro passaggio viene deformato.

Ma tale variazione è così minuscola da essere veramente difficile da misurare. Inoltre la Terra è un posto molto attivo: piccoli terremoti, forze di marea e altri fenomeni modificano continuamente la struttura della crosta terrestre.

Isolare il segnale delle onde gravitazionali tra tutti questi movimenti non è facile.

Ci sono esperimenti come LIGO e VIRGO che provano a farlo, ma finora non hanno trovato alcun segnale sicuro. C’era anche un progetto internazionale chiamato LISA estremamente ambizioso, ma per il momento è stato accantonato per costi eccessivi. L’idea era quella di mettere tre satelliti nello spazio a grandissima distanza fra di loro. Lassù non ci sono vibrazione come sulla Terra.

Più grande la distanza e maggiori sono le vibrazioni. Dei fasci laser viaggerebbero tra questi satelliti misurando continuamente con grande precisione le loro distanze con sistemi complicatissimi. In tal modo si rileverebbe il passaggio di onde gravitazionali dagli spostamenti relativi dei tre satelliti. Purtroppo il progetto è stato abbandonato. Speriamo che venga risuscitato tra non molto perché sarebbe molto interessante.

I buchi neri emettono enormi quantità di onde gravitazionali, non in situazione di quiete, ma quando ci sono due galassie che si fondono.

In tal caso i due rispettivi centri, quando si avvicinano, iniziano a girare a velocità altissima l’una attorno all’altra emettendo un’enorme quantità di queste onde.

Alla fine cadono l’uno sull’altro a seguito di questa perdita di energia gravitazionale. Il fenomeno avviene in ogni angolo dell’universo. La cosa complicata è che arriverebbero segnali da tutti i buchi neri che si stanno fondendo in tutto l’universo.

Non si potrebbe orientare questo sistema?

Visto che il sistema è un triangolo si potrebbero avere delle informazioni da dove provenga quella radiazione e ci sarebbe la speranza di individuare la sorgente anche con le onde elettromagnetiche prodotte da quel sistema. Il progetto era programmato per dieci anni, ora è fermo, in ogni caso prima del 2030 se non avremo dei risultati.

Fra vent’anni quindi?

Sì è probabile. Il problema era di misurare la variazione della distanza tra questi satelliti con una precisione al picometro “un miliardesimo di millimetro” su distanze di milioni di chilometri.

Lo spazio-tempo è un’entità omogenea?

Quando non c’è massa sì, altrimenti la massa lo deforma.

Il Sole in questo tempo curva lo spazio-tempo di un certo valore, ma a un miliardo di anni luce una stella con la stessa massa deformerebbe lo spazio dello stesso valore?

Per quello che ne sappiamo sì. La curvatura dello spazio-tempo dipende da costanti fisiche universali che, a quanto risulta, non sono variate nella storia dell’universo. Non siamo però in grado di dire con certezza se la gravità varia o non varia nel tempo.

La costante di gravitazione universale che gli scienziati indicano con la lettera G

La G, infatti. Ci sono altre constanti fisiche che è stato possibile misurare grazie alle emissioni dei quasar. Certe transizioni atomiche ci permettono di misurare quanto valevano altre costanti fisiche dieci miliardi di anni fa. Per il momento tutti i tentativi di misurare variazioni delle costanti fisiche nel caso dell’evoluzione dell’universo hanno dato risultati negativi.

La fisica oggi dovrebbe essere la stessa di dieci miliardi di anni fa. Qualunque massa si comporterebbe come oggi, in un altro momento o in un altro punto dello spazio diverso dal nostro.

C’è una possibilità di comunicazione anche fra le galassie, superiore alla velocità della luce?

No, nessuno. Ciò perché dipende dallo spazio tempo che è determinato proprio dalla velocità della luce. La stessa domanda posta cento anni fa avrebbe avuto forse una risposta diversa e magari fra cento anni potrà essere diversa. La fisica evolve.

I buchi neri hanno altre caratteristiche interessanti

Si è teorizzato che attorno ai buchi neri ci sia una deformazione dello spazio tempo che addirittura invertirebbe la direzione del tempo. I buchi neri potrebbero essere macchine del tempo. Questo verrebbe fuori dai calcoli, il verificarlo è piuttosto complicato.

Cosa significherebbe una cosa del genere

Creerebbe problemi di casualità. Si pensa che tutte le galassie abbiano un buco nero al loro centro. Forse non le più piccole e irregolari come le Nubi di Magellano, ma certamente tutte quelle abbastanza grandi. La nostra stessa galassia ha un buco nero di circa quattro milione di masse solari. Come di fa a vederli?

Si vedono dall’energia che emettono, ma ci sono anche quelli che non hanno abbastanza gas attorno da produrre energia. È il caso di quello al centro della nostra galassia che ne emette veramente pochissima.

È quasi spento e non si vedrebbe anche se è vicino. Allora come facciamo a sapere che c’è? L’altro modo con cui si possono vedere i buchi neri è grazie alla loro attrazione gravitazionale. Pur avendo tutta la massa concentrata in una regione molto piccola, quasi un punto, esercitano un’azione sulle masse che stanno intorno.

Sono stati fatti dei lavori molto interessanti osservando le stelle che sono vicine al centro della Galassia.

Queste stelle si muovono con velocità altissime, fino a 6000 Km/s quando il nostro Sole va a 200 Km/s che è già una velocità di tutto rispetto. Però queste stelle ruotano con velocità incredibili attorno a nulla!

Non si vede attorno a cosa girino! Questo astri, che sono seguiti da una ventina d’anni orbitano tutti attorno a un punto in cui apparentemente non c’è niente. La conclusione è che lì ci sia “qualcosa” di cui è anche facilissimo calcolare la massa. Basta usare le leggi di Keplero. Conoscendo la distanza e il periodo, calcoliamo la massa dell’oggetto che attrae. Al centro della nostra Galassia queste stelle sono come dei pianeti attorno a un Sole.

Applicando la legge di Keplero si è trovata la massa dell’oggetto invisibile centrale: 4 milioni di masse solari. Quindi, anche se il buco nero è completamente silente perché non emette alcun tipo di radiazione, lo si individua ugualmente per il comportamento anomalo delle stelle che lo attorniano. Questa tecnica si può estendere anche a galassie relativamente vicine, nelle quali le stelle centrali si muovono con velocità spiegabili solo con la presenza di un invisibile buco nero.

Le galassie si muovono come un sistema solare

La gravità di un buco nero è la forza predominante almeno nelle regioni centrali. È chiaro che il Sole non risente della forza gravitazionale del nostro buco nero perché troppo lontano.

E chi lo fa muovere a 200 Km/s?

Tutta la massa della Galassia, perché la massa del buco nero è solo un centesimo della massa totale. Se sei vicino al buco nero senti la sua attrazione gravitazionale, se sei distante come noi dal centro della Galassia, tutte le stelle che ci sono all’interno hanno una massa che è comunque cento volte quella del buco nero centrale, quindi è di questa la gravità dominante.

Allora si può pensare al buco nero come a una specie di volano?

Sì, è possibile che questo succeda, ma come dicevo prima non sappiamo ancora chi si forma prima, se il buco nero o la galassia e come i due interagiscono.

Le galassie hanno tutte una forma lenticolare?

Ci sono anche quelle sferiche, ma la maggior parte è lenticolare. Ciò è dovuto alla loro rotazione.

Ispirato a Le Stelle


Il mezzo interstellare della nostra galassia

Nuove mappature della materia che c'è nello spazio fra le stelle della galassia, ne sappiamo pochissimo, ma grazie allo studio appena presentato da un gruppo internazionale di scienziati, tra cui spicca la partecipazione della John Hophins University, potremmo essere a un passo dalla soluzione di quel puzzle noto come "polvere di stelle" che da quasi un secolo resta ancora un mistero.

I ricercatori sono convinti che il loro lavoro dimostra, nei fatti un nuovo modo di ottenere localizzazione e composizione della materia che si nasconde fra le stelle della Via Lattea. Un insieme di materiali, che comprende polveri e gas composti da atomi e molecole, residui di stelle che hanno concluso il loro ciclo vitale. Materiale che certo costituisce la base per nuove stelle e pianeti.

"Si dice che, in fondo, siamo tutti polvere di stelle, dal momento che tutti gli elementi chimici più pesanti dell'elio sono prodotti nelle stelle", spiega Rosemary Wyse, docente di fisica e astronomia alla John Hophins e prima autrice della ricerca che ha permesso di disegnare la nuova mappa della galassia, "ma quel che non sappiamo ancora è perché le stelle preferiscano alcuni luoghi dello spazio per il loro processo di formazione. Questo lavoro ci fornisce nuovi elementi per comprendere il mezzo interstellare da cui si formano gli astri che punteggiano l'universo".

In particolare lo studio si concentra su un particolare fenomeno di assorbimento della luce stellare, conosciuta come "diffuse interstellar bands (DIBs)".

Noto dagli anni venti del secolo scorso, consiste nella mancanza di alcune linee nello spettro luminoso delle stelle, che, per la loro posizione rispetto a noi, si trovano "nascoste" dietro un mezzo interstellare che per proprietà chimiche ne assorbe parte della luce. Dal 1922, anno di prima scoperta, gli scienziati hanno riscontrato oltre 400 fenomeni di DIBs. La materia che causa le bande nello spettro luminoso, come d'altra parte la sua precisa ubicazione, è però rimasta un mistero.

Il tempo di assorbimento che registra, indica presenza di grandi molecole complesse. Ma non esistono evidenze scientifiche. Inutile dire che fisica e chimica di queste regioni sono elementi chiave per comprendere processi di formazione di stelle e galassie. Indizi più concreti che possono essere dedotti dalle mappe appena pubblicate su "Science", e prodotte dai 23 scienziati che hanno partecipato allo studio.

Le mappe sono state assemblate grazie ai dati raccolti dal "Radial Velocity Esperiment" un progetto che coinvolge oltre venti istituti sparsi per il mondo e coordinato dal "Leibniz Insitute fur Astrophisic si Postdam in dieci anni di attività, utilizzando lo UK Schmidt Telescope in Australia.

Dati per 500000 stelle: un campione significativo che ha permesso ai cartografi di determinare la distanza cui si trova il materiale che provoca DIBs e di conseguenza come il mezzo interstellare si distribuisca in tutta la Via Lattea.

Ma dalle mappe si vede anche di più. Le molecole complesse ritenute responsabili del fenomeno dei DIBs sono infatti distribuite in modo diverso rispetto ad altri componenti conosciuti del mezzo interstellare (le particelle solite che solitamente chiamiamo polveri). "Per capire qualcosa di più sul mezzo interstellare, dobbiamo innanzitutto avere un'idea chiave di come sia distribuito all'interno della nostra Galassia", concluse Wyse. "E questo è quanto ha prodotto il nostro lavoro".

In futuro potremo raccogliere maggiori dettagli, ora abbiamo un modello che funziona.


ANCORA SULLA TEORIA DEL TUTTO

intorno alla teoria dei molti mondi universi paralleli ma separati

Il nostro Universo pare che sia uno tra un sempre crescente numero di universi-bolla non collegati tra loro.

Ciò darebbe risposta anche alla questione non risolta della materia oscura e della incerta quantità presente nell’Universo. Tutto ciò però non è fantascienza. Uno dei più grandi teorici del multiverso è il cosmologo George Ellis, che ha visto celebrare il suo settantesimo compleanno con un party di tre giorni all’Università di Oxford, con la presenza di fisici, astronomi e filosofi di tutto il mondo.

Una delle più grandi preoccupazioni di Ellis è rappresentata dall’impossibilità di misurare questa sterminata quantità di universi, non essendo osservabili, rischiando che la teoria rimanga così indefinita.

La novità viene dall’Università di Berkeley, e in particolare da Raphael Bousso che sembrerebbe aver trovato la via ricercata e perseguita da Einstein in due decenni di unificare meccanica quantistica e la teoria della relatività generale in un modello unico: “La teoria del tutto”.

Questo sarebbe possibile, secondo Bousso, grazie ad un metodo di osservazione e misurazione basato “sul calcolo delle probabilità dal punto di vista di un qualsiasi osservatore da un qualsiasi universo”.

La meccanica quantistica afferma che il vuoto spaziale non è per l’appunto vuoto, anzi è dotato di grande energia e poi afferma che presto o tardi in un qualsiasi universo decadrà spontaneamente in un altro con meno energia.

La maggioranza di cosmologi afferma essere proprio questa l’origine dell’evento rappresentato dal Big Bang, durante il quale il vuoto entro il quale viviamo è emerso da uno a più alta energia che costituiva l’universo prima di noi. Ciò che è fondamentale è che esiste una pletora di universi che possono essere prodotti secondo questo schema.

Ed è proprio grazie a questo approccio (casual path measure) che Bousso, non solo supera l’impasse del differente orologio-tempo dell’osservatore di Einstein che porterebbe a risultati inutilizzabili e che necessiterebbe dell’occhio di Dio, ma riesce anche a ottenere dati come la probabilità di materia oscura in un qualsiasi universo e più nello specifico nel nostro.

Sembrerebbe sufficiente ma non è così. Il problema fondamentale nell’approccio utilizzato da Bousso sta nel fatto che i risultati dipendono dalla misurazione e dalla materia oscura dell’universo da cui si parte.

Così mentre Bousso lavorava alla sua idea, il cosmologo Alexander Vilenkin della Tufts University di Boston e Jaume Garriga dell’Università di Barcellona formulavano un altro approccio di analisi partendo dagli straordinari risultati del fisico argentino Juan Maldacena.

Maldacena stava effettivamente lavorando a una teoria delle stringhe per costruire un modello degli universi, quando scopre che un modello a cinque dimensioni è perfettamente equivalente ad un modello più semplice a quattro dimensioni. Questo è un classico esempio di quello che è conosciuto come il Principio Olografico, cioè l’idea che per ogni dimensione spaziale, ogni caratteristica fisica di un oggetto in tre dimensioni possa essere rappresentato in due dimensioni come avviene sostanzialmente per le carte di credito.

Vilenkin e Garriga postulano che nel caso del Multiverso il confine non sia rappresentato dalla dimensione spazio, ma dalla dimensione tempo. Bousso rimane affascinato decidendo di collezionare dati con il suo approccio osservando i confini del Multiverso, studiando così la quantità di materia oscura in un dato universo del multiverso in quel dato momento.

Bousso incredibilmente scopre che i dati raccolti utilizzando la rappresentazione olografica risultano essere assolutamente equivalenti a quelli ottenuti con il suo approccio del singolo osservatore. Due differenti approcci misurano e osservano la stessa realtà.

Le implicazioni non hanno precedenti e potrebbero portare alla formulazione di una teoria del quanto gravitazionale, una teoria dinamica della teoria del tutto.

Ellis è colpito dai risultati di Bousso, anche se non possono dare una rappresentazione completa, non perché possono rendere reali e verificabili eventuali ipotesi, ma perché sembrano portare all’affermazione che tutto quello che dobbiamo sapere sul multiverso sembra essere qui a disposizione del nostro.


ANCORA: SULLE POLVERI INTERSTELLARI

PICCOLI GRANULI (N. 7)

Sette piccoli granelli / Sono sette piccoli granelli che hanno vagato nel mezzo interstellare e che sono stati catturati con un pannello di aerogel montato sulla capsula rilasciata dopo il “rendezvous” con la cometa Wild 2 della sonda della NASA “Stardust”, per atterrare nel deserto dello Utah nel 2006.

Questi sette piccoli grani di polvere interstellare potrebbero essere stati parte del frutto dell’esplosione di una supernova avvenuta milioni di anni fa e avrebbero viaggiato per eoni, esposti allo spazio estremo che ne avrebbe modificato i caratteri se non fossero stati catturati e portati a Terra dalla sonda Stardust.

Sono le testimonianze del mezzo interstellare solito con un’età che potrebbe essere compresa tra i 50 e i 100 milioni di anni. Questo è quanto ipotizzato dai sessantasei autori dello studio pubblicato su “Science” di questa settimana e che si aggiunge ad altri dodici lavori sui dati della sonda Stardust, che saranno pubblicati su “Meteoritics & Palnetary Science” già disposti online.

Le particelle individuate come d’ordine extra sistema solare, hanno dimensioni e composizione diverse. Le piccole sono divise dalle più grandi a testimoniare, forse, differenti storie. Inoltre la maggior parte delle più grandi appaiono soffici, come un fiocco di neve.

Il fatto che le sue particelle più grandi e soffici sono di un materiale cristallino chiamato olivina, può implicare che provengono da dischi circumstellari, e che sono state poi modificate nel mezzo interstellare” afferma il primo autore Andrew Westphat, fisico al Berkeley’s Space Sciences Laboratory all’Università della California. “Potrebbero essere il primo assaggio di una sorprendente varietà di particelle provenienti dal mezzo interstellare, impossibile da esplorare con le sole osservazioni astronomiche”.

Un ruolo fondamentale in questa scoperta è stato svolto dagli “scienziati volontari” che hanno partecipato alla campagna “Citizen science” della NASA, una delle prime mai lanciate, chiamata “Stardust @ home”. Le tracce di due delle particelle, della dimensione di due micron (millesimi di millimetro) che si ipotizza provengano dal mezzo interstellare sono state trovate grazie a due di questi volontari e per questo co-autori della ricerca.

I due granelli, trovati “incastonati” nel pannello di aerogel, sono stati battezzati dai loro scopritori, Orion e Hylabrok. Altri grani sono stati trovati da cittadini scienziati “spiccicati” nella struttura di alluminio che ha sostenuto i blocchi di aerogel. Quattro in particolare sono stati ipotizzati di origine extrasolare.

Certo, a detta degli stessi autori dovranno essere fatti ulteriori test per determinare l’abbondanza di isotopi di ossigeno, ulteriore e più forte prova di origine extrasolare.

Supernove, giganti rosse, e altre stelle evolute producono polvere interstellare con elementi pesanti come il carbonio, l’azoto e l’ossigeno, necessari alla vita” afferma la nano astronoma ‘Rhonda Stroud’ del “Naval Research Laboratory”.

I frammenti come tali catturati con la sonda Stardust sono stati inviati in tutto il mondo per le analisi. È stata una grande emozione analizzare in laboratorio per la prima volta campioni di polvere provenienti dalla sonda Rosetta dello strumento GIADA (della cometa 67P/Churyumov-Gerasimenko).

Immagino cosa debbono provare Andrew e i suoi colleghi ad analizzare materiale proveniente dal mezzo interstellare.


COME L'UNIVERSO FABBRICA IL COBALTO

Sono gli elementi catastrofici e violenti di esplosioni di supernovae che producono gli elementi pesanti di cui abbiamo bisogno. Rilevato nell'esplosione della supernova SN2014j lo spettro del cobalto.

Leggendo l’articolo sulla rivelazione in gamma delle righe di decadimento del cobalto della supernova 2014j da parte degli strumenti SPI e IBIS a bordo del satellite INTEGRAL dell’Agenzia Spaziale Europea c’è da essere soddisfatti.

Finalmente dopo 12 anni dal lancio, INTEGRAL ha avuto la possibilità di dimostrare le sue potenzialità. Rilevare le righe prodotte dal decadimento radioattivo degli elementi sintetizzati nell’esplosione di una supernova, il processo che fornisce l’energia che fa brillare tutte le supernovae, è sempre stato uno studio dei piloti scientifici della missione INTEGRAL. Per anni, durante le riunioni della collaborazione internazionale impegnata nella costruzione dello spettrometro SPI (certamente i colleghi che hanno lavorato a IBIS potrebbero dire lo stesso) abbiamo fatto simulazioni per avere idea di cosa ci si potesse aspettare di vedere da una supernova.

La conclusione era sempre la stessa: per avere delle reali possibilità di successo dovevamo augurarci che l’esplosione avvenisse nelle nostre vicinanze astronomiche.

Non aveva importanza che fosse una supernova di tipo I – dovuta all’esplosione di una nana bianca che ha superato il limite di Chandrasekar grazie alla “donazione di materia da parte della compagna in un sistema binario – oppure di tipo II, e quindi prodotta dall’esplosione di una stella molto più massiva del Sole, terminando il suo combustibile, non è più in grado di auto sostenersi.

In entrambi i casi si creano le condizioni perché avvenga la nucleo sintesi esplosiva che, alla fine, produce il nichel 56 (28 protoni e 28 neutroni), un isotopo instabile destinato a decadere, trasformandosi in cobalto 56 (27 protoni e 29 neutroni) con un tempo di dimezzamento di sei giorni. Anche il cobalto 56 è instabile, con un tempo di dimezzamento di 77 giorni diventa ferro 56 (26 protoni e 30 neutroni), l’elemento stabile che tutti conosciamo.

Il decadimento del cobalto produce 2 fotoni gamma rispettivamente a 847 e 1238 KeV, esattamente nella regione dei raggi gamma “molli”, ai quali è sensibile il rivelatore SPI. La presenza di fotoni di una determinata energia fa sì che, nello spettro della sorgente, sopra l’emissione continua, siano presenti delle righe. Sono queste firme che permettono a INTEGRAL di vedere in diretta la nascita del ferro ad opera di una supernova, l’unica sorgente di ferro del nostro universo.

Le righe del decadimento del cobalto erano già state viste circa 25 anni fa, qualche mese dopo l’esplosione della famosissima supernova SN1987A, una supernova di tipo II, risultato della distruzione di una stella massiva nella Grande Nube di Magellano.

La misura era stata fatta da strumenti a bordo di palloni stratosferici, dal momento che nessuno strumento gamma era operativo in orbita in quegli anni. Nessuna misura è invece disponibile per le supernovae di tipo I.

Lanciato nel novembre 2002, INTEGRAL aspettava con pazienza la sua supernova. L’occasione si è presentata il 21 gennaio 2014 quando, durante una sessione di osservazione del laboratorio di astronomia, Steve Fossey e i suoi studenti dell’University College di Londra si sono resi conto che si era accesa una stella nella galassia M82, ad “appena” 3,5 Mpc di distanza dalla terra.

Dopo la rivelazione accidentale, lo spettro ha mostrato che si trattava di una supernova di tipo Ia, la più vicina al Sole negli ultimi 40 anni. “Ora o mai più” devono essersi detto i collaboratori di INTEGRAL che hanno osservato la supernova per quattro mesi, dalla fine di gennaio alla fine di aprile e poi per tutto il mese di giugno.

La lunghezza dell’osservazione è dovuta all’incertezza nella stima del momento migliore per rivelare l’emissione gamma. Nel periodo immediatamente successivo all’esplosione, la sfera di gas che si espande è ancora densa e i fotoni gamma prodotti dal decadimento non riescono a uscire per cominciare il viaggio che li porterà sino a noi. Bisogna lasciare passare un po’ di tempo per dare modo all’espansione di diluire la materia e permettere il passaggio della radiazione gamma.

D’altro canto, non si può aspettare troppo perché ogni 77 giorni la quantità di cobalto pronto a decadere emettendo le righe che vogliamo vedere si dimezza, rendendo più debole l’emissione.

Alla fine, è stato scelto l’intervallo di tempo compreso tra 50 e 100 giorni dopo l’esplosione. Un confronto tra i dati raccolti da IBIS nei 50 giorni del 2014 e un analogo periodo del 2013, mostra che nel 2014 è presente una sorgente in corrispondenza della posizione di M82. Combinando i dati di IBIS (in blu) e SPI (in rosso) si è ottenuto uno spettro che mostra chiaramente le righe di cobalto. Le righe sono decisamente più larghe della risoluzione spettrale dello strumento, segno che sono prodotte da un mezzo in movimento.

Dall’allargamento si può calcolare la velocità di espansione che risulta essere di 10.000 Km/s +/  3000.

Le righe sono chiare che è possibile costruire delle immagini selezionando solo i fotoni nell’intervallo di energia interessato. La sorgente emerge ancora seppure le immagini abbiano una limitata risoluzione angolare. Non bisogna dimenticare che SPI è uno spettrometro e non un “imager” come IBIS.

Il flusso gamma registrato permette anche di risalire alla quantità di nichel responsabile dell’emissione. Avendo a che fare con un mezzo di opacità incerta, ma sicuramente non nulla, le stime puntano all’intervallo tra 0,4 e 0,6 masse solari, un valore perfettamente compatibile con quello che ci si aspetta dall’esplosione di una nana bianca.

Non ci sono dunque sorprese nella rivelazione di INTEGRAL, delle righe di cobalto nella SN2014j, ma ciò non toglie che si tratti di un risultato veramente importante.

Non è necessario stupire per entrare nella storia dell’astrofisica. Grazie a INTEGRAL oggi abbiamo la gradevole conferma che tutto quello che abbiamo pensato per decenni sull’esplosione delle supernovae di tipo Ia hanno una solida base.