Lo spirito dei materiali

Scott: Mettiamola diversamente… Quanto deve essere spesso un pezzo del vostro “plexiglas” grande diciotto metri per tre per sostenere la pressione di cinquecento metri cubici d’acqua?

Nichols: È semplice, quindici centimetri. Abbiamo in lavorazione pezzi così.

Scott: Sì, ho notato… Adesso supponga, solo supponga, che io le possa mostrare il modo per fabbricare una parete che possa servire allo stesso scopo… Ma spesso solamente due centimetri e mezzo. Sarebbe una cosa molto interessante per lei, eh?

Nichols: Sta scherzando!

McCoy: Potrebbe il professore usare il suo computer?

Nichols: Prego. [Scott si siede davanti al computer]

Scott: Computer? Computer? Ah! [prende il mouse e lo usa come microfono] Salve, computer!

Nichols: Forse usando la tastiera…

Scott: La testiera… Pittoresco. [digita a velocità miracolosa la formula]

Nichols: Alluminio trasparente, vedo bene?!?

Scott: L’hai detto, amico…

Nichols: Aspetti, ci vorranno anni solamente per calcolare la dinamica di questa matrice!

McCoy: Sì, ma lei diventerebbe ricco al di sopra di qualunque brama di ricchezza!

Scott: Allora, pensa che questa cosa le interessi… O premo il tasto e cancello tutto quanto?

Nichols: No!!! No. [una signora fa per entrare nell’ufficio] Non ora Madeline!! [lei esce] Ma con esattezza, che cosa avete in mente?

McCoy: Be’, ci lasci parlare un attimo da soli… [prende in disparte Scott] Naturalmente ti rendi conto che se gli riveliamo la formula noi alteriamo il futuro?

Scott: No, perché? Chi ci dice che non è stato lui, l’inventore?

McCoy: Mhhh. Già…

(Star Trek IV – Rotta verso la Terra – 1986)

Uno dei film più divertenti della saga di Star Trek è quello che ho menzionato, ma oltre ad essere una miniera di citazioni, poiché l’equipaggio di Kirk e soci si ritrova negli anni ‘80 grazie ad un viaggio nel tempo, con tutto quel che ne consegue, ci fa capire come la fantascienza a volte sia aruspice della tecnologia del futuro. Per chi non lo sapesse, l’aruspice era, nell’antica Roma, il sacerdote designato all’esame delle viscere delle vittime nei sacrifici, dalle quali traeva indizi e vaticini sul futuro.

Dai satelliti geostazionari ai robot, dalla bomba atomica ai radar passando per il primo viaggio sulla Luna, la fantascienza ha spesso anticipato di molti decenni le conquiste della scienza del mondo “reale” e Star Trek, con 718 episodi televisivi, 13 film e 22 cartoni animati, è stata tra quelle che ne ha azzeccate di più.

Quando Gene Roddenberry, l’inventore della saga, iniziò a scrivere la sceneggiatura, aveva fondamentalmente due idee: creare un futuro di pace e con una visione ottimista, corredato da tecnologia che fosse quanto meno plausibile.

Certo, inventò il teletrasporto, ma quello lo fece per questioni di budget. Molto più veloce ed economico smaterializzare una persona che far atterrare una nave!

Ma le altre invenzioni, come ad esempio le “porte automatiche” scorrevoli (oggi presenti ovunque, nei supermercati, negli alberghi, negli aeroporti, ma anche nelle farmacie e presto, mi auguro, nelle case), o il “comunicatore”, dispositivo per comunicare a distanza precursore dello smartphone (era il 1966!!!), o ancora il “traduttore universale” di Uhura, prezioso per parlare con Sulibani, Tholiani, Klingon e Andoriani, ormai realtà anche portatile, non fecero altro che precorrere i tempi.

Già confrontando un qualsiasi tablet odierno con un computer di soltanto dieci anni fa, le differenze sono davvero stupefacenti. La tecnologia si è evoluta ad un ritmo impressionante, rendendo i dispositivi a nostra disposizione più piccoli, più potenti e molto più portabili. Tutto ciò anche grazie alla rapida evoluzione dell’hardware e all’impiego di nuovi materiali.

La citazione iniziale introduce l’argomento di cui vorrei parlare questa volta, un’altra predizione azzeccata di Star Trek, e cioè l’alluminio trasparente, ma visto che ci sono parlerò anche di altri materiali del futuro.

Lo avevo capito nell’89, quando, dovendo scegliere il ramo dell’ingegneria meccanica in cui specializzarmi scelsi appunto “materiali”, salvo poi fare tutt’altro nella vita (e il professore di metallurgia, bocciandomi tre volte, ha contribuito non poco).

Una volta scoperti i materiali, l’uomo ha imparato a combinarli tra loro e quando la chimica e la fisica hanno raggiunto un certo progresso, ha imparato anche a fabbricarne di nuovi. Ovviamente nell’antichità poteva accadere che un popolo scoprisse un metodo per rendere migliori i metalli e ne mantenesse il segreto per anni al fine di mantenere l’egemonia militare sui popoli vicini, ma di questi tempi le ricerche vengono condivise nella comunità scientifica.

Quasi sempre, almeno. Vediamo dunque, qualche materiale tra quelli che in futuro cambieranno la vita dell’umanità e le tecnologie che ne deriveranno.

Partiamo dall’aerogel.

È la sostanza solida meno densa che si conosca e venne creata nel 1931 come risultato di una scommessa tra Steven Kistler e Charles Learned, due scienziati americani: avrebbe vinto chi dei due avesse scambiato per primo il liquido di una “gelatina” con del gas senza causarne il collasso. Qualcuno lo chiama fumo ghiacciato o anche fumo blu ed è una miscela costituita da una sostanza allo stato solido e da un gas. Una specie di gel dove il componente liquido è sostituito con gas. Al 99,8% è aria, cosa che lo rende un fantastico isolante. Per esempio, un scudo di aerogel potrebbe facilmente difendere da un lanciafiamme, così come potrebbe esser una calotta calda sulla Luna o potrebbe diventare un componente delle armature militari del futuro.

I nanotubi di carbonio sono catene di carbonio tenuti insieme dal legame chimico più forte che esista: il legame sp². Hanno notevoli proprietà fisiche, compreso il trasporto balistico degli elettroni, cosa che li rende ideali nell’elettronica. Hanno una resistenza alla trazione circa 300 volte superiore a quella degli acciai ad alto tenore di carbonio. Per questa ragione si immagina potrebbero essere utilizzati per costruire ascensori spaziali.

Conosciuti anche come diamanti aggregati nanorod, gli iperdiamanti consistono in nanotubi aggregati di diamanti. Sono un materiale superduro, il più duro e meno comprimibile che si conosca (motivo per cui sono conosciuti anche come fullerite ultradura). Quando la nostra tecnologia arriverà all’impiego degli iperdiamanti potremo dire di vivere davvero in un futuro da fantascienza. Ci sono anche i diamanti sintetici, conosciuti anche come HPHT o CVD, che sono diamanti ottenuti attraverso un processo tecnologico. Ciò rende possibile disporre di un materiale da costruzione immensamente forte, costituito da carbonio, con un’alta conducibilità termica e con un punto di fusione ed ebollizione tra i più alti di tutti i materiali esistenti. Qualcuno immagina quanto migliorerebbe la potenza degli aerei da combattimento se fossero rivestiti con uno strato protettivo a base di diamanti sintetici.

I metamateriali sono materiali creati artificialmente con proprietà elettromagnetiche specifiche, le cui caratteristiche non dipendono solo dalla loro composizione chimica ma anche dalla loro struttura. Sono stati utilizzati per la creazione di mantelli invisibili alle microonde e per altri dispositivi dalle proprietà ottiche insolite. Sono ritenuti ideali per la creazione di ologrammi su schermi bidimensionali.

Le schiume metalliche sono composte da un materiale forte e leggero che si ottiene aggiungendo idruro di titanio in polvere all’alluminio fuso e lasciando raffreddare il tutto. Avendo un ottimo rapporto resistenza-peso, sarebbero il materiale ideale per costruire colonie spaziali o città galleggianti.

Il carbonio, portato a circa 1.000 °C, cambia struttura: si trasforma in un materiale ultra-forte, ultra-leggero, elastico come la gomma ed elettricamente conduttivo. Questa nuova struttura del carbonio offre non solo straordinarie proprietà, del tutto inattese, ma apre la strada a un nuovo campo di ricerca che potrebbe portare alla scoperta di classi di materiali mai osservati finora.

Il carbonio è già noto per essere un elemento dai “mille volti”: quando gli atomi si aggregano a determinate temperature e pressioni danno origine alla grafite; a temperature e pressioni superiori diventano diamante, il materiale naturale più duro; in alcune condizioni, quando viene “esfoliato” diventa grafene, un materiale monodimensionale – uno strato dello spessore di un atomo – le cui applicazioni sono alla base di una rivoluzione industriale.

Se lo si sottopone a temperature di 1.000 °C e a 250.000 volte la pressione atmosferica si ottiene un materiale che potrebbe essere utilizzato per le astronavi del futuro, tanto è resistente e leggero.

Chiamati anche vetri metallici, i metalli amorfi sono dei metalli con una struttura atomica disordinata (caratteristica del vetro). Sono due volte più forti dell’acciaio e possono disperdere l’energia di un impatto in modo più efficace. Hanno proprietà elettroniche tali che consentono di migliorare del 40% l’efficienza delle reti elettriche. Potrebbero costituire la prossima generazione di armature militari.

Ma i due più interessanti, che richiamano molto Star Trek, sono l’alluminio trasparente e l’e-textile.

Quest’ultimo è un materiale che permette di sviluppare abbigliamento che può visualizzare qualsiasi tessuto, proprio come un display. Inoltre, la composizione elettronica del tessuto è in grado di interpretare comandi vocali e touch per attivare, per esempio, una chiamata telefonica o la connessione a qualche server remoto. Le possibilità dell’e-textile sono illimitate.

L’alluminio, invece, il metallo leggero per eccellenza, potrebbe, a breve, essere prodotto in una versione trasparente che potrebbe far riconsiderare, soprattutto, il settore del packaging.

Già nel 2009, a dire il vero, alcuni scienziati di Oxford avevano ottenuto l’alluminio trasparente bombardandolo con impulsi laser, fino a “staccare” un elettrone dall’atomo, il tutto, però, senza intaccare la struttura cristallina tipica del metallo. Il risultato del processo? Un materiale che risultava visibile solo con elevatissime radiazioni ultraviolette. In caso contrario, la trasparenza era assicurata.

Potrebbe essere usato come anti-proiettile e impiegato nel settore del packaging per la produzione, ad esempio, di bottiglie infrangibili.

Ad oggi i costi per la realizzazione sono troppo alti ma, con il tempo e con l’avanzamento delle tecnologie, si confida nel calo dei costi tanto da poter essere impiegato in oggetti di uso comune come smartphone ed orologi.

A dire il vero esiste già un’azienda che dallo scorso anno produce ALON-OPTICAL CERAMIC che a tutti gli effetti viene presentato come alluminio trasparente, tanto che l’azienda così scrive: “Alluminio trasparente, una struttura policristallina fatta di atomi di alluminio, ossigeno e azoto. Apparve come una trovata fantascientifica quasi 30 anni fa, ma adesso è una realtà. È duro quasi quanto lo zaffiro, che dopo il diamante e il carburo di silicio è il più duro cristallo conosciuto”.

L’ossinitruro di alluminio (ALON, appunto) per resistenza e resistenza ai graffi è quattro volte superiore al vetro alluminosilicato. Inoltre, questo materiale è in grado di sopportare una temperatura massima di 2100 gradi Celsius.

Attualmente il punto debole delle blindature sono proprio le parti trasparenti. Il più promettente in questo senso è una ceramica policristallina, in particolare, le ceramiche a base di ossinitruro di alluminio. I ricercatori sostengono anche che l’ALON può essere utilizzato in numerose applicazioni militari e commerciali, come gli oblò delle navicelle spaziali.

Quindi chi sa, tra qualche anno ci potremo davvero vestire con tutine multimediali e viaggiare su astronavi di carbonio e alluminio… per andare lì, dove nessuno è mai giunto prima!

L’espansione dell’Universo

Quando frequentavo il corso di Fisica all’università, mi divertivo a trovare degli esempi pratici per poter spiegare meglio le cose. Ovviamente mi riferisco alla Fisica classica, quella di Newton, per intenderci.

Una volta ricordo che alla lavagna c’era un mio amico, Riccardo, che si era bloccato nello spiegare al professore il principio di Pascal.

Il principio di Pascal o legge di Pascal è una legge della fisica dei fluidi che stabilisce che, quando avviene un aumento nella pressione in un punto di un fluido confinato (contenuto in un contenitore, per capirci), tale aumento viene trasmesso anche ad ogni punto del contenitore (quindi la pressione è costante in tutti i punti del contenitore stesso).

Io feci un gesto e Riccardo capì al volo: mimai una botte, qualcosa che entrava dentro e la botte che esplodeva. A quel punto la spiegazione e le relative formule apparirono sulla lavagna…

botte di Pascal

“Basta poco, che ce vò”…

Ma se bisogna spiegare concetti più complessi? A volte non basta né l’immaginazione, né la conoscenza del mondo reale. Perché se è vero che per spiegare cose relative al mondo che ci circonda bastano fantasia e un po’ di senso pratico, quando si va al microscopico (o al macroscopico), le cose cambiano.

Per esempio, come spiegare il movimento degli elettroni nell’atomo, o, meglio, intorno al nucleo dello stesso?

Se uno ha presente il Sistema Solare, con i pianeti che ruotano attorno al Sole, allora non è difficile immaginarsi, per sommi capi, com’è fatto un atomo.

Però la questione degli elettroni che girano attorno al nucleo è un tantino più complessa di quella dei pianeti orbitanti intorno al Sole. Gli elettroni seguono infatti i principi di una teoria meglio nota come meccanica quantistica.

In parole povere, gli elettroni possono ruotare attorno al nucleo solo in determinate orbite e con determinati valori dell’energia. I diversi valori di distanza media dal nucleo atomico a cui le orbite degli elettroni possono trovarsi vanno dunque a definire i cosiddetti gusci elettronici.

L’atomo visto in questa prospettiva potrebbe essere quindi paragonabile a una matrioska di gusci sempre più piccoli. Se poi dovessimo spiegare dove si trova l’elettrone la questione è ancora più intricata.

Infatti non è possibile stabilire con precisione la posizione dell’elettrone senza alterare la posizione stessa: il principio di indeterminazione afferma che non è possibile determinare con precisione arbitraria e contemporaneamente due variabili quali posizione e quantità di moto di una particella.

Questo vuol dire che se misuriamo la posizione e la velocità di una particella, le grandezze che otteniamo sono caratterizzate da errori di misura: una conseguenza di tale principio è che per gli elettroni non si può parlare di traiettorie ma di spazi in cui la probabilità di trovare un elettrone è diversa da zero. Quindi una matrioska di nuvole…

Quello che vale, in termini di descrizione, per l’infinitamente piccolo, vale anche per l’infinitamente grande.

Ma prima di parlare di questo, parliamo di osservazione. Così come per l’elettrone dicevamo che esistono dei limiti nell’osservazione, in quanto la lunghezza d’onda dello strumento che usiamo per osservare è uguale o maggiore alla lunghezza d’onda della particella osservata, e per questo ne altera le caratteristiche, anche nell’osservazione “lontana” le cose non vanno meglio.

La luce, che è lo strumento che ci serve per osservare, ha una velocità finita, anche se incredibilmente elevata. Infatti viaggia a 300.000 chilometri al secondo.

Questo comporta che non vediamo mai le cose come effettivamente sono.

Mi spiego.

Noi vediamo un oggetto in quanto la luce che parte (o meglio, che viene riflessa) da quell’oggetto colpisce i nostri occhi. Poiché ci vuole del tempo affinché la luce copra la distanza tra oggetto e occhio, la cosa che osserviamo, in realtà, è l’immagine che aveva in passato.

Ovviamente la distanza è un fattore chiave. Se l’oggetto è vicino, si può tranquillamente affermare che lo vediamo in tempo reale. Quando però ci allontaniamo, per esempio, osservando oggetti che sono lontanissimi da noi, la luce, prima di arrivare ai nostri occhi, potrebbe metterci del tempo.

La luce che proviene dalla Luna, per esempio, impiega poco più di 1 secondo (1,28) per giungere a noi e questo comporta che quando guardiamo la Luna non la vediamo com’è ora, ma com’era un secondo fa.

Avete mai notato che quando ci sono i collegamenti via satellite nei telegiornali, tra la domanda del giornalista presente in studio e il cronista in collegamento passa qualche secondo? La trasmissione dei segnali elettromagnetici (anche la luce) ci mettono del tempo a rimbalzare sul satellite e ciò comporta un ritardo di risposta. Il concetto è questo.

Anche nel caso del Sole, più distante da noi della Luna, c’è una discrepanza tra quanto osservato e realtà. Infatti, la luce del Sole ci mette 8,33 minuti ad arrivare a noi.

A maggior ragione, più in là ci spostiamo, più tempo ci vuole perché la luce copra la distanza e più indietro nel tempo andremo. È una sorta di “viaggio nel passato” cosmica. L’attuale Stella Polare si trova a 323 anni luce, che vuol dire che la luce impiega 300 anni per arrivare a noi, quindi quella che vediamo è in realtà una sua immagine di come era 323 anni fa. È di uso comune indicare gli oggetti molto distanti appunto con l’unità di misura “anno luce”, cioè 9.460.730.472.581 chilometri, che è appunto la distanza che copre la luce in un anno. Più comodo dire 323 anni luce che 305.581.604.100.961 km, senza dubbio.

La galassia di Andromeda, che è quella più vicina a noi, è distante 2,538 milioni di anni luce. Quindi oggi la vediamo come era due milioni di anni fa! Potrebbe addirittura non esserci più, per quel che ne sappiamo.

Ci sono galassie osservabili anche lontane 12 miliardi di anni luce, la cui immagine che vediamo è quella che avevano quando ancora non esisteva il Sistema Solare!

Ma se la luce avesse una velocità minore? Sarebbe un vantaggio?

Non credo. Facciamo un esempio, prendendo in considerazione un mondo in cui la luce viaggi a 300 metri all’ora invece che 300 chilometri al secondo (i fisici mi perdonino, dimentico volutamente la relatività di Einstein).

Supponiamo di essere di fronte ad un trampolino su cui si stanno svolgendo i mondiali di salto con lo snowboard. Abbiamo quindi la zona di atterraggio a pochi metri e quella di partenza più lontana. Vedremmo prima l’atterraggio e poi la partenza (questo perché la zona di salto è più lontana dai nostri occhi di quella di atterraggio)! Non solo, guardando in direzione dei food truck sistemati più in là, vedremmo noi stessi arrivare in tribuna!

Ecco, ciò creerebbe non poca confusione. Poi, sarebbe una violazione del principio di casualità, quello secondo cui la causa precede l’effetto.

I fisici saranno contenti: non potendo violare quel principio, descritto da Einstein, l’uovo si rompe sempre cadendo dal tavolo e non fa il percorso al contrario.

Quindi, come spiegavo prima, guardando il cielo, gli oggetti più lontani ci inviano informazioni più vecchie di quelli più vicini. Quando ad esempio si osserva l’esplosione di una supernova, siamo certi che quel fenomeno si è verificato molto tempo prima del momento in cui si è compiuta l’osservazione, proprio come quando, davanti al trampolino, vediamo l’atleta prima saltare e poi atterrare.

Ma fino a che distanza possiamo guardare? Ovviamente, se supponiamo che l’Universo abbia una “data di nascita”, almeno per quel che riguarda l’emissione di luce, non possiamo che supporre di poter spingere lo sguardo fino a quella “data”, così come non è possibile vedere una foto di noi stessi scattata prima della nostra nascita.

Infatti, se immaginiamo di mettere su un tavolo le foto che ritraggono noi stessi, dalla più recente (nel punto più vicino a noi del tavolo) fino a quella scattata il giorno della nostra nascita (nel punto più lontano del tavolo), è chiaro che più guardiamo lontano più andremo indietro nel tempo, ma non sarà possibile vedere una foto antecedente l’ultima (anche perché non esiste).

Anche l’Universo prima di una certa “data” non esisteva e quindi non possiamo spingerci oltre con lo sguardo. Questo limite si chiama “Orizzonte Cosmico” e dovrebbe trovarsi all’incirca a 15 miliardi di anni luce, cioè la luce partita dagli oggetti che per primi sono nati è giunta a noi dopo un viaggio di 15 miliardi di anni (mese più, mese meno).

Ovviamente, dopo un viaggio così lungo, la luce è “stanca”, cioè si è fortemente indebolita e non rientra nello spettro della luce visibile; con un radiotelescopio, Arno Penzias e Robert Woodrow Wilson, fisici americani, scoprirono, vincendo il Premio Nobel per la Fisica nel 1978, tale radiazione, chiamata “radiazione cosmica di fondo”, che è una radiazione elettromagnetica che rappresenta il residuo, raffreddato (3 gradi kelvin, cioè -270,15 gradi centigradi) e diluito, della vampata iniziale che ha dato il via all’Universo intero.

Ma non è finita qui.

L’Universo, oltre ad essere molto esteso, si sta espandendo, cioè, con il passare del tempo, diventa sempre più grande. Le domande a questo punto sono due: come si espande e soprattutto, dentro che cosa si espande?

Edwin P. Hubble, astronomo americano, affermò nel 1929 che esiste una relazione lineare tra lo spostamento verso il rosso della luce emessa dalle galassie e la loro distanza: tanto maggiore è la distanza della galassia e tanto maggiore sarà il suo spostamento verso il rosso (fenomeno per cui la luce o un’altra radiazione elettromagnetica emessa da un oggetto ha una lunghezza d’onda maggiore rispetto a quella che aveva all’emissione).

Si suppose allora che se le galassie si stavano tutte allontanando tra loro, al principio ci doveva essere un singolo punto che doveva riunirle tutte. Nacque così la teoria del “Big Bang”, che paragona l’Universo ad una bomba che esplode e che lancia le schegge in tutte le direzioni. Il concetto però è sbagliato perché fa pensare a un movimento delle galassie nello spazio a partire da un punto centrale. In realtà le galassie non si muovono attraverso lo spazio, né esiste un centro tutto intorno al quale la materia si espande, ma è lo spazio stesso che si dilata portando con sé le galassie.

L’analogia più appropriata, per spiegare l’espansione cosmica, è quella del panettone che lievita. Più precisamente, dovremmo pensare di trovarci all’interno di un panettone sconfinatamente grande: così grande che, come appunto l’Universo, non contempli alcun “fuori” (né possieda una saporita crosta di cioccolato). Quando un panettone lievita, gli acini di uva passa disseminati al suo interno si allontanano sempre più l’uno dall’altro.

Per spiegare invece come mai le galassie si allontano da noi ad una velocità proporzionale alla distanza, quindi sempre più alta quanto più la galassia è lontana faccio un altro esempio. In questo mi aiuta il fatto di essere stato militare.

Immaginiamo una fila di soldati posti alla distanza di un metro l’uno dall’altro ai quali venga dato l’ordine che la distanza che li separa diventi di due metri. Come si dovrebbero comportare i soldati per eseguire l’ordine? Semplice, il primo della fila dovrebbe rimanere fermo, quello che gli sta immediatamente a ridosso dovrebbe indietreggiare di un metro, il terzo della fila dovrebbe indietreggiare di due metri, il quarto di tre metri e così via.

Ora, se l’operazione dovesse essere portata a termine in un determinato tempo, diciamo in dieci secondi, è evidente che i soldati, per raggiungere la nuova posizione, dovrebbero retrocedere a velocità sempre maggiore a mano a mano che ci si allontana dal primo della fila il quale, come abbiamo detto, dovrebbe rimanere fermo. Il secondo della fila dovrebbe spostarsi di un metro in 10 secondi, il terzo di due metri in 10 secondi, il quarto di tre metri in 10 secondi e così via. Il centesimo della fila dovrebbe retrocedere di 99 metri in 10 secondi, manco fosse Usain Bolt.

Ma anche il più veloce dei soldati avrebbe un tempo limite, così come le galassie, che se si spostassero nell’Universo, non potrebbero superare la velocità limite che sappiamo essere quella della luce.

Se però i soldati fossero disposti su una specie di tapis roulant di gomma, potrebbero rimanere fermi e tuttavia allontanarsi tra loro se il tapis roulant venisse allungato sotto i loro piedi. Anche le galassie sono “ferme”, ma è lo spazio stesso che, dilatandosi, le “sposta”. Ed è per questo che, anziché parlare di “velocità” (che implica movimento), i cosmologi preferiscono il termine “recessione”.

Più affascinante ancora è il problema di che cosa ci sia al di là di quello che abbiamo chiamato l’Orizzonte Cosmico, cioè a distanze maggiori di 15 miliardi di anni luce. Niente, sembra essere la risposta più ovvia. Ma non è così.

Torniamo all’esempio delle foto: se oggi pretendessi di vedere una mia foto scattata 50 anni fa sarebbe impossibile, perché ne ho 49. Ma l’anno prossimo la potrò vedere! Nello stesso modo, essendo l’Universo nato 15 miliardi di anni fa, la luce può aver viaggiato solo per 15 miliardi di anni e quindi i segnali luminosi che sono partiti dalle remote regioni che si trovano al di là dell’Orizzonte Cosmico non hanno ancora fatto in tempo ad arrivare fino a noi.

Uso un altro esempio: se saliamo su una montagna, mano a mano che saliamo, l’orizzonte si sposterà sempre più lontano: allo stesso modo, l’Orizzonte Cosmico si va ingrandendo con il passare del tempo inglobando regioni cosmiche che attualmente ci sono ignote.

La cosa più ragionevole da pensare, quindi, è che al di là dell’Orizzonte Cosmico vi siano sconfinati spazi popolati di galassie (o di altre “robe”), esattamente come si può osservare vicino a noi.

Ciò, fra l’altro, si inquadrerebbe perfettamente con l’assunto fondamentale della cosmologia moderna, secondo il quale l’Universo non ha un centro o, per meglio dire, non ha, al suo interno, punti preferenziali.

Ma questo fatto, se da un lato ci delude e ci ferisce nel nostro orgoglio, dall’altro ci garantisce un futuro di scoperte: come diceva Italo Calvino, “Se alzi un muro, pensa a ciò che resta fuori!”

Onda su onda…

In condizioni normali, l’occhio percepisce l’immagine di un oggetto perché questo riflette una parte della luce che lo colpisce. La luce riflessa giunge all’occhio in modo da formare sulla retina un’immagine corrispondente punto per punto all’oggetto.

La nebbia è una sospensione di finissime goccioline d’acqua che diffondono la luce, cioè la deviano in tutte le direzioni. Se le goccioline sono poche, come nel caso di foschia, si perde poca visibilità perché la deviazione della luce è minima. Con nebbia densa, invece, un raggio luminoso subisce molte deviazioni e l’occhio non riesce a ricostruire efficacemente l’immagine.

Ecco perché non vediamo nella nebbia. Ma perché dico questo? “Non starai facendo un pezzo sulla nebbia?”, penserà qualcuno.

Tranquilli, non parlerò di nebbia, ma l’esempio che ho usato mi serve a far comprendere, in parole semplici, perché sia così difficile rilevare le onde gravitazionali. È più o meno come cercare di vedere nella nebbia.

Ogni tanto però, nella scienza ci sono avvenimenti che segnano una svolta e servono anche a comprendere meglio i fenomeni e le loro implicazioni.

Nei giorni scorsi ci sono stati due eventi che hanno avuto ampia risonanza nel mondo scientifico: il Premio Nobel per la fisica e una nuova scoperta, ancora più importante delle precedenti, della coppia Virgo-LIGO.

Il VIRGO è un grande interferometro con bracci lunghi 3 km, situato nel comune di Cascina, in provincia di Pisa, e fa coppia con il LIGO (Laser Interferometer Gravitational wave Observer, cioè osservatorio interferometro laser delle onde gravitazionali), costituito da due tubi lunghi 4 chilometri e larghi poco più di un metro disposti a formare una gigantesca “L”, situato in due locations, la prima presso Hanford, nello stato di Washington, la seconda a Livingston, in Louisiana.

I due fatti sono collegati, poiché l’assegnazione del Nobel a Rainer Weiss, Barry C. Barish e Kip S. Thorne, per i “loro contribuiti decisivi legati all’osservatorio LIGO e alle onde gravitazionali”, ha riconosciuto il lavoro di quasi 40 anni per rendere possibile la prima osservazione delle onde gravitazionali, avvenuta il 14 settembre del 2015 e annunciata nel febbraio dell’anno seguente.

Il 26 febbraio 2016, trovandomi a Milano per lavoro, ho assistito alla conferenza di Marco Giammarchi, ricercatore dell’Istituto Nazionale di Fisica Nucleare e visiting professor all’Università di Berna, al planetario “Ulrico Hoepli” di Milano. Ancora non avevo ben capito le implicazioni che una scoperta del genere avrebbe potuto avere, ma quella conferenza fu straordinaria nel farle capire.

Ma se la prima scoperta del settembre di due anni fa aveva aperto la strada a un nuovo strumento di osservazione astronomica, l’annuncio di metà ottobre di quest’anno è ancora più entusiasmante.

Non solo perché ha “rilevato” la fusione di due stelle di neutroni, e questo ci permette di studiare questi oggetti che hanno una densità tale che un cucchiaino di una stella di neutroni ha la densità di una montagna terrestre (o del casatiello napoletano), ma anche perché si è trattato di uno degli eventi astronomici più documentati di sempre: è stata studiata la sua “onda d’urto” sotto forma di onde gravitazionali; individuati i suoi lampi gamma, appena due secondi dopo lo scontro; e nelle ore successive, è stato osservato nella luce visibile, all’infrarosso, negli ultravioletti, ai raggi X, fino a captarne le onde radio. All’appello mancano solo i neutrini (e questo è un risultato su cui si dovrà indagare).

Nel frattempo, Hubble ha misurato il moto e la composizione chimica del materiale del nuovo oggetto celeste, una kilonova: nelle nubi di detriti espulsi dalle stelle di neutroni in collisione sono state forgiate grandi quantità di alcuni degli elementi più pesanti dell’Universo, in pratica centinaia di masse terrestri di oro e platino (non una buona notizia per gli speculatori, perché se avessimo a portata di mano un pianeta fatto d’oro, il valore dello stesso scenderebbe a zero).

Per fare un paragone cinematografico, per la ricerca è come se fossimo passati da un film muto e in bianco e nero a un colossal in hd con tanto di colonna sonora d’autore.

Ma per la vita di tutti i giorni?

È forse sfuggita l’importanza che esse hanno e avranno, non solo per la scienza, ma anche per il nostro vivere comune. Basta infatti poco a riflettere, ad esempio, che la nostra civiltà è basata sulle onde elettromagnetiche; che ci danno la possibilità di comunicare come siamo in grado di farlo oggi. Ebbene, le onde gravitazionali sono, probabilmente, molto più importanti delle onde elettromagnetiche.

Vediamo perché.

Intanto diciamo che le onde gravitazionali sono difficilissime da osservare: se una stella distante 10.000 anni luce esplodesse la corrispondente onda gravitazionale deformerebbe il nostro metro di un milionesimo di miliardesimo di centimetro. Pari ad un centesimo del diametro di un nucleo atomico.

Come avevo già detto in passato, la forza gravitazionale, a differenza di quella elettromagnetica, che si presenta con un’attrazione e una repulsione, e delle forze nucleari, che hanno un raggio d’azione limitatissimo, è debolissima, ma si presenta come un’attrazione costante e continua da parte dell’oggetto con massa maggiore nei confronti di quello di massa minore.

In realtà, ciò accade perché l’oggetto di massa maggiore deforma lo spazio in modo proporzionale e quindi possiamo affermare che tutta la materia in spostamento provoca onde gravitazionali. Anche noi, camminando, le provochiamo, deformando lo spazio intorno a noi.

Questo necessita un cambiamento nel modo di pensare lo spazio, non come un posto vuoto, ma con una certa “consistenza”. Consistenza che cambia, ad esempio, al passaggio di onde gravitazionali.

L’ultima scoperta, la fusione delle due stelle di neutroni, ci ha portato alla consapevolezza di un paio di cose sulle onde gravitazionali che prima non immaginavamo neanche: intanto, le informazioni trasportate dalle onde viaggiano in teoria, all’infinito, senza essere modificate. Quindi possono, sempre in teoria, penetrare un buco nero.

Altra cosa interessante: a quanto pare si muovono alla velocità della luce, perché non ci sono masse associate e perché, nel vuoto, luce e gravità viaggiano alla stessa velocità. E le informazioni trascinate dalle onde gravitazionali sono, sempre in teoria, molto più affidabili di quelle delle onde elettromagnetiche, perché tutto è soggetto alla gravità, mentre, ad esempio, l’elettromagnetismo agisce solo su corpi dotati di carica.

A me queste cose fanno venire in mente tre esempi.

Comunicazioni: anche se deformano, di poco però, lo spazio intorno a loro, come dicevo, sono più affidabili delle onde elettromagnetiche.

Energia a basso costo: ricordate, quando spiegavo la fisica di Star Trek, di come sarebbe utile avere una fonte di energia quasi inesauribile? Con le onde gravitazionali potremmo andare in quella direzione.

Viaggi interstellari: le teorie che prevedono dimensioni nascoste nelle pieghe dell’Universo potrebbero finalmente essere confermate (o confutate) e ciò ci darebbe la possibilità di deformare lo spazio con le onde gravitazionali, così da viaggiare a velocità superiori a quella della luce.

Inoltre, la scoperta delle onde gravitazionali potrebbe dare, anche prima di quel che pensiamo, la risposta alla domanda che negli ultimi anni ha quasi bloccato la ricerca astronomica, cioè il mistero della massa mancante.

Infatti i nostri modelli ci dicono anche che là fuori dovrebbe esserci, nascosta da qualche parte, il doppio circa di materia ordinaria rispetto a quella osservata.

In conclusione: già ora le onde gravitazionali sono utili per vedere meglio tutto quello che l’Universo nasconde, spingendoci meglio verso distanze prima inimmaginabili.

Le altre utilità descritte, come telecomunicazioni, energia propulsiva cosmica, studio delle dimensioni nascoste dell’Universo, viaggi interstellari attraverso pieghe e curvature dello Spazio, sono oggi fantasie.

Ma erano fantasie anche quelle di Arthur C. Clarke, che nel 1951 nel romanzo “La sentinella”, che poi ispirò “2001, Odissea nello spazio”, predisse l’utilizzo di satelliti geostazionari per le comunicazioni, come erano fantasie quelle di H. G. Wells, di Isaac Asimov e di altri fantasiosi autori di romanzi. Fantasie che si sono realizzate, quindi chissà che le onde gravitazionali non ci portino delle sorprese!

Anche se in realtà l’unica invenzione di cui davvero avremmo bisogno è la piscina che fa ringiovanire, come quella di Cocoon…

 

 

Personalità ellittiche

Come scritto in “La dinamica”, essa è il ramo della meccanica che si occupa dello studio del moto dei corpi e delle sue cause o, in termini più concreti, delle circostanze che lo determinano e lo modificano.

Avevamo visto inoltre che Isaac Newton aveva elaborato tre leggi che regolavano il moto degli oggetti in generale in base alla gravitazione. Da dove aveva tratto spunto? Facciamo un passo indietro e parliamo di uno scienziato che, prima di Newton, aveva capito molte cose riguardo al moto.

Giovanni Keplero (1571 – 1630) è stato un astronomo, astrologo, matematico e teologo evangelico tedesco. I suoi genitori decisero che egli sarebbe diventato un ecclesiastico e nel 1584 entrò nel seminario di Adelberg, trasferendosi poi nel seminario superiore a Maulbronn. Nel 1588 cominciò i suoi studi presso l’Università di Tubinga, seguendo due anni di istruzione generale, con lezioni di etica, dialettica, retorica, greco, ebraico, astronomia e fisica. Nel 1592 intraprese lo studio della teologia a Tubinga, università protestante dove insegnavano alcuni seguaci del copernicanesimo; tra questi vi era Michael Maestlin, che convinse Keplero della validità delle teorie di Niccolò Copernico.

Nel 1594 Keplero dovette interrompere gli studi teologici, perché gli venne affidato l’insegnamento di matematica presso la Scuola Evangelica di Graz (Austria) e successivamente divenne matematico territoriale degli Stati di Stiria. Tra i suoi compiti vi era l’obbligo di insegnare presso l’Università di Graz, redigere carte astrali e com’era uso nel tempo fare previsioni astrologiche; gli capitò così di prevedere un inverno molto rigido, le rivolte contadine e la guerra con i Turchi. Anche negli anni a seguire non si sottrasse alla stesura di oroscopi, che si configurano come ritratti dal forte tratto psicologico.

Nell’aprile 1597 sposò Barbara Mühleck, che morì prematuramente nel 1611 dopo avergli dato cinque figli (due dei quali morti in giovane età). Sempre nel 1597 pubblicò l’opera “Mysterium Cosmographicum”, nella quale tentò una prima descrizione dell’ordine dell’Universo. Nel 1599 Tycho Brahe gli offrì un posto come suo assistente, che Keplero accettò l’anno dopo, sfuggendo così anche agli editti contro i luterani che venivano emanati in Austria da ferventi controriformatori quali Ferdinando II d’Austria e Massimiliano III d’Austria.

Nel 1601, dopo la morte di Brahe, ne divenne il successore nell’incarico di matematico e astronomo imperiale a Praga. Nel 1604 osservò una supernova che ancora oggi è nota col nome di Stella di Keplero. Le basi per le sue scoperte astronomiche furono gettate nel 1609, quando pubblicò il suo capolavoro “Astronomia nova”, in cui formulò due leggi. Alla morte dell’imperatore Rodolfo II (1612), il nuovo imperatore Mattia (fratello di Rodolfo II) approvò che Keplero ricoprisse la carica di “matematico territoriale (Landschaftsmathematiker)” a Linz (Austria), pur mantenendo la nomina di “matematico imperiale” e quindi l’obbligo di portare avanti l’elaborazione delle Tabulae Rudolphine.

Il 30 ottobre 1613 Keplero si sposò per la seconda volta, con la ventiquattrenne Susanna Reuttinger, dalla quale ebbe altri sei figli, tre dei quali morti nell’infanzia.

Il 15 maggio 1618 Keplero scoprì la terza legge che prende il suo nome, che rese nota l’anno dopo nell’opera “Harmonices mundi”. Nell’agosto 1620 la madre di Keplero venne accusata di stregoneria dalla Chiesa protestante e rilasciata solo nell’ottobre 1621; il processo durò sei anni e Keplero assunse la sua difesa.

Lo scienziato, in disgrazia e in povertà, morì nel 1630 a 58 anni a Ratisbona e venne qui sepolto presso il Cimitero di San Pietro. La sua tomba si perse nel 1632 quando le truppe di Gustavo Adolfo (impegnate nell’invasione della Baviera durante la guerra dei trent’anni) distrussero il cimitero; rimane però la lapide dove ancora oggi si può leggere l’epitaffio da lui stesso composto: “Mensus eram coelos, nunc terrae metior umbras. Mens coelestis erat, corporis umbra iacet” (“Misuravo i cieli, ora fisso le ombre della terra. La mente era nella volta celeste, ora il corpo giace nell’oscurità”).

In “Astronomia nova” Keplero enunciò due delle tre leggi che portano il suo nome. La terza comparve nel “Harmonices mundi libri quinque” del 1619. Le tre leggi di Keplero rappresentano un modello di descrizione del moto dei pianeti del sistema solare:

1.) L’orbita descritta da ogni pianeta nel proprio moto di rivoluzione è un’ellisse di cui il Sole occupa uno dei due fuochi.

sistema1.png

2.) Durante il movimento del pianeta, il raggio che unisce il centro del Pianeta al centro del Sole (raggio vettore) descrive aree uguali in tempi uguali. (Nel 1966 Koyrè, percorrendo i calcoli tortuosi di Keplero, concluse che questa legge è stata derivata da una premessa errata, e cioè che la velocità della Terra sia inversamente proporzionale alla sua distanza dal Sole, e con calcoli errati. Inoltre stabilì che questa legge venne ricavata prima della legge delle orbite ellittiche. La legge comunque è esatta ed è una semplice conseguenza della conservazione del momento angolare).

sistema2.png

3.) Il quadrato del periodo di rivoluzione di un pianeta è proporzionale al cubo della sua distanza media dal Sole.

sistema3.png

Keplero ereditò da Tycho Brahe una gran quantità dei più precisi dati mai raccolti sulle posizioni dei pianeti. Il problema era dare loro un senso. I movimenti orbitali e gli altri pianeti sono visti dal punto vantaggioso della Terra, che orbita a sua volta intorno al Sole. Questo fa sì che i pianeti sembrino muoversi disegnando strane curve. Keplero volle concentrarsi sull’orbita di Marte anche se prima avrebbe dovuto studiare accuratamente l’orbita della Terra. Per far questo ebbe bisogno di una linea di base da topografo. Con un colpo di genio usò come linea di base il Sole e una delle due intersezioni dell’orbita di Marte con il piano dell’eclittica. Marte era particolarmente adatto allo scopo proprio perché la sua orbita ha la massima inclinazione con tale piano. Usando tale base poté calcolare le posizioni della Terra e ricavare poi l’intera orbita di Marte. Egli fu inoltre capace di dedurre le sue leggi sui pianeti senza conoscere le esatte distanze dei pianeti dal Sole, poiché le sue analisi geometriche richiedevano solo il rapporto tra le rispettive distanze dal Sole.

Keplero, a differenza di Tycho Brahe, appoggiò il modello eliocentrico del sistema solare e partendo da questo per vent’anni provò a dare un senso ai suoi dati. Alla fine giunse a formulare le sue tre leggi sui movimenti planetari che enunciò nelle tavole rudolfine, così chiamate in onore di Rodolfo II d’Asburgo, Imperatore del Sacro Romano Impero. In tali tavole introdusse anche i logaritmi neperiani per agevolare i calcoli astronomici.

La straordinaria importanza delle scoperte di Keplero non fu immediatamente riconosciuta. Fortemente interessato a tematiche mistiche e metafisiche di natura platonica e pitagorica, la sua “modernità” consiste nella ricerca delle variazioni quantitative delle forze che agiscono nello spazio e nel tempo e nel parziale abbandono del punto di vista animistico in favore di un meccanicismo allo stato embrionale.

La terza legge permette di stabilire la velocità del corpo celeste una volta stabilita l’orbita e viceversa. Si era scoperta una legge che non regolava semplicemente i moti dei pianeti nelle proprie orbite, ma si stabiliva un rapporto tra la velocità dei corpi che si muovono in orbite differenti. Galilei si congratulò con lui per avere accolto il Copernicanesimo ma non si pronunciò sul resto, aggiungendo che alcuni dei suoi pensieri fossero “piuttosto a diminuzione della dottrina del Copernico che a stabilimento” (Galilei). Bacone, pur essendo molto legato alla tradizione ermetica, lo ignorò e Cartesio lo riconobbe come il suo primo maestro di ottica, non considerando il resto come degno di attenzione. Solo dopo che Newton si servì delle leggi di Keplero, queste vennero accettate dalla comunità scientifica, ma non prima degli anni sessanta del Seicento.

La comunità scientifica gli ha dedicato l’asteroide 1134 Kepler, un cratere lunare di 31 km di diametro, un cratere sul pianeta Marte di 233 km di diametro, una cresta di 15 km di lunghezza su Fobos (uno dei due satelliti di Marte) e Kepler-22 b, il pianeta più simile alla Terra scovato finora nell’Universo, che orbita attorno a Kepler-22, una stella nana gialla situata nella costellazione del Cigno e il telescopio spaziale Kepler della NASA.

Possiamo dunque dire che Giovanni Keplero non riuscì a comprendere quali forze costringessero i pianeti a muoversi secondo le sue leggi. Fu Isaac Newton che, cinquant’anni dopo, le dimostrò, enunciando la legge della gravitazione universale.

La prossima volta parleremo di forze, lavoro ed energia, per entrare nel cuore della fisica “classica”.

Il segreto della vita

Abbiamo visto in “Il sistema solare parte ottava” la storia e l’evoluzione del nostro pianeta, ma un dubbio resta: mentre è molto chiaro, in base alle conoscenze attuali, come, dal punto di vista fisico e chimico, si sviluppa e si evolve la materia, diciamo, “inanimata”, restano ancora sconosciute le modalità di formazione della “vita” sulla Terra, o meglio, come dalla materia inanimata ci si sia arrivati.

L’idea che gli ingredienti necessari all’origine della vita siano arrivati sulla Terra nel corso di violenti bombardamenti meteoritici, circa quattro miliardi di anni fa, non è una novità.

In un episodio della sesta stagione di “Star Trek: The next generation” (il ventesimo, “The Chase”, “Il segreto della vita” in italiano) si ipotizza che una razza antichissima di alieni, prima di estinguersi abbia sparso il proprio patrimonio genetico per la galassia. Se da un lato questo episodio può essere usato per spiegare la particolare somiglianza della maggior parte delle razze aliene in Star Trek (quasi tutte umanoidi, pochissime ad esempio rettiloidi), dall’altro sembra che l’ispirazione sia la teoria della panspermia, che è appunto quella che accennavo.

Dal greco “πανσπερμία” da πᾶς/πᾶν (pas/pan) “tutto” e σπέρμα (sperma) “seme”) è una ipotesi che suggerisce che i semi della vita (in senso ovviamente figurato) siano sparsi per l’Universo, e che la vita sulla Terra sia iniziata con l’arrivo di detti semi e il loro sviluppo. È implicito quindi che ciò possa accadere anche su molti altri pianeti. Per estensione, semi si potrebbero considerare anche semplici molecole organiche.

Ma dove si sarebbero formate queste molecole organiche che viaggiavano a bordo dei meteoriti, se non vogliamo considerare la tesi fantascientifica?

Secondo l’ipotesi finora più accreditata, bisognerebbe cercare nel più remoto passato del sistema solare, quando la nostra stella era ancora a uno stadio di nebulosa: è in quel periodo che questi composti sarebbero rimasti “imprigionati” nei meteoriti appena nati, che li avrebbero poi trasportati nello spazio per milioni di anni.

Tuttavia i risultati di un nuovo esperimento italiano, svolto in collaborazione con degli scienziati russi, sembrerebbero aprire nuovi scenari sul ruolo svolto dai meteoriti nella nascita dei componenti base della cellula. Queste biomolecole avrebbero continuato, e continuerebbero, a formarsi sui meteoriti, infatti, anche in momenti successivi, perché i minerali di cui sono costituiti promuoverebbero le reazioni chimiche che le sintetizzano.

Come si legge su “Proceedings of the National Academy of Sciences”, i ricercatori hanno osservato che inviare fasci di protoni ad altissima energia, simulando il vento solare, su un mix di meteorite polverizzato e formammide, una molecola semplice a base di carbonio molto diffusa nell’universo, porta alla formazione spontanea di centinaia di composti organici complessi: amminoacidi, i mattoni delle proteine; lipidi, i costituenti della membrana cellulare; acidi carbossilici, su cui si basa il metabolismo; zuccheri; basi azotate e persino nucleosidi, molecole più articolate alla base sia del DNA che dell’RNA, che non erano mai state ottenute in altri studi volti a riprodurre in laboratorio la nascita della vita. Un risultato che, senza l’azione della polvere di meteorite quale catalizzatore delle reazioni chimiche di trasformazione della formammide, non si sarebbe potuto ottenere.

L’esperimento mostra che le molecole alla base della cellula si possono formare ovunque nell’universo. Allo stato attuale della ricerca, appare più probabile che i composti chimici che hanno dato origine alla vita sulla Terra si siano formati sui meteoriti stessi in presenza di formammide grazie all’energia del vento solare, piuttosto che sul nostro pianeta o durante l’impatto, per il calore sprigionato; anche se queste ultime due ipotesi non si possono comunque escludere.

Oltre a “rivalutare” il ruolo dei meteoriti nell’origine della vita da semplici mezzi di trasporto a fattore fondamentale per la formazione di molecole organiche, lo studio evidenzia per la prima volta la possibilità che la fonte di energia alla base di questo processo sia stata il vento solare, il flusso di particelle cariche che la nostra stella genera per reazioni termonucleari.

Anche a questo vento era stato già riconosciuto un ruolo importante nel preservare la vita, perché, spirando con violenza a migliaia di chilometri all’ora fino ai confini del sistema solare, ci protegge da pericolosissime radiazioni cosmiche esterne, con le quali si scontra. Ma finora nessuno aveva mai mostrato che, oltre a creare una sorta di gabbia protettiva per poter originare la vita, questo vento potesse contribuirvi anche attivamente.

Quello che ha stupito è stato constatare l’enorme efficienza di questa nuova sorgente di energia, potente ma fredda. La cosa bella è che si tratta di un meccanismo universale, può verificarsi in qualsiasi sistema planetario: l’energia delle stelle si trova in tutto l’universo, così come i meteoriti e la formammide, e la chimica del carbonio funziona allo stesso modo ovunque.

Sono più di cinquant’anni, ormai, che gli scienziati cercano di riprodurre in laboratorio le condizioni ambientali e chimiche della Terra primordiale sperando di osservare la formazione della vita a partire da sostanze inorganiche, con alcuni parziali successi. Il primo in assoluto era stato lo storico esperimento di Urey-Miller, in cui i due scienziati erano riusciti a indurre la formazione spontanea di amminoacidi applicando scariche elettriche su un gas di sostanze inorganiche (metano, ammoniaca, idrogeno e vapore acqueo) a modello di atmosfera della Terra primordiale.

Harold Clayton Urey (1893-1981), oltre che premio Nobel per la chimica nel 1934 per la scoperta del deuterio, fu insegnante di Isaac Asimov e direttore di un gruppo che lavorò al “Progetto Manhattan”. Stanley Lloyd Miller (1930-2007) fu un suo studente ed assieme portarono avanti le ricerche e il famoso esperimento.

Da allora lo studio dell’origine della vita è diventato una disciplina a sé, la cosiddetta chimica prebiotica, che studia processi il più possibile semplici ma in grado di generare molecole di grande complessità strutturale. Diversi modelli di Terra primordiale sono stati sperimentati, variando le sostanze inorganiche di partenza, le condizioni di temperatura e pressione, la fonte di energia, dal calore a vari tipi di radiazioni, e hanno portato alla formazione spontanea di diversi composti organici.

Per quanto si possa speculare all’infinito su come la vita abbia avuto inizio, limitandoci ai risultati sperimentali possiamo dire, a grandi linee, che negli ultimi anni si sono fronteggiate due grandi scuole di pensiero: quella secondo cui si sarebbe sviluppato prima il “materiale genetico” della vita, l’RNA (un polimero che svolge svariate funzioni all’interno della cellula, dalla duplicazione del DNA alla regolazione dell’espressione di geni), e quella secondo cui, invece, avrebbero avuto prima origine i processi metabolici, cioè la raccolta e l’utilizzo di energia sotto controllo, mentre la genetica sarebbe stata un passo successivo.

La presenza di queste due scuole è legata al fatto che gli esperimenti producevano, alternativamente, i composti precursori dell’uno o dell’altro aspetto. A mettere d’accordo tutti, però, sarebbe entrata in scena la formammide.

La formammide è un composto a base di carbonio legato ad atomi di idrogeno, azoto e ossigeno, gli atomi più importanti a livello biologico. È estremamente semplice e allo stesso tempo contiene tutti gli elementi chimici necessari per dar luogo a biomolecole, ed è molto diffusa nell’universo. Nella nostra galassia sono state individuate nubi di formammide del diametro di migliaia di anni luce, ma la sua presenza è stata osservata anche all’interno di altre galassie, di stelle molto giovani, nel mezzo interstellare, e su comete e satelliti, oltre che sul nostro stesso pianeta.

La chimica prebiotica della formammide è ormai un dato acquisito: gli scienziati sono riusciti a ottenere allo stesso tempo sia i composti precursori dei processi genetici, cioè le basi azotate, che quelli alla base dei processi metabolici, cioè gli acidi carbossilici. Questo suggerisce che entrambi i processi potrebbero essere emersi simultaneamente, ponendo fine al dibattito tra le due diverse scuole di pensiero. Tuttavia con questi modelli non si era mai riusciti a generare nucleosidi, cioè basi azotate legate a uno zucchero, che sono composti più evoluti.

La nuova ricerca ha avuto tre protagonisti, tutti e tre indispensabili, ognuno con un ruolo diverso: i fasci di protoni, a simulare il vento solare come sorgente di energia; la formammide liquida che, scomposta, fornisce il materiale per formare nuove molecole più complesse; e polvere di meteorite, che mescolata alla formammide agisce come catalizzatore, favorendo le reazioni chimiche che hanno portato alla sintesi delle biomolecole (gli elementi metallici dei minerali meteoritici rendono la formammide più reattiva, cioè più propensa a trasformazioni chimiche, sottraendole elettroni).

Tutti i meteoriti hanno dato risultati, ma quelli che si sono dimostrati più attivi sono le condriti, i meteoriti più antichi, che provengono dalla preistoria del nostro sistema solare, la cui composizione chimica è più simile a quella della nebulosa presolare. Rispetto ai minerali che possiamo trovare sulla Terra, i meteoriti presentano una composizione molto più ricca, per la loro storia: ognuno contiene diversi tipi di minerali, per cui si possono ottenere tutte le reazioni prodotte da quell’insieme di minerali in una volta sola. I meteoriti sono una sorta di laboratorio chimico per studiare lo spazio.

Non è ancora vita, ma gli ingredienti ci sono tutti. È tutto talmente chiaro e semplice: un atomo di carbonio solo attaccato ad azoto, idrogeno e ossigeno, se ulteriormente attivato, genera composti più complessi precursori sia della parte genetica che di quella metabolica, nella stessa provetta, nello stesso ambiente, nella stessa reazione; qualsiasi meteorite si usi, con diverse fonti di energia. Non a caso questi composti sono stati osservati nelle nubi stellari.

I passi successivi, che hanno portato alla cellula vera e propria a partire da questi composti organici di base ormai non sarebbero più un mistero. Esistono modelli sperimentali che riproducono l’origine spontanea dell’RNA, sono stati condotti vari studi che mostrano come queste molecole si aggreghino spontaneamente in una membrana cellulare, e come questa si replichi spontaneamente.

Finché parliamo di singole molecole, che siano basi nucleiche, zuccheri o amminoacidi, parliamo di chimica non vivente. Per parlare di vivente, serve un insieme di processi genetici, cioè un ciclo di trasmissione dell’informazione, e per questo servono dei polimeri, ovvero catene di molecole più complesse. In questo senso, i nucleosidi sono fondamentali perché possono unirsi in catene e formare RNA.

L’unica cosa che manca è capire come tutte queste molecole si siano messe a cooperare per far funzionare la vita come sistema complesso, qual è la scintilla che ha coordinato i lavori affinché nascesse il cosiddetto Last Unknown Common Ancestor (LUCA), che probabilmente fu un batterio Archaea estremofilo. Questo è oggetto di ricerca di una disciplina a sé, la biologia sintetica, o chimica dei sistemi.

In questo ambito, gli scienziati stanno cercando di capire se questa scintilla non sia stata favorita dall’azione di sostanze minerali. Alcuni sistemi che simulano le condizioni della Terra quando si è originata la vita hanno mostrato la crescita spontanea di membrane cristalline, che potrebbero aver favorito il momento di passaggio da un cocktail di molecole a una cellula vivente vera e propria.

La vita è semplice, è tutto “poco costoso”: deve essersi originata da processi frequenti, termodinamicamente favoriti, grazie a una fonte di energia disponibile ovunque e materiali di partenza molto diffusi.

Oppure, come aveva scoperto il vecchio insegnante di archeologia del Capitano Picard, il professor Galen, sono stati gli alieni.